YouTube, la plus grande plateforme vidéo au monde, a lancé un nouveau mécanisme permettant aux utilisateurs de demander la suppression de contenu généré par IA imitant leur apparence ou leur voix. Ce mécanisme élargit la réglementation actuellement assez lâche de cette technologie.

youtube

Bien que ce mécanisme ait été discrètement ajouté aux directives de confidentialité de YouTube mises à jour le mois dernier, c'est seulement cette semaine que TechCrunch l'a remarqué. YouTube considère l'utilisation de l'IA pour « modifier ou créer du contenu synthétique qui vous ressemble ou vous ressemble » comme une atteinte potentielle à la vie privée, plutôt qu'un problème de désinformation ou de droit d'auteur.

Cependant, la suppression n'est pas garantie pour ceux qui en font la demande, et les critères de YouTube restent assez vagues. YouTube indique qu'il prendra en compte plusieurs facteurs, notamment si le contenu est présenté comme « modifié ou synthétique », si la personne « peut être identifiée de manière unique », et si le contenu est « réaliste ». De plus, une importante faille, courante, existe concernant le caractère parodique ou satirique du contenu, ou encore, de manière plus floue, sa valeur d'« intérêt public ». Ces conditions vagues suggèrent une approche plutôt laxiste de la part de YouTube, loin d'une opposition à l'IA.

En matière de protection contre toute atteinte à la vie privée, YouTube applique ses critères habituels et n'accepte que les réclamations de première main. Seules des exceptions sont possibles, comme lorsque la personne usurpée n'a pas accès à internet, est mineure ou décédée.

Si la réclamation est acceptée, YouTube donne 48 heures aux uploaders en infraction pour traiter la plainte, ce qui peut inclure le rognage ou le floutage de la vidéo pour supprimer le contenu problématique, ou la suppression complète de la vidéo. Si l'uploader ne prend pas de mesures dans les délais impartis, sa vidéo sera soumise à un examen plus approfondi par l'équipe YouTube.

Ces directives sont bonnes, mais le véritable problème réside dans la manière dont YouTube les appliquera en pratique. Comme le souligne TechCrunch, YouTube, filiale de Google, a ses propres intérêts dans le domaine de l'IA, notamment la publication d'outils de génération musicale et de robots résumant les commentaires sous les courtes vidéos.

C'est peut-être pourquoi cette nouvelle fonctionnalité de demande de suppression de contenu IA a été lancée discrètement, comme une suite modérée de l'initiative « IA responsable » lancée l'année dernière, et qui entre maintenant en vigueur, exigeant la divulgation des contenus réalistes générés par IA à partir de mars.

Points clés :

- 💡 YouTube lance un mécanisme de réclamation pour les contenus IA imitant des personnes.

- 💡 La suppression n'est pas garantie, et les critères de YouTube restent vagues.

- 💡 Seules des exceptions sont possibles, comme lorsque la personne usurpée n'a pas accès à internet, est mineure ou décédée.