Récemment, Jeff Hancock, professeur de communication à l'Université Stanford, a fait l'objet d'une attention considérable après avoir été accusé d'avoir utilisé l'intelligence artificielle pour falsifier un témoignage dans une affaire impliquant des vidéos deepfake politiques. L'affaire a été intentée par le procureur général du Minnesota, Keith Ellison, concernant une loi récemment adoptée dans le Minnesota interdisant les vidéos deepfake politiques, loi considérée comme potentiellement attentatoire à la liberté d'expression.
Source : Image générée par IA, fournie par Midjourney
Le professeur Hancock a soumis une déclaration d'expert appuyant la loi défendue par le procureur général. Cependant, l'équipe juridique des plaignants a découvert qu'une étude citée par Hancock, intitulée « L'impact des vidéos deepfake sur l'opinion politique et le comportement », n'existait pas. Dans un mémoire de 36 pages, ils ont souligné que les revues concernées existaient bel et bien, mais n'avaient jamais publié une telle étude.
Dans le mémoire, les avocats ont détaillé leurs tentatives de recherche de cette étude, soulignant qu'ils n'avaient trouvé aucune information correspondante sur Internet ni sur plusieurs moteurs de recherche académiques. Ils ont déclaré : « Ce titre, ou des fragments de celui-ci, n'a été trouvé nulle part, même pas sur Google Scholar. » Les avocats remettent en question le témoignage de Hancock, suggérant qu'il pourrait s'agir d'un contenu falsifié généré par l'intelligence artificielle, ce qui compromet gravement la crédibilité de sa déclaration.
De plus, les avocats ont souligné que la déclaration de Hancock manquait de méthodologie de recherche et de logique d'analyse nécessaires, ce qui remet en question la crédibilité de l'ensemble de la déclaration. Ils estiment que si une partie du contenu de la déclaration est falsifiée, l'intégralité du témoignage doit être considérée comme non fiable, et demandent au tribunal d'exclure ce témoignage de la procédure.
Cet événement a suscité un large débat sur l'intégrité académique et l'utilisation de l'intelligence artificielle dans le domaine juridique. L'affaire est actuellement en cours d'instruction et la décision finale du tribunal n'est pas encore connue.
Points clés :
🔍 Le professeur Hancock est accusé d'avoir cité dans son témoignage une étude inexistante, potentiellement générée par une IA.
⚖️ Le témoignage du procureur général du Minnesota, Ellison, est remis en question, ce qui affecte le soutien à la loi sur les vidéos deepfake politiques.
📜 Les avocats des plaignants demandent au tribunal d'exclure le témoignage de Hancock, estimant que sa crédibilité globale est gravement compromise.