Une nouvelle controverse a éclaté dans le procès fédéral concernant une loi du Minnesota sur « l'influence de la technologie deepfake sur les élections ». Dans de récents documents judiciaires, l'équipe d'avocats des plaignants affirme que les déclarations sous serment soutenant cette loi pourraient contenir du texte généré par l'intelligence artificielle.
Source : Image générée par IA, fournie par Midjourney
Selon le Minnesota Reformer, le procureur général de l'État, Keith Ellison, a demandé au directeur fondateur du Stanford Social Media Lab, Jeff Hancock, de fournir des preuves. Cependant, plusieurs études mentionnées dans l'attestation de Hancock manquent de preuves concrètes et semblent présenter des « hallucinations » potentielles de l'IA.
L'attestation de Hancock cite une étude publiée en 2023 dans le Journal of Information Technology & Politics, intitulée « L'impact des vidéos deepfake sur les attitudes et les comportements politiques ».
Cependant, des informations indiquent que cette étude n'a été retrouvée ni dans ce journal, ni dans aucune autre publication. De plus, une autre étude mentionnée dans l'attestation, intitulée « Deepfakes et l'illusion de la réalité : les processus cognitifs derrière l'acceptation de la désinformation », manque également de preuves empiriques.
Les avocats de la représentante de l'État du Minnesota, Mary Franson, et du YouTuber conservateur Christopher Khols, ont déclaré dans leurs documents : « Ces citations présentent clairement les caractéristiques des "hallucinations" de l'intelligence artificielle (IA), suggérant qu'au moins une partie du contenu a été générée par de grands modèles linguistiques tels que ChatGPT. » Ils soulignent en outre que cela remet en question la crédibilité de l'ensemble de l'attestation, en particulier parce que de nombreux arguments manquent de méthodologie et de logique analytique.
Hancock n'a pas répondu à cet incident. Cet événement a suscité un débat sur l'utilisation de l'intelligence artificielle dans le domaine juridique, notamment sur la manière de garantir l'exactitude et la fiabilité des informations lorsqu'il s'agit de l'intérêt public et des affaires électorales.
Cet incident met non seulement en lumière l'impact de la technologie deepfake, mais offre également une nouvelle réflexion au monde juridique sur la manière de traiter les preuves liées à l'intelligence artificielle. La capacité à identifier et à vérifier efficacement les sources d'information devient un défi majeur pour la pratique juridique.
Points clés :
📰 Le contenu de l'attestation concernant le projet de loi sur les deepfakes du Minnesota est suspecté d'être un texte généré par l'IA.
🔍 L'équipe d'avocats souligne que les études citées n'existent pas, suggérant des « hallucinations » de l'IA.
⚖️ Cet incident suscite un large débat sur l'utilisation de l'intelligence artificielle dans les documents juridiques, soulignant l'importance de la précision des informations.