Recientemente, una demanda federal en curso sobre una ley de Minnesota que trata sobre el "uso de la tecnología deepfake para influir en las elecciones" ha generado una nueva controversia. En documentos legales recientes, el equipo legal de los demandantes afirma que las declaraciones juradas que respaldan la ley podrían contener texto generado por inteligencia artificial.

Ayudante de IA Robot

Nota de la fuente: La imagen fue generada por IA, proveedor de servicios de licencias de imágenes Midjourney

Según un informe de Minnesota Reformer, el Fiscal General del estado, Keith Ellison, solicitó al director fundador del Laboratorio de Redes Sociales de Stanford, Jeff Hancock, que proporcionara evidencia relevante. Sin embargo, varias de las investigaciones mencionadas en la declaración jurada de Hancock carecen de evidencia sustancial y muestran posibles "alucinaciones" de la IA.

La declaración jurada de Hancock cita un estudio publicado en 2023 en la revista Information Technology & Politics, titulado "El impacto de los videos deepfake en las actitudes y el comportamiento político".

Sin embargo, los informes indican que no se ha encontrado registro de este estudio en dicha revista ni en ninguna otra publicación. Además, otro estudio mencionado en la declaración jurada, titulado "Deepfakes y la ilusión de la verdad: los procesos cognitivos detrás de la aceptación de la desinformación", también carece de evidencia empírica.

En respuesta, los abogados de la representante estatal de Minnesota, Mary Franson, y del YouTuber conservador Christopher Khols, declararon en los documentos: "Estas citas muestran claramente las características de las 'alucinaciones' de la inteligencia artificial (IA), lo que sugiere que al menos parte del contenido fue generado por modelos de lenguaje grandes como ChatGPT". Añaden que esto pone en duda la credibilidad de toda la declaración jurada, especialmente porque muchos de sus argumentos carecen de metodología y lógica analítica.

Hancock no ha respondido a este incidente. El asunto ha generado un debate sobre el uso de la inteligencia artificial en el ámbito legal, especialmente en lo que respecta a la garantía de la precisión y la fiabilidad de la información en asuntos de interés público y elecciones.

Este incidente no solo destaca el impacto de la tecnología deepfake, sino que también ofrece nuevas perspectivas para el mundo jurídico sobre cómo manejar la evidencia relacionada con la inteligencia artificial. La capacidad de identificar y verificar eficazmente las fuentes de información se ha convertido en un desafío importante para la práctica jurídica.

Puntos clave:

📰 El contenido de una declaración jurada sobre un proyecto de ley de Minnesota sobre deepfakes se cuestiona por ser texto generado por IA.

🔍 El equipo legal señala que las investigaciones citadas no existen, sospechando de "alucinaciones" de la IA.

⚖️ Este incidente ha generado un amplio debate sobre el uso de la inteligencia artificial en documentos legales, centrándose en la precisión de la información.