Recentemente, uma ação judicial federal em andamento em Minnesota sobre uma lei que visa “o uso de deepfakes para influenciar eleições” gerou uma nova controvérsia. Em documentos legais recentes, os advogados do autor alegaram que uma declaração juramentada que apoia a lei pode conter texto gerado por inteligência artificial.
Nota da imagem: Imagem gerada por IA, fornecida pela Midjourney.
De acordo com o Minnesota Reformer, o procurador-geral do estado, Keith Ellison, solicitou ao diretor fundador do Stanford Social Media Lab, Jeff Hancock, evidências relevantes. No entanto, várias pesquisas mencionadas na declaração juramentada de Hancock não têm evidências substanciais e mostram possíveis “alucinações” de IA.
A declaração juramentada de Hancock cita um estudo de 2023 publicado no Journal of Information Technology & Politics, intitulado “O Impacto de Vídeos Deepfake nas Atitudes e Comportamentos Políticos”.
No entanto, reportagens indicam que não há registro desse estudo na revista ou em qualquer outra publicação. Além disso, outro estudo mencionado na declaração juramentada, intitulado “Deepfakes e a Ilusão de Veracidade: Processos Cognitivos por Trás da Aceitação de Desinformação”, também carece de evidências empíricas.
Em resposta, os advogados da representante estadual de Minnesota, Mary Franson, e do YouTuber conservador Christopher Khols, afirmaram em seus documentos: “Essas citações claramente apresentam características de ‘alucinação’ de inteligência artificial (IA), sugerindo que pelo menos parte do conteúdo foi gerada por modelos de linguagem grandes, como o ChatGPT.” Eles acrescentaram que isso coloca em dúvida a credibilidade de toda a declaração juramentada, especialmente porque muitos de seus argumentos carecem de metodologia e lógica analítica.
Hancock não respondeu a esse incidente. O caso gerou discussões sobre o uso da inteligência artificial no campo jurídico, especialmente sobre como garantir a precisão e confiabilidade da informação em questões de interesse público e eleições.
Este incidente não apenas destaca o impacto da tecnologia deepfake, mas também oferece novas reflexões para o sistema jurídico sobre como lidar com evidências relacionadas à inteligência artificial. A capacidade de identificar e verificar eficazmente a origem da informação tornou-se um desafio importante na prática jurídica.
Pontos importantes:
📰 O conteúdo da declaração juramentada sobre o projeto de lei de deepfakes de Minnesota é questionado como sendo texto gerado por IA.
🔍 A equipe jurídica aponta que as pesquisas citadas não existem, possivelmente devido a “alucinações” de IA.
⚖️ O incidente gera ampla discussão sobre o uso de inteligência artificial em documentos legais, com foco na precisão da informação.