Recentemente, artigos publicados por duas equipes de pesquisa geraram grande atenção, afirmando diretamente que o conteúdo dos produtos de inteligência artificial (IA) generativa pode ser considerado basicamente como "disparate". Um artigo intitulado "O ChatGPT é um disparate" aponta que a IA generativa, ao produzir informações, demonstra uma indiferença à precisão, o que apresenta muitos desafios para os servidores públicos, especialmente aqueles com responsabilidade legal de dizer a verdade.

ChatGPT OpenAI Inteligência Artificial (1)

Os autores Michael Townsen Hicks, James Humphries e Joe Slater enfatizam que a desinformação gerada pela IA generativa não pode ser simplesmente descrita como "mentiras" ou "alucinações". Diferentemente de mentiras intencionais para enganar, o disparate refere-se a uma forma de expressão que não se preocupa com a verdade, mas busca criar uma determinada impressão. Eles argumentam que rotular os erros da IA como "alucinações" apenas engana o público, dando a entender que essas máquinas, de alguma forma, ainda tentam transmitir algo em que "acreditam".

Eles afirmam: "Chamar esses erros de 'disparate' em vez de 'alucinações' não apenas é mais preciso, mas também ajuda a melhorar a compreensão pública da tecnologia." Esta frase destaca a importância de usar termos mais precisos para descrever os erros da IA, especialmente no contexto atual em que a comunicação tecnológica precisa de melhorias urgentes.

Simultaneamente, outro artigo de pesquisa sobre modelos de linguagem grandes (LLMs) concentra-se no ambiente legal e ético da União Europeia em relação a esta questão. A conclusão do artigo é que as leis e regulamentos atuais sobre IA ainda são insuficientes para prevenir eficazmente os danos causados pelo "disparate" gerado por essas IAs. Os autores Sandra Wachter, Brent Mittelstadt e Chris Russell sugerem a introdução de regulamentos semelhantes aos do setor editorial, enfatizando a prevenção de "declarações levianas" que possam causar danos sociais.

Eles apontam que essa obrigação enfatiza que nenhuma entidade única, seja pública ou privada, deve ser a única árbitra da verdade. Eles também afirmam que as "declarações levianas" da IA generativa podem transformar a verdade em uma questão de frequência e opinião majoritária, em vez de fatos reais.

Destaques:

📌 As equipes de pesquisa apontam que a desinformação da IA generativa deve ser chamada de "disparate", e não de "alucinação".

📌 As leis e regulamentos existentes não conseguem prevenir eficazmente os danos causados pela desinformação da IA à sociedade.

📌 Há um apelo para a introdução de novas leis que enfatizem a prevenção de "declarações levianas", garantindo que a verdade não seja um produto da opinião majoritária.