A OpenAI recentemente enfrentou uma reclamação de privacidade da Noruega, focando principalmente na tendência do seu chatbot de inteligência artificial, ChatGPT, de gerar informações falsas. O caso, apoiado pela organização de defesa da privacidade Noyb, foi apresentado por Alf Halmar Hølme, que ficou chocado e indignado ao descobrir que o ChatGPT alegou falsamente que ele havia sido condenado por assassinar duas crianças e tentar matar uma terceira.

Reclamações anteriores de privacidade sobre o ChatGPT se concentraram em erros de dados pessoais básicos, como datas de nascimento ou informações biográficas imprecisas. Um problema crucial é a falta de um mecanismo eficaz da OpenAI para que indivíduos corrijam informações incorretas geradas pela IA. Normalmente, a OpenAI impede a geração dessas respostas errôneas. No entanto, de acordo com o Regulamento Geral de Proteção de Dados (GDPR) da União Europeia, os europeus têm uma série de direitos de acesso a dados, incluindo o direito de retificação de dados pessoais.

A Noyb destaca que o GDPR exige que os dados pessoais sejam precisos, e os usuários têm o direito de solicitar correções se as informações forem imprecisas. O advogado da Noyb, Joachim Søderberg, afirma que o simples acréscimo de um aviso de isenção de responsabilidade pela OpenAI, afirmando que "o ChatGPT pode cometer erros", não é suficiente. De acordo com o GDPR, os desenvolvedores de IA são responsáveis por garantir que as informações geradas não disseminem informações falsas graves.

Violações do GDPR podem resultar em multas de até 4% da receita anual global. Na primavera de 2023, a autoridade italiana de proteção de dados bloqueou temporariamente o acesso ao ChatGPT, levando a OpenAI a ajustar suas divulgações de informações do usuário. Apesar disso, os órgãos reguladores de privacidade europeus têm adotado uma abordagem mais cautelosa em relação à IA generativa nos últimos anos, buscando um regime regulatório adequado.

A nova reclamação da Noyb visa chamar a atenção dos reguladores para os potenciais perigos da geração de informações falsas pela IA. Eles compartilharam uma captura de tela de uma interação com o ChatGPT, mostrando a IA gerando uma história completamente falsa e perturbadora em resposta a perguntas sobre Hølme. Este não é um caso isolado, e a Noyb aponta outros casos de usuários que sofreram danos devido a informações falsas semelhantes.

Embora a OpenAI tenha parado de fazer as alegações falsas sobre Hølme após atualizações do modelo, a Noyb e o próprio Hølme ainda estão preocupados com a possibilidade de informações incorretas permanecerem dentro do modelo de IA. A Noyb apresentou uma reclamação à Autoridade Norueguesa de Proteção de Dados, esperando que os reguladores investiguem o assunto.

Pontos importantes:

🌐 A Noyb apoia uma reclamação de privacidade contra o ChatGPT apresentada por um indivíduo norueguês, alegando a geração de informações falsas.

⚖️ De acordo com o GDPR, os dados pessoais devem ser precisos, e a OpenAI falhou em atender a esse requisito.

🔍 A Noyb espera que esta reclamação chame a atenção dos reguladores para o problema das informações falsas geradas pela IA.