De acordo com um novo relatório da Human Rights Watch (HRW), um grande número de fotos pessoais de crianças brasileiras, usadas sem permissão, foram encontradas nos conjuntos de dados usados para treinar geradores populares de imagens de inteligência artificial. Isso levanta sérias preocupações sobre a privacidade e segurança das crianças.

O relatório indica que pesquisadores da HRW, ao analisar o vasto conjunto de dados público "LAION-5B", encontraram links para pelo menos 170 fotos de crianças brasileiras de 10 estados, cobrindo momentos de suas vidas desde a infância até a adolescência. A maioria dessas fotos veio de blogs e vídeos pessoais compartilhados em pequenos círculos de amigos e familiares, sem intenção de divulgação pública.

Crianças, bebês

Nota da imagem: Imagem gerada por IA, fornecida pela Midjourney.

É importante notar que muitas dessas fotos incluem nomes e locais, facilitando a identificação das crianças. O uso indevido dessas imagens pode expor as crianças a riscos de bullying, phishing e outros perigos. Além disso, alguns analistas afirmam que, com o avanço da tecnologia de deepfake, as imagens das crianças podem ser usadas para criar conteúdo sexualmente explícito perturbador.

O relatório cita exemplos de pelo menos 85 meninas brasileiras que relataram que colegas usaram ferramentas de IA para criar e distribuir vídeos falsos de pornografia infantil online, causando traumas psicológicos duradouros. A HRW apela para que o governo tome medidas imediatas para proteger os dados das crianças contra o uso indevido por sistemas de IA.

A organização LAION já colaborou com a HRW e outras instituições para remover os links para imagens de crianças de seus dados de treinamento. No entanto, o relatório alerta que isso pode "subestimar significativamente a quantidade real de dados pessoais de crianças nos conjuntos de dados".

Uma pesquisadora da HRW afirma que essas fotos de família tinham um certo nível de "privacidade" na internet, sendo difíceis de encontrar. Mas agora, com o uso massivo pela inteligência artificial, essa privacidade foi violada. Ela critica a ideia de transferir a responsabilidade pela proteção da privacidade das crianças para os pais, argumentando que o governo e as empresas de tecnologia também devem assumir a responsabilidade e implementar medidas de proteção.

A Human Rights Watch pede ao governo brasileiro que, na próxima legislação sobre proteção dos direitos da criança, proíba explicitamente o uso não autorizado de dados pessoais de crianças para treinar sistemas de IA e estabeleça meios de responsabilização para as crianças vítimas. Há também quem defenda que os países do mundo todo fortaleçam a proteção de dados de crianças em nível legal, para evitar o uso indevido em sistemas de IA ou a geração de conteúdo impróprio.