Recentemente, a plataforma de chatbot de IA Character AI se viu envolvida em uma batalha legal após um caso envolvendo o suicídio de um adolescente. A plataforma apresentou uma petição de arquivamento ao Tribunal Distrital dos EUA para o Distrito Médio da Flórida, alegando imunidade de responsabilidade com base na Primeira Emenda.

Lei

Nota da imagem: A imagem foi gerada por IA, provedor de serviços de licenciamento de imagens Midjourney

O caso começou em outubro, quando Megan Garcia entrou com uma ação contra a Character AI. O filho de Garcia, Sewell Setzer III, de 14 anos, desenvolveu uma forte dependência emocional do chatbot "Dany" da Character AI, o que levou à tragédia. Garcia afirma que seu filho se comunicava frequentemente com o chatbot, gradualmente se alienando da vida real.

Após a morte de Sewell, a Character AI prometeu lançar vários recursos de segurança para melhorar o monitoramento e a intervenção no conteúdo do bate-papo. Garcia, no entanto, quer que a empresa tome medidas mais rigorosas, como proibir o chatbot de contar histórias ou anedotas pessoais.

Em sua petição de arquivamento, a Character AI argumenta que a Primeira Emenda protege os meios de comunicação e as empresas de tecnologia de responsabilidade por supostas declarações prejudiciais, enfatizando que esse direito se aplica igualmente às interações do usuário com chatbots de IA. A petição argumenta que uma decisão favorável ao processo violaria a liberdade de expressão dos usuários.

A petição não menciona se a Character AI está amparada pela Seção 230 da Lei de Decência nas Comunicações. Essa lei visa proteger as mídias sociais e outras plataformas online da responsabilidade pelo conteúdo gerado pelo usuário, mas ainda há controvérsias sobre se o conteúdo gerado por IA é protegido por essa lei.

Além disso, a equipe jurídica da Character AI afirma que a verdadeira intenção de Garcia é "fechar" a Character AI e promover a legislação sobre tecnologias semelhantes. A empresa acredita que uma decisão favorável ao processo criaria um "efeito deletério" na Character AI e em todo o setor emergente de IA generativa.

Além deste processo, a Character AI enfrenta vários outros processos relacionados ao uso de conteúdo de IA por adolescentes. Outras alegações incluem a exibição de "conteúdo sexualmente explícito" para crianças de 9 anos e a incitação ao auto-mutilação em um usuário de 17 anos.

Em dezembro, o Procurador-Geral do Texas, Ken Paxton, anunciou uma investigação sobre a Character AI e outras 14 empresas de tecnologia por supostas violações das leis estaduais de privacidade e segurança online infantil.

Fundada em 2021, a Character AI, como parte de um aplicativo de companhia de IA, embora este setor esteja em rápido crescimento, os impactos na saúde mental ainda não foram totalmente pesquisados. Com o lançamento de várias ferramentas de segurança e modelos de IA específicos para adolescentes, a Character AI afirma que continuará a melhorar a segurança e a moderação de conteúdo de sua plataforma.

Destaques:

📌 A Character AI está sendo processada por um caso de suicídio de adolescente e solicitou o arquivamento do processo, alegando proteção pela Primeira Emenda.  

📌 O filho de Garcia desenvolveu dependência de um chatbot de IA, o que o alienou da vida real, levando a um processo exigindo mais medidas de segurança.  

📌 A Character AI também enfrenta vários outros processos relacionados a usuários adolescentes e uma investigação no Texas.