Na era digital atual, a segurança online das crianças tem se tornado uma preocupação crescente. Recentemente, Roblox, Discord, OpenAI e Google lançaram uma organização sem fins lucrativos chamada ROOST (Ferramentas Online de Segurança Abertas e Robustez), com o objetivo de construir uma infraestrutura de segurança escalável e interconectada para a era da IA. Este novo grupo visa fornecer ferramentas de segurança de código aberto para instituições públicas e privadas, ajudando-as a fortalecer a proteção em suas próprias plataformas, com foco especial na segurança infantil.

Professor robô, professor de IA

Observação da fonte: Imagem gerada por IA, fornecedora de serviços de licenciamento de imagens Midjourney

A criação do ROOST é uma resposta ao rápido desenvolvimento da IA generativa. Com as mudanças no ambiente online, os riscos enfrentados pelas crianças estão aumentando, tornando a necessidade de uma “infraestrutura de segurança confiável e acessível” ainda mais urgente. O ROOST espera evitar que pequenas empresas ou organizações precisem começar do zero no desenvolvimento dessas ferramentas, fornecendo ferramentas de segurança prontas para uso e soluções gratuitas.

Nos planos do ROOST, a organização se concentrará em fornecer ferramentas para detecção, revisão e denúncia de material de abuso sexual infantil (CSAM). Essa iniciativa ajudará várias plataformas a identificar e lidar com conteúdo impróprio, protegendo as crianças no ambiente online. Para isso, as empresas participantes não apenas fornecerão apoio financeiro, mas também contribuirão com sua força técnica.

A segurança online das crianças tem sido uma preocupação constante, especialmente durante a discussão da “Lei de Proteção da Privacidade Online de Crianças e Adolescentes” e da “Lei de Segurança Online Infantil” no Congresso. Embora essas leis não tenham sido aprovadas na Câmara dos Representantes, as empresas de tecnologia envolvidas, incluindo Google e OpenAI, se comprometeram a parar de usar a tecnologia de IA para gerar material de abuso sexual infantil.

Para a Roblox, a segurança infantil é particularmente importante. De acordo com dados de 2020, dois terços das crianças americanas com idades entre nove e doze anos usavam a Roblox. A plataforma enfrentou vários desafios em termos de segurança infantil. Já em 2024, a revista Bloomberg Businessweek relatou que a empresa enfrentava um “problema de pedofilia”, levando a Roblox a fortalecer as restrições às mensagens privadas de crianças e a implementar novas políticas.

Embora o lançamento do ROOST não resolva todos os problemas, ele oferece uma solução mais simples para a Roblox e outras plataformas semelhantes, esforçando-se para garantir a segurança das crianças na era da IA.

Destaques:

🌐 ROOST é uma organização sem fins lucrativos lançada pela Roblox, OpenAI e Google, com o objetivo de proteger as crianças online.

🔍 A organização fornecerá ferramentas de segurança de código aberto para ajudar as plataformas a detectar e denunciar material de abuso sexual infantil (CSAM).

🛡️ Plataformas como a Roblox enfrentam desafios de segurança infantil, e a criação do ROOST oferece uma solução mais eficaz.