À l'ère numérique actuelle, la sécurité des enfants en ligne est une préoccupation croissante. Récemment, Roblox, Discord, OpenAI et Google ont lancé conjointement ROOST (Robust Open Online Safety Tools), une organisation à but non lucratif visant à construire une infrastructure de sécurité évolutive et interopérable pour l'ère de l'IA. Cet organisme a pour objectif de fournir aux institutions publiques et privées des outils de sécurité open source pour renforcer la protection sur leurs plateformes, en se concentrant particulièrement sur la sécurité des enfants.
Source : Image générée par IA, fournie par Midjourney
La création de ROOST répond à l'essor rapide de l'IA générative. Face à l'évolution de l'environnement en ligne, les risques pour les enfants augmentent, d'où la nécessité d'une « infrastructure de sécurité fiable et accessible ». ROOST espère éviter aux petites entreprises ou organisations de devoir développer ces outils de zéro en leur fournissant des outils de sécurité prêts à l'emploi et des solutions gratuites.
ROOST prévoit de fournir des outils de détection, de modération et de signalement des contenus d'abus sexuels sur mineurs (CSAM). Cette initiative aidera les différentes plateformes à identifier et à traiter les contenus inappropriés, protégeant ainsi les enfants en ligne. Pour ce faire, les entreprises participantes fourniront non seulement un soutien financier, mais aussi des ressources techniques.
La sécurité des enfants en ligne est un sujet de préoccupation constant, notamment lors de l'examen au Congrès du projet de loi sur la protection de la vie privée des enfants et des adolescents en ligne et du projet de loi sur la sécurité des enfants en ligne. Bien que ces projets de loi n'aient pas été adoptés par la Chambre des représentants, les entreprises technologiques participantes, notamment Google et OpenAI, se sont engagées à cesser d'utiliser l'IA pour générer du contenu d'abus sexuels sur mineurs.
Pour Roblox, la sécurité des enfants est particulièrement importante. Selon les données de 2020, aux États-Unis, deux tiers des enfants âgés de 9 à 12 ans utilisaient Roblox. La plateforme a cependant connu de nombreux défis en matière de sécurité des enfants. Dès 2024, le Bloomberg Businessweek a rapporté des problèmes liés à la pédophilie, ce qui a contraint Roblox à renforcer les restrictions sur les messages privés des enfants et à mettre en place de nouvelles politiques.
Le lancement de ROOST ne résoudra pas tous les problèmes, mais il offre à Roblox et aux plateformes similaires une solution plus simple, contribuant ainsi à la sécurité des enfants à l'ère de l'IA.
Points clés :
🌐 ROOST est une organisation à but non lucratif lancée par Roblox, OpenAI, Google et d'autres entreprises, visant à protéger les enfants en ligne.
🔍 L'organisation fournira des outils de sécurité open source pour aider les plateformes à détecter et à signaler les contenus d'abus sexuels sur mineurs (CSAM).
🛡️ Des plateformes comme Roblox sont confrontées à des défis en matière de sécurité des enfants, et la création de ROOST leur offre des solutions plus efficaces.