Récemment, la Californie a proposé un projet de loi, le SB243, visant à protéger les enfants des risques potentiels liés aux robots conversationnels d'intelligence artificielle. Ce projet de loi, présenté par le sénateur californien Steve Padilla, exige principalement que les entreprises d'IA rappellent régulièrement aux mineurs que les robots conversationnels sont en réalité des intelligences artificielles et non des humains.
Source : Image générée par IA, fournisseur de services d'autorisation d'images Midjourney
L'objectif principal du projet de loi est de prévenir les problèmes d'addiction, d'isolement et de désinformation chez les enfants utilisant des robots conversationnels. En plus de l'obligation de rappels réguliers de la part des entreprises d'IA, le projet de loi restreint l'utilisation de « modèles d'interaction addictifs » et exige qu'elles soumettent des rapports annuels au département des services de santé de Californie. Ces rapports doivent inclure le nombre de fois où des pensées suicidaires chez les adolescents ont été détectées, ainsi que le nombre de fois où les robots conversationnels ont abordé ce sujet. De plus, les entreprises d'IA doivent informer les utilisateurs que leurs robots conversationnels peuvent ne pas convenir à certains enfants.
Ce projet de loi fait suite à une action en justice pour mort injustifiée intentée par des parents contre la société Character.AI. Cette action en justice affirme que les robots conversationnels personnalisés de la société présentent un « danger extrême », car leurs enfants ont fini par se suicider après de longues interactions avec le robot conversationnel. Une autre action en justice accuse la société d'envoyer des « matériaux préjudiciables » aux adolescents. Face à cela, Character.AI a annoncé qu'elle développait des fonctionnalités de contrôle parental et qu'elle lançait un nouveau modèle d'IA visant à bloquer les contenus « sensibles ou suggestifs » pour assurer la sécurité des adolescents.
Lors d'une conférence de presse, Padilla a déclaré : « Nos enfants ne sont pas des cobayes pour les entreprises technologiques, et leurs expériences ne doivent pas se faire au détriment de leur santé mentale. Nous devons fournir une protection élémentaire aux utilisateurs de robots conversationnels et empêcher les développeurs d'utiliser des méthodes qu'ils savent être addictives et prédatrices. » Alors que les États et le gouvernement fédéral s'inquiètent de plus en plus de la sécurité des plateformes de médias sociaux, les robots conversationnels d'IA devraient devenir le prochain point de mire des législateurs.
Points clés :
🛡️ Le nouveau projet de loi californien exige que les entreprises d'IA rappellent aux enfants que les robots conversationnels sont des intelligences artificielles et non des humains.
📊 Les entreprises d'IA doivent soumettre des rapports au gouvernement concernant les pensées suicidaires chez les enfants et la fréquence des discussions sur ce sujet.
👨👧👦 Le projet de loi vise à protéger la santé mentale des enfants et à limiter les « modèles d'interaction addictifs ».