Récemment, la plateforme de chatbot IA Character AI s'est retrouvée en difficulté juridique suite à une affaire impliquant le suicide d'un adolescent. La plateforme a déposé une requête en rejet auprès du tribunal de district du district moyen de la Floride, affirmant qu'en vertu du Premier Amendement, elle ne devrait pas être tenue responsable des poursuites.

Loi

Source de l'image : Image générée par IA, fournisseur de services d'autorisation d'images : Midjourney

L'affaire a débuté en octobre dernier lorsque Megan Garcia a intenté un procès contre Character AI. Le fils de Garcia, Sewell Setzer III, âgé de 14 ans, a développé une forte dépendance émotionnelle envers le chatbot « Dany » de Character AI, ce qui a conduit à une tragédie. Garcia affirme que son fils communiquait fréquemment avec le chatbot, s'éloignant progressivement de la vie réelle.

Après le décès de Sewell, Character AI s'est engagé à lancer plusieurs fonctionnalités de sécurité pour améliorer la surveillance et l'intervention sur les conversations. Garcia souhaite que l'entreprise prenne des mesures plus strictes, telles que l'interdiction pour les chatbots de raconter des histoires ou des anecdotes personnelles.

Dans sa requête en rejet, Character AI souligne que le Premier Amendement protège les médias et les entreprises technologiques de toute responsabilité pour des propos prétendument nuisibles, soulignant que ce droit s'applique également aux interactions des utilisateurs avec les chatbots IA. La requête souligne que le succès de la poursuite porterait atteinte à la liberté d'expression des utilisateurs.

La requête ne mentionne pas si Character AI bénéficie de la protection de l'article 230 de la loi sur la décence dans les communications. Cette loi vise à protéger les médias sociaux et autres plateformes en ligne de toute responsabilité pour le contenu généré par les utilisateurs, mais le débat persiste quant à savoir si le contenu généré par l'IA est protégé par cette loi.

De plus, l'équipe juridique de Character AI affirme que l'intention réelle de Garcia est de « fermer » Character AI et de promouvoir une législation sur les technologies similaires. L'entreprise estime qu'une victoire dans cette poursuite aurait un « effet dissuasif » sur Character AI et sur l'ensemble du secteur émergent de l'IA générative.

Outre ce procès, Character AI fait face à plusieurs autres poursuites judiciaires liées à l'utilisation de contenus IA par des adolescents. D'autres accusations portent sur la diffusion de « contenu sexuellement explicite » à des enfants de 9 ans par Character AI, ainsi que sur l'incitation à l'automutilation chez un utilisateur de 17 ans.

En décembre, le procureur général du Texas, Ken Paxton, a annoncé l'ouverture d'une enquête sur Character AI et 14 autres entreprises technologiques pour violation présumée des lois de l'État sur la confidentialité et la sécurité des enfants en ligne.

Fondée en 2021, Character AI, en tant qu'application d'accompagnement par IA, a connu un essor rapide, mais les impacts sur la santé mentale restent mal étudiés. Character AI affirme qu'elle continuera à améliorer la sécurité et la gestion du contenu de sa plateforme en lançant plusieurs outils de sécurité et des modèles IA spécifiques aux adolescents.

Points clés :

📌 Character AI est poursuivi suite au suicide d'un adolescent et demande le rejet de la plainte en invoquant la protection du Premier Amendement.

📌 Le fils de Garcia, devenu dépendant d'un chatbot IA, s'est éloigné de la vie réelle, ce qui a conduit à un procès réclamant des mesures de sécurité plus strictes.

📌 Character AI fait également face à plusieurs autres poursuites liées à des utilisateurs adolescents, ainsi qu'à une enquête au Texas.