Recientemente, California presentó un proyecto de ley llamado SB243, diseñado para proteger a los niños de los riesgos potenciales de los chatbots de inteligencia artificial. Este proyecto de ley, presentado por el senador estatal de California, Steve Padilla, exige principalmente que las empresas de IA recuerden periódicamente a los menores que los chatbots son, en realidad, inteligencia artificial, y no humanos.
Fuente: Imagen generada por IA, proveedor de servicios de licencias de imágenes Midjourney
El objetivo principal del proyecto de ley es prevenir problemas como la adicción, el aislamiento y la desinformación en niños que usan chatbots. Además de exigir recordatorios periódicos por parte de las empresas de IA, el proyecto de ley también restringe el uso de "patrones de interacción adictivos" y exige que presenten informes anuales al Departamento de Servicios de Salud de California. Estos informes deben incluir el número de veces que se detectaron pensamientos suicidas en usuarios adolescentes y la frecuencia con la que los chatbots mencionaron este tema. Además, las empresas de IA deben informar a los usuarios que sus chatbots pueden no ser adecuados para algunos niños.
La presentación de este proyecto de ley está estrechamente relacionada con una demanda por muerte por negligencia presentada por padres contra la empresa Character.AI. La demanda alega que los chatbots personalizados de la compañía son "extremadamente peligrosos", ya que sus hijos, después de interactuar con los chatbots durante largos períodos, terminaron suicidándose. Otra demanda acusa a la compañía de enviar "material dañino" a adolescentes. Ante esto, Character.AI anunció que está desarrollando funciones de control parental y lanzando nuevos modelos de IA destinados a bloquear contenido "sensible o sugestivo" para proteger a los adolescentes.
Padilla declaró en una conferencia de prensa: "Nuestros hijos no son conejillos de indias para las empresas de tecnología, y no se puede experimentar con su salud mental. Necesitamos brindar protección de sentido común a los usuarios de chatbots y evitar que los desarrolladores utilicen métodos que saben que son adictivos y explotadores". A medida que los gobiernos estatales y federales prestan cada vez más atención a la seguridad de las plataformas de redes sociales, es probable que los chatbots de IA se conviertan en el próximo foco de atención de los legisladores.
Puntos clave:
🛡️ El nuevo proyecto de ley de California exige que las empresas de IA recuerden a los niños que los chatbots son inteligencia artificial, no humanos.
📊 Las empresas de IA deben presentar informes al gobierno sobre los pensamientos suicidas de los niños y la frecuencia con la que se habla de este tema en los chatbots.
👨👧👦 El proyecto de ley tiene como objetivo proteger la salud mental de los niños y restringir los "patrones de interacción adictivos".