OpenAI se enfrenta recientemente a una queja de privacidad procedente de Noruega, centrada principalmente en la tendencia de su chatbot de inteligencia artificial, ChatGPT, a generar información falsa. El caso, respaldado por la organización de defensa de la privacidad Noyb, fue presentado por un individuo llamado Alf Harmar Holmen. Holmen se sintió conmocionado e indignado al descubrir que ChatGPT afirmaba falsamente que había sido declarado culpable de asesinar a dos niños e intentar asesinar a un tercero.
Las quejas de privacidad anteriores sobre ChatGPT se centraban principalmente en errores con datos personales básicos, como fechas de nacimiento o información biográfica inexacta. Un problema clave es que OpenAI no ofrece una vía eficaz para que los individuos corrijan la información errónea generada por la IA. Normalmente, OpenAI bloquea las respuestas que generan este tipo de información errónea. Sin embargo, según el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, los europeos tienen una serie de derechos de acceso a los datos, incluido el derecho a rectificar sus datos personales.
Noyb señala que el RGPD exige que los datos personales sean exactos y que, si no lo son, los usuarios tienen derecho a solicitar su rectificación. Joakim Söderberg, abogado de Noyb, afirma que el simple hecho de que OpenAI añada una cláusula de exención de responsabilidad al final indicando que "ChatGPT puede cometer errores" no exime de responsabilidad. Según el RGPD, los desarrolladores de IA son responsables de garantizar que la información que generan no difunda falsedades graves.
Las infracciones del RGPD pueden conllevar multas de hasta el 4% de los ingresos anuales globales. En la primavera de 2023, la autoridad italiana de protección de datos bloqueó temporalmente el acceso a ChatGPT, una medida que impulsó a OpenAI a ajustar la divulgación de información de sus usuarios. A pesar de ello, en los últimos años, los organismos de control de la privacidad europeos han adoptado una actitud más cautelosa con respecto a la IA generativa, buscando un régimen de regulación adecuado.
La nueva queja de Noyb pretende llamar la atención de los organismos reguladores sobre los peligros potenciales de la información falsa generada por la IA. Han compartido una captura de pantalla de una interacción con ChatGPT que muestra cómo la IA generó un historial completamente falso e inquietante en respuesta a preguntas sobre Holmen. Este incidente no es aislado; Noyb también ha señalado casos de otros usuarios que han sufrido daños similares debido a información falsa.
Aunque OpenAI ha dejado de realizar acusaciones falsas contra Holmen tras una actualización de su modelo, Noyb y el propio Holmen siguen preocupados por la posibilidad de que la información errónea pueda persistir en el interior del modelo de IA. Noyb ha presentado una queja ante la Agencia Noruega de Protección de Datos y espera que el organismo regulador investigue el asunto.
Puntos clave:
🌐 Noyb apoya una queja de privacidad contra ChatGPT presentada por un ciudadano noruego por generar información falsa.
⚖️ Según el RGPD, los datos personales deben ser exactos, y OpenAI no ha cumplido este requisito.
🔍 Noyb espera que esta queja llame la atención de los organismos reguladores sobre el problema de la información falsa generada por la IA.