OpenAI fait face à une plainte pour violation de la vie privée déposée en Norvège, concernant principalement la diffusion de fausses informations par son chatbot d'intelligence artificielle, ChatGPT. Cette affaire, soutenue par l'organisation de défense de la vie privée Noyb, a été lancée par Alf Harmar Holmen. Ce dernier a été choqué et indigné de constater que ChatGPT affirmait à tort qu'il avait été condamné pour le meurtre de deux enfants et la tentative de meurtre d'un troisième.
Les plaintes précédentes concernant la vie privée et ChatGPT concernaient principalement des erreurs sur des données personnelles de base, comme des dates de naissance ou des informations biographiques inexactes. Un problème crucial est qu'OpenAI ne fournit pas de moyen efficace permettant aux individus de corriger les fausses informations générées par l'IA. Habituellement, OpenAI bloque les réponses contenant de telles erreurs. Cependant, selon le Règlement général sur la protection des données (RGPD) de l'Union européenne, les Européens disposent d'un ensemble de droits d'accès aux données, y compris le droit de rectification des données personnelles.
Noyb souligne que le RGPD stipule que les données personnelles doivent être exactes et que les utilisateurs ont le droit de demander une rectification si des informations sont inexactes. L'avocat de Noyb, Joakim Söderberg, explique qu'un simple avertissement mentionnant que « ChatGPT peut faire des erreurs », ajouté en bas de page, ne suffit pas à exonérer OpenAI de sa responsabilité. Selon le RGPD, les développeurs d'IA ont le devoir de s'assurer que les informations qu'ils génèrent ne propagent pas de fausses informations graves.
Une violation du RGPD peut entraîner des amendes pouvant atteindre 4 % du chiffre d'affaires annuel mondial. Au printemps 2023, l'autorité italienne de protection des données a temporairement bloqué l'accès à ChatGPT, ce qui a poussé OpenAI à adapter la divulgation de ses informations utilisateur. Néanmoins, les autorités européennes de protection de la vie privée adoptent une approche plus prudente à l'égard de l'intelligence artificielle générative ces dernières années, à la recherche de solutions réglementaires appropriées.
La nouvelle plainte de Noyb vise à attirer l'attention des autorités de régulation sur les dangers potentiels des fausses informations générées par l'IA. Ils ont partagé une capture d'écran d'une interaction avec ChatGPT, montrant que l'IA a généré un historique totalement faux et inquiétant en réponse à des questions sur Holmen. Cet incident n'est pas isolé ; Noyb a également mis en évidence d'autres cas d'utilisateurs ayant subi des préjudices similaires en raison de fausses informations.
Bien qu'OpenAI ait cessé de diffuser de fausses accusations à l'encontre de Holmen après la mise à jour de son modèle, Noyb et Holmen lui-même craignent que des informations erronées ne persistent dans le modèle d'IA. Noyb a déposé une plainte auprès de l'autorité norvégienne de protection des données, espérant que les autorités mèneront une enquête.
Points clés :
🌐 Noyb soutient une plainte pour violation de la vie privée contre ChatGPT déposée par un Norvégien, accusant le chatbot de générer de fausses informations.
⚖️ Selon le RGPD, les données personnelles doivent être exactes, ce que OpenAI n'a pas respecté.
🔍 Noyb espère que cette plainte sensibilisera les autorités de régulation au problème des fausses informations générées par l'IA.