OpenAI steht derzeit vor einer Datenschutzbeschwerde aus Norwegen, die sich hauptsächlich gegen die häufige Erzeugung von Falschinformationen durch seinen KI-Chatbot ChatGPT richtet. Der Fall wird von der Datenschutzorganisation Noyb unterstützt und wurde von Alf Harmar Holmen eingereicht. Er war schockiert und empört, als ChatGPT fälschlicherweise behauptete, er sei wegen des Mordes an zwei Kindern und des versuchten Mordes an einem dritten verurteilt worden.

Bisherige Datenschutzbeschwerden gegen ChatGPT betrafen hauptsächlich grundlegende Fehler bei persönlichen Daten, wie ungenaue Geburtsdaten oder biografische Informationen. Ein zentrales Problem ist, dass OpenAI keine effektive Möglichkeit bietet, von der KI generierte Falschinformationen zu korrigieren. Normalerweise verhindert OpenAI die Generierung solcher falschen Antworten. Nach der EU-Datenschutzgrundverordnung (DSGVO) haben Europäer jedoch eine Reihe von Datenzugriffsrechten, darunter das Recht auf Berichtigung persönlicher Daten.

Noyb weist darauf hin, dass die DSGVO vorschreibt, dass personenbezogene Daten korrekt sein müssen, und dass Benutzer bei Ungenauigkeiten ein Recht auf Berichtigung haben. Noybs Anwalt, Joachim Søderberg, argumentiert, dass OpenAIs einfacher Haftungsausschluss am Ende, der besagt „ChatGPT kann Fehler machen“, nicht ausreicht. Nach der DSGVO sind KI-Entwickler dafür verantwortlich, sicherzustellen, dass ihre Systeme keine schwerwiegenden Falschinformationen verbreiten.

Verstöße gegen die DSGVO können mit Bußgeldern von bis zu 4 % des weltweiten Jahresumsatzes geahndet werden. Im Frühjahr 2023 hatte die italienische Datenschutzbehörde den Zugriff auf ChatGPT vorübergehend gesperrt, was OpenAI zu Anpassungen seiner Informationsweitergabe an Benutzer veranlasste. Dennoch zeigen die europäischen Datenschutzbehörden in den letzten Jahren eine wachsende Vorsicht gegenüber generativer KI und suchen nach geeigneten Regulierungsansätzen.

Die neue Beschwerde von Noyb zielt darauf ab, die Aufsichtsbehörden auf die potenziellen Gefahren von KI-generierten Falschinformationen aufmerksam zu machen. Sie teilten einen Screenshot einer ChatGPT-Interaktion, der zeigt, wie die KI auf eine Anfrage zu Holmen eine völlig falsche und beunruhigende Geschichte generierte. Dieser Fall ist kein Einzelfall; Noyb weist auch auf andere Fälle hin, in denen Benutzer durch ähnliche Falschinformationen geschädigt wurden.

Obwohl OpenAI die falschen Anschuldigungen gegen Holmen nach einem Modell-Update eingestellt hat, bleiben Noyb und Holmen besorgt, dass die falschen Informationen möglicherweise im KI-Modell verbleiben. Noyb hat eine Beschwerde bei der norwegischen Datenschutzbehörde eingereicht und erwartet eine Untersuchung durch die Behörde.

Wichtigste Punkte:

🌐 Noyb unterstützt eine Datenschutzbeschwerde eines Norwegers gegen ChatGPT wegen der Generierung von Falschinformationen.

⚖️ Nach der DSGVO müssen personenbezogene Daten korrekt sein, OpenAI erfüllt diese Anforderung nicht.

🔍 Noyb hofft, durch diese Beschwerde die Aufmerksamkeit der Aufsichtsbehörden auf das Problem der KI-Falschinformationen zu lenken.