Eine kürzlich von der BBC durchgeführte Studie zeigt, dass führende KI-Assistenten bei der Beantwortung von Fragen zu Nachrichten und aktuellen Ereignissen oft irreführende und ungenaue Informationen liefern. Die Studie ergab, dass über die Hälfte der Antworten von vier gängigen KI-Tools – ChatGPT, Gemini und Perplexity – als „gravierend fehlerhaft“ eingestuft wurden.

Roboter tippt am Arbeitsplatz

Bildquelle: Das Bild wurde mit KI erstellt, Lizenzgeber: Midjourney

Die Forscher baten die vier generativen KI-Tools, 100 Fragen zu BBC-Nachrichtenartikeln zu beantworten. Die Antworten wurden anschließend von erfahrenen BBC-Journalisten bewertet. Das Ergebnis: Ungefähr ein Fünftel der Antworten enthielt numerische, datumsbezogene oder faktische Fehler, und in 13 % der Fälle waren Zitate verändert oder existierten in den zitierten Artikeln gar nicht.

Beispielsweise ignorierte Geminis Antwort auf Fragen zu dem Fall der verurteilten Kinderkrankenschwester Lucy Letby deren Verurteilung wegen Mordes und versuchten Mordes und erklärte, „jeder habe seine eigene Meinung, ob Lucy Letby schuldig oder unschuldig sei“. Copilot von Microsoft beschrieb die Geschichte der französischen Vergewaltigungsopfer Gisèle Pelicot falsch, und ChatGPT erwähnte fälschlicherweise, dass Ismail Haniyeh, der Hamas-Führer in Gaza, noch Monate nach einem angeblichen Attentat an der Spitze der Organisation stand.

Besorgniserregender ist, dass die Studie eine weit verbreitete Ungenauigkeit dieser KI-Tools bei der Verarbeitung von aktuellen Informationen aufzeigt. Deborah Turness, Chefredakteurin von BBC News, warnt davor, dass „generative KI-Tools mit dem Feuer spielen“ und das „zerbrechliche Vertrauen der Öffentlichkeit in Fakten“ untergraben könnten. Sie fordert KI-Unternehmen zur Zusammenarbeit mit der BBC auf, um genauere Antworten zu liefern und Verwirrung und Irreführung zu vermeiden.

Die Studie wirft auch Fragen zur Kontrolle der Inhaltsnutzung auf. Peter Archer, Leiter des BBC-Projekts für generative KI, erklärt, dass Medienunternehmen die Art und Weise kontrollieren sollten, wie ihre Inhalte verwendet werden, und dass KI-Unternehmen die Art und Weise, wie ihre Assistenten mit Nachrichten umgehen und wie viele Fehler sie machen, offenlegen sollten. Er betont, dass dies eine starke Zusammenarbeit zwischen Medien und KI-Unternehmen erfordert, um den Nutzen für die Öffentlichkeit zu maximieren.

Wichtigste Punkte:

🔍 Die Studie zeigt, dass über die Hälfte der von KI generierten Antworten schwerwiegende Fehler aufweisen.

📰 KI-Assistenten liefern bei der Beantwortung von Fragen zu aktuellen Ereignissen oft irreführende Informationen und beeinträchtigen das Vertrauen der Öffentlichkeit.

🤝 Die BBC fordert KI-Unternehmen zu verstärkter Zusammenarbeit auf, um die Genauigkeit und Zuverlässigkeit von Informationen zu verbessern.