Eine neue Studie des Digital News Centers der Columbia Journalism Review zeigt, dass beliebte KI-Suchtools bei der Beantwortung von Fragen in über 60 % der Fälle falsche oder irreführende Informationen liefern. Dieses Ergebnis ist besorgniserregend, da diese Tools nicht nur das öffentliche Vertrauen in Nachrichtenberichte untergraben, sondern auch Verlage mit Einnahmeverlusten und sinkenden Zugriffszahlen konfrontieren.
Bildquelle: Das Bild wurde mit KI generiert und stammt von Midjourney.
Die Forscher testeten acht generative KI-Chatbots, darunter ChatGPT, Perplexity, Gemini und Grok. Sie baten die Bots, Auszüge aus 200 aktuellen Nachrichtenartikeln zu identifizieren. Das Ergebnis: Über 60 % der Antworten waren falsch. Die Chatbots erfanden häufig Überschriften, führten keine Quellenangaben an oder verwiesen auf nicht autorisierte Inhalte. Selbst wenn sie den Herausgeber korrekt angaben, führten die Links oft zu ungültigen URLs, Nachdrucken oder irrelevanten Seiten.
Enttäuschend ist, dass diese Chatbots selten Unsicherheit äußerten, sondern stattdessen mit unangemessener Selbstsicherheit falsche Antworten lieferten. ChatGPT lieferte beispielsweise bei 200 Suchanfragen 134 falsche Informationen, äußerte aber nur in 15 Fällen Zweifel. Auch die kostenpflichtigen Versionen Perplexity Pro und Grok3 zeigten eine unbefriedigende Leistung mit einer noch höheren Anzahl falscher Antworten, obwohl sie monatlich 20 bzw. 40 US-Dollar kosten.
Bei der Quellenangabe missachteten mehrere Chatbots die Beschränkungen der Verlage. Fünf Chatbots ignorierten sogar das weit verbreitete Robot Exclusion Protocol (robots.txt). Perplexity zitierte beispielsweise korrekt einen Artikel von National Geographic, obwohl der Verlag den Crawler eingeschränkt hatte. Gleichzeitig verwies ChatGPT über nicht autorisierte Yahoo-Nachrichten auf einen kostenpflichtigen Artikel der USA Today.
Darüber hinaus leiteten viele Chatbots die Nutzer zu Nachdrucken auf Plattformen wie AOL oder Yahoo anstatt zu den Originalquellen, selbst wenn bereits Lizenzen mit KI-Unternehmen vereinbart waren. Perplexity Pro zitierte beispielsweise eine Nachdruckversion des Texas Tribune, ohne die entsprechende Quellenangabe zu machen. Grok3 und Gemini erfanden hingegen oft URLs; bei Grok3 führten 154 von 200 Antworten zu falschen Seiten.
Diese Studie unterstreicht die zunehmende Krise für Nachrichtenagenturen. Immer mehr Amerikaner nutzen KI-Tools als Informationsquelle, aber im Gegensatz zu Google leiten Chatbots keinen Traffic auf Webseiten um. Sie fassen Inhalte zusammen, ohne zurück zu verlinken, wodurch Verlage Einnahmen aus Werbung verlieren. Danielle Coffey von der News Media Alliance warnt, dass Verlage ohne Kontrolle über Crawler ihre „wertvollen Inhalte nicht effektiv monetarisieren oder Journalisten bezahlen“ können.
Nachdem das Forschungsteam OpenAI und Microsoft kontaktiert hatte, verteidigten diese zwar ihre Vorgehensweise, reagierten aber nicht auf die konkreten Studienergebnisse. OpenAI erklärte, es „respektiere die Präferenzen der Verlage“ und helfe Nutzern, „hochwertige Inhalte zu entdecken“, während Microsoft behauptete, das „robots.txt“-Protokoll zu befolgen. Die Forscher betonen, dass die fehlerhaften Zitierpraktiken ein systemisches Problem und kein Phänomen einzelner Tools sind. Sie fordern KI-Unternehmen auf, Transparenz, Genauigkeit und den Respekt vor den Rechten der Verlage zu verbessern.
Wichtigste Punkte:
📊 Die Studie ergab, dass KI-Chatbots in über 60 % der Fälle falsche Antworten liefern, was die Glaubwürdigkeit von Nachrichten stark beeinträchtigt.
📰 Viele Chatbots ignorieren die Beschränkungen der Verlage und verwenden nicht autorisierte Inhalte und fehlerhafte Links.
💰 Nachrichtenagenturen stehen vor einer doppelten Krise aus sinkenden Zugriffszahlen und Einnahmeverlusten, da KI-Tools traditionelle Suchmaschinen zunehmend ersetzen.