Eine aktuelle Studie deckt schwerwiegende Probleme bei der Verarbeitung von Nachrichteninformationen durch KI-Suchmaschinen auf. Das Digital News Center des Columbia Journalism Review (CJR) testete acht KI-Tools mit Echtzeit-Suchfunktion. Das Ergebnis ist besorgniserregend: Über 60 % der Nachrichtenanfragen führten zu falschen Antworten.
Die Studie ergab erhebliche Unterschiede in der Fehlerquote der verschiedenen KI-Plattformen. Grok3 wies eine Fehlerquote von 94 % auf, ChatGPT Search erreichte 67 %. Selbst kostenpflichtige Versionen wie Perplexity Pro und der Premium-Service von Grok3 lieferten häufiger selbstbewusst, aber falsche Antworten. Die Forscher betonen die weit verbreitete Tendenz von KI-Modellen zu „selbstbewussten Fehlern“: Anstelle einer Antwortverweigerung bei mangelnden Informationen werden plausible, aber falsche Antworten erfunden.
Darüber hinaus zeigte die Studie Probleme bei der Quellenangabe von KI-Suchmaschinen auf. Sie verweisen häufig auf Nachrichten-Aggregatoren anstatt auf die Websites der ursprünglichen Herausgeber. Noch besorgniserregender ist, dass einige KI-Tools ungültige URLs erfinden, sodass Nutzer die Informationsquelle nicht aufrufen können. Beispielsweise waren bei Grok3 über die Hälfte der angegebenen Links im Test ungültig.
Diese Probleme stellen Nachrichtenverleger vor große Herausforderungen. Das Blockieren von KI-Crawlern kann dazu führen, dass Inhalte völlig unsigniert bleiben, während das Zulassen des Crawlings dazu führen kann, dass Inhalte zwar weit verbreitet werden, aber keinen Traffic auf die eigene Website lenken. Mark Howard, Chief Operating Officer des Time Magazine, äußerte Bedenken hinsichtlich Transparenz und Kontrolle.
Die Forscher weisen darauf hin, dass angesichts der Tatsache, dass etwa ein Viertel der Amerikaner KI-Modelle bereits als Alternative zu traditionellen Suchmaschinen nutzen, die hohe Fehlerquote die Zuverlässigkeit von Informationen beunruhigt. Diese Studie bestätigt einen ähnlichen Bericht vom November letzten Jahres, der ebenfalls auf Genauigkeitsprobleme von ChatGPT bei der Verarbeitung von Nachrichteninhalten hinwies. Obwohl OpenAI und Microsoft den Eingang der Studienergebnisse bestätigt haben, gingen sie auf die konkreten Probleme nicht direkt ein.
Wichtigste Punkte:
⚠️ Erschreckend hohe Fehlerquote bei der Nachrichtenrecherche von KI-Suchmaschinen: Über 60 % der Antworten sind unzuverlässig.
🔗 Verwirrende Quellenangaben bei KI-Tools: Häufig Verweise auf Nachveröffentlichungs-Plattformen oder erfundene ungültige Links.
🤖 Auch kostenpflichtige KI-Suchdienste liefern möglicherweise häufiger falsche Antworten.