Eine neue Tendenz auf Elon Musks Social-Media-Plattform X (ehemals Twitter) sorgt für Aufsehen: Einige Nutzer verwenden den von Musks KI-Unternehmen xAI entwickelten KI-Chatbot Grok zur „Faktenprüfung“. Diese Vorgehensweise bereitet professionellen Faktencheckern Sorgen, da sie die Verbreitung von Falschinformationen weiter verstärken könnte.
Anfang des Monats wurde Nutzern von X die Möglichkeit gegeben, direkt Fragen an xAIs Grok zu stellen und Antworten zu verschiedenen Themen zu erhalten. Ähnlich wie Perplexity, das automatisierte Accounts auf X betreibt, um einen ähnlichen Service anzubieten.
Kurz nach der Einführung des automatisierten Grok-Accounts auf X begannen Nutzer, diverse Fragen zu stellen. Besonders in Märkten wie Indien forderten einige Nutzer Grok auf, Kommentare und Fragen zu bestimmten politischen Standpunkten zu „faktenprüfen“.
Faktenchecker äußern jedoch Bedenken hinsichtlich der Verwendung von Grok oder ähnlichen KI-Assistenten zur „Faktenprüfung“, da diese Bots selbst bei der Verbreitung von Falschinformationen überzeugende Antworten liefern können. Es gab bereits Fälle, in denen Grok Falschmeldungen und irreführende Informationen verbreitet hat.
Bereits im August vergangenen Jahres forderten fünf amerikanische Staatssekretäre Musk auf, Grok entscheidend anzupassen, nachdem der Assistent im Vorfeld der US-Wahlen irreführende Informationen in sozialen Netzwerken verbreitet hatte. Auch andere Chatbots wie OpenAIs ChatGPT und Googles Gemini generierten im vergangenen Jahr ungenaue Informationen zu Wahlen. Forscher im Bereich der Bekämpfung von Falschinformationen stellten 2023 fest, dass KI-Chatbots wie ChatGPT leicht überzeugende Texte mit irreführenden Erzählungen erstellen können.
Angie Holland, Leiterin des International Fact-Checking Network (IFCN), erklärte gegenüber TechCrunch: „KI-Assistenten wie Grok sind sehr gut darin, natürliche Sprache zu verwenden und Antworten zu geben, die sich wie von Menschen stammen anhören. Selbst wenn das KI-Produkt potenziell schwerwiegende Fehler enthält, vermittelt es so ein Gefühl von Natürlichkeit und Authentizität. Genau darin liegt die Gefahr.“
Ein X-Nutzer bat Grok beispielsweise, die Aussage eines anderen Nutzers zu „faktenprüfen“. Im Gegensatz zu KI-Assistenten verwenden Faktenchecker mehrere glaubwürdige Quellen, um Informationen zu verifizieren. Sie übernehmen auch die volle Verantwortung für ihre Ergebnisse, unterzeichnen diese und geben ihre Zugehörigkeit an, um die Glaubwürdigkeit zu gewährleisten.
Pratik Sinha, Mitbegründer der indischen Non-Profit-Faktencheck-Website Alt News, weist darauf hin, dass Groks Fähigkeit, überzeugende Antworten zu liefern, vollständig von der Qualität der Daten abhängt, auf die er zugreift. Er betont: „Wer entscheidet, auf welche Daten er zugreift? Fragen nach staatlicher Einflussnahme stellen sich. Mangelnde Transparenz ist gefährlich, denn alles, was nicht transparent ist, kann beliebig geformt werden… und kann missbraucht werden – zur Verbreitung von Falschinformationen.“
In einer Antwort Anfang der Woche räumte der offizielle Grok-Account auf X ein, dass er „missbraucht werden kann – zur Verbreitung von Falschinformationen und zum Verstoß gegen die Privatsphäre“. Der automatisierte Account zeigt den Nutzern jedoch keine Haftungsausschlüsse an, wenn er eine Antwort gibt. Wenn seine Antwort eine „Halluzination“ ist, könnte der Nutzer in die Irre geführt werden. Dies ist ein potenzieller Nachteil von KI. Anushkha Jain, Forscherin am Digital Futures Lab, einer interdisziplinären Forschungseinrichtung in Goa, erklärte gegenüber TechCrunch: „Es kann Informationen erfinden, um zu antworten.“
Es gibt auch Fragen, inwieweit Grok Beiträge auf X als Trainingsdaten verwendet und welche Qualitätskontrollmaßnahmen er zur Überprüfung der Richtigkeit dieser Beiträge einsetzt. Im vergangenen Sommer führte X eine Änderung durch, die es Grok offenbar ermöglichte, standardmäßig öffentliche Daten von X-Nutzern zu verwenden.
Ein weiterer besorgniserregender Aspekt der Verbreitung von Informationen durch KI-Assistenten (wie Grok) über Social-Media-Plattformen ist, dass selbst wenn einige Nutzer wissen, dass Informationen von KI-Assistenten irreführend oder nicht ganz korrekt sein können, andere Nutzer auf der Plattform diese Informationen dennoch glauben könnten. Dies kann schwerwiegende gesellschaftliche Schäden verursachen. In Indien führten in der Vergangenheit über WhatsApp verbreitete Falschinformationen zu gewalttätigen Übergriffen, obwohl diese schwerwiegenden Vorfälle vor dem Aufkommen generativer KI stattfanden. Generative KI macht die Erstellung von synthetischen Inhalten nun einfacher und realistischer.
Holland vom IFCN erklärt: „Wenn man viele Antworten von Grok sieht, könnte man denken, dass die meisten richtig sind, vielleicht sind sie es auch, aber einige sind sicherlich falsch. Wie hoch ist der Prozentsatz der Fehler? Es ist kein kleiner Prozentsatz. Einige Studien zeigen, dass die Fehlerquote bei KI-Modellen bis zu 20 % beträgt… und wenn ein Fehler auftritt, kann dies schwerwiegende reale Konsequenzen haben.“
KI-Unternehmen wie xAI verbessern ihre KI-Modelle, damit sie menschenähnlicher kommunizieren, aber sie sind es jetzt noch nicht – und werden es in Zukunft auch nicht sein – in der Lage, Menschen zu ersetzen. In den letzten Monaten haben Technologieunternehmen nach Möglichkeiten gesucht, die Abhängigkeit von menschlichen Faktencheckern zu verringern. Plattformen wie X und Meta haben begonnen, mit sogenannten „Community Notes“ Crowd-Sourced Faktenchecks zu testen. Natürlich bereiten diese Veränderungen auch Faktencheckern Sorgen.
Sinha von Alt News ist optimistisch, dass die Menschen letztendlich lernen werden, zwischen maschinellen und menschlichen Faktencheckern zu unterscheiden, und die Genauigkeit von Menschen höher bewerten werden. Holland meint auch: „Letztendlich werden wir sehen, wie sich das Pendel wieder in Richtung einer stärkeren Betonung der Faktenprüfung bewegt.“ Sie weist jedoch darauf hin, dass Faktenchecker in der Zwischenzeit aufgrund der schnellen Verbreitung von KI-generierten Informationen möglicherweise mehr Arbeit haben werden. Sie fügt hinzu: „Ein großer Teil dieses Problems hängt davon ab, ob man sich wirklich darum kümmert, was wahr ist, oder ob man einfach nach etwas sucht, das sich wahr anhört und anfühlt, aber nicht wahr ist? Denn genau das bieten KI-Assistenten.“
X und xAI haben nicht auf die Bitte um Stellungnahme reagiert.
Wichtigste Punkte:
- 🤖 Musks KI-Roboter Grok wird zur Faktenprüfung auf X verwendet, was bei menschlichen Faktencheckern Sorgen über die Verbreitung von irreführenden Informationen auslöst.
- ⚠️ KI-Assistenten wie Grok können überzeugende, aber ungenaue Antworten generieren und es mangelt an transparenter Qualitätskontrolle und Datenquellen.
- 👨👩👧👦 Menschliche Faktenchecker verlassen sich auf mehrere glaubwürdige Quellen und übernehmen Verantwortung, während KI die Rolle des Menschen bei der Überprüfung von Informationen nicht ersetzen kann.