Zwei kürzlich veröffentlichte Forschungsarbeiten haben breite Aufmerksamkeit erregt, indem sie generative KI-Produkte als im Wesentlichen „Unsinn“ bezeichnen. Die Arbeit mit dem Titel „ChatGPT ist Unsinn“ zeigt auf, dass die Gleichgültigkeit generativer KI gegenüber der Genauigkeit bei der Informationsgenerierung für öffentliche Bedienstete, insbesondere für Beamte mit der gesetzlichen Verpflichtung zur Wahrheitsfindung, eine große Herausforderung darstellt.

ChatGPT OpenAI Künstliche Intelligenz (1)

Die Autoren Michael Townsen Hicks, James Humphries und Joe Slater betonen, dass die von generativer KI erzeugten Fehlinformationen nicht einfach als „Lügen“ oder „Halluzinationen“ bezeichnet werden können. Im Gegensatz zu bewussten Lügen bezeichnet Unsinn eine Form der Äußerung, die die Wahrheit nicht beachtet und eine bestimmte Wirkung erzielen will. Sie argumentieren, dass die Bezeichnung der KI-Fehler als „Halluzinationen“ die Öffentlichkeit irreführen und den Eindruck erwecken könnte, dass diese Maschinen immer noch versuchen, etwas zu vermitteln, an das sie „glauben“.

Sie erklären: „Diese Fehler als ‚Unsinn‘ und nicht als ‚Halluzinationen‘ zu bezeichnen, ist nicht nur genauer, sondern trägt auch zu einem besseren Verständnis der Technologie in der Öffentlichkeit bei.“ Dieser Satz unterstreicht die Bedeutung präziserer Begriffe zur Beschreibung von KI-Fehlern, insbesondere vor dem Hintergrund der dringend notwendigen Verbesserung der Wissenschaftskommunikation.

Gleichzeitig befasst sich eine weitere Forschungsarbeit über große Sprachmodelle (LLMs) mit dem rechtlichen und ethischen Umfeld in der EU. Die Studie kommt zu dem Schluss, dass die derzeitigen Rechtsvorschriften zur KI unzureichend sind, um die durch diese KI erzeugten „Unsinnigkeiten“ effektiv zu verhindern. Die Autoren Sandra Wachter, Brent Mittelstadt und Chris Russell schlagen die Einführung von Vorschriften vor, die denen des Verlagswesens ähneln und die Vermeidung von „willkürlichen Äußerungen“, die gesellschaftliche Schäden verursachen könnten, betonen.

Sie weisen darauf hin, dass diese Verpflichtung unterstreicht, dass keine einzelne Einheit, weder im öffentlichen noch im privaten Sektor, alleiniger Richter der Wahrheit sein sollte. Sie argumentieren weiter, dass die „willkürlichen Äußerungen“ generativer KI die Wahrheit in ein Problem der Häufigkeit und Mehrheitsmeinung verwandeln könnten, anstatt sich auf tatsächliche Fakten zu konzentrieren.

Wichtigste Punkte:

📌 Forschungsteams bezeichnen Fehlinformationen generativer KI als „Unsinn“, nicht als „Halluzinationen“.  

📌 Bestehende Gesetze und Vorschriften können die gesellschaftlichen Schäden durch KI-Fehlinformationen nicht effektiv verhindern.  

📌 Es wird die Einführung neuer Vorschriften gefordert, die die Vermeidung von „willkürlichen Äußerungen“ betonen und sicherstellen, dass die Wahrheit nicht zum Produkt von Mehrheitsmeinungen wird.