Kürzlich warnten Google-Forscher: Generative KI (GenKI) überschwemmt das Internet mit Falschinformationen. Dies ist nicht nur eine Warnung, sondern auch eine Art Selbstreflexion.
Ironischerweise spielt Google in diesem „Kampf zwischen Wahrheit und Falschheit“ eine doppelte Rolle. Einerseits ist es ein wichtiger Wegbereiter generativer KI, andererseits auch ein Produzent von Falschinformationen. Googles KI-Überblicksfunktion gab beispielsweise absurde Vorschläge wie „Kleber auf Pizza auftragen“ oder „Steine essen“ aus, die später manuell entfernt werden mussten.
Das Google-Forschungsteam untersuchte 200 Nachrichtenberichte über den Missbrauch generativer KI und stellte fest, dass die Manipulation menschlicher Porträts und die Fälschung von Beweisen die häufigsten Missbrauchsfälle darstellen. Ziel dieser Handlungen ist es, die öffentliche Meinung zu beeinflussen, Betrug zu begehen oder Profit zu erzielen. Das Risiko generativer KI ist zwar noch nicht existenzbedrohlich, aber ein gegenwärtiges Problem, das sich in Zukunft verschlimmern könnte.
Die Forscher fanden heraus, dass die meisten Fälle von GenKI-Missbrauch auf einer normalen Nutzung des Systems beruhen und keine „Jailbreaks“ beinhalten. Solche „Standardoperationen“ machen 90 % der Fälle aus. Die breite Verfügbarkeit, Zugänglichkeit und die Überrealität von GenKI ermöglichen eine Vielzahl von Missbrauchsfällen mit geringerem Aufwand. Die Herstellung von Falschinformationen ist einfach zu billig!
Googles Forschungsmaterial stammt größtenteils aus Medienberichten. Heißt das, dass die Forschungsergebnisse von Medienvoreingenommenheit geprägt sind? Medien berichten eher über sensationelle Ereignisse, was zu einer Verzerrung des Datensatzes in Richtung bestimmter Missbrauchsfälle führen kann. 404Media weist darauf hin, dass es noch viele unbekannte Missbrauchsfälle generativer KI gibt.
Die „Sicherheitszäune“ von KI-Tools lassen sich mit einigen Tricks umgehen. Beispielsweise kann das KI-Sprachklon-Tool von ElevenLabs die Stimmen von Kollegen oder Prominenten sehr realistisch imitieren. Civitai-Benutzer können KI-generierte Bilder von Prominenten erstellen. Obwohl die Plattform NCII (Nicht-einvernehmliche intime Bilder) verbietet, hindert dies die Benutzer nicht daran, Open-Source-Tools auf ihren eigenen Geräten zu verwenden, um NCII zu generieren.
Bei einer Flut von Falschinformationen wird die Fähigkeit der Menschen, zwischen Wahrheit und Falschheit zu unterscheiden, stark auf die Probe gestellt. Wir geraten in eine ständige Zweifelssituation: „Ist das wahr?“. Wenn dies nicht behoben wird, könnte die Kontamination öffentlicher Daten durch KI-generierte Inhalte die Informationsbeschaffung behindern und das kollektive Verständnis der soziopolitischen Realität oder des wissenschaftlichen Konsenses verzerren.
Google hat zur Verbreitung von Falschinformationen durch generative KI beigetragen. Die vor Jahren abgefeuerte Kugel trifft nun die eigene Stirn. Die aktuelle Google-Studie ist vielleicht ein Anfang der Selbstheilung und eine Warnung für die gesamte Internet-Gesellschaft.
Studienadresse: https://arxiv.org/pdf/2406.13843