Google hat kürzlich die neue KI-Modellfamilie PaliGemma2 vorgestellt, deren bemerkenswerteste Funktion die angebliche Fähigkeit ist, menschliche Emotionen durch Bildanalyse zu „erkennen“. Diese Behauptung hat in der Wissenschaft und bei Experten für Technologieethik breite Diskussionen und erhebliche Zweifel ausgelöst.

Dieses auf dem Gemma-Open-Source-Modell basierende KI-System kann detaillierte Bildbeschreibungen generieren, die über einfache Objekterkennung hinausgehen und versuchen, das Verhalten und die Emotionen der abgebildeten Personen zu beschreiben. Mehrere führende Experten haben jedoch vor der wissenschaftlichen Gültigkeit und den potenziellen Risiken dieser Technologie gewarnt.

Sandra Wachter, Professorin für Datenethik am Oxford Internet Institute, erklärte unverblümt, dass der Versuch, menschliche Emotionen mit KI zu „lesen“, so sei, als würde man „eine Zauberkugel um Rat fragen“. Dieses Bild verdeutlicht die Absurdität der Emotionserkennungstechnologie.

image.png

Tatsächlich ist die wissenschaftliche Grundlage der Emotionserkennung selbst äußerst fragil. Die frühe Theorie der sechs Basisemotionen des Psychologen Paul Ekman wurde durch spätere Forschung weitgehend in Frage gestellt. Menschen unterschiedlicher kultureller Hintergründe drücken Emotionen auf deutlich verschiedene Weise aus, was eine universelle Emotionserkennung nahezu unmöglich macht.

Mike Cook, KI-Forscher an der Queen Mary University, erklärte noch direkter, dass die Emotionserkennung im allgemeinen Sinne unmöglich ist. Obwohl Menschen oft glauben, die Emotionen anderer durch Beobachtung beurteilen zu können, ist diese Fähigkeit weitaus komplexer und unzuverlässiger als angenommen.

Besorgniserregender ist, dass solche KI-Systeme oft erhebliche Vorurteile aufweisen. Mehrere Studien zeigen, dass Modelle zur Gesichtsanalyse unterschiedliche emotionale Urteile bei Menschen unterschiedlicher Hautfarbe treffen können, was bestehende soziale Diskriminierung verschärfen könnte.

Obwohl Google behauptet, PaliGemma2 umfassend getestet und in einigen Benchmark-Tests gute Ergebnisse erzielt zu haben, bleiben Experten dennoch stark skeptisch. Sie argumentieren, dass begrenzte Tests nicht ausreichen, um die potenziellen ethischen Risiken dieser Technologie umfassend zu bewerten.

Am gefährlichsten ist, dass dieses Open-Source-Modell in Schlüsselbereichen wie Beschäftigung, Bildung und Strafverfolgung missbraucht werden könnte, was zu tatsächlichen Schäden für benachteiligte Gruppen führen könnte. Wie Professorin Wachter warnt, könnte dies zu einer beängstigenden „Ausweglosen“ Zukunft führen: Beschäftigung, Kredite und Bildungsmöglichkeiten würden von der „Emotionsbeurteilung“ eines unzuverlässigen KI-Systems abhängen.

Im Zeitalter des rasanten Fortschritts der künstlichen Intelligenz ist technologische Innovation zwar wichtig, aber Ethik und Sicherheit sind ebenso unerlässlich. Das Aufkommen von PaliGemma2 unterstreicht erneut die Notwendigkeit einer klaren und kritischen Betrachtung von KI-Technologien.