Google hat kürzlich sein neuestes KI-Modell, PaliGemma2, vorgestellt. Diese Technologie analysiert Bilder, generiert Bildunterschriften und beantwortet Fragen zu den Emotionen und Handlungen der abgebildeten Personen. PaliGemma2 basiert auf Googles Gemma Open-Source-Modellreihe und bietet im Vergleich zur traditionellen Objekterkennung detailliertere Bildbeschreibungen, einschließlich der Erkennung von Emotionen und der Generierung kontextbezogener Beschreibungen. Trotz des scheinbar bahnbrechenden Fortschritts warnen Experten jedoch vor den potenziellen ethischen und gesellschaftlichen Auswirkungen.

QQ20241206-092015.png

Die Emotionserkennung ist keine Standardfunktion von PaliGemma2, sondern wird durch Feinabstimmung erreicht. Obwohl Google von „umfangreichen Tests“ spricht und eine bessere Performance als branchenüblich hinsichtlich demografischer Verzerrungen behauptet, äußern Experten weiterhin Bedenken hinsichtlich der Zuverlässigkeit der Technologie. Professorin Sandra Woehrt von der Universität Oxford meint: „Es ist problematisch, menschliche Emotionen mit Hilfe von künstlicher Intelligenz zu ‚lesen‘“, da dieser Prozess stark auf Annahmen beruhe und zu Fehlurteilen und Verzerrungen führen könne.

Die Emotionserkennung ist seit langem ein umstrittenes Thema in der Technologiebranche. Während frühe Studien wie die Emotionstheorie von Paul Ekman sechs Basisemotionen postulierten, zeigen spätere Untersuchungen große Unterschiede in der Emotionsausdruck zwischen verschiedenen Kulturen und Kontexten. Mike Cook, Forscher an der Queen Mary University of London, betont: „Die Komplexität der emotionalen Erfahrung macht eine genaue Emotionserkennung nahezu unmöglich.“ Darüber hinaus zeigen Studien, dass bestehende Systeme zur Gesichtsausdrucksanalyse oft Vorurteile gegenüber bestimmten Emotionen aufweisen, beispielsweise bei Lächeln oder bei Unterschieden im Gesichtsausdruck verschiedener ethnischer Gruppen.

Mit der zunehmenden Kommerzialisierung der Emotionserkennung wächst die Besorgnis über mögliche Missbrauchsfälle. Einige Experten befürchten, dass diese Technologie in Bereichen wie Strafverfolgung und Personalbeschaffung eingesetzt werden könnte und die soziale Ungleichheit weiter verschärft. Der EU-AI-Act sieht bereits strenge Beschränkungen für die Emotionserkennung vor, insbesondere in Hochrisikobereichen.

Google beteuert, dass bei PaliGemma2 in der Testphase ethische und sicherheitsrelevante Aspekte, insbesondere im Hinblick auf Kinder und den Schutz von Inhalten, umfassend berücksichtigt wurden. Ob diese Zusicherungen jedoch ausreichen, muss kritisch geprüft werden. Dr. Heidy Khlaaf vom AI Now Institute erklärt, dass Emotionserkennung nicht nur ein visuelles Problem sei, sondern auch tiefe soziale und kulturelle Hintergründe umfasse: „Emotionen lassen sich nicht allein anhand von Gesichtszügen genau ableiten.“

Mit der Veröffentlichung dieser Technologie wird PaliGemma2 nicht nur die Anwendung von künstlicher Intelligenz im Bereich des Bildverständnisses vorantreiben, sondern auch neue Herausforderungen für die gesellschaftliche Ethik und den Datenschutz aufwerfen, die die Aufmerksamkeit und Intervention der zuständigen Aufsichtsbehörden erfordern.