In den letzten Jahren hat die Emotionserkennungstechnologie in der Technologiebranche zunehmend an Bedeutung gewonnen. Viele Technologieunternehmen haben KI-gestützte Emotionserkennungssoftware auf den Markt gebracht, die angeblich anhand von Biodaten den emotionalen Zustand einer Person, einschließlich Glück, Trauer, Wut und Frustration, bestimmen kann. Immer mehr wissenschaftliche Studien zeigen jedoch, dass die Zuverlässigkeit dieser Technologien nicht so hoch ist, wie beworben.

AI Roboter Künstliche Intelligenz (1)

Bildquelle: Das Bild wurde mit KI generiert, Bildlizenzanbieter Midjourney

Neuesten Forschungsergebnissen zufolge weist die Emotionserkennungstechnologie schwerwiegende Probleme hinsichtlich ihrer wissenschaftlichen Gültigkeit auf. Viele Unternehmen behaupten, dass diese Systeme objektiv und auf wissenschaftlichen Methoden basieren, doch tatsächlich stützen sie sich oft auf veraltete Theorien. Diese Theorien gehen davon aus, dass Emotionen quantifizierbar sind und weltweit gleich ausgedrückt werden, obwohl die emotionale Ausdrucksweise stark von Kultur, Umfeld und individuellen Unterschieden beeinflusst wird. Zum Beispiel kann die Hautfeuchtigkeit bei Wut steigen, fallen oder gleich bleiben, was eine genaue Emotionsbestimmung anhand eines einzelnen Biomarkers unmöglich macht.

Gleichzeitig bergen diese Emotionserkennungstechnologien rechtliche und gesellschaftliche Risiken, insbesondere am Arbeitsplatz. Nach neuen EU-Vorschriften ist der Einsatz von KI-Systemen zur Emotionserkennung am Arbeitsplatz verboten, es sei denn, es handelt sich um medizinische oder sicherheitsrelevante Gründe. In Australien hingegen hinkt die Regulierung in diesem Bereich hinterher. Obwohl einige Unternehmen versucht haben, die Gesichtsausdruckanalyse bei der Rekrutierung einzusetzen, wurden die Wirksamkeit und die ethische Vertretbarkeit dieser Technologien stark in Frage gestellt.

Darüber hinaus besteht bei der Emotionserkennungstechnologie das Problem potenzieller Verzerrungen. Diese Systeme können bei der Emotionserkennung gegenüber verschiedenen ethnischen Gruppen, Geschlechtern und Menschen mit Behinderungen diskriminierend sein. Einige Studien zeigen beispielsweise, dass Emotionserkennungssysteme bei der Erkennung von Gesichtern von Schwarzen eher dazu neigen, diese als wütend einzustufen, obwohl der Grad des Lächelns bei beiden gleich ist.

Obwohl Technologieunternehmen die Verzerrungen bei der Emotionserkennung anerkennen, betonen sie, dass diese Verzerrungen hauptsächlich auf den Datensätzen beruhen, mit denen diese Systeme trainiert werden. inTruth Technologies beispielsweise erklärt, dass sie sich für die Verwendung vielfältiger und inklusiver Datensätze einsetzen, um Verzerrungen zu reduzieren.

Die öffentliche Meinung zur Emotionserkennungstechnologie ist nicht positiv. Eine kürzlich durchgeführte Umfrage ergab, dass nur 12,9 % der australischen Erwachsenen den Einsatz von Emotionserkennungstechnologien auf Gesichtsausdruckbasis am Arbeitsplatz befürworten, wobei viele dies als Verletzung der Privatsphäre ansehen.

Wichtigste Punkte:

🌐 Der globale Markt wächst schnell, aber die wissenschaftliche Grundlage der Emotionserkennungstechnologie wird in Frage gestellt.

⚖️ Die EU hat den Einsatz von KI-Systemen zur Emotionserkennung am Arbeitsplatz verboten, während Australien dringend entsprechende Vorschriften benötigt.

🤖 Die Öffentlichkeit steht der Emotionserkennungstechnologie überwiegend negativ gegenüber und sieht sie als Verletzung der Privatsphäre und als voreingenommen an.