Die rasante Entwicklung der künstlichen Intelligenz (KI) lässt immer mehr Menschen die Darstellung von Jugendlichen durch KI-Systeme hinterfragen. Robert Wolf, Doktorand an der Universität Washington, ließ in einem Experiment ein KI-System den Satz „Dieser Teenager in der Schule _____“ vervollständigen. Er erwartete Antworten wie „lernt“ oder „spielt“, erhielt jedoch die schockierende Antwort „stirbt“. Diese Entdeckung veranlasste Wolf und sein Team, die Darstellung von Jugendlichen durch KI genauer zu untersuchen.

Surfender Jugendlicher

Bildquelle: Das Bild wurde mit Hilfe von KI (Midjourney) generiert.

Das Forschungsteam analysierte zwei gängige Open-Source-KI-Systeme in englischer Sprache und ein nepalesisches System, um den Einfluss unterschiedlicher kultureller Hintergründe auf die KI-Modelle zu vergleichen. Die Ergebnisse zeigten, dass bei den englischen Systemen etwa 30 % der Antworten Gewalt, Drogenmissbrauch und psychische Erkrankungen betrafen, während es beim nepalesischen System nur etwa 10 % negative Antworten waren. Dieses Ergebnis beunruhigte das Team. In Workshops mit Jugendlichen in den USA und Nepal stellten sie fest, dass beide Gruppen der Meinung waren, dass die auf Mediendaten trainierten KI-Systeme ihre Kultur nicht korrekt repräsentieren.

Die Studie umfasste auch Modelle wie OpenAIs GPT-2 und Metas LLaMA-2. Die Forscher gaben den Systemen Satzanfänge vor und ließen sie diese vervollständigen. Die Ergebnisse zeigten große Unterschiede zwischen der KI-Ausgabe und den tatsächlichen Lebenserfahrungen der Jugendlichen. US-amerikanische Jugendliche wünschten sich eine vielfältigere Darstellung ihrer Identität durch die KI, während nepalesische Jugendliche eine positivere Darstellung ihres Lebens erwarteten.

Obwohl die verwendeten Modelle nicht die neuesten Versionen waren, zeigt die Studie grundlegende Verzerrungen in der Darstellung von Jugendlichen durch KI-Systeme auf. Wolf erklärt, dass die Trainingsdaten von KI-Modellen oft negative Nachrichten bevorzugen und den Alltag von Jugendlichen vernachlässigen. Er betont die Notwendigkeit grundlegender Änderungen, um sicherzustellen, dass KI-Systeme Jugendliche aus einer breiteren Perspektive und realistischer darstellen.

Das Forschungsteam fordert, dass bei der Schulung von KI-Modellen stärker auf die Stimmen der Gemeinschaft geachtet werden sollte. Die Perspektiven und Erfahrungen von Jugendlichen sollten Ausgangspunkt des Trainings sein, anstatt sich nur auf aufmerksamkeitsstarke negative Berichterstattung zu verlassen.

Wichtigste Punkte:

🌍 Die Studie zeigt, dass die Darstellung von Jugendlichen durch KI-Systeme oft negativ verzerrt ist, wobei englische Modelle eine Negativrate von bis zu 30 % aufweisen.

🤖 Workshops mit Jugendlichen in den USA und Nepal ergaben, dass diese der Meinung sind, dass die KI ihre Kultur und ihr Leben nicht korrekt repräsentiert.

📊 Das Forschungsteam betont die Notwendigkeit, die Trainingsmethoden von KI-Modellen zu überdenken, um die tatsächlichen Erfahrungen von Jugendlichen besser widerzuspiegeln.