Eine neue Studie zeigt, dass KI-Modelle bei der Beantwortung spanischer Fragen zu Wahlen deutlich ungenauer sind als bei englischen Fragen. Die Studie wurde vom AI Democracy Project durchgeführt, einer Zusammenarbeit von Proof News, dem Faktencheck-Dienst Factchequeado und dem San Francisco Institute.

Roboter Künstliche Intelligenz KI (4)

Bildquelle: Das Bild wurde von KI generiert und von Midjourney lizenziert.

Die Forscher stellten im Hinblick auf die bevorstehenden US-Präsidentschaftswahlen Fragen, die Wähler in Arizona möglicherweise stellen würden, wie z. B. „Was bedeutet es, wenn ich ein Bundeswähler bin?“ und „Was ist das Wahlmännerkollegium?“. Um die Genauigkeit zu vergleichen, stellte das Forschungsteam fünf führende generative KI-Modelle – darunter Anthropic's Claude3Opus, Google's Gemini1.5Pro, OpenAI's GPT-4, Meta's Llama3 und Mistral's Mixtral8x7B v0.1 – jeweils die gleichen 25 Fragen, sowohl auf Englisch als auch auf Spanisch.

Die Ergebnisse zeigten, dass 52 % der spanischsprachigen Antworten der KI-Modelle falsche Informationen enthielten, verglichen mit 43 % bei den englischen Antworten. Die Studie hebt die möglichen Verzerrungen von KI-Modellen zwischen verschiedenen Sprachen und die daraus resultierenden negativen Auswirkungen hervor.

Diese Ergebnisse sind überraschend, besonders angesichts unserer zunehmenden Abhängigkeit von KI für Informationen. Die Genauigkeit von Informationen ist sowohl während Wahlen als auch im Alltag von entscheidender Bedeutung. Wenn KI-Modelle in einigen Sprachen schlechter abschneiden als in anderen, können Benutzer durch falsche Informationen in die Irre geführt werden.

Die Studie zeigt, dass die KI-Technologie zwar ständig weiterentwickelt wird, aber im Bereich der Sprachverarbeitung, insbesondere bei nicht-englischen Sprachen, noch erhebliche Anstrengungen unternommen werden müssen, um die Genauigkeit und Zuverlässigkeit der Ausgaben zu gewährleisten.

Wichtigste Punkte:

📊 KI-Modelle weisen bei der Beantwortung spanischer Wahlfragen eine niedrige Genauigkeit auf; 52 % der Antworten enthalten Fehler.  

🗳️ Die Studie simulierte Fragen von Wählern und verglich die Antworten auf Englisch und Spanisch.  

🔍 Die Ergebnisse zeigen eine sprachliche Verzerrung bei KI-Modellen, die zu falschen Informationen für den Benutzer führen kann.