Eine kürzlich durchgeführte Studie der Universität Washington, der Carnegie Mellon Universität und der Xi'an Jiaotong Universität hat ergeben, dass KI-Sprachmodelle politische Voreingenommenheiten aufweisen. Die Forscher testeten 14 Modelle und verwendeten den Political Compass Test, um die politische Neigung der Modelle zu bestimmen.
Die Ergebnisse zeigten, dass OpenAIs ChatGPT und GPT-4 als die linksliberalsten Modelle eingestuft wurden, während Metas LLaMA als das rechtsautoritärstes Modell eingestuft wurde.
Die Forscher weisen darauf hin, dass der Political Compass Test zwar keine perfekte Methode ist, aber dazu beiträgt, die Voreingenommenheit der Modelle aufzudecken. Sie fordern Unternehmen auf, sich dieser Voreingenommenheiten bewusst zu sein und sich um fairere Produkte zu bemühen.
Die Ergebnisse dieser Studie mahnen zur Vorsicht bei der Entwicklung und Verwendung von KI-Sprachmodellen und betonen die Notwendigkeit, politische Voreingenommenheiten zu berücksichtigen und eine faire und vielfältige Darstellung zu gewährleisten.