Anthropic hat eine neue Strategie erfolgreich eingesetzt, um die Diskriminierung durch künstliche Intelligenz zu reduzieren. Durch die Integration einer Aufforderung in die Eingabeaufforderungen, das KI-System solle die Antworten "sehr freundlich" gestalten, konnten die Forscher die Diskriminierung auf nahezu Null senken.
Diese Strategie unterstreicht die Notwendigkeit, bei hochriskanten Entscheidungen Sprachmodelle mit Vorsicht einzusetzen und betont, dass die Entscheidungsfindung von der Regierung und der Gesellschaft als Ganzes beeinflusst werden sollte.
Gleichzeitig arbeitet Anthropic mit Google zusammen, um seine Sprachmodelle Claude mit Googles Cloud TPUv5e-Chips zu unterstützen und so die Entwicklung der KI-Technologie voranzutreiben.
Die Studie liefert eine neue Strategie zur Reduzierung von Diskriminierung durch künstliche Intelligenz und hebt die Notwendigkeit hervor, Sprachmodelle bei Entscheidungen mit hohem Risiko vorsichtig einzusetzen.