Google hat kürzlich seine Nutzungsbedingungen für generative KI aktualisiert und erlaubt Kunden nun die Verwendung seiner generativen KI-Tools für „automatisierte Entscheidungen“ in „hochrisikobereichen“ wie Medizin und Beschäftigung, vorausgesetzt, es findet eine menschliche Aufsicht statt. Diese Änderung spiegelt sich in der kürzlich veröffentlichten Richtlinie zu verbotenen Anwendungen generativer KI wider.
Bildquelle: Das Bild wurde mit KI generiert und stammt vom Bildlizenzdienstleister Midjourney.
Gemäß der aktualisierten Richtlinie können Kunden unter Aufsicht Googles generative KI verwenden, um automatisierte Entscheidungen zu treffen, die „erhebliche negative Auswirkungen“ auf die Rechte von Einzelpersonen haben könnten. Zu diesen Hochrisikobereichen gehören Beschäftigung, Wohnen, Versicherungen und soziale Leistungen. Frühere Bestimmungen schienen automatisierte Entscheidungen in Hochrisikobereichen vollständig zu verbieten, doch Google erklärt, dass die Verwendung generativer KI für solche Entscheidungen unter menschlicher Aufsicht von Anfang an erlaubt war.
Ein Google-Sprecher erklärte gegenüber den Medien: „Die Anforderung der menschlichen Aufsicht war schon immer Bestandteil unserer Richtlinien und gilt für alle Hochrisikobereiche. Wir haben lediglich einige Bestimmungen neu kategorisiert und einige Beispiele konkreter aufgeführt, um das Verständnis der Nutzer zu verbessern.“
Im Vergleich zu Google haben die wichtigsten Konkurrenten wie OpenAI und Anthropic strengere Regeln für automatisierte Entscheidungen in Hochrisikobereichen. OpenAI verbietet die Verwendung seiner Dienste für automatisierte Entscheidungen in Bezug auf Kreditwürdigkeit, Beschäftigung, Wohnen, Bildung, soziale Bewertungen und Versicherungen. Anthropic erlaubt die Verwendung seiner KI für automatisierte Entscheidungen in Hochrisikobereichen wie Recht, Versicherungen und Medizin, jedoch nur unter Aufsicht von „qualifizierten Fachleuten“ und unter der Bedingung, dass Kunden die Verwendung der KI für solche Entscheidungen klar angeben.
Regulierungsbehörden äußern Bedenken hinsichtlich von KI-Systemen getroffener automatisierter Entscheidungen, da diese Technologie zu verzerrten Ergebnissen führen kann. Studien zeigen beispielsweise, dass KI bei der Bearbeitung von Kredit- und Hypothekenanträgen historische Diskriminierungen fortsetzen kann.
Nichtregierungsorganisationen wie Human Rights Watch fordern insbesondere ein Verbot von „Social Scoring“-Systemen, da diese die Chancen auf soziale Absicherung gefährden und die Privatsphäre verletzen sowie zu voreingenommenen Profilen führen können.
In der EU unterliegen Hochrisiko-KI-Systeme gemäß dem AI Act, einschließlich Systeme, die an Entscheidungen über persönliche Kreditwürdigkeit und Beschäftigung beteiligt sind, den strengsten Regulierungen. Die Anbieter dieser Systeme müssen sich in einer Datenbank registrieren, Qualitäts- und Risikomanagement betreiben, menschliche Aufsichtspersonen beschäftigen und Vorfälle an die zuständigen Behörden melden.
In den USA hat der Bundesstaat Colorado kürzlich ein Gesetz verabschiedet, das KI-Entwickler verpflichtet, Informationen über „Hochrisiko“-KI-Systeme offenzulegen und eine Zusammenfassung der Fähigkeiten und Grenzen des Systems zu veröffentlichen. Gleichzeitig verbietet New York City Arbeitgebern die Verwendung automatisierter Tools zum Screening von Bewerbern, es sei denn, das Tool wurde im vergangenen Jahr auf Verzerrungen geprüft.
Wichtigste Punkte:
🌟 Google erlaubt die Verwendung generativer KI in Hochrisikobereichen, jedoch unter menschlicher Aufsicht.
🛡️ Andere KI-Unternehmen wie OpenAI und Anthropic haben strengere Beschränkungen für Entscheidungen in Hochrisikobereichen.
⚖️ Regulierungsbehörden weltweit prüfen KI-Systeme für automatisierte Entscheidungen, um Verzerrungen der Ergebnisse zu verhindern.