Kürzlich gab Sam Altman, CEO von OpenAI, bekannt, dass OpenAI mit dem US-amerikanischen AI Safety Institute (AISI) zusammenarbeitet, einer Bundesbehörde, die sich mit der Bewertung und Bewältigung von Risiken von KI-Plattformen befasst. OpenAI wird dem Institut frühzeitig Zugriff auf sein nächstes großes generatives KI-Modell zur Sicherheitsprüfung gewähren.
Diese Nachricht, die Altman am Donnerstagabend auf X veröffentlichte, enthielt nur wenige Details. Doch diese Maßnahme, zusammen mit einer ähnlichen Vereinbarung mit der britischen AI-Sicherheitsbehörde im Juni, scheint darauf abzielen, Behauptungen zu widerlegen, OpenAI stelle die KI-Sicherheit bei der Entwicklung leistungsfähigerer generativer KI-Technologien in den Hintergrund.
Zuvor hatte OpenAI im Mai tatsächlich eine Abteilung aufgelöst, die sich mit der Entwicklung von Kontrollmechanismen zur Verhinderung des außer Kontrolle Geratens von „Superintelligenz“-KI-Systemen befasste. Berichten zufolge gab OpenAI die Sicherheitsforschung dieses Teams auf, um stattdessen neue Produkte auf den Markt zu bringen. Dies führte letztendlich zum Rücktritt der beiden leitenden Mitarbeiter des Teams: Jan Leike (der jetzt die Sicherheitsforschung bei dem KI-Startup Anthropic leitet) und Ilya Sutskever (der sein eigenes, auf Sicherheit spezialisiertes KI-Unternehmen, Safe Superintelligence Inc., gründete).
Angesichts zunehmender Kritik erklärte OpenAI, es werde Klauseln zur Geheimhaltungsvereinbarung für Mitarbeiter aufheben, einen Sicherheitsausschuss einrichten und 20 % seiner Rechenressourcen für die Sicherheitsforschung verwenden. (Dem aufgelösten Sicherheitsteam waren 20 % der Rechenressourcen von OpenAI für seine Arbeit zugesagt worden, die es aber letztendlich nicht erhielt.) Altman bekräftigte die Zusage von 20 % der Rechenressourcen und bestätigte, dass OpenAI im Mai die Geheimhaltungsvereinbarung für neue und bestehende Mitarbeiter aufgehoben hat.
Diese Maßnahmen konnten jedoch die Zweifel einiger Beobachter nicht ausräumen, insbesondere angesichts der Tatsache, dass der Sicherheitsausschuss ausschließlich aus OpenAI-Mitarbeitern besteht und kürzlich ein hochrangiger KI-Sicherheitsmanager in eine andere Abteilung versetzt wurde.
Fünf Senatoren, darunter der demokratische Senator Brian Schatz aus Hawaii, stellten in einem kürzlich an Altman gerichteten Brief Fragen zu den Richtlinien von OpenAI. Jason Kwon, Chief Strategy Officer von OpenAI, antwortete heute und erklärte, OpenAI sei „bestrebt, in jeder Phase unserer Prozesse strenge Sicherheitsmaßnahmen zu implementieren“.
Der Zeitpunkt der Vereinbarung mit dem US-amerikanischen AI Safety Institute erscheint angesichts der Unterstützung von OpenAI für den „Innovation and Choice Online Act“ Anfang dieser Woche etwas fragwürdig. Sollte dieser Gesetzentwurf verabschiedet werden, würde er dem AISI als Regierungsbehörde die Befugnis verleihen, Standards und Richtlinien für KI-Modelle zu entwickeln. Diese Reihe von Maßnahmen könnte als Versuch interpretiert werden, die Regulierung zu kontrollieren oder zumindest Einfluss auf die KI-Politik auf Bundesebene auszuüben.
Erwähnenswert ist, dass Altman Mitglied des Ausschusses für KI-Sicherheit und -Schutz des US-Heimatschutzministeriums ist, der Empfehlungen für die „sichere und zuverlässige Entwicklung und Bereitstellung von KI“ in kritischen Infrastrukturen der USA abgibt. Darüber hinaus hat OpenAI seine Ausgaben für Lobbyarbeit auf Bundesebene in diesem Jahr deutlich erhöht: 800.000 US-Dollar in den ersten sechs Monaten des Jahres 2024, verglichen mit nur 260.000 US-Dollar im gesamten Jahr 2023.
Das US-amerikanische AI Safety Institute gehört zum National Institute of Standards and Technology (NIST) des Handelsministeriums und arbeitet mit einem Unternehmensverbund, darunter Anthropic, sowie mit großen Technologieunternehmen wie Google, Microsoft, Meta, Apple, Amazon und Nvidia zusammen.
Wichtigste Punkte:
🎯 OpenAI verspricht dem US-amerikanischen AI Safety Institute frühzeitigen Zugriff auf sein nächstes Modell.
🎯 OpenAI löste eine Sicherheitsabteilung auf, was zu Kontroversen führte.
🎯 Der Zeitpunkt der Zusammenarbeit von OpenAI mit der US-amerikanischen Behörde und die gestiegenen Ausgaben für Lobbyarbeit auf Bundesebene lassen Spekulationen zu.