Im Bereich der Künstlichen Intelligenz ist die Sicherheit stets ein Damoklesschwert gewesen. Die jüngsten Veränderungen bei OpenAI haben jedoch in der Branche große Besorgnis ausgelöst. Wie IT之家 berichtet, hat das AGI-Sicherheitsteam von OpenAI, das sich auf die langfristigen Risiken von Superintelligenz konzentriert, fast die Hälfte seiner Mitglieder verloren. Dieses Unternehmen widmet sich der Entwicklung von KI-Technologien zum Wohle der Menschheit.
Der ehemalige Governance-Forscher von OpenAI, Daniel Kokotajlo, berichtete, dass die Größe des AGI-Sicherheitsteams in den letzten Monaten von etwa 30 auf etwa 16 Mitarbeiter geschrumpft ist. Diese Forscher waren ursprünglich dafür zuständig, die Sicherheit zukünftiger AGI-Systeme zu gewährleisten und zu verhindern, dass diese eine Bedrohung für die Menschheit darstellen. Die Verkleinerung des Teams lässt zwangsläufig die Sorge aufkommen, ob OpenAI die Frage der KI-Sicherheit zunehmend vernachlässigt.
Kokotajlo weist darauf hin, dass diese Abgänge keine organisierte Aktion waren, sondern das Ergebnis des schleichenden Vertrauensverlusts einzelner Teammitglieder. Mit der zunehmenden Fokussierung von OpenAI auf Produkte und Kommerzialisierung scheint die Verkleinerung des Sicherheitsforschungsteams unvermeidlich geworden zu sein.
Angesichts der Bedenken aus der Öffentlichkeit erklärt OpenAI, dass das Unternehmen stolz darauf sei, die leistungsfähigsten und sichersten KI-Systeme anbieten zu können, und dass es von seinen wissenschaftlichen Methoden zur Risikolösung überzeugt sei.
Anfang des Jahres trat Ilya Sutskever, Mitbegründer und Chefforscher von OpenAI, von seinem Amt zurück, und das von ihm geleitete „Superalignment“-Team, das für Sicherheitsfragen zuständig war, wurde aufgelöst. Diese Reihe von Veränderungen hat die Bedenken hinsichtlich der Sicherheitsforschung bei OpenAI zweifellos verstärkt.