Kürzlich gab es bei OpenAI erneut Abgangsmeldungen. Miles Brundage, Sicherheitsberater und Leiter des AGI-Vorbereitungsteams, kündigte seinen Abschied an. Er gab bekannt, dass sein Team aufgelöst und die Mitglieder anderen Abteilungen zugeordnet werden.
Brundage erklärte seine Entscheidung in einem Beitrag auf der Social-Media-Plattform X ausführlich. Er gab an, OpenAI zu verlassen, um mehr Unabhängigkeit und Freiheit bei der Veröffentlichung seiner Forschungsergebnisse zu haben.
Bemerkenswert ist, dass Brundage nicht der einzige hochrangige Sicherheitsforscher ist, der das Unternehmen verlässt. Bereits im Mai dieses Jahres löste OpenAI sein Superalignment-Team auf, das sich hauptsächlich mit der Risikobewertung von künstlicher Superintelligenz befasste. Anschließend verließen auch die beiden Leiter dieses Teams, Jan Leike und Ilya Sutskever, das Unternehmen.
Darüber hinaus haben in letzter Zeit auch mehrere weitere Führungskräfte das Unternehmen verlassen, darunter die Chief Technology Officer Mira Murati, der Chief Research Officer Bob McGrew und der Vizepräsident für Forschung, Barret Zoph.
In den vergangenen sechs Jahren beriet Brundage die Führungskräfte und den Vorstand von OpenAI und half dem Unternehmen, sich auf die rasante Entwicklung der künstlichen Intelligenz vorzubereiten. Seine Beiträge zur Sicherheitsforschung sind beachtlich, darunter die Einführung externer Red-Teaming-Mechanismen, die es externen Experten ermöglichen, potenzielle Probleme bei OpenAI-Produkten zu identifizieren.
Brundage erwähnte Meinungsverschiedenheiten mit OpenAI bezüglich der Beschränkungen bei der Veröffentlichung von Forschungsergebnissen, die er als zunehmend inakzeptabel empfand. Er ist der Ansicht, dass seine Arbeit bei OpenAI seine Forschungsobjektivität beeinträchtigt und es ihm erschwert, in Fragen der zukünftigen KI-Politik neutral zu bleiben. In den sozialen Medien erwähnte er auch, dass innerhalb von OpenAI die verbreitete Meinung herrscht, dass „sich zu äußern einen hohen Preis hat und nur wenige dies tun können“.
Diese Abfolge von Führungskräfte-Abgängen hat nicht nur die zukünftige Ausrichtung von OpenAI in den Fokus gerückt, sondern auch Fragen nach der internen Kultur und den Entscheidungsmechanismen des Unternehmens aufgeworfen.
Wichtigste Punkte:
🌟 Brundage verlässt OpenAI, das AGI-Vorbereitungsteam wird aufgelöst.
💡 Er wünscht sich mehr Freiheit bei der Veröffentlichung seiner Forschungsergebnisse und spiegelt damit Meinungsverschiedenheiten mit dem Unternehmen bezüglich der Forschungsbeschränkungen wider.
🚀 Mehrere Führungskräfte haben kürzlich das Unternehmen verlassen, was zu Fragen über die zukünftige Entwicklung und die interne Kultur von OpenAI führt.