Récemment, des informations concernant les tensions internes chez OpenAI ont fait surface. Avant le licenciement d'Altman en novembre 2023, l'investisseur Peter Thiel l'avait mis en garde contre le conflit entre les défenseurs de la sécurité de l'IA et l'orientation commerciale de l'entreprise.

Selon le Wall Street Journal, Thiel a soulevé cette question lors d'un dîner privé à Los Angeles. Il a notamment mentionné l'influence du mouvement de l'"altruisme efficace" (Effective Altruism) au sein d'OpenAI, affirmant qu'Altman ne mesurait pas l'influence du chercheur en IA Eliezer Yudkowsky. "Vous ne réalisez pas comment Eliezer a convaincu la moitié de vos employés de ces théories," aurait déclaré Thiel à Altman.

OpenAI, ChatGPT, intelligence artificielle, IA

Altman a semblé minimiser ces préoccupations, évoquant le départ d'Elon Musk en 2018. Il considérait que les avertissements répétés de Musk et Yudkowsky concernant les risques de l'IA n'avaient pas affecté le développement de l'entreprise. Cependant, les inquiétudes internes concernant la sécurité sont devenues plus manifestes en 2024, avec le départ de plusieurs figures clés de la sécurité de l'IA, notamment le scientifique en chef Ilya Sutskever et Jan Leike, responsable de l'équipe "Super Alignement". Leike a publiquement critiqué la stratégie de sécurité de l'entreprise, affirmant que son équipe luttait pour obtenir des ressources informatiques.

Le Wall Street Journal rapporte que la directrice technique Mira Murati et Sutskever ont passé des mois à rassembler des preuves de mauvaise gestion d'Altman, documentant ses manœuvres pour semer la discorde entre les employés et contourner les protocoles de sécurité. Lors du lancement de GPT-4-Turbo, Altman a fourni des informations inexactes au conseil d'administration et n'a pas été transparent sur la structure de son fonds de démarrage privé OpenAI. Le lancement précipité des tests de sécurité après la sortie de GPT-4o en mai 2024 a soulevé d'autres questions.

Lorsque Murati a tenté d'exprimer ses préoccupations directement à Altman, il a fait intervenir les ressources humaines lors de leurs réunions individuelles, pendant plusieurs semaines, ce qui a finalement conduit Murati à décider de ne plus partager ses inquiétudes avec le conseil d'administration. Finalement, quatre membres du conseil d'administration, dont Sutskever, ont décidé de destituer Altman lors d'une série de vidéoconférences confidentielles. Sutskever avait préparé deux documents détaillés listant les manquements d'Altman. Le conseil a également décidé de licencier Greg Brockman car Murati avait rapporté au conseil qu'il avait contourné son intervention pour communiquer directement avec Altman.

Initialement, l'explication publique du conseil était extrêmement succincte, se limitant à déclarer qu'Altman n'avait pas fait preuve de "transparence constante". Cependant, face à la menace d'un départ massif des employés, la situation a rapidement changé. Altman et Brockman ont finalement été réintégrés, Murati et Sutskever ayant signé la lettre de soutien à leur retour, malgré leur rôle clé dans leur éviction. Sutskever a été surpris par le soutien des employés à Altman, s'attendant à ce qu'ils accueillent favorablement ce changement.

L'article du Wall Street Journal contredit les déclarations précédentes, notamment celle de Murati affirmant qu'elle n'avait pas participé au licenciement d'Altman. Le rassemblement systématique de preuves montre qu'elle a joué un rôle central dans l'affaire. Murati et Sutskever ont ensuite quitté OpenAI pour fonder leur propre entreprise d'IA. Cette enquête confirme le rôle important des questions de sécurité de l'IA dans le bref licenciement d'Altman, révélant de profondes divergences au sein de la direction d'OpenAI, conduisant finalement à des changements importants dans l'approche de l'organisation en matière de sécurité et de développement de l'IA.

Points clés :

🌐 Peter Thiel a mis en garde Altman lors d'un dîner privé sur le conflit entre la sécurité de l'IA et l'orientation commerciale au sein d'OpenAI.

🛠️ Des personnalités clés de la sécurité de l'IA ont quitté l'entreprise, Murati et Sutskever ayant rassemblé des preuves de mauvaise gestion d'Altman.

🔄 Altman et Brockman ont été réintégrés grâce au soutien des employés, les tensions internes suscitant une profonde réflexion.