Récemment, OpenAI a fait l'objet de nouvelles annonces de départs. Miles Brundage, conseiller en politique de sécurité et responsable de l'équipe de préparation à l'AGI, a annoncé son départ de l'entreprise, révélant que son équipe serait dissoute et ses membres réaffectés à d'autres départements.
Brundage a publié un article sur la plateforme de médias sociaux X, expliquant en détail sa décision. Il a déclaré que son départ d'OpenAI était principalement motivé par le désir d'avoir plus d'indépendance et de liberté de publication de ses recherches.
Il est à noter que Brundage n'est pas le seul chercheur en sécurité de haut niveau à avoir quitté l'entreprise. Dès mai dernier, OpenAI a dissous son équipe de super-alignement, principalement responsable de l'évaluation des risques liés à l'intelligence artificielle super-intelligente. Par la suite, les deux responsables de cette équipe, Jan Leike et Ilya Sutskever, ont également démissionné.
De plus, plusieurs autres hauts dirigeants ont récemment quitté l'entreprise, notamment la directrice technique Mira Murati, le directeur de la recherche Bob McGrew et le vice-président de la recherche Barret Zoph.
Au cours des six dernières années, Brundage a conseillé la direction et le conseil d'administration d'OpenAI, aidant l'entreprise à se préparer à l'évolution rapide de l'intelligence artificielle. Sa contribution à la recherche en sécurité est indéniable, notamment l'introduction du mécanisme d'équipe rouge externe (external red teaming), qui permet à des experts externes de détecter les problèmes potentiels des produits OpenAI.
Brundage a mentionné un désaccord avec OpenAI concernant les restrictions de publication de la recherche, qu'il juge de plus en plus inacceptables. Il estime que son travail au sein d'OpenAI a affecté l'objectivité de ses recherches, le rendant incapable de maintenir une position impartiale sur les questions futures de la politique de l'IA. Il a également mentionné sur les médias sociaux qu'au sein d'OpenAI, il existe une opinion répandue selon laquelle « le coût de la prise de parole est élevé, et seules quelques personnes peuvent le faire ».
Cette série de départs de cadres supérieurs a non seulement attiré davantage l'attention sur l'orientation future d'OpenAI, mais a également suscité davantage de questions sur sa culture interne et ses mécanismes de décision.
Points clés :
🌟 Brundage annonce son départ d'OpenAI, et l'équipe de préparation à l'AGI sera dissoute.
💡 Il souhaite avoir plus de liberté pour publier ses recherches, ce qui reflète un désaccord avec l'entreprise concernant les restrictions sur la recherche.
🚀 De nombreux hauts dirigeants ont récemment quitté l'entreprise, ce qui suscite des inquiétudes quant à l'avenir et à la culture interne d'OpenAI.