Récemment, Sam Altman, PDG d'OpenAI, a annoncé son départ du comité de sécurité interne de l'entreprise, créé en mai dernier pour superviser les décisions cruciales en matière de sécurité et de sûreté concernant le développement et le déploiement des modèles d'intelligence artificielle d'OpenAI. Cette décision a suscité un vif intérêt, Altman souhaitant confier ce rôle à des experts tiers afin de renforcer la transparence, la collaboration et la sécurité.
Suite au départ d'Altman, ce comité de sécurité se transformera en un « comité de surveillance indépendant » axé sur les questions de sécurité et de sûreté. Le nouveau président du comité est Zico Kolter, directeur du département d'apprentissage automatique à la faculté d'informatique de l'université Carnegie Mellon. Il succède à Brett Taylor, qui a également quitté le comité. Les autres membres du comité comprennent Adam D'Angelo, co-fondateur et PDG de Quora, le général Paul Nakasone, à la retraite de l'armée américaine, et Nicole Ligman, ancienne vice-présidente exécutive et avocate générale de Sony.
Sous la direction de Kolter, le comité sera chargé d'examiner les normes de sécurité et d'adéquation du nouveau grand modèle linguistique d'OpenAI, OpenAI o1. OpenAI o1 intègre des capacités de raisonnement avancées, se vantant de surpasser les docteurs humains dans des domaines tels que la physique, la chimie et la biologie, et affichant également d'excellents résultats en mathématiques et en codage.
OpenAI a également défini la future mission du comité, notamment la mise en place d'une gouvernance indépendante en matière de sécurité et de sûreté de l'IA, le renforcement des mesures de sécurité, la promotion de la transparence des travaux d'OpenAI, la collaboration avec des organisations externes et l'unification du cadre de sécurité de l'entreprise en matière de développement et de surveillance des modèles. L'entreprise a déclaré : « Nous nous engageons à améliorer continuellement la manière dont nous publions des modèles à la fois puissants et sûrs, et le comité de sécurité et de sûreté jouera un rôle essentiel dans la définition de l'avenir d'OpenAI. »
Cependant, le style de gestion d'Altman a suscité des controverses, notamment dans le contexte de son départ forcé fin de l'année dernière, suivi d'un retour rapide chez OpenAI. Ses relations avec Elon Musk de Tesla, l'un des administrateurs fondateurs d'OpenAI, sont également tendues. Des doutes sur la sécurité de la technologie d'OpenAI sont régulièrement soulevés, notamment sur l'utilisation présumée de clauses de confidentialité illégales et la demande faite aux employés de signaler les contacts avec les organismes de réglementation.
L'impact du départ d'Altman sur la gouvernance de l'IA reste incertain. Certains suggèrent que cela pourrait indiquer qu'OpenAI prend conscience de l'importance de la neutralité dans la gouvernance de l'IA et qu'elle est disposée à adopter une approche plus ouverte en matière de gestion des risques et de la sécurité de l'IA.
Points clés :
🌐 Altman quitte le comité de sécurité d'OpenAI pour promouvoir un mécanisme de surveillance plus indépendant.
🔍 Le nouveau président, Zico Kolter, dirigera le comité et continuera d'évaluer la sécurité des nouveaux modèles d'OpenAI.
🤝 OpenAI prévoit de renforcer sa collaboration avec des organisations externes afin d'améliorer la transparence et les mesures de sécurité.