Récemment, un groupe de sénateurs américains a adressé une lettre importante à Sam Altman, PDG d'OpenAI, lui demandant de divulguer des informations détaillées sur les mesures de sécurité et les conditions de travail de l'entreprise avant le 13 août 2024. Cette demande fait suite à des reportages médiatiques révélant des risques de sécurité potentiels chez OpenAI, notamment le départ de plusieurs chercheurs en sécurité IA, des failles de sécurité et les inquiétudes des employés.

Réunion, conférence

Source : Image générée par IA, fournie par Midjourney

Cette lettre fait suite aux révélations d'anciens employés qui ont sévèrement critiqué les mesures de sécurité d'OpenAI dans le développement de l'IA. Il a été rapporté que le nouveau modèle d'IA d'OpenAI, GPT-4o, a subi des tests de sécurité en seulement une semaine, une accélération qui a suscité des inquiétudes chez les experts en sécurité. Ce nouveau modèle aurait été capable de générer du contenu malveillant, comme des instructions pour fabriquer une bombe, à partir d'invites simples.

Dans leur lettre, les sénateurs soulignent que le public doit pouvoir faire confiance à OpenAI pour maintenir la sécurité lors du développement de ses systèmes. Cela inclut l'intégrité de la gouvernance de l'entreprise, la rigueur des tests de sécurité, l'équité des pratiques d'embauche, le respect des engagements envers le public et l'application des politiques de cybersécurité. Ils indiquent que les engagements de sécurité pris précédemment par OpenAI auprès de l'administration Biden doivent être concrètement tenus.

En réponse à la demande des sénateurs, OpenAI a publié quelques déclarations sur les réseaux sociaux, mentionnant la récente création d'un comité de sécurité et de sûreté, les progrès de l'AGI de niveau 5, le cadre de préparation et la révision du contrat d'emploi critiqué. OpenAI espère démontrer par ces mesures ses améliorations en matière de sécurité et de gouvernance.

**Points clés :**

📧 **Demande de détails aux sénateurs :** Les sénateurs américains demandent au PDG d'OpenAI de fournir des informations détaillées sur la sécurité et les conditions de travail de l'entreprise avant le 13 août 2024.

🔍 **Anciens employés dénonçant des failles de sécurité :** D'anciens employés ont révélé des risques de sécurité potentiels dans le développement de l'IA par OpenAI, notamment des failles de sécurité dues à la précipitation de la sortie de nouveaux modèles.

🛡️ **OpenAI répond en annonçant des améliorations :** OpenAI a répondu en annonçant des mesures prises, notamment la création d'un nouveau comité et la révision du contrat d'emploi, pour répondre aux préoccupations concernant la sécurité et la gouvernance.