Récemment, Miles Brundage, ancien responsable de la recherche sur les politiques chez OpenAI, a critiqué le changement de discours de l'entreprise concernant la sécurité de l'intelligence artificielle, affirmant qu'OpenAI réécrivait l'histoire de la sécurité de ses systèmes d'IA. Il a déclaré qu'OpenAI, dans sa quête d'une intelligence artificielle générale (AGI), pourrait négliger les mesures de sécurité à long terme.
OpenAI s'est toujours engagé à promouvoir sa vision ambitieuse, notamment face à la montée en puissance de concurrents comme DeepSeek. Dans sa poursuite du développement de l'AGI, l'entreprise met fréquemment l'accent sur le potentiel des agents d'intelligence artificielle surpuissants, une attitude qui n'a cependant pas été universellement approuvée. Brundage estime qu'il existe une incohérence dans le discours d'OpenAI concernant le déploiement et la sécurité de ses modèles d'IA existants.
OpenAI a récemment publié un document sur le déploiement progressif de ses modèles d'IA, visant à démontrer son approche prudente. Prenant l'exemple de GPT-2, le document souligne la nécessité d'une grande prudence dans la gestion des systèmes actuels. OpenAI déclare dans le document : « Dans un monde discontinu, les leçons de sécurité proviennent d'une grande prudence envers les systèmes actuels, c'est précisément l'approche que nous avons adoptée avec le modèle GPT-2. »
Cependant, Brundage remet cela en question. Il soutient que la sortie de GPT-2 a également suivi une approche progressive, et que des experts en sécurité avaient salué la prudence d'OpenAI. Il estime que la prudence passée n'était pas excessive, mais nécessaire et responsable.
De plus, Brundage s'inquiète de l'affirmation d'OpenAI selon laquelle l'AGI se produira par étapes progressives plutôt que par une percée soudaine. Il considère que l'interprétation erronée par OpenAI de l'histoire de la sortie de GPT-2, et la réécriture de l'histoire de la sécurité, sont préoccupantes. Il souligne également que le document publié par OpenAI pourrait, dans une certaine mesure, conduire à considérer les préoccupations de sécurité comme une réaction excessive, ce qui pourrait présenter des risques importants dans le contexte de l'évolution constante des systèmes d'IA.
Ce n'est pas la première fois qu'OpenAI est critiqué, des experts remettant en question l'équilibre entre la sécurité à long terme et les intérêts à court terme de l'entreprise. Les préoccupations de Brundage rappellent une fois de plus l'importance de la sécurité de l'IA.
Points clés :
🌐 L'ancien responsable des politiques d'OpenAI remet en question le changement de discours de l'entreprise sur la sécurité de l'IA, considérant qu'il s'agit d'une mauvaise interprétation de l'histoire.
🚀 Le document publié par OpenAI souligne l'importance d'une publication prudente des modèles d'IA, mais a été critiqué par un ancien employé.
⚠️ Les experts s'inquiètent de la nécessité de prendre en compte les mesures de sécurité pour le développement futur des systèmes d'IA.