Selon Bloomberg, OpenAI a créé une échelle interne pour suivre les progrès de ses grands modèles linguistiques vers l'intelligence artificielle générale (AGI). Cette initiative met en lumière les ambitions d'OpenAI dans le domaine de l'AGI et offre à l'industrie une nouvelle référence pour mesurer le développement de l'IA.
Cette échelle comporte cinq niveaux :
- Niveau 1 : Les chatbots actuels, comme ChatGPT, appartiennent à ce niveau.
- Niveau 2 : Systèmes capables de résoudre des problèmes fondamentaux au niveau d'un doctorat. OpenAI affirme être proche de ce niveau.
- Niveau 3 : Agents IA capables d'agir pour le compte de l'utilisateur.
- Niveau 4 : IA capables de créer des innovations.
- Niveau 5 : IA capables d'exécuter le travail d'une organisation entière, considéré comme la dernière étape pour atteindre l'AGI.
OpenAI a précédemment défini l'AGI comme « un système hautement autonome surpassant les humains dans la plupart des tâches ayant une valeur économique ». Cette définition est cruciale pour l'orientation de l'entreprise, car la structure et la mission d'OpenAI sont axées sur la réalisation de l'AGI.
Cependant, les experts divergent sur le calendrier de réalisation de l'AGI. Sam Altman, PDG d'OpenAI, a déclaré en octobre 2023 que l'AGI était à « cinq ans ». Mais même si l'AGI est réalisable, cela nécessitera des milliards de dollars de ressources informatiques.
Il est à noter que l'annonce de ce système de notation coïncide avec l'annonce de la collaboration d'OpenAI avec le Laboratoire national de Los Alamos pour explorer comment utiliser en toute sécurité des modèles IA avancés (comme GPT-4) pour la recherche en biosciences. Cette collaboration vise à établir pour le gouvernement américain un ensemble de critères de sécurité et autres facteurs d'évaluation, qui pourront à l'avenir servir à tester divers modèles d'IA.
Bien qu'OpenAI refuse de fournir des détails sur la manière dont les modèles sont classés dans ces niveaux internes, Bloomberg rapporte que les dirigeants de l'entreprise ont récemment présenté un projet de recherche utilisant le modèle IA GPT-4, estimant que ce projet présentait de nouvelles compétences similaires à la capacité de raisonnement humain.
Cette méthode de quantification des progrès de l'AGI contribue à donner une définition plus rigoureuse du développement de l'IA et à éviter les interprétations subjectives. Cependant, elle soulève également des inquiétudes concernant la sécurité et l'éthique de l'IA. En mai dernier, OpenAI a dissous son équipe de sécurité, certains anciens employés affirmant que la culture de la sécurité de l'entreprise avait cédé la place au développement de produits, bien qu'OpenAI ait nié cette affirmation.