Según Bloomberg, OpenAI ha creado una escala interna para rastrear el progreso de sus grandes modelos de lenguaje en el camino hacia la Inteligencia Artificial General (AGI). Esta iniciativa no solo demuestra la ambición de OpenAI en el campo de la AGI, sino que también proporciona a la industria un nuevo estándar para medir el desarrollo de la IA.
La escala se divide en cinco niveles:
- Nivel 1: Los chatbots actuales, como ChatGPT, pertenecen a este nivel.
- Nivel 2: Sistemas capaces de resolver problemas básicos a nivel de doctorado. OpenAI afirma estar cerca de alcanzar este nivel.
- Nivel 3: Agentes de IA capaces de tomar acciones en nombre del usuario.
- Nivel 4: IA capaz de crear innovaciones.
- Nivel 5: IA capaz de realizar el trabajo de una organización completa, considerado el último paso para lograr la AGI.
OpenAI definió previamente la AGI como "un sistema altamente autónomo que supera a los humanos en la mayoría de las tareas de valor económico". Esta definición es crucial para la dirección de la compañía, ya que la estructura y la misión de OpenAI giran en torno a la consecución de la AGI.
Sin embargo, existe discrepancia entre los expertos sobre el plazo para lograr la AGI. Sam Altman, CEO de OpenAI, declaró en octubre de 2023 que aún faltan "cinco años" para alcanzar la AGI. Pero incluso si se logra la AGI, se necesitarán miles de millones de dólares en recursos computacionales.
Cabe destacar que el anuncio de este sistema de puntuación coincide con el anuncio de la colaboración de OpenAI con el Laboratorio Nacional de Los Álamos para explorar cómo utilizar de forma segura modelos de IA avanzados (como GPT-4) para ayudar en la investigación biocientífica. Esta colaboración tiene como objetivo establecer un conjunto de estándares de seguridad y otras evaluaciones para el gobierno de Estados Unidos, que en el futuro se puedan utilizar para probar varios modelos de IA.
Aunque OpenAI se niega a proporcionar detalles sobre cómo se asignan los modelos a estos niveles internos, según Bloomberg, la dirección de la empresa mostró recientemente un proyecto de investigación que utiliza el modelo de IA GPT-4, argumentando que este proyecto muestra nuevas habilidades similares a las del razonamiento humano.
Este método de cuantificar el progreso de la AGI ayuda a definir el desarrollo de la IA de manera más rigurosa, evitando interpretaciones subjetivas. Sin embargo, también ha suscitado preocupaciones sobre la seguridad y la ética de la IA. En mayo de este año, OpenAI desmanteló su equipo de seguridad, y algunos exempleados afirmaron que la cultura de seguridad de la empresa había dado paso al desarrollo de productos, aunque OpenAI lo niega.