Google se prepara para lanzar su último modelo de lenguaje, Gemini 2.0, que se espera que llegue en diciembre. Según fuentes de The Verge, aunque Gemini 2.0 podría no ofrecer el gran salto en rendimiento que muchos esperan, sí incluirá nuevas funciones interesantes. Al mismo tiempo, se rumorea que algunos clientes comerciales ya tienen acceso anticipado al nuevo modelo.
En el campo de la IA, otras empresas también están avanzando con sus propios proyectos. Por ejemplo, xAI de Elon Musk utiliza 100.000 chips Nvidia H100 en su superordenador de Memphis para entrenar Grok 3, mientras que Meta está utilizando aún más recursos computacionales para entrenar Llama 4.
El progreso de Google con su modelo de lenguaje insignia ha sido irregular, lo que podría explicar su reciente adquisición de Character.ai por 2.500 millones de dólares, principalmente para incorporar al reconocido investigador de IA Noah Shazeer y su equipo. Shazeer co-desarrolló la arquitectura Transformer en 2017, y ahora se dice que está trabajando en Google en un nuevo modelo de razonamiento para competir con el o1 de OpenAI.
Los investigadores actuales esperan que el uso de más recursos en la fase de razonamiento (es decir, el proceso de procesamiento de información de la IA), en lugar de depender principalmente del preentrenamiento con grandes conjuntos de datos, pueda producir mejores resultados y abrir nuevas perspectivas.
En los últimos dos años, los modelos de lenguaje de IA se han vuelto más eficientes, pero la mejora de sus capacidades no ha sido significativa, lo que ha generado preocupaciones sobre posibles limitaciones de los métodos actuales. Bill Gates también ha comentado que el salto de GPT-4 a GPT-5 podría ser mucho menor que las actualizaciones anteriores.
Además, el rendimiento de los diferentes modelos se está volviendo cada vez más similar, lo que podría convertir los modelos de lenguaje en una mercancía sin diferencias significativas, a pesar de los elevados costes de desarrollo y funcionamiento. El rendimiento de los modelos de lenguaje actuales se está acercando a un nivel común, y las diferencias entre los modelos anteriores se están reduciendo, lo que sugiere que la arquitectura de los modelos existentes podría haber alcanzado una meseta en su rendimiento.
Mientras tanto, OpenAI confirmó recientemente que el nuevo modelo GPT-4, considerado internamente como un posible sucesor, no se lanzará este año, a pesar de la inminente competencia de Google Gemini 2.0. Similarmente, se rumorea que Anthropic ha dejado de lado la versión 3.5 de su modelo insignia Opus por falta de progreso significativo, centrándose en una versión mejorada de Sonnet 3.5.
Puntos clave:
🔍 Se espera que Google Gemini 2.0 se lance en diciembre, y es posible que no suponga una mejora significativa del rendimiento, aunque sí incluirá nuevas funciones.
🤖 Otras empresas tecnológicas como xAI y Meta están avanzando activamente en sus propios proyectos de IA, intensificando la competencia.
📉 El rendimiento de los modelos de lenguaje de IA se está homogeneizando, y el sector se enfrenta a desafíos de estancamiento del crecimiento, posiblemente entrando en una fase de meseta.