La semana pasada, la industria de la IA estuvo llena de actividad. Google y Meta lanzaron nuevas versiones de sus modelos de IA, atrayendo mucha atención. Primero, Google anunció el martes una nueva actualización de su serie Gemini, presentando dos nuevos modelos listos para producción: Gemini-1.5-Pro-002 y Gemini-1.5-Flash-002.

image.png

Esta actualización mejoró significativamente la calidad general del modelo, especialmente en matemáticas, procesamiento de contextos largos y tareas visuales. Google afirma que el rendimiento aumentó un 7% en las pruebas de referencia MMLU-Pro, y un 20% en tareas relacionadas con matemáticas. Aunque las pruebas de referencia tienen limitaciones, estos datos son alentadores para los entusiastas de la IA.

Además del aumento de rendimiento, Google redujo considerablemente el costo de uso de Gemini 1.5 Pro, bajando los costos de los tokens de entrada y salida en un 64% y un 52% respectivamente. Esto hace que el uso de Gemini sea más rentable para los desarrolladores.

Asimismo, la actualización mejoró la velocidad de procesamiento de solicitudes de Gemini-1.5 Flash y Pro. El primero admite 2000 solicitudes por minuto, mientras que el segundo admite 1000. Estas mejoras facilitarán a los desarrolladores la creación de aplicaciones.

image.png

El miércoles, Meta no se quedó atrás y lanzó Llama 3.2, una importante actualización de su modelo de IA abierto y de gran peso. Esta actualización incluye modelos de lenguaje grandes con capacidades visuales, con tamaños de parámetros que van desde 1.100 millones hasta 9.000 millones, además de modelos de texto ligeros de 100 millones y 300 millones de parámetros diseñados para dispositivos móviles.

Meta afirma que estos modelos visuales son comparables a los modelos cerrados líderes en el mercado en cuanto a reconocimiento e interpretación de imágenes. Investigadores de IA que probaron los nuevos modelos informaron un excelente rendimiento en muchas tareas de texto, incluso en los modelos más pequeños.

image.png

El jueves, Google DeepMind anunció un proyecto importante: AlphaChip. Basado en una investigación de 2020, este proyecto utiliza el aprendizaje por refuerzo para diseñar el diseño de chips. Google afirma que AlphaChip ha logrado un "diseño de chip superior a la media humana" en sus tres últimas generaciones de unidades de procesamiento de tensor (TPU), reduciendo el tiempo de generación de diseños de chips de semanas o meses a unas pocas horas.

Cabe destacar que Google también compartió el modelo de entrenamiento previo de AlphaChip en GitHub, permitiendo que otras empresas de diseño de chips utilicen esta tecnología. Empresas como MediaTek ya la están adoptando.

Puntos clave:

📈 **Google lanza una nueva versión del modelo Gemini, mejorando el rendimiento general y reduciendo significativamente el precio.**

🤖 **Meta lanza Llama 3.2, con modelos de lenguaje pequeños con capacidades visuales y un rendimiento excepcional.**

💡 **AlphaChip de Google acelera el diseño de chips, mejorando significativamente la eficiencia y compartiendo la tecnología.**