Google ha vuelto a impulsar su apuesta en el campo de la IA con el lanzamiento de su último modelo, Gemini 1.5. Esta versión incluye una variante más pequeña, Gemini 1.5 Flash-8B, junto con Gemini 1.5 Flash con "mejoras significativas" y Gemini 1.5 Pro, "más potente".
Según Google, en comparación con muchas pruebas de referencia internas, se ha observado una mejora en el rendimiento. Gemini 1.5 Flash ha experimentado una "mejora sustancial" en su rendimiento general, mientras que 1.5 Pro destaca por su superioridad en matemáticas, codificación y manejo de indicaciones complejas.
Logan Kilpatrick, responsable de productos de IA de Google, declaró en redes sociales: "¡Gemini 1.5 Flash es ahora la mejor opción para los desarrolladores de todo el mundo!". Los modelos de la serie Gemini 1.5 pueden procesar textos largos y realizar inferencias con más de 10 millones de tokens de información, lo que les permite gestionar una gran cantidad de entradas multimodales, como documentos, vídeos y audio.
La "última iteración experimental" de los modelos Gemini
Google lanzó Gemini 1.5 Flash en mayo, una versión ligera de Gemini 1.5. Los modelos de la serie Gemini 1.5 están diseñados para manejar contextos largos y pueden realizar inferencias sobre información granular de 10 millones o más tokens. Esto permite a los modelos procesar grandes cantidades de entradas multimodales, incluyendo documentos, vídeos y audio.
En esta ocasión, Google ha presentado una versión reducida de Gemini 1.5 Flash con 8.000 millones de parámetros. El nuevo Gemini 1.5 Pro presenta mejoras notables en la codificación y el procesamiento de indicaciones complejas. Kilpatrick indicó que Google lanzará una versión lista para producción en las próximas semanas y espera ofrecer más herramientas de evaluación.
Según Kilpatrick, el lanzamiento de estos modelos experimentales tiene como objetivo recopilar comentarios para poder entregar las últimas actualizaciones a los desarrolladores más rápidamente. Reveló que los nuevos modelos estarán disponibles gratuitamente para los desarrolladores, para pruebas a través de Google AI Studio y la API de Gemini, y en el futuro también se lanzarán a través del punto final experimental de Vertex AI.
Pocas horas después del lanzamiento, la organización Large Model Systems Organization (LMSO), basándose en 20.000 votos de la comunidad, publicó una actualización de su clasificación en el campo de los chatbots. Gemini 1.5-Flash logró un "gran salto", pasando del puesto 23 al 6, igualando a Llama, y superando el rendimiento del modelo abierto Gemma de Google.
A partir del 3 de septiembre, Google redirigirá automáticamente las solicitudes al nuevo modelo y eliminará las versiones anteriores para evitar confusiones. Kilpatrick muestra gran entusiasmo por este nuevo modelo y espera ver a los desarrolladores utilizarlo para crear más aplicaciones multimodales.
Sin embargo, con el lanzamiento del nuevo modelo, las primeras reacciones han sido encontradas. Algunos usuarios expresan dudas sobre las actualizaciones frecuentes, argumentando que lo que realmente esperan es una versión más completa de Gemini 2.0. Al mismo tiempo, otros usuarios elogian la velocidad y el rendimiento de las actualizaciones, considerando que esto mantiene a Google a la vanguardia en el campo de la IA.
Puntos clave:
✨ Los nuevos modelos de la serie Gemini 1.5 muestran mejoras significativas en matemáticas, programación e indicaciones complejas.
🚀 Gemini 1.5 Flash puede procesar entradas multimodales de más de 10 millones de tokens, adaptándose con gran flexibilidad.
🛠️ Las opiniones de los usuarios son diversas: algunos esperan una actualización completa con Gemini 2.0, mientras que otros aplauden las actualizaciones actuales.