Recientemente, Google lanzó su modelo más económico, Gemini 2.0 Flash-Lite, ya disponible para uso en producción. Gemini 2.0 Flash-Lite forma parte de la familia Google Gemini y se posiciona como la opción más rentable. Este modelo está disponible en versión preliminar pública en Google AI Studio y Vertex AI, dirigido a desarrolladores que necesitan soluciones de IA con una alta relación calidad-precio.
Su diseño se centra en la ligereza, ideal para equipos con presupuestos limitados y startups, especialmente eficiente en tareas de procesamiento de grandes volúmenes de texto.
El precio es uno de sus puntos fuertes. Gemini 2.0 Flash-Lite tiene un precio de 0.075 dólares por millón de tokens de entrada y 0.30 dólares por millón de tokens de salida. Esta estrategia de precios lo hace competitivo en el mercado; por ejemplo, es más barato que el GPT-4 o-mini de OpenAI (0.15 dólares/millón de entrada, 0.60 dólares/millón de salida).
En cuanto al rendimiento, el modelo hereda las ventajas de la familia Gemini, con una ventana de contexto de 1 millón de tokens, capaz de procesar grandes cantidades de datos. Supera a Gemini 1.5 Flash en la mayoría de las pruebas de referencia, manteniendo la misma velocidad y coste, especialmente adecuado para tareas de alta frecuencia.
Gemini 2.0 Flash-Lite admite entradas multimodales, pero a diferencia de 2.0 Flash, no admite salida de imágenes o audio, ni funciones avanzadas como "búsqueda como herramienta" o "ejecución de código como herramienta". Esto lo hace más centrado en tareas de generación de texto, ideal para escenarios que requieren soluciones rápidas y económicas. Puede generar títulos de una línea para aproximadamente 40.000 fotos por menos de 1 dólar, demostrando su eficiencia en aplicaciones reales.
Esta iniciativa de Google se considera una expansión de su estrategia de IA, especialmente en su competencia con rivales como OpenAI y Anthropic.