Recentemente, o Google lançou seu modelo mais econômico, o Gemini 2.0 Flash-Lite, agora disponível para uso em produção. O Gemini 2.0 Flash-Lite faz parte da família Gemini do Google e se posiciona como a opção mais eficiente em termos de custo. O modelo está disponível em prévia pública no Google AI Studio e no Vertex AI, com o objetivo de atender desenvolvedores que precisam de soluções de IA com alta relação custo-benefício.
Seu design prioriza a leveza, tornando-o ideal para equipes com orçamento limitado e startups, especialmente quando se trata de tarefas de processamento de grandes volumes de texto.
O preço é um grande destaque do modelo. O Gemini 2.0 Flash-Lite custa US$ 0,075 por milhão de tokens de entrada e US$ 0,30 por milhão de tokens de saída. Essa estratégia de preços o torna competitivo no mercado. Por exemplo, é mais barato que o GPT-4 o-mini da OpenAI (US$ 0,15 por milhão de tokens de entrada e US$ 0,60 por milhão de tokens de saída).
Em termos de desempenho, o modelo herda as vantagens da família Gemini, com uma janela de contexto de 1 milhão de tokens, capaz de processar grandes quantidades de dados. Ele supera o Gemini 1.5 Flash na maioria dos testes de referência, mantendo a mesma velocidade e custo, sendo especialmente adequado para tarefas de alta frequência.
O Gemini 2.0 Flash-Lite suporta entrada multi-modal, mas, em comparação com o 2.0 Flash, não suporta saída de imagem ou áudio, nem recursos avançados como "pesquisa como ferramenta" ou "execução de código como ferramenta". Isso o torna mais focado em tarefas de geração de texto, ideal para cenários que exigem soluções rápidas e de baixo custo. Ele pode gerar legendas de uma linha para cerca de 40.000 fotos por menos de US$ 1, demonstrando sua eficiência em aplicações reais.
Essa iniciativa do Google é vista como uma expansão de sua estratégia de IA, especialmente na competição com concorrentes como OpenAI e Anthropic.