Google hat kürzlich sein kostengünstigstes Modell, Gemini 2.0 Flash-Lite, vorgestellt, das nun offiziell für produktive Zwecke eingesetzt werden kann. Gemini 2.0 Flash-Lite ist Teil der Google Gemini-Serie und positioniert sich als die kosteneffizienteste Option. Das Modell wird in der öffentlichen Vorschau über Google AI Studio und Vertex AI angeboten und zielt auf Entwickler ab, die eine kostengünstige KI-Lösung benötigen.

Sein Design betont die Leichtgewichtigkeit und eignet sich daher besonders gut für Teams und Start-ups mit begrenztem Budget, insbesondere bei der Verarbeitung großer Textmengen.

Ein wichtiger Aspekt ist die Preisgestaltung: Für Gemini 2.0 Flash-Lite betragen die Kosten für Eingabe-Tokens 0,075 US-Dollar pro Million und für Ausgabe-Tokens 0,30 US-Dollar pro Million. Diese Preisstrategie macht es wettbewerbsfähig, beispielsweise im Vergleich zu OpenAIs GPT-4-o-mini (0,15 US-Dollar/Million Eingabe, 0,60 US-Dollar/Million Ausgabe) mit niedrigeren Kosten.

QQ_1740541874898.png

In Bezug auf die Leistung profitiert das Modell von den Vorteilen der Gemini-Serie, mit einem Kontextfenster von 1 Million Tokens, das die Verarbeitung großer Datenmengen ermöglicht. Es übertrifft Gemini 1.5 Flash in den meisten Benchmarks bei gleicher Geschwindigkeit und Kosten und eignet sich besonders für hochfrequente Aufgaben.

Gemini 2.0 Flash-Lite unterstützt multimodale Eingaben, unterstützt im Gegensatz zu 2.0 Flash jedoch keine Bild- oder Audioausgaben und bietet keine erweiterten Funktionen wie „Suche als Tool“ oder „Codeausführung als Tool“. Dies konzentriert es auf Texterstellungsaufgaben und eignet sich für Szenarien, die eine schnelle und kostengünstige Lösung benötigen. Es kann beispielsweise für ca. 40.000 Fotos Überschriften mit einer Zeile für weniger als 1 US-Dollar generieren, was seine Effizienz in der Praxis zeigt.

Dieser Schritt von Google wird als weitere Ausweitung seiner KI-Strategie gesehen, insbesondere im Wettbewerb mit Konkurrenten wie OpenAI und Anthropic.