Google hat kürzlich erneut im Bereich KI zugegriffen und das neueste Gemini 1.5-Modell vorgestellt. Diese Version umfasst eine kleinere Variante, Gemini 1.5 Flash-8B, sowie das „deutlich verbesserte“ Gemini 1.5 Flash und das „leistungsstärkere“ Gemini 1.5 Pro.

image.png

Laut Google zeigen interne Benchmarks Leistungsverbesserungen. Gemini 1.5 Flash bietet eine „enorme Steigerung“ der Gesamtleistung, während 1.5 Pro in Mathematik, Codierung und bei komplexen Eingabeaufforderungen deutlich besser abschneidet.

Logans Kilpatrick, Googles Leiter für KI-Produkte, erklärte in den sozialen Medien: „Gemini 1.5 Flash ist jetzt die beste Wahl für Entwickler weltweit!“ Die Modelle der Gemini 1.5-Serie verarbeiten lange Texte und können auf Informationen aus über 10 Millionen Tokens schließen. Dadurch können sie große Mengen an multimodalen Eingaben wie Dokumente, Videos und Audiodateien verarbeiten.

Die „neueste experimentelle Iteration“ des Gemini-Modells

Google stellte im Mai Gemini 1.5 Flash vor – eine leichtgewichtige Version von Gemini 1.5. Die Modelle der Gemini 1.5-Serie sollen lange Kontexte verarbeiten und können aus detaillierten Informationen von 10 Millionen und mehr Tokens schließen. Dies ermöglicht die Verarbeitung großer Mengen multimodaler Eingaben, darunter Dokumente, Videos und Audiodateien.

Google hat nun eine 8 Milliarden Parameter umfassende Kleinversion von Gemini 1.5 Flash veröffentlicht. Das neue Gemini 1.5 Pro zeigt deutliche Verbesserungen bei der Codierung und der Verarbeitung komplexer Eingabeaufforderungen. Kilpatrick erklärte, dass Google in den kommenden Wochen eine produktionsreife Version vorstellen und weitere Bewertungswerkzeuge bereitstellen wird.

Laut Kilpatrick sollen diese experimentellen Modelle Feedback sammeln, um Entwicklern schneller die neuesten Updates zukommen zu lassen. Er gab bekannt, dass die neuen Modelle Entwicklern kostenlos über Google AI Studio und die Gemini API zur Verfügung stehen werden und später auch über experimentelle Endpunkte von Vertex AI bereitgestellt werden.

Nur wenige Stunden nach der Veröffentlichung veröffentlichte die Large Model Systems Organization (LMSO) basierend auf 20.000 Community-Stimmen ein aktualisiertes Ranking im Bereich Chatbots. Gemini 1.5-Flash erzielte einen „enormen Sprung“ vom 23. auf den 6. Platz und liegt damit gleichauf mit Llama, wobei es das Google Gemma Open-Source-Modell übertrifft.

image.png

Ab dem 3. September leitet Google Anfragen automatisch an das neue Modell weiter und entfernt die alten Versionen, um Verwirrung zu vermeiden. Kilpatrick ist gespannt auf das neue Modell und hofft, dass Entwickler es nutzen werden, um mehr multimodale Anwendungen zu erstellen.

Mit der Veröffentlichung des neuen Modells ist das frühe Feedback jedoch geteilt. Einige Nutzer zeigen sich verwirrt über die häufigen Updates und erwarten eher eine umfassendere Gemini 2.0-Version. Gleichzeitig loben andere die Geschwindigkeit und Leistung der Updates und sehen Google dadurch im KI-Bereich führend.

Wichtigste Punkte:

✨ Die neuen Gemini 1.5-Modelle zeigen deutliche Verbesserungen in Mathematik, Programmierung und bei komplexen Eingabeaufforderungen.

🚀 Gemini 1.5 Flash verarbeitet multimodale Eingaben mit über 10 Millionen Tokens und ist sehr anpassungsfähig.

🛠️ Das Nutzerfeedback ist geteilt: Einige erwarten ein umfassendes Upgrade auf Gemini 2.0, andere loben die aktuellen Updates.