Auf dem kürzlich in Tokio stattgefundenen Gemma Developer Day stellte Google ein neues japanischsprachiges Gemma KI-Modell vor. Dieses Modell liefert vergleichbare Ergebnisse wie GPT-3.5, verfügt aber mit nur 2 Milliarden Parametern über eine deutlich geringere Größe und eignet sich daher ideal für den Einsatz auf mobilen Geräten.
Das vorgestellte Gemma-Modell zeichnet sich durch hervorragende Leistung in der japanischen Sprachverarbeitung aus und behält gleichzeitig seine Fähigkeiten in der englischen Sprache bei. Dies ist besonders wichtig für kleinere Modelle, da diese beim Feintuning für neue Sprachen unter dem Problem des „katastrophalen Vergessens“ leiden können – neuerworbenes Wissen überschreibt bereits vorhandenes. Gemma hat dieses Problem jedoch erfolgreich überwunden und zeigt beeindruckende Fähigkeiten in der Sprachverarbeitung.
Besonders erwähnenswert ist, dass Google die Modellgewichte, Trainingsdaten und Beispiele umgehend über Plattformen wie Kaggle und Hugging Face veröffentlicht hat, um Entwicklern den Einstieg zu erleichtern. Dies ermöglicht Entwicklern die einfache Nutzung des Modells für lokale Berechnungen, insbesondere in Edge-Computing-Anwendungen, wodurch sich neue Möglichkeiten eröffnen.
Um mehr internationale Entwickler zu fördern, hat Google außerdem einen Wettbewerb namens „Unlock Global Communication with Gemma“ mit einem Preisgeld von 150.000 US-Dollar ausgeschrieben. Dieses Programm soll Entwickler dabei unterstützen, das Gemma-Modell an lokale Sprachen anzupassen. Derzeit laufen bereits Projekte für Arabisch, Vietnamesisch und Zulu. In Indien wird mit dem Projekt „Navarasa“ an der Optimierung des Modells für 12 indische Sprachen gearbeitet, während ein anderes Team die Unterstützung koreanischer Dialekte durch Feintuning erforscht.
Die Einführung der Gemma2-Modellreihe zielt darauf ab, mit weniger Parametern eine höhere Leistung zu erzielen. Im Vergleich zu ähnlichen Modellen anderer Unternehmen wie Meta schneidet Gemma2 ebenfalls hervorragend ab und übertrifft in einigen Fällen sogar Modelle mit 70 Milliarden Parametern, wie z. B. LLaMA-2, selbst mit nur 200 Millionen Parametern.
Entwickler und Forscher können auf das Gemma-2-2B-Modell und andere Gemma-Modelle über Hugging Face, Google AI Studio und den kostenlosen Plan von Google Colab zugreifen. Sie finden sie außerdem im Vertex AI Model Garden.
Offizielle Website: https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it
Hugging Face: https://huggingface.co/google
Google Colab: https://ai.google.dev/gemma/docs/keras_inference?hl=de
Highlights:
🌟 Google präsentiert ein neues japanisches Gemma KI-Modell mit GPT-3.5-ähnlicher Leistung, nur 200 Millionen Parametern und ideal für mobile Geräte.
🌍 Google startet den Wettbewerb „Unlock Global Communication with Gemma“ mit 150.000 US-Dollar Preisgeld zur Förderung lokaler Sprachversionen.
📈 Die Gemma2-Modellreihe erreicht hohe Leistung mit wenigen Parametern und übertrifft sogar größere Modelle, was das Anwendungspotenzial für Entwickler steigert.