Lors de la journée des développeurs Gemma qui s'est récemment tenue à Tokyo, Google a officiellement lancé le nouveau modèle d'IA Gemma en japonais. Les performances de ce modèle sont comparables à celles de GPT-3.5, mais il ne compte que 2 milliards de paramètres, ce qui le rend extrêmement compact et adapté aux appareils mobiles.

Gemma

Ce modèle Gemma, lors de sa publication, a démontré d'excellentes performances dans le traitement du japonais, tout en conservant ses capacités en anglais. Ceci est particulièrement important pour les petits modèles, car lors de l'adaptation à de nouvelles langues, ils peuvent rencontrer le problème de « l'oubli catastrophique », c'est-à-dire que les nouvelles connaissances apprises peuvent écraser les informations précédemment acquises. Cependant, Gemma a réussi à surmonter ce défi, démontrant ainsi ses puissantes capacités de traitement du langage.

Il est également important de noter que Google a immédiatement publié les poids du modèle, le matériel de formation et des exemples via des plateformes telles que Kaggle et Hugging Face, pour aider les développeurs à démarrer plus rapidement. Cela signifie que les développeurs peuvent facilement utiliser ce modèle pour effectuer des calculs locaux, ouvrant ainsi de nouvelles possibilités, notamment dans les applications de calcul en périphérie.

Pour encourager un plus grand nombre de développeurs internationaux, Google a également lancé un concours intitulé « Débloquez la communication mondiale avec Gemma », doté d'une récompense de 150 000 $. Ce programme vise à aider les développeurs à adapter le modèle Gemma à leurs langues locales. Actuellement, des projets sont en cours pour l'arabe, le vietnamien et le zoulou. En Inde, les développeurs travaillent sur le projet « Navarasa », qui vise à optimiser le modèle pour prendre en charge 12 langues indiennes, tandis qu'une autre équipe étudie la prise en charge des dialectes coréens par ajustement fin.

Le lancement des modèles de la série Gemma2 vise à atteindre des performances supérieures avec un nombre de paramètres réduit. Comparé à des modèles similaires d'autres entreprises comme Meta, Gemma2 offre des performances équivalentes, voire supérieures dans certains cas : un modèle Gemma2 de 200 millions de paramètres peut surpasser certains modèles disposant de 70 milliards de paramètres, comme LLaMA-2.

Les développeurs et les chercheurs peuvent accéder au modèle Gemma-2-2B et à d'autres modèles Gemma via Hugging Face, le Google AI Studio et le programme gratuit Google Colab, ainsi que dans le jardin de modèles Vertex AI.

Lien officiel : https://aistudio.google.com/app/prompts/new_chat?model=gemma-2-2b-it

Hugging Face : https://huggingface.co/google

Google Colab : https://ai.google.dev/gemma/docs/keras_inference?hl=de

Points clés :

🌟 Google lance un nouveau modèle d'IA Gemma en japonais, dont les performances sont comparables à celles de GPT-3.5, avec seulement 200 millions de paramètres, adapté aux appareils mobiles.

🌍 Google lance le concours « Débloquez la communication mondiale avec Gemma », doté de 150 000 $, pour encourager le développement de versions en langues locales.

📈 Les modèles de la série Gemma2 offrent des performances élevées avec un nombre réduit de paramètres, surpassant même des modèles plus importants, améliorant ainsi le potentiel d'application pour les développeurs.