Stability AI Japan a récemment lancé deux nouveaux modèles linguistiques japonais : « Japanese Stable LM3B-4E1T » et « Japanese Stable LM Gamma7B ». Ces modèles, basés sur des modèles linguistiques anglais, ont été entraînés sur d'importantes quantités de données en japonais et en anglais, améliorant ainsi considérablement leurs performances en traitement du langage naturel japonais.
Le premier modèle compte 3 milliards de paramètres, tandis que le second en possède 7 milliards. Le lancement de ces modèles marque une avancée significative dans le domaine du traitement du langage naturel au Japon, offrant aux utilisateurs des performances et une portabilité accrues.
Les évaluations de performance montrent que, malgré un nombre de paramètres inférieur, le premier modèle excelle dans plusieurs tâches. Le second modèle obtient des scores plus élevés, témoignant de progrès remarquables dans le traitement du langage naturel japonais.