La startup japonaise d'intelligence artificielle ELYZA a lancé un modèle linguistique japonais basé sur Llama 2 de Meta, comptant 7 milliards de paramètres et offrant des performances comparables à GPT-3.5. Ce modèle, ayant bénéficié d'un pré-entraînement supplémentaire et d'un entraînement postérieur unique, a obtenu la note maximale de 5 sur 5 lors d'une évaluation manuelle. ELYZA a réussi à transposer les capacités des LLM d'autres langues au japonais, améliorant ainsi le modèle en réduisant la quantité de données japonaises nécessaires à son apprentissage.
ELYZA lance un LLM japonais basé sur Llama 2, avec 7 milliards de paramètres, rivalisant avec GPT-3.5

站长之家
235
© Tous droits réservés AIbase基地 2024, cliquez pour voir la source -https://www.aibase.com/fr/news/1256