Récemment, la start-up française d'intelligence artificielle Mistral AI a annoncé ses nouveaux modèles linguistiques : Ministral3B et Ministral8B.

Ces deux nouveaux modèles font partie de la série « Ministraux », conçue pour les appareils et le calcul en périphérie. Ils prennent en charge une longueur de contexte allant jusqu'à 128 000 jetons. Cela signifie que ces modèles sont non seulement puissants, mais peuvent également être utilisés dans des contextes où la confidentialité des données et le traitement local sont primordiaux.

image.png

Mistral indique que les modèles de la série Ministraux sont parfaitement adaptés à une variété d'applications, telles que la traduction locale, les assistants intelligents hors ligne, l'analyse de données et la robotique autonome. Pour une efficacité accrue, les modèles Ministraux peuvent être combinés avec des modèles linguistiques plus importants (comme Mistral Large) pour servir d'intermédiaires efficaces dans des workflows à plusieurs étapes.

En termes de performances, les tests de référence fournis par Mistral montrent que Ministral3B et 8B surpassent de nombreux modèles concurrents dans plusieurs catégories, notamment Gemma22B de Cohere et Llama3.18B de Meta. Il est remarquable que Ministral3B, malgré son nombre de paramètres inférieur, surpasse son prédécesseur, Mistral7B, dans certains tests.

En réalité, Mistral8B excelle dans tous les tests, en particulier en matière de connaissances, de bon sens, d'appels de fonctions et de capacités multilingues.

Concernant les prix, les deux nouveaux modèles de Mistral AI sont accessibles via une API. Ministral8B coûte 0,10 $ par million de jetons, tandis que Ministral3B coûte 0,04 $. De plus, Mistral fournit les poids du modèle Ministral8B Instruct à des fins de recherche. Il est important de noter que ces deux nouveaux modèles seront bientôt disponibles via des partenaires cloud tels que Google Vertex et AWS.

Points clés :

- 🚀 Mistral AI lance Ministral3B et 8B, prenant en charge une longueur de contexte allant jusqu'à 128 000 jetons.

- 💡 Ces modèles sont adaptés à la traduction locale, aux assistants hors ligne, à l'analyse de données et à la robotique autonome.

- 💰 Ministral8B coûte 0,10 $ par million de jetons, et Ministral3B 0,04 $.