La startup française d'IA Mistral a récemment annoncé le lancement d'une nouvelle série de modèles d'IA générative conçus pour les appareils en périphérie, tels que les ordinateurs portables et les smartphones. Mistral a baptisé cette série « Les Ministraux », répondant ainsi à la demande croissante de traitement local et de respect de la vie privée.

image.png

La nouvelle série Les Ministraux comprend deux modèles : Ministral3B et Ministral8B. Remarquablement, ces deux modèles offrent une fenêtre contextuelle de 128 000 jetons, capables de traiter un texte équivalent à environ 50 pages de livre. Cela signifie qu'ils peuvent gérer aisément la génération de texte, la traduction sur appareil et les services d'assistant intelligent hors ligne.

Mistral explique sur son blog que de plus en plus de clients et de partenaires recherchent des solutions permettant le raisonnement local, pour des applications cruciales telles que la traduction sur appareil, l'analyse locale et la robotique autonome. Les Ministraux ont été développés pour fournir des solutions efficaces en termes de calcul et à faible latence dans ces contextes.

Ministral8B est actuellement disponible en téléchargement, mais uniquement à des fins de recherche. Les développeurs et les entreprises souhaitant obtenir une licence commerciale pour Ministral3B ou Ministral8B doivent contacter directement Mistral. Les développeurs peuvent également utiliser ces deux modèles via la plateforme cloud de Mistral, La Platforme, ainsi que via d'autres services cloud partenaires dans les prochaines semaines. Le prix de Ministral8B est fixé à 10 cents par million de jetons d'entrée/sortie, tandis que Ministral3B coûte 4 cents.

La tendance aux modèles légers est de plus en plus forte, car leur entraînement, leur réglage fin et leur exécution sont moins coûteux et plus rapides. Google continue d'ajouter de nouveaux modèles à sa série de modèles légers Gemma, tandis que Microsoft a lancé la série Phi. Meta a également présenté plusieurs petits modèles optimisés pour le matériel en périphérie dans la dernière mise à jour de sa série Llama.

Mistral affirme que Ministral3B et Ministral8B surpassent les modèles Llama et Gemma comparables, ainsi que son propre modèle Mistral7B, lors de plusieurs tests de référence d'IA conçus pour évaluer le respect des instructions et la résolution de problèmes.

Mistral, dont le siège est à Paris, a récemment levé 640 millions de dollars et étend progressivement son portefeuille de produits d'IA. Ces derniers mois, la société a lancé un service gratuit permettant aux développeurs de tester ses modèles, publié un SDK pour permettre aux clients de les affiner et a également lancé un modèle de génération de code appelé Codestral.

Les cofondateurs de Mistral sont issus de Meta et de DeepMind chez Google. L'objectif de l'entreprise est de créer des modèles phares capables de rivaliser avec les meilleurs modèles tels que GPT-4 d'OpenAI et Claude d'Anthropic, tout en étant rentable. Bien que cet objectif de rentabilité soit un défi pour de nombreuses startups d'IA générative, Mistral aurait commencé à générer des revenus dès cet été.

Points clés :

1. 🚀 La série de modèles Les Ministraux de Mistral est conçue pour les appareils en périphérie et prend en charge le traitement local respectueux de la vie privée.

2. 💡 Les nouveaux modèles, Ministral3B et Ministral8B, offrent des capacités de traitement contextuel exceptionnelles et conviennent à diverses applications.

3. 💰 Mistral est rentable et continue d'étendre son portefeuille de produits d'IA, visant à concurrencer les meilleurs modèles du secteur.