Hugging Face a lancé aujourd'hui SmolLM2, une nouvelle série de modèles linguistiques compacts offrant des performances impressionnantes tout en nécessitant beaucoup moins de ressources de calcul que les grands modèles. Ces nouveaux modèles, publiés sous licence Apache 2.0, sont disponibles en trois tailles : 135 M, 360 M et 1,7 G de paramètres, ce qui les rend adaptés au déploiement sur les smartphones et autres appareils périphériques aux capacités de traitement et à la mémoire limitées.

QQ20241105-095741.png

Le modèle SmolLM2-1B surpasse le modèle Llama1B de Meta sur plusieurs benchmarks clés, excellant particulièrement dans le raisonnement scientifique et les tâches de bon sens. Il surpasse la plupart des modèles concurrents plus grands sur la majorité des benchmarks cognitifs, grâce à l'utilisation d'un ensemble de données diversifié incluant FineWeb-Edu et des jeux de données spécifiques aux mathématiques et au codage.

Le lancement de SmolLM2 intervient à un moment crucial où l'industrie de l'intelligence artificielle s'efforce de relever les défis liés aux besoins de calcul des grands modèles linguistiques (LLM). Alors que des entreprises comme OpenAI et Anthropic repoussent constamment les limites de la taille des modèles, la nécessité de disposer d'une IA efficace et légère capable de fonctionner localement sur les appareils est de plus en plus reconnue.

QQ20241105-095748.png

SmolLM2 offre une approche différente, en apportant les puissantes fonctionnalités de l'IA directement sur les appareils personnels. Cela ouvre la voie à un avenir où davantage d'utilisateurs et d'entreprises pourront utiliser des outils d'IA de pointe, et pas seulement les géants de la technologie disposant d'immenses centres de données. Ces modèles prennent en charge une variété d'applications, notamment la réécriture de texte, la synthèse et les appels de fonctions, et sont adaptés au déploiement dans des scénarios où les contraintes de confidentialité, de latence ou de connectivité rendent les solutions d'IA basées sur le cloud impraticables.

Bien que ces modèles plus petits présentent encore des limitations, ils représentent une partie d'une tendance plus large vers des modèles d'IA plus efficaces. Le lancement de SmolLM2 suggère que l'avenir de l'IA ne se résume pas seulement à des modèles toujours plus grands, mais aussi à des architectures plus efficaces capables d'offrir des performances puissantes avec moins de ressources.