Dans la dernière mise à jour de Hugging Face, la plus grande communauté open source d'IA au monde, le modèle d'inférence Tongyi Qianwen QwQ-32B récemment lancé par Alibaba a remporté la première place du classement des grands modèles. Ce modèle, qui a suscité un vif intérêt dès sa sortie, a surpassé des modèles renommés tels que Phi-4 de Microsoft et DeepSeek-R1, démontrant des performances exceptionnelles.

QQ_1741327047359.png

Le modèle QwQ-32B a réalisé des progrès significatifs dans plusieurs domaines, notamment les mathématiques, le traitement du code et les capacités générales. Son nombre de paramètres relativement faible lui permet d'atteindre des performances comparables à celles de DeepSeek-R1. De plus, sa conception permet un déploiement local sur des cartes graphiques grand public, réduisant considérablement les coûts d'utilisation. Cette avancée offre aux utilisateurs un accès plus facile et plus économique aux applications d'IA.

Lors de plusieurs tests de référence, le modèle QwQ-32B a obtenu d'excellents résultats, surpassant largement le modèle o1-mini d'OpenAI et rivalisant avec DeepSeek-R1. Notamment, sur les ensembles de tests AIME24 (capacités mathématiques) et LiveCodeBench (capacités de codage), QwQ-32B a obtenu des scores comparables à ceux de DeepSeek-R1, devançant largement o1-mini et son modèle distillé R1 de même taille.

Actuellement, le modèle QwQ-32B est open source sous la licence permissive Apache 2.0 sur les plateformes MoDa Community, Hugging Face et GitHub. N'importe qui peut le télécharger gratuitement et le déployer localement. Il est également possible d'appeler les services d'API du modèle via la plateforme Alibaba Cloud Bailian.

Points clés :

🌟 Le modèle QwQ-32B occupe la première place du classement Hugging Face, surpassant de nombreux modèles renommés.

💡 Ce modèle réalise une percée en termes de performances et de coût d'utilisation, permettant un déploiement local sur des cartes graphiques grand public.

📈 Il obtient d'excellents résultats dans plusieurs tests de référence, rivalisant avec le modèle le plus performant, DeepSeek-R1.