Le 3 mars 2025, Tongyi Lingma a annoncé le lancement de son dernier modèle d'inférence, Qwen2.5-Max, offrant aux développeurs une puissante assistance pour la programmation et les mathématiques. Qwen2.5-Max a utilisé plus de 20 000 milliards de jetons de données de pré-entraînement et, combiné à un schéma de post-entraînement soigneusement conçu, a démontré des performances exceptionnelles.
Dans plusieurs tests de référence, Qwen2.5-Max s'est distingué. Par exemple, dans des tests tels qu'Arena-Hard, LiveBench, LiveCodeBench et GPQA-Diamond, Qwen2.5-Max a obtenu de meilleurs résultats que d'autres modèles de pointe du secteur, notamment DeepSeek V3, GPT-4o et Claude-3.5-Sonnet. De plus, dans des évaluations telles que MMLU-Pro, Qwen2.5-Max a également démontré des résultats très compétitifs.
Dans la comparaison des modèles de base, Qwen2.5-Max a été comparé de manière exhaustive à des modèles tels que DeepSeek V3, Llama-3.1-405B et Qwen2.5-72B. Les résultats montrent que le modèle de base de Tongyi Qianwen présente un avantage significatif dans la plupart des tests de référence.
Il est à noter que dans le dernier classement des grands modèles de test aveugle publié par la plateforme de test de référence tierce Chatbot Arena, Qwen2.5-Max a surpassé des modèles tels que DeepSeek-V3, Open AI o1-mini et Claude-3.5-Sonnet, obtenant 1332 points et se classant septième au monde, devenant ainsi le champion chinois des grands modèles non inférentiels. En termes de capacités spécifiques en mathématiques et en programmation, Qwen2.5-Max s'est classé premier, et deuxième pour les invites difficiles (Hard prompts). Chatbot Arena a déclaré officiellement que le Qwen2.5-Max d'Alibaba présentait de solides performances dans plusieurs domaines, notamment dans les domaines techniques spécialisés tels que la programmation, les mathématiques et les invites difficiles.
Actuellement, Qwen2.5-Max est intégré à Tongyi Lingma, et les utilisateurs peuvent profiter de ses puissantes capacités de programmation en téléchargeant le plugin Tongyi Lingma.