Lors de la conférence des développeurs Baidu Create, le fondateur de Baidu, Robin Li, a lancé le nouveau modèle linguistique de grande taille (LLM) Wenxin X1Turbo. Ce modèle offre des performances considérablement améliorées tout en étant extrêmement compétitif en termes de prix : 1 yuan pour l’entrée de un million de jetons et 4 yuan pour la sortie, soit seulement 25 % du prix de son concurrent DeepSeek-R1.
Selon les informations fournies, le modèle Wenxin X1Turbo est basé sur le modèle de réflexion approfondie 4.5 Turbo. Il offre non seulement des performances supérieures, mais aussi des améliorations significatives en matière de chaîne de pensée, de questions-réponses, de création, de raisonnement logique, d’appel d’outils et de capacités multimodales. Ses performances globales surpassent celles de DeepSeek R1 et de la dernière version de V3.
Par ailleurs, Baidu a également lancé simultanément le modèle linguistique de grande taille Wenxin 4.5 Turbo, renforçant ainsi ses capacités multimodales. Comparé à Wenxin 4.5, la nouvelle version est plus rapide et son prix a été réduit de 80 %. Le coût d’entrée de un million de jetons pour Wenxin 4.5 Turbo est de seulement 0,8 yuan, et le coût de sortie est de 3,2 yuan, soit 40 % du prix de DeepSeek-V3. Il est également important de noter que Wenxin 4.5 Turbo a obtenu d’excellents résultats dans plusieurs tests de référence, avec une note moyenne de 77,68, dépassant les 72,76 de GPT-4o.
Le lancement par Baidu de ces deux modèles LLM, à la fois performants et abordables, va sans aucun doute intensifier la concurrence sur le marché chinois des modèles de grande taille, notamment dans les applications sensibles au prix et celles exigeant des performances optimales. Ces modèles sont susceptibles d’avoir un impact important sur la configuration actuelle du marché.