Lors du sommet des développeurs d'apprentissage profond WAVE SUMMIT 2024 de Baidu, le CTO Wang Haifeng a officiellement lancé la version 4.0 Turbo du modèle linguistique Wenxin. Cette nouvelle version affiche des améliorations significatives en termes de vitesse et d'efficacité, et est désormais disponible sur le site officiel yiyan.baidu.com.

La vitesse de réponse du modèle linguistique Wenxin 4.0 Turbo a été considérablement améliorée. La génération de longs textes de plus de 1000 mots ne prend que plus de 20 secondes, avec une qualité de contenu élevée.

微信截图_20240702140753.png

En termes d'efficacité, le nouveau modèle excelle dans de nombreux scénarios d'application. Il est capable d'accéder rapidement à l'information, exigeant une grande exactitude et fiabilité des faits. Par exemple, dans les tests de performance de questions-réponses, le traitement de l'actualité démontre sa réactivité, la richesse de ses sources d'information et une présentation hautement structurée.

Pour les questions-réponses sur des connaissances professionnelles, telles que la méthode d'évaluation relative du modèle d'évaluation boursière, les réponses du modèle sont professionnelles, fiables et l'analyse est claire et structurée. Lorsqu'il traite de grandes quantités de documents et d'informations web, le modèle peut réaliser avec précision des résumés et des synthèses d'informations, et intégrer efficacement le contenu de plusieurs documents.

De plus, dans le contexte du développement de code, le modèle peut générer du code logiquement correct et abondamment commenté.

微信截图_20240702140848.png

Le modèle linguistique Wenxin 4.0 Turbo est désormais accessible à tous les utilisateurs de la version professionnelle de Wenxin Yiyan, avec une offre d'essai gratuit. Les utilisateurs peuvent accéder au site Web pour obtenir une carte d'essai limitée dans le temps et expérimenter eux-mêmes cette version améliorée du modèle linguistique.