Récemment, la plateforme TI de Tencent Cloud a annoncé le lancement officiel des modèles très attendus de la série DeepSeek, notamment le modèle V3 « version complète » de 671 milliards de paramètres et le modèle original R1, ainsi qu'une série de modèles distillés à partir de DeepSeek-R1, avec des tailles de paramètres allant de 70 milliards à 1,5 milliard. Cette initiative offre aux développeurs un puissant support d'outils d'IA et contribue à promouvoir l'adoption et l'application des grands modèles.
La série de modèles DeepSeek a suscité un intérêt mondial grâce à ses performances exceptionnelles. DeepSeek-R1, dès sa sortie en open source, a largement utilisé l'apprentissage par renforcement en post-entraînement, ce qui lui permet d'améliorer considérablement ses capacités d'inférence même avec très peu de données étiquetées. En mathématiques, en codage et en raisonnement linguistique naturel, les performances de DeepSeek-R1 sont comparables à celles de la version officielle de GPT-4 d'OpenAI. De plus, DeepSeek-R1 est sous licence MIT, permettant aux utilisateurs d'entraîner d'autres modèles via la technique de distillation. Son modèle distillé, DeepSeek-R1-Distill, montre d'excellentes performances lors des tests de référence, malgré une taille de paramètres plus petite et un coût d'inférence réduit.
La plateforme TI de Tencent Cloud prend non seulement entièrement en charge le déploiement en un clic des modèles de la série DeepSeek, mais offre également un accès gratuit et limité dans le temps à une version d'essai en ligne du modèle R1, permettant aux développeurs une expérience immédiate et sans effort. Les utilisateurs peuvent accéder aux informations sur les modèles et les tester ou les déployer en un clic dans « Plateforme TI - Place des grands modèles ». La plateforme TI fournit également des fonctionnalités de niveau entreprise telles que la gestion des services de modèles, la surveillance des opérations et l'évolutivité des ressources, aidant les entreprises et les développeurs à intégrer efficacement et de manière stable les modèles DeepSeek dans leurs activités.
Pour répondre aux besoins des différents utilisateurs, la plateforme TI propose plusieurs modes de facturation, notamment la facturation à l'utilisation et les abonnements annuels ou mensuels. Les utilisateurs souhaitant une courte période d'essai peuvent acheter de la puissance de calcul sur la plateforme TI et opter pour la facturation à l'utilisation ; tandis que ceux qui ont déjà acheté des machines CVM ou qui souhaitent une expérience prolongée peuvent utiliser leurs propres machines CVM comme puissance de calcul d'inférence. Pour la configuration de la puissance de calcul, la « version complète » de DeepSeek-R1 est recommandée avec le déploiement de 2 machines HCCPNV6 à 8 cartes sur Tencent Cloud pour une expérience utilisateur stable. Le modèle distillé DeepSeek-R1-Distill-Qwen-1.5B peut être déployé sur une seule carte GPU milieu de gamme. Les développeurs peuvent choisir le modèle adapté à la complexité de leurs tâches, le tester et l'intégrer à leurs applications d'IA via des appels d'API.
Cette nouvelle initiative de la plateforme TI de Tencent Cloud offre non seulement aux développeurs un puissant support d'outils d'IA, mais contribue également fortement à la popularisation et à l'application des grands modèles. Grâce à l'essai gratuit et au déploiement en un clic, la plateforme TI simplifie l'utilisation des grands modèles pour les développeurs, leur permettant d'intégrer plus rapidement les technologies d'IA dans leurs activités, améliorant ainsi l'utilité et l'accessibilité de l'IA.