Recientemente, la plataforma TI de Tencent Cloud anunció el lanzamiento oficial de los muy esperados modelos de la serie DeepSeek, incluyendo el modelo V3 de "versión completa" con 671 mil millones de parámetros y el modelo R1 original, así como una serie de modelos derivados de DeepSeek-R1 mediante destilación, con tamaños de parámetros que van desde 70 mil millones hasta 1,5 mil millones. Esta iniciativa proporciona a los desarrolladores un potente soporte de herramientas de IA, impulsando aún más la popularización y aplicación de la tecnología de modelos grandes.

Los modelos de la serie DeepSeek han llamado la atención mundial por su rendimiento excepcional. DeepSeek-R1, de código abierto desde su lanzamiento, utilizó ampliamente técnicas de aprendizaje por refuerzo en la etapa de post-entrenamiento, lo que permite una mejora significativa de la capacidad de inferencia del modelo incluso con muy pocos datos etiquetados. En tareas de matemáticas, código y razonamiento de lenguaje natural, el rendimiento de DeepSeek-R1 es comparable al de la versión oficial de GPT-4 de OpenAI. Además, DeepSeek-R1 sigue la licencia MIT, permitiendo a los usuarios entrenar otros modelos mediante la técnica de destilación; su modelo destilado, DeepSeek-R1-Distill, muestra un excelente rendimiento en las pruebas de referencia a pesar de su menor tamaño de parámetros y menor coste de inferencia.

微信截图_20250204143205.png

La plataforma TI de Tencent Cloud no solo admite completamente la implementación con un solo clic de los modelos de la serie DeepSeek, sino que también ofrece una experiencia online gratuita y por tiempo limitado del modelo R1, proporcionando a los desarrolladores una experiencia práctica sin barreras. Los usuarios pueden encontrar la tarjeta de los modelos de la serie DeepSeek en "Plataforma TI - Plaza de modelos grandes", donde pueden obtener información sobre los modelos, probarlos online e implementarlos con un solo clic. Además, la plataforma TI ofrece capacidades de nivel empresarial como gestión de servicios de modelos, supervisión operativa y escalabilidad de recursos, ayudando a empresas y desarrolladores a integrar los modelos DeepSeek de forma eficiente y estable en sus operaciones reales.

Para satisfacer las diversas necesidades de los usuarios, la plataforma TI ofrece varios métodos de facturación, incluyendo pago por uso y suscripción anual/mensual. Para aquellos que necesitan una prueba de corta duración, pueden comprar directamente potencia de cálculo en la plataforma TI y optar por el pago por uso; mientras que para aquellos que ya han adquirido máquinas CVM o necesitan una prueba prolongada, se recomienda utilizar sus propias máquinas CVM como potencia de cálculo de inferencia. En cuanto a la configuración de la potencia de cálculo, se recomienda utilizar dos máquinas HCCPNV6 de 8 tarjetas en la nube de Tencent para implementar el modelo DeepSeek-R1 de "versión completa" para una experiencia operativa estable; mientras que el modelo destilado DeepSeek-R1-Distill-Qwen-1.5B puede implementarse con una sola tarjeta GPU de gama media. Los desarrolladores pueden elegir el modelo adecuado según la complejidad de su tarea, e integrarlo en sus aplicaciones de IA mediante llamadas a la API.

Esta nueva iniciativa de la plataforma TI de Tencent Cloud no solo proporciona a los desarrolladores un potente soporte de herramientas de IA, sino que también impulsa enérgicamente la popularización y aplicación de la tecnología de modelos grandes. Mediante la experiencia gratuita y la función de implementación con un solo clic, la plataforma TI reduce las barreras de entrada para el uso de modelos grandes, permitiendo a los desarrolladores aplicar la tecnología de IA a sus operaciones reales de forma más rápida, mejorando así la practicidad y accesibilidad de la tecnología de IA.