El 25 de febrero, Alibaba anunció el lanzamiento de QwQ-Max-Preview, un modelo de inferencia basado en Qwen2.5-Max, y planea la publicación de código abierto completa de sus últimos modelos de inferencia QwQ-Max y Qwen2.5-Max.
QwQ-Max-Preview es una versión preliminar. Alibaba indicó que la versión oficial se lanzará pronto y se publicará bajo la licencia Apache 2.0. A diferencia de versiones anteriores, esta publicación de código abierto incluye no solo el modelo en sí, sino también versiones más pequeñas, como QwQ-32B, que se pueden implementar en dispositivos locales, impulsando aún más la popularización y aplicación de la tecnología de IA.
Según la evaluación de LiveCodeBench, el rendimiento de QwQ-Max-Preview es comparable al de o1-medium de OpenAI e incluso supera a DeepSeek R1. Este resultado demuestra un avance significativo en el rendimiento de los modelos de inferencia de Alibaba, especialmente en la velocidad de inferencia y la precisión de la generación de código. Alibaba también lanzó el dominio qwen.ai, donde los usuarios pueden acceder y utilizar directamente los últimos modelos de inferencia.
Se espera que los modelos QwQ-Max y Qwen2.5-Max de código abierto proporcionen a los desarrolladores y empresas una capacidad de inferencia más potente, especialmente en la generación de código, el procesamiento multimodal y la resolución de tareas complejas.
Esta iniciativa de código abierto de Alibaba no solo responde rápidamente a las demandas del mercado, sino que también representa un paso importante en su estrategia en el campo de la IA. Al publicar código abierto completo, Alibaba no solo proporciona herramientas potentes a los desarrolladores, sino que también sienta las bases para la amplia aplicación y popularización de la tecnología de IA. Con el lanzamiento oficial de QwQ-Max y Qwen2.5-Max, Alibaba espera mantener su posición de liderazgo en el campo de la IA e impulsar el desarrollo de la industria.