El equipo de Tongyi Qianwen ha anunciado recientemente la publicación de código abierto de su última serie completa Qwen2.5-Coder, una iniciativa destinada a impulsar el desarrollo de los modelos de lenguaje grandes (LLM) de código abierto. Qwen2.5-Coder ha llamado la atención por su potencia, versatilidad y utilidad.

微信截图_20241112083641.png

El modelo Qwen2.5-Coder-32B-Instruct ha alcanzado el nivel de estado del arte (SOTA) en capacidad de codificación, comparable a GPT-4o, demostrando capacidades integrales que incluyen generación, reparación e inferencia de código. Ha obtenido los mejores resultados en varias pruebas de referencia de generación de código y ha alcanzado una puntuación de 73.7 en la prueba de referencia Aider, equivalente a la de GPT-4o.

Qwen2.5-Coder admite más de 40 lenguajes de programación y ha obtenido una puntuación de 65.9 en McEval, destacando especialmente su rendimiento en lenguajes como Haskell y Racket. Esto se debe a la limpieza y proporción únicas de datos en su fase de preentrenamiento. Además, Qwen2.5-Coder-32B-Instruct también ha demostrado un excelente rendimiento en la capacidad de reparación de código en múltiples lenguajes de programación, obteniendo una puntuación de 75.2 en la prueba de referencia MdEval, ocupando el primer lugar.

Para evaluar el rendimiento de alineación con las preferencias humanas de Qwen2.5-Coder-32B-Instruct, se construyó un punto de referencia interno de evaluación de preferencias de código llamado Code Arena. Los resultados muestran que Qwen2.5-Coder-32B-Instruct presenta una ventaja en términos de alineación de preferencias.

En esta ocasión, la serie Qwen2.5-Coder ha publicado de código abierto cuatro modelos de diferentes tamaños: 0.5B/3B/14B/32B, cubriendo seis tamaños de modelos principales para satisfacer las necesidades de diferentes desarrolladores. Se ofrecen dos tipos de modelos: Base e Instruct. El primero sirve como base para que los desarrolladores ajusten finamente el modelo, mientras que el segundo es un modelo de chat alineado oficialmente. Existe una correlación positiva entre el tamaño del modelo y su eficacia, y Qwen2.5-Coder ha logrado un rendimiento SOTA en todos los tamaños.

Los modelos Qwen2.5-Coder 0.5B/1.5B/7B/14B/32B utilizan la licencia Apache2.0, mientras que el modelo de 3B tiene una licencia de "Solo para investigación". El equipo ha verificado la eficacia del escalamiento en los LLM de código mediante la evaluación del rendimiento de Qwen2.5-Coder en todos los conjuntos de datos, en sus diferentes tamaños.

La publicación de código abierto de Qwen2.5-Coder ofrece a los desarrolladores una opción de modelo de programación potente, versátil y útil, contribuyendo al desarrollo y la aplicación de los modelos de lenguaje de programación.

Enlace al modelo Qwen2.5-Coder:

https://modelscope.cn/collections/Qwen25-Coder-9d375446e8f5814a