Mistral ha anunciado recientemente la actualización de su modelo de generación de código de código abierto, Codestral, lanzando la nueva versión Codestral25.01. Esta actualización mejora significativamente la competitividad del modelo en el campo de la programación, con el objetivo de ofrecer a los desarrolladores una experiencia de generación de código más eficiente.
Según la entrada del blog de Mistral, la arquitectura de Codestral25.01 se ha optimizado, prometiendo ser el "líder absoluto" entre modelos similares, con una velocidad de generación de código el doble que la versión anterior. Esta nueva versión mantiene las ventajas del modelo original, centrándose en la baja latencia y las operaciones de alta frecuencia, admitiendo tareas como corrección de código, generación de pruebas y completado de código. Mistral afirma que esto es especialmente importante para empresas con grandes cantidades de datos y escenarios de uso con residencia de modelos.
En varias pruebas de referencia, Codestral25.01 obtuvo excelentes resultados en las pruebas de codificación Python, alcanzando una alta puntuación del 86,6% en la prueba HumanEval, superando a las versiones anteriores de Codestral, Codellama70B Instruct y DeepSeek Coder33B Instruct.
Los desarrolladores pueden utilizar Codestral25.01 a través de los socios de plugins IDE de Mistral. Además, los usuarios pueden acceder a la API del modelo a través de la plataforma de Mistral y Google Vertex AI. Actualmente, el modelo está disponible en versión preliminar en Azure AI Foundry y se lanzará próximamente en Amazon Bedrock.
Desde el lanzamiento inicial de Codestral en mayo de 2023, Mistral ha impulsado constantemente las actualizaciones e innovaciones de su producto. El modelo Codestral-Mamba, lanzado anteriormente, basado en la arquitectura Mamba, puede generar cadenas de código más largas y procesar más entradas. Cabe destacar que Codestral25.01, pocas horas después del anuncio de su lanzamiento por parte de Mistral, ya había ascendido rápidamente en la clasificación de Copilot Arena, lo que demuestra el gran interés del mercado en este nuevo modelo.
La escritura de código, como una de las primeras funciones de los modelos básicos, aunque también se aplica en modelos generales como o3 de OpenAI y Claude de Anthropic, ha experimentado un progreso significativo en el último año en modelos especializados en programación, a menudo superando a algunos modelos generales grandes. Recientemente, Alibaba, DeepSeek Coder y Microsoft también han lanzado nuevos modelos de programación, intensificando la competencia.
Entre los numerosos desarrolladores, persiste el debate sobre la elección entre modelos generales y modelos especializados en programación. Algunos desarrolladores prefieren usar modelos generales como Claude, mientras que la demanda de tareas de programación impulsa la aparición continua de modelos especializados. Dado que Codestral está específicamente entrenado con datos de codificación, su rendimiento en tareas de programación es naturalmente superior.
Blog oficial: https://mistral.ai/news/codestral-2501/
Puntos clave:
🌟 Mistral lanza Codestral25.01, con una velocidad de generación de código dos veces superior a la versión anterior.
💻 El modelo ofrece un rendimiento excelente en las pruebas de codificación Python, obteniendo una puntuación del 86,6% en la prueba HumanEval.
📈 Codestral25.01 asciende rápidamente al primer puesto en Copilot Arena, atrayendo la atención de numerosos desarrolladores.