ChinaZ.com (站长之家) 18 de junio de 2024: DeepSeek ha anunciado recientemente el lanzamiento de su modelo de código abierto DeepSeek-Coder-V2. Este modelo supera a GPT-4-Turbo en capacidad de código y matemáticas, y presenta una expansión significativa en el soporte multilingüe y la longitud de procesamiento de contexto.

Basado en la estructura del modelo DeepSeek-V2, DeepSeek-Coder-V2 utiliza una arquitectura de mezcla de expertos (MoE), diseñada específicamente para mejorar la capacidad de razonamiento de código y matemáticas. Su rendimiento se encuentra entre los mejores del mundo, destacando especialmente en la generación de código y el cálculo matemático.

image.png

En cuanto al soporte multilingüe, DeepSeek-Coder-V2 amplía el soporte de lenguajes de programación de 86 a 338, adaptándose a una mayor variedad de necesidades de desarrollo. Asimismo, la longitud de contexto se ha ampliado de 16K a 128K, permitiendo el procesamiento de entradas más largas. DeepSeek-Coder-V2 también ofrece un servicio API con contexto de 32K, al mismo precio que DeepSeek-V2.

En las pruebas de referencia estándar, DeepSeek-Coder-V2 supera a algunos modelos cerrados en generación de código, autocompletado de código, corrección de código y razonamiento matemático. Los usuarios pueden descargar diferentes versiones de DeepSeek-Coder-V2, incluyendo versiones básicas e instructivas, así como versiones con diferentes escalas de parámetros.

DeepSeek también proporciona una plataforma de prueba en línea y un enlace a GitHub, junto con un informe técnico, para facilitar la comprensión y el uso de DeepSeek-Coder-V2. El lanzamiento de este modelo no solo aporta una potente capacidad de procesamiento de código y matemáticas a la comunidad de código abierto, sino que también contribuye al avance y la aplicación de las tecnologías relacionadas.

Dirección del proyecto: https://top.aibase.com/tool/deepseek-coder-v2

Prueba en línea: https://chat.deepseek.com/sign_in