DeepSeek-Coder-V2

Modèle linguistique de code open source, améliorant l'intelligence de la programmation.

Nouveau Produit PremiumProgrammationGénération de codeAide à la programmation
DeepSeek-Coder-V2 est un modèle linguistique de code open source de type Mixture-of-Experts (MoE), dont les performances sont comparables à celles de GPT4-Turbo, et qui excelle dans les tâches spécifiques au code. Basé sur DeepSeek-Coder-V2-Base, il a bénéficié d'un pré-entraînement supplémentaire sur un corpus multi-sources de haute qualité de 6 000 milliards de jetons, améliorant significativement ses capacités de codage et de raisonnement mathématique, tout en conservant ses performances sur les tâches linguistiques générales. La prise en charge des langages de programmation est passée de 86 à 338, et la longueur du contexte de 16 K à 128 K.
Ouvrir le site Web

DeepSeek-Coder-V2 Dernière situation du trafic

Nombre total de visites mensuelles

474564576

Taux de rebond

36.20%

Nombre moyen de pages par visite

6.1

Durée moyenne de la visite

00:06:34

DeepSeek-Coder-V2 Tendance des visites

DeepSeek-Coder-V2 Distribution géographique des visites

DeepSeek-Coder-V2 Sources de trafic

DeepSeek-Coder-V2 Alternatives