Yi-Coder

Modèle linguistique de grande taille open source pour une codage efficace

Recommandation de l'ÉditeurProgrammationProgrammationIntelligence artificielle
Yi-Coder est une série de modèles linguistiques de grande taille (LLM) open source pour le code, offrant des performances de codage de pointe avec moins de 10 milliards de paramètres. Il existe en deux tailles : 1,5 milliard et 9 milliards de paramètres, avec des versions de base et de chat, conçues pour un raisonnement efficace et un entraînement flexible. Yi-Coder-9B a été entraîné sur un corpus de code au niveau des référentiels GitHub et sur des données liées au code filtrées à partir de CommonCrawl, avec 2,4 trillions de jetons de haute qualité supplémentaires. Yi-Coder excelle dans diverses tâches de programmation, notamment la programmation de base et compétitive, l'édition de code et l'auto-complétion au niveau du référentiel, la compréhension de longs contextes et le raisonnement mathématique.
Ouvrir le site Web

Yi-Coder Dernière situation du trafic

Nombre total de visites mensuelles

1510

Taux de rebond

45.64%

Nombre moyen de pages par visite

1.0

Durée moyenne de la visite

00:00:00

Yi-Coder Tendance des visites

Yi-Coder Distribution géographique des visites

Yi-Coder Sources de trafic

Yi-Coder Alternatives