Yi-Coder
Ein quelloffenes, großes Sprachmodell für effizientes Codieren
RedaktionsempfehlungProgrammierungProgrammierungKünstliche Intelligenz
Yi-Coder ist eine Reihe quelloffener, großer Sprachmodelle (LLMs) für Code, die selbst mit weniger als 10 Milliarden Parametern modernste Codierungsleistung bieten. Es gibt zwei Größen – 1,5 Milliarden und 9 Milliarden Parameter – mit Basis- und Chat-Versionen, die auf effizientes Inferencing und flexibles Training ausgelegt sind. Yi-Coder-9B wurde zusätzlich mit 2,4 Billionen hochwertigen Tokens auf einem Code-Corpus auf GitHub-Repositories und aus CommonCrawl gefilterten codebezogenen Daten trainiert. Yi-Coder zeichnet sich in verschiedenen Programmieraufgaben aus, darunter Basis- und Wettkampfprogrammierung, Code-Editing und Repository-Level-Completion, Verständnis langer Kontexte und mathematisches Schlussfolgern.
Yi-Coder Neueste Verkehrssituation
Monatliche Gesamtbesuche
1510
Absprungrate
45.64%
Durchschnittliche Seiten pro Besuch
1.0
Durchschnittliche Besuchsdauer
00:00:00