StarCoder2
Großes, vortrainiertes Modell zur Codegenerierung
Normales ProduktProgrammierungTransformerCodegenerierung
StarCoder2 ist ein Transformer-Modell mit 150 Billionen Parametern, das auf über 600 Datensätzen verschiedener Programmiersprachen, darunter GitHub, vortrainiert wurde und Techniken wie Grouped Query Attention verwendet. Das Modell eignet sich für Codegenerierungsaufgaben und unterstützt diverse Programmiersprachen.
StarCoder2 Neueste Verkehrssituation
Monatliche Gesamtbesuche
29742941
Absprungrate
44.20%
Durchschnittliche Seiten pro Besuch
5.9
Durchschnittliche Besuchsdauer
00:04:44