Qwen2.5-Coder-7B
7B-Parameter-Codegenerierungsmodell aus der Qwen2.5-Coder-Reihe
Normales ProduktProgrammierungCodegenerierungCode-Inferenz
Qwen2.5-Coder-7B ist ein großes Sprachmodell basierend auf Qwen2.5, das sich auf Codegenerierung, Code-Inferenz und Code-Reparatur konzentriert. Es wurde mit 5,5 Billionen Training Tokens trainiert, darunter Quellcode, textbasierte Codebeispiele, und synthetische Daten. Es stellt den aktuellen Stand der Entwicklung bei Open-Source-Code-Sprachmodellen dar. Das Modell erreicht im Bereich der Programmierfähigkeit ein Niveau vergleichbar mit GPT-4o und behält gleichzeitig seine Stärken in Mathematik und allgemeinen Fähigkeiten bei. Es unterstützt lange Kontexte mit bis zu 128K Tokens.
Qwen2.5-Coder-7B Neueste Verkehrssituation
Monatliche Gesamtbesuche
29742941
Absprungrate
44.20%
Durchschnittliche Seiten pro Besuch
5.9
Durchschnittliche Besuchsdauer
00:04:44