Qwen2.5-Coder-7B

7B-Parameter-Codegenerierungsmodell aus der Qwen2.5-Coder-Reihe

Normales ProduktProgrammierungCodegenerierungCode-Inferenz
Qwen2.5-Coder-7B ist ein großes Sprachmodell basierend auf Qwen2.5, das sich auf Codegenerierung, Code-Inferenz und Code-Reparatur konzentriert. Es wurde mit 5,5 Billionen Training Tokens trainiert, darunter Quellcode, textbasierte Codebeispiele, und synthetische Daten. Es stellt den aktuellen Stand der Entwicklung bei Open-Source-Code-Sprachmodellen dar. Das Modell erreicht im Bereich der Programmierfähigkeit ein Niveau vergleichbar mit GPT-4o und behält gleichzeitig seine Stärken in Mathematik und allgemeinen Fähigkeiten bei. Es unterstützt lange Kontexte mit bis zu 128K Tokens.
Website öffnen

Qwen2.5-Coder-7B Neueste Verkehrssituation

Monatliche Gesamtbesuche

29742941

Absprungrate

44.20%

Durchschnittliche Seiten pro Besuch

5.9

Durchschnittliche Besuchsdauer

00:04:44

Qwen2.5-Coder-7B Besuchstrend

Qwen2.5-Coder-7B Geografische Verteilung der Besuche

Qwen2.5-Coder-7B Traffic-Quellen

Qwen2.5-Coder-7B Alternativen