Qwen1.5-110B

Erstes Open-Source-Modell der Qwen1.5-Serie mit 100 Milliarden Parametern, mehrsprachiger Unterstützung und effizienter Transformer-Decoder-Architektur.

Inländische AuswahlProduktivitätKünstliche IntelligenzMaschinelles Lernen
Qwen1.5-110B ist das größte Modell der Qwen1.5-Serie mit 110 Milliarden Parametern. Es unterstützt mehrere Sprachen, verwendet eine effiziente Transformer-Decoder-Architektur und beinhaltet Group Query Attention (GQA) für effizientere Modellinferenz. In der Bewertung grundlegender Fähigkeiten erreicht es vergleichbare Ergebnisse wie Meta-Llama3-70B und zeigt in Chat-Bewertungen, einschließlich MT-Bench und AlpacaEval 2.0, hervorragende Leistungen. Die Veröffentlichung dieses Modells demonstriert das enorme Potenzial der Skalierung von Modellen und deutet darauf hin, dass durch Erweiterung von Daten und Modellgröße zukünftig noch größere Leistungssteigerungen erzielt werden können.
Website öffnen

Qwen1.5-110B Neueste Verkehrssituation

Monatliche Gesamtbesuche

4314278

Absprungrate

68.45%

Durchschnittliche Seiten pro Besuch

1.7

Durchschnittliche Besuchsdauer

00:01:08

Qwen1.5-110B Besuchstrend

Qwen1.5-110B Geografische Verteilung der Besuche

Qwen1.5-110B Traffic-Quellen

Qwen1.5-110B Alternativen