Qwen1.5-110B
Erstes Open-Source-Modell der Qwen1.5-Serie mit 100 Milliarden Parametern, mehrsprachiger Unterstützung und effizienter Transformer-Decoder-Architektur.
Inländische AuswahlProduktivitätKünstliche IntelligenzMaschinelles Lernen
Qwen1.5-110B ist das größte Modell der Qwen1.5-Serie mit 110 Milliarden Parametern. Es unterstützt mehrere Sprachen, verwendet eine effiziente Transformer-Decoder-Architektur und beinhaltet Group Query Attention (GQA) für effizientere Modellinferenz. In der Bewertung grundlegender Fähigkeiten erreicht es vergleichbare Ergebnisse wie Meta-Llama3-70B und zeigt in Chat-Bewertungen, einschließlich MT-Bench und AlpacaEval 2.0, hervorragende Leistungen. Die Veröffentlichung dieses Modells demonstriert das enorme Potenzial der Skalierung von Modellen und deutet darauf hin, dass durch Erweiterung von Daten und Modellgröße zukünftig noch größere Leistungssteigerungen erzielt werden können.
Qwen1.5-110B Neueste Verkehrssituation
Monatliche Gesamtbesuche
4314278
Absprungrate
68.45%
Durchschnittliche Seiten pro Besuch
1.7
Durchschnittliche Besuchsdauer
00:01:08