Qwen1.5-110B

Qwen1.5シリーズ初の1100億パラメーターのオープンソースモデル。多言語対応、高効率Transformerデコーダーアーキテクチャを採用しています。

中国セレクション生産性人工知能機械学習
Qwen1.5-110Bは、Qwen1.5シリーズで最大規模のモデルであり、1100億パラメーターを備えています。多言語に対応し、高効率なTransformerデコーダーアーキテクチャを採用しており、グループ化クエリ・アテンション(GQA)を含むことで、モデル推論をより効率化しています。基礎能力評価においてはMeta-Llama3-70Bに匹敵し、MT-BenchやAlpacaEval 2.0を含むチャット評価においては優れた性能を示しています。このモデルの公開は、モデル規模の拡大における大きな可能性を示しており、データとモデル規模の拡大によって、さらなる性能向上が見込まれることを示唆しています。
ウェブサイトを開く

Qwen1.5-110B 最新のトラフィック状況

月間総訪問数

4314278

直帰率

68.45%

平均ページ/訪問

1.7

平均訪問時間

00:01:08

Qwen1.5-110B 訪問数の傾向

Qwen1.5-110B 訪問地理的分布

Qwen1.5-110B トラフィックソース

Qwen1.5-110B 代替品