Qwen1.5-110B
Qwen1.5シリーズ初の1100億パラメーターのオープンソースモデル。多言語対応、高効率Transformerデコーダーアーキテクチャを採用しています。
中国セレクション生産性人工知能機械学習
Qwen1.5-110Bは、Qwen1.5シリーズで最大規模のモデルであり、1100億パラメーターを備えています。多言語に対応し、高効率なTransformerデコーダーアーキテクチャを採用しており、グループ化クエリ・アテンション(GQA)を含むことで、モデル推論をより効率化しています。基礎能力評価においてはMeta-Llama3-70Bに匹敵し、MT-BenchやAlpacaEval 2.0を含むチャット評価においては優れた性能を示しています。このモデルの公開は、モデル規模の拡大における大きな可能性を示しており、データとモデル規模の拡大によって、さらなる性能向上が見込まれることを示唆しています。
Qwen1.5-110B 最新のトラフィック状況
月間総訪問数
4314278
直帰率
68.45%
平均ページ/訪問
1.7
平均訪問時間
00:01:08