Qwen1.5-110Bは、Qwen1.5シリーズで最大規模のモデルであり、1100億パラメーターを備えています。多言語に対応し、高効率なTransformerデコーダーアーキテクチャを採用しており、グループ化クエリ・アテンション(GQA)を含むことで、モデル推論をより効率化しています。基礎能力評価においてはMeta-Llama3-70Bに匹敵し、MT-BenchやAlpacaEval 2.0を含むチャット評価においては優れた性能を示しています。このモデルの公開は、モデル規模の拡大における大きな可能性を示しており、データとモデル規模の拡大によって、さらなる性能向上が見込まれることを示唆しています。