QwQ-32B-Preview
Qwenチームが開発した実験的な研究モデルで、AIの推論能力向上に焦点を当てています。
一般製品プログラミングテキスト生成Transformers
QwQ-32B-Previewは、Qwenチームによって開発された実験的な研究モデルであり、人工知能の推論能力の向上を目指しています。このモデルは有望な分析能力を示していますが、いくつかの重要な制約も存在します。数学とプログラミングにおいては優れた性能を示しますが、常識的な推論や微妙な言語理解においては改善の余地があります。このモデルはTransformersアーキテクチャを採用しており、325億個のパラメータ、64層、40個のAttentionヘッド(GQA)を備えています。製品背景情報によると、QwQ-32B-PreviewはQwen2.5-32Bモデルをベースにさらに開発されており、より深層的な言語理解と生成能力を備えています。
QwQ-32B-Preview 最新のトラフィック状況
月間総訪問数
29742941
直帰率
44.20%
平均ページ/訪問
5.9
平均訪問時間
00:04:44