RWKV-6 Mixture of Experts
RWKVファミリー最大のモデルで、MoE技術を用いて効率性を向上させています。
一般製品プログラミング機械学習MoE
Flock of Finches 37B-A11B v0.1はRWKVファミリーの最新モデルであり、実験的なモデルです。11億個の活性化パラメータを持ち、わずか1090億個のトークンで学習したにもかかわらず、一般的なベンチマークテストでは最近リリースされたFinch 14Bモデルとほぼ同等のスコアを達成しています。このモデルは、効率的なスパース混合専門家(MoE)手法を採用しており、任意のトークンに対して一部のパラメータのみを活性化するため、学習と推論の過程で時間と計算資源を節約できます。このアーキテクチャの選択はVRAM使用量の増加を招きますが、より強力なモデルを低コストで学習および実行できることは、我々の観点からは非常に価値のあることです。
RWKV-6 Mixture of Experts 最新のトラフィック状況
月間総訪問数
179
直帰率
26.72%
平均ページ/訪問
3.0
平均訪問時間
00:03:45