RWKV-6 Mixture of Experts

RWKVファミリー最大のモデルで、MoE技術を用いて効率性を向上させています。

一般製品プログラミング機械学習MoE
Flock of Finches 37B-A11B v0.1はRWKVファミリーの最新モデルであり、実験的なモデルです。11億個の活性化パラメータを持ち、わずか1090億個のトークンで学習したにもかかわらず、一般的なベンチマークテストでは最近リリースされたFinch 14Bモデルとほぼ同等のスコアを達成しています。このモデルは、効率的なスパース混合専門家(MoE)手法を採用しており、任意のトークンに対して一部のパラメータのみを活性化するため、学習と推論の過程で時間と計算資源を節約できます。このアーキテクチャの選択はVRAM使用量の増加を招きますが、より強力なモデルを低コストで学習および実行できることは、我々の観点からは非常に価値のあることです。
ウェブサイトを開く

RWKV-6 Mixture of Experts 最新のトラフィック状況

月間総訪問数

179

直帰率

26.72%

平均ページ/訪問

3.0

平均訪問時間

00:03:45

RWKV-6 Mixture of Experts 訪問数の傾向

RWKV-6 Mixture of Experts 訪問地理的分布

RWKV-6 Mixture of Experts トラフィックソース

RWKV-6 Mixture of Experts 代替品