Gemma-2B-10M

Gemma 2Bモデル。最大10Mトークンのシーケンス長に対応し、メモリ使用量を最適化。大規模言語モデルアプリケーションに最適です。

一般製品プログラミング言語モデルアテンション機構
Gemma 2B - 10M Contextは、革新的なアテンション機構の最適化により、32GB未満のメモリで最大10Mトークンのシーケンスを処理できる大規模言語モデルです。Transformer-XL論文に着想を得た循環局所アテンション技術を採用し、大規模言語タスク処理のための強力なツールです。
ウェブサイトを開く

Gemma-2B-10M 最新のトラフィック状況

月間総訪問数

29742941

直帰率

44.20%

平均ページ/訪問

5.9

平均訪問時間

00:04:44

Gemma-2B-10M 訪問数の傾向

Gemma-2B-10M 訪問地理的分布

Gemma-2B-10M トラフィックソース

Gemma-2B-10M 代替品