Falcon Mamba
アテンション機構を必要としない初の7B規模の大規模言語モデル
一般製品プログラミング大規模言語モデルアテンション機構不要
Falcon Mambaは、アブダビ技術革新研究所(TII)によって発表された、アテンション機構を必要としない初の7B規模の大規模言語モデルです。このモデルは、大規模なシーケンスを処理する場合でも、シーケンス長の増加による計算コストとストレージコストの増加の影響を受けずに、既存の最先端モデルと同等の性能を維持します。
Falcon Mamba 最新のトラフィック状況
月間総訪問数
29742941
直帰率
44.20%
平均ページ/訪問
5.9
平均訪問時間
00:04:44