Meta-Llama-3.1-8B
80億パラメーターの多言語大規模言語モデル
プレミアム新製品生産性大規模言語モデル多言語
Meta Llama 3.1は、事前にトレーニングされ、指示調整された多言語大規模言語モデル(LLM)シリーズであり、80億、700億、4050億パラメーターのバージョンが含まれています。8言語をサポートし、多言語対話ユースケース向けに最適化されており、業界ベンチマークテストで優れたパフォーマンスを示しています。Llama 3.1モデルは自己回帰言語モデルを採用し、最適化されたTransformerアーキテクチャを使用しています。また、教師あり微調整(SFT)と、人間のフィードバックを組み合わせた強化学習(RLHF)によって、モデルの有用性と安全性を向上させています。
Meta-Llama-3.1-8B 最新のトラフィック状況
月間総訪問数
29742941
直帰率
44.20%
平均ページ/訪問
5.9
平均訪問時間
00:04:44