Meta Llama 3.3

70Bパラメーターの多言語大規模事前学習言語モデル

一般製品プログラミング多言語事前学習モデル
Meta Llama 3.3は、70Bパラメーターの多言語大規模事前学習言語モデル(LLM)であり、多言語対話ユースケース向けに最適化されており、多くの既存のオープンソースおよびクローズドなチャットモデルを上回る性能を一般的な業界ベンチマークテストで示しています。このモデルは最適化されたTransformerアーキテクチャを採用し、教師ありファインチューニング(SFT)と人間からのフィードバックに基づく強化学習(RLHF)を使用して、人間の有用性と安全性の嗜好に合致するように設計されています。
ウェブサイトを開く

Meta Llama 3.3 最新のトラフィック状況

月間総訪問数

474564576

直帰率

36.20%

平均ページ/訪問

6.1

平均訪問時間

00:06:34

Meta Llama 3.3 訪問数の傾向

Meta Llama 3.3 訪問地理的分布

Meta Llama 3.3 トラフィックソース

Meta Llama 3.3 代替品