Meta Llama 3.1は、事前にトレーニングされ、指示調整された多言語大規模言語モデル(LLM)シリーズであり、80億、700億、4050億パラメーターのバージョンが含まれています。8言語をサポートし、多言語対話ユースケース向けに最適化されており、業界ベンチマークテストで優れたパフォーマンスを示しています。Llama 3.1モデルは自己回帰言語モデルを採用し、最適化されたTransformerアーキテクチャを使用しています。また、教師あり微調整(SFT)と、人間のフィードバックを組み合わせた強化学習(RLHF)によって、モデルの有用性と安全性を向上させています。