Meta Llama 3.1シリーズモデルは、事前学習と指示調整が施された多言語の大規模言語モデル(LLM)であり、8B、70B、405Bのパラメータを持つ3種類のモデルが含まれています。多言語対話ユースケース向けに最適化されており、多くのオープンソースおよびクローズドソースのチャットモデルよりも優れた性能を発揮します。