Meta Llama 3.1 est une série de grands modèles linguistiques (LLM) pré-entraînés et ajustés par instructions, disponibles en versions 8B, 70B et 405B paramètres. Prenant en charge 8 langues, il est optimisé pour les cas d'utilisation de dialogue multilingue et offre d'excellentes performances sur les benchmarks de l'industrie. Le modèle Llama 3.1 utilise une architecture Transformer optimisée et un modèle linguistique auto-régressif. Il est entraîné par apprentissage supervisé fin (SFT) et apprentissage par renforcement avec retour d'expérience humain (RLHF) pour améliorer son utilité et sa sécurité.