Meta Llama 3.1 est un grand modèle linguistique développé par Meta, doté de 70 milliards de paramètres et prenant en charge la génération de texte en 8 langues. Ce modèle utilise une architecture Transformer optimisée et a été affiné par apprentissage supervisé et apprentissage par renforcement à partir de la rétroaction humaine afin de répondre aux préférences humaines en matière d'utilité et de sécurité. Il excelle dans les cas d'utilisation de dialogue multilingue, surpassant de nombreux modèles de conversation open source et propriétaires existants.