Meta Llama 3.3 est un grand modèle linguistique pré-entraîné (LLM) multilingue de 70 milliards de paramètres, optimisé pour les cas d'utilisation de dialogue multilingue et surpassant de nombreux modèles de conversation open source et propriétaires existants sur les benchmarks sectoriels courants. Ce modèle utilise une architecture Transformer optimisée et est formé avec l'ajustement fin supervisé (SFT) et l'apprentissage par renforcement à partir de la rétroaction humaine (RLHF) pour s'aligner sur les préférences humaines en termes d'utilité et de sécurité.