Meta Llama 3.3
Modèle linguistique large multilingue pré-entraîné de 70 milliards de paramètres
Produit OrdinaireProgrammationMultilingueModèle pré-entraîné
Meta Llama 3.3 est un grand modèle linguistique pré-entraîné (LLM) multilingue de 70 milliards de paramètres, optimisé pour les cas d'utilisation de dialogue multilingue et surpassant de nombreux modèles de conversation open source et propriétaires existants sur les benchmarks sectoriels courants. Ce modèle utilise une architecture Transformer optimisée et est formé avec l'ajustement fin supervisé (SFT) et l'apprentissage par renforcement à partir de la rétroaction humaine (RLHF) pour s'aligner sur les préférences humaines en termes d'utilité et de sécurité.
Meta Llama 3.3 Dernière situation du trafic
Nombre total de visites mensuelles
474564576
Taux de rebond
36.20%
Nombre moyen de pages par visite
6.1
Durée moyenne de la visite
00:06:34