OLMoE-1B-7B

Modèle linguistique de grande envergure (LLM) open source et hautement performant

Produit OrdinaireProductivitéModèle linguistique de grande envergureOpen source
OLMoE-1B-7B est un modèle linguistique de grande envergure (LLM) de type mélange d'experts, doté de 100 millions de paramètres actifs et de 700 millions de paramètres au total. Lancé en septembre 2024, il surpasse les modèles concurrents de coût similaire et rivalise avec des modèles plus grands tels que Llama2-13B. Entièrement open source, OLMoE prend en charge de nombreuses fonctionnalités, notamment la génération de texte, l'entraînement et le déploiement de modèles.
Ouvrir le site Web

OLMoE-1B-7B Dernière situation du trafic

Nombre total de visites mensuelles

29742941

Taux de rebond

44.20%

Nombre moyen de pages par visite

5.9

Durée moyenne de la visite

00:04:44

OLMoE-1B-7B Tendance des visites

OLMoE-1B-7B Distribution géographique des visites

OLMoE-1B-7B Sources de trafic

OLMoE-1B-7B Alternatives