H2O-Danube-1.8B

Modèle linguistique de 1,8 milliard de paramètres, open source et gratuit

Produit OrdinaireProductivitéModèle linguistiqueTraitement du langage naturel
H2O-Danube-1.8B est un modèle linguistique de 1,8 milliard de paramètres entraîné sur 1 téraoctet de jetons, suivant les principes fondamentaux de LLaMA 2 et Mistral. Bien que notre modèle ait été entraîné sur un nombre de jetons significativement inférieur à celui des modèles de référence de taille comparable, il affiche des performances extrêmement compétitives sur plusieurs benchmarks. De plus, nous publions un modèle de chat finement ajusté par supervision et optimisé par optimisation de préférence directe. Nous ouvrons le code source de H2O-Danube-1.8B sous licence Apache 2.0, contribuant ainsi à démocratiser les grands modèles linguistiques et à en faire profiter un public plus large de manière économique.
Ouvrir le site Web

H2O-Danube-1.8B Dernière situation du trafic

Nombre total de visites mensuelles

29742941

Taux de rebond

44.20%

Nombre moyen de pages par visite

5.9

Durée moyenne de la visite

00:04:44

H2O-Danube-1.8B Tendance des visites

H2O-Danube-1.8B Distribution géographique des visites

H2O-Danube-1.8B Sources de trafic

H2O-Danube-1.8B Alternatives