H2O-Danube-1.8B
Modèle linguistique de 1,8 milliard de paramètres, open source et gratuit
Produit OrdinaireProductivitéModèle linguistiqueTraitement du langage naturel
H2O-Danube-1.8B est un modèle linguistique de 1,8 milliard de paramètres entraîné sur 1 téraoctet de jetons, suivant les principes fondamentaux de LLaMA 2 et Mistral. Bien que notre modèle ait été entraîné sur un nombre de jetons significativement inférieur à celui des modèles de référence de taille comparable, il affiche des performances extrêmement compétitives sur plusieurs benchmarks. De plus, nous publions un modèle de chat finement ajusté par supervision et optimisé par optimisation de préférence directe. Nous ouvrons le code source de H2O-Danube-1.8B sous licence Apache 2.0, contribuant ainsi à démocratiser les grands modèles linguistiques et à en faire profiter un public plus large de manière économique.
H2O-Danube-1.8B Dernière situation du trafic
Nombre total de visites mensuelles
29742941
Taux de rebond
44.20%
Nombre moyen de pages par visite
5.9
Durée moyenne de la visite
00:04:44