H2O-Danube-1.8B

18億パラメーターの言語モデル、オープンソースで無料

一般製品生産性言語モデル自然言語処理
H2O-Danube-1.8Bは、1兆トークンでトレーニングされた18億パラメーターの言語モデルであり、LLama 2およびMistralの中核原則に準拠しています。類似規模のベンチマークモデルと比較して、トレーニングに使用されたトークン総数が著しく少ないにもかかわらず、複数のベンチマークテストで非常に競争力のある指標を示しています。さらに、教師ありファインチューニングと直接的選好最適化トレーニングを施したチャットモデルも公開しています。H2O-Danube-1.8BはApache 2.0ライセンスの下でオープンソースとして公開され、より幅広い層が経済的に大規模言語モデルを活用できるよう、民主化を促進します。
ウェブサイトを開く

H2O-Danube-1.8B 最新のトラフィック状況

月間総訪問数

29742941

直帰率

44.20%

平均ページ/訪問

5.9

平均訪問時間

00:04:44

H2O-Danube-1.8B 訪問数の傾向

H2O-Danube-1.8B 訪問地理的分布

H2O-Danube-1.8B トラフィックソース

H2O-Danube-1.8B 代替品