H2O-Danube-1.8B
18億パラメーターの言語モデル、オープンソースで無料
一般製品生産性言語モデル自然言語処理
H2O-Danube-1.8Bは、1兆トークンでトレーニングされた18億パラメーターの言語モデルであり、LLama 2およびMistralの中核原則に準拠しています。類似規模のベンチマークモデルと比較して、トレーニングに使用されたトークン総数が著しく少ないにもかかわらず、複数のベンチマークテストで非常に競争力のある指標を示しています。さらに、教師ありファインチューニングと直接的選好最適化トレーニングを施したチャットモデルも公開しています。H2O-Danube-1.8BはApache 2.0ライセンスの下でオープンソースとして公開され、より幅広い層が経済的に大規模言語モデルを活用できるよう、民主化を促進します。
H2O-Danube-1.8B 最新のトラフィック状況
月間総訪問数
29742941
直帰率
44.20%
平均ページ/訪問
5.9
平均訪問時間
00:04:44