ALMA-13B-R

高度洗練された機械翻訳モデル

一般製品生産性機械翻訳モデルのファインチューニング
ALMA-Rモデルは、Contrastive Preference Optimization (CPO)を用いたLoRAファインチューニングにより、GPT-4やWMT受賞モデルを凌駕しています。ALMA(-R)モデルとデータセットはGitHubリポジトリからダウンロード可能です。ALMA-RはALMAモデルをベースに構築されており、ALMAで使用された教師ありファインチューニングではなく、提案するContrastive Preference Optimization (CPO)を用いてファインチューニングされています。CPOによるファインチューニングには、三元組選好データを用いた選好学習が必要です。ALMA-Rは現在、GPT-4やWMT受賞モデルに匹敵、あるいはそれらを上回る性能を発揮しています!
ウェブサイトを開く

ALMA-13B-R 最新のトラフィック状況

月間総訪問数

29742941

直帰率

44.20%

平均ページ/訪問

5.9

平均訪問時間

00:04:44

ALMA-13B-R 訪問数の傾向

ALMA-13B-R 訪問地理的分布

ALMA-13B-R トラフィックソース

ALMA-13B-R 代替品