ALMA-13B-R

Modèle de traduction automatique avancé

Produit OrdinaireProductivitéTraduction automatiqueAffinage du modèle
Le modèle ALMA-R, affiné par optimisation de préférence contrastive (CPO) via LoRA, surpasse GPT-4 et les gagnants du WMT. Les utilisateurs peuvent télécharger le modèle ALMA(-R) et les ensembles de données sur le dépôt GitHub. ALMA-R, basé sur le modèle ALMA, utilise l'optimisation de préférence contrastive (CPO) que nous avons proposée pour l'affinage, contrairement à l'affinage supervisé utilisé dans ALMA. L'affinage CPO nécessite nos données de préférence en triplets pour l'apprentissage par préférence. ALMA-R atteint désormais, voire dépasse, les performances de GPT-4 ou des lauréats du WMT !
Ouvrir le site Web

ALMA-13B-R Dernière situation du trafic

Nombre total de visites mensuelles

29742941

Taux de rebond

44.20%

Nombre moyen de pages par visite

5.9

Durée moyenne de la visite

00:04:44

ALMA-13B-R Tendance des visites

ALMA-13B-R Distribution géographique des visites

ALMA-13B-R Sources de trafic

ALMA-13B-R Alternatives