Jais

Modèle linguistique de grande taille isomorphe arabe/anglais à 13 milliards de paramètres

Produit OrdinaireProductivitéRobot conversationnelChat intelligent
Il s'agit d'un modèle linguistique de grande taille pré-entraîné bilingue de 13 milliards de paramètres, prenant en charge l'arabe et l'anglais. Il a été entraîné sur un ensemble de données de 72 milliards de jetons arabes et 279 milliards de jetons anglais/code. Les données arabes ont été itérées pendant 1,6 époque (contre 1 époque pour l'anglais/code), soit un total de 395 milliards de jetons d'entraînement. Ce modèle est basé sur une architecture de décodeur Transformer (GPT-3) utilisant la fonction d'activation non linéaire SwiGLU. Il implémente l'intégration positionnelle ALiBi, permettant une extrapolation à de longues séquences, améliorant ainsi le traitement du contexte et la précision du modèle.
Ouvrir le site Web

Jais Dernière situation du trafic

Nombre total de visites mensuelles

29742941

Taux de rebond

44.20%

Nombre moyen de pages par visite

5.9

Durée moyenne de la visite

00:04:44

Jais Tendance des visites

Jais Distribution géographique des visites

Jais Sources de trafic

Jais Alternatives