Falcon Mamba

Premier modèle de langage à grande échelle de 7 milliards de paramètres, sans mécanisme d'attention.

Produit OrdinaireProgrammationGrand modèle de langageSans attention
Falcon Mamba est le premier modèle de langage à grande échelle de 7 milliards de paramètres, sans mécanisme d'attention, publié par l'Institut d'innovation technologique d'Abou Dhabi (TII). Ce modèle n'est pas limité par l'augmentation des coûts de calcul et de stockage due à l'augmentation de la longueur des séquences lors du traitement de longues séquences, tout en conservant des performances comparables aux modèles de pointe actuels.
Ouvrir le site Web

Falcon Mamba Dernière situation du trafic

Nombre total de visites mensuelles

29742941

Taux de rebond

44.20%

Nombre moyen de pages par visite

5.9

Durée moyenne de la visite

00:04:44

Falcon Mamba Tendance des visites

Falcon Mamba Distribution géographique des visites

Falcon Mamba Sources de trafic

Falcon Mamba Alternatives