Falcon Mamba
Premier modèle de langage à grande échelle de 7 milliards de paramètres, sans mécanisme d'attention.
Produit OrdinaireProgrammationGrand modèle de langageSans attention
Falcon Mamba est le premier modèle de langage à grande échelle de 7 milliards de paramètres, sans mécanisme d'attention, publié par l'Institut d'innovation technologique d'Abou Dhabi (TII). Ce modèle n'est pas limité par l'augmentation des coûts de calcul et de stockage due à l'augmentation de la longueur des séquences lors du traitement de longues séquences, tout en conservant des performances comparables aux modèles de pointe actuels.
Falcon Mamba Dernière situation du trafic
Nombre total de visites mensuelles
29742941
Taux de rebond
44.20%
Nombre moyen de pages par visite
5.9
Durée moyenne de la visite
00:04:44