LongLLaMA
Modèle linguistique de grande taille pour le traitement de longs textes
Produit OrdinaireProgrammationModèle linguistiqueTraitement du langage naturel
LongLLaMA est un grand modèle linguistique capable de traiter de longs textes. Il est basé sur OpenLLaMA et a été affiné à l'aide de la méthode Focused Transformer (FoT). Il peut traiter des textes allant jusqu'à 256 000 jetons, voire plus. Nous fournissons un modèle de base plus petit de 3 B (non ajusté aux instructions) et du code d'inférence prenant en charge des contextes plus longs sur Hugging Face. Nos poids de modèle peuvent remplacer LLaMA dans les implémentations existantes (pour les contextes courts jusqu'à 2048 jetons). De plus, nous fournissons des résultats d'évaluation et une comparaison avec le modèle OpenLLaMA d'origine.
LongLLaMA Dernière situation du trafic
Nombre total de visites mensuelles
474564576
Taux de rebond
36.20%
Nombre moyen de pages par visite
6.1
Durée moyenne de la visite
00:06:34