ModernBERT-large

Modèle Transformer d'encodage bidirectionnel haute performance

Produit OrdinaireProgrammationBERTTransformer
ModernBERT-large est un modèle Transformer d'encodage bidirectionnel moderne (de style BERT), pré-entraîné sur 2 billions de données textuelles anglaises et de code, avec une longueur de contexte native pouvant atteindre 8192 jetons. Ce modèle utilise les dernières améliorations architecturales, telles que les plongements de position rotationnelle (RoPE) pour prendre en charge les longs contextes, l'attention alternée locale-globale pour améliorer l'efficacité des longues entrées, et le Flash Attention sans rembourrage pour améliorer l'efficacité de l'inférence. ModernBERT-large convient aux tâches nécessitant le traitement de longs documents, telles que la recherche, la classification et la recherche sémantique dans de vastes corpus. Les données d'entraînement du modèle étant principalement en anglais et en code, ses performances pourraient être inférieures pour d'autres langues.
Ouvrir le site Web

ModernBERT-large Dernière situation du trafic

Nombre total de visites mensuelles

29742941

Taux de rebond

44.20%

Nombre moyen de pages par visite

5.9

Durée moyenne de la visite

00:04:44

ModernBERT-large Tendance des visites

ModernBERT-large Distribution géographique des visites

ModernBERT-large Sources de trafic

ModernBERT-large Alternatives