PromptBench

Framework d'évaluation unifié des modèles linguistiques

Produit OrdinaireProgrammationBenchmarkÉvaluation
PromptBench est une bibliothèque Python basée sur PyTorch, conçue pour évaluer les grands modèles linguistiques (LLM). Elle offre aux chercheurs une API conviviale pour l'évaluation des LLM. Ses principales fonctionnalités incluent : l'évaluation rapide des performances des modèles, l'ingénierie des invites, l'évaluation des invites adversariales et l'évaluation dynamique. Son principal avantage réside dans sa simplicité d'utilisation, permettant une évaluation rapide des modèles et des ensembles de données existants, ainsi qu'une personnalisation aisée des ensembles de données et des modèles. Il se positionne comme une bibliothèque open source unifiée pour l'évaluation des LLM.
Ouvrir le site Web

PromptBench Dernière situation du trafic

Nombre total de visites mensuelles

474564576

Taux de rebond

36.20%

Nombre moyen de pages par visite

6.1

Durée moyenne de la visite

00:06:34

PromptBench Tendance des visites

PromptBench Distribution géographique des visites

PromptBench Sources de trafic

PromptBench Alternatives