PromptBench
Marco de evaluación unificado para modelos de lenguaje
Producto ComúnProgramaciónBenchmarkEvaluación
PromptBench es un paquete Python basado en PyTorch para evaluar modelos de lenguaje a gran escala (LLM). Ofrece una API fácil de usar para investigadores que deseen evaluar LLM. Sus principales funciones incluyen: evaluación rápida del rendimiento del modelo, ingeniería de prompts, evaluación de prompts adversariales y evaluación dinámica. Sus ventajas son su facilidad de uso y su rápida puesta en marcha, permitiendo evaluar conjuntos de datos y modelos existentes, así como personalizar fácilmente los propios conjuntos de datos y modelos. Se posiciona como una biblioteca de código abierto unificada para la evaluación de LLM.
PromptBench Situación del tráfico más reciente
Total de visitas mensuales
474564576
Tasa de rebote
36.20%
Páginas promedio por visita
6.1
Duración promedio de la visita
00:06:34