CLEVA: Eine umfassende Bewertungsplattform für chinesische Large Language Models

Beim globalen Wettbewerb für Large Language Models (LLMs) im Jahr 2023 erregten chinesische LLMs besondere Aufmerksamkeit. Die Chinesische Universität Hongkong veröffentlichte CLEVA, eine umfassende Bewertungsplattform für chinesische LLMs, die eine Reihe von Bewertungsaufgaben und -metriken umfasst.

CLEVA legt Wert auf verschiedene Metriken, darunter Genauigkeit, Robustheit, Fairness, Effizienz, Kalibrierung und Diversität. Gleichzeitig bietet es eine Vielzahl von Prompt-Vorlagen, um die Fairness der Bewertung und die Analyse der Modellleistung zu gewährleisten.

CLEVA verwendet außerdem verschiedene Methoden, um das Risiko von Datenverunreinigungen zu minimieren, und bietet eine benutzerfreundliche Oberfläche.