Ce projet open source, développé par Vectara, évalue le taux d'hallucinations des grands modèles de langage (LLM) lors de la synthèse de courts documents. Il utilise le modèle d'évaluation des hallucinations de Vectara (HHEM-2.1) pour détecter les hallucinations dans les sorties du modèle et calculer un classement. Cet outil est crucial pour la recherche et le développement de LLM plus fiables, permettant aux développeurs de comprendre et d'améliorer la précision de leurs modèles.