Recientemente, Tencent AI Lab, en colaboración con varias instituciones académicas nacionales e internacionales, publicó un artículo de revisión sobre el problema de las alucinaciones en los modelos de lenguaje a gran escala. El estudio muestra que, en comparación con los modelos tradicionales, la evaluación de las alucinaciones en los modelos grandes presenta nuevos desafíos: gran volumen de datos, alta generalidad y dificultad de detección. Para reducir las alucinaciones, se pueden implementar intervenciones en varias etapas, como el preentrenamiento, el ajuste fino y el aprendizaje por refuerzo. Sin embargo, aún se requiere una investigación profunda sobre métodos de evaluación fiables para promover la aplicación práctica de los modelos de lenguaje a gran escala.