Recentemente, o Tencent AI Lab, em conjunto com várias instituições acadêmicas nacionais e internacionais, publicou um artigo de revisão sobre o problema de alucinações em grandes modelos de linguagem. A pesquisa mostra que, em comparação com modelos tradicionais, a avaliação de alucinações em grandes modelos enfrenta novos desafios, como grande escala de dados, alta generalidade e dificuldade de detecção. Para reduzir as alucinações, intervenções podem ser feitas em várias etapas, incluindo pré-treinamento, ajuste fino e aprendizado por reforço. No entanto, ainda é necessário pesquisar métodos de avaliação confiáveis para promover a aplicação prática de grandes modelos de linguagem.