近日,腾讯AI Lab联合国内外多家学术机构,发布了面向大模型幻觉问题的综述论文。研究显示,与传统模型相比,大模型幻觉评估面临数据规模大、通用性强、不易察觉等新难题。为减少幻觉,可从预训练、微调、强化学习等多个阶段进行干预。但仍需深入研究可靠的评估方法,以促进大模型的实际应用。