谷歌DeepMind最新研究表明,大型语言模型在没有外部指导的情况下,难以自我纠正推理错误。研究人员发现,模型仅依靠自身想法来纠正最初反应时,经常会出错。研究还发现,通过多个模型投票达成一致虽可实现自我一致,但这与真正的自我纠正还有差距。研究者表示,这项研究结果对开发需要更高安全性的应用具有重要意义。他们呼吁在认识自我纠正潜力与局限性的基础上,继续努力改进现有语言模型。