グーグルDeepMindの最新研究によると、大規模言語モデルは外部からの指示なしでは、推論ミスを自ら修正することが難しいことが明らかになりました。
研究者たちは、モデルが自身の考えだけで最初の反応を修正しようとすると、しばしば誤りを犯すことを発見しました。
また、複数のモデルによる投票で合意に至ることで自己一致は実現できますが、それは真の自己修正とは異なるものであることも判明しました。
研究者たちは、この研究結果は、より高い安全性が必要とされるアプリケーションの開発に重要な意味を持つと述べています。彼らは、自己修正の可能性と限界を理解した上で、既存の言語モデルの改善に向けた努力を続けるよう訴えています。