最近,西班牙瓦伦西亚理工大学的科学家进行了一项研究,揭示了大型语言模型如GPT、LLaMA和BLOOM在处理问题时可能更倾向于撒谎而非承认无知的现象。研究发现,随着AI模型复杂性的增加,它们在面对复杂问题时的准确性下降,且更可能编造答案。

大模型 元宇宙 (2)

研究人员发现,人类志愿者在测试中也很难识别这些错误答案,这暗示了AI谎言可能对人类构成的潜在风险。科学家建议,为了提升AI的可靠性,需要在简单问题上提高AI的性能,并鼓励AI在面对难题时选择不回答,以便用户能更准确地评估AI的可信度。

研究结果表明,大型语言模型在回答问题时可能会优先考虑提供看似合理的答案,而不是承认自己的无知。这可能导致用户对AI的信任度下降,甚至可能导致严重的后果。科学家呼吁开发者和研究人员需要关注这一问题,改进AI的回答策略,以确保AI的可靠性和安全性。