最近,两支研究团队发布的论文引发了广泛关注,直言生成式人工智能(AI)产品的内容基本可以被视为 “胡说八道”。这篇名为 “ChatGPT 是胡说八道” 的论文指出,生成式 AI 在产出信息时,对准确性的漠视为公众服务者带来了许多挑战,尤其是那些有法律责任必须说实话的官员。

ChatGPT OpenAI  人工智能 (1)

作者 Michael Townsen Hicks、James Humphries 和 Joe Slater 强调,生成式 AI 产生的错误信息,不能简单地用 “谎言” 或 “幻觉” 来形容。与故意欺骗的谎言不同,胡说八道是指一种不在乎真相的表达方式,企图给人一种特定的印象。他们认为,将 AI 的错误称为 “幻觉” 只会误导公众,让大家觉得这些机器在某种程度上仍然试图传达他们所 “相信” 的东西。

他们表示:“称这些错误为‘胡说八道’而不是‘幻觉’,不仅更准确,也有助于提升公众对科技的理解。” 这段话突显了用更精准的术语来描述 AI 错误的重要性,尤其是在当前科技传播亟需改善的背景下。

与此同时,另一篇关于大型语言模型(LLMs)的研究论文则集中探讨了欧盟在此问题上的法律与伦理环境。论文的结论是,目前关于 AI 的法律法规仍然不够完善,无法有效防止由这些 AI 所产生的 “胡说八道” 带来的危害。作者 Sandra Wachter、Brent Mittelstadt 和 Chris Russell 建议引入类似于出版领域的法规,强调避免可能造成社会危害的 “随意发言”。

他们指出,这种义务强调,没有任何单一实体,无论是公共还是私营部门,应该成为真理的唯一裁决者。他们还表示,生成式 AI 的 “随意发言” 可能将真理转变为频率和多数意见的问题,而不是真实的事实。

划重点:

📌 研究团队指出生成式 AI 的错误信息应称为 “胡说八道”,而非 “幻觉”。  

📌 现有法律法规无法有效防止 AI 产生的错误信息对社会的危害。  

📌 呼吁引入新的法规,强调避免 “随意发言”,确保真相不是多数意见的产物。