牛津大学AI研究员发警告:大语言模型对科学真相构成风险
站长之家
14
牛津大学AI研究员在最新研究中发出警告,指出大型语言模型可能对科学完整性构成威胁。研究呼吁改变LLMs使用方式,建议将其作为“零射击翻译器”以确保输出的事实准确性。然而,信任LLMs作为信息来源可能导致科学真相受损,因此呼吁负责任的LLMs使用。研究同时警告,如果LLMs在生成和传播科学文章中被随意使用,可能会导致严重危害。
© 版权所有 AIbase基地 2024, 点击查看来源出处 - https://www.aibase.com/zh/news/3518