牛津大学AI研究员在最新研究中发出警告,指出大型语言模型可能对科学完整性构成威胁。研究呼吁改变LLMs使用方式,建议将其作为“零射击翻译器”以确保输出的事实准确性。然而,信任LLMs作为信息来源可能导致科学真相受损,因此呼吁负责任的LLMs使用。研究同时警告,如果LLMs在生成和传播科学文章中被随意使用,可能会导致严重危害。