自OpenAI在2022年11月发布ChatGPT以来,学术界的写作生态经历了翻天覆地的变化。最新研究揭示,科学家们越来越依赖于ChatGPT这样的人工智能工具来撰写研究论文,这一趋势在2024年尤为显著。

德国图宾根大学的研究人员对2010年至2024年间的1400万篇PubMed文献摘要进行了深入分析。他们惊讶地发现,至少10%的2024年发布的研究论文在撰写过程中使用了大型语言模型(LLMs)如ChatGPT进行辅助。在某些特定领域和国家,这一比例更是高得惊人。

image.png

研究结果表明,LLMs对科学文献的影响之深远,甚至超越了COVID-19疫情对学术写作的冲击。通过分析词汇使用频率的变化,研究人员注意到,自ChatGPT发布以来,许多特定的风格词汇,如"delves"、"showcasing"和"underscores"的使用频率显著增加,这反映出科学家们在撰写论文时,越来越多地借助ChatGPT来润色和修改文本。

研究还揭示了不同学科、国家和期刊之间的差异。在计算机科学和生物信息学等领域,LLMs的使用率最高,达到20%。在非英语母语国家如中国、韩国和台湾,LLMs的使用率也相对较高,而在英语母语国家如英国和新西兰的使用率则较低。此外,高声望期刊如《Nature》、《Science》和《Cell》的LLMs使用率较低,而一些开放获取期刊如《Sensors》和《Cureus》的使用率则较高。

image.png

LLMs在提升论文的语言质量和流畅性方面的确表现出色,但同时也引发了一些担忧。例如,LLMs可能会引入不准确的信息,或在科学讨论中强化现有的偏见。因此,如何合理使用这些工具,确保学术写作的真实性和公正性,成为了一个亟待解决的重要问题。

学术界需要制定明确的政策和指南,规范LLM在学术写作中的使用。一些出版商和资助机构已经禁止在同行评审中使用LLM,或要求公开声明LLM的使用。随着这些工具的不断普及,学术界可能需要重新审视和调整相关政策,以确保科学研究的高质量和可靠性。

这项研究不仅为我们提供了一个全面了解LLMs在学术写作中影响的视角,也为我们敲响了警钟。在享受AI带来的便利的同时,我们更应深思如何利用这一工具,以促进而非妨碍科学的进步。