OpenAIが2022年11月にChatGPTを公開して以来、学術界の論文執筆環境は劇的に変化しました。最新の研究によると、科学者たちはChatGPTのようなAIツールにますます依存して研究論文を作成しており、この傾向は2024年に特に顕著です。

ドイツのテュービンゲン大学の研究者たちは、2010年から2024年までの1400万件のPubMed文献抄録を詳細に分析しました。そして驚いたことに、2024年に発表された論文の少なくとも10%が、ChatGPTなどの大規模言語モデル(LLM)を使用して作成されていたことが分かりました。特定の分野や国では、この割合はさらに高くなっています。

image.png

研究結果は、LLMが科学文献に与える影響が、COVID-19パンデミックによる影響をさえ上回っていることを示しています。研究者たちは、単語の使用頻度の変化を分析することで、ChatGPT公開以降、「delves」、「showcasing」、「underscores」などの特定の表現の使用頻度が大幅に増加していることに気づきました。これは、科学者たちが論文作成においてChatGPTによる文章の修正や改良をますます利用していることを反映しています。

研究では、異なる分野、国、学術誌間の違いも明らかになりました。コンピュータサイエンスやバイオインフォマティクスなどの分野では、LLMの使用率が最も高く、20%に達しています。中国、韓国、台湾などの非英語圏の国々でもLLMの使用率は比較的高い一方、英国やニュージーランドなどの英語圏の国々では使用率が低くなっています。さらに、「Nature」、「Science」、「Cell」などの権威ある学術誌ではLLMの使用率が低く、「Sensors」や「Cureus」などのオープンアクセスジャーナルでは使用率が高い傾向が見られました。

image.png

LLMは論文の言語の質と流暢さを向上させる点で確かに優れていますが、同時にいくつかの懸念も引き起こしています。例えば、LLMは不正確な情報を導入したり、科学的な議論において既存の偏見を強めたりする可能性があります。そのため、これらのツールをどのように適切に使用し、学術論文の信頼性と公平性を確保するかが、重要な課題となっています。

学術界は、LLMの学術論文作成における使用を規制するための明確な方針とガイドラインを策定する必要があります。一部の出版社や研究助成機関は、査読におけるLLMの使用を禁止したり、LLMの使用を明示的に宣言することを求めています。これらのツールの普及に伴い、学術界は関連する方針を見直し、調整して、科学研究の高品質と信頼性を確保する必要があるかもしれません。

この研究は、LLMが学術論文作成に与える影響を包括的に理解するための視点を与えてくれるだけでなく、警鐘も鳴らしています。AIがもたらす利便性を享受する一方で、科学の進歩を促進する、あるいは妨げることなく、どのようにこのツールを活用するかを深く考える必要があります。