Seit der Veröffentlichung von ChatGPT durch OpenAI im November 2022 hat sich das wissenschaftliche Schreibwesen grundlegend verändert. Jüngste Forschungsergebnisse zeigen, dass Wissenschaftler immer stärker auf KI-Tools wie ChatGPT zur Erstellung wissenschaftlicher Arbeiten angewiesen sind, ein Trend, der im Jahr 2024 besonders deutlich wurde.

Forscher der Universität Tübingen haben 14 Millionen PubMed-Abstract aus den Jahren 2010 bis 2024 eingehend analysiert. Überraschenderweise stellten sie fest, dass mindestens 10 % der im Jahr 2024 veröffentlichten Forschungsarbeiten bei der Erstellung mit großen Sprachmodellen (LLMs) wie ChatGPT unterstützt wurden. In einigen bestimmten Bereichen und Ländern ist dieser Anteil sogar noch viel höher.

image.png

Die Ergebnisse zeigen, dass der Einfluss von LLMs auf wissenschaftliche Literatur sogar die Auswirkungen der COVID-19-Pandemie auf das wissenschaftliche Schreiben übertrifft. Durch die Analyse der Häufigkeit bestimmter Wörter stellten die Forscher fest, dass seit der Veröffentlichung von ChatGPT die Verwendung bestimmter stilistischer Wörter wie „delves“, „showcasing“ und „underscores“ deutlich zugenommen hat. Dies spiegelt wider, dass Wissenschaftler immer häufiger ChatGPT zur Verbesserung und Überarbeitung von Texten verwenden.

Die Studie zeigt auch Unterschiede zwischen verschiedenen Disziplinen, Ländern und Zeitschriften auf. In Bereichen wie Informatik und Bioinformatik liegt die Nutzung von LLMs mit 20 % am höchsten. In Ländern, in denen nicht Englisch Muttersprache ist, wie China, Korea und Taiwan, ist die Nutzung von LLMs ebenfalls relativ hoch, während sie in englischsprachigen Ländern wie Großbritannien und Neuseeland niedriger ist. Darüber hinaus ist die Nutzung von LLMs in hochrangigen Zeitschriften wie „Nature“, „Science“ und „Cell“ geringer, während sie in einigen Open-Access-Zeitschriften wie „Sensors“ und „Cureus“ höher ist.

image.png

LLMs sind zwar hervorragend darin, die Sprachqualität und den Lesefluss von wissenschaftlichen Arbeiten zu verbessern, aber sie werfen auch einige Bedenken auf. Beispielsweise können LLMs ungenaue Informationen einfügen oder bestehende Vorurteile in wissenschaftlichen Diskussionen verstärken. Daher stellt sich die Frage, wie diese Tools sinnvoll eingesetzt werden können, um die Authentizität und Objektivität wissenschaftlichen Schreibens zu gewährleisten.

Die Wissenschaft muss klare Richtlinien und Leitlinien für den Einsatz von LLMs im wissenschaftlichen Schreiben entwickeln. Einige Verlage und Förderorganisationen haben die Verwendung von LLMs im Peer-Review-Verfahren bereits verboten oder fordern die Offenlegung der Verwendung von LLMs. Mit der zunehmenden Verbreitung dieser Tools muss die Wissenschaft möglicherweise die entsprechenden Richtlinien überdenken und anpassen, um die hohe Qualität und Zuverlässigkeit wissenschaftlicher Forschung zu gewährleisten.

Diese Studie bietet nicht nur einen umfassenden Einblick in die Auswirkungen von LLMs auf das wissenschaftliche Schreiben, sondern dient auch als Warnsignal. Neben dem Komfort, den KI bietet, sollten wir uns fragen, wie wir dieses Werkzeug nutzen können, um den wissenschaftlichen Fortschritt zu fördern und nicht zu behindern.