Warnung vor großen Sprachmodellen in der Wissenschaft

Forscher der Universität Oxford warnen in einer aktuellen Studie vor großen Sprachmodellen (LLMs), die die wissenschaftliche Integrität gefährden könnten. Die Studie fordert eine veränderte Nutzung von LLMs und schlägt vor, sie als „Zero-Shot-Übersetzer“ einzusetzen, um die Genauigkeit der Ergebnisse zu gewährleisten. Das Vertrauen in LLMs als Informationsquelle könnte jedoch die wissenschaftliche Wahrheit beeinträchtigen, weshalb ein verantwortungsvoller Umgang mit LLMs gefordert wird.

Die Studie warnt zudem vor den schwerwiegenden Folgen, die sich aus der unkontrollierten Verwendung von LLMs bei der Erstellung und Verbreitung wissenschaftlicher Arbeiten ergeben können.