Jüngste Studien zeigen, dass große Sprachmodelle wie OpenAIs ChatGPT häufig wiederkehrende, schädliche Fehlinformationen produzieren. Forscher der Universität Waterloo in Kanada haben die Verständnisfähigkeit von ChatGPT systematisch getestet und festgestellt, dass GPT-3 im Antwortprozess Widersprüche aufweist und schädliche Fehlinformationen wiederholt. Sie verwendeten verschiedene Fragebögen und stellten über 1200 verschiedene Behauptungen, um dieses Problem aufzudecken.