Jüngste Studien zeigen, dass große Sprachmodelle wie OpenAIs ChatGPT häufig wiederkehrende, schädliche Fehlinformationen produzieren. Forscher der Universität Waterloo in Kanada haben die Verständnisfähigkeit von ChatGPT systematisch getestet und festgestellt, dass GPT-3 im Antwortprozess Widersprüche aufweist und schädliche Fehlinformationen wiederholt. Sie verwendeten verschiedene Fragebögen und stellten über 1200 verschiedene Behauptungen, um dieses Problem aufzudecken.
Studie zeigt: GPT-3 produziert häufig Fehler und wiederholt schädliche Fehlinformationen

站长之家
77
© Alle Rechte vorbehalten AIbase-Basis 2024, klicken Sie hier, um die Quelle anzuzeigen - https://www.aibase.com/de/news/4494