Neueste Forschungsergebnisse zeigen, dass große Sprachmodelle das Problem der Verbreitung von Falschinformationen aufweisen, insbesondere bei der Beantwortung von Aussagen zu Fakten, Verschwörungstheorien und kontroversen Themen. Die Studie hebt die häufige Fehleranfälligkeit, Widersprüchlichkeit und Wiederholung schädlicher Informationen bei ChatGPT hervor. Der Kontext und die Fragestellung beeinflussen offenbar das Ausmaß, in dem das Modell Falschinformationen „nachplappert“. Da diese Modelle im Lernprozess möglicherweise fehlerhafte Informationen aufnehmen, besteht berechtigte Sorge um ihre potenziellen Gefahren.
Studie deckt Problem der Verbreitung von Fehlinformationen durch große Sprachmodelle auf

站长之家
73
© Alle Rechte vorbehalten AIbase-Basis 2024, klicken Sie hier, um die Quelle anzuzeigen - https://www.aibase.com/de/news/4396