Neueste Forschungsergebnisse zeigen, dass große Sprachmodelle das Problem der Verbreitung von Falschinformationen aufweisen, insbesondere bei der Beantwortung von Aussagen zu Fakten, Verschwörungstheorien und kontroversen Themen. Die Studie hebt die häufige Fehleranfälligkeit, Widersprüchlichkeit und Wiederholung schädlicher Informationen bei ChatGPT hervor. Der Kontext und die Fragestellung beeinflussen offenbar das Ausmaß, in dem das Modell Falschinformationen „nachplappert“. Da diese Modelle im Lernprozess möglicherweise fehlerhafte Informationen aufnehmen, besteht berechtigte Sorge um ihre potenziellen Gefahren.