最近 के शोध में पाया गया है कि OpenAI के ChatGPT जैसे बड़े भाषा मॉडल अक्सर हानिकारक गलत सूचनाओं को दोहराने की समस्या का सामना करते हैं। कनाडा के वाटरलू विश्वविद्यालय के शोधकर्ताओं ने ChatGPT की समझने की क्षमता का प्रणालीबद्ध परीक्षण किया और पाया कि GPT-3 उत्तर देने की प्रक्रिया में आत्म-परस्पर विरोधी था और हानिकारक गलत सूचनाओं को दोहराता था। उन्होंने विभिन्न सर्वेक्षण टेम्पलेट्स का उपयोग किया और 1200 से अधिक विभिन्न कथनों के बारे में पूछताछ की, जिससे इस समस्या की उपस्थिति का पता चला।