हालिया अनुसंधान ने खुलासा किया है कि बड़े भाषा मॉडल में गलत सूचना फैलाने की समस्या है, विशेष रूप से तथ्यों, साजिशों, विवादों आदि से संबंधित कथनों का उत्तर देने में। अध्ययन ने ChatGPT में बार-बार होने वाली गलतियों, आत्म-विरोधाभास और हानिकारक जानकारी के दोहराव की स्थिति पर प्रकाश डाला। संदर्भ और प्रश्न पूछने के तरीके को इस मॉडल द्वारा गलत सूचना के "सहमति" स्तर को प्रभावित करने वाला बताया गया है। चूंकि ये मॉडल सीखने की प्रक्रिया में गलत जानकारी सीख सकते हैं, इसलिए इसके संभावित खतरों के बारे में चिंता बढ़ गई है।
अध्ययन ने बड़े भाषा मॉडल द्वारा फर्जी सूचना के प्रसार की समस्या का खुलासा किया
