कोलंबिया विश्वविद्यालय के टॉव डिजिटल न्यूज सेंटर के नवीनतम शोध ने आर्टिफिशियल इंटेलिजेंस सर्च सेवाओं के लिए चेतावनी का घंटा बजाया है। शोध में दिखाया गया है कि ChatGPT समाचार स्रोतों का हवाला देते समय गंभीर सटीकता समस्याओं का सामना कर रहा है, यहां तक कि उन प्रकाशकों को भी नहीं बख्शा गया है जो OpenAI के साथ सीधे सहयोग में हैं।

शोध टीम ने 20 विभिन्न प्रकाशकों से 200 समाचार उद्धरणों का व्यापक परीक्षण किया, और परिणाम चौंकाने वाले थे: इन मामलों में, ChatGPT में 153 बार गलत या आंशिक रूप से गलत स्रोत जानकारी मिली। और भी चिंताजनक बात यह है कि यह प्रणाली जानकारी की कमी को स्वीकार करने में बहुत कम सक्रिय होती है, केवल सात प्रयासों में ही यह ईमानदारी से स्रोत नहीं मिलने की बात स्वीकार करती है।

ChatGPT OpenAI आर्टिफिशियल इंटेलिजेंस (3)

शोधकर्ताओं ने बताया कि उपयोगकर्ता अनुभव को बनाए रखने के लिए, ChatGPT उत्तर गढ़ने को प्राथमिकता देता है, बजाय इसके कि वह जानकारी की कमी को स्वीकार करे। और भी गंभीर बात यह है कि जब यह प्रणाली इन झूठे स्रोतों को प्रस्तुत करती है, तो यह अस्वस्थ आत्मविश्वास के साथ करती है, किसी भी अनिश्चितता का प्रदर्शन नहीं करती।

यहां तक कि न्यूयॉर्क पोस्ट और द अटलांटिक जैसी प्रसिद्ध प्रकाशनें, जो OpenAI के साथ सीधे सहयोग में हैं, इस समस्या से बच नहीं पाईं। कुछ मामलों में, ChatGPT ने मूल स्रोत के बजाय बिना अनुमति के पूरे लेख की कॉपी करने वाली वेबसाइटों से लिंक किया।

मैसाचुसेट्स इंस्टीट्यूट ऑफ टेक्नोलॉजी के तकनीकी समीक्षक के संपादक मैट होनन ने इस पर टिप्पणी की: "एक प्रकाशक के रूप में, यह बिल्कुल ऐसा नहीं है जो हम देखना चाहते हैं, और वर्तमान में उपलब्ध सुधार उपाय बेहद सीमित हैं।"

इन चिंताजनक निष्कर्षों पर OpenAI की प्रतिक्रिया अपेक्षाकृत सतर्क थी। कंपनी ने जोर दिया कि ChatGPT हर सप्ताह 2.5 करोड़ उपयोगकर्ताओं को सेवा प्रदान करता है और यह उद्धरण सटीकता बढ़ाने के लिए साझेदारों के साथ काम कर रहा है।

शोध का अंतिम निष्कर्ष स्पष्ट है: वर्तमान में, प्रकाशक यह सुनिश्चित नहीं कर सकते कि ChatGPT सर्च उनके सामग्री को सही ढंग से प्रदर्शित कर सकता है, चाहे उन्होंने OpenAI के साथ सहयोग स्थापित किया हो या नहीं। यह निष्कर्ष निश्चित रूप से आर्टिफिशियल इंटेलिजेंस की जानकारी की विश्वसनीयता पर आगे चर्चा और सुधार को बढ़ावा देगा।