OpenAI एक जटिल समस्या का सामना कर रहा है: छात्रों द्वारा ChatGPT का उपयोग करके धोखाधड़ी के व्यवहार से कैसे निपटें? हालांकि कंपनी ने ChatGPT द्वारा लिखित लेखों या शोध रिपोर्टों का पता लगाने के लिए एक विश्वसनीय विधि विकसित की है, लेकिन छात्रों द्वारा AI धोखाधड़ी के व्यापक चिंताओं के कारण, यह तकनीक अभी तक सार्वजनिक रूप से जारी नहीं की गई है।
OpenAI ने ChatGPT द्वारा उत्पन्न सामग्री का पता लगाने के लिए एक विश्वसनीय तकनीक विकसित करने में सफलता प्राप्त की है। यह तकनीक AI द्वारा उत्पन्न पाठ में "वाटरमार्क" को सम्मिलित करके 99.9% की पहचान सटीकता प्राप्त करती है। हालाँकि, यह समझ से परे है कि यह तकनीक, जो तत्काल समस्या को हल कर सकती थी, अब तक सार्वजनिक रूप से जारी नहीं की गई है। आंतरिक सूत्रों के अनुसार, यह परियोजना OpenAI के अंदर लगभग दो वर्षों से बहस का विषय है, और एक वर्ष पहले ही इसे जारी करने की स्थिति में था।
इस तकनीक के जारी होने में बाधाएँ जटिल हैं। सबसे पहले, OpenAI एक दुविधा का सामना कर रहा है: क्या कंपनी की पारदर्शिता के वादे पर कायम रहना चाहिए, या उपयोगकर्ताओं की वफादारी बनाए रखनी चाहिए? कंपनी के आंतरिक सर्वेक्षण से पता चलता है कि लगभग एक तिहाई ChatGPT के वफादार उपयोगकर्ता धोखाधड़ी-रोधी तकनीक के खिलाफ हैं। यह डेटा निश्चित रूप से कंपनी के निर्णयों पर भारी दबाव डालता है।
दूसरे, OpenAI को चिंता है कि यह तकनीक कुछ समूहों, विशेष रूप से गैर-अंग्रेजी बोलने वालों पर असमान नकारात्मक प्रभाव डाल सकती है। यह चिंता AI नैतिकता में एक केंद्रीय मुद्दे को दर्शाती है: कैसे सुनिश्चित करें कि AI तकनीक निष्पक्ष और समावेशी हो?
हालांकि, इसी समय, शिक्षा क्षेत्र में इस तकनीक की मांग तेजी से बढ़ रही है। लोकतंत्र और प्रौद्योगिकी केंद्र के एक सर्वेक्षण के अनुसार, 59% मध्य और उच्च विद्यालय के शिक्षक मानते हैं कि छात्र AI का उपयोग करके गृहकार्य कर रहे हैं, जो पिछले शैक्षणिक वर्ष की तुलना में 17 प्रतिशत अंक अधिक है। शिक्षकों को इस चुनौती का सामना करने के लिए उपकरणों की आवश्यकता है, ताकि शैक्षणिक ईमानदारी को बनाए रखा जा सके।
OpenAI की अनिश्चितता ने आंतरिक विवाद को जन्म दिया है। इस उपकरण को जारी करने के पक्षधर कर्मचारी मानते हैं कि इस तकनीक से संभावित सामाजिक लाभों की तुलना में कंपनी की चिंताएँ नगण्य हैं। यह दृष्टिकोण तकनीकी विकास और सामाजिक जिम्मेदारी के बीच तनाव को उजागर करता है।
तकनीक में कुछ संभावित समस्याएँ भी हैं। हालांकि पहचान सटीकता बहुत अधिक है, फिर भी कुछ कर्मचारी चिंतित हैं कि वाटरमार्क को सरल तकनीकी उपायों जैसे अनुवाद सॉफ़्टवेयर या मैन्युअल संपादन के माध्यम से मिटाया जा सकता है। यह चिंता AI तकनीक के व्यावहारिक अनुप्रयोगों में सामने आने वाली चुनौतियों को दर्शाती है।
इसके अलावा, इस तकनीक के उपयोग के दायरे को नियंत्रित करना भी एक कठिन प्रश्न है। यदि उपयोग का दायरा बहुत संकीर्ण है, तो यह इसकी उपयोगिता को कम कर सकता है, जबकि यदि बहुत विस्तृत है, तो तकनीक को हैक किया जा सकता है। इस संतुलन की आवश्यकता सावधानीपूर्वक डिजाइन और प्रबंधन की है।
यह ध्यान देने योग्य है कि अन्य तकनीकी दिग्गज भी इस क्षेत्र में कदम बढ़ा रहे हैं। गूगल ने अपने Gemini AI द्वारा उत्पन्न पाठ का पता लगाने के लिए वाटरमार्क उपकरण SynthID विकसित किया है, जो वर्तमान में परीक्षण चरण में है। यह सामग्री की प्रामाणिकता सत्यापन के प्रति समग्र AI उद्योग के ध्यान को दर्शाता है।
OpenAI ने विशेष रूप से अमेरिका के चुनाव वर्ष में ऑडियो और विज़ुअल वाटरमार्क तकनीक के विकास को प्राथमिकता दी है। यह निर्णय दर्शाता है कि AI कंपनियों को तकनीकी विकास में व्यापक सामाजिक प्रभावों पर विचार करना चाहिए।
संदर्भ सामग्री: https://www.wsj.com/tech/ai/openai-tool-chatgpt-cheating-writing-135b755a?st=ejj4hy2haouysas&reflink=desktopwebshare_permalink