हाल ही में, OpenAI ने चेतावनी दी है कि उसके आर्टिफिशियल इंटेलिजेंस मॉडल ChatGPT का उपयोग साइबर अपराधियों द्वारा विभिन्न दुर्भावनापूर्ण गतिविधियों के लिए किया जा रहा है, जिसमें मालवेयर विकसित करना, गलत सूचना फैलाना और फिशिंग हमले करना शामिल है।

एक नई रिपोर्ट के अनुसार, 2024 की शुरुआत से, OpenAI ने वैश्विक स्तर पर 20 से अधिक धोखाधड़ी के मामलों में हस्तक्षेप किया है, जो AI के दुरुपयोग की गंभीर प्रवृत्तियों को उजागर करता है। इन गतिविधियों में केवल मालवेयर को डिबग करना ही नहीं, बल्कि फर्जी सोशल मीडिया खातों के लिए सामग्री लिखना और आकर्षक फिशिंग संदेश उत्पन्न करना भी शामिल है।

डेवलपर हैकर (3)

OpenAI ने कहा है कि उसका मिशन यह सुनिश्चित करना है कि ये उपकरण मानवता के सामूहिक हित के लिए काम करें, इसलिए कंपनी अपने मॉडल के दुरुपयोग की पहचान, रोकथाम और मुकाबला करने के लिए काम कर रही है। विशेष रूप से इस चुनावी वर्ष में, OpenAI ने जोर दिया है कि राष्ट्रीय संबंधित साइबर हमलों और छिपे हुए प्रभाव संचालन के खिलाफ एक मजबूत बहुस्तरीय रक्षा प्रणाली स्थापित करना विशेष रूप से महत्वपूर्ण है। ये संचालन अपने मॉडल का उपयोग करके सोशल मीडिया जैसे प्लेटफार्मों पर झूठी प्रचार सामग्री उत्पन्न कर सकते हैं।

रिपोर्ट में यह भी उल्लेख किया गया है कि OpenAI ने मई 2024 की धमकी रिपोर्ट के बाद, मालवेयर डिबगिंग, वेबसाइट लेखन और फर्जी सोशल मीडिया सामग्री उत्पन्न करने जैसी कई गतिविधियों में हस्तक्षेप जारी रखा है। इन गतिविधियों की जटिलता अलग-अलग है, सरल सामग्री निर्माण अनुरोधों से लेकर जटिल बहु-चरण सोशल मीडिया विश्लेषण और प्रतिक्रिया कार्रवाइयों तक। वास्तव में, एक मामले में AI के उपयोग से संबंधित गलत सूचना शामिल थी।

साइबर अपराधियों द्वारा AI के उपयोग को बेहतर ढंग से समझने के लिए, OpenAI ने इन हस्तक्षेप की गई गतिविधियों का विश्लेषण किया और कुछ प्रारंभिक प्रवृत्तियों की पहचान की, जो AI के व्यापक खतरे के माहौल में चर्चा के लिए महत्वपूर्ण जानकारी प्रदान कर सकती हैं।

OpenAI के विश्लेषण में उल्लेख किया गया है कि AI रक्षकों को संदिग्ध व्यवहार की पहचान और विश्लेषण करने की शक्तिशाली क्षमता प्रदान करता है। हालांकि, जांच प्रक्रिया में अभी भी मानव निर्णय और विशेषज्ञता की आवश्यकता होती है, लेकिन ये नए उपकरण OpenAI को कुछ विश्लेषणात्मक कदमों को दिनों से मिनटों में कम करने की अनुमति देते हैं। इसके अलावा, साइबर अपराधी आमतौर पर बुनियादी उपकरण प्राप्त करने के बाद, OpenAI के मॉडल का उपयोग करके गतिविधियों के मध्य चरण में रहते हैं, और "फिनिश्ड प्रोडक्ट" को तैनात करने के बाद ही इसे इंटरनेट पर जारी करते हैं।

हालांकि साइबर अपराधी लगातार विकसित हो रहे हैं और OpenAI के मॉडल का उपयोग करने का प्रयास कर रहे हैं, लेकिन वर्तमान में कोई सबूत नहीं है जो यह दर्शाता हो कि इसने उन्हें नए प्रकार के मालवेयर बनाने या वायरल ऑडियंस बनाने में महत्वपूर्ण प्रगति दिलाई है। वास्तव में, इस वर्ष के चुनाव संबंधित सामग्री में, OpenAI द्वारा खोजी गई धोखाधड़ी गतिविधियों ने व्यापक सामाजिक मीडिया इंटरैक्शन या स्थायी ध्यान नहीं आकर्षित किया है।

भविष्य में, OpenAI अपने खुफिया, जांच, सुरक्षा अनुसंधान और नीति टीमों के साथ मिलकर काम करना जारी रखेगा ताकि यह भविष्यवाणी की जा सके कि दुर्भावनापूर्ण अभिनेता उन्नत मॉडलों का उपयोग करके हानिकारक गतिविधियों में कैसे संलग्न हो सकते हैं और तदनुसार कानून प्रवर्तन कार्यों की योजना बना सकें। उन्होंने कहा कि वे अपनी खोजों को आंतरिक सुरक्षा टीम के साथ साझा करेंगे, हितधारकों के साथ सहयोग करेंगे, और नए उभरते खतरों का सामना करने के लिए उद्योग के साथियों और अनुसंधान समुदाय के साथ मिलकर काम करेंगे, सामूहिक सुरक्षा और सुरक्षा बनाए रखने के लिए।

मुख्य बिंदु:  

📌 OpenAI ने पाया है कि साइबर अपराधी ChatGPT का उपयोग करके मालवेयर विकास और गलत सूचना फैलाने में लगे हैं।  

🔒 2024 की शुरुआत से, OpenAI ने 20 से अधिक धोखाधड़ी के मामलों में सफलतापूर्वक हस्तक्षेप किया है, जो साइबर सुरक्षा की रक्षा कर रहा है।  

🤖 AI मॉडल का दुरुपयोग किया गया है, लेकिन वर्तमान में साइबर अपराधियों की मालवेयर निर्माण क्षमता में महत्वपूर्ण वृद्धि नहीं हुई है।