हाल ही में, कोलंबिया विश्वविद्यालय और मैरीलैंड विश्वविद्यालय की शोध टीम ने एक नई अध्ययन प्रकाशित की, जो दर्शाती है कि इंटरनेट पहुंच क्षमता वाले AI एजेंटों में सुरक्षा के मामले में गंभीर खामियां हैं।

इस अध्ययन से पता चला है कि हमलावर सरल हेरफेर तकनीकों का उपयोग करके इन AI सिस्टमों को आसानी से उपयोगकर्ताओं की व्यक्तिगत जानकारी लीक करने, मैलवेयर फ़ाइलें डाउनलोड करने, और यहां तक कि उपयोगकर्ताओं के संपर्कों को धोखाधड़ी ईमेल भेजने के लिए भटका सकते हैं। ये हमले किसी विशेष AI या प्रोग्रामिंग ज्ञान की आवश्यकता नहीं रखते, जो चौंकाने वाला है।

आर्टिफिशियल इंटेलिजेंस रोबोट

चित्र स्रोत नोट: चित्र AI द्वारा उत्पन्न, चित्र लाइसेंस सेवा प्रदाता Midjourney द्वारा

शोध टीम ने कई प्रसिद्ध AI एजेंटों का परीक्षण किया, जिसमें एंथ्रोपिक कंपनी का कंप्यूटर सहायक, MultiOn वेब एजेंट और ChemCrow अनुसंधान सहायक शामिल हैं। उन्होंने पाया कि इन सिस्टमों की सुरक्षा में कमजोरियाँ हैं। शोधकर्ताओं ने विस्तार से दस्तावेज़ किया कि हमलावर कैसे चार चरणों की प्रक्रिया के माध्यम से AI एजेंट को विश्वसनीय वेबसाइट से दुर्भावनापूर्ण वेबसाइट पर ले जाते हैं, जिससे अंततः उपयोगकर्ता की संवेदनशील जानकारी लीक होती है।

शोधकर्ताओं ने विभिन्न प्रकार के हमलों को वर्गीकृत करने के लिए एक व्यापक ढांचा विकसित किया, जिसमें हमले के आरंभकर्ता (बाहरी हमलावर या दुर्भावनापूर्ण उपयोगकर्ता), लक्ष्य (डेटा चोरी या एजेंट नियंत्रण), पहुंच प्राप्त करने के तरीके (ऑपरेटिंग वातावरण, भंडारण या उपकरण) और उपयोग की जाने वाली रणनीतियाँ (जैसे जेलब्रेक संकेत) शामिल हैं। एक विशेष परीक्षण में, शोधकर्ताओं ने एक नकली वेबसाइट बनाई, जो "Himmelblau KÖNIGSKÜHL Diplomat DK-75" नामक "AI संवर्धित जर्मन रेफ्रिजरेटर" का प्रचार करती है। जब AI एजेंट ने उस वेबसाइट पर पहुंचा, तो उन्हें छिपे हुए जेलब्रेक संकेत का सामना करना पड़ा, जिसके परिणामस्वरूप दस प्रयासों में, एजेंट ने बिना किसी हिचकिचाहट के क्रेडिट कार्ड नंबर सहित गोपनीय जानकारी लीक कर दी और संदिग्ध स्रोतों से फ़ाइलें डाउनलोड की।

इसके अलावा, अध्ययन ने ईमेल एकीकरण में गंभीर खामियों का पता लगाया। जब उपयोगकर्ता ईमेल सेवा में लॉग इन करते हैं, तो हमलावर AI एजेंट को संपर्कों को धोखाधड़ी ईमेल भेजने के लिए नियंत्रित कर सकते हैं। इस स्थिति में, अनुभवी उपयोगकर्ताओं के लिए भी इन धोखाधड़ी संदेशों की वास्तविकता की पहचान करना मुश्किल हो जाता है।

हालांकि इन AI सिस्टमों की सुरक्षा चिंताओं का खुलासा किया गया है, कई कंपनियां अभी भी व्यावसायीकरण प्रक्रिया को तेज कर रही हैं। ChemCrow ने पहले ही Hugging Face पर उपलब्ध कराया है, क्लॉड कंप्यूटर सहायक Python स्क्रिप्ट के रूप में मौजूद है, जबकि MultiOn डेवलपर्स के लिए API प्रदान करता है। इसी समय, OpenAI ने ChatGPT ऑपरेटर लॉन्च किया है, और Google Project Mariner पर काम कर रहा है। शोध टीम ने उपयोगकर्ता डेटा सुरक्षा सुनिश्चित करने के लिए सख्त पहुंच नियंत्रण, URL सत्यापन और डाउनलोड के लिए उपयोगकर्ता पुष्टि जैसे सुरक्षा उपायों को लागू करने की अपील की है।

मुख्य बिंदु:

💻 अध्ययन से पता चलता है कि AI एजेंटों को सरलता से नियंत्रित किया जा सकता है, जिससे उपयोगकर्ता डेटा लीक और दुर्भावनापूर्ण डाउनलोड होते हैं।  

📧 हमलावर AI एजेंट के माध्यम से धोखाधड़ी ईमेल भेज सकते हैं, जिससे धोखाधड़ी का जोखिम बढ़ता है।  

🔒 विशेषज्ञ AI सिस्टम की सुरक्षा को मजबूत करने की अपील करते हैं, विभिन्न सुरक्षा उपायों को लागू करने की सलाह देते हैं।