हाल ही में, उत्तरी कैरोलिना स्टेट यूनिवर्सिटी के शोधकर्ताओं ने एक नई विधि प्रस्तुत की है, जो कंप्यूटर द्वारा उत्पन्न विद्युत चुम्बकीय संकेतों को कैप्चर करके आर्टिफिशियल इंटेलिजेंस (AI) मॉडल को निकालने में सक्षम है, जिसकी सटीकता 99% से अधिक है। यह खोज वाणिज्यिक AI विकास के लिए एक चुनौती हो सकती है, विशेष रूप से जब OpenAI, Anthropic और गूगल जैसी कंपनियों ने पहले से ही स्वामित्व वाले मॉडलों में भारी निवेश किया है। हालांकि, विशेषज्ञों का कहना है कि इस तकनीक का वास्तविक दुनिया में प्रभाव और बचाव के उपाय अभी भी स्पष्ट नहीं हैं।
CUDO Compute के मुख्य विपणन अधिकारी लार्स नायमन (Lars Nyman) ने कहा कि AI चोरी केवल मॉडल के नुकसान तक सीमित नहीं है, बल्कि यह एक श्रृंखला प्रतिक्रिया को भी जन्म दे सकता है, जैसे कि प्रतिस्पर्धियों द्वारा वर्षों के अनुसंधान और विकास के परिणामों का उपयोग करना, नियामक एजेंसियों द्वारा बौद्धिक संपदा के प्रबंधन की जांच करना, और यहां तक कि ग्राहक अपने AI की "विशिष्टता" को गैर-विशिष्ट पाए जाने पर मुकदमा दायर कर सकते हैं। यह स्थिति उद्योग में मानकीकृत ऑडिट को बढ़ावा दे सकती है, जैसे कि SOC2 या ISO प्रमाणन, ताकि सुरक्षित और गैर-जिम्मेदार कंपनियों के बीच भेद किया जा सके।
हाल के वर्षों में, AI मॉडल के खिलाफ हैकिंग हमलों का खतरा बढ़ता जा रहा है। व्यापार जगत की AI पर निर्भरता इस समस्या को और अधिक स्पष्ट बनाती है। हाल की रिपोर्टों से पता चलता है कि हजारों दुर्भावनापूर्ण फ़ाइलें Hugging Face पर अपलोड की गई हैं, जो इस AI उपकरण का मुख्य भंडार है, जिससे खुदरा, लॉजिस्टिक्स और वित्तीय क्षेत्रों में उपयोग किए जाने वाले मॉडल को गंभीर खतरा है। राष्ट्रीय सुरक्षा विशेषज्ञों ने चेतावनी दी है कि कमजोर सुरक्षा उपाय स्वामित्व वाले सिस्टम को चोरी के जोखिम में डाल सकते हैं, जैसा कि OpenAI के सुरक्षा उल्लंघन ने दिखाया है। चोरी हुए AI मॉडल को उलटकर या बेचा जा सकता है, जिससे कंपनियों के निवेश को कमजोर किया जा सकता है और विश्वास को नष्ट किया जा सकता है, जिससे प्रतिस्पर्धियों को तेजी से आगे बढ़ने की अनुमति मिलती है।
उत्तरी कैरोलिना स्टेट यूनिवर्सिटी की शोध टीम ने गूगल के एज TPU के आसपास प्रॉब लगाकर उनके संकेतों का विश्लेषण किया, जिससे मॉडल संरचना की कुंजी जानकारी का खुलासा हुआ। यह हमला सीधे सिस्टम तक पहुँचने की आवश्यकता नहीं रखता, जिससे AI बौद्धिक संपदा गंभीर सुरक्षा जोखिम का सामना कर रही है। अध्ययन के सह-लेखक, इलेक्ट्रिकल और कंप्यूटर इंजीनियरिंग के सहायक प्रोफेसर ऐडिन अयसू (Aydin Aysu) ने जोर देकर कहा कि AI मॉडल का निर्माण न केवल महंगा है बल्कि इसके लिए बड़ी मात्रा में गणना संसाधनों की आवश्यकता होती है, इसलिए मॉडल की चोरी को रोकना अत्यंत महत्वपूर्ण है।
जैसे-जैसे AI तकनीक का उपयोग बढ़ता जा रहा है, कंपनियों को AI प्रसंस्करण के लिए कुछ उपकरणों पर पुनर्विचार करने की आवश्यकता है। तकनीकी सलाहकार सुरियल अरेलेनो (Suriel Arellano) का मानना है कि कंपनियां अधिक केंद्रीकृत और सुरक्षित कंप्यूटिंग की ओर बढ़ सकती हैं, या अन्य अधिक सुरक्षित विकल्पों पर विचार कर सकती हैं। हालांकि चोरी का जोखिम मौजूद है, AI भी साइबर सुरक्षा को मजबूत कर रहा है, स्वचालित खतरा पहचान और डेटा विश्लेषण के माध्यम से प्रतिक्रिया दक्षता को बढ़ा रहा है, संभावित खतरों की पहचान करने और नए हमलों का सामना करने के लिए सीखने में मदद कर रहा है।
मुख्य बिंदु:
🔍 शोधकर्ताओं ने विद्युत चुम्बकीय संकेतों को कैप्चर करके AI मॉडल निकालने की विधि का प्रदर्शन किया, जिसकी सटीकता 99% से अधिक है।
💼 AI मॉडल चोरी प्रतिस्पर्धियों को कंपनियों के वर्षों के अनुसंधान成果 का उपयोग करने की अनुमति दे सकती है, जिससे व्यापार सुरक्षा प्रभावित होती है।
🔒 कंपनियों को बढ़ते हैकिंग हमलों के खतरे का सामना करने के लिए AI मॉडल की सुरक्षा को मजबूत करने की आवश्यकता है।