गार्टनर द्वारा हाल ही में जारी की गई रिपोर्ट के अनुसार, कृत्रिम बुद्धिमत्ता (AI) का साइबर हमलों में उपयोग लगातार तीन तिमाहियों से कंपनियों के सामने सबसे बड़ा जोखिम बन गया है।
इस सलाहकार कंपनी ने जुलाई से सितंबर के बीच 286 वरिष्ठ जोखिम और ऑडिट अधिकारियों का सर्वेक्षण किया, जिसमें 80% उत्तरदाताओं ने AI-प्रवर्धित दुर्भावनापूर्ण हमलों के प्रति गहरी चिंता व्यक्त की। यह प्रवृत्ति आश्चर्यजनक नहीं है, क्योंकि इस बात के सबूत हैं कि AI का उपयोग करके साइबर हमले बढ़ रहे हैं।
चित्र स्रोत टिप्पणी: चित्र AI द्वारा उत्पन्न, चित्र लाइसेंस सेवा प्रदाता Midjourney
रिपोर्ट में अन्य कुछ उभरते जोखिमों को भी सूचीबद्ध किया गया है, जिसमें AI-सहायता प्राप्त सूचना भ्रामकता, बढ़ती राजनीतिक ध्रुवीकरण और असंगत संगठनात्मक प्रतिभा आवंटन शामिल हैं। हमलावर AI का उपयोग करके दुर्भावनापूर्ण सॉफ़्टवेयर लिखने, फ़िशिंग ईमेल बनाने आदि का लाभ उठा रहे हैं। HP के एक उदाहरण के रूप में, शोधकर्ताओं ने जून में एक दुर्भावनापूर्ण सॉफ़्टवेयर फैलाने वाले ईमेल अभियान को अवरुद्ध किया, जिसमें संदेह है कि इसका स्क्रिप्ट जनरेटिव AI का उपयोग करके लिखा गया था। इस स्क्रिप्ट की संरचना स्पष्ट है, प्रत्येक आदेश पर टिप्पणी है, जो मानव लेखन में सामान्य नहीं है।
सुरक्षा कंपनी विप्रे के आंकड़ों के अनुसार, 2023 की दूसरी तिमाही में, व्यवसायिक ईमेल धोखाधड़ी हमलों की संख्या पिछले वर्ष की समान अवधि की तुलना में 20% बढ़ गई, जिसमें से लगभग आधे AI द्वारा उत्पन्न थे। CEO, HR और IT कर्मी मुख्य लक्ष्य बन गए। विप्रे के मुख्य उत्पाद और तकनीकी अधिकारी उस्मान चौधरी ने कहा कि अपराधी आकर्षक फ़िशिंग ईमेल बनाने के लिए जटिल AI एल्गोरिदम का उपयोग कर रहे हैं, जो वैध संचार के स्वर और शैली की नकल करते हैं।
इसके अलावा, इम्परवा थ्रेट रिसर्च की रिपोर्ट के अनुसार, अप्रैल से सितंबर के बीच, खुदरा वेबसाइटें प्रतिदिन औसतन 569,884 AI-प्रेरित हमलों का सामना कर रही थीं। शोधकर्ताओं ने बताया कि ChatGPT, Claude और Gemini जैसे उपकरणों के साथ-साथ बड़े भाषा मॉडलों को प्रशिक्षित करने के लिए वेबसाइट डेटा को खींचने के लिए विशेष रूप से बनाए गए बॉट्स का उपयोग वितरित सेवा हमलों और व्यावसायिक लॉजिक दुरुपयोग जैसी गतिविधियों के लिए किया जा रहा है।
बढ़ती संख्या में नैतिक हैकर भी जनरेटिव AI का उपयोग करने की स्वीकृति दे रहे हैं, जो पिछले वर्ष के 64% से बढ़कर 77% हो गया है। इन शोधकर्ताओं ने कहा कि AI बहु-चैनल हमलों, दोष इंजेक्शन हमलों और स्वचालित हमलों में मदद कर सकता है, जिससे एक साथ कई उपकरणों पर हमला किया जा सकता है। जैसे कि, यदि "अच्छे लोग" AI को उपयोगी मानते हैं, तो "बुरे लोग" भी इस तकनीक का लाभ उठाएंगे।
AI का उदय आश्चर्यजनक नहीं है, क्योंकि यह साइबर अपराध की बाधाओं को कम करता है, जिससे तकनीकी रूप से कम सक्षम अपराधियों को AI का उपयोग करके गहरी नकली, नेटवर्क प्रवेश को स्कैन करने, और निगरानी करने की अनुमति मिलती है। स्विट्जरलैंड की फेडरल पॉलिटेक्निक यूनिवर्सिटी के शोधकर्ताओं ने हाल ही में एक मॉडल विकसित किया है जो Google reCAPTCHA v2 की समस्या को 100% हल कर सकता है। सुरक्षा कंपनी Radware के विश्लेषकों ने वर्ष की शुरुआत में भविष्यवाणी की थी कि निजी GPT मॉडलों का उदय दुर्भावनापूर्ण उद्देश्यों के लिए उपयोग किया जाएगा, और जीरो-डे कमजोरियों और गहरी नकली धोखाधड़ी की संख्या भी बढ़ जाएगी।
गार्टनर ने यह भी बताया कि IT आपूर्तिकर्ताओं के प्रमुख मुद्दे पहली बार कार्यकारी ध्यान सूची में प्रवेश कर गए हैं। गार्टनर जोखिम और ऑडिट प्रैक्टिस के वरिष्ठ निदेशक ज़ैचरी गिन्सबर्ग ने कहा कि एकल आपूर्तिकर्ता पर केंद्रित निर्भरता रखने वाले ग्राहकों को अधिक जोखिम का सामना करना पड़ सकता है। जैसे कि dStrike के जुलाई में हुए घटना ने वैश्विक स्तर पर 85 लाख Windows उपकरणों को ठप कर दिया, जिससे आपातकालीन सेवाओं, हवाई अड्डों और कानून प्रवर्तन एजेंसियों पर भारी प्रभाव पड़ा।