हाल के वर्षों में, कृत्रिम बुद्धिमत्ता (AI) के तेज विकास ने व्यवसायों के लिए कई अवसर प्रदान किए हैं, लेकिन साथ ही, इसके संभावित खतरों का भी धीरे-धीरे पता चल रहा है। 2024 की नवीनतम 'नई पीढ़ी के जोखिम रिपोर्ट' के अनुसार, सर्वेक्षण से पता चला है कि 80% से अधिक उत्तरदाता कंपनियों ने जनरेटिव AI जोखिमों के खिलाफ विशेष नीतियों का विकास नहीं किया है, जिसमें AI द्वारा संचालित साइबर धोखाधड़ी जैसे सुरक्षा खतरें शामिल हैं।

डेवलपर हैकर डेवलपर कमजोरियां लीक सुरक्षा

यह सर्वेक्षण जोखिम प्रबंधन सॉफ़्टवेयर कंपनी Riskconnect द्वारा किया गया, जिसमें 218 वैश्विक जोखिम अनुपालन और लचीलापन पेशेवरों ने भाग लिया। परिणामों से पता चलता है कि 24% उत्तरदाता मानते हैं कि अगले 12 महीनों में, AI द्वारा संचालित साइबर सुरक्षा खतरों (जैसे रैंसमवेयर, फ़िशिंग और डीपफेक) का कंपनियों पर महत्वपूर्ण प्रभाव पड़ेगा। साथ ही, 72% उत्तरदाता मानते हैं कि साइबर सुरक्षा जोखिमों का उनके संगठन पर महत्वपूर्ण या गंभीर प्रभाव पड़ा है, जो पिछले वर्ष के 47% आंकड़े से बढ़ गया है।

जैसे-जैसे AI नैतिकता, गोपनीयता और सुरक्षा जैसे मुद्दों पर ध्यान बढ़ता है, रिपोर्ट में कहा गया है कि हालांकि कंपनियों की AI के प्रति चिंताएँ बढ़ी हैं, लेकिन जोखिम प्रबंधन रणनीतियों में समय पर प्रगति नहीं हुई है, और कई महत्वपूर्ण खामियाँ अभी भी मौजूद हैं। उदाहरण के लिए, 65% कंपनियों ने भागीदारों और आपूर्तिकर्ताओं के लिए जनरेटिव AI के उपयोग पर संबंधित नीतियों का विकास नहीं किया है, हालाँकि तीसरे पक्ष साइबर धोखेबाज़ों द्वारा अक्सर उपयोग किए जाने वाले आक्रमण के चैनल हैं।

आंतरिक खतरों को भी नजरअंदाज नहीं किया जा सकता। कंपनियों द्वारा जनरेटिव AI का उपयोग करके मार्केटिंग सामग्री बनाने के उदाहरण के लिए, मार्केटिंग विशेषज्ञ एंथनी मियाज़ाकी ने चेतावनी दी है कि हालांकि जनरेटिव AI पाठ लिखने में उत्कृष्टता दिखाता है, अंतिम सामग्री को अभी भी मानव संपादन से गुजरना चाहिए, ताकि इसकी विश्वसनीयता और सटीकता सुनिश्चित हो सके। इसके अलावा, AI द्वारा उत्पन्न वेबसाइट सामग्री पर निर्भरता नकारात्मक प्रभाव डाल सकती है; उदाहरण के लिए, गूगल ने स्पष्ट रूप से कहा है कि यदि AI सामग्री का उपयोग खोज प्रक्रिया को नियंत्रित करने के लिए किया गया, तो इसकी खोज रैंकिंग में गिरावट आएगी, जो कंपनियों के खोज इंजन ऑप्टिमाइजेशन (SEO) पर गंभीर प्रभाव डालेगा।

इन चुनौतियों का सामना करने के लिए, कंपनियों को यह सुनिश्चित करना चाहिए कि उनकी आंतरिक नीतियाँ पूरी तरह से कवरेज करें, संवेदनशील डेटा की सुरक्षा करें और संबंधित नियमों का पालन करें। डेल टेक्नोलॉजीज के मुख्य सुरक्षा अधिकारी जॉन स्किमोनी ने कहा कि उन्होंने जनरेटिव AI के उभार से पहले ही संबंधित सिद्धांतों का विकास किया है, ताकि AI अनुप्रयोगों का विकास निष्पक्ष, पारदर्शी और जिम्मेदार हो।

डिजिटल मार्केटिंग एजेंसी Empathy First Media में, उपाध्यक्ष रयान डॉसर ने भी कर्मचारियों द्वारा AI के उपयोग के संबंध में कंपनी द्वारा उठाए गए कठोर कदमों पर जोर दिया, जिसमें जनरेटिव AI टूल्स में ग्राहक संवेदनशील डेटा को इनपुट करने पर प्रतिबंध लगाना और AI द्वारा उत्पन्न सामग्री की मानव समीक्षा की आवश्यकता शामिल है। ये कदम पारदर्शिता बढ़ाने और ग्राहक विश्वास स्थापित करने के लिए हैं।

मुख्य बिंदु:

🌐80% कंपनियों ने जनरेटिव AI जोखिमों के खिलाफ विशेष योजनाएँ नहीं बनाई हैं, संभावित सुरक्षा खतरों का सामना कर रही हैं।  

🔒72% कंपनियों का मानना है कि साइबर सुरक्षा जोखिमों का उन पर महत्वपूर्ण प्रभाव पड़ा है, जोखिम प्रबंधन को मजबूत करने की आवश्यकता है।  

📈 कंपनियों को सक्रिय कदम उठाने चाहिए, AI अनुप्रयोगों की सुरक्षा और अनुपालन सुनिश्चित करने के लिए, आंतरिक और बाह्य खतरों से बचने के लिए।