Gartner के हाल के विश्लेषण के अनुसार, 2027 तक, 40% से अधिक AI से संबंधित डेटा लीक जनरेटिव AI (GenAI) के दुरुपयोग से उत्पन्न होंगे। GenAI तकनीक के तेजी से प्रसार के साथ, कंपनियों और संगठनों को डेटा शासन और सुरक्षा उपायों के विकास में गंभीर चुनौतियों का सामना करना पड़ रहा है। विशेष रूप से डेटा स्थानीयकरण के संदर्भ में, यह समस्या विशेष रूप से प्रमुख है, क्योंकि इन तकनीकों को केंद्रीकृत कंप्यूटिंग क्षमता की उच्च आवश्यकता होती है।

डेवलपर्स हैकर्स डेवलपर्स भेद्यता लीक सुरक्षा

Gartner के उपाध्यक्ष विश्लेषक Joerg Fritsch ने बताया कि संगठनों को GenAI उपकरणों को एकीकृत करते समय अक्सर पर्याप्त निगरानी की कमी होती है, जिससे अप्रत्याशित सीमा पार डेटा स्थानांतरण होता है। उन्होंने कहा, "यदि कर्मचारी GenAI उपकरणों का उपयोग करते समय संवेदनशील संकेत भेजते हैं, और ये उपकरण और API अनजान स्थानों पर होस्ट किए जाते हैं, तो यह सुरक्षा खतरों को जन्म देता है।" हालांकि इन उपकरणों का उपयोग स्वीकृत व्यावसायिक अनुप्रयोगों के लिए किया जा सकता है, लेकिन इसके संभावित सुरक्षा जोखिमों को नजरअंदाज नहीं किया जा सकता।

वैश्विक स्तर पर, एकसमान सर्वोत्तम प्रथाओं और डेटा शासन मानकों की कमी भी Gartner द्वारा उल्लिखित एक प्रमुख चुनौती है। यह अंतर बाजार के विखंडन का कारण बनता है, जिससे कंपनियों को विशेष क्षेत्रों के लिए रणनीतियाँ विकसित करने के लिए मजबूर होना पड़ता है, जिससे उनकी वैश्विक स्तर पर AI उत्पादों और सेवाओं का प्रभावी उपयोग करने की क्षमता प्रभावित होती है। Fritsch ने यह भी बताया, "डेटा प्रवाह की जटिलता का प्रबंधन और स्थानीय AI नीतियों के कारण गुणवत्ता बनाए रखने की समस्याएँ परिचालन दक्षता को कम कर सकती हैं।"

संवेदनशील डेटा की सुरक्षा और अनुपालन सुनिश्चित करने के लिए, कंपनियों को AI शासन और सुरक्षा में निवेश करना चाहिए, ताकि इन जोखिमों का सामना किया जा सके। Gartner का अनुमान है कि 2027 तक, वैश्विक स्तर पर AI शासन की आवश्यकता होगी, विशेष रूप से संप्रभु AI कानूनों और विनियमों के ढांचे के तहत। आवश्यक शासन मॉडल को समय पर एकीकृत करने में विफल रहने वाले संगठन प्रतिस्पर्धात्मक नुकसान का सामना करेंगे।

AI डेटा लीक से संबंधित जोखिमों को कम करने के लिए, Gartner कंपनियों को निम्नलिखित रणनीतियाँ अपनाने की सलाह देता है: सबसे पहले, डेटा शासन को बढ़ाना, जिसमें अंतर्राष्ट्रीय विनियमों का पालन करना, अप्रत्याशित सीमा पार डेटा स्थानांतरण की निगरानी करना शामिल है; दूसरे, AI तैनाती और डेटा प्रसंस्करण की पारदर्शिता और निगरानी को बढ़ाने के लिए एक शासन समिति का गठन करना; अंत में, डेटा सुरक्षा को मजबूत करना, संवेदनशील जानकारी की सुरक्षा के लिए उन्नत तकनीकों जैसे एन्क्रिप्शन और एनोनिमाइजेशन तकनीकों का उपयोग करना।

कंपनियों को AI तकनीक से संबंधित विश्वास, जोखिम और सुरक्षा प्रबंधन (TRiSM) उत्पादों और क्षमताओं में निवेश करने के लिए भी प्रोत्साहित किया जाता है। इसमें AI शासन, डेटा सुरक्षा शासन, संकेत फ़िल्टरिंग और लाल कार्रवाई, और असंरचित डेटा का संश्लेषण शामिल है। Gartner का अनुमान है कि 2026 तक, AI TRiSM नियंत्रण लागू करने वाली कंपनियाँ कम से कम 50% गलत जानकारी को कम करेंगी, जिससे गलत निर्णय लेने के जोखिम में कमी आएगी।

मुख्य बिंदु:  

🔍 40% से अधिक AI डेटा लीक जनरेटिव AI के दुरुपयोग से उत्पन्न होंगे।  

🛡️ कंपनियों को डेटा शासन को मजबूत करना चाहिए, अनुपालन और सुरक्षा सुनिश्चित करना चाहिए।  

📈 AI से संबंधित विश्वास, जोखिम और सुरक्षा प्रबंधन उत्पादों में निवेश करने से गलत जानकारी के उत्पादन में उल्लेखनीय कमी आ सकती है।