तकनीकी दुनिया में, डेवलपर्स और प्रबंधन के बीच एक "बिल्ली-चूहा खेल" चल रहा है। इस खेल के नायक वे हैं, जिन्हें कंपनी द्वारा स्पष्ट रूप से प्रतिबंधित किया गया है, फिर भी डेवलपर्स द्वारा चुपचाप उपयोग किए जा रहे AI कोडिंग उपकरण।
क्लाउड सुरक्षा कंपनी Checkmarx के नवीनतम वैश्विक अध्ययन के अनुसार, जबकि 15% कंपनियाँ AI कोडिंग उपकरणों के उपयोग को स्पष्ट रूप से प्रतिबंधित करती हैं, लगभग सभी डेवलपमेंट टीमें (99%) इन्हें उपयोग कर रही हैं। यह स्थिति जनरेटिव AI के उपयोग पर नियंत्रण के संबंध में चुनौतियों को उजागर करती है।
केवल 29% कंपनियों ने जनरेटिव AI उपकरणों के लिए किसी न किसी प्रकार का शासन तंत्र स्थापित किया है। 70% मामलों में, कोई एकीकृत नीति नहीं है, और खरीद निर्णय विभिन्न विभागों द्वारा अस्थायी रूप से लिए जाते हैं। यह स्थिति प्रबंधन को AI कोडिंग उपकरणों के उपयोग पर नियंत्रण रखने में कुछ हद तक असमर्थ बनाती है।
AI कोडिंग उपकरणों की लोकप्रियता के साथ, सुरक्षा समस्याएँ भी बढ़ती जा रही हैं। 80% उत्तरदाता चिंतित हैं कि डेवलपर्स के AI के उपयोग से संभावित खतरे उत्पन्न हो सकते हैं, विशेष रूप से 60% लोग AI द्वारा उत्पन्न "भ्रम" समस्या को लेकर चिंतित हैं।
हालांकि चिंताएँ हैं, लेकिन लोग AI की क्षमता के प्रति अभी भी रुचि रखते हैं। 47% उत्तरदाता बिना पर्यवेक्षण के AI द्वारा कोड परिवर्तनों की अनुमति देने के लिए खुले हैं। केवल 6% लोग कहते हैं कि वे AI के सॉफ़्टवेयर वातावरण में सुरक्षा उपायों पर भरोसा नहीं करेंगे।
Tzruya ने कहा: "इन वैश्विक CISOs की प्रतिक्रियाएँ एक वास्तविकता को उजागर करती हैं, कि डेवलपर्स AI का उपयोग करते हुए भी विश्वसनीय रूप से सुरक्षित कोड बनाने में असमर्थ हैं, और इसका अर्थ है कि सुरक्षा टीमों को नए, संभावित रूप से आक्रमण योग्य कोड के विशाल संख्या से निपटना होगा।"
माइक्रोसॉफ्ट के कार्य प्रवृत्ति सूचकांक की हालिया रिपोर्ट ने भी इसी तरह के निष्कर्ष दिखाए हैं, कि कई कर्मचारी बिना AI उपकरण प्रदान किए अपने AI उपकरणों का उपयोग करते हैं। आमतौर पर, वे इस उपयोग पर चर्चा नहीं करते, जिससे जनरेटिव AI को व्यावसायिक प्रक्रियाओं में समेकित करने में बाधा आती है।
स्पष्ट प्रतिबंध के बावजूद, 99% डेवलपमेंट टीमें अभी भी AI उपकरणों का उपयोग करके कोड उत्पन्न कर रही हैं। केवल 29% कंपनियों ने जनरेटिव AI के उपयोग के लिए शासन तंत्र स्थापित किया है। 70% मामलों में, विभिन्न विभागों के AI उपकरणों के उपयोग के निर्णय अस्थायी रूप से लिए जाते हैं। इस बीच, सुरक्षा समस्याएँ भी बढ़ रही हैं। 47% उत्तरदाता बिना पर्यवेक्षण के AI द्वारा कोड परिवर्तनों की अनुमति देने के लिए खुले हैं। सुरक्षा टीमों को संभावित रूप से आक्रमण योग्य AI जनित कोड की विशाल मात्रा से निपटने की चुनौती का सामना करना पड़ता है।
डेवलपर्स और प्रबंधन के बीच यह "बिल्ली-चूहा खेल" अभी भी जारी है, और AI कोडिंग उपकरणों का भविष्य क्या होगा, यह देखना बाकी है।