कृत्रिम बुद्धिमत्ता तकनीक के तेजी से विकास के साथ, OpenAI और Anthropic जैसे प्रमुख AI डेवलपर्स अमेरिकी सेना के साथ सहयोग करने की कोशिश कर रहे हैं, यह सुनिश्चित करते हुए कि उनकी AI तकनीक का उपयोग घातक हथियारों के लिए नहीं किया जाए जबकि पेंटागन की दक्षता में सुधार किया जाए।
पेंटागन के मुख्य डिजिटल और AI अधिकारी डॉ. राधा प्लंब ने TechCrunch को दिए एक साक्षात्कार में कहा कि वर्तमान में AI का उपयोग हथियारों के लिए नहीं किया जा रहा है, लेकिन यह रक्षा विभाग को खतरे की पहचान, ट्रैकिंग और मूल्यांकन में महत्वपूर्ण लाभ प्रदान कर रहा है।
चित्र स्रोत नोट: चित्र AI द्वारा उत्पन्न, चित्र अधिकार सेवा प्रदाता Midjourney
डॉ. प्लंब ने उल्लेख किया कि पेंटागन "किल चेन" के कार्यान्वयन को तेज कर रहा है, जिसमें खतरे की पहचान, ट्रैकिंग और समाप्त करना शामिल है, जिसमें जटिल संवेदक, प्लेटफॉर्म और हथियार प्रणाली शामिल हैं। जनरेटिव AI किल चेन की योजना और रणनीति चरण में अपनी क्षमता दिखा रहा है। उन्होंने कहा कि AI कमांडरों को खतरे का सामना करते समय तेजी से और प्रभावी ढंग से प्रतिक्रिया देने में मदद कर सकता है।
हाल के वर्षों में, पेंटागन और AI डेवलपर्स के बीच संबंध धीरे-धीरे निकटता में बढ़ रहे हैं। 2024 में, OpenAI, Anthropic और Meta जैसी कंपनियों ने अपनी उपयोग नीतियों को ढीला किया, जिससे अमेरिकी खुफिया और रक्षा एजेंसियों को अपनी AI प्रणाली का उपयोग करने की अनुमति मिली, लेकिन इन AI तकनीकों का मानवता को नुकसान पहुँचाने के उद्देश्य से उपयोग करने की अनुमति नहीं है। इस बदलाव ने AI कंपनियों और रक्षा ठेकेदारों के बीच सहयोग को तेजी से आगे बढ़ाया।
उदाहरण के लिए, Meta ने नवंबर में लॉकहीड मार्टिन और Booz Allen जैसी कंपनियों के साथ सहयोग किया, जिससे उनकी Llama AI मॉडल का रक्षा क्षेत्र में उपयोग किया जा सके। जबकि Anthropic ने Palantir के साथ इसी तरह का सहयोग किया। हालाँकि इन सहयोगों के विशिष्ट तकनीकी विवरण स्पष्ट नहीं हैं, लेकिन डॉ. प्लंब ने कहा कि योजना चरण में AI का उपयोग कई प्रमुख डेवलपर्स की उपयोग नीतियों के साथ संघर्ष कर सकता है।
AI हथियारों को जीवन और मृत्यु के निर्णय लेने की क्षमता होनी चाहिए या नहीं, इस पर उद्योग में तीव्र चर्चा हो रही है। Anduril के CEO पाल्मर लकी ने उल्लेख किया कि अमेरिकी सेना के पास स्वायत्त हथियार प्रणाली की खरीद का एक लंबा इतिहास है। हालाँकि, डॉ. प्लंब ने इसे खारिज कर दिया, यह बताते हुए कि किसी भी स्थिति में, शक्ति के उपयोग का निर्णय लेने में मानव का शामिल होना आवश्यक है।
उन्होंने कहा कि स्वचालित प्रणाली द्वारा स्वतंत्र रूप से जीवन और मृत्यु के निर्णय लेने का विचार बहुत द्विआधारी है, वास्तविकता कहीं अधिक जटिल है। पेंटागन की AI प्रणाली मानव और मशीन के बीच सहयोग है, निर्णय प्रक्रिया में वरिष्ठ नेतृत्व की भागीदारी होती है।
मुख्य बिंदु:
🌐 AI पेंटागन को खतरे की पहचान और मूल्यांकन में महत्वपूर्ण लाभ प्रदान कर रहा है, जिससे सैन्य निर्णय लेने की दक्षता को बढ़ावा मिल रहा है।
🤝 AI डेवलपर्स और पेंटागन के बीच सहयोग बढ़ता जा रहा है, लेकिन हमेशा यह सुनिश्चित किया जाता है कि AI तकनीक का उपयोग मानवता को नुकसान पहुँचाने के लिए नहीं किया जाए।
🔍 AI हथियारों को जीवन और मृत्यु के निर्णय लेने की क्षमता होनी चाहिए या नहीं, इस पर चर्चा जारी है, पेंटागन ने हमेशा मानव की भागीदारी पर जोर दिया है।