ब्रिटेन में, एक पुलिस विभाग Soze नामक एक कृत्रिम बुद्धिमत्ता प्रणाली का परीक्षण कर रहा है, जो पुलिस को लंबे समय से अनसुलझे मामलों को जल्दी हल करने में मदद करने की क्षमता रखती है। स्काई न्यूज़ की रिपोर्ट के अनुसार, यह ऑस्ट्रेलिया में विकसित AI कार्यक्रम दशकों के जांच कार्य को केवल कुछ घंटों में संकुचित कर सकता है।

वर्तमान में इस AI प्रणाली की सटीकता के बारे में कोई विस्तृत डेटा उपलब्ध नहीं है, जो निश्चित रूप से एक महत्वपूर्ण चिंता का विषय है। सभी को पता है कि AI मॉडल कभी-कभी गलत जानकारी उत्पन्न कर सकते हैं, यहां तक कि झूठी सामग्री भी। इंग्लैंड के दक्षिण-पश्चिम में एवन और समरसेट पुलिस इस परीक्षण को कर रही है, Soze ईमेल, सोशल मीडिया खातों, वीडियो, वित्तीय विवरणों और अन्य संबंधित दस्तावेजों को स्कैन और विश्लेषण कर रहा है।

रोबोट कृत्रिम बुद्धिमत्ता AI (2)

चित्र स्रोत टिप्पणी: चित्र AI द्वारा उत्पन्न, चित्र लाइसेंस सेवा प्रदाता Midjourney द्वारा

चौंकाने वाली बात यह है कि इस AI प्रणाली ने लगभग 30 घंटों में 27 "जटिल" मामलों के साक्ष्यों को स्कैन किया, जो 81 वर्षों के मानव कार्यभार के बराबर है। ये आंकड़े वास्तव में उत्साहजनक लगते हैं, विशेष रूप से जब संसाधन और बजट सीमित होते हैं, पुलिस विभाग इस परियोजना को लेकर बहुत उत्सुक है।

राष्ट्रीय पुलिस प्रमुख परिषद के अध्यक्ष गेविन स्टीफेंस ने एक साक्षात्कार में कहा: "आपको एक ऐसा ठंडा मामला मिल सकता है जिसे हल करना असंभव लगता है, बड़ी मात्रा में सामग्री का सामना करते हुए, ऐसे सिस्टम का उपयोग करना आसान हो जाता है और आकलन प्रदान करता है।" वह इन AI उपकरणों के लॉन्च के प्रति आश्वस्त लगते हैं, लेकिन इससे पहले, यह सुनिश्चित करना बहुत महत्वपूर्ण है कि वे सही तरीके से काम कर रहे हैं।

स्टीफेंस ने यह भी उल्लेख किया कि एक और चल रही AI परियोजना चाकू और तलवारों का एक डेटाबेस स्थापित करना है, क्योंकि कई संदिग्धों ने पीड़ितों पर हमला करते समय इन हथियारों का उपयोग किया है। हालांकि, कानून प्रवर्तन क्षेत्र में AI की गलती दर और संभावित पूर्वाग्रह की समस्या अभी भी अनदेखी नहीं की जा सकती। संदिग्धों के भविष्य में पुनः अपराध करने की संभावनाओं की भविष्यवाणी करने के लिए एक मॉडल को गलत पाया गया था, और यह काले समुदायों के प्रति पूर्वाग्रहित था, जो कि फिलिप K. डिक के उपन्यास "माइनॉरिटी रिपोर्ट" और बाद में स्पीलबर्ग की फिल्म के अनुकूलन की याद दिलाता है।

इसके अलावा, AI चेहरे की पहचान तकनीक ने गलत गिरफ्तारियों का कारण बना है, और अल्पसंख्यक अक्सर अपराधियों के रूप में गलत पहचाने जाते हैं। अमेरिकी नागरिक अधिकार आयोग ने हाल ही में पुलिसिंग में AI के उपयोग की आलोचना की है। लोगों का सामान्य मानना है कि मशीन विश्लेषण हमेशा सटीक होगा, लेकिन वास्तव में, ये AI मानव-संग्रहित डेटा पर आधारित हैं, और ये डेटा स्वयं पूर्वाग्रह और गलतियों से भरे हो सकते हैं। इसलिए, कानून प्रवर्तन में AI के उपयोग में सावधानी बरतने की आवश्यकता है।

मुख्य बिंदु:

1. 🤖 ब्रिटिश पुलिस AI प्रणाली Soze का परीक्षण कर रही है, जो ठंडे मामलों को तेजी से संभालने में मदद करती है।

2. ⏱️ Soze ने 30 घंटों में 27 मामलों को स्कैन किया, जो 81 वर्षों के मानव कार्यभार के बराबर है।

3. ⚠️ कानून प्रवर्तन में AI के उपयोग में सावधानी बरतने की आवश्यकता है, पूर्वाग्रह और गलतियों के जोखिम हैं।