Meta ने हाल ही में एक नई जोखिम नीति ढांचा जारी किया है, जिसका उद्देश्य अग्रणी AI मॉडल द्वारा उत्पन्न जोखिमों का आकलन और उन्हें कम करना है, और आवश्यक होने पर इन सिस्टम के विकास को रोकना या उनके विमोचन को सीमित करना है। इस ढांचे का नाम "अग्रणी AI ढांचा" है, जो विस्तार से बताता है कि Meta AI मॉडल को उच्च जोखिम और महत्वपूर्ण जोखिम दो श्रेणियों में कैसे वर्गीकृत करेगा और इसके अनुसार संबंधित कदम उठाएगा, ताकि जोखिम को "सहनीय स्तर" तक कम किया जा सके।
इस ढांचे में, महत्वपूर्ण जोखिम को ऐसे कार्यान्वयन के रूप में परिभाषित किया गया है जो विशिष्ट खतरे के परिदृश्यों को अनूठे रूप से बढ़ावा दे सकता है। जबकि उच्च जोखिम का मतलब है कि मॉडल खतरे के परिदृश्यों को लागू करने की संभावना को महत्वपूर्ण रूप से बढ़ा सकता है, लेकिन यह सीधे कार्यान्वयन को बढ़ावा नहीं देता है। खतरे के परिदृश्य में जैविक हथियारों का प्रसार शामिल है, जिसकी क्षमता ज्ञात जैविक एजेंटों के समान हो सकती है, और बड़े पैमाने पर धोखाधड़ी और ठगी के माध्यम से व्यक्तियों या कंपनियों को व्यापक आर्थिक नुकसान पहुँचाना।
महत्वपूर्ण जोखिम सीमा तक पहुँचने वाले मॉडल के लिए, Meta विकास को रोक देगा और केवल कुछ विशेषज्ञों को मॉडल के पहुँच की अनुमति देगा, साथ ही तकनीकी और व्यावसायिक रूप से व्यवहार्य होने पर हैकिंग या डेटा रिसाव को रोकने के लिए सुरक्षा उपाय लागू करेगा। उच्च जोखिम वाले मॉडल के लिए, Meta पहुँच को सीमित करेगा और जोखिम को कम करने के उपाय करेगा, ताकि जोखिम को मध्यम स्तर तक कम किया जा सके, यह सुनिश्चित करते हुए कि मॉडल खतरे के परिदृश्यों के कार्यान्वयन की क्षमता को महत्वपूर्ण रूप से बढ़ा नहीं सकता।
Meta का कहना है कि इसका जोखिम मूल्यांकन प्रक्रिया में बहु-विशेषज्ञों और कंपनी के अंदर के नेताओं को शामिल किया जाएगा, यह सुनिश्चित करते हुए कि सभी दृष्टिकोणों को पूरी तरह से विचार किया जा सके। यह नया ढांचा केवल कंपनी के अत्याधुनिक मॉडल और सिस्टम पर लागू होता है, जिनकी क्षमता वर्तमान तकनीकी स्तर के समान या उससे अधिक है।
Meta को उम्मीद है कि अपने अत्याधुनिक AI सिस्टम के विकास के तरीकों को साझा करके, वह पारदर्शिता को बढ़ावा दे सकेगा और AI मूल्यांकन और जोखिम मात्रात्मक विज्ञान पर बाहरी चर्चा और अनुसंधान को प्रोत्साहित कर सकेगा। साथ ही, कंपनी ने जोर दिया कि AI मूल्यांकन के निर्णय प्रक्रिया तकनीक के विकास के साथ लगातार विकसित और सुधारित होती रहेगी, जिसमें यह सुनिश्चित करना शामिल है कि इसके परीक्षण वातावरण के परिणाम मॉडल के वास्तविक संचालन में प्रदर्शन को सही ढंग से दर्शाते हैं।
मुख्य बिंदु:
🌟 Meta ने अग्रणी AI मॉडल के जोखिम का आकलन और कम करने के लिए नई जोखिम नीति ढांचा पेश किया।
🔒 महत्वपूर्ण जोखिम मॉडल का विकास रोका जाएगा और विशेषज्ञों की पहुँच को सीमित किया जाएगा; उच्च जोखिम मॉडल पर पहुँच सीमित करने और जोखिम कम करने के उपाय लागू किए जाएंगे।
🧑🏫 जोखिम मूल्यांकन प्रक्रिया में बहु-विशेषज्ञ शामिल होंगे, पारदर्शिता और वैज्ञानिकता को बढ़ाने के प्रयास में।