Anthropic ने एक योजना शुरू की है, जो नए प्रकार के मानक परीक्षणों के विकास को वित्त पोषित करेगी, ताकि AI मॉडल के प्रदर्शन और प्रभाव का आकलन किया जा सके, जिसमें इसके अपने Claude जैसे जनरेटिव मॉडल शामिल हैं।
Anthropic ने सोमवार को इस योजना की घोषणा की, जिसके तहत तीसरे पक्ष के संगठनों को धनराशि दी जाएगी, जो "AI मॉडल की उच्च क्षमताओं को प्रभावी ढंग से माप सकते हैं," जैसा कि कंपनी ने एक ब्लॉग पोस्ट में कहा है। इच्छुक लोग आवेदन प्रस्तुत कर सकते हैं, जो चल रहे मूल्यांकन के लिए होंगे।
"इन आकलनों में हमारे निवेश का उद्देश्य पूरे AI सुरक्षा क्षेत्र को बढ़ावा देना है, उपयोगी उपकरण प्रदान करना है, ताकि पूरे पारिस्थितिकी तंत्र को लाभ मिल सके," Anthropic ने अपने आधिकारिक ब्लॉग पर लिखा। "उच्च गुणवत्ता वाले, सुरक्षा से संबंधित आकलनों का विकास अभी भी चुनौतीपूर्ण है, और मांग आपूर्ति से अधिक है।"
जैसा कि हमने पहले बताया, AI के लिए मानक परीक्षणों की समस्या है। आज AI द्वारा सबसे अधिक संदर्भित मानक परीक्षण अक्सर सामान्य लोगों द्वारा परीक्षण किए गए सिस्टम का उपयोग करने के तरीके को ठीक से नहीं पकड़ पाते हैं। इसके अलावा, कुछ मानक परीक्षण, विशेष रूप से आधुनिक जनरेटिव AI के आने से पहले प्रकाशित मानक परीक्षण, उन चीजों को मापने में असमर्थ हो सकते हैं जो वे दावा करते हैं, क्योंकि वे बहुत पुराने हैं।
Anthropic द्वारा प्रस्तावित एक बहुत उच्च स्तरीय, सुनने में कठिन समाधान है, नए उपकरणों, बुनियादी ढांचे और विधियों के माध्यम से चुनौतीपूर्ण मानक परीक्षण बनाना, जो AI सुरक्षा और सामाजिक प्रभाव पर केंद्रित हैं।
कंपनी विशेष रूप से परीक्षण करने की मांग कर रही है, ताकि यह आंका जा सके कि मॉडल जैसे कार्यों को पूरा करने की क्षमता है, जैसे साइबर हमलों का कार्यान्वयन, "वृद्धि" करना बड़े पैमाने पर विनाशकारी हथियारों (जैसे परमाणु हथियार) का और लोगों को धोखा देना या उन्हें गुमराह करना (जैसे Deepfakes या फर्जी जानकारी के माध्यम से)। राष्ट्रीय सुरक्षा और रक्षा से संबंधित AI जोखिमों के लिए, Anthropic ने एक "पूर्व चेतावनी प्रणाली" विकसित करने के लिए प्रतिबद्धता व्यक्त की है, ताकि जोखिमों की पहचान और आकलन किया जा सके, हालाँकि ब्लॉग पोस्ट में यह नहीं बताया गया है कि ऐसी प्रणाली में क्या शामिल हो सकता है।
Anthropic ने यह भी कहा है कि वह नए कार्यक्रम के माध्यम से मानक परीक्षणों और "एंड-टू-एंड" कार्यों के शोध का समर्थन करने का इरादा रखती है, AI के वैज्ञानिक अनुसंधान, बहुभाषी संचार और गहरे पूर्वाग्रहों और आत्म-नियमन की विषाक्तता को कम करने की क्षमता का पता लगाने के लिए।
इस लक्ष्य को प्राप्त करने के लिए, Anthropic ने एक नए मंच की कल्पना की है, जो विषय विशेषज्ञों को अपने आकलन विकसित करने की अनुमति देगा, और "हजारों" उपयोगकर्ताओं के मॉडल का बड़े पैमाने पर परीक्षण करेगा। कंपनी ने कहा है कि उसने इस योजना के लिए एक पूर्णकालिक समन्वयक को नियुक्त किया है, और संभावित परियोजनाओं को खरीदने या बढ़ाने की संभावना है।
Anthropic का नए AI मानक परीक्षणों के प्रयास का समर्थन प्रशंसनीय है - बशर्ते कि इसके लिए पर्याप्त धन और मानव संसाधन उपलब्ध हों। लेकिन कंपनी की AI प्रतियोगिता में व्यावसायिक महत्वाकांक्षाओं को देखते हुए, उस पर पूरी तरह से विश्वास करना मुश्किल हो सकता है।
Anthropic ने यह भी कहा है कि वह चाहती है कि उसकी योजना "प्रगति को बढ़ावा देने वाले उत्प्रेरक" के रूप में कार्य करे, ताकि समग्र AI आकलन को उद्योग मानक बनाने का भविष्य हो। यह कई खुले, गैर-लाभकारी प्रयासों द्वारा साझा किया गया एक मिशन है। हालांकि, यह देखना बाकी है कि क्या ये प्रयास अपनी वफादारी को अंततः शेयरधारकों के AI प्रदाताओं के साथ सहयोग करने के लिए तैयार हैं।
मुख्य बिंदु:
- 📌Anthropic ने योजना शुरू की है, नए प्रकार के मानक परीक्षणों को वित्त पोषित करने के लिए, ताकि AI मॉडल के प्रदर्शन और प्रभाव का आकलन किया जा सके।
- 📌यह योजना चुनौतीपूर्ण मानक परीक्षण बनाने का उद्देश्य रखती है, जो AI सुरक्षा और सामाजिक प्रभाव पर केंद्रित है।
- 📌Anthropic चाहती है कि उसकी योजना "प्रगति को बढ़ावा देने वाले उत्प्रेरक" के रूप में कार्य करे, ताकि समग्र AI आकलन को उद्योग मानक बनाने का भविष्य हो।