हाल ही में, OpenAI ने अपने नवीनतम GPT-4o सिस्टम कार्ड को जारी किया, जो एक विस्तृत शोध दस्तावेज है, जिसमें कंपनी द्वारा नए मॉडल को लॉन्च करने से पहले किए गए सुरक्षा उपायों और जोखिम आकलन का विवरण दिया गया है।

GPT-4o मॉडल इस साल मई में आधिकारिक रूप से लॉन्च किया गया था। रिलीज़ से पहले, OpenAI ने जोखिम आकलन के लिए बाहरी सुरक्षा विशेषज्ञों की एक टीम को नियुक्त किया, यह "रेड टीम" परीक्षण एक सामान्य प्रथा है। उन्होंने मुख्य रूप से उन जोखिमों पर ध्यान केंद्रित किया जो मॉडल ला सकता है, जैसे कि बिना अनुमति के ध्वनि क्लोन बनाना, अश्लील और हिंसक सामग्री उत्पन्न करना, या कॉपीराइटेड ऑडियो क्लिप को पुनरावृत्त करना।

GPT-4o ChatGPT

OpenAI के अपने ढांचे के अनुसार, शोधकर्ताओं ने GPT-4o के समग्र जोखिम को "मध्यम" के रूप में आंका। यह जोखिम स्तर चार मुख्य श्रेणियों में उच्चतम जोखिम के आकलन पर आधारित है: साइबर सुरक्षा, जैविक खतरे, मनोवैज्ञानिक प्रभाव और मॉडल की स्वायत्तता। मनोवैज्ञानिक प्रभाव को छोड़कर, अन्य श्रेणियों को कम जोखिम के रूप में माना गया। शोधकर्ताओं ने पाया कि GPT-4o द्वारा उत्पन्न कुछ पाठ पाठकों की राय पर मानव-लिखित पाठ की तुलना में अधिक प्रभाव डालते हैं, हालाँकि समग्र रूप से वे अधिक प्रभावशाली नहीं हैं।

OpenAI के प्रवक्ता लिंडसे मैककॉलम Rémy ने कहा कि सिस्टम कार्ड में आंतरिक टीम और बाहरी परीक्षकों द्वारा संयुक्त रूप से तैयार किया गया मूल्यांकन शामिल है, जिसमें OpenAI की वेबसाइट पर सूचीबद्ध मॉडल मूल्यांकन और खतरे अनुसंधान (METR) और अपोलो अनुसंधान (Apollo Research) जैसी बाहरी टीमें शामिल हैं, जो एआई सिस्टम के मूल्यांकन पर ध्यान केंद्रित करती हैं। यह OpenAI द्वारा जारी किया गया पहला सिस्टम कार्ड नहीं है; इससे पहले GPT-4, GPT-4 दृश्य संस्करण और DALL-E3 ने भी इसी तरह के परीक्षण किए हैं और संबंधित शोध परिणाम जारी किए हैं।

हालांकि, इस बार जारी किया गया सिस्टम कार्ड एक महत्वपूर्ण क्षण पर है, क्योंकि OpenAI हाल ही में आंतरिक कर्मचारियों और राज्य के सीनेटरों से निरंतर आलोचना का सामना कर रहा है, जो इसकी सुरक्षा मानकों पर सवाल उठा रहे हैं। GPT-4o सिस्टम कार्ड के जारी होने से कुछ मिनट पहले, मैसाचुसेट्स की सीनेटर एलिजाबेथ वॉरेन और कांग्रेसwoman लॉरी ट्रहन द्वारा हस्ताक्षरित एक सार्वजनिक पत्र ने OpenAI से आग्रह किया कि वह यह बताए कि वह रिपोर्ट करने वालों और सुरक्षा समीक्षा के साथ कैसे व्यवहार करता है। पत्र में कई सुरक्षा मुद्दों का उल्लेख किया गया, जिसमें CEO सैम आल्टमैन को 2023 में बोर्ड की चिंताओं के कारण अस्थायी रूप से निकालना और एक सुरक्षा कार्यकारी का इस्तीफा शामिल है, जिसने दावा किया कि "सुरक्षा संस्कृति और प्रक्रियाएँ सुंदर उत्पादों द्वारा दबा दी गई हैं।"

इसके अलावा, OpenAI अमेरिका के राष्ट्रपति चुनाव से पहले एक शक्तिशाली मल्टीमॉडल मॉडल जारी कर रहा है, जिसमें स्पष्ट रूप से गलत सूचना या दुर्भावनापूर्ण कार्यकर्ताओं द्वारा शोषण का संभावित जोखिम है। हालांकि OpenAI वास्तविक परिदृश्यों के परीक्षण के माध्यम से दुरुपयोग को रोकने की उम्मीद करता है, लेकिन इसकी पारदर्शिता के लिए जनता की मांग बढ़ती जा रही है। विशेष रूप से कैलिफोर्निया में, राज्य के सीनेटर स्कॉट वीनर एक विधेयक को बढ़ावा दे रहे हैं, जो बड़े भाषा मॉडल के उपयोग को विनियमित करता है, जिसमें कंपनियों को उनके एआई के हानिकारक उपयोग के लिए कानूनी जिम्मेदारी उठाने की आवश्यकता शामिल है। यदि विधेयक पारित होता है, तो OpenAI के अग्रणी मॉडल को जनता के सामने पेश करने से पहले राज्य कानून द्वारा निर्धारित जोखिम आकलन का पालन करना होगा।

मुख्य बिंदु:

🌟 OpenAI का GPT-4o मॉडल "मध्यम" जोखिम के रूप में मूल्यांकित किया गया है, जो मुख्य रूप से साइबर सुरक्षा और मनोवैज्ञानिक प्रभाव जैसे पहलुओं पर ध्यान केंद्रित करता है।  

🔍 सिस्टम कार्ड का विमोचन उस समय हो रहा है जब OpenAI बाहरी सुरक्षा मानकों पर सवालों का सामना कर रहा है, और आवाजें बढ़ती जा रही हैं।  

🗳️ विमोचन का समय संवेदनशील है, क्योंकि यह अमेरिका के राष्ट्रपति चुनाव से पहले है, जिसमें गलत सूचना और दुर्भावनापूर्ण उपयोग का जोखिम है।