हाल ही में, OpenAI के भीतर तनावपूर्ण स्थिति के बारे में खबरें सामने आई हैं। 2023 के नवंबर में अल्टमैन की बर्खास्तगी से पहले, निवेशक पीटर थिएल ने अल्टमैन को AI सुरक्षा अधिवक्ताओं और कंपनी की व्यावसायिक दिशा के बीच टकराव के बारे में चेतावनी दी थी।

वाल स्ट्रीट जर्नल की रिपोर्ट के अनुसार, थिएल ने लॉस एंजिल्स में एक निजी रात्रिभोज में अल्टमैन से यह मुद्दा उठाया था। उन्होंने विशेष रूप से OpenAI के भीतर "प्रभावी परोपकार" (Effective Altruism) आंदोलन के प्रभाव का उल्लेख किया और कहा कि अल्टमैन AI शोधकर्ता यूलीज़र यदकोवस्की के प्रभाव को समझने में विफल रहे। थिएल ने अल्टमैन से कहा, "आपको पता नहीं है कि यूलीज़र ने आपकी कंपनी के आधे लोगों को कैसे इन सिद्धांतों पर विश्वास दिलाया।"

OpenAI, ChatGPT, कृत्रिम बुद्धिमत्ता, AI

अल्टमैन ने इस पर कोई ध्यान नहीं दिया और 2018 में एलोन मस्क के इस्तीफे का जिक्र किया। उनका मानना था कि मस्क और यदकोवस्की ने AI के जोखिमों के बारे में लगातार चेतावनी दी थी, लेकिन इससे कंपनी के विकास पर कोई प्रभाव नहीं पड़ा। हालाँकि, 2024 में आंतरिक सुरक्षा संबंधी चिंताएँ और अधिक स्पष्ट हो गईं, जब कई प्रमुख AI सुरक्षा व्यक्तियों ने OpenAI छोड़ दिया, जिसमें मुख्य वैज्ञानिक इल्या सुत्स्केवर और "सुपर अलाइनमेंट" टीम के प्रमुख जान लेक शामिल थे। लेक ने कंपनी की सुरक्षा रणनीति की सार्वजनिक रूप से आलोचना की और दावा किया कि उनकी टीम को कंप्यूटिंग संसाधनों के लिए संघर्ष करना पड़ रहा था।

वाल स्ट्रीट जर्नल की रिपोर्ट में कहा गया है कि मुख्य तकनीकी अधिकारी मीरा मुराती और सुत्स्केवर ने कई महीनों तक अल्टमैन के प्रबंधन व्यवहार के सबूत एकत्र किए, जिसमें उन्होंने कर्मचारियों के बीच फूट डाली और सुरक्षा प्रोटोकॉल को दरकिनार किया। GPT-4-Turbo के लॉन्च के समय, अल्टमैन ने निदेशक मंडल को गलत जानकारी दी और अपने निजी OpenAI लॉन्च फंड की संरचना के बारे में पारदर्शिता नहीं दिखाई। मई 2024 में GPT-4o के लॉन्च के बाद, जल्दबाजी में किए गए सुरक्षा परीक्षणों ने और भी सवाल खड़े किए।

जब मुराती ने सीधे अल्टमैन से समस्याओं को उठाने की कोशिश की, तो उन्होंने अपनी एकांत बैठकों में मानव संसाधन प्रतिनिधि को शामिल किया, जो हफ़्तों तक चला, जिससे मुराती ने अंततः अपनी चिंताओं को निदेशक मंडल के साथ साझा नहीं करने का फैसला किया। अंत में, सुत्स्केवर सहित चार निदेशक मंडल के सदस्यों ने एक श्रृंखला में गोपनीय वीडियो कॉन्फ्रेंस के माध्यम से अल्टमैन को पद से हटाने का फैसला किया। सुत्स्केवर ने अल्टमैन के उल्लंघनों की सूची में दो विस्तृत दस्तावेज़ तैयार किए। निदेशक मंडल ने ग्रेग ब्रॉकमैन को भी पद से हटाने का फैसला किया क्योंकि मुराती ने निदेशक मंडल को बताया कि उन्होंने अल्टमैन के साथ सीधे संवाद करने के लिए उन्हें दरकिनार कर दिया था।

शुरू में, निदेशक मंडल का बयान बहुत संक्षिप्त था, जिसमें केवल इतना कहा गया था कि अल्टमैन "लगातार ईमानदार" नहीं थे। हालाँकि, जब कर्मचारियों के बड़े पैमाने पर इस्तीफे का खतरा उत्पन्न हुआ, तो स्थिति तेजी से बदल गई। अल्टमैन और ब्रॉकमैन को अंततः बहाल कर दिया गया, और मुराती और सुत्स्केवर ने उनके पुनर्नियुक्ति का समर्थन करने वाले पत्र पर हस्ताक्षर किए, भले ही उन्होंने बर्खास्तगी में महत्वपूर्ण भूमिका निभाई हो। सुत्स्केवर को इस बात पर आश्चर्य हुआ कि कर्मचारियों ने अल्टमैन का समर्थन किया क्योंकि उन्हें उम्मीद थी कि कर्मचारी इस बदलाव का स्वागत करेंगे।

वाल स्ट्रीट जर्नल की रिपोर्ट पिछले दावों के विपरीत है, खासकर मुराती के दावे के अनुसार कि उन्होंने अल्टमैन की बर्खास्तगी में भाग नहीं लिया। व्यवस्थित रूप से एकत्रित साक्ष्यों से पता चलता है कि उन्होंने इस घटना में एक महत्वपूर्ण भूमिका निभाई थी। मुराती और सुत्स्केवर बाद में चले गए और अपनी खुद की AI कंपनी शुरू की। इस जांच ने अल्टमैन की संक्षिप्त बर्खास्तगी में AI सुरक्षा मुद्दों की महत्वपूर्ण भूमिका की पुष्टि की, OpenAI के शीर्ष स्तर पर गहरे मतभेदों का खुलासा किया, जिसके परिणामस्वरूप संगठन में AI सुरक्षा और विकास में बड़े बदलाव हुए।

मुख्य बातें:

🌐 पीटर थिएल ने एक निजी रात्रिभोज में अल्टमैन को चेतावनी दी कि OpenAI के भीतर AI सुरक्षा और व्यावसायिक दिशा में टकराव है।  

🛠️ प्रमुख AI सुरक्षा व्यक्तियों ने एक के बाद एक इस्तीफा दे दिया, मुराती और सुत्स्केवर ने अल्टमैन के गलत प्रबंधन के सबूत एकत्र किए।  

🔄 कर्मचारियों के समर्थन से अल्टमैन और ब्रॉकमैन को बहाल कर दिया गया, आंतरिक तनाव ने गहन चिंतन को जन्म दिया।