हाल ही में, गैर-लाभकारी संगठन Epoch AI द्वारा किए गए एक अध्ययन ने OpenAI के चैटबॉट प्लेटफार्म ChatGPT की ऊर्जा खपत का खुलासा किया है, जिसके परिणामस्वरूप, ChatGPT की ऊर्जा खपत प्रारंभिक अनुमानों की तुलना में काफी कम है। कुछ रिपोर्टों के अनुसार, ChatGPT एक प्रश्न का उत्तर देने के लिए लगभग 3 वॉट-घंटे की बिजली की आवश्यकता होती है, जबकि Epoch AI का अध्ययन मानता है कि यह आंकड़ा अधिक है। अध्ययन में पाया गया है कि OpenAI के नवीनतम डिफ़ॉल्ट मॉडल GPT-4o का उपयोग करते समय, औसतन प्रत्येक प्रश्न के लिए केवल लगभग 0.3 वॉट-घंटे की बिजली की खपत होती है, जो कई घरेलू उपकरणों की ऊर्जा खपत से भी कम है।

ChatGPT OpenAI आर्टिफिशियल इंटेलिजेंस (1)

Epoch AI के डेटा विश्लेषक जोशुआ यू ने कहा कि पारंपरिक रूप से लोग AI ऊर्जा खपत के बारे में जो चिंताएं व्यक्त करते हैं, वे वर्तमान स्थिति को सटीक रूप से नहीं दर्शाती हैं। प्रारंभिक 3 वॉट-घंटे का अनुमान कुछ पुरानी शोधों और धारणाओं पर आधारित था, जब यह मान लिया गया था कि OpenAI कम दक्षता वाले चिप्स का उपयोग कर रहा था। यू ने यह भी बताया कि हालांकि जनता को AI के भविष्य की ऊर्जा खपत के बारे में उचित चिंताएं हैं, लेकिन वर्तमान स्थिति के बारे में स्पष्ट जानकारी नहीं है।

हालांकि, यू ने स्वीकार किया कि Epoch का 0.3 वॉट-घंटे का आंकड़ा अभी भी एक अनुमान है, क्योंकि OpenAI ने विस्तृत ऊर्जा खपत गणना डेटा सार्वजनिक नहीं किया है। इसके अलावा, इस विश्लेषण में कुछ अतिरिक्त सुविधाओं द्वारा लाई गई ऊर्जा खपत को भी ध्यान में नहीं रखा गया है, जैसे कि छवि उत्पादन या इनपुट प्रोसेसिंग। लंबे इनपुट प्रश्नों के लिए, जैसे कि बड़ी मात्रा में फ़ाइलों के साथ प्रश्न, यू ने कहा कि इस प्रकार के प्रश्नों की ऊर्जा खपत अधिक हो सकती है।

हालांकि वर्तमान ऊर्जा खपत का डेटा कम है, यू ने भविष्य में ऊर्जा खपत के बढ़ने की संभावना जताई। उन्होंने कहा कि जैसे-जैसे AI प्रौद्योगिकी में प्रगति होती है, इन मॉडलों को प्रशिक्षित करने की ऊर्जा की मांग बढ़ सकती है, और भविष्य के AI अधिक जटिल कार्यों को संभाल सकते हैं, जिससे अधिक बिजली की खपत होगी।

इस बीच, AI की बुनियादी ढांचा तेजी से बढ़ रहा है, जिससे बड़ी बिजली की मांग उत्पन्न होगी। उदाहरण के लिए, Rand Corporation की रिपोर्ट के अनुसार, अगले दो वर्षों में, AI डेटा केंद्रों को कैलिफ़ोर्निया राज्य की 2022 की बिजली आपूर्ति का लगभग पूरा हिस्सा चाहिए हो सकता है। 2030 तक, एक अग्रणी मॉडल को प्रशिक्षित करने की ऊर्जा खपत आठ परमाणु रिएक्टरों के बिजली उत्पादन के बराबर होगी।

OpenAI और उसके निवेश भागीदार अगले कुछ वर्षों में नए AI डेटा केंद्र परियोजनाओं में अरबों डॉलर का निवेश करने की योजना बना रहे हैं। जैसे-जैसे AI प्रौद्योगिकी विकसित हो रही है, उद्योग का ध्यान भी अनुकरण मॉडल पर केंद्रित हो रहा है, जो कार्यों को संभालने में अधिक सक्षम हैं, लेकिन उन्हें अधिक गणना की शक्ति और बिजली समर्थन की आवश्यकता होती है।

जो लोग अपनी AI ऊर्जा खपत को लेकर चिंतित हैं, यू ने सुझाव दिया कि वे उपयोग की आवृत्ति को कम कर सकते हैं, या कम गणना की मांग वाले मॉडल का चयन कर सकते हैं।

मुख्य बिंदु:

🌱 ChatGPT की औसत ऊर्जा खपत 0.3 वॉट-घंटे है, जो प्रारंभिक अनुमानित 3 वॉट-घंटे से काफी कम है।

🔌 AI ऊर्जा खपत में वृद्धि मुख्य रूप से भविष्य की तकनीकी प्रगति और अधिक जटिल कार्यों के संचालन से संबंधित है।

🏭 OpenAI भविष्य के वर्षों में AI डेटा केंद्रों का विस्तार करने के लिए बड़े पैमाने पर धन का निवेश करने की योजना बना रहा है, ताकि बढ़ती बिजली की मांग को पूरा किया जा सके।