Meta के बड़े ओपन-सोर्स भाषा मॉडल Llama के डेवलपर के रूप में, मानता है कि भविष्य में मॉडल को प्रशिक्षित करने के लिए आवश्यक गणनात्मक शक्ति में काफी वृद्धि होगी।
मंगलवार को, Meta की दूसरी तिमाही की आय रिपोर्ट कॉल में, मार्क ज़ुकरबर्ग ने खुलासा किया कि Llama4 को प्रशिक्षित करने के लिए आवश्यक गणनात्मक शक्ति, Llama3 के लिए आवश्यक शक्ति का 10 गुना होगी। उन्होंने जोर देकर कहा कि फिर भी, Meta को प्रतिस्पर्धियों से पीछे न रहने के लिए प्रशिक्षण मॉडल की क्षमता का निर्माण करना चाहिए।
ज़ुकरबर्ग ने कहा: "Llama4 को प्रशिक्षित करने के लिए आवश्यक गणना की मात्रा शायद Llama3 के लिए आवश्यक गणना का लगभग 10 गुना होगी, और भविष्य के मॉडल के लिए आवश्यक गणना की मात्रा भी बढ़ती जाएगी।" उन्होंने यह भी बताया कि भविष्य में कई पीढ़ियों के मॉडल के विकास के रुझान को भविष्यवाणी करना कठिन है, लेकिन इस समय आवश्यक क्षमता का निर्माण करना बेहतर है, न कि देर से। आखिरकार, नए अनुमान परियोजनाओं को शुरू करने के लिए लंबी तैयारी की आवश्यकता होती है।
इस साल अप्रैल में, Meta ने 800 अरब पैरामीटर वाला Llama3 जारी किया। पिछले सप्ताह, कंपनी ने इसके उन्नत संस्करण Llama3.1405B को जारी किया, जिसमें पैरामीटर 4050 अरब हो गए, जो Meta का सबसे बड़ा ओपन-सोर्स मॉडल बन गया।
Meta की मुख्य वित्तीय अधिकारी सुसान ली ने भी कहा कि कंपनी विभिन्न डेटा सेंटर परियोजनाओं पर विचार कर रही है और भविष्य के AI मॉडल को प्रशिक्षित करने के लिए क्षमता का निर्माण कर रही है। उसने कहा कि Meta को उम्मीद है कि यह निवेश 2025 के पूंजी व्यय को बढ़ाएगा।
जान लें कि बड़े भाषा मॉडल को प्रशिक्षित करना एक महंगा व्यवसाय है। 2024 की दूसरी तिमाही में, Meta का पूंजी व्यय सर्वर, डेटा केंद्र और नेटवर्क बुनियादी ढांचे में निवेश के कारण एक साल पहले के 6.4 अरब डॉलर से बढ़कर 8.5 अरब डॉलर हो गया, जो लगभग 33% की वृद्धि है।
मुख्य बिंदु:
🎯 Llama4 को प्रशिक्षित करने के लिए आवश्यक गणनात्मक शक्ति Llama3 के लिए आवश्यक शक्ति का लगभग 10 गुना है।
🎯 Meta को उम्मीद है कि क्षमता के निर्माण में निवेश 2025 के पूंजी व्यय को बढ़ाएगा।
🎯 बड़े भाषा मॉडल को प्रशिक्षित करना महंगा है, Meta की दूसरी तिमाही का पूंजी व्यय काफी बढ़ा है।