OpenAI और DeepMind ने Scaling Laws अनुसंधान में विभिन्न दृष्टिकोण और विधियाँ अपनाई हैं। Scaling Laws यह भविष्यवाणी कर सकते हैं कि बड़े मॉडल के पैरामीटर, डेटा और गणना मात्रा में परिवर्तन होने पर हानि में क्या बदलाव आएगा। उनकी प्रतिस्पर्धा कृत्रिम बुद्धिमत्ता के विकास को बढ़ावा देगी और मानव-मशीन सह-अस्तित्व के भविष्य को प्रभावित करेगी। बड़े भाषा मॉडल के पूर्व-प्रशिक्षण प्रक्रिया में, मॉडल के आकार, डेटा की मात्रा और प्रशिक्षण लागत के बीच संतुलन बनाने की चुनौती होती है। Scaling Laws डिज़ाइन निर्णयों को अनुकूलित करने में मदद कर सकते हैं। DeepMind ने सुझाव दिया है कि मॉडल का आकार और डेटा की मात्रा समान अनुपात में बढ़ाना चाहिए, जबकि OpenAI बड़े मॉडल को चुनने के पक्ष में है। DeepMind ने AlphaGo और AlphaFold का विकास किया, जिसने गहन सुदृढीकरण शिक्षण और तंत्रिका नेटवर्क की क्षमता को प्रदर्शित किया, जबकि OpenAI ने GPT श्रृंखला के मॉडल विकसित किए, जिसने जनरेटिव मॉडल पर असाधारण क्षमता दिखाई। अनुसंधान के निष्कर्ष बताते हैं कि मॉडल के प्रदर्शन को प्रभावित करने वाले तीन तत्व एक-दूसरे पर प्रभाव डालते हैं, और DeepMind का Chinchilla मॉडल उत्कृष्ट प्रदर्शन करता है। देश में Baichuan Intelligence और Mingde बड़े मॉडल ने भी Scaling Laws अनुसंधान में योगदान दिया है। DeepMind ने AGI के स्तरों की वर्गीकरण विधि प्रस्तुत की है, जो कृत्रिम बुद्धिमत्ता के विभिन्न विकास चरणों को उजागर करती है।