OpenAI und DeepMind vertreten unterschiedliche Ansichten und Methoden in der Erforschung von Skalierungsgesetzen (Scaling Laws). Skalierungsgesetze können die Veränderung der Verlustfunktion großer Modelle bei Änderungen der Parameteranzahl, der Datenmenge und des Rechenaufwands vorhersagen. Ihr Wettbewerb wird die Entwicklung der künstlichen Intelligenz vorantreiben und die Zukunft des Mensch-Maschine-Zusammenlebens beeinflussen. Bei der Vorabtrainierung großer Sprachmodelle gibt es einen Zielkonflikt zwischen Modellgröße, Datenmenge und Trainingskosten. Skalierungsgesetze können dabei helfen, optimale Designentscheidungen zu treffen. DeepMind schlägt vor, Modellgröße und Datenmenge im gleichen Verhältnis zu skalieren, während OpenAI eher zu größeren Modellen tendiert. DeepMind entwickelte AlphaGo und AlphaFold und demonstrierte damit das Potenzial von Deep Reinforcement Learning und neuronalen Netzen, während OpenAI die GPT-Modellreihe entwickelte und außergewöhnliche Fähigkeiten bei generativen Modellen zeigte. Die Forschungsergebnisse zeigen, dass die drei Faktoren, die die Modellleistung beeinflussen, sich gegenseitig beeinflussen. Das Chinchilla-Modell von DeepMind zeigt dabei herausragende Ergebnisse. Auch chinesische Unternehmen wie Baichuan Intelligence und Mind Model leisten Beiträge zur Erforschung von Skalierungsgesetzen. DeepMind hat außerdem die Levels-of-AGI-Klassifizierung vorgeschlagen, die verschiedene Entwicklungsstadien der künstlichen Intelligenz aufzeigt.