OpenAI et DeepMind ont des points de vue et des méthodes différentes concernant les lois d'échelle (Scaling Laws). Ces lois permettent de prédire l'évolution des pertes d'un grand modèle en fonction des variations du nombre de paramètres, de la quantité de données et de la puissance de calcul. Leur compétition stimulera le développement de l'intelligence artificielle et influencera l'avenir de la coexistence homme-machine. Le pré-entraînement des grands modèles de langage implique des compromis entre la taille du modèle, la quantité de données et le coût de formation. Les lois d'échelle peuvent aider à optimiser les décisions de conception. DeepMind propose d'augmenter la taille du modèle et la quantité de données de manière proportionnelle, tandis qu'OpenAI privilégie des modèles plus grands. DeepMind a développé AlphaGo et AlphaFold, démontrant le potentiel de l'apprentissage par renforcement profond et des réseaux neuronaux, tandis qu'OpenAI a développé la série de modèles GPT, démontrant des capacités exceptionnelles en matière de modèles génératifs. Les conclusions de la recherche montrent que les trois éléments influençant les performances du modèle interagissent entre eux, le modèle Chinchilla de DeepMind affichant d'excellents résultats. Des entreprises chinoises comme Baichuan Intelligent et Mind Model contribuent également à la recherche sur les lois d'échelle. DeepMind a proposé une méthode de classification des niveaux d'AGI (Intelligence Artificielle Générale), révélant les différentes phases de développement de l'intelligence artificielle.