Selon un article publié par Academic Headlines, des chercheurs de l'Université Tsinghua, de TAL AI Lab et de Zhipu AI ont présenté MathGLM, un modèle linguistique de 2 milliards de paramètres, conçu pour explorer l'efficacité des grands modèles linguistiques en matière de raisonnement mathématique. Ce modèle utilise une architecture de décodeur Transformer et a été entraîné sur un ensemble de données arithmétiques à grande échelle, ce qui a considérablement amélioré ses capacités de calcul mathématique. Les résultats expérimentaux montrent que MathGLM atteint une précision proche de 100 % sur une série de tâches de calcul arithmétique, surpassant nettement GPT-4. Même avec seulement 100 millions de paramètres, MathGLM surpasse GPT-4 et ChatGPT. L'étude a également révélé que les capacités de calcul arithmétique de MathGLM augmentent avec le nombre de paramètres. MathGLM surpasse également GPT-4 et ChatGPT dans le traitement des opérations arithmétiques mixtes avec des formats numériques complexes. Cette recherche montre que, avec un nombre suffisant de paramètres et de données, les modèles linguistiques peuvent effectuer des calculs mathématiques complexes avec précision.