Notícias acadêmicas relatam que pesquisadores da Universidade Tsinghua, TAL AI Lab e ZhiPu AI apresentaram o MathGLM, um modelo de linguagem de 2 bilhões de parâmetros, para explorar a eficiência dos grandes modelos de linguagem em raciocínio matemático. O modelo emprega uma arquitetura de decodificador Transformer e foi treinado em um conjunto de dados aritméticos em larga escala, resultando em um aumento significativo na capacidade de cálculo matemático. Os resultados experimentais mostram que o MathGLM alcança uma precisão próxima de 100% em uma série de tarefas de operações aritméticas, superando significativamente o GPT-4. Mesmo com apenas 100 milhões de parâmetros, o MathGLM supera o GPT-4 e o ChatGPT. A pesquisa também descobriu que, com o aumento do número de parâmetros, a capacidade de cálculo aritmético do MathGLM também aumenta. Ao lidar com operações aritméticas mistas com formatos numéricos complexos, o MathGLM também supera o GPT-4 e o ChatGPT. Este estudo demonstra que, com parâmetros e quantidade de dados suficientes, os modelos de linguagem podem realizar cálculos matemáticos complexos com precisão.