Según un artículo de noticias académicas, investigadores de la Universidad Tsinghua, TAL AI Lab e inteligencia artificial Zhihu han presentado MathGLM, un modelo de lenguaje de 2 mil millones de parámetros, para explorar la eficiencia de los grandes modelos de lenguaje en el razonamiento matemático. Este modelo utiliza una arquitectura de decodificador Transformer y se entrenó en un conjunto de datos aritméticos a gran escala, lo que mejoró significativamente su capacidad de cálculo matemático. Los resultados experimentales muestran que MathGLM alcanza una precisión cercana al 100% en una serie de tareas de cálculo aritmético, superando significativamente a GPT-4. Incluso con solo 100 millones de parámetros, MathGLM supera a GPT-4 y ChatGPT. La investigación también descubrió que la capacidad de cálculo aritmético de MathGLM aumenta con el aumento de los parámetros. MathGLM también supera a GPT-4 y ChatGPT en el manejo de operaciones aritméticas mixtas con formatos numéricos complejos. Esta investigación demuestra que, con suficientes parámetros y datos, los modelos de lenguaje pueden realizar cálculos matemáticos complejos con precisión.
Modelo de 2 mil millones de parámetros supera a GPT-4 en problemas de aritmética con una precisión cercana al 100%
