学術ニュース速報によると、清華大学、TAL AI Lab、智譜AIの研究者らが、大規模言語モデルの数学的推論能力を探るため、20億パラメーターの言語モデル「MathGLM」を開発しました。このモデルはTransformerデコーダアーキテクチャを採用し、大規模な算術データセットで訓練されており、数学演算能力が大幅に向上しています。実験結果によると、MathGLMは様々な算術演算タスクにおいて、正解率がほぼ100%に達し、GPT-4を明らかに上回っています。パラメーター数が1億しかない場合でも、GPT-4やChatGPTを凌駕しています。さらに、パラメーター数の増加に伴い、MathGLMの算術演算能力も向上することが分かりました。複雑な数字形式を含む混合算術演算においても、GPT-4やChatGPTより優れた性能を示しました。この研究は、パラメーター数とデータ量が十分であれば、言語モデルが複雑な数学演算を正確に実行できることを示唆しています。