शैक्षणिक समाचारों की रिपोर्ट है कि तिंगहुआ विश्वविद्यालय, TAL AI लैब और ज़्हिपू एआई के शोधकर्ताओं ने 20 अरब पैरामीटर वाला भाषा मॉडल MathGLM पेश किया है, जिसका उद्देश्य गणितीय तर्क में बड़े भाषा मॉडल की दक्षता का अन्वेषण करना है। यह मॉडल ट्रांसफार्मर डिकोडर आर्किटेक्चर का उपयोग करता है और बड़े पैमाने पर अंकगणितीय डेटा सेट पर प्रशिक्षित किया गया है, जिससे गणितीय संचालन की क्षमता में उल्लेखनीय सुधार हुआ है। प्रयोगात्मक परिणाम बताते हैं कि MathGLM विभिन्न अंकगणितीय संचालन कार्यों में लगभग 100% सटीकता पर है, जो GPT-4 से स्पष्ट रूप से बेहतर है। यहां तक कि जब पैरामीटर की संख्या केवल 1 अरब हो, तब भी MathGLM GPT-4 और ChatGPT से बेहतर प्रदर्शन करता है। शोध में यह भी पाया गया है कि जैसे-जैसे पैरामीटर की संख्या बढ़ती है, MathGLM की अंकगणितीय संचालन क्षमता भी बढ़ती है। जटिल मिश्रित अंकगणितीय संचालन के जटिल संख्या प्रारूपों को संभालने में भी MathGLM GPT-4 और ChatGPT से बेहतर है। यह अध्ययन दर्शाता है कि भाषा मॉडल में पैरामीटर और डेटा की मात्रा पर्याप्त होने पर जटिल गणितीय संचालन को सटीकता से किया जा सकता है।