Am 3. Juli 2024 gaben das Shanghai Artificial Intelligence Laboratory und SenseTime gemeinsam mit der Chinesischen Universität Hongkong und der Fudan-Universität die neue Generation des großen Sprachmodells 书生·浦语 2.5 (InternLM2.5) bekannt.
Das InternLM2.5-7B-Modell wurde bereits Open Source veröffentlicht, weitere Modelle werden nach und nach folgen. Das Shanghai Artificial Intelligence Laboratory hat sich verpflichtet, weiterhin kostenlose kommerzielle Lizenzen anzubieten und die Community-Innovation durch hochwertige Open-Source-Modelle zu unterstützen.
Das Modell weist folgende signifikante Verbesserungen auf:
Schlussfolgerungsfähigkeit: Die Schlussfolgerungsfähigkeit von InternLM2.5 wurde deutlich verbessert und übertrifft in einigen Bereichen das Llama3-70B-Modell. Besonders beim mathematischen Testdatensatz MATH wurde eine Leistungssteigerung von 100 % erzielt, mit einer Genauigkeit von 60 %, vergleichbar mit der GPT-4 Turbo 1106 Version.
Unterstützung langer Texte: Das Modell unterstützt Kontexte mit bis zu 1 Million Tokens, d. h. es kann lange Texte mit ca. 1,2 Millionen chinesischen Schriftzeichen verarbeiten. Durch die Erhöhung der Kontextlänge und die Verwendung synthetischer Daten wurde das Verständnis langer Dokumente und die Interaktion mit intelligenten Agenten optimiert.
Autonome Planung und Werkzeugaufrufe: Es verfügt über die Fähigkeit, Informationen von Hunderten von Webseiten zu suchen und zu integrieren. Durch das MindSearch-Multi-Agenten-Framework wird der menschliche Denkprozess simuliert, um Netzwerk-Informationen effektiv zu integrieren.
Github-Link:https://github.com/InternLM/InternLM
Modell-Link:https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm2_5-7b-chat
书生·浦语 Homepage:https://internlm.intern-ai.org.cn/