Das Shanghai AI Laboratory stellte auf dem WAIC-Hauptforum für wissenschaftliche Fortschritte am 4. Juli 2024 eine neue Version des Shusheng·Puyu-Modellserien, InternLM2.5, vor. Diese Version bietet eine umfassend verbesserte Inferenzfähigkeit in komplexen Szenarien, unterstützt einen extrem langen Kontext von 1M Tokens und kann selbstständig im Internet suchen und Informationen von über hundert Webseiten zusammenführen.
InternLM2.5 wurde in drei Varianten mit unterschiedlichen Parametergrößen veröffentlicht: 1,8B, 7B und 20B, um verschiedenen Anwendungsfällen und Entwicklerbedürfnissen gerecht zu werden. Die 1,8B-Version ist ein ultraleichtes Modell, während die 20B-Version eine höhere Gesamtleistung bietet und komplexere praktische Szenarien unterstützt. Alle Modelle sind Open Source und können auf der Webseite der Shusheng·Puyu-Modellserie, auf ModelScope und auf Hugging Face gefunden werden.
InternLM2.5 wurde in mehreren Bereichen der Datensynthese-Technologien iterativ verbessert, was die Inferenzfähigkeit des Modells deutlich gesteigert hat. Besonders hervorzuheben ist die Genauigkeit von 64,7 % im mathematischen Benchmark MATH. Darüber hinaus wurde durch ein effizientes Training in der Pre-Training-Phase die Fähigkeit zur Verarbeitung längerer Kontexte verbessert.
Die InternLM2.5-Modellserie lässt sich nahtlos in Downstream-Inferenz- und Feinabstimmungs-Frameworks integrieren, darunter das vom Shanghai AI Laboratory selbst entwickelte XTuner-Feinabstimmungs-Framework und das LMDeploy-Inferenz-Framework sowie andere Frameworks mit einer breiten Nutzerbasis in der Community wie vLLM, Ollama und llama.cpp. Das von der Moda-Community entwickelte SWIFT-Tool unterstützt ebenfalls die Inferenz, Feinabstimmung und Bereitstellung der InternLM2.5-Modellserie.
Zu den Anwendungsmöglichkeiten gehören mehrstufige komplexe Inferenzen, präzises Verständnis mehrstufiger Dialogabsichten, flexible Formatierungskontrolle und die Fähigkeit, komplexe Anweisungen zu befolgen. Ausführliche Installations- und Nutzungsanleitungen erleichtern Entwicklern den Einstieg.
Webseite der Shusheng·Puyu-Modellserie:
https://internlm.intern-ai.org.cn
ModelScope Webseite:
https://www.modelscope.cn/organization/Shanghai_AI_Laboratory?tab=model
Hugging Face Webseite:
https://huggingface.co/internlm
InternLM2.5 Open Source Link:
https://github.com/InternLM/InternLM