上海人工智能实验室在2024年7月4日的WAIC科学前沿主论坛上推出了书生·浦语系列模型的新版本InternLM2.5。这个版本在复杂场景下的推理能力得到了全面增强,支持1M超长上下文,并能自主进行互联网搜索及整合上百个网页的信息。
InternLM2.5发布了三种参数版本的模型,分别是1.8B、7B和20B,以适应不同应用场景和开发者需求。1.8B版本是超轻量级模型,20B版本则提供更强的综合性能,支持更复杂的实用场景。所有这些模型都已开源,可以在书生·浦语系列大模型主页、ModelScope主页以及Hugging Face主页上找到。
InternLM2.5在多个数据合成技术上进行了迭代,显著提升了模型的推理能力,特别是在数学评测集MATH上的准确率达到了64.7%。此外,模型通过在预训练阶段进行高效训练,提升了上下文长度的处理能力。
InternLM2.5系列模型还实现了与下游推理和微调框架的无缝对接,包括上海人工智能实验室自主研发的XTuner微调框架和LMDeploy推理框架,以及其他社区中有广泛用户基础的框架如vLLM、Ollama和llama.cpp。魔搭社区推出的SWIFT工具也支持InternLM2.5系列模型的推理、微调和部署。
这些模型的应用体验包括多步复杂推理、多轮对话意图的精准理解、灵活的格式控制操作以及遵循复杂指令的能力。提供了详细的安装和使用指南,方便开发者快速上手。
书生·浦语系列大模型主页:
https://internlm.intern-ai.org.cn
ModelScope 主页:
https://www.modelscope.cn/organization/Shanghai_AI_Laboratory?tab=model
Hugging Face 主页:
https://huggingface.co/internlm
InternLM2.5开源链接:
https://github.com/InternLM/InternLM