Em 3 de julho de 2024, o Laboratório de Inteligência Artificial de Xangai e a SenseTime, em conjunto com a Universidade Chinesa de Hong Kong e a Universidade Fudan, lançaram oficialmente o InternLM2.5, uma nova geração de modelo de linguagem grande.
O modelo InternLM2.5-7B já foi disponibilizado em código aberto, e modelos de outros tamanhos também serão disponibilizados gradualmente. O Laboratório de Inteligência Artificial de Xangai se compromete a continuar oferecendo licença comercial gratuita e a apoiar a inovação da comunidade por meio de modelos de código aberto de alta qualidade.
Este modelo apresenta melhorias significativas nos seguintes aspectos:
Capacidade de raciocínio: A capacidade de raciocínio do InternLM2.5 foi significativamente aprimorada, superando o modelo Llama3-70B em algumas dimensões. Em particular, no conjunto de avaliação matemática MATH, houve um aumento de desempenho de 100%, atingindo uma precisão de 60%, comparável à versão 1106 do GPT-4 Turbo.
Suporte a textos longos: O modelo suporta contextos de até 1 milhão de tokens, ou seja, pode processar textos longos com aproximadamente 1,2 milhão de caracteres chineses. Através do aumento do comprimento do contexto e dos dados sintéticos, a compreensão de documentos longos e a interação com agentes inteligentes foram otimizadas.
Planejamento autônomo e chamada de ferramentas: Possui a capacidade de pesquisar e integrar informações de centenas de páginas da web. Através da estrutura de múltiplos agentes MindSearch, simula o processo de pensamento humano, integrando informações da web de forma eficaz.
Link do Github:https://github.com/InternLM/InternLM
Link do modelo:https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm2_5-7b-chat
Página inicial do InternLM:https://internlm.intern-ai.org.cn/