El 3 de julio de 2024, el Laboratorio de Inteligencia Artificial de Shanghai y SenseTime, en colaboración con la Universidad China de Hong Kong y la Universidad Fudan, lanzaron oficialmente InternLM2.5, un nuevo modelo de lenguaje grande de última generación (书生·浦语2.5).

El modelo InternLM2.5-7B ya está disponible de código abierto, y otros modelos de diferentes tamaños se lanzarán próximamente. El Laboratorio de Inteligencia Artificial de Shanghai se compromete a seguir ofreciendo licencias comerciales gratuitas y a apoyar la innovación de la comunidad a través de modelos de código abierto de alta calidad.

微信截图_20240708083247.png

Este modelo presenta mejoras significativas en los siguientes aspectos:

  1. Capacidad de razonamiento: InternLM2.5 ha mejorado significativamente su capacidad de razonamiento, superando en algunos aspectos al modelo Llama3-70B. En particular, ha logrado un aumento del 100% en el rendimiento en el conjunto de evaluación matemática MATH, alcanzando una precisión del 60%, comparable a la versión GPT-4 Turbo 1106.

  2. Soporte de texto largo: El modelo admite un contexto de hasta 1 millón de tokens, es decir, puede procesar textos largos de aproximadamente 1.2 millones de caracteres chinos. Se ha optimizado la comprensión de documentos largos y la interacción con agentes mediante el aumento de la longitud del contexto y los datos sintéticos.

  3. Planificación autónoma y llamada a herramientas: Posee la capacidad de buscar e integrar información de cientos de páginas web. A través del marco de múltiples agentes MindSearch, simula el proceso de pensamiento humano para integrar eficazmente la información en línea.

Enlace a Github: https://github.com/InternLM/InternLM

Enlace al modelo: https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm2_5-7b-chat

Página web de 书生·浦语: https://internlm.intern-ai.org.cn/