Le 3 juillet 2024, le Laboratoire d'intelligence artificielle de Shanghai et SenseTime, en collaboration avec l'Université chinoise de Hong Kong et l'Université Fudan, ont officiellement lancé InternLM2.5, une nouvelle génération de grand modèle linguistique.

Le modèle InternLM2.5-7B est désormais open source, et les modèles d'autres tailles le seront progressivement. Le Laboratoire d'intelligence artificielle de Shanghai s'engage à continuer à fournir une licence commerciale gratuite et à soutenir l'innovation communautaire grâce à des modèles open source de haute qualité.

微信截图_20240708083247.png

Ce modèle présente des améliorations significatives dans les domaines suivants :

  1. Capacités de raisonnement : InternLM2.5 a considérablement amélioré ses capacités de raisonnement, surpassant le modèle Llama3-70B sur certains aspects. Il a notamment réalisé une amélioration de 100 % sur l'ensemble de tests mathématiques MATH, atteignant une précision de 60 %, comparable à la version GPT-4 Turbo 1106.

  2. Prise en charge de longs textes : Le modèle prend en charge un contexte jusqu'à 1 million de jetons, soit environ 1,2 million de caractères chinois. L'amélioration de la longueur du contexte et l'utilisation de données synthétiques ont optimisé la compréhension des longs documents et l'interaction avec les agents intelligents.

  3. Planification autonome et appel d'outils : Il possède la capacité de rechercher et d'intégrer des informations provenant de centaines de pages web. Grâce au framework multi-agents MindSearch, il simule le processus de pensée humaine pour intégrer efficacement les informations en ligne.

Lien Github : https://github.com/InternLM/InternLM

Lien du modèle : https://www.modelscope.cn/models/Shanghai_AI_Laboratory/internlm2_5-7b-chat

Page d'accueil InternLM : https://internlm.intern-ai.org.cn/