Le 15 avril, OpenAI a annoncé sur son blog officiel la sortie officielle de la série de modèles GPT-4.1, comprenant les trois sous-modèles GPT-4.1, GPT-4.1 mini et GPT-4.1 nano. Cette série marque une avancée significative en termes de capacités de programmation, de compréhension des instructions et de traitement de longs textes, surpassant largement les générations précédentes, GPT-4o et GPT-4o mini. La fenêtre contextuelle du modèle a été étendue à 1 million de jetons, et la base de connaissances a été mise à jour jusqu'en juin 2024, offrant ainsi un support plus robuste pour les tâches complexes.

La série GPT-4.1 est actuellement uniquement accessible aux développeurs via une API. Les utilisateurs ordinaires ne peuvent pas encore l'expérimenter directement via l'interface ChatGPT. OpenAI a révélé que GPT-4.1 génère du code 40 % plus rapidement que GPT-4o, tout en réduisant les coûts de requête de 80 %, optimisant ainsi considérablement l'efficacité et les coûts de développement.

OpenAI lance la nouvelle série de modèles GPT-4.1 !  Plus intelligent et plus économique que GPT-4o

OpenAI lance la nouvelle série de modèles GPT-4.1 !  Plus intelligent et plus économique que GPT-4o

Performances : de nouveaux records établis lors de multiples tests de référence

  • Capacité de programmation : lors du test SWE-bench Verified, GPT-4.1 a obtenu un score de 54,6 %, soit une amélioration de 21,4 points de pourcentage par rapport à GPT-4o ;
  • Respect des instructions : amélioration de 10,5 points de pourcentage lors du test MultiChallenge ;
  • Traitement multi-modal : le test Video-MME a atteint un nouveau record de 72,0 %.

    GPT-4.1 mini a obtenu des résultats proches, voire supérieurs à ceux de GPT-4o lors de nombreux tests, avec une réduction de la latence de près de 50 % et une diminution des coûts de 83 %. Quant à GPT-4.1 nano, version allégée, avec une fenêtre contextuelle de 1 million de jetons et un score MMLU de 80,1 %, il devient le choix idéal en termes de rapport coût-efficacité pour les tâches de classification et de saisie semi-automatique. Grâce à l'optimisation de la pile d'inférence et à la technique de mise en cache des invites, le temps de réponse initial de la série de modèles a été considérablement réduit, offrant aux développeurs des solutions efficaces et économiques.

Résultats significatifs dans les applications réelles

  • Efficacité de la programmation : les tests Windsurf montrent une amélioration de 30 % de l'efficacité de la programmation avec GPT-4.1 et une réduction de 50 % des modifications inutiles ;
  • Domaine juridique : après l'intégration de GPT-4.1, l'assistant juridique IA CoCounsel de Thomson Reuters a vu sa précision dans l'examen de plusieurs documents augmenter de 17 %.

Le coût d'entrée pour GPT-4.1 est de 2 $ pour 1 million de jetons (environ 14,6 RMB), et le coût de sortie est de 8 $ (environ 58,3 RMB). Dans des scénarios de requête moyens, GPT-4.1 améliore ses performances par rapport à GPT-4o tout en réduisant les coûts de 26 %. GPT-4.1 nano, grâce à sa latence et ses coûts extrêmement bas, est actuellement le modèle le plus économique proposé par OpenAI.