OpenAI frappe encore plus fort ! Leur dernier modèle, GPT-4o mini, se présente comme le modèle léger le plus « économique et pratique ». Ce n'est pas qu'une simple mise à niveau, c'est le début d'une véritable révolution de l'intelligence. Aujourd'hui, levons ensemble le voile sur le mystère de GPT-4o mini et découvrons comment il rend l'intelligence plus « accessible ».
Plus intelligent, plus économique
La vision d'OpenAI est de rendre l'intelligence omniprésente, et GPT-4o mini est la dernière concrétisation de cette vision. Ce modèle réduit considérablement les coûts tout en maintenant des performances exceptionnelles. Son prix est de seulement 15 cents par million de jetons d'entrée et 60 cents par million de jetons de sortie, soit un ordre de grandeur moins cher que les modèles de pointe précédents, et plus de 60 % moins cher que GPT-3.5 Turbo.
Son faible coût et sa faible latence permettent à GPT-4o mini de s'acquitter d'un large éventail de tâches, telles que l'appel de plusieurs modèles en série ou en parallèle (par exemple, l'appel de plusieurs API), la transmission d'un contexte volumineux au modèle (par exemple, une base de code entière ou l'historique d'une conversation), ou l'interaction en temps réel avec les clients via des réponses textuelles rapides (par exemple, un chatbot de support client).
Actuellement, GPT-4o mini prend en charge les API texte et visuelle, et prendra en charge à l'avenir les entrées et sorties texte, image, vidéo et audio. Le modèle dispose d'une fenêtre contextuelle de 128 K jetons, prend en charge jusqu'à 16 K jetons de sortie par requête, et sa date limite de connaissances est octobre 2023. Grâce au tokeniseur amélioré partagé avec GPT-4o, le traitement de textes non anglais est désormais plus économique et efficace.
Petite taille, grande intelligence
GPT-4o mini surpasse GPT-3.5 Turbo et d'autres modèles légers lors de tests de référence académiques, tant en matière d'intelligence textuelle que de raisonnement multimodale. Il prend également en charge les mêmes langues que GPT-4o et excelle dans les appels de fonctions, ce qui permet aux développeurs de créer des applications capables d'obtenir des données auprès de systèmes externes ou d'exécuter des opérations. Par rapport à GPT-3.5 Turbo, il améliore les performances avec de longs contextes.
Performances de GPT-4o mini lors de tests de référence clés :
Tâches de raisonnement : Dans les tâches de raisonnement impliquant du texte et des visuels, GPT-4o mini a obtenu un score de 82,0 %, contre 77,9 % pour Gemini Flash et 73,8 % pour Claude Haiku.
Capacités mathématiques et de codage : GPT-4o mini a également excellé dans les tâches de raisonnement mathématique et de codage. Lors du test MGSM (raisonnement mathématique), il a obtenu un score de 87,0 %, contre 75,5 % pour Gemini Flash et 71,7 % pour Claude Haiku. Lors du test HumanEval (performances de codage), il a obtenu un score de 87,2 %, contre 71,5 % pour Gemini Flash et 75,9 % pour Claude Haiku.
Raisonnement multimodale : Lors du test MMMU (évaluation du raisonnement multimodale), GPT-4o mini a obtenu un score de 59,4 %, contre 56,1 % pour Gemini Flash et 50,2 % pour Claude Haiku.
Mesures de sécurité intégrées
La sécurité est au cœur du développement des modèles OpenAI. Durant la phase de pré-entraînement, OpenAI filtre les informations indésirables que le modèle ne doit pas apprendre ou produire, telles que les discours haineux, le contenu pour adultes, les sites Web collectant principalement des informations personnelles et les spams. Après l'entraînement, OpenAI utilise des techniques telles que l'apprentissage par renforcement avec rétroaction humaine (RLHF) pour aligner le comportement du modèle sur les politiques d'OpenAI, améliorant ainsi la précision et la fiabilité des réponses du modèle.
GPT-4o mini intègre les mêmes mesures d'atténuation des risques que GPT-4o. OpenAI a procédé à une évaluation minutieuse, par le biais d'évaluations automatisées et humaines, conformément à son cadre de préparation initial et à ses engagements volontaires. Plus de 70 experts externes dans des domaines tels que la psychologie sociale et la désinformation ont testé GPT-4o pour identifier les risques potentiels. OpenAI a désormais résolu ces problèmes et prévoit de partager des détails dans les prochaines cartes de notation des systèmes et de préparation de GPT-4o. Les conclusions de ces évaluations d'experts ont contribué à améliorer la sécurité de GPT-4o et de GPT-4o mini.
Disponibilité et tarification
GPT-4o mini est désormais disponible en tant que modèle texte et visuel via les API Assistant, Chat Completion et Batch. Les développeurs paient 15 cents par million de jetons d'entrée et 60 cents par million de jetons de sortie (ce qui équivaut à environ 2500 pages d'un livre standard). Nous prévoyons de lancer une fonction de réglage fin pour GPT-4o mini dans les prochains jours.
Dans ChatGPT, les utilisateurs gratuits, Plus et Entreprise pourront accéder à GPT-4o mini à partir d'aujourd'hui, en remplacement de GPT-3.5. Les utilisateurs professionnels y accéderont également à partir de la semaine prochaine, conformément à la mission d'OpenAI de rendre les avantages de l'IA accessibles à tous.
Perspectives d'avenir
L'équipe OpenAI déclare : « Au cours des dernières années, nous avons constaté des progrès considérables en matière d'intelligence artificielle, parallèlement à une forte baisse des coûts. Par exemple, depuis le lancement du modèle text-davinci-003, moins performant, en 2022, le coût par jeton de GPT-4o mini a diminué de 99 %. Nous nous engageons à continuer de réduire les coûts tout en améliorant les capacités du modèle. »
« Nous envisageons un avenir où les modèles seront intégrés de manière transparente à chaque application et à chaque site Web. GPT-4o mini ouvre la voie aux développeurs pour construire et étendre des applications d'IA puissantes de manière plus efficace et économique. L'avenir de l'IA est en train de devenir plus accessible, plus fiable et intégré à nos expériences numériques quotidiennes, et nous sommes ravis de continuer à mener cette tendance. »