OpenAI a récemment dévoilé le processus de raisonnement détaillé de son nouveau modèle d'inférence, o3-mini. Cette décision est perçue comme une réponse à la pression croissante exercée par son concurrent, DeepSeek-R1.

Ce changement marque un tournant important dans la stratégie d'OpenAI en matière de transparence des modèles. Auparavant, OpenAI considérait la "chaîne de pensée" (Chain of Thought, CoT) comme un avantage concurrentiel clé et choisissait de la garder secrète. Cependant, avec la présentation complète des traces de raisonnement des modèles ouverts tels que DeepSeek-R1, cette stratégie de confidentialité est devenue un point faible pour OpenAI. Bien que le nouveau o3-mini ne révèle pas encore entièrement ses jetons d'origine, il offre une présentation plus claire du processus de raisonnement.

QQ20250208-093702.png

En termes de performances et de coûts, OpenAI rattrape également son retard. Le prix de o3-mini a été réduit à 4,40 $ par million de jetons de sortie, soit bien moins que les 60 $ du modèle o1 initial, se rapprochant ainsi des 7 à 8 $ de DeepSeek-R1 chez les fournisseurs américains. Simultanément, o3-mini surpasse ses prédécesseurs dans plusieurs tests de référence d'inférence.

QQ20250208-093712.png

Des tests pratiques montrent que la présentation détaillée du processus de raisonnement de o3-mini améliore effectivement son utilité. Lors du traitement de données non structurées, les utilisateurs peuvent mieux comprendre la logique de raisonnement du modèle, ce qui leur permet d'optimiser les invites pour obtenir des résultats plus précis.

Le PDG d'OpenAI, Sam Altman, a récemment admis avoir "pris le mauvais côté de l'histoire" sur le débat de l'open source. Avec l'adoption et l'amélioration de DeepSeek-R1 par plusieurs institutions, les ajustements futurs de la stratégie open source d'OpenAI méritent d'être suivis de près.