A OpenAI anunciou recentemente a demonstração detalhada do processo de raciocínio de seu mais recente modelo de raciocínio, o o3-mini. Essa ação é vista como uma resposta à crescente pressão de seu concorrente, o DeepSeek-R1.
Anteriormente, a OpenAI mantinha o "Chain of Thought" (CoT) como uma vantagem competitiva central, optando por mantê-lo oculto. No entanto, com modelos abertos como o DeepSeek-R1 exibindo completamente suas trajetórias de raciocínio, essa estratégia fechada tornou-se uma desvantagem para a OpenAI. Embora o novo o3-mini ainda não revele completamente as marcações originais, ele oferece uma demonstração mais clara do processo de raciocínio.
Em termos de desempenho e custo, a OpenAI também está buscando se aproximar. O preço do o3-mini foi reduzido para US$ 4,40 por milhão de tokens de saída, muito abaixo dos US$ 60 do modelo o1 anterior, aproximando-se da faixa de US$ 7-8 do DeepSeek-R1 em provedores americanos. Ao mesmo tempo, o o3-mini superou seus antecessores em vários testes de referência de raciocínio.
Testes práticos mostram que a demonstração detalhada do processo de raciocínio do o3-mini realmente melhorou a utilidade do modelo. Ao lidar com dados não estruturados, os usuários conseguem entender melhor a lógica de raciocínio do modelo, permitindo otimizar as instruções para obter resultados mais precisos.
O CEO da OpenAI, Sam Altman, recentemente admitiu ter "estado do lado errado da história" no debate sobre código aberto. Com a adoção e melhoria do DeepSeek-R1 por diversas instituições, os ajustes futuros da OpenAI em sua estratégia de código aberto merecem atenção.