A Microsoft anunciou um novo membro da sua família de modelos de IA generativa Phi: o Phi-4. Comparado às versões anteriores, o Phi-4 apresenta melhorias em vários aspectos, com destaque para sua capacidade aprimorada de resolver problemas matemáticos, graças à melhoria na qualidade dos dados de treinamento.
Até quinta-feira à noite, o acesso ao Phi-4 era relativamente limitado, disponível apenas na plataforma de desenvolvimento Azure AI Foundry recém-lançada pela Microsoft e restrito a fins de pesquisa sob o acordo de licença de pesquisa da Microsoft.
Observação da fonte: Imagem gerada por IA, fornecida pela Midjourney.
O Phi-4 é o mais recente modelo de linguagem pequeno lançado pela Microsoft, com 14 bilhões de parâmetros. É comparável a outros modelos pequenos como GPT-4o mini, Gemini 2.0 Flash e Claude 3.5 Haiku. Esses modelos menores geralmente são mais rápidos e econômicos, e seu desempenho tem melhorado continuamente nos últimos anos.
A Microsoft atribui a melhoria de desempenho do Phi-4 ao uso de um "conjunto de dados sintéticos de alta qualidade" e de um conjunto de dados de alta qualidade de conteúdo gerado por humanos, além de melhorias pós-treinamento não divulgadas.
Atualmente, muitos laboratórios de inteligência artificial estão observando de perto o potencial dos dados sintéticos e do pós-treinamento para melhorar o desempenho do modelo. Alexandr Wang, CEO da Scale AI, mencionou em um tweet na quinta-feira: "Chegamos ao gargalo dos dados de pré-treinamento." Essa declaração corrobora alguns relatórios recentes sobre o assunto.
Além disso, vale notar que o Phi-4 é o primeiro modelo da série Phi lançado após a saída do vice-presidente de IA da Microsoft, Sébastien Bubeck. Bubeck desempenhou um papel importante na área de IA da Microsoft e foi uma figura chave no desenvolvimento dos modelos Phi. Bubeck deixou a Microsoft em outubro e ingressou na OpenAI.