A OpenAI lançou mais um grande recurso! Seu mais novo lançamento, o GPT-4o mini, é anunciado como o modelo pequeno “mais econômico e eficiente”. Isso não é apenas uma atualização de modelo, mas sim o início de uma verdadeira revolução na inteligência artificial. Hoje, vamos desvendar os mistérios do GPT-4o mini e ver como ele torna a inteligência mais “acessível”.
Mais inteligente, mais econômico
A visão da OpenAI é tornar a inteligência onipresente, e o GPT-4o mini é a mais recente demonstração dessa visão. Este modelo não apenas reduz significativamente os custos, mas também apresenta desempenho excepcional. Seu preço é de apenas US$ 0,15 por milhão de tokens de entrada e US$ 0,60 por milhão de tokens de saída, um custo significativamente menor do que os modelos de ponta anteriores, sendo mais de 60% mais barato que o GPT-3.5 Turbo.
O baixo custo e a baixa latência do GPT-4o mini permitem que ele execute uma ampla gama de tarefas, como chamar vários modelos em série ou em paralelo (como chamar várias APIs), passar grandes quantidades de contexto para o modelo (como toda uma base de código ou histórico de conversas) ou interagir com clientes por meio de respostas de texto em tempo real e rápidas (como um chatbot de suporte ao cliente).
Atualmente, o GPT-4o mini suporta APIs de texto e visão, e futuramente também suportará entrada e saída de texto, imagem, vídeo e áudio. O modelo possui uma janela de contexto de 128K tokens, suporta até 16K tokens de saída por solicitação e seu conhecimento está atualizado até outubro de 2023. Graças ao tokenizador aprimorado compartilhado com o GPT-4o, o processamento de texto não inglês agora é mais econômico e eficiente.
Tamanho compacto, grande inteligência
O GPT-4o mini superou o GPT-3.5 Turbo e outros modelos menores em testes de referência acadêmicos, tanto em inteligência textual quanto em raciocínio multimodal. Ele também suporta o mesmo alcance de idiomas que o GPT-4o e apresenta excelente desempenho em chamadas de função, o que permite que os desenvolvedores criem aplicativos capazes de obter dados ou executar operações com sistemas externos, além de melhorar o desempenho de contexto longo em comparação com o GPT-3.5 Turbo.
Desempenho do GPT-4o mini em testes de referência importantes:
Tarefas de raciocínio: Em tarefas de raciocínio envolvendo texto e visão, o GPT-4o mini obteve uma pontuação de 82,0%, enquanto o Gemini Flash obteve 77,9% e o Claude Haiku, 73,8%.
Capacidade matemática e de codificação: Em tarefas de raciocínio matemático e codificação, o GPT-4o mini também apresentou desempenho excelente. No teste MGSM (raciocínio matemático), obteve uma pontuação de 87,0%, enquanto o Gemini Flash obteve 75,5% e o Claude Haiku, 71,7%. No teste HumanEval (desempenho de codificação), obteve uma pontuação de 87,2%, enquanto o Gemini Flash obteve 71,5% e o Claude Haiku, 75,9%.
Raciocínio multimodal: Na avaliação de raciocínio multimodal MMMU, o GPT-4o mini obteve uma pontuação de 59,4%, enquanto o Gemini Flash obteve 56,1% e o Claude Haiku, 50,2%.
Medidas de segurança integradas
A segurança sempre foi fundamental no desenvolvimento de modelos da OpenAI. Na fase de pré-treinamento, a OpenAI filtra informações indesejadas para o modelo aprender ou gerar, como discurso de ódio, conteúdo adulto, sites que coletam principalmente informações pessoais e spam. Após o treinamento, a OpenAI utiliza técnicas como aprendizado por reforço com feedback humano (RLHF) para garantir que o comportamento do modelo esteja alinhado com as políticas da OpenAI, melhorando a precisão e a confiabilidade das respostas do modelo.
O GPT-4o mini possui as mesmas medidas de segurança do GPT-4o. A OpenAI realizou uma avaliação cuidadosa por meio de avaliações automatizadas e humanas, seguindo sua estrutura de preparação e compromissos voluntários. Mais de 70 especialistas externos em psicologia social e desinformação testaram o GPT-4o para identificar potenciais riscos. Atualmente, a OpenAI já solucionou esses problemas e planeja compartilhar detalhes em seus próximos cartões de sistema e pontuação de prontidão do GPT-4o. Os insights dessas avaliações de especialistas ajudaram a melhorar a segurança do GPT-4o e do GPT-4o mini.
Disponibilidade e preços
O GPT-4o mini está disponível agora como modelo de texto e visão nas APIs de assistente, conclusão de bate-papo e APIs em lote. Os desenvolvedores pagam US$ 0,15 por 1 milhão de tokens de entrada e US$ 0,60 por 1 milhão de tokens de saída (equivalente a aproximadamente 2.500 páginas de um livro padrão). Planejamos lançar o recurso de ajuste fino para o GPT-4o mini nos próximos dias.
No ChatGPT, os usuários gratuitos, Plus e de equipe poderão acessar o GPT-4o mini a partir de hoje, substituindo o GPT-3.5. Os usuários corporativos também terão acesso a partir da próxima semana, em conformidade com a missão da OpenAI de tornar os benefícios da IA acessíveis a todos.
Visão para o futuro
A equipe da OpenAI afirma: “Nos últimos anos, testemunhamos um progresso notável na inteligência da IA, juntamente com uma redução significativa de custos. Por exemplo, desde o lançamento do modelo text-davinci-003, com recursos mais limitados, em 2022, o custo por token do GPT-4o mini já caiu 99%. Estamos comprometidos em continuar reduzindo os custos e, ao mesmo tempo, aprimorando a capacidade dos modelos.”
“Nossa visão para o futuro é que os modelos sejam integrados perfeitamente a todos os aplicativos e sites. O GPT-4o mini prepara o caminho para os desenvolvedores construírem e dimensionarem aplicativos de IA poderosos de forma mais eficiente e econômica. O futuro da IA está se tornando mais acessível, confiável e integrado às nossas experiências digitais cotidianas, e estamos entusiasmados em continuar liderando essa tendência.”