De acordo com relatos da mídia estrangeira, a OpenAI, líder de mercado em inteligência artificial, está se preparando para lançar seu mais recente modelo de IA, com o codinome "Morango" (Strawberry), que deverá ser lançado oficialmente no ChatGPT nas próximas duas semanas.
Embora o nome "Morango" pareça simples, a capacidade deste modelo não deve ser subestimada. Ele consegue resolver problemas complexos por meio de raciocínio em várias etapas.
Segundo a reportagem do site *Information*, o modelo "Morango" será considerado um modelo de raciocínio, o que significa que ele pode lidar com solicitações que exigem vários passos para serem concluídas, como resolver problemas de álgebra complexos ou projetar uma campanha de marketing que levaria meses.
No entanto, é importante notar que, no lançamento, o modelo "Morango" suportará apenas o processamento de texto, diferentemente do modelo principal da OpenAI, o GPT-4o, que possui a capacidade de processar imagens e áudio.
Parece ótimo, mas o modelo "Morango" pode ser um pouco lento na resposta. Diz-se que o processamento de uma consulta pode levar de 10 a 20 segundos. Embora o modelo seja projetado para evitar o raciocínio profundo em solicitações simples, isso nem sempre acontece na prática.
Alguns testadores iniciais relataram que, embora a qualidade das respostas do "Morango" tenha melhorado, o tempo gasto esperando por essas respostas ligeiramente melhores pode não valer a pena.
Devido às suas necessidades funcionais, o modelo "Morango" pode consumir mais recursos computacionais do que seus antecessores, e o custo de uso também aumentará. Sabe-se que o modelo pode ter um limite no número de mensagens enviadas, permitindo apenas um número determinado de solicitações por hora. Além disso, um nível de uso mais caro pode ser lançado para oferecer velocidades de resposta mais rápidas.
Destaques:
🌟 A OpenAI está prestes a lançar um novo modelo de IA, "Morango", com capacidade de raciocínio em várias etapas, capaz de resolver problemas complexos.
⏳ O modelo "Morango" é relativamente lento no processamento de consultas, podendo levar de 10 a 20 segundos, e às vezes realiza raciocínio profundo mesmo em solicitações simples.
💰 O modelo pode exigir mais recursos computacionais, resultando em um custo de uso mais elevado e limitação no número de mensagens enviadas.