A OpenAI lançou um novo modelo experimental: gpt-4o-64k-output-alpha. O ponto alto deste novo modelo é a capacidade de gerar uma saída de até 64K tokens de uma só vez. Isso significa que ele pode gerar conteúdo mais rico e detalhado em uma única solicitação, mas a API tem um preço mais alto.
Participantes do programa Alpha podem acessar os resultados de saída longa do GPT-4o usando o nome do modelo “gpt-4o-64k-output-alpha”. Este modelo não apenas atende à necessidade de textos mais longos, mas também oferece suporte mais completo e detalhado para escrita, programação e análise de dados complexos.
Em termos de preço, usar um modelo com saída mais longa significa um custo correspondentemente maior. A OpenAI afirma claramente que a geração de textos longos tem um custo mais elevado, sendo o preço de US$ 18 por milhão de tokens de saída. Em comparação, o preço de entrada é de US$ 6 por milhão de tokens. Essa estratégia de precificação visa corresponder aos custos computacionais mais altos e também incentivar o uso responsável desta poderosa ferramenta.
Destaques:
📈 O modelo GPT-4o da OpenAI suporta saída de até 64K, ideal para usuários que precisam de conteúdo detalhado.
💰 O custo de geração de textos longos é maior, com US$ 18 por milhão de tokens de saída.
📝 Este modelo visa oferecer novas possibilidades para criação, pesquisa e outros campos, promovendo uma comunicação e criação mais profundas.