OpenAI ha lanzado un nuevo modelo experimental: gpt-4o-64k-output-alpha. Lo más destacado de este nuevo modelo es su capacidad para generar una salida de hasta 64K tokens en una sola solicitud. Esto significa que puede producir contenido más rico y detallado en una sola petición, aunque el precio de la API es más elevado.

image.png

Los participantes del programa Alpha pueden acceder a los resultados de salida larga de GPT-4o utilizando el nombre del modelo "gpt-4o-64k-output-alpha". Este modelo no solo satisface la necesidad de textos más largos, sino que también ofrece un soporte más completo y detallado para la escritura, la programación y el análisis de datos complejos.

En cuanto al precio, el uso de un modelo con salida más larga implica un aumento de los costes. OpenAI ha indicado claramente que la generación de textos largos tiene un coste mayor, por lo que el precio por millón de tokens de salida es de 18 dólares. En comparación, el precio por millón de tokens de entrada es de 6 dólares. Esta estrategia de precios busca reflejar los mayores costes computacionales y, al mismo tiempo, incentivar el uso responsable de esta potente herramienta.

image.png

Puntos clave:

📈  El modelo GPT-4o de OpenAI admite una salida de hasta 64K tokens, ideal para usuarios que necesitan contenido detallado.  

💰  El coste de generación de textos largos es mayor, con un precio de 18 dólares por millón de tokens de salida.  

📝  Este modelo está diseñado para ofrecer nuevas posibilidades en áreas como la creación y la investigación, impulsando una comunicación y creación más profundas.