Recientemente, el medio tecnológico The Decoder publicó un artículo sobre el último modelo de OpenAI, GPT-4.5, que ha generado dudas en la industria sobre su rentabilidad. Según los datos oficiales, aunque GPT-4.5 ha mejorado en rendimiento, su costo ha aumentado significativamente en comparación con su predecesor, GPT-4.
En concreto, GPT-4.5 supera a GPT-4 en varios aspectos con los siguientes porcentajes: consultas profesionales 63.2%, consultas cotidianas 57% y tareas creativas 56.8%. Sin embargo, estas mejoras oscilan entre el 6.8% y el 13.2%. Lo más llamativo es el costo de uso: GPT-4.5 cuesta 75 dólares por millón de tokens de entrada y 150 dólares por millón de tokens de salida. En comparación, GPT-4 costaba 2.5 dólares por millón de tokens de entrada y 10 dólares por millón de tokens de salida. Esto significa que el costo de entrada de GPT-4.5 es 30 veces mayor que el de GPT-4, mientras que el costo de salida es 15 veces mayor.
OpenAI afirma que GPT-4.5 no reemplazará a GPT-4 y está evaluando la viabilidad de ofrecer el modelo a largo plazo a través de su API. También están recopilando activamente comentarios de los usuarios para determinar si GPT-4.5 ofrece un valor único suficiente para justificar sus altos costos operativos. Cabe destacar que, si finalmente se decide interrumpir el servicio de GPT-4.5, los desarrolladores de aplicaciones que dependen de este modelo podrían enfrentarse a dificultades.
Para afrontar este desafío, OpenAI podría lanzar una versión optimizada, GPT-4.5 Turbo, para reducir los costos de uso. Sin embargo, dado que la mejora del rendimiento de GPT-4.5 es limitada, queda la duda de si ofrecerá ventajas significativas. El anterior GPT-4 Turbo, aunque más rápido y económico, generalmente tenía una calidad inferior al GPT-4 original.
En el contexto del rápido desarrollo de la IA, OpenAI se enfrenta al importante desafío de equilibrar el rendimiento del modelo con los costos de uso. Encontrar una solución viable afectará directamente a su competitividad en el mercado y a la aceptación por parte de los usuarios.