Según informes de medios internacionales, OpenAI, líder en el mercado de la inteligencia artificial, se prepara para lanzar su último modelo de IA, con el nombre clave "Fresa" (Strawberry), que se espera que se lance oficialmente en ChatGPT en las próximas dos semanas.
Aunque el nombre "Fresa" suena simple, la capacidad de este modelo no debe subestimarse. Es capaz de resolver problemas complejos mediante razonamiento de múltiples pasos.
Según el sitio web Información, el modelo "Fresa" se considera un modelo de razonamiento, lo que significa que puede manejar solicitudes que requieren múltiples pasos para completarse, como resolver problemas de álgebra complejos o diseñar una campaña de marketing de varios meses.
Sin embargo, es importante tener en cuenta que, en su lanzamiento, el modelo "Fresa" solo admite procesamiento de texto, a diferencia del modelo insignia de OpenAI, GPT-4, que puede procesar imágenes y audio.
Suena bien, pero el modelo "Fresa" podría ser un poco lento en su respuesta. Se dice que procesar una consulta puede tardar entre 10 y 20 segundos. Aunque el modelo está diseñado para evitar el razonamiento profundo en solicitudes simples, esto no siempre es así en la práctica.
Algunos probadores tempranos han indicado que, si bien la calidad de las respuestas de "Fresa" ha mejorado, el tiempo perdido esperando estas respuestas ligeramente mejores puede no valer la pena.
Debido a los requisitos de sus funciones, el modelo "Fresa" puede consumir más recursos de computación que sus predecesores, lo que también aumentará los costos de uso. Se informa que el modelo podría establecer un límite en la cantidad de mensajes enviados, permitiendo a los usuarios enviar solo una cantidad determinada de solicitudes por hora. Además, podría lanzarse un nivel de uso de mayor precio para ofrecer una velocidad de respuesta más rápida.
Puntos clave:
🌟 OpenAI lanzará pronto su nuevo modelo de IA "Fresa", con capacidad de razonamiento de múltiples pasos para resolver problemas complejos.
⏳ El modelo "Fresa" es relativamente lento en el procesamiento de consultas, pudiendo tardar entre 10 y 20 segundos, y a veces realiza razonamiento profundo incluso en solicitudes simples.
💰 El modelo puede requerir más recursos informáticos, lo que aumentará los costos de uso y se establecerá un límite en la cantidad de mensajes enviados.