La plataforma Aliyun Bailian ha anunciado recientemente el lanzamiento de Qwen2.5-Turbo, un modelo de texto largo con capacidad para procesar hasta 1 millón de tokens. Desarrollado por el equipo Tongyi Qianwen, Qwen2.5-Turbo admite contextos extremadamente largos, equivalentes a 1 millón de palabras en inglés o 1,5 millones de caracteres chinos.
Este nuevo modelo alcanza una precisión del 100% en tareas de recuperación de texto largo y obtiene una puntuación de 93,1 en el conjunto de evaluación RULER, superando a GPT-4. En tareas de texto largo que simulan escenarios reales, como LV-Eval y LongBench-Chat, Qwen2.5-Turbo supera a GPT-4o-mini en la mayoría de las dimensiones. En las pruebas de referencia de texto corto, Qwen2.5-Turbo también presenta un rendimiento excepcional, superando significativamente a los modelos de código abierto anteriores con una longitud de contexto de 1 millón de tokens.
Qwen2.5-Turbo tiene amplias aplicaciones, incluyendo la comprensión profunda de novelas largas, asistentes de código a gran escala y la lectura de múltiples artículos académicos. Puede procesar simultáneamente 10 novelas largas, 150 horas de discursos o 30.000 líneas de código. En cuanto a la velocidad de inferencia, el equipo de Tongyi Qianwen ha comprimido la carga computacional aproximadamente 12,5 veces mediante un mecanismo de atención dispersa, reduciendo el tiempo de retorno del primer carácter para un contexto de 1 millón de tokens de 4,9 minutos a 68 segundos, lo que representa una mejora de velocidad del 4,3 veces.
La plataforma Aliyun Bailian ofrece a todos los usuarios la posibilidad de llamar directamente a la API de Qwen2.5-Turbo, con un regalo limitado de 10 millones de tokens. El costo posterior del uso de un millón de tokens será de solo 0,3 yuanes.
Actualmente, la plataforma Aliyun Bailian ofrece más de 200 modelos nacionales e internacionales de código abierto y propietario, incluyendo Qwen, Llama y ChatGLM, permitiendo a los usuarios llamarlos directamente, entrenarlos, ajustarlos finamente o crear aplicaciones RAG.