Recientemente, se publicó la clasificación de modelos de IA generada por millones de usuarios globales a través de pruebas a ciegas, donde el modelo de IA nacional "Yi-Lightning" logró una remontada, superando a GPT-4, que había ocupado el primer lugar durante mucho tiempo.

"Yi-Lightning", desarrollado por la reconocida empresa china de IA Ling Yi Wan Wu, se ubicó entre los mejores en varias subclasificaciones, ocupando incluso el tercer lugar en la clasificación de matemáticas junto a gigantes internacionales.

Cabe destacar que la puntuación de "Yi-Lightning" es casi idéntica a la del modelo xAI de Musk, Grok-2-08-13, y supera significativamente a otros competidores como GPT-4o-2024-05-13, GPT-4o-mini-2024-07-18 y Claude3.5Sonnet.

image.png

Las reglas de selección de esta clasificación han sufrido cambios importantes, priorizando la capacidad del modelo de IA para resolver problemas reales en lugar de centrarse únicamente en la longitud y el estilo de las respuestas.

Bajo las nuevas reglas, "Yi-Lightning" sigue compitiendo en el mismo nivel que GPT-4 y Grok-2, demostrando su gran potencia.

image.png

La traducción es un área importante de aplicación de los modelos de inteligencia artificial, ya que pone a prueba exhaustivamente las capacidades del modelo en comprensión del lenguaje, generación, comunicación entre idiomas y comprensión del contexto. En comparación con modelos como Qwen2.5-72b-Instruct, DeepSeek-V2.5 y Doubao-pro, Yi-Lightning demostró un rendimiento excepcional en tareas de traducción: no solo es más rápido, sino que sus traducciones son más literarias y se adaptan mejor al estilo de expresión chino.

Por ejemplo, tomando al azar un fragmento de texto en inglés sobre la Catedral de Notre Dame de París, Yi-Lightning no solo tradujo más rápido, sino que también ofreció una traducción más fiel al contexto chino:

1.jpg

2.jpg

Las innovaciones tecnológicas detrás del modelo Yi-Lightning también son impresionantes. Utiliza una arquitectura de modelo de experto mixto, optimizando el mecanismo de atención mixto para reducir significativamente el coste de inferencia al procesar datos de secuencias largas. Además, Yi-Lightning incorpora un mecanismo de atención entre capas, permitiendo un intercambio de información más eficiente entre diferentes niveles.

Lo más interesante es que Yi-Lightning puede seleccionar dinámicamente la combinación más adecuada de redes expertas según la dificultad de la tarea. Durante el entrenamiento, todas las redes expertas están activadas, pero durante la inferencia, Yi-Lightning activa selectivamente las redes expertas relevantes según la tarea específica, garantizando así una gestión eficaz de diversos desafíos.

"Yi-Lightning" utiliza una arquitectura de modelo de experto mixto y un mecanismo de atención mixto optimizado, lo que permite procesar eficientemente datos de secuencias largas y compartir información de manera eficiente entre diferentes niveles a través de un mecanismo de atención entre capas.

Aún más sorprendente es la capacidad de "Yi-Lightning" para seleccionar dinámicamente la combinación más adecuada de redes expertas según la dificultad de la tarea, garantizando así una respuesta eficaz ante cualquier desafío.

image.png

El Dr. Kai-Fu Lee, fundador y CEO de Ling Yi Wan Wu, afirma que el modelo "Yi-Lightning" aplicó múltiples estrategias durante la fase de preentrenamiento para garantizar que el modelo no solo sea rápido, sino que también aprenda un conocimiento más amplio.

image.png

Además, la estrategia de precios de "Yi-Lightning" es muy competitiva, con un coste de solo 0,99 yuanes por millón de tokens, ofreciendo una excelente relación calidad-precio. El Dr. Kai-Fu Lee también señala que el excelente rendimiento de "Yi-Lightning" ha reducido la brecha entre la IA nacional y los modelos de IA internacionales de primer nivel a cinco meses, lo que representa no solo un avance tecnológico, sino también un impulso a la confianza en la industria de la IA nacional.

QQ20241016-150316.jpg

Referencia: https://x.com/lmarena_ai/status/1846245604890116457