Rakuten Group anuncia el lanzamiento de sus primeros modelos de lenguaje grandes (LLM) y pequeños (SLM) en japonés, denominados Rakuten AI2.0 y Rakuten AI2.0mini.
El lanzamiento de estos dos modelos tiene como objetivo impulsar el desarrollo de la inteligencia artificial (IA) en Japón. Rakuten AI2.0, basado en una arquitectura de experto mixto (MoE), es un modelo 8x7B compuesto por ocho modelos con 7000 millones de parámetros cada uno, actuando cada uno como un experto. Cuando se procesa un token de entrada, el sistema lo envía a los dos expertos más relevantes, siendo un router el encargado de la selección. Estos expertos y el router se entrenan conjuntamente con una gran cantidad de datos bilingües de alta calidad en japonés e inglés.
Rakuten AI2.0mini es un nuevo modelo denso con 1500 millones de parámetros, diseñado para la implementación rentable en dispositivos de borde y adecuado para aplicaciones específicas. También se entrena con datos mixtos en japonés e inglés, con el objetivo de ofrecer soluciones convenientes. Ambos modelos han sido ajustados con instrucciones y optimizados por preferencias, lanzándose modelos base y modelos de instrucciones para ayudar a las empresas y profesionales a desarrollar aplicaciones de IA.
Todos los modelos utilizan la licencia Apache2.0 y están disponibles en el repositorio oficial de Rakuten Group en Hugging Face. Los usos comerciales incluyen la generación de texto, el resumen de contenido, las preguntas y respuestas, la comprensión de texto y la creación de sistemas de diálogo. Además, estos modelos pueden servir como base para otros modelos, facilitando su posterior desarrollo y aplicación.
Ting Cai, Directora de IA y Datos de Rakuten Group, comentó: "Estoy inmensamente orgullosa de cómo nuestro equipo ha combinado datos, ingeniería y ciencia para lanzar Rakuten AI2.0. Nuestros nuevos modelos de IA ofrecen soluciones potentes y rentables que ayudan a las empresas a tomar decisiones inteligentes, acelerar la creación de valor y abrir nuevas posibilidades. Al abrir los modelos, esperamos acelerar el desarrollo de la IA en Japón, animando a todas las empresas japonesas a construir, experimentar y crecer, impulsando una comunidad colaborativa y mutuamente beneficiosa."
Blog oficial: https://global.rakuten.com/corp/news/press/2025/0212_02.html
Puntos clave:
🌟 Rakuten Group lanza sus primeros modelos de lenguaje grandes (LLM) y pequeños (SLM) en japonés, llamados Rakuten AI2.0 y Rakuten AI2.0mini.
📊 Rakuten AI2.0 se basa en una arquitectura de experto mixto, con ocho modelos expertos de 7000 millones de parámetros cada uno, enfocados en el procesamiento eficiente de datos bilingües japonés-inglés.
🛠️ Todos los modelos están disponibles en el repositorio oficial de Rakuten en Hugging Face, aptos para diversas tareas de generación de texto y utilizables como base para otros modelos.