MiniMax, una empresa de tecnología, anunció recientemente que desde su fundación a finales de 2021, ha construido modelos de lenguaje, voz e imagen basados en MoE con billones de parámetros. También ha lanzado aplicaciones nativas como Xingye y Hailuo AI, y ofrece servicios de API de plataforma abierta para empresas y desarrolladores.
En los últimos 996 días, los modelos de lenguaje de MiniMax han interactuado con usuarios finales un promedio de 3.000 millones de veces al día, procesando más de 3 billones de tokens de texto, generando 20 millones de imágenes y 70.000 horas de audio. Estas interacciones demuestran el rápido progreso y la amplia influencia de la compañía en el campo de la inteligencia artificial.
El fundador de MiniMax, IO, enfatizó que a pesar de los avances significativos, la compañía aún tiene un largo camino por recorrer para lograr su objetivo de conectar inteligentemente al 100% de la población mundial. Para lograr esto, MiniMax continuará enfocándose en la innovación tecnológica, especialmente en la reducción del margen de error de los modelos, el soporte para entradas y salidas ilimitadas y la interacción multimodal.
En este evento para socios, MiniMax lanzó los modelos de video abab-video-1 y de música abab-music-1, y actualizó el modelo de voz abab-speech-1. Además, MiniMax lanzará en las próximas semanas el modelo multimodal abab7, que utiliza la tecnología MoE + Linear Attention.
Además, MiniMax presentó modelos avanzados de voz y video, incluyendo modelos de voz que admiten múltiples idiomas y expresiones emocionales, y modelos de video con alta tasa de compresión y diversos estilos. Estos modelos estarán disponibles para usuarios y desarrolladores a través de la plataforma abierta de la compañía y productos como Xingye y Hailuo AI.