El 7 de abril, la plataforma abierta Kimi publicó un anuncio oficial, declarando que, basándose en la acumulación de tecnología y la optimización del rendimiento de Moonshot AI durante el último año, se ajustarán los precios de los servicios de inferencia de modelos proporcionados por la plataforma, reduciendo significativamente al mismo tiempo el precio del caché de contexto. Esta medida marca un hito en la plataforma abierta Kimi, ya que mejora las capacidades tecnológicas y, al mismo tiempo, optimiza la experiencia del usuario, impulsando la popularización y aplicación de los servicios de inteligencia artificial.
Según la introducción oficial de la plataforma abierta Kimi, este ajuste de precios se debe a los notables avances de Moonshot AI en el entrenamiento de modelos, la aceleración de la inferencia y la optimización de la utilización de recursos durante el último año. A través de la iteración tecnológica continua, la plataforma no solo ha mejorado la eficiencia y el rendimiento del procesamiento de modelos, sino que también ha reducido los costos operativos. La empresa afirma que estos resultados permiten a Kimi devolver más beneficios a los usuarios, reduciendo aún más el umbral de acceso a los servicios de modelos grandes para empresas y desarrolladores.
En cuanto al contenido del ajuste, los precios de los servicios de inferencia de modelos se han reducido en general, y la reducción varía según las diferentes especificaciones de los modelos y los escenarios de uso. Al mismo tiempo, el precio del caché de contexto también ha experimentado una reducción significativa, un ajuste particularmente notable, ya que la plataforma Kimi se caracteriza por su capacidad de procesamiento de contexto ultralargo. Esto mejorará aún más la rentabilidad de los usuarios al procesar tareas con textos largos.
Desde su lanzamiento, la plataforma abierta Kimi ha utilizado la compatibilidad con la entrada de contexto ultralargo (hasta 2 millones de caracteres) como su principal ventaja competitiva, y se aplica ampliamente en escenarios como el análisis de documentos, la revisión de literatura y la reproducción de código. La reducción del precio del caché de contexto significa que los usuarios disfrutarán de costos más bajos al procesar tareas complejas. Por ejemplo, para empresas o desarrolladores que necesitan acceder con frecuencia a datos de texto largos, esto no solo reducirá los gastos, sino que también mejorará la eficiencia del desarrollo.
Un desarrollador que ha utilizado la API de Kimi durante mucho tiempo comentó: "La reducción del precio del caché de contexto es una gran noticia para nosotros. Antes, el procesamiento de documentos extensos era costoso, pero ahora podemos realizar más tareas con un presupuesto menor, lo que mejora significativamente la relación calidad-precio."