Em 7 de abril, a plataforma aberta Kimi lançou um comunicado oficial, anunciando um ajuste nos preços dos serviços de inferência de modelos oferecidos pela plataforma, com base em um ano de acúmulo de tecnologia e otimização de desempenho da Moonshot AI, e uma redução significativa nos preços do cache de contexto. Essa medida marca a melhoria da capacidade tecnológica da plataforma aberta Kimi, ao mesmo tempo em que otimiza ainda mais a experiência do usuário e impulsiona a popularização e aplicação dos serviços de inteligência artificial.

De acordo com a introdução oficial da plataforma aberta Kimi, esse ajuste de preços é resultado de avanços significativos da Moonshot AI nos últimos anos em treinamento de modelos, aceleração de inferência e otimização da utilização de recursos. Por meio de iterações tecnológicas contínuas, a plataforma não apenas melhorou a eficiência e o desempenho do processamento do modelo, mas também reduziu os custos operacionais. A equipe afirma que esses resultados permitem que a Kimi devolva mais benefícios aos usuários, reduzindo ainda mais a barreira de entrada para empresas e desenvolvedores acessarem os serviços de modelos de grande porte.

QQ20250407-161111.png

Em termos de conteúdo ajustado, os preços dos serviços de inferência de modelos foram reduzidos de forma geral, com reduções variando de acordo com as diferentes especificações do modelo e cenários de uso. Ao mesmo tempo, o preço do cache de contexto também teve uma redução significativa, uma mudança particularmente notável, pois a plataforma Kimi é conhecida por sua capacidade de processamento de contexto extra longo. Isso melhorará ainda mais a relação custo-benefício para os usuários ao lidar com tarefas de texto longo.

Desde seu lançamento, a plataforma aberta Kimi tem como principal diferencial o suporte à entrada de contexto extra longo (até 2 milhões de caracteres), sendo amplamente utilizada em cenários como análise de documentos, revisão de literatura e reprodução de código. A redução no preço do cache de contexto significa que os usuários terão custos menores ao lidar com tarefas complexas. Por exemplo, para empresas ou desenvolvedores que precisam acessar dados de texto longo com frequência, isso não apenas reduz os custos, mas também melhora a eficiência do desenvolvimento.

Um desenvolvedor que usa a API Kimi há muito tempo disse: "A redução no preço do cache de contexto é uma ótima notícia para nós. Antes, o custo de processar documentos grandes era alto, mas agora podemos concluir mais tarefas com um orçamento menor, melhorando significativamente a relação custo-benefício."