2025-03-12 16:44:44.AIbase.
Fluxo de Silício: DeepSeek-R1 e V3 API atualizados com inferência em lote e redução de 75% no preço do R1
2025-03-12 16:43:59.AIbase.
SiliconCloud anuncia suporte de inferência em lote para APIs DeepSeek-R1 e V3 com redução de 75% no preço
2025-03-12 11:07:52.AIbase.
Cerebras acelera expansão com seis novos data centers, aumentando a velocidade de inferência em dez vezes!
2025-03-09 11:04:41.AIbase.
Avanço na IA de Avatares Digitais! Hedra lança o modelo Character-3 e o Hedra Studio: inferência conjunta de imagem, texto e áudio
2025-03-07 16:19:22.AIbase.
Sem treinamento! Q-Filters permite compressão eficiente de cache KV e melhora o desempenho de inferência
2025-03-06 10:52:45.AIbase.
IBM lança modelo de IA compacto Granite 3.2, enfatizando inferência eficiente e utilidade prática
2025-03-06 10:04:01.AIbase.
Sem precisar de supercomputadores! Alibaba lança o novo modelo de inferência de código aberto Tongyi Qianwen QwQ-32B - desempenho de nível S mesmo em GPUs de consumo!
2025-03-06 09:17:43.AIbase.
QwQ-32B: Novo modelo de inferência de código aberto da Alibaba, com desempenho comparável ao DeepSeek-R1 e menor necessidade de memória
2025-02-28 11:08:32.AIbase.
ByteDance lança AIBrix: novo sistema de inferência de código aberto projetado para modelos de linguagem grandes
2025-02-26 09:33:45.AIbase.
DeepSeek Open Source Week - Dia 3: Lançamento do DeepGEMM, biblioteca FP8 GEMM para acelerar treinamento e inferência de IA
2025-02-20 11:11:10.AIbase.
CEO da Silicon Valley Flow nega ter recusado investimento da DeepSeek: lamenta não ter colaborado
2025-02-19 08:33:46.AIbase.
DeepSeek lança tecnologia NSA: Acelera treinamento e inferência de contexto longo
2025-02-12 14:04:43.AIbase.
A arquitetura UltraMem do ByteDance Doubao reduz o custo de inferência de modelos grandes em 83%
2025-02-10 14:16:32.AIbase.
DeepSeek: toda a linha agora disponível na plataforma aberta da iFlytek - API de inferência gratuita por tempo limitado
2025-02-05 14:32:07.AIbase.
Time de modelos nacionais! A linha completa de modelos DeepSeek chega à plataforma de supercomputação nacional
2025-01-24 10:04:42.AIbase.
Pipeshift lança mecanismo de inferência modular, reduzindo o uso da GPU em IA em 75%
2025-01-20 14:22:00.AIbase.
A Google AI apresenta uma estrutura básica para escalonamento do tempo de inferência em modelos de difusão
2025-01-06 10:36:48.AIbase.
NVIDIA e universidades lançam o "FlashInfer": nova biblioteca de kernel para melhorar a eficiência de inferência de modelos de linguagem grandes
2025-01-06 10:24:02.AIbase.
Pesquisador chinês de Harvard, Jeffrey Wang, junta-se à OpenAI para focar em pré-treinamento e inferência de modelos
2024-11-28 11:03:24.AIbase.