A DeepSeek lançou silenciosamente seu mais recente modelo de linguagem grande, o DeepSeek-V3-0324, causando grande impacto na indústria de inteligência artificial. Este modelo, com capacidade impressionante de 641 GB, apareceu discretamente no repositório de modelos de IA Hugging Face, quase sem nenhum anúncio prévio, mantendo o estilo de lançamento discreto, porém altamente influente, da empresa.
Salto de desempenho, comparável ao Claude Sonnet3.5
O lançamento do DeepSeek-V3 é notável não apenas por sua poderosa funcionalidade, mas também por sua forma de implantação e licença. Testadores iniciais relataram enormes avanços em vários indicadores.
O pesquisador de IA Xeophon, na plataforma X, afirmou que o DeepSeek V3 em seus testes internos "apresentou um salto enorme em todos os indicadores de todos os testes", e alegou que agora é o "melhor modelo sem inferência, substituindo o Sonnet3.5". Se essa afirmação for amplamente verificada, o novo modelo da DeepSeek superará o respeitado sistema de IA comercial Claude Sonnet3.5 da Anthropic.
Open source e comercial, beneficiando a todos: quebrando barreiras de pagamento
Diferentemente do Sonnet, que requer assinatura para uso, os pesos do modelo DeepSeek-V3-0324 são totalmente gratuitos, e qualquer pessoa pode baixá-los e usá-los.
Mais importante ainda, o modelo utiliza a licença MIT, o que significa que ele pode ser livremente usado para fins comerciais. Essa postura aberta contrasta fortemente com a prática comum de empresas ocidentais de IA de colocar seus modelos atrás de um paywall.
Arquitetura MoE e duas grandes inovações
A arquitetura inovadora do DeepSeek V3-0324 permite uma eficiência incomparável. O modelo utiliza a arquitetura de especialista misto (MoE), mudando fundamentalmente a forma como os modelos de linguagem grandes funcionam. Ao contrário dos modelos tradicionais que ativam todos os parâmetros em cada tarefa, o método da DeepSeek ativa apenas cerca de 37 bilhões de seus 685 bilhões de parâmetros em tarefas específicas. Essa ativação seletiva representa uma grande mudança na eficiência do modelo, permitindo um desempenho comparável a modelos maiores totalmente ativados, enquanto reduz significativamente as necessidades computacionais.
Além disso, o modelo incorpora duas tecnologias inovadoras adicionais: atenção latente multi-cabeça (MLA) e previsão multi-token (MTP). A MLA aprimora a capacidade do modelo de manter o contexto em textos longos, enquanto a MTP pode gerar vários tokens a cada passo, em vez do usual um token por vez. Essas inovações juntas aumentam a velocidade de saída em quase 80%.
Compatível com hardware, execução local: acessível até mesmo em dispositivos de consumo
O criador de ferramentas para desenvolvedores Simon Willison, em um post de blog, apontou que uma versão quantizada de 4 bits reduz o uso de armazenamento para 352 GB, tornando possível a execução em hardware de consumo de alta qualidade (como o Mac Studio com chip M3 Ultra).
O pesquisador de IA Awni Hannun escreveu nas redes sociais: "O novo DeepSeek-V3-0324 roda a >20 tokens/segundo em um M3 Ultra de 512 GB com mlx-lm!". Embora o Mac Studio de US$ 9.499 possa estar além da definição de "hardware de consumo", a execução local de um modelo tão grande contrasta fortemente com a IA mais recente que normalmente requer infraestrutura de IA em nível de data center.
O Mac Studio consome menos de 200 watts durante o processo de inferência, enquanto a infraestrutura tradicional de IA geralmente depende de vários GPUs Nvidia que consomem milhares de watts de potência.
Mudança de estilo, foco maior na tecnologia
Usuários iniciais relataram uma mudança notável no estilo de comunicação do novo modelo. Modelos DeepSeek anteriores eram elogiados por seu tom conversacional e semelhante ao humano, enquanto o "V3-0324" apresenta um estilo mais formal e focado na tecnologia.
Alguns usuários no Reddit expressaram essa mudança, considerando que a nova versão soa "menos humana", perdendo o "tom humano" das versões anteriores. Essa mudança pode refletir uma escolha de design consciente dos engenheiros da DeepSeek, com o objetivo de reposicionar o modelo para aplicações mais profissionais e técnicas.
A estratégia de lançamento da DeepSeek reflete as diferenças fundamentais nas filosofias de negócios de IA entre empresas chinesas e ocidentais. Líderes americanos como OpenAI e Anthropic colocam seus modelos atrás de paywalls, enquanto empresas chinesas de IA estão cada vez mais optando por licenças open source mais flexíveis.
Essa abertura está mudando rapidamente o ecossistema de IA da China, permitindo que startups, pesquisadores e desenvolvedores inovarm com base em tecnologias de IA avançadas sem grandes investimentos de capital. Gigantes tecnológicos chineses, incluindo Baidu, Alibaba e Tencent, também estão lançando ou planejando lançar modelos de IA open source. Com a limitação no acesso a chips Nvidia de ponta, as empresas chinesas estão dando mais importância à eficiência e otimização, o que se tornou uma vantagem competitiva potencial.
O lançamento do DeepSeek-V3-0324 também é considerado a base para seu modelo de inferência de próxima geração, o DeepSeek-R2.
Considerando a recente declaração do CEO da Nvidia, Jensen Huang, de que o modelo R1 da DeepSeek "consome 100 vezes mais poder computacional do que a IA sem inferência", o desempenho alcançado pela DeepSeek com recursos limitados é notável.
Se o DeepSeek-R2 seguir a trajetória do R1, ele pode representar um desafio direto ao GPT-5, que a OpenAI está supostamente prestes a lançar. Essa estratégia aberta e eficiente em termos de recursos da DeepSeek, em comparação com a estratégia fechada e rica em capital da OpenAI, representa duas visões concorrentes do futuro da inteligência artificial.
Atualmente, os usuários podem baixar os pesos completos do modelo no Hugging Face e também podem experimentar a API do DeepSeek-V3-0324 por meio de plataformas como OpenRouter. A própria interface de bate-papo da DeepSeek também pode ter sido atualizada para a nova versão. A estratégia aberta da DeepSeek está redefinindo o cenário global da IA, prenunciando uma era de inovação em IA mais aberta e acessível.
https://huggingface.co/deepseek-ai/DeepSeek-V3-0324