Recentemente, a Nvidia lançou sua nova plataforma Blackwell e demonstrou seu desempenho inicial no benchmark MLPerf Training 4.1. De acordo com os resultados dos testes, o Blackwell dobrou o desempenho em certos aspectos em comparação com a plataforma Hopper de geração anterior, um feito que chamou a atenção da indústria.

image.png

No benchmark MLPerf Training 4.1, a plataforma Blackwell atingiu 2,2 vezes o desempenho por GPU da Hopper na tarefa de ajuste fino do Llama270B (modelo de linguagem grande), e o dobro do desempenho no pré-treinamento do GPT-3175B. Além disso, em outros benchmarks, como o treinamento do Stable Diffusion v2, a nova geração Blackwell superou o produto anterior em 1,7 vezes.

Vale ressaltar que, embora a Hopper continue a mostrar progresso, em comparação com a rodada anterior de benchmarks MLPerf Training, a Hopper também melhorou seu desempenho em 1,3 vezes no pré-treinamento de modelos de linguagem. Isso demonstra o progresso contínuo da tecnologia da Nvidia. No recente benchmark GPT-3175B, a Nvidia apresentou 11.616 GPUs Hopper, estabelecendo um novo recorde de escalabilidade.

Sobre os detalhes técnicos do Blackwell, a Nvidia afirma que a nova arquitetura utiliza núcleos Tensor otimizados e memória de alta largura de banda mais rápida. Isso permitiu que o benchmark GPT-3175B fosse executado com apenas 64 GPUs, enquanto a plataforma Hopper exigia 256 GPUs para atingir o mesmo desempenho.

A Nvidia também destacou no lançamento as melhorias de desempenho em software e atualizações de rede para a geração Hopper, e espera que o Blackwell também continue a melhorar com futuras submissões. Além disso, a Nvidia planeja lançar o acelerador de IA de próxima geração, Blackwell Ultra, no próximo ano, que espera fornecer mais memória e maior poder de computação.

O Blackwell também fez sua estreia no benchmark MLPerf Inference v4.1 em setembro passado. Em termos de inferência de IA, seu desempenho atingiu a incrível marca de quatro vezes mais por GPU do que o H100, especialmente usando precisão FP4 mais baixa. Essa nova tendência visa atender ao crescimento contínuo das demandas de computação inteligente para chatbots de baixa latência e modelos inteligentes como o o1 da OpenAI.

Destaques:

- 🚀 ** A plataforma Nvidia Blackwell dobrou o desempenho no treinamento de IA, estabelecendo um novo padrão na indústria!**

- 📈 ** No benchmark GPT-3175B, o Blackwell precisou de apenas 64 GPUs, melhorando significativamente a eficiência!**

- 🔍 ** O Blackwell Ultra será lançado no próximo ano, com previsão de maior memória e poder de computação!**