Recientemente, NVIDIA lanzó su nueva plataforma Blackwell y mostró su rendimiento inicial en las pruebas de referencia MLPerf Training 4.1. Según los resultados, Blackwell duplicó el rendimiento de la plataforma Hopper de la generación anterior en algunos aspectos, un logro que ha llamado la atención de la industria.

image.png

En las pruebas de referencia MLPerf Training 4.1, la plataforma Blackwell alcanzó un rendimiento por GPU 2,2 veces superior al de Hopper en la tarea de ajuste fino del modelo de lenguaje grande (LLM) Llama270B, y el doble de rendimiento en el preentrenamiento de GPT-3175B. Además, en otras pruebas de referencia como el entrenamiento de Stable Diffusion v2, la nueva generación Blackwell superó a su predecesora en un 1,7 veces.

Cabe destacar que, aunque Hopper sigue mostrando avances, en comparación con la ronda anterior de pruebas de referencia MLPerf Training, Hopper también mejoró su rendimiento en el preentrenamiento de modelos de lenguaje en un 1,3 veces. Esto demuestra el progreso continuo de la tecnología de NVIDIA. En la prueba de referencia GPT-3175B más reciente, NVIDIA presentó 11.616 GPU Hopper, estableciendo un nuevo récord de escalabilidad.

En cuanto a los detalles técnicos de Blackwell, NVIDIA afirma que la nueva arquitectura utiliza núcleos Tensor optimizados y memoria de alto ancho de banda más rápida. Esto permitió que la prueba de referencia GPT-3175B se ejecutara con solo 64 GPU, mientras que la plataforma Hopper requería 256 GPU para lograr el mismo rendimiento.

En la presentación, NVIDIA también destacó las mejoras de rendimiento en el software y las actualizaciones de red de la generación Hopper, y espera que Blackwell también mejore continuamente con futuras presentaciones. Además, NVIDIA planea lanzar el próximo acelerador de IA Blackwell Ultra el próximo año, que se espera que ofrezca más memoria y mayor capacidad de cálculo.

Blackwell también hizo su debut en las pruebas de referencia MLPerf Inference v4.1 el pasado septiembre. En cuanto a la inferencia de IA, su rendimiento alcanzó la asombrosa cifra de cuatro veces más por GPU que el H100, especialmente utilizando la menor precisión FP4. Esta nueva tendencia tiene como objetivo abordar el crecimiento continuo de las demandas de computación inteligente para chatbots de baja latencia y cálculos inteligentes como el modelo o1 de OpenAI.

Puntos clave:

- 🚀 ** ¡La plataforma NVIDIA Blackwell duplica el rendimiento en el entrenamiento de IA, estableciendo un nuevo estándar en la industria!**

- 📈 ** En la prueba de referencia GPT-3175B, Blackwell solo necesita 64 GPU, ¡mejorando significativamente la eficiencia!**

- 🔍 ** ¡Se lanzará Blackwell Ultra el próximo año, con la expectativa de ofrecer mayor memoria y capacidad de cálculo!**