La plateforme d'apprentissage profond PaddlePaddle, filiale de Baidu, a récemment annoncé la sortie officielle de sa nouvelle génération de framework PaddlePaddle 3.0. Cette version 3.0 introduit cinq innovations technologiques clés, notamment le « parallélisme automatique unifié statique et dynamique », visant à réduire efficacement les coûts de développement et d'entraînement des grands modèles, et à soutenir la construction d'infrastructures pour l'ère des grands modèles.

En tant qu'infrastructure de base essentielle pour l'entraînement et l'inférence des grands modèles, le framework PaddlePaddle 3.0 affiche d'excellentes performances en termes d'optimisation. Ce framework prend déjà en charge plusieurs grands modèles populaires, notamment Wenxin 4.5 et Wenxin X1, et grâce au déploiement monobloc optimisé de DeepSeek-R1, il améliore considérablement le débit, avec une augmentation allant jusqu'à 100%.

Baidu (4)

En termes de vitesse de calcul, le framework PaddlePaddle 3.0, grâce à son compilateur de réseaux neuronaux CINN, a vu ses performances considérablement améliorées. La vitesse d'exécution de certains opérateurs a été multipliée par quatre, et la vitesse d'entraînement de bout en bout des modèles a été améliorée de 27,4 %, réduisant ainsi considérablement le temps d'entraînement des grands modèles.

En termes d'adaptation matérielle, PaddlePaddle 3.0 propose une solution d'adaptation unifiée pour plusieurs puces, prenant en charge plus de 60 puces courantes et couvrant de nombreux scénarios d'application, notamment les clusters d'entraînement, la conduite autonome et les terminaux intelligents. Les développeurs n'ont besoin d'écrire le code qu'une seule fois pour réaliser une migration transparente entre les puces, réduisant ainsi considérablement les coûts d'adaptation matérielle, jusqu'à 80 %.

Le lancement de PaddlePaddle 3.0 représente sans aucun doute une innovation technologique majeure pour les frameworks d'apprentissage profond, offrant un support plus efficace et plus flexible pour le développement et le déploiement de modèles d'intelligence artificielle à grande échelle.