Baidus Deep-Learning-Plattform PaddlePaddle hat kürzlich die offizielle Veröffentlichung der neuen PaddlePaddle-Framework-Version 3.0 angekündigt. Diese Version 3.0 führt fünf Kerntechnologien ein, darunter „dynamisch-statische Unifikation und automatische Parallelisierung“, um die Entwicklung und das Training großer Modelle effektiv zu vereinfachen und kostengünstiger zu gestalten und so den Aufbau der Infrastruktur im Zeitalter großer Modelle zu unterstützen.
Als zentrale Infrastruktur für das Training und die Inferenz großer Modelle zeichnet sich PaddlePaddle Framework 3.0 durch hervorragende Leistungsoptimierungen aus. Das Framework unterstützt bereits mehrere gängige große Modelle, darunter Wenxin 4.5 und Wenxin X1, und erzielt durch die optimierte DeepSeek-R1-Vollversion-Einzelplatzbereitstellung eine deutlich höhere Durchsatzleistung – eine Steigerung um das Doppelte.
In Bezug auf die Rechengeschwindigkeit bietet PaddlePaddle Framework 3.0 dank seines innovativen neuronalen Netzwerk-Compilers CINN eine erhebliche Leistungssteigerung. Die Ausführungsgeschwindigkeit einiger Operatoren wurde um das Vierfache erhöht, und die End-to-End-Trainingsgeschwindigkeit des Modells wurde um 27,4 % verbessert, wodurch die Trainingszeit großer Modelle deutlich verkürzt wird.
Hinsichtlich der Hardware-Anpassung bietet PaddlePaddle Framework 3.0 eine einheitliche Anpassungslösung für mehrere Chips, die über 60 gängige Chips unterstützt und verschiedene Anwendungsszenarien wie Trainingscluster, autonomes Fahren und intelligente Endgeräte abdeckt. Entwickler müssen den Code nur einmal schreiben, um eine nahtlose Migration zwischen verschiedenen Chips zu ermöglichen. Die Kosten für die Hardware-Anpassung werden erheblich reduziert – um 80 %.
Die Veröffentlichung von PaddlePaddle 3.0 ist zweifellos eine technologische Innovation für Deep-Learning-Frameworks und bietet eine effizientere und flexiblere Unterstützung für die Entwicklung und Bereitstellung großer KI-Modelle.