Die Taotian Group und Ai Cheng Technology haben gemeinsam das Large-Language-Model-Trainingsframework Megatron-LLaMA Open Source veröffentlicht. Ziel ist es, die Trainingsleistung großer Sprachmodelle zu verbessern, die Trainingskosten zu senken und die Kompatibilität mit der LLaMA-Community zu gewährleisten. Das Framework erreicht auf 32 Karten eine Beschleunigung von 176 % und zeigt eine hohe Toleranz gegenüber Netzwerkinstabilitäten. Megatron-LLaMA konzentriert sich auf die adaptive Auswahl optimaler Konfigurationen, die Unterstützung von Änderungen der Modellstruktur und hochperformante Trainingslösungen in verschiedenen Hardwareumgebungen.
Taotian Group und Ai Cheng Technology veröffentlichen Open-Source-Trainingsframework Megatron-LLaMA

机器之心
48
© Alle Rechte vorbehalten AIbase-Basis 2024, klicken Sie hier, um die Quelle anzuzeigen - https://www.aibase.com/de/news/1321