Die Taotian Group und Ai Cheng Technology haben gemeinsam das Large-Language-Model-Trainingsframework Megatron-LLaMA Open Source veröffentlicht. Ziel ist es, die Trainingsleistung großer Sprachmodelle zu verbessern, die Trainingskosten zu senken und die Kompatibilität mit der LLaMA-Community zu gewährleisten. Das Framework erreicht auf 32 Karten eine Beschleunigung von 176 % und zeigt eine hohe Toleranz gegenüber Netzwerkinstabilitäten. Megatron-LLaMA konzentriert sich auf die adaptive Auswahl optimaler Konfigurationen, die Unterstützung von Änderungen der Modellstruktur und hochperformante Trainingslösungen in verschiedenen Hardwareumgebungen.
Taotian Group und Ai Cheng Technology veröffentlichen Open-Source-Trainingsframework Megatron-LLaMA

机器之心
Dieser Artikel stammt aus dem AIbase-Tagesbericht
Willkommen im Bereich [KI-Tagesbericht]! Hier ist Ihr Leitfaden, um jeden Tag die Welt der künstlichen Intelligenz zu erkunden. Jeden Tag präsentieren wir Ihnen die Hotspots im KI-Bereich, konzentrieren uns auf Entwickler und helfen Ihnen, technologische Trends zu erkennen und innovative KI-Produktanwendungen zu verstehen.