Das Shanghai Artificial Intelligence Laboratory hat kürzlich XTuner veröffentlicht, ein kostengünstiges Toolkit zum Trainieren großer Sprachmodelle. Es unterstützt verschiedene Hardware-Konfigurationen und ermöglicht Entwicklern, mit nur 8 GB Verbraucherspeicher ein auf spezifische Anforderungen zugeschnittenes „eigenes großes Sprachmodell“ zu trainieren. Dies senkt die Einstiegshürde für das Training erheblich. XTuner ist kompatibel mit verschiedenen Open-Source-Modellen wie Shusheng·Puyu und Llama und kann Aufgaben wie inkrementelles Pretraining und Instruction Tuning durchführen. Gleichzeitig zeichnet es sich durch Benutzerfreundlichkeit und Konfigurierbarkeit aus. Es enthält standardisierte Prozesse für inkrementelles Pretraining, Instruction Tuning für ein- und mehrstufige Dialoge sowie für Utility-basierte Instruktionen. Entwickler können sich somit voll und ganz auf die Daten konzentrieren. XTuner festigt erneut den praktischen Nutzen des umfassenden Open-Source-Ökosystems des Shanghai AI Lab für die Forschung und Anwendung großer Sprachmodelle und fördert gemeinsam mit anderen die technologische Weiterentwicklung.