LLaMA-Rider Trainingsrahmen

Die Peking-Universität und das Beijing Zhiyuan Institut für Künstliche Intelligenz haben den LLaMA-Rider Trainingsrahmen veröffentlicht. Dieser ermöglicht es großen Sprachmodellen, in einer offenen Welt selbstständig zu explorieren und zu lernen.

LLaMA-Rider nutzt einen Feedback-Modifikations-Mechanismus für die aktive Exploration und verbessert so die Fähigkeit des Modells, mehrere Aufgaben zu lösen. Experimentelle Ergebnisse zeigen, dass LLaMA-Rider eine hohe Stichproben-Effizienz und niedrige Trainingskosten bei der Lösung mehrerer Aufgaben aufweist.

Der Rahmen demonstriert die Fähigkeit zur Generalisierung auf neue Aufgaben und bietet neue Ansätze für das selbstständige Lernen großer Sprachmodelle in einer offenen Welt. LLaMA-Rider hat ein breites Anwendungsspektrum und wird die Entwicklung großer Sprachmodelle vorantreiben.