Künstliche Intelligenz (KI) wird immer intelligenter, insbesondere große Sprachmodelle (LLMs), deren Fähigkeiten in der Verarbeitung natürlicher Sprache erstaunlich sind. Wussten Sie aber, dass diese intelligenten KI-Gehirne enorme Rechenleistung und Speicherplatz benötigen?

Ein mehrsprachiges Modell wie Bloom mit 176 Milliarden Parametern benötigt allein für die Speicherung der Modellgewichte mindestens 350 GB Speicherplatz und für den Betrieb mehrere High-End-GPUs. Dies ist nicht nur teuer, sondern auch schwer zu verbreiten.

image.png

Um dieses Problem zu lösen, haben Forscher eine Technik namens „Quantisierung“ vorgeschlagen. Quantisierung ist wie eine „Diät“ für das KI-Gehirn. Durch die Abbildung der Modellgewichte und Aktivierungen auf niedrigere Datentypen wird das Modell nicht nur kleiner, sondern auch schneller. Dieser Prozess birgt jedoch das Risiko eines Genauigkeitsverlustes.

Um dieser Herausforderung zu begegnen, haben Forscher der Beihang-Universität und SenseTime gemeinsam das LLMC-Toolkit entwickelt. LLMC ist wie ein persönlicher Fitnesstrainer für KI. Es hilft Forschern und Entwicklern, die optimale „Diätstrategie“ zu finden, um KI-Modelle leichter zu machen, ohne ihre „Intelligenz“ zu beeinträchtigen.

Das LLMC-Toolkit bietet drei Hauptmerkmale:

Vielfalt: LLMC bietet 16 verschiedene Quantisierungsmethoden, wie 16 verschiedene Diätpläne für die KI. Egal, ob Ihre KI eine umfassende oder gezielte „Diät“ benötigt, LLMC kann Ihre Anforderungen erfüllen.

Niedrige Kosten: LLMC ist sehr ressourcenschonend. Selbst die Verarbeitung von sehr großen Modellen erfordert nur minimale Hardware. Beispielsweise kann ein OPT-175B-Modell mit 175 Milliarden Parametern mit nur einer 40-GB-A100-GPU angepasst und bewertet werden. Das ist so effizient, als würde man mit einem Heimtrainer einen Olympiasieger trainieren!

Hohe Kompatibilität: LLMC unterstützt verschiedene Quantisierungseinstellungen und Modellformate sowie verschiedene Backends und Hardwareplattformen. Es ist wie ein Universaltrainer, der für jedes Gerät einen passenden Trainingsplan erstellen kann.

Praktische Anwendung von LLMC: KI intelligenter und energiesparender machen

Das LLMC-Toolkit bietet einen umfassenden und objektiven Benchmark für die Quantisierung großer Sprachmodelle. Es berücksichtigt die drei Schlüsselfaktoren Trainingsdaten, Algorithmus und Datenformat und hilft Benutzern, die beste Lösung zur Leistungsoptimierung zu finden.

In der Praxis kann LLMC Forschern und Entwicklern helfen, geeignete Algorithmen und Low-Bit-Formate effizienter zu integrieren und die Komprimierung und Verbreitung großer Sprachmodelle voranzutreiben. Das bedeutet, dass wir in Zukunft mehr leichtgewichtige, aber dennoch leistungsstarke KI-Anwendungen erwarten können.

Die Autoren der Studie teilen einige interessante Erkenntnisse und Empfehlungen:

Bei der Auswahl der Trainingsdaten sollten Datensätze gewählt werden, deren Vokabelverteilung der der Testdaten ähnlicher ist – ähnlich wie beim Abnehmen, wo man einen Diätplan nach den individuellen Bedürfnissen auswählen sollte.

Im Bereich der Quantisierungsalgorithmen wurden die Auswirkungen der drei Haupttechniken Transformation, Beschneiden und Rekonstruktion untersucht – vergleichbar mit dem Vergleich verschiedener Trainingsmethoden beim Abnehmen.

Bei der Wahl zwischen ganzzahliger und Gleitkommaquantisierung wurde festgestellt, dass Gleitkommaquantisierung bei komplexen Situationen Vorteile bietet, während in bestimmten Fällen ganzzahlige Quantisierung besser geeignet sein kann. Ähnlich wie bei verschiedenen Phasen einer Diät, bei denen unterschiedliche Trainingsintensitäten erforderlich sind.

Das LLMC-Toolkit bringt frischen Wind in das KI-Feld. Es bietet Forschern und Entwicklern nicht nur einen leistungsstarken Assistenten, sondern weist auch den Weg für die zukünftige Entwicklung der KI. Mit LLMC können wir mehr leichtgewichtige und hocheffiziente KI-Anwendungen erwarten, die KI wirklich in unseren Alltag bringen.

Projekt-Adresse: https://github.com/ModelTC/llmc

Artikel-Adresse: https://arxiv.org/pdf/2405.06001