Die Zhihu AI Open Platform hat kürzlich die kostenlose öffentliche Verfügbarkeit des GLM-4-Flash-Modells bekannt gegeben. Nutzer können sich einfach auf bigmodel.cn registrieren, um kostenlos eigene Modelle und Anwendungen zu erstellen. Diese Maßnahme dürfte eine neue Welle der Innovation im Bereich der KI-Anwendungen auslösen.
Das GLM-4-Flash-Modell zeichnet sich durch seine Geschwindigkeit und Wirtschaftlichkeit aus und eignet sich besonders gut für einfache Aufgaben, die eine schnelle Antwort erfordern. Das Modell unterstützt mehrstufige Dialoge, Webbrowser-Integration, Function Calls und die Inferenz langer Texte und deckt 26 Sprachen ab, darunter Chinesisch, Englisch, Japanisch, Koreanisch und Deutsch. Seine Anwendungsszenarien sind vielfältig und umfassen die Vorverarbeitung von Forschungsdaten, die Informationsgewinnung, die mehrsprachige Übersetzung und mehrstufige Dialoge.
Auf technischer Ebene optimiert GLM-4-Flash die Laufzeiteffizienz durch adaptive Gewichtsquantisierung, Parallelisierung, Batch-Verarbeitungsstrategien und spekulative Sampling, wodurch die Inferenzkosten deutlich reduziert werden. In der Pre-Training-Phase wurden mithilfe eines großen Sprachmodells mehr als 10 TB hochwertige mehrsprachige Daten ausgewählt – mehr als das Dreifache des ChatGLM3-6B-Modells. Gleichzeitig erhöht die Verwendung der FP8-Technologie die Effizienz des Pre-Trainings erheblich.
In Bezug auf die Leistung zeigt GLM-4-Flash hervorragende Ergebnisse bei Logik-Inferenztests und erreicht eine Generierungsgeschwindigkeit von 72,14 Token/s (ca. 115 Zeichen/s), nur knapp hinter GPT-3.5-turbo. Darüber hinaus verfügt das Modell über die Fähigkeit zur Echtzeit-Websuche und kann schnell auf Informationen wie Wetter und Nachrichten zugreifen. Seine Funktionsaufruf-Fähigkeiten sind mit denen von GPT-4 vergleichbar.
Die Anwendung von GLM-4-Flash zeigt bereits in verschiedenen Bereichen Potenzial. Biologen nutzen es zur Verarbeitung von Moleküldaten und zur Erforschung von Gesundheitscodes; Entwickler verwenden es zur Generierung von Trainingsdaten, um andere große Modelle zu unterstützen; Hochschullehrer erstellen KI-Tutoren, um das Lernerlebnis zu verbessern; Entwickler von Übersetzungs-Apps nutzen es zur Entwicklung interaktiver Lernwerkzeuge für Kinder im Englischunterricht; und Werbeagenturen verwenden es zur Verbesserung von Texten und zur Steigerung der Effizienz von Werbetexten.
Um Feedback von Nutzern zu fördern, bietet die Zhihu AI Open Platform einen zeitlich begrenzten kostenlosen Feintuning-Vorteil: Durch das Ausfüllen eines Fragebogens erhalten Sie ein Trainingsressourcenpaket mit 5 Millionen Tokens (3 Monate). Die Anzahl der Plätze ist begrenzt, solange der Vorrat reicht.
Testversion: https://bigmodel.cn/console/trialcenter?modelCode=glm-4-flash