智谱AI gibt die Veröffentlichung von GLM-4-Long, einem LLM mit Unterstützung für extrem lange Kontexte, auf der offenen Plattform bigmodel.cn bekannt. Dieses Modell wurde speziell für die Verarbeitung sehr langer Texte entwickelt und kann Textmengen verarbeiten, die dem Umfang von zwei Ausgaben des Romans „Die Traum der Roten Kammer“ oder 125 wissenschaftlichen Artikeln entsprechen. Es eignet sich ideal für die Übersetzung langer Dokumente, die globale Analyse von Geschäftsberichten, die Extraktion wichtiger Informationen und den Aufbau von Chatbots mit extrem langem Gedächtnis.
GLM-4-Long bietet zudem einen erheblichen Preisvorteil. Die Kosten für Ein- und Ausgabe betragen nur 0,001 Yuan pro 1000 Tokens, was Unternehmen und Entwicklern eine kosteneffiziente Lösung bietet. Das Modell strebt durch kontinuierliche technische Weiterentwicklung eine führende Kontextfähigkeit an, die sich von anfänglich 2K Kontext auf die aktuelle Länge von 1M Kontext entwickelt hat und zahlreiche Forschungsergebnisse zur Verarbeitung langer Texte integriert.
In einem „Suche im Heuhaufen“-Test demonstrierte GLM-4-Long seine Fähigkeit zur verlustfreien Informationsverarbeitung und bewies seine herausragende Leistung bei einer Kontextlänge von 1M. Zusätzlich zeigte es in praktischen Anwendungstests für die Auswertung von Geschäftsberichten, die Zusammenfassung von wissenschaftlichen Artikeln und das Lesen von Romanen hervorragende Ergebnisse und konnte präzise wichtige Informationen extrahieren und analysieren.
Die Anwendung von GLM-4-Long bietet Unternehmen erhebliche Vorteile, darunter ein tiefes Verständnis von Dialogen, die Verarbeitung komplexer Dokumente, eine kohärentere Inhaltsgenerierung und eine verbesserte Datenanalysefähigkeit. Diese Fähigkeiten sind besonders wichtig in den Bereichen Kundenservice, Recht, Finanzen, Forschung, Marketing, Werbung und Big-Data-Analyse.
Schnittstellen Dokumentation:
https://bigmodel.cn/dev/api#glm-4
Testzentrum:
https://bigmodel.cn/console/trialcenter