智谱AI annonce le lancement de GLM-4-Long, un LLM prenant en charge des contextes extrêmement longs, sur sa plateforme ouverte bigmodel.cn. Ce modèle est spécialement conçu pour traiter des textes très longs ; il peut lire simultanément l’équivalent de deux romans « La Dream de Rouge » ou 125 articles scientifiques. Il trouve des applications variées, notamment la traduction de documents longs, l’analyse globale de rapports financiers, l’extraction d’informations clés et la création de robots conversationnels dotés d’une mémoire étendue.
GLM-4-Long offre un avantage de prix significatif, avec un coût d’entrée et de sortie aussi bas que 0,001 yuan/mille jetons, proposant ainsi une solution économique et efficace aux entreprises et aux développeurs. Ce modèle est le fruit d’une itération technologique constante visant à améliorer ses capacités contextuelles, passant d’un contexte initial de 2 K à une longueur de contexte actuelle de 1 M, intégrant ainsi de nombreux résultats de recherche sur le traitement de longs textes.
Lors d’un test de recherche d’informations dans une grande quantité de données (« recherche d’une aiguille dans une botte de foin »), GLM-4-Long a démontré sa capacité de traitement d’informations sans perte, prouvant ainsi ses performances exceptionnelles avec une longueur de contexte de 1 M. De plus, GLM-4-Long a obtenu d’excellents résultats lors de tests d’application réels, notamment la lecture de rapports financiers, la synthèse d’articles scientifiques et la lecture de romans, démontrant sa capacité à extraire et analyser précisément les informations clés.
L’utilisation de GLM-4-Long offre des avantages considérables aux entreprises, notamment une compréhension approfondie des conversations, le traitement de documents complexes, une génération de contenu plus cohérente et des capacités d’analyse de données améliorées. Ces capacités sont particulièrement importantes dans les domaines du service client, du droit, de la finance, de la recherche, du marketing, de la publicité et de l’analyse de données massives.
Documentation de l’interface :
https://bigmodel.cn/dev/api#glm-4
Centre d’essai :
https://bigmodel.cn/console/trialcenter