Die Alibaba Cloud Bailian-Plattform hat kürzlich das Qwen2.5-Turbo-Modell für lange Texte mit einer Million Tokens vorgestellt. Das Qwen2.5-Turbo-Modell wurde vom Tongyi Qianwen-Team entwickelt und kann extrem lange Kontexte mit bis zu 1 Million Tokens verarbeiten – das entspricht etwa 1 Million englischen Wörtern oder 1,5 Millionen chinesischen Schriftzeichen.

Dieses neue Modell erreicht eine Genauigkeit von 100 % bei der Suche nach langen Texten und erzielt auf dem RULER-Benchmark für lange Texte 93,1 Punkte, womit es GPT-4 übertrifft. Bei realitätsnahen Aufgaben mit langen Texten wie LV-Eval und LongBench-Chat übertrifft Qwen2.5-Turbo GPT-4-mini in den meisten Bereichen.

微信截图_20241121082702.png

Qwen2.5-Turbo findet breite Anwendung, beispielsweise beim tiefgehenden Verständnis von Romanen, als umfangreicher Code-Assistent oder zum Lesen mehrerer wissenschaftlicher Arbeiten. Es kann 10 Romane, 150 Stunden Redebeiträge oder 30.000 Codezeilen gleichzeitig verarbeiten. Das Tongyi Qianwen-Team hat durch einen sparsamen Aufmerksamkeitsmechanismus den Rechenaufwand um etwa das 12,5-fache reduziert und die Zeit bis zur Ausgabe des ersten Zeichens bei der Verarbeitung von 1 Million Tokens von 4,9 Minuten auf 68 Sekunden verkürzt – eine 4,3-fache Geschwindigkeitssteigerung.

Die Alibaba Cloud Bailian-Plattform bietet allen Nutzern direkten Zugriff auf die Qwen2.5-Turbo-API und vergibt zeitlich begrenzt ein Guthaben von 10 Millionen Tokens. Die Kosten für die spätere Nutzung von Millionen Tokens betragen nur 0,3 Yuan.

Die Alibaba Cloud Bailian-Plattform bietet derzeit über 200 in- und ausländische, gängige Open-Source- und proprietäre große Sprachmodelle wie Qwen, Llama und ChatGLM an. Nutzer können diese direkt aufrufen, trainieren, feinabstimmen oder RAG-Anwendungen damit erstellen.