アリババクラウド百煉プラットフォームは先日、Qwen2.5-Turbo百万長テキストモデルのリリースを発表しました。通義千問チームが開発したQwen2.5-Turboモデルは、最大100万トークン(約100万単語、または150万漢字に相当)の超長文コンテキストを処理できます。
この新型モデルは、長文検索タスクにおいて100%の精度を達成し、長文評価セットRULERで93.1点を獲得、GPT-4を上回りました。LV-Eval、LongBench-Chatなど、現実的なシナリオに近い長文タスクにおいても、Qwen2.5-TurboはGPT-4o-miniを多くの指標で凌駕しています。短文ベンチマークテストでもQwen2.5-Turboは優れたパフォーマンスを示し、以前のコンテキスト長100万トークンのオープンソースモデルを大幅に上回りました。
Qwen2.5-Turboモデルの応用範囲は広く、長編小説の深い理解、大規模コードアシスタント、複数の論文の読解など、10冊の長編小説、150時間の講演、または3万行のコードを一度に処理できます。推論速度に関しては、通義千問チームはスパースアテンションメカニズムにより計算量を約12.5倍圧縮し、100万トークンのコンテキスト処理における最初の単語の返答時間を4.9分から68秒に短縮、4.3倍の速度向上を実現しました。
アリババクラウド百煉プラットフォームは、すべてのユーザーにQwen2.5-Turbo APIへの直接呼び出しを提供し、期間限定で1000万トークンの無料利用枠を提供しています。その後、100万トークンの使用コストはわずか0.3元です。
現在、アリババクラウド百煉プラットフォームでは、Qwen、Llama、ChatGLMなど、国内外の主要なオープンソースおよびクローズドソースの大規模言語モデル200種類以上を提供しており、ユーザーは直接呼び出し、微調整、またはRAGアプリケーションの作成が可能です。