SpacTor-T5

段落破壊と置換トークン検出を用いた事前学習済みT5モデル

一般製品プログラミングNLP事前学習モデル
SpacTorは、(1) 段落破壊(SC)とトークン置換検出(RTD)を組み合わせた混合目標、(2) 最初のτ回の反復で混合目標を最適化し、その後標準的なSC損失に移行する二段階学習課程、を含む新しい訓練手法です。エンコーダ-デコーダアーキテクチャ(T5)を用いて様々なNLPタスクで実験した結果、SpacTor-T5は、下流タスクにおける性能は標準的なSC事前学習と同等でありながら、事前学習の反復回数を50%、総FLOPsを40%削減しました。さらに、同じ計算予算下では、SpacTorは下流ベンチマークの性能を大幅に向上させることが分かりました。
ウェブサイトを開く

SpacTor-T5 最新のトラフィック状況

月間総訪問数

29742941

直帰率

44.20%

平均ページ/訪問

5.9

平均訪問時間

00:04:44

SpacTor-T5 訪問数の傾向

SpacTor-T5 訪問地理的分布

SpacTor-T5 トラフィックソース

SpacTor-T5 代替品