最近、人工知能研究企業Epoch AIは、大規模言語モデルの訓練に必要な計算能力をシミュレートするためのインタラクティブシミュレーターを発表しました。このシミュレーターを用いた研究により、2012年製の古いグラフィックボード(GTX580など)でもGPT-4の訓練は可能ですが、現代のハードウェアと比べてコストは10倍になることが分かりました。

image.png

Epoch AIの研究によると、GPT-4の訓練に必要な浮動小数点演算回数(FLOP)は1e25~1e26の間です。この研究のために、シミュレーターは様々なグラフィックボードの効率、特にモデル規模が拡大した際の性能を分析しました。その結果、モデルが大きくなるにつれて効率は一般的に低下することが分かりました。近年発売されたH100グラフィックボードは、長期間にわたって高い効率を維持できる一方、V100グラフィックボードは、より大規模な訓練を行うと効率が大幅に低下することが明らかになりました。

Epoch AIの実験では、GTX580グラフィックボードのメモリはわずか3GBでした。このグラフィックボードは、2012年にAlexNetモデルを訓練する際に主流の選択肢でした。技術は進歩していますが、研究者らは、古いハードウェアでこれほど大規模な訓練を行うことは可能だと考えていますが、必要なリソースとコストは非常に高額になります。

さらに、このシミュレーターは、複数のデータセンター間で複雑な訓練シミュレーションを行うことも可能です。ユーザーは、データセンターの規模、遅延、接続帯域幅などのパラメーターをカスタマイズして、複数の場所で訓練を実行する状況をシミュレートできます。このツールを使用することで、H100やA100などの最新のグラフィックボード間の性能差を分析し、異なるバッチサイズやマルチGPU訓練の効果を研究し、モデルの出力の詳細なログファイルを生成することもできます。

Epoch AIは、このシミュレーターを開発した目的は、ハードウェア効率の向上に対する理解を深め、チップ輸出規制の影響を評価するためだと述べています。今世紀における大規模訓練タスクの増加が見込まれる中、将来必要なハードウェア要件を理解することは非常に重要になります。

要点:

💻2012年発売のGTX580グラフィックボードでGPT-4の訓練は可能だが、コストは10倍かかり、効率は低い。

📊シミュレーターは、様々なGPUの性能差を分析し、複数データセンターでの訓練シミュレーションをサポートする。

🔍この研究は、将来のハードウェアニーズの理解を深め、大規模AIモデルの訓練を支援することを目的とする。