最近のCES見本市で、NVIDIAのCEOであるジェンスン・フアン氏は、同社のAIチップのパフォーマンス向上速度がムーアの法則を超えたと述べました。

ムーアの法則は、インテルの共同創設者であるゴードン・ムーア氏が1965年に提唱したもので、コンピューターチップ上のトランジスタ数が毎年約2倍になるという予測に基づいており、チップのパフォーマンスもそれに応じて2倍になるとされていました。しかし近年、ムーアの法則の進歩は著しく鈍化しています。

グラフィックボード、NVIDIA、RTX40

画像出典:AI生成画像、画像ライセンス提供元Midjourney

フアン氏は、NVIDIAの最新のデータセンター向けスーパーチップは、AI推論ワークロードを実行する速度が前世代の30倍以上であると指摘しました。「私たちはアーキテクチャ、チップ、システム、ライブラリ、アルゴリズムを同時に構築することができます。これができれば、技術スタック全体でイノベーションを起こせるため、ムーアの法則を超えることができます。」と述べています。

この発表は、AIの進歩が停滞しているのではないかと疑問視する声が多い中で、特に重要です。現在、Google、OpenAI、Anthropicなどの主要なAIラボは、AIモデルのトレーニングと実行にNVIDIAのAIチップを使用しているため、これらのチップの進歩はAIモデルの能力に直接影響します。

フアン氏はまた、現在、事前学習、事後学習、実行時計算という3つの活発なAI拡張則があると述べました。そして、ムーアの法則は計算コストの削減を促進したため、計算の歴史において非常に重要であり、推論過程におけるパフォーマンスの向上も推論コストの削減につながると強調しました。

NVIDIAの高価なチップが推論分野で引き続き優位性を維持できるかどうかを懸念する声もありますが、フアン氏は、最新のGB200NVL72チップは、H100チップよりも推論ワークロードで30~40倍高速であり、これによりAI推論モデルがより経済的になると述べています。

フアン氏は、計算能力の向上は、推論時の計算性能とコストの両立という問題を解決するための直接的かつ効果的な方法であると強調しました。そして、計算技術の進歩に伴い、AIモデルのコストは継続的に低下すると予想しており、現在OpenAIなどの企業の一部のモデルの運用コストが高いことを認めています。

フアン氏は、現在のAIチップは10年前と比べて1000倍向上しており、これはムーアの法則をはるかに上回る進歩速度であり、この傾向はすぐに止まらないと考えていると述べました。

要点:

🌟 NVIDIAのCEOであるジェンスン・フアン氏は、同社のAIチップのパフォーマンス向上速度がムーアの法則を超えたと述べています。

⚡ 最新のGB200NVL72チップは、AI推論ワークロードにおける速度が前世代製品の30~40倍です。

📉 フアン氏は、計算能力の向上に伴い、AIモデルの使用コストは徐々に低下すると予測しています。