人工知能の進歩に伴い、イノベーションと持続可能な発展のバランスが重要な課題となっています。最近、OpenAIはこれまでで最も強力なAIモデルであるo3を発表しました。しかし、これらのモデルを実行するコストに加え、環境への影響も広く懸念されています。
ある研究によると、o3の各タスクは約1,785キロワット時の電力を消費し、これはアメリカの一般的な家庭の2ヶ月間の電力消費量に相当します。SalesforceのAI持続可能性責任者であるBoris Gamazaychikov氏の分析によると、この電力消費量は約684キログラムの二酸化炭素排出量に相当し、これは満タンのガソリン5箱分の排出量に匹敵します。
o3の高計算バージョンはARC-AGIフレームワークでベンチマークテストされており、計算は標準GPUの消費電力と電力の排出係数に基づいています。Gamazaychikov氏は、「技術が拡大し統合されるにつれて、これらのトレードオフにさらに注意を払う必要があります」と述べています。また、この計算には暗黙の炭素が含まれておらず、GPUの消費電力だけに焦点を当てているため、実際の排出量は過小評価されている可能性があると指摘しています。
さらに、データサイエンティストのKasper Groes Albin Ludvigsen氏は、8枚のNvidia H100 GPUを搭載したHGXサーバーの消費電力は11~12キロワットで、各GPUの0.7キロワットをはるかに上回ると述べています。
タスクの定義に関して、Pleiasの共同創設者であるPierre-Carl Langlais氏は、特にモデル設計が迅速に縮小できない場合のモデル設計に対する懸念を表明しました。「複雑な数学の問題を解決するには、多くの草稿、中間テスト、推論が必要です」と彼は述べています。
今年の初めには、ChatGPTが1回の会話で平均的な人間の1日の飲料水の10%、つまり約0.5リットルの水を消費するという研究結果がありました。この数値は少ないように見えるかもしれませんが、何百万人もの人が毎日このチャットボットを使用する場合、水の総消費量は相当なものになります。
Salesforceの人工責任AI技術のチーフアーキテクトであるKathy Baxter氏は、OpenAIのo3モデルのようなAIの進歩はジェヴォンズのパラドックスを引き起こす可能性があると警告しています。「必要なエネルギーは減少する可能性がありますが、水の消費量は増加する可能性があります」と彼女は述べています。
高エネルギー消費、複雑な冷却ニーズ、巨大な物理的インフラストラクチャなどのAIデータセンターが直面する課題に対処するため、SynapticsやembedURなどの企業は、エッジAIによってこれらの問題を解決しようとしています。これにより、データセンターへの依存を減らし、遅延とエネルギー消費を削減し、デバイスレベルでリアルタイムの意思決定を可能にします。
重要なポイント:
🌍 o3の各タスクの電力消費量は、家庭の2ヶ月間の電力消費量に相当します。
⛽ 各タスクの二酸化炭素排出量は、満タンのガソリン5箱分の排出量に相当します。
💧 ChatGPTの会話での水の消費量は、平均的な人間の1日の飲料水の10%に達します。