最近、非営利団体Epoch AIによる調査で、OpenAIのチャットボットプラットフォームChatGPTの消費電力が、初期の推定値よりもはるかに低いことが明らかになりました。一部報道によると、ChatGPTは質問への回答に約3ワット時が必要とされていましたが、Epoch AIの調査ではこの数値は過大評価されているとされています。調査によると、OpenAIの最新のデフォルトモデルGPT-4oを使用した場合、平均して1回のクエリあたり約0.3ワット時しか消費しないことが示され、これは多くの家庭用電化製品の消費電力よりも低い数値です。
Epoch AIのデータアナリストであるJoshua You氏は、従来のAI消費電力に関する懸念は、現状を正確に反映していないと述べています。初期の3ワット時という推定値は、主に古い研究や仮定に基づいており、当時OpenAIは効率の低いチップを使用していると仮定されていたためです。You氏はまた、AIの将来的な消費電力に関する懸念は当然のことながら、現状については明確な認識が不足していると指摘しています。
しかし、You氏も、Epochによる0.3ワット時という数値はあくまで近似値であり、OpenAIは詳細な消費電力計算データを開示していないことを認めています。さらに、この分析では、画像生成や入力処理など、追加機能による消費電力は考慮されていません。大量のファイルを含むクエリなど、長い入力クエリの場合、消費電力は高くなる可能性があるとYou氏は述べています。
現在の消費電力データは低いものの、You氏は将来的な消費電力の上昇を予想しています。AI技術の進歩に伴い、これらのモデルのトレーニングに必要なエネルギー需要が増加する可能性があり、将来のAIはより複雑なタスクを担うようになり、より多くの電力を消費する可能性があると述べています。
同時に、AIのインフラは急速に拡大しており、莫大な電力需要につながっています。例えば、Rand社の報告書によると、今後2年以内に、AIデータセンターはカリフォルニア州全体の2022年の電力供給量をほぼ全て必要とする可能性があると予測されています。2030年までに、最先端モデルのトレーニングに必要な消費電力は、原子力発電所8基分に相当する電力出力に達するとされています。
OpenAIとその投資パートナーは、今後数年間で新しいAIデータセンタープロジェクトに数十億ドルを投資する計画です。AI技術の発展に伴い、業界の注目は推論モデルに向き始めており、これらのモデルはタスク処理においてより高い能力を備えている一方で、より多くの計算能力と電力サポートを必要としています。
自身のAI消費電力を懸念する人々に対して、You氏は使用頻度を減らすか、計算需要の低いモデルを選択して使用することを提案しています。
要点:
🌱 ChatGPTの平均消費電力は0.3ワット時で、初期推定値の3ワット時をはるかに下回っています。
🔌 AI消費電力の増加は、主に将来的な技術進歩とより複雑なタスクの処理に関連しています。
🏭 OpenAIは今後数年間で巨額の資金を投じてAIデータセンターを拡大し、増加する電力需要に対応する計画です。