AIエネルギー調査の舞台裏——本誌はこうして算出した
AIは多くの電力を消費するという点で気候問題に影響を及ぼしているが、それがどの程度なのかわかっていない。AIがどの程度のエネルギーを消費し、二酸化炭素を排出しているをかを見積もるために本誌が使った手法について説明しよう。 by Casey Crownhart2025.06.16
- この記事の3つのポイント
-
- AIのエネルギー使用量測定には統一された方法論や公的データベースが存在しない
- テック企業は自社AIのエネルギー消費量を開示せず透明性が極めて低い
- 本誌は研究者の協力を得てオープンモデルの測定データから推論段階の影響を分析した
MITテクノロジーレビューが入手可能な最も信頼できるデータに基づいて、人工知能(AI)のエネルギーと排出の負担に関する推定値の記事を書こうと決めたとき、これらの数字に注意点や不確定要素があることは認識していた。しかし、本誌取材班はすぐにこれらの注意点もまた記事になることに気がついた。
AIモデルが使用するエネルギーを測定することは、自動車の燃費や家電製品のエネルギー定格を評価するようなものではない。合意された方法も、公的な数値のデータベースもない。基準を強制する規制当局もなく、消費者にはあるモデルと他のモデルを比較評価する機会もない。
AIのニーズに合わせてエネルギーインフラを再構築するために何十億ドルもの資金が投入されているにもかかわらず、AIのエネルギー使用量を定量化する方法はまだ確立されていない。さらに悪いことに、一般的にテック企業は自社のAIがどれだけのエネルギーを使用しているかを開示したがらない。加えて、送電網は複雑で絶えず変化するさまざまなエネルギー源を扱うため、エネルギー需要に関連する温室効果ガス排出量を見積もるには限界がある。
基本的には大混乱の状況だ。そのため、私たちがAIへのクエリ(問い合わせ)の影響を計算するために使用した多くの変数、仮定、および注意点を以下に紹介する(調査の全結果は以下の一覧からご覧いただきたい)。
モデルが使用するエネルギーの測定
一般的にオープンAI(OpenAI)のような「クローズドソース」モデルを扱うテック企業が提供しているのは、質問を入力すると答えが返ってくるインターフェイスを通じてAIシステムを利用できるサービスだ。その間に何が起こっているのか、つまり世界のどのデータセンターがあなたのリクエストを処理しているのか、そのために必要なエネルギーはどれほどなのか、使用されているエネルギー源の炭素強度はどれほどなのかは、その企業だけが知っている秘密となっている。このような情報を公表するメリットはほぼないため、今のところほとんどの企業が公表していない。
そのため、今回の分析で私たちが注目したのはオープンソースのモデルだ。オープンソースモデルは代用としては非常に不完全なものではあるが、それでも無いよりはましだろう(オープンAI、マイクロソフト、グーグルは、自社のクローズドソースモデルが使用するエネルギー量について詳細を共有することを拒否した)。
オープンソースAIモデルのエネルギー消費量を測定するのに最適なリソースは、AIエナジースコア(AI Energy Score)、MLエナジー(ML.Energy)、そしてMLパーフパワー(MLPerf Power)だ。ML.Energyの運営チームはテキストモデルと画像モデルの計算を、AI Energy Scoreの運営チームは動画モデルの計算を手伝ってくれた。
テキスト生成モデル
AIモデルは2段階でエネルギーを消費する。膨大なデータから学習する初期段階(「訓練」と呼ばれる)と、クエリに応答する段階(「推論(inference)」と呼ばれる)である。数年前にチャットGPT(ChatGPT)が発表されたときに注目されたのは訓練で、テック企業は追いつけ追い越せと競ってより大きなモデルを作り上げた。しかし今、最もエネルギーが使われているのは推論だ。
AIモデルが推論段階で使用するエネルギー量を把握する最も正確な方法は、リクエストを処理するサーバーが使用する電力量を直接測定することだ。サーバーにはあらゆる種類のコンポーネントが含まれている。コンピューティングの大部分を担うGPU(画像処理装置)と呼ばれる強力なチップ、CPUと呼ばれるその他のチップ、すべてを冷却するファンなどだ。研究者は通常、GPUが消費する電力量を測定し、残りを推定する(これについては後ほど詳しく説明する)。
そのために私たちは、ミシガン大学の博士課程生であるジェウォン・チョンと准教授のモシャラフ・チョウドゥリーに協力を仰いだ。ML.Energyプロジェクトを率いる2人だ。彼らのチームからさまざまなモデルのGPUエネルギー使用量の数字を集めた後、私たちは冷却など他のプロセスにどれだけのエネルギーが使われているかを推定しなければならなかった。私たちはGPUがサーバーの総エネルギー需要のどの程度を担っているかを把握するため、マイクロソフトの2024年の論文を含む研究文献を調査した。すると、約半分であることがわかった。そこで私たちは、チョウドゥリー准教授らのチームのGPUエネルギーの見積もりを2倍にすることで、おおよその総エネルギー需要を把握した。
ML.Energyのチームはモデルをテストするのに、より大きなデータセットから500のプロンプト(指示テキスト)のかたまりを使用する。ハードウェアは一貫して同じものを使用する。GPUはH100と呼ばれる人気の高いエヌビディア(Nvidia)製チップだ。私たちはメタの「ラマ(Llama)」ファミリーの中から、小型(80億パラメータ)、中型(700億パラメータ)、大型(4050億パラメータ)の3つのサイズのモデルに焦点を当てることにした。テストに使うプロンプトも選択した。比較したのは、これらと500のプロンプトのかたまり全体の平均である。
画像生成モデル
スタビリティAI(Stability AI)の「ステーブル・ディフュージョン(Stable Diffusion)3」は、オープンソースの画像生成モデルとして最もよく使われているものの1つだ。そのため、私たちはこのモデルに焦点を当てることにした。テキストモデルではメタのLlamaモデルの複数のサイズをテストしたが、画像モデルに関してはパラメータが20億個あるStable Diffusion 3の最も一般的なサイズの1つ …
- 人気の記事ランキング
-
- Inside the tedious effort to tally AI’s energy appetite 動画生成は別次元、思ったより深刻だったAIの電力問題
- Promotion Call for entries for Innovators Under 35 Japan 2025 「Innovators Under 35 Japan」2025年度候補者募集のお知らせ
- What’s next for AI and math 数学オリンピックで「人間超え」のAIは数学者になれるか?
- IBM aims to build the world’s first large-scale, error-corrected quantum computer by 2028 IBM、世界初の大規模誤り訂正量子コンピューター 28年実現へ
- What is vibe coding, exactly? バイブコーディングとは何か? AIに「委ねる」プログラミング新手法