急成長を続けるAI(人工知能)技術。私たちの生活や仕事を劇的に変える可能性を秘める一方で、その裏では膨大な電力が消費されているという事実は、これまであまり光が当てられてこなかった。しかし、この「隠されたコスト」について、マサチューセッツ工科大学(MIT)の科学技術誌「MIT Technology Review」が詳細な調査レポートを発表。私たちの日常的なAI利用が、実は地球環境に無視できない負荷を与えている可能性を白日の下に晒している。
ベールに包まれたAIの電力消費にメス
AIの進化は目覚ましく、チャットボットでの調べ物から画像・動画生成まで、その恩恵は多岐にわたる。しかし、これらのサービスを動かすためにどれだけのエネルギーが使われているのか、具体的な数値はこれまで謎に包まれてきた。MIT Technology Review(以下、MIT TR)は、AIのエネルギー需要を測定する20数名の専門家への取材、独自の実験、数百ページに及ぶ予測や報告書の精査、そして主要AIモデル開発企業への聞き取り調査を実施。その結果、「AIのエネルギー消費に関する一般的な理解は穴だらけだ」と結論付けている。
特に問題視されているのが、OpenAIやGoogleといった巨大テック企業によるAIモデルの内部構造や運用実態に関する情報開示の乏しさである。MIT TRのレポートは、SalesforceのAIサステナビリティ責任者であるBoris Gamazaychikov氏の「クローズドAIモデルの提供者は完全なブラックボックスを提供している」という言葉を引用し、この不透明性が正確なエネルギー消費量の把握を著しく困難にしていると指摘している。
今回のMIT TRのレポートは、この「ブラックボックス」に可能な限り光を当て、個々のクエリから業界全体の将来像まで、AIのエネルギーフットプリントを包括的に明らかにしようとする野心的な試みと言える。
1回のAI利用でどれだけ電気を食う?驚きの試算結果
MIT TRは、オープンソースモデルを中心に、テキスト生成、画像生成、動画生成といった代表的なAI利用シナリオにおけるエネルギー消費量を試算した。その結果は、私たちの日常的なAI利用がいかにエネルギーを消費しているかを具体的に示している。
テキスト生成:Llama 3.1モデルの場合
Metaが提供するオープンソースの大規模言語モデル(LLM)「Llama」ファミリーを例に見てみよう。Hugging Faceの研究者との協力により、以下の数値が示された。
- Llama 3.1 8B(80億パラメータ): 1回のクエリ(応答生成)で約57ジュール。冷却などを含めたデータセンター全体の運用を考慮すると、この数値は約2倍の114ジュールに相当する。これは、電子レンジを約0.1秒作動させるエネルギー量である。
- Llama 3.1 405B(4050億パラメータ): パラメータ数が約50倍のこの大規模モデルでは、1回の応答生成に必要なエネルギーは約3,353ジュール。同様に2倍すると約6,706ジュール。電子レンジを約8秒作動させるエネルギーに匹敵する。
OpenAIのGPT-4は1兆を超えるパラメータを持つと推定されており、そのエネルギー消費量はLlama 3.1 405Bをさらに上回る可能性が高いと考えられる。
画像生成:Stable Diffusion 3 Mediumの場合
画像生成AIの代表格であるStable Diffusion 3 Medium(20億パラメータ)で標準品質(1024×1024ピクセル)の画像を1枚生成する場合、GPUだけで約1,141ジュール。全体では約2,282ジュールと推定される。これは、電子レンジを約2.8秒作動させるエネルギー量。驚くべきことに、これは大規模なテキスト生成モデルよりも少ないエネルギー消費である。MIT TRは、画像生成モデルのパラメータ数が比較的小さいこと、そして拡散(diffusion)プロセスが推論(inference)よりもエネルギー効率が良いことを理由として挙げている。
動画生成:CogVideoXの場合 – まさに「エネルギーのブラックホール」
AIによる動画生成は、桁違いのエネルギーを消費する。オープンソースモデルの一つであるCogVideoX(中国のZhipu AIとTsinghua Universityが開発)を例に取ると、わずか5秒間の動画(16フレーム/秒)を生成するために消費するエネルギーは、実に約340万ジュール。これは電子レンジを約1時間作動させるか、電動アシスト自転車で約61km(38マイル)走行するエネルギー量に相当する。
OpenAIのSoraのような、より高度でリアルな動画を生成する最先端モデルは、これよりはるかに多くのエネルギーを消費すると考えるのが自然である。
日常的なAIヘビーユーザーの電力消費は?
これらのデータに基づき、MIT TRはAIを頻繁に利用する個人の1日あたりの電力消費量を試算した。
- テキスト生成AIへの質問:15回
- 画像生成AIでの画像試行:10回
- 5秒動画の生成試行(Instagram用):3回
これらを合計すると、1日で約2.9kWh(キロワット時)の電力を消費する計算になる。これは、一般的な家庭用電子レンジ(1000W)を約3.5時間連続使用する電力に相当するもので、AIの日常的な利用が積み重なることのインパクトを示唆していると言えるだろう。
「チリツモ」が招く環境負荷:CO2排出量の不都合な真実
AIのエネルギー消費は、そのままCO2排出量の問題へと繋がる。データセンターが消費する電力が、どのエネルギー源から供給されているかによって、その環境負荷は大きく変動するのである。
MIT TRのレポートは、データセンターが24時間365日常時稼働を求められるため、太陽光や風力といった断続的な再生可能エネルギーだけに頼ることは難しく、結果として化石燃料への依存度が高くなりがちであると指摘している。ハーバード大学のT.H. Chan School of Public Healthのプレプリント研究によると、米国のデータセンターが使用する電力の炭素強度(1kWh発電する際のCO2排出量)は、米国全体の電力平均よりも48%も高いという結果が出ている。これは、データセンターが石炭火力発電の比率が高い地域(ヴァージニア州、ウェストヴァージニア州、ペンシルベニア州などの中部大西洋地域)に集中していることや、クリーンエネルギーの供給が少ない夜間も稼働し続けることなどが要因として挙げられる。
同じAIクエリでも、処理されるデータセンターの場所や時間帯によって、CO2排出量は大きく変わる。例えば、前述のAIヘビーユーザーが消費する2.9kWhの電力は、クリーンエネルギーの比率が高いカリフォルニア州であれば平均約650グラムのCO2排出に相当するが、石炭火力への依存度が高いウェストヴァージニア州では1,150グラム以上に膨れ上がる可能性があるのだ。
AIモデルには同じ、または類似の質問に対して応答を保存し再利用することでエネルギー消費を削減する「プロンプトキャッシング」といった技術も導入されているが、これが全体的なエネルギー消費急増の流れを覆すほどの効果を持つかは未知数である。
データセンターは「電力ブラックホール」へ? AIが招くエネルギー危機
個々のクエリの積み重ねは、データセンター全体の膨大な電力消費へと繋がる。MIT TRによると、データセンターの電力消費量は、技術効率の向上により長らく横ばい傾向にあったが、AIの台頭により2017年頃から急増に転じた。
Lawrence Berkeley National Laboratoryが2024年12月に発表したレポートでは、米国のデータセンター全体の電力消費量は2024年時点で年間約200テラワット時(TWh)と推定されている。これはタイ一国分の年間電力消費量に匹敵する。このうち、AI専用サーバーだけで53~76TWhを消費しており、これは米国の家庭720万世帯分以上の年間電力消費量に相当する。
さらに衝撃的なのは将来予測である。同レポートは、2028年までにAI専用の電力消費量が年間165~326TWhに達すると予測。これは、現在の米国データセンター全体の総消費電力を上回り、米国の全家庭の年間電力消費量の22%にも達する規模である。この電力消費が化石燃料に依存した場合、CO2排出量は地球と太陽を1,600回以上往復する自動車走行距離に匹敵する可能性がある。
テック巨人の「グリーン」戦略の虚実:原子力傾倒と情報開示の壁
この危機的な状況に対し、Meta、Amazon、Googleといったテック企業は、原子力発電の利用拡大を解決策の一つとして掲げ、2025年までに世界の原子力発電能力を3倍にするという誓約にも参加している。OpenAIも、Microsoftと共同で計画している最大1000億ドル規模のデータセンタープロジェクト「Stargate」について、初期には天然ガスと太陽光を利用しつつ、将来的には原子力や地熱発電の導入も視野に入れていると述べている。
しかし、新たな原子力発電所の稼働には数年から数十年単位の時間がかかる。現状では、データセンターが多く立地するヴァージニア州のように、天然ガスの比率が高い電力網に依存しているケースが少なくない。MIT TRは、Elon MuskのxAI社のスーパーコンピューティングセンターが、規制当局の承認を得ずに多数のメタンガス発電機を使用していた疑いを指摘し、短期的な電力確保が環境規制を度外視する形で進められている可能性も示唆している。
最大の問題は、依然として続く情報の不透明性である。Lawrence Berkeley National Laboratoryのレポートも、「テック企業、データセンター事業者、電力会社、ハードウェアメーカーから開示される情報は、この前例のないエネルギー需要の将来を合理的に予測したり、排出量を推定したりするには不十分だ」と批判している。
さらに、ハーバード大学の電力法イニシアチブの研究によると、電力会社が巨大テック企業に提供する電力料金の割引分が、最終的に一般消費者の電気料金に転嫁される可能性があることも指摘されている。Virginia州議会の2024年の報告書では、州内の一般家庭の電気料金がデータセンターのエネルギーコストにより月額37.50ドル追加負担になる可能性があると試算されている。
私たちはAIとどう向き合うべきか?未来への提言
AIの利便性は否定すべくもない。しかし、MIT TRが指摘するように「AIは避けられない」存在となり、「今日のAIのフットプリントは、これまでで最小である可能性が高い」という現実は、私たちに警鐘を鳴らしている。特に、AIが自律的にタスクを実行する「AIエージェント」や、個人のデータに基づいて学習する「パーソナライズされたAI」、さらには複雑な問題を論理的に解決する「推論モデル」といった次世代AIは、現在のAI利用とは比較にならないほど大量のエネルギーを消費する可能性がある。Hugging FaceのSasha Luccioniは、「今後数年間は、まったく予測がつかない」と、将来のエネルギー需要に対する強い懸念を示している。
今回のMIT TRのレポートは、AIの電力消費という「不都合な真実」に光を当て、社会全体での議論を促す重要な一石を投じた。個人の意識向上(例えば、不必要なAI利用を控えるなど)もさることながら、企業による一層の情報開示、省エネルギー技術への投資と開発、そしてクリーンエネルギーへの大胆な転換を政策レベルで推進していくことが急務と言えるだろう。
AIという強力なツールと持続可能な形で共存していくために、私たち一人ひとりが、そして社会全体が、この問題を真摯に受け止め、賢明な選択をしていく必要がありそうだ。
Source
- MIT Technology Review: We did the math on AI’s energy footprint. Here’s the story you haven’t heard.