データセンターの安全性や信頼性を、設計や設備構成から格付けする世界で唯一の機関であるUptime Instituteの創立メンバーであり、リサーチ部門のエグゼクティブ・ディレクターAndy Lawrence氏によるData Center Dynamicsへの寄稿の中で、昨今懸念される生成AIの需要の高まりによるデータセンターの電力消費量の実際を論じている。同社の分析によれば、AIワークロードのデータセンター全体の電力消費量に占める割合は大分誇張されているようだ。
生成AIの電力需要見積もりの誇張は過度な規制を招く恐れ
Uptime Instituteに寄せられた生成AIとそのデータセンターセクターへの影響に関する質問で最も多いものは電力に関するものだったという。実際のところ、生成AIモデルの効率的な作成と使用には計算クラスターが必要であり、これらは非常に電力を大量に消費するからだ。
その中で、「生成AIはデータセンターの密度、電力分配、冷却にどのような影響を与えるのか?」という質問に対し、Uptime Instituteの見解は、密度に関する懸念は誇張されていると言うものだ。NVIDIAのアクセラレータを装備した生成AIモデルのトレーニング用AIシステムは通常よりも密度が高いが、極端ではなく、より多くのキャビネットに分散させることで管理可能だからだ。
また、「AIはどれだけのグローバル電力を使用または必要とするのか?」と言う質問も多く寄せられているが、報道や会議で引用されるAIの電力に関する数字の一部は非常に高い。この数字が正確であればいいが、過度に高い予測は規制当局の過剰反応を引き起こす可能性があると、Lawrence氏は指摘する。
Schneider Electricの信頼できる予測では、2023年にはAIの電力需要が4GW(年間換算で35TWh)、2028年には約15GW(年間換算で131TWh)に達するとしている。これらの数字はすべてのAIワークロードを含んでいる可能性が高い。
デジタルトレンドプラットフォームDigiconomistのAlex de Vries氏は、2027年までにAIワークロードの使用量が85TWhから134TWhに達すると推定している。これらの数字は、今後数年間でデータセンターの電力需要に対してAIが30%から50%以上を追加することを示唆している。
しかし、Uptime Intelligenceはこれらの予測が過度に楽観的であると考えている。理由として、AIワークロードの電力消費の見積もりが困難であることと、長期的な予測の不確実性が高いことが挙げられる。それでも、NVIDIAベースのシステムによる生成AIインフラの電力使用量は2024年第一四半期には5.8TWh、2025年第一四半期には21.9TWhに達すると予測している。
Uptime Instituteは、2020年から2022年の期間で推定されるデータセンターの総エネルギー使用量は200TWhから450TWhの間にある事から、年間データセンター電力消費量の中央値として300TWhを採用し、2024年第一四半期のデータセンター電力消費量の約2.3%が生成AIによるものと見積もっている。しかし、2025年第一四半期には7.3%に達する可能性があるとも指摘している。
全体として、これらの数字は、生成AIの電力使用が現在のところ破壊的な影響を与えていないことを示唆していると、Uptime Instituteは指摘する。生成AI需要の爆発により、電力需要も高まっているが、データセンター自体の成長も著しい事もあり、2025年末までに電力によるデータセンター容量の割合は低〜中の一桁台に留まると見られる。
Uptime Instituteは、生成AIの電力使用(およびデータセンターの電力使用)の一部の見積もりが高すぎると考えているが、急激な増加と特定の地域での需要の集中は依然として高く、規制の関心を引きつけ刺激するだろう可能性を指摘している。
Source
- Data Center Dynamics: Generative AI and global power consumption: High, but not that high
コメント