AIチャットボットChatGPTの電力消費量は、以前考えられていたよりも大幅に少ない可能性がある。新たな調査で、利用方法やAIモデルに依存するものの、その消費量は過大評価されていた可能性が示唆された。
ChatGPTの電力消費、従来予測の10分の1?
AI研究機関Epoch AIの新たな分析によると、OpenAIのチャットボットプラットフォームChatGPTの消費電力は、一般的に考えられているよりも大幅に低い可能性があることが示唆された。従来の推定では、ChatGPTの1回のクエリ応答に約3ワット時(Wh)の電力を消費するとされていたが、Epoch AIの分析では、ChatGPTの平均的なクエリの消費電力は約0.3Whと推定されるとのことだ。これは、従来の推定値の10分の1に相当し、一般的な家庭用電化製品よりも低い水準である。
Epochのデータアナリスト、Joshua You氏は、「ChatGPTのエネルギー消費は、通常の家電製品の使用、家庭の冷暖房、車の運転と比較して、実際には大した問題ではない」とTechCrunchに語っている。
この分析は、OpenAIの最新モデルGPT-4oを基準として行われた。GPT-4oは、以前のモデルよりも効率的なチップを使用している可能性があり、その結果、電力消費量が削減されていると考えられる。
You氏は、彼の分析は、時代遅れと特徴付けた以前の研究に触発されたとTechCrunchに語った。例えば、3ワット時という推定値に到達したレポートの著者は、OpenAIがモデルを実行するためにより古く、効率の低いチップを使用していると仮定していた点を指摘した。
ただし、ChatGPTの消費電力は、使用されるAIモデルとクエリの内容によって大きく変動する可能性がある。Epoch AIの分析は、OpenAIの最新デフォルトモデルであるGPT-4oを基準としているが、より高度な推論モデルや画像生成機能などを使用すると、消費電力は増加する可能性がある。
AIのエネルギー消費、依然として議論の対象
Epochの0.3ワット時という数値も概算であり、OpenAIは正確な計算に必要な詳細を公開していない。また、画像生成などのChatGPTの機能による追加のエネルギーコストや、入力処理も考慮されていない。「長い入力」を伴うChatGPTクエリ(例えば、長いファイルが添付されたクエリ)は、典型的な質問よりも多くの電力を消費する可能性がある。
Epoch AIのレポートでは、将来的には消費電力が増加する可能性も指摘されている。You氏は、「AIはより高度になり、このAIをトレーニングするには、おそらくより多くのエネルギーが必要となるでしょう。そして、将来のAIは、今日の人々がChatGPTを使用する方法よりも、はるかに多くのタスク、より複雑なタスクを処理するようになります」と述べた。
実際、AI技術の進歩によりエネルギー効率は向上しているものの、AIの利用拡大とモデルの高度化は、データセンターの電力需要を増大させる要因となる。Rand研究所の報告書によると、今後2年間でAIデータセンターは、カリフォルニア州の2022年の電力容量(68GW)に匹敵する電力を必要とする可能性があり、2030年までに最先端モデルのトレーニングには、8基の原子炉に相当する電力(8GW)が必要になると予測される。
AIのエネルギー使用量とその環境への影響は、AI企業がインフラを急速に拡大しようとする中で、激しい議論の対象となっている。100を超える組織のグループは先週、AI業界と規制当局に対し、新しいAIデータセンターが天然資源を枯渇させ、再生可能エネルギー以外のエネルギー源に依存することを強いることのないよう求める公開書簡を発表した。
Sources
- Epoch AI: How much energy does ChatGPT use?
- Tech Crunch: ChatGPT may not be as power-hungry as once assumed
コメント