テクノロジーと科学の最新の話題を毎日配信中!!

MicrosoftはAIコスト負担を利用者に転嫁するためデータセンター計画を縮小し価格を引き上げ

Y Kobayashi

2025年3月3日

主力製品に生成AIを組み込んで1年が経過し、Microsoftはコスト回収のため価格引き上げ、製品への広告掲載、データセンターリースのキャンセルを実施している。Googleも同様の動きを見せており、Workspaceサービスに不可避のAI機能を追加しながら価格を引き上げている

生成AIへの投資に対する潮目は変わりつつあるのだろうか?状況はそれほど単純ではない。テクノロジー企業は新技術に全面的にコミットしているが、利用者に支払わせる方法を見つけるのに苦戦している。

コスト転嫁

先週、Microsoftは計画していたデータセンターのリースの一部を唐突に撤回した。この動きは、同社が主力の365ソフトウェアのサブスクリプション価格を最大45%引き上げ一部製品の広告付きバージョンを静かにリリースした後に行われた。

MicrosoftのCEO、Satya Nadella氏も最近、AIがこれまでのところあまり価値を生み出していないと示唆した。

Microsoftの行動は、OpenAIの5000億ドルのStargateデータセンタープロジェクトなどの派手な発表の中で、現在のAIブームの中では奇妙に見えるかもしれない。

しかし詳しく見ると、Microsoftの決定はAIそのものからの撤退を示すものではない。むしろ、コストを目立たない形で消費者に転嫁することでAIを収益化する戦略の変更が見られる。

生成AIのコスト

生成AIは高コストである。市場リーダーであり、4億人の月間アクティブユーザーを抱えるとされるOpenAIは赤字経営をしている。

昨年、OpenAIは37億ドルの収益を上げたが、約90億ドルを支出し、約50億ドルの純損失を計上した。

MicrosoftはOpenAIの最大の投資家であり、現在同社にクラウドコンピューティングサービスを提供しているため、OpenAIの支出はMicrosoftにとってもコストとなる。

生成AIがこれほど高コストである理由は何か?人的労働力を別にすると、AIモデルには、トレーニング(モデルの構築)とインファレンス(モデルの使用)という2つのコストが関連している。

トレーニングが(多くの場合大きな)初期費用である一方、インファレンスのコストはユーザーベースと共に増加する。そしてモデルが大きいほど、運用コストは高くなる。

より小さく安価な代替案

OpenAIの最先端モデルでの1回のクエリは、計算能力だけで最大1000ドルのコストがかかる可能性がある。1月、OpenAI CEOのSam Altman氏は、同社の月額200ドルのサブスクリプションでさえ採算が取れていないと述べた。これは同社が無料モデルの使用を通じてだけでなく、サブスクリプションモデルを通じても損失を出していることを示している。

トレーニングとインファレンスの両方は通常データセンターで行われる。コストが高い理由は、それらを実行するために必要なチップが高価であるだけでなく、電力、冷却、ハードウェアの減価償却も同様に高価だからである。

これまで、AI進歩の多くはあらゆるものをより多く使用することで達成されてきた。OpenAIは最新のアップグレードを「巨大で高価なモデル」と表現している。しかし、このコストを顧みない拡大アプローチが必要でさえないかもしれないという兆候が現在多く見られる。

中国企業のDeepSeekは今年初め、OpenAIの主力製品に匹敵するモデルをトレーニングコストのごく一部で構築したことを明らかにして波紋を広げた。同様に、シアトルのAllen Institute for AI(Ai2)とスタンフォード大学の研究者たちは、わずか50ドルでモデルをトレーニングしたと主張している。

要するに、テクノロジー大手によって開発・提供されるAIシステムは採算が取れていない可能性がある。データセンターの構築と運用のコストが、その大きな理由である。

Microsoftは何をしているのか?

数十億ドルを生成AIに投資したMicrosoftは、この技術を収益化するビジネスモデルを見つけようとしている。

過去1年間、この技術大手は消費者やビジネス向け製品にCopilot生成AIチャットボットを統合してきた。

現在、CopilotなしでMicrosoft 365のサブスクリプションを購入することはできなくなっている。その結果、加入者は大幅な価格引き上げを目の当たりにしている。

前述の通り、データセンターで生成AIモデルを実行するのは高コストである。そのため、Microsoftはユーザー自身のデバイスでより多くの作業を行う方法を模索している可能性が高い。そこではユーザーがハードウェアとその運用コストを負担する。

この戦略を示す強力な手がかりは、Microsoftが昨年デバイスに配置し始めた小さなボタンである。QWERTYキーボードの貴重なスペースで、Microsoftはデバイス上でAIを処理できるPCやラップトップにCopilot専用のキーを設けた。

Appleも同様の戦略を追求している。iPhoneの製造元はそのAIサービスのほとんどをクラウドで提供していない。代わりに、新しいデバイスのみがAI機能を提供し、デバイス上での処理はデータが他の場所に移動するのを防ぐプライバシー機能として市場に出されている。

エッジへのコスト押し付け

ポケットの中、机の上、あるいは手首のスマートウォッチなどのコンピューティングデバイスで生成AIのインファレンス作業を行うという動き(ネットワークの「エッジ」で行われるため「エッジコンピューティング」と呼ばれる)には利点がある。

データセンターのエネルギー、資源、廃棄物を削減し、生成AIの炭素、熱、水の足跡を減らすことができる。また、帯域幅の需要を減らし、ユーザーのプライバシーを向上させる可能性もある。

しかし欠点もある。エッジコンピューティングは計算コストを消費者に転嫁し、頻繁なアップグレードを思いとどまらせる経済的・環境的懸念にもかかわらず、新しいデバイスに対する需要を促進する。これは、より新しく大きな生成AIモデルによって激化する可能性がある。

さらに問題がある。分散型の電子廃棄物はリサイクルをより困難にする。さらに、デバイスがAIの品質を決定する場合、特に教育環境ではユーザーの競争条件は平等ではなくなる。

また、エッジコンピューティングはより「分散化」されているように見えるかもしれないが、ハードウェア独占にもつながる可能性がある。ほんの一握りの企業がこの移行を支配している場合、分散化は見た目ほどオープンではないかもしれない。

AIインフラのコストが上昇し、モデル開発が進化するにつれて、コストを消費者に転嫁することはAI企業にとって魅力的な戦略となる。政府機関や大学などの大企業はこれらのコストを管理できるかもしれないが、多くの中小企業や個人消費者は苦戦するかもしれない。


本記事は、クイーンズランド工科大学 GenAIラボ リサーチフェローのKevin Witzenberger氏とシドニー工科大学メディア学部准教授Michael Richardson氏によって執筆され、The Conversationに掲載された記事「Microsoft cuts data centre plans and hikes prices in push to make users carry AI costs」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする

コメントする