レイオフが続くゲーム会社で、人工知能(Artificial Intelligence:AI)の導入は制作時間短縮よりも自分の職が消える合図に見えやすい。Google Cloudは「約9割の開発者がAIを使っている」と語る一方、Game Developers Conference(GDC)の調査では生成AIを警戒する回答が52%まで上昇した。導入率が上がれば受容も進む、という筋書きはゲーム開発の現場では崩れている。90%と52%が同時に成立する理由は、AIの性能差ではなく、効率化の利益と雇用リスクの分配にある。
レイオフの後に届く「効率化」は別の意味を持つ
GDC 2026 State of the Game Industry Report [PDF]では、回答者の28%が過去2年以内にレイオフを経験した。米国では33%に上がり、AAA(大規模商業ゲーム)スタジオ勤務者では3分の2が所属企業でレイオフがあったと答えた。過去12カ月に勤務先または直近の勤務先がレイオフを実施したという回答も半数に達する。AIの導入議論は、雇用不安が広がった職場に後から重なった。
2022年以降のゲーム業界では、世界全体で約45,000人規模の人員削減が報じられている。GDC調査では学生の74%が将来の就職見通しに不安を示し、エントリーレベル職の不足、経験者との競争、AIによる職の置換を挙げた。新卒やジュニア職が減れば、将来のリードアーティスト、テクニカルデザイナー、ツールエンジニアを育てる経路も細る。下積みの実務をAIが吸収するほど、若手が失敗しながら覚える入口は狭くなる。
GDC 2026調査では、生成AIがゲーム業界に悪影響を与えていると考える回答者が52%に達した。前年は30%、前々年は18%だったため、2年で34ポイント増えた計算だ。肯定的に見る回答者は7%で、前年の13%から下がった。報告書内の自由回答には、「生成AIを使うくらいなら業界を辞める」という発言も掲載されている。
職種別では、視覚・技術アートが64%、ゲームデザイン・ナラティブが63%、プログラミングが59%で否定的な見方を示した。AIが直接触れる作業領域ほど反発が強く、経営、事業運営、マーケティング寄りの職種では肯定や混合評価が相対的に増える。アート、脚本、コードの現場では、効率化が「削減できる工数」として読まれる。数字の受け取り方は、職種によって最初から分かれている。
9割という数字は、Google Cloudが見た開発現場の断面だ
2026年4月22日、Mobilegamer.bizはGoogle Cloudのグローバルゲーム部門ディレクターであるJack Buser氏の発言を掲載した。Buser氏は、プレイヤーが気づいていないだけで「いま遊んでいるお気に入りのゲームはすでにAIで作られている」と述べた。Gamescom周辺で実施した調査では「およそ10人中9人」の開発者がAIを使っているとも説明している。他の調査では40〜50%程度に見えると認めたうえで、その差を「開発者がAI利用を明かす意思」の問題と見た。
2025年8月18日にGoogle Cloudが発表したThe Harris Poll調査は、Buser氏の「9割」発言を支える公式データだ。調査は2025年6月20日から7月9日にかけて、米国、韓国、フィンランド、ノルウェー、スウェーデンのゲーム開発者615人を対象にオンラインで実施された。結果として90%がAIをワークフローに統合済み、97%が生成AIが業界を変革している、95%が反復タスク削減を確認したと回答している。Google Cloudはゲーム会社にAI基盤を売る立場にあり、この調査は導入が進んだ開発組織の姿を強く映す。
| 調査 | 対象 | AI利用率 | 読み取れる範囲 |
|---|---|---|---|
| Google Cloud / The Harris Poll | 5カ国のゲーム開発者615人 | 90%がAIをワークフローに統合 | AI導入に積極的な開発組織の業務利用を広く拾う |
| GDC 2026 | 業界関係者2,300人超 | 個人利用36%、企業・部門利用52% | 職種差、現場感情、企業ポリシーの分裂を拾う |
GDC 2026 State of the Game Industry Reportは、2,300人超のゲーム業界関係者を対象にした調査だ。「仕事の一部として生成AIツールを使う」と答えた個人は36%にとどまり、所属企業または部門で生成AIが使われていると答えた割合は52%だった。Google Cloud / The Harris Pollの90%と比べると、個人利用で54ポイント、企業利用でも38ポイントの差が出る。どちらか一方が誤りというより、母数と設問がそもそも違う。
GDC調査では、ゲームスタジオ所属者のAI利用は30%だった。パブリッシャー、サポートチーム、マーケティング/PRでは58%に上がり、業務部門の利用率も58%に達する。上級管理職は47%、現場寄りの職位は29%だった。メール、調査、マーケティング素材にAIを使う部門を含めれば「企業利用」は上がるが、ゲーム本体を作る開発者の個人利用とは一致しない。
Buser氏の発言は、ゲーム制作の見えにくい場所にAIが入った事実を伝えている。一方で、現場の開発者が毎日の作業でAIを任意に使っているか、会社の別部門が使っているかは分けて読まれるべきだ。90%が語る「浸透」と36%が語る「手元の利用」は、同じ現象の別角度ではない。企業発表への不信は、このズレから膨らむのだ。
プレイテスト47%、翻訳45%、コード44%で先に入り込んだ
Google Cloud / The Harris Poll調査では、AI利用の主要領域としてプレイテストとバランス調整が47%、ローカリゼーションと翻訳が45%、コード生成とスクリプト支援が44%と示された。プレイヤーの目に直接触れるキャラクターやシナリオより、反復と検証の比重が高い工程にAIが入り込んでいる。ゲーム制作では、敵の体力、武器の威力、報酬テーブル、チュートリアルの離脱率を何度も調整する。AIは候補を試し、異常値を見つけ、翻訳やコード断片を先に埋める補助装置になる。
プレイテストでAIが効果的なのは、ゲームが入力と結果の連鎖でできているためだ。人間のテスターが数十時間かけて試すパターンを、AIエージェントは短時間で繰り返し、極端に強い戦術や進行不能地点を探す。バランス調整では、プレイヤーの行動ログと難易度曲線を照合し、失敗率が急上昇する場面や報酬が過剰な場面を候補として出す。最終判断はデザイナーが下すが、候補発見の速度が上がれば調整サイクルは短くなる。
ローカリゼーションでも同様の構造が働く。RPGやライブサービス型ゲームでは、アイテム説明、イベント告知、ユーザーインターフェース(User Interface:UI)文言、サポート文書が継続的に増える。生成AIは初稿翻訳、用語統一、文体チェックを担い、人間のローカライズ担当者は文化的な違和感、キャラクターの口調、規制対応に時間を振り向ける。コード生成とスクリプト支援では、定型処理、テストコード、ツール用スクリプトの作成時間を圧縮する使い方が中心になる。
GDC調査でAI利用者が挙げた用途は、研究・ブレインストーミングが81%、日常業務とコード支援がそれぞれ47%、プロトタイピングが35%だった。最も使われた大規模言語モデル(Large Language Model:LLM)はChatGPTが74%、Google Geminiが37%、Microsoft Copilotが22%だった。現場がAIに任せているのは、完成品の丸ごとの創作より前工程の圧縮だ。だから外部のプレイヤーには利用箇所が見えにくい。では、企業はこの見えにくいAI利用をどう説明しているのか。
Capcomは「本編アセットに入れない」線を引いた
Googleの公式ブログは、CapcomがVertex AIとGeminiを使い、ゲーム開発のための数十万件のアイデア生成に取り組んでいると紹介している。対象は『Street Fighter』、『Monster Hunter』、『バイオハザード』などを抱える大規模スタジオの制作工程だ。Google Cloudは、アイテムや環境のアイデアを素早く生成・反復し、コスト削減と制作時間短縮を助けると説明した。Mobilegamer.bizのBuser氏発言でも、道端の小石や草の一本まで発想する作業にAIを使う例としてCapcomが挙げられている。
Capcomは投資家向けに、AI生成アセットをゲームコンテンツに実装しない一方、開発効率と生産性を高めるためにAIを活用する方針を示している。AI生成素材をそのまま出荷すれば、プレイヤーの不信は深くなる。一方で、背景物や小物の発想を大量に出す段階では時間短縮が見込める。CapcomはAIを「下積みの候補発想」に寄せ、最終判断と制作を人間の工程に残す線引きを取った。
Capcom型のワークフローでは、最初に設計文書や世界観の条件をモデルへ渡し、アイテム、背景物、環境ディテールの候補を大量に作る。Geminiが候補を分類し、アートディレクターの意図に合いそうな案を絞り込む。人間のディレクターはその中から採用候補を選び、アートチームに制作を指示する。制作リソースは主人公、主要な敵、重要なカットシーン、象徴的なオブジェクトへ集中する。
プレイヤー向けの焦点は、AI生成アセットを本編に置いたかどうかだ。投資家向けの焦点は、アイデア出しや管理工程でどれだけ時間を削ったかだ。開発者向けには、候補発想を短縮した分だけ職種や評価がどう変わるのかが問われる。Capcomの説明は、同じAI利用でも説明先によって論点が変わることを示している。
「living games」は発売後の運営までAIを広げる
Google Cloudが実装を推進する「living games」構想では、AIは開発工程の補助から発売後の運営へ広がる。対象には非プレイヤーキャラクター(Non Player Character:NPC)、ライブ運営、ユーザー生成コンテンツ管理、プレイヤーサポートが含まれる。ゲームが発売後もイベント、シーズン、バランス更新を続けるなら、AIは開発完了までの道具では終わらない。パッケージ型の制作倫理だけでは扱いにくい領域に入る。
BuserはAIを「アイアンマンのスーツ」にたとえた。装備した開発者には超人的な処理能力を与えるが、人間なしでは動かない、という意味だ。Buserはこれを「拡張」と語ったが、経営層が装備した場合と現場が装備させられた場合では、同じスーツの見え方が変わる。
AIエージェントがゲーム内で動く場合、仕組みは開発支援より複雑になる。モデルはプレイヤーの入力を受け取り、キャラクター設定、会話履歴、安全ポリシー、ゲーム内ルールを参照して返答や行動候補を出す。システム側は不適切発言、ネタバレ、規約違反、ゲーム進行の破綻をフィルターで抑え、ログを監査用に保存する。自由な会話を売りにするほど、運営側の品質管理は制作後も続く。
Google Cloud / The Harris Poll調査では、AIアプリケーションとゲームでのデータ所有権や知的財産への懸念を示した回答者が63%に達した。開発支援であれば「社内の下書き」と説明できた出力も、NPCの発話やユーザー生成コンテンツの審査に使えばプレイヤー体験そのものへ触れる。学習データ、入力された社外秘情報、出力物の権利、誤動作時の責任は別々に記録する。運営型AIでは、ログと権限設計がゲームデザインの一部になる。
「AI使用」表示を工程別に分ける手法
2026年時点で、ゲームにAIが関わっているかどうかを二択で表示しても、プレイヤーの不信は解けにくい。AIが最終アセットを生成したのか、ラフ案を出したのか、翻訳初稿を作ったのか、コード補助に使われたのか、品質保証(Quality Assurance:QA)の自動化に使われたのかで意味は変わる。Capcomのように「AI生成アセットは本編に入れないが、効率化には使う」という方針は、工程別に示した時に初めて伝わる。曖昧な「AI活用」は、いま最も疑われやすい表現になった。
実務上の分類は、少なくとも4段階に分けられる。第1に、プレイヤーに見える最終アセットや台詞への生成AI出力。第2に、コンセプト案、ムードボード、背景物の候補出し。第3に、翻訳初稿、コード補助、テストスクリプト、QA自動化。第4に、発売後のNPC応答、ユーザー生成コンテンツ管理、プレイヤーサポートだ。
| 区分 | 例 | 説明で示すべき点 |
|---|---|---|
| 最終コンテンツ | 画像、音声、台詞、3Dアセット | 生成物の採用範囲、権利確認、人間の修正範囲 |
| 企画補助 | アイデア、ラフ、環境ディテール候補 | 出力をそのまま採用したか、参考案に留めたか |
| 制作支援 | 翻訳初稿、コード補助、QA自動化 | 社外秘入力の制限、レビュー担当、ログ保存 |
| 運営支援 | NPC会話、通報処理、サポート回答 | 誤応答時の責任、プレイヤーデータの扱い、監査手順 |
スタジオはAI利用を工程別に残せば、「使ったかどうか」ではなく「どの範囲で使ったか」を示せる。利用モデル、学習データの扱い、社外秘データの入力制限、権利確認フローを記録すれば、法務チェックとプレイヤー説明を同じ資料から組み立てられる。開発者に対しては、AIで削った工数が評価、採用、外注、契約更新にどう反映されるのかを示すべきだ。ここを伏せたまま効率化だけを語れば、52%の警戒はさらに強まる。
プレイヤーが気づかない場所で、AIはすでにゲーム制作へ入り込んでいる。Googleの90%とGDCの36%、そして52%の警戒は、その現実を別々の位置から切り取った数字だ。いま問われているのは、AIを使ったかどうかではなく、どの工程で、誰の責任で、誰の権利を守り、誰の雇用リスクを増やしたのかである。スタジオがその説明を避けるほど、効率化という言葉は人員削減の別名として受け取られていく。