人工知能(AI)の導入は、長らく労働時間の短縮や生産性の向上、ひいては「週4日勤務」のような労働ユートピアを実現する鍵として語られてきた。しかし、2026年1月に医学誌『Occupational Medicine』に掲載されたインペリアル・カレッジ・ロンドンとMicrosoft Researchによる共同研究論文は、これとは真逆の不穏な現実を突きつけている。

その現実とは、AIの高度化と普及が、労働者から仕事を奪うのではなく、むしろ「AIの監視・管理」という、より認知負荷の高い新たな業務を押し付け、精神的な負担を増大させるリスクがあるという「自動化のパラドックス」である。

AD

労働の質の変容:「実行者」から「AIの世話役」へ

多くのビジネスパーソンは、AIを「反復作業を代行してくれる便利なツール」と捉えているかもしれない。しかし、研究チームが指摘するのは、ツールとしての利用を超えた、労働者の役割そのものの根本的な変容である。

「スチュワードシップ(管理責任)」という新たな重圧

論文の筆頭著者であるインペリアル・カレッジ・ロンドンのLara Shemtob博士らが提唱するのは、労働者がタスクの「実行者(Doer)」から、AIシステムの「スチュワード(Steward:管理者・世話役)」へと移行するシナリオだ。

生成AIが高度化し、自律的にツールやデータセットを操作する「エージェント型AI」へと進化するにつれ、人間の役割は直接的な作業を行うことから、以下のプロセスを管理することへとシフトする。

  1. ブリーフィング: 複数のAIエージェントに対し、複雑なタスクの指示出しを行う。
  2. オーケストレーション: AIエージェント間の連携(コラボレーション)を調整する。
  3. クリティカル・インテグレーション: AIが生成した成果物をレビューし、誤りを修正し、再統合する。

これは一見、管理職的な業務への昇華に見えるかもしれない。しかし実際には、自らは手を動かさずに、ブラックボックス化したAIの挙動を常に監視し、その結果に対して全責任を負うという、極めてストレスフルな環境を意味する。

「ジェネレーティブ・シフト」が招く認知負荷の増大

研究では、自動化の範囲と強度が劇的に拡大する現象を「ジェネレーティブ・シフト(Generative Shift)」と呼称している。

従来の自動化は、ルールベースの単純作業に限られていた。しかし、生成AIによる自動化は、意思決定や創造性が求められる領域にまで浸透する。ここで問題となるのが、「AIのアウトプットを検証する作業は、自分でゼロから作成する作業よりも、認知的に高度で疲弊する場合がある」という事実だ。

例えば、プログラミングにおいてAIが生成したコードのバグを発見・修正する作業や、AIが作成したレポートに含まれる「ハルシネーション(もっともらしい嘘)」を見抜く作業は、高度な専門知識と持続的な注意力を要求する。人間は本来、長時間の監視業務や、稀にしか発生しないエラーの検出(ヒューマン・イン・ザ・ループ)を苦手としており、これが深刻な精神的疲労を招く原因となる。

「見えない労働」と報酬のパラドックス

本研究が投じる最も深刻な警告の一つが、労働負荷の増大と報酬体系の不一致に関するパラドックスである。

複雑性の増大とスキルの空洞化

AIがルーチンワークを吸収することで、人間には「例外処理」「問題解決」「感情労働」といった、AIには代替できない複雑なタスクのみが純粋化されて残ることになる。

これは一見、仕事のやりがいを高めるように思えるが、研究チームは「日常的なタスクからの乖離」がもたらすリスクを指摘している。日々のルーチンワークを通じて維持されていた基礎的なスキルや状況把握能力が、AIへの依存によって低下する恐れがあるのだ。

これを心理学や人間工学の分野では「Ironies of Automation(自動化の皮肉)」と呼ぶ。緊急事態やAIの誤動作が発生した際、普段実務から離れている人間は、即座に介入して事態を収拾する能力を失っている可能性が高い。それにも関わらず、最終的な責任だけは人間に課されるため、心理的なプレッシャーは計り知れない。

「楽になった」という幻想による報酬の抑制

さらに憂慮すべきは、経営層や組織が「AI導入=業務効率化=労働時間の短縮」という短絡的な認識を持つことで発生する経済的な不利益である。

論文は、AIによって労働者が複雑なタスク処理やAI管理に追われているにもかかわらず、「AIが仕事を楽にしている」という前提のもと、報酬への下方圧力がかかる可能性を示唆している。

つまり、労働者は以前よりも高度な判断力と管理能力(スチュワードシップ)を要求され、複数のAIエージェントを指揮する「マネージャー」のような役割を担っているにもかかわらず、給与は上がらない、あるいは「機械に任せているのだから」という理由で評価が下がるリスクに晒される。これが「より多くの責任を負いながら、より低い評価を受ける」という現代の労働パラドックスである。

AD

組織学習と「役割の曖昧さ」

研究では、組織心理学者Chris Argyrisの「ダブルループ学習」モデルを引用し、AIが組織の学習プロセスに与える影響についても言及している。

戦略的「アウター・ループ」への干渉

従来のAI導入は、既存の業務プロセスを効率化する「シングルループ学習(行動の変化)」に留まっていた。しかし、最新のAIは組織の前提や規範そのものを問い直す「ダブルループ学習(戦略や価値観の変化)」、すなわちアウター・ループにまで影響を及ぼし始めている。

AIによるデータ分析は、組織が設定した基準がステークホルダーにとって本当に価値があるのかという根本的な問いを投げかける。このレベルでのAIとの協働は、組織の進化を加速させる一方で、現場の労働者にとっては「自分の役割定義が絶えず流動する」という不安定な状態を常態化させる。

役割の曖昧さの代償

「役割の曖昧さ」は、職業性ストレスの主要な要因として知られている。AIの能力が日々進化し、昨日まで人間がやっていた仕事が今日はAIの仕事になり、明日はまた人間が修正しなければならない、という状況下では、労働者は「自分は何をすべきで、どこまでが自分の責任なのか」を明確に定義できなくなる。

研究チームは、AIベンダー自身でさえ自社製品の自律性のレベルを正確に把握できていない現状(”Agent Washing”などの問題)を指摘しており、導入企業側で明確な役割分担を行うことの困難さを浮き彫りにしている。

労働衛生(Occupational Health)の新たなフロンティア

インペリアル・カレッジ・ロンドンとMicrosoftの研究チームは、この状況を「労働衛生(Occupational Health: OH)の新たな最前線」と位置づけている。

AI監督業務の定量化

この問題に対処するためには、AIの監督業務を「見えない労働」として放置せず、明確に業務として定量化し、職務記述書(ジョブ・ディスクリプション)に組み込むことが不可欠であると論文は結論づけている。

「AIを使えば魔法のように仕事が終わる」のではなく、「AIという部下を指導・監督・修正する時間が新たに発生する」という前提に立ち、そのためのリソースと時間を確保しなければ、労働者は燃え尽き症候群(バーンアウト)へと一直線に進むことになるだろう。

過去の事例からの警鐘

また、2025年7月には、AIコーディングツールが開発者の作業速度を逆に低下させたケースも報告されている。これは、AIが生成したコードの検証に膨大な時間を取られたためだ。このように、実証データはすでに「AI=時短」という神話に亀裂が入っていることを示している。

AD

人間中心のAI導入に向けて

AIは間違いなく、医療におけるトリアージの効率化や、事務作業の自動化など、計り知れない恩恵をもたらす。しかし、それは「人間の労働を無くす」ものではなく、「労働の質を変える」ものである。

我々が直面しているのは、単なる技術的な移行ではなく、労働契約の再定義である。AIエージェントとの協働における「スチュワードシップ」という新たな労働形態に対し、適正な評価、報酬、そして精神的健康の保護がなされなければ、生産性の向上どころか、組織全体のパフォーマンス低下を招くことになるだろう。

我々は、自身の業務にAIを導入する際、単にツールの機能だけでなく、「それによって発生する管理コスト」と「メンタル・ワークロードの変化」に目を向ける必要がある。真の生産性向上は、技術の導入そのものではなく、人間とAIの間のインターフェースをいかに健全に設計・管理できるかにかかっているのだ。


論文

参考文献