生成AIの爆発的な普及以降、多くの企業は他社に後れを取るまいと熱狂的に新技術の導入と実証実験を進めてきた。しかし、その熱気は急速に冷え込み、極めて冷徹な評価のフェーズへと移行しつつある。グローバルな雇用プラットフォームを提供するG-P(Globalization Partners)が発表した第3回「2026 AI at Work Report」は、企業がAIに対して抱く厳しい現実と投資の行き詰まりを明らかにした。
米国、ドイツ、シンガポール、オーストラリア、フランスの経営幹部2,850名、および米国のHR専門家500名を対象としたこの大規模な調査によると、すべての役員が何らかの形で自社にAIを導入していると回答した一方で、自社がイノベーションのためにAIを「積極的に使用している」と評価した役員の割合は、2025年の60%から42%へと大幅に下落した。
さらに経営層に衝撃を与えているのは、投資に対するリターン(ROI)の欠如である。役員の73%が、過去12ヶ月間のAI投資に対するROIが事前の期待を大きく下回ったと報告している。また、約16%の企業ではAIに対する支出のROIが明確にマイナスに陥っているという深刻な事態も明らかになった。過去数年にわたる盲目的な予算投入のツケが回ってきた結果、約70%の役員は、今年度のビジネス目標が達成できなければAI関連の予算を大幅に縮小する準備があると回答している。
G-PのCOO(最高執行責任者)であるNat Natarajan氏は、「AIを正しく活用するには、誇大宣伝を乗り越え、実際に成果をもたらす領域に焦点を当てる必要がある」と指摘する。これは、企業が「何にでもAIを使う」という手探りの実験的アプローチから脱却し、厳格な費用対効果と実質的なビジネスインパクトを厳しく問う段階に突入したことを示している。マサチューセッツ工科大学(MIT)NANDAの研究者が以前に発表した「生産環境でAIプロジェクトを成功裏に稼働させている組織はわずか5%に過ぎない」という報告と照らし合わせても、企業が直面している壁の高さは明らかである。
期待と現実のギャップ:精度への不信と「隠れたコスト」
AI投資が期待外れに終わる最大の原因として、ビジネスの実運用レベルにおけるAIの出力精度に対する根強い不信感が挙げられる。調査では、AIの出力精度に対して「完全な自信を持っている」と回答した役員はわずか23%にとどまった。この精度の低さと信頼性の欠如は、現場の業務プロセスにおいて予期せぬ負の影響を引き起こしている。
役員の69%は、従業員がAIによって生成された作業結果の監視、レビュー、および修正に費やす時間が増加していると指摘している。AIは本来、日常的な反復作業を自動化し、労働力不足を補うための起爆剤として導入されたはずである。しかし現実には、出力された内容のファクトチェックや文脈の微調整という、これまで存在しなかった新たなタスクを従業員に強いている。レポートはこの現象を「AI導入に伴う隠れた税金(hidden tax)」と表現しており、この追加負担が、AIによってもたらされるはずの生産性向上を完全に相殺している可能性を示唆している。
さらに、法的な正確性や労働法規へのコンプライアンスに関する懸念も深刻である。機密性の高い文書や契約関連の草案作成にAIを使用する際、出力結果の法的な正確性に確信が持てず、道徳的・法的な苦痛や不安を感じていると回答した役員は61%に上った。EYの別のレポートによれば、カナダにおいて過去半年間に「自律型AI(人間の介入なしに行動を起こすシステム)」を使用した労働者はわずか13%にとどまっている。技術的な処理能力の進化が、実際のビジネス環境において求められる厳密な信頼性や安全性の担保に追いついていない現状が、AIの本格的な業務適用の足枷となっている。
職場の新たな課題:「生産性を演じる」従業員とシャドーAIの蔓延
AIの無秩序な導入は、生産性の課題だけでなく、従業員の行動規範や組織のガバナンス体制にも深刻な亀裂を生じさせている。本調査の中で経営層が特に頭を悩ませているのが、「生産性を演じる(perform productivity)」従業員の存在である。
役員の88%は、従業員が実質的なビジネス価値を生み出すことなく、企業側が設定したAIの利用義務を満たし、単に「忙しく仕事をしているように振る舞う」ためにAIを悪用しているのではないかと危惧している。驚くべきことに、47%の役員は、このような行動がすでに自社内の日常的な業務として横行していると確信している。AIは作業のプロセスを高速化するが、それが必ずしも成果物の品質向上や企業の利益に直結しないという構造的な問題が露呈している。
また、企業のIT部門の管理下から外れた「シャドーAI」の蔓延も、セキュリティ上の重大な脅威となっている。関連する過去の報告では、従業員の70%以上が毎週何らかのAIツールを業務で使用しており、そのうち最大で3分の1がIT部門の監督や許可なしに利用されている。G-Pの今回の調査でも、役員の10人中9人が、従業員が未承認のシャドーAIツールを使用して機密データを処理していることを懸念している。企業の公式な統制を離れた場所で従業員が独自のAIワークフローを構築することは、データ漏洩の危険性を高めるだけでなく、コンプライアンス違反による深刻な企業ダメージに直結する。
人間の価値低下と倫理的ジレンマ
AIの普及と業務への浸透は、企業における「人間の価値」そのものに対する根源的な認識を変化させつつある。調査結果の中で最も注目すべき点の一つは、役員の82%が、AIの存在によって「人間の従業員に対して置く価値が低下した」と明確に認めていることである。この数字は、AIが業務支援ツールの枠に留まらず、ホワイトカラーの労働力を直接的に代替し得る存在として経営層に強く意識されていることを示している。
しかし、G-Pはこの傾向に対して強い懸念を表明している。従業員を単なるコストやAIの代替品として軽視する姿勢は、結果的にAIプロジェクトを成功に導くために不可欠な「人間主導のイノベーション」そのものを破壊する危険性を孕んでいるためである。現在のAIモデルは、過去の膨大なデータに基づく高度なパターン認識や言語処理には極めて優れている。だが、複雑な利害関係の調整、倫理的判断、戦略的ニュアンスの深い理解、そして顧客との共感的なコミュニケーションといった高次な能力は持ち合わせていない。
経営層の側にも、テクノロジーの追求と倫理的な境界線の間で生じるジレンマが見え隠れしている。例えば、ビジネス目標を達成するためであれば、従業員のプライバシーを犠牲にしてまでAIによる監視体制を強化することに「強く同意する」と答えた役員は、わずか12%であった。人間の労働的価値を相対的に低く見積もる一方で、人間特有の尊厳や倫理的な権利をシステムによって完全に侵害することには、多くのリーダーが強い抵抗を感じている。
グローバルな人材獲得競争へのシフトと今後の展望
AI戦略の方向性を修正し、実質的なROIを獲得するフェーズへ移行するためには、企業はテクノロジーそのものへの投資だけでなく、それを適切に運用・統制する人材の確保に注力しなければならない。調査では、役員の半数以上(52%)が、高度なAIスキルを持つ専門人材の不足と、組織全体のデータリテラシーの低さが、ビジネス目標達成を阻む最大の障壁であると分析している。
この深刻な人材不足を解消するため、先進的な企業は採用戦略の抜本的な見直しを進めている。世界の役員の82%が、トップクラスのAI人材を確保できるのであれば、現在自社の従業員が一人も存在しない国であっても、越境して採用を行う意思があると回答した。G-PのHR責任者であるLaura Maffucci氏は、「専門的なAI人材をめぐる競争はもはや局地的なものではなく、グローバルな戦いである」と指摘している。企業は国境や地理的な制約を取り払い、世界規模で必要な専門知識を求めるアプローチへと舵を切っている。
2026年、AIに対する根拠のない熱狂は完全に終わりを告げ、投資に対する厳格な説明責任と具体的なリターンが求められる時代へと突入した。GxT AdvisorsのプリンシパルアナリストであるPete A. Tiliakos氏は、「AIはますます、信頼、説明責任、そしてビジネスへの影響力によって測定されるようになっている」と述べている。
今後の企業に求められるのは、手当たり次第のAI導入を停止することである。影響力の大きく費用対効果が見込めるユースケースを正確に特定し、国境を越えた採用網を駆使して適切な専門人材を確保し、強固なガバナンスと運用規律を確立することがAI導入を成功させる絶対条件となる。G-Pが提言するように、AIの能力が向上すればするほど、高付加価値な役割において求められる共感性や高度な倫理観をはじめとする「人間特有のスキル」は、これまで以上に希少で重要なものとなっていく。