AI技術の進化は、私たちの働き方を根本から変えようとしている。しかし、その裏側で、多くのプロフェッショナルたちが「AIを使っていること」を周囲に隠し、密かな罪悪感や社会的な「スティグマ(烙印)」と戦っているとしたらどうだろうか?
生成AI「Claude」の開発元として知られるAnthropicは、新たに開発したAI駆動型のリサーチツール「Anthropic Interviewer」を用い、1,250名の専門家を対象とした大規模なインタビュー調査を実施した。
2025年12月に公開されたこの調査レポートによれば、生産性の向上を示すデータにとどまらず、クリエイター、科学者、そして一般のビジネスパーソンが抱える、AIに対する期待と、それ以上に深い「葛藤」と「本音」が赤裸々に映し出されていた。
生産性のパラドックス:成果は上がるが、口には出せない
調査結果の中で最も衝撃的かつ示唆に富んでいるのは、クリエイティブ職における「生産性」と「心理的負担」の強烈な乖離である。
「魔法の杖」を手に入れたクリエイターたち
Anthropicの調査によると、ライター、デザイナー、アーティストを含むクリエイティブ専門職の97%が「AIによって作業時間が短縮された」と回答し、68%が「作品の質が向上した」と報告している。
具体的な事例として、あるWebコンテンツライターは、以前は1日2,000文字だった執筆量が、AIの導入により5,000文字以上の洗練されたコンテンツを生成できるようになったと証言している。また、あるフォトグラファーは、画像の編集作業にかかる期間を「12週間から3週間」へと劇的に短縮させた。
数字だけを見れば、これはテクノロジーによる勝利であり、労働革命の成功例のように見える。しかし、その内実は単純なハッピーエンドではない。
7割が感じる「社会的な烙印」
この圧倒的な効率化の影で、クリエイティブ職の70%が、同僚や社会からの「スティグマ(不名誉な烙印)」に直面していると回答した。彼らはAIの恩恵を受けていながら、それを公言することを恐れているのだ。
ある地図製作者は、インタビューに対し次のように吐露している。
「自分のブランドやビジネスのイメージが、AIやそれを取り巻くスティグマと強く結びつくことは避けたい」
また、ファクトチェッカーとして働く別の回答者は、職場での同調圧力についてこう語る。
「最近、同僚が『AIなんて大嫌いだ』と言ったとき、私は何も言えませんでした。多くの人がAIに対してどう感じているかを知っているからこそ、私は自分のプロセスを誰にも話さないのです」
ここから見えてくるのは、「AIを使うこと=手抜き、あるいは創造性の放棄」と見なされることへの恐怖だ。効率化という実利を享受しつつも、職業的アイデンティティを守るために「AIの使用を隠す」という、歪な構造がクリエイティブ業界に定着しつつある可能性がある。
経済的実存の危機:AIはパートナーか、侵略者か
スティグマだけでなく、より切実な「経済的な不安」もクリエイターたちの心を蝕んでいる。
奪われる仕事、薄れる境界線
調査に応じた125名のクリエイター全員が「自分の作品に対するコントロール(主導権)を維持したい」と願っている。しかし、現実はその境界線が曖昧になりつつある。
あるアーティストは、「AIがコンセプトの大部分を主導しており、私は単にそれをガイドしているに過ぎない。比率で言えば60%がAI、40%が私のアイデアだ」と認め、あるミュージシャンは「認めたくはないが、このプラグインを使うとき、コントロールの大部分はプラグイン側にある」と告白している。
さらに、あるクリエイティブディレクターの言葉は、業界構造の変化を残酷なまでに言い当てている。
「私が得をするということは、別のクリエイターが損をするということだ。かつて私が1日2,000ドル支払っていた製品フォトグラファーには、もう仕事が回らなくなっている」
これは、AIが単なるツールを超え、市場のパイを奪い合う競争相手となりつつある現状を浮き彫りにしている。
科学者たちの冷徹な視点:信頼なき効率化は無意味
一方、科学者(物理学者、化学者、生物学者など)の反応は、クリエイターとは全く異なる様相を呈している。彼らの悩みは「感情」ではなく「精度」にある。
「検証コスト」という壁
科学者の91%が「研究においてもっとAIのサポートが欲しい」と回答しており、期待値は極めて高い。しかし、現状のAI技術は、科学研究の核心である「仮説生成」や「実験」の段階では十分に信頼されていない。
情報セキュリティ研究者は次のように指摘する。
「AIエージェントが出した詳細をすべて再確認し、ミスがないか確かめなければならないなら、そもそもエージェントに任せる意味がない」
数学者もこれに同意し、「AIの出力を検証する時間を考えると、結局(自分でやるのと)同じ時間がかかる」と述べている。科学の世界において、不正確な情報は致命的だ。現在のLLM(大規模言語モデル)が抱えるハルシネーション(もっともらしい嘘)のリスクは、厳密性が求められる科学研究において、実用化への高いハードルとなっている。
彼らが求めているのは、単なる文章作成アシスタントではなく、「新しい視点をもたらし、仮説を提案してくれる真の研究パートナー」である。
一般労働者に見る「協働」と「自動化」のギャップ
一般の労働者(教育、事務、ITなど)の間では、AIの役割をどう捉えるかについて興味深い認識のズレが生じている。
認識と実態の乖離
調査では、回答者の65%がAIの役割を「拡張(Augmentation)」、つまり人間とマシンの協働であると自己評価した。しかし、Anthropicが実際の「Claude」のチャットログを分析した過去のデータ(Economic Index)では、協働と「自動化(Automation)」の比率はほぼ半々であった。
この乖離についてAnthropicは、ユーザーが実際にはAIにタスクを丸投げ(自動化)していても、その後の修正や調整プロセスを含めることで「自分も関与している(協働している)」と認識したがる傾向がある、あるいは単純にチャットログには現れないオフライン作業が存在するためだと分析している。
「監督者」へのシフト
多くの労働者は、将来的に自分の役割が「実作業」から「AIシステムの監視・監督」へとシフトしていくことを予見している。
ある牧師は「AIを使って事務作業の時間を節約できれば、本来の使命である『人々と向き合う時間』を増やせる」と語り、コミュニケーション担当者は「私の仕事はいずれ、AIへのプロンプト指示、監督、品質管理が中心になるだろう」と予測する。
これは、AIが人間の仕事を奪うのではなく、人間が「AIマネージャー」という新たな職能へと進化していく可能性を示唆している。
“Anthropic Interviewer”:質的調査をスケールさせる革新
今回の調査結果そのものと同じくらい注目すべきなのが、この調査を可能にしたツール「Anthropic Interviewer」だ。
AIが人間をインタビューする時代へ

従来、1,000人規模の対象者に、1人あたり10〜15分の詳細なインタビューを行うことは、時間的・コスト的にほぼ不可能であった。しかし、Anthropicはこのプロセス全体をAI化した。
- Planning(計画): 研究者が目的を入力すると、Claudeがインタビューガイドを作成。
- Interviewing(実施): AIがインタビュアーとなり、1,250人と自然言語で対話し、深掘り質問を行う。
- Analysis(分析): 膨大な会話ログをAIが解析し、トレンドや感情をクラスター化して抽出する。
データ駆動型「共感」の可能性
このツールは、単なる市場調査の効率化ではない。これまで「チャットログのテキスト解析」に頼っていたAI企業が、ユーザーの「文脈」「感情」「社会的背景」を直接聞き出せるようになったことを意味する。
これは、Anthropicが掲げる「Constitutional AI(憲法的AI)」やアライメント(人間の価値観への適合)の研究において極めて重要だ。ユーザーが「何を入力したか」だけでなく「なぜそうしたのか」「それによってどう感じたか」を理解することは、より安全で人間に寄り添うAIモデルの開発に直結するからだ。
AI時代に問われるのは「技術」ではなく「定義」
Anthropicの調査は、AI技術の普及がもたらす未来が、単一のユートピアでもディストピアでもないことを浮き彫りにした。
クリエイターは効率化と自尊心の間で揺れ動き、科学者は可能性と信頼性の狭間で足踏みし、一般労働者は自らの職能の再定義を迫られている。共通しているのは、「人間がやるべき価値ある仕事とは何か?」という根源的な問いだ。
70%のクリエイターがスティグマを感じているという事実は、社会がまだAIとの適切な付き合い方、あるいは「AIを使った創造」に対する正当な評価軸を確立できていないことを示している。
技術の進化は止まらない。今、私たちに求められているのは、AIの使用を隠すことではなく、AIを使いこなすプロセスそのものを新たな「スキル」として、あるいは「創造性の一部」として社会的に再定義し、受容していく姿勢ではないだろうか。
Anthropic Interviewerのようなツールが一般化すれば、私たちの「本音」はより迅速にシステムにフィードバックされるようになるだろう。その時、AIは単なる「道具」から、真の意味での「理解者」へと進化するのかもしれない。
Sources