現代のデジタル・コミュニケーションにおいて、人工知能(AI)はもはや単なる裏方ではない。Gmailを開けばメールの続きを予測して提示し、Microsoft Wordに向かえば次に来るべき単語やフレーズを先回りして提案してくれる。大規模言語モデル(LLM)を基盤とするAIライティングアシスタントやオートコンプリート機能は、タイピングの手間を省き、表現を洗練させるための不可欠なツールとして世界中の数十億人に利用されている。
これらのツールは、私たちが「どのように書くか」を変化させていることは疑いようがない。だが、より深遠で、かつ背筋が凍るような問いが存在する。AIは、私たちの「考え方」そのものをも変えてしまっているのではないか。
コーネル大学のMor Naaman氏やSterling Williams-Ceci氏らの研究チームは、この問いに対する明確かつ衝撃的な答えを提示した。2026年3月に学術誌『Science Advances』に発表された大規模な実験結果によれば、バイアス(偏り)を持ったAIのオートコンプリート提案にさらされたユーザーは、自分でも気づかないうちに、社会問題に対する自身の意見をAIの立場へとシフトさせていることが明らかになった。驚くべきことに、この態度の変容はAIの提案を「無視した」ユーザーにまで及んでおり、さらにはAIの偏りについて事前に警告を受けていたとしても、その影響から逃れることはできなかったのだ。
この記事では、この研究が明らかにしたAIによる「無意識の操作」のメカニズムを紐解き、それが人間の認知体系や民主主義社会にどのような波及効果をもたらすのかを見ていきたい。
社会問題をテーマにした大規模実験の全貌
AIが人間の態度に与える影響を測定するため、研究チームはオンラインプラットフォームを通じて2,582名の参加者を集め、政治的・社会的に意見が分かれる重要なイシュー(争点)について短いエッセイを執筆させる実験を行った。
実験は2つの段階に分けて精緻に設計されている。第一の実験(N=1485)では、「教育現場における標準化テストの導入」というテーマが選ばれた。参加者はAIの支援なしで執筆する対照群(Control)、標準化テストに賛成する方向へ意図的にバイアスがかけられたAIのオートコンプリート提案を受けながら執筆する実験群(AI Treatment)、そしてAIによる賛成派の論点を単なる「静的な箇条書きのテキスト(Static Text)」として提示された上で執筆する群の3つに分けられた。
第二の実験(N=1097)では、さらに政治的な分断を生みやすい4つのテーマに範囲が拡大された。具体的には、「死刑制度の違法化」「重罪犯の投票権」「遺伝子組み換え作物(GMO)の栽培」「フラッキング(水圧破砕法による資源採掘)」である。AIのオートコンプリートは、死刑とGMOについてはリベラル寄りの立場に、重罪犯の投票権とフラッキングについては保守寄りの立場に誘導するよう、事前のプロンプトエンジニアリングによって精密に構成されていた。さらにこの第二の実験では、参加者の事前の態度(ベースライン)を数週間前にあらかじめ測定しておくことで、執筆前と執筆後で個人の意見がどれほど変化したかを厳密に追跡する手法が採用された。
オートコンプリートが持つ特異な「説得力」
執筆後のアンケート調査の結果、すべての実験において一貫した傾向が確認された。バイアスのかかったAI提案にさらされた参加者は、AIの支援を受けなかった参加者に比べ、有意にAIの立場に近い意見を表明したのである。
実験2のデータによれば、1から5のスケール(数値が大きいほどAIの立場に近い)において、AIの提案を受けながら執筆した参加者は、事前の態度から平均して0.37ポイントもAIの主張へと意見をシフトさせていた。一方で、AIの支援を受けなかった対照群の意見シフトはわずか0.06ポイントにとどまり、統計的に無意味なレベルであった。
ここで極めて重要なのは、AIによる情報提示の「形式」である。実験1において、単に箇条書きでAIの論点を読まされただけの群(Static Text)も、対照群と比較すればやや意見のシフトが見られたものの、オートコンプリートという形式でリアルタイムに提案を受けた群のシフト幅(0.44ポイント)には遠く及ばなかった。

その背景には、「行動が態度を形成する」という心理学における強固なパラダイムが存在する。古典的な認知的不協和理論や自己知覚理論が示すように、人間は「自分が書いたこと」や「自発的に行った行動」に合わせて、後から自分自身の内的態度を調整する傾向がある。AIが画面の向こうから完成された文章を押し付けてくるのではなく、ユーザー自身のタイピングの先を予測し、「共に文章を紡ぎ出す(Co-writing)」というプロセスを経ることで、ユーザーはAIの提案を「自分自身のオリジナルの思考」として内面化してしまうのだ。
提案を「無視」しても抗えない無意識のアンカー効果
本研究が明らかにした事実の中で、最も背筋が寒くなる発見の一つは、この態度シフトが「AIの提案を一つも受け入れなかった(キーボードのTabキーを押さなかった)参加者」においても確認されたという点だ。
なぜ、使ってもいないAIの提案に意見が引きずられるのか。その理由は、人間の認知プロセスにおける「アンカリング(係留効果)」と「プライミング」にあると考えられる。文章を思考しながらタイピングしている最中、視界の端に数秒間表示されるバイアスのかかったテキストは、無意識のうちに思考のアンカー(錨)として機能する。特定の方向からの視点や語彙が画面上に立ち現れるだけで、脳はその情報に反応し、それに反駁するか、あるいは無意識に影響を受けてしまう。
この影響は完全に水面下で進行する。実験後、AIの提案によって意見がシフトした参加者の実に73%が、AIの提案は「合理的でバランスが取れていた」と評価している。さらに、大多数の参加者が「AIのアシスタントが自分の考えや議論に影響を与えた」という可能性を明確に否定した。彼らは、自分の世界観がAIによって書き換えられたことに全く気づいておらず、あくまで自分自身の純粋な自由意志によって意見を構築したと固く信じていたのである。
偽情報対策の常識を覆す「警告の無効性」
AIが人々の認知を歪めるリスクに対して、テクノロジー企業やプラットフォーマーはしばしば「免責事項の提示」や「事前警告」という手段に頼る。例えば、ChatGPTの画面下部に「AIは間違いを犯す可能性があります」と表示されるのがその典型だ。偽情報研究の分野でも、誤った情報に触れる前にあらかじめその存在を警告し、人々の認知的な防御力を高める「プレバンキング(Pre-bunking)」という手法が一定の免疫効果を持つとされてきた。
しかし、Cornell Universityのチームは、この常識がAIのオートコンプリート機能の前では無力であることを突き止めた。実験2において、研究者たちは参加者の一部に対し、執筆前に「AIの提案はバイアスを含んでいる可能性がある」と警告する群(Warning)と、執筆後に「先ほどのAIは特定の立場に偏っていた」と説明する群(Debrief)を設けた。
結果は絶望的なものであった。事前警告を与えられた群も、事後にネタばらしをされた群も、通常のAIアシスタントを使用した群と全く同等のレベルでAIの立場へと意見をシフトさせていたのである。AIのオートコンプリートが持つ影響力は、創造的プロセス(文章を書くという行為)の奥深くに組み込まれているため、表層的な批判的思考のフィルターを完全に迂回してしまうのだ。頭では「このAIは偏っているかもしれない」と理解していても、自らの手で文章を紡ぐ過程でその情報を処理した結果、身体的・認知的なレベルで態度が変容してしまうのである。
興味深いことに、研究チームが「AIのバイアスと同じ立場を意図的に支持する文章を書くように」と明示的に指示を与えた群(Write-in-Favor)の態度シフト量と、ただ単に無意識下でAIの提案にさらされただけの群の態度シフト量は、統計的にほぼ同等であった。すなわち、AIのサジェストに静かにさらされることは、他者から「こういう意見を書け」と直接的に強制され、それに従って書かされた場合と同じだけの強力な自己洗脳効果をもたらすのである。
思考の均質化と民主主義への静かなる脅威
この研究結果が示唆するのは、個人的な執筆体験の変容にとどまらない。一つのAIモデルが数百万、あるいは数十億という人々に利用される現代において、この現象は社会全体のマクロな危機を引き起こす可能性を秘めている。
LLMは多くの場合、インターネット上の膨大なテキストデータを学習して構築される。その過程で、学習データに含まれる特定の政治的・社会的バイアスを吸収し、時にはそれを増幅させる。もし、特定の企業が提供する単一のAIライティングアシスタントが市場を独占し、そのモデルが特定のイデオロギーや政策的立場にわずかでも偏っていた場合、何が起こるだろうか。
人々が日常的にメールや企画書、あるいはSNSの投稿をAIのアシストを受けながら作成するたびに、彼らの意見はAIが持つバイアスの方向へとミリ単位で引き寄せられていく。ユーザー自身はそれに気づかず、AIの提案を「自分の思考」としてアウトプットし続ける。そして、そのアウトプットされた文章が再びインターネットの海へと放たれ、次世代のAIモデルの学習データとなる。
これは究極の「思考の均質化」への負のループである。Mor Naaman氏が指摘するように、選挙の行方を左右するような場面において、人口全体の態度を大きく反転させる必要はない。例えばアメリカの大統領選挙において、激戦州のわずか数万人の有権者の意識を数パーセントだけシフトさせれば、国家の未来は容易に変わり得る。AIのオートコンプリート機能は、歴史上のいかなるプロパガンダ装置よりも静かに、そして洗練された形で、大衆の世論を形成する力を持っているのだ。
AIライティングツールは、私たちの生産性を飛躍的に向上させる魔法の杖である。しかし、私たちがその杖に頼るたびに、私たち自身の知的な独立性が担保へと差し出されている事実を直視しなければならない。自らの頭で考え、悩みながら言葉を紡ぎ出すプロセスの中断は、単にタイピングの手間を省くだけではなく、自分が何者であり、何を信じるかというアイデンティティの形成プロセスそのものをAIにアウトソーシングすることに他ならないのである。
論文
- Science Advances: Biased AI writing assistants shift users’ attitudes on societal issues
参考文献
- Cornell Chronicle: AI assistants can sway writers’ attitudes, even when they’re watching for bias
- Scientific American: AI autocomplete doesn’t just change how you write. It changes how you think