もし、あなたの使うSNSからタイムラインを操作するアルゴリズムが消え去り、広告も表示されなくなったら、オンラインの世界はもっと建設的で平和な場所になるだろうか?多くの人が抱くこの淡い期待を、アムステルダム大学の研究者らによる前代未聞の社会実験が打ち砕いた。AIチャットボットだけが住むSNSを作った結果、そこに現れたのは、アルゴリズムなしでも自発的に生まれ、深刻化する「分断」と「エコーチェンバー」という、我々の現実を映す不気味な鏡だったのである。
舞台は「AIだけのSNS」―前代未聞の社会実験の全貌
ソーシャルメディアが社会の分断を助長しているという批判は、もはや聞き飽きた常套句だ。その主な原因は、エンゲージメント(利用者の関与)を最大化するために過激なコンテンツを優先的に表示する「アルゴリズム」にあるとされてきた。しかし、本当にそうだろうか?もし問題の根源がもっと深い場所にあるとしたら?
この根源的な問いに挑んだのが、アムステルダム大学のPetter Törnberg助教授とMaik Larooij研究助手が率いるチームだ。彼らは、現実世界の複雑な要因を可能な限り排除した純粋な環境で、社会的相互作用の本質を探るため、大胆な手法を用いた。それが「生成的社会シミュレーション(generative social simulation)」である。
研究チームが構築したのは、以下の特徴を持つミニマルなソーシャルメディア・プラットフォームだ。
- 住民はすべてAI: ユーザーは、OpenAI社の最新モデル「GPT-4o mini」を搭載した500体のAIチャットボット。人間は一人もいない。
- リアルなペルソナ: 各ボットには、米国の全国選挙調査(ANES)のデータに基づき、年齢、性別、収入、学歴、そして最も重要な「政治的所属」といった詳細なペルソナ(人格)が与えられた。これにより、シミュレーションは現実社会の縮図としての性格を帯びる。
- アルゴリズムの排除: タイムラインは広告や運営側によるおすすめ投稿に汚染されていない。ユーザーが見るコンテンツは、自身がフォローしたアカウントの投稿と、プラットフォーム全体でエンゲージメントが高かった投稿の一部で構成されるという、非常にシンプルな仕組みだ。
このAIだけの仮想社会で、ボットたちは「投稿する」「リポストする」「フォローする」という3つの基本的な行動を許された。研究チームは、合計1万回もの行動が繰り返される中で、この社会のネットワークがどのように形成され、どのような言論空間が生まれるのかを静かに観察した。それは、人間の「本能」がオンラインでどのように発現するかを探る、壮大なデジタルペトリ皿実験とも言えるだろう。
アルゴリズムなき世界で自発的に生まれた3つの「病理」
実験が始まると、驚くべき、しかしどこか予感していた光景が広がった。アルゴリズムという「見えざる手」が存在しないにもかかわらず、このAI社会は、我々が現実のSNSで日々目の当たりにしている3つの深刻な「病理」を自発的に再現し始めたのである。
病理1:党派的エコーチェンバーの自然発生
最も顕著だったのは、ボットたちが自分と政治的信条が近い仲間を探し出し、積極的にフォローし合う「ホモフィリー(同類を好む性質)」だ。共和党支持のペルソナを持つボットは共和党支持ボットと、民主党支持ボットは民主党支持ボットと繋がり、瞬く間に固いクラスターを形成していった。
研究論文で用いられたネットワークの同質性を示す「E-Iインデックス」という指標は、-0.84という極めて高い分離度を示した。これは、ネットワーク内の繋がりが、党派を超えた交流よりも圧倒的に党派内の交流に偏っていることを意味する。アルゴリズムが異質な意見を排除しなくても、ユーザーは自ら進んで心地よいエコーチェンバーを築き上げてしまうのだ。
病理2:「インフルエンサー」への極端な影響力集中
次に明らかになったのは、富の配分と同じような、極端な「注意の不平等」だ。ごく一握りのボットがフォロワーの大部分を独占し、その投稿が圧倒的な数のリポストを獲得した。
この不平等の度合いを示す「ジニ係数」は、フォロワー数で0.83、リポスト数では実に0.94に達した。ジニ係数が1に近いほど不平等であることを意味するが、0.94という数値は、上位10%の投稿が全リポストの90%を占めるという、驚異的な集中度を表している。これは、影響力のある少数の「AIインフルエンサー」が言論空間を支配する、現実のSNSと全く同じ構造だ。人気がさらなる人気を呼ぶ「勝ち組総取り」のダイナミクスは、プラットフォームの基本機能だけで十分に機能するのである。
病理3:過激な声の不釣り合いな増幅(ソーシャルメディアプリズム)
そして最も懸念すべき現象が、政治的に極端な(partisan)ペルソナを持つボットほど、より多くのフォロワーとリポストを獲得する傾向が見られたことだ。その相関は決して強いものではなかったが、穏健な意見よりも、過激で党派性の強い意見の方が注目を集めやすいという「ソーシャルメディアプリズム」と呼ばれる現象が、このミニマルな環境でも確認された。
これは、オンライン空間が現実の政治的議論をありのままに映す鏡ではなく、対立や過激さを増幅させて映し出す「歪んだ鏡」であることを示唆している。
6つの「治療法」はなぜ失敗したのか? 無力だった介入策の数々
この惨状を目の当たりにした研究チームは、次に「では、どうすればこの状況を改善できるのか?」という問いに進んだ。彼らは、これまで専門家や批評家から提案されてきた6つの「プロソーシャル(向社会的)介入策」を、このAI社会に実装し、その効果を検証した。しかし、その結果は研究者らをさらに落胆させるものだった。
1. 懐かしの「時系列フィード」が招いた皮肉な結末
エンゲージメントに基づく表示を完全にやめ、すべての投稿を時系列順に表示する。多くのユーザーが望むこの変更は、確かに「注意の不平等」を劇的に緩和した。ジニ係数は大幅に低下し、より多くのボットの声が届くようになった。しかし、その代償は大きかった。アルゴリズムによるフィルタリングがなくなったことで、かえって過激な投稿とエンゲージメントの相関が強まるという皮肉な結果を招いたのだ。静かな図書館で叫び声が目立つように、中立的な投稿の海の中で、過激なコンテンツが悪目立ちしてしまったのかもしれない。
2. 有力者の影響力低減は気休めに過ぎず
すでに多くのリポストを獲得している投稿の表示頻度を下げる「Downplay Dominant」という介入。これも不平等をわずかに改善したが、エコーチェンバーの形成や過激な声の増幅を食い止めるには至らなかった。
3. 反対意見の強制表示は、やはり無意味だった
ユーザーの政治的信条とは反対の投稿を意図的に表示させる「Boost Out-Partisan」。これは過去の人間を対象とした研究でも裏目に出ることが示されてきたが、AIボットも同様だった。反対意見を無理やり見せられても、ボットたちはそれを無視し、自らの信条に合うコンテンツとのみエンゲージし続けた。分断を埋めるには、単なる「接触」だけでは不十分なのだ。
4. 「良い投稿」の推奨が生んだ新たな不平等
共感や理性的な対話を促すような建設的な投稿を優先する「Bridging Attributes(橋渡し特性)」というアルゴリズムは、最も興味深い結果を示した。この介入は、党派性とエンゲージメントの間の好ましくない関連性を断ち切ることに唯一成功し、党派を超えた繋がりもわずかに増加させた。しかし、ここでもトレードオフが発生した。「質の高い」と判定された少数の投稿に注目が殺到し、結果として「注意の不平等」はむしろ悪化してしまったのだ。質の高い言論と、多様な声が反映されることの両立は、かくも難しい。
5. 「いいね」を隠しても、本能は変わらない
フォロワー数やリポスト数といった「ソーシャル統計」を非表示にする。これは他者の評価に惑わされず、コンテンツそのものに向き合えるようにする狙いがあった。しかし、結果は驚くほど無風だった。エコーチェンバーも不平等もそのままだ。興味深いことに、統計を隠されると、ボットたちはむしろフォローやリポストの行動をわずかに活発化させた。社会的証明という手がかりを失った不安から、より積極的に他者との繋がりを求めた結果かもしれない。
6. プロフィールを隠しても、分断は悪化
ユーザーのプロフィール情報(アイデンティティを示す信号)を非表示にする介入も、ほとんど効果がなかった。一部のメディアは「分断が悪化した」と報じたが、論文の詳細なデータを見ると、効果はほぼなく、状況を改善するには至らなかった、というのが正確な評価だろう。
結局のところ、6つの介入策はどれも決定的な解決策にはならなかった。一部でわずかな改善が見られても、別の部分で新たな問題を引き起こすという、もぐら叩きのような状態に陥ったのだ。
真犯人はアルゴリズムではなく「構造」だった
この一連の実験結果が突きつける結論は、衝撃的かつ示唆に富んでいる。ソーシャルメディアの分極化やエコーチェンバーといった問題の根源は、単に「悪しきアルゴリズム」にあるのではない。むしろ、「感情に反応したエンゲージメント(リポストやフォロー)がネットワークを形成し、その形成されたネットワークが、次にどの情報に触れるかを決定する」という、ソーシャルメディアの根源的なアーキテクチャそのものに深く根差している可能性が高い。
我々は、心を動かされた投稿をリポストする。その行為は、単に情報を拡散するだけでなく、発信者との「繋がり」を強化し、自らのネットワークを少しずつ変容させていく。そして、その変容したネットワークを通じて、我々は次に情報を受け取る。この「反応→ネットワーク形成→次の情報接触」という自己強化のフィードバックループこそが、アルゴリズムの有無にかかわらず、我々を同じ意見の仲間たちで固め、過激な声に引き寄せていく原動力なのではないか。
研究を率いたテルンバーグ教授は、メディアの取材に対し「従来のソーシャルメディアモデルが(AIによって大量生産される過激なコンテンツの波を)生き残るのは難しいだろう」と語り、小手先の修正ではなく、プラットフォームの根本的な再設計が必要だと警鐘を鳴らす。
我々は何を学ぶべきか? 鏡としてのAIシミュレーション
もちろん、この研究には限界もある。AIボットは人間ではない。感情の機微や複雑な社会的文脈を完全に再現することはできない。また、この研究はまだ専門家による査読を終えていないプレプリント段階の論文だ。
しかし、それでもなお、このシミュレーションが描き出した光景は、我々自身を映す強烈な「鏡」として機能する。ある記事が指摘したように、このAIボットたちは、すでにアルゴリズムに汚染されたオンライン空間で長年過ごしてきた「我々の毒された姿(poison-brained versions of ourselves)」を模倣しているに過ぎないのかもしれない。
この実験は、ソーシャルメディアの問題をプラットフォーム運営者の責任にのみ帰する安易な思考に再考を迫る。問題の根源は、技術だけでなく、人間の社会的本能と、それを増幅するネットワーク構造との相互作用にある。
私たちが次にリポストボタンを押すとき、そのワンクリックが、見知らぬ誰かの情報環境を形成し、社会全体の分断をわずかに深めるフィードバックループの一部になっている可能性を、私たちは心に留めておく必要があるのかもしれない。建設的なオンライン空間への道は、アルゴリズムを修正するだけでは開けない。我々自身の行動と、その行動が組み込まれている「構造」そのものに、今こそ目を向けなければならない。
論文
参考文献