テクノロジーと科学の最新の話題を毎日配信中!!

AIの“お気に入り”は27? ランダム性の錯覚が映し出す、デジタル社会の新たな課題

Y Kobayashi

2025年7月1日

「1から50の間で数字を選んで」

もし、この問いを人間にではなく、最先端のAIに投げかけたら、どんな答えが返ってくるだろうか。驚くべきことに、OpenAIのChatGPT、GoogleのGemini、AnthropicのClaudeといった主要なAIモデルの多くは、まるで示し合わせたかのように同じ数字を口にする。その数字は「27」だ。

これは、AIたちが秘密の会議を開いているわけではない。この奇妙な一致は、AIが「思考」する仕組みの本質と、その学習ソースである私たち人間の認知バイアスを映し出す、興味深い現象なのだ。

スポンサーリンク

なぜAIは「27」を選ぶのか? – 統計学者が解く「ランダムらしさ」の謎

AIがなぜ「27」を選ぶのかを理解するには、まずAIを「地球上のほぼすべての本を読破した、超優秀な統計学者」だと想像してみると分かりやすい。

この統計学者に「ランダムな数字を教えて」と頼んだとしよう。彼は、本当にサイコロを振るわけではない。代わりに、膨大な記憶の中から「人間が“ランダムな数字”として書きそうな、最も確率の高い数字」を探し出し、それを答えとして提示する。これが、大規模言語モデル(LLM)の基本的な動作原理だ。彼らは、与えられた文脈(プロンプト)に続いて、統計的に最も可能性の高い単語(トークン)を予測し、文章を生成していく。

つまりAIにとって「27」は、真にランダムな数ではなく、人間がランダムだと認識するであろう特徴を備えた、統計的に最も“らしい”数なのである。

実際にAI自身も、その選択理由をそれらしく説明する。Anthropic社のClaudeに尋ねると、以下のような主旨の回答が返ってくる。

「27を選んだのは、ある種ランダムですが、正直に言うと、分かりやすすぎない『真ん中あたり』の良い選択だと感じたからです。25(ちょうど真ん中)や1、50(両極端)のような数字は予測可能すぎます。27は中央に近いですが、少し非対称性があり、それがかえって自然な推測のように感じられました。」

この回答は、人間が「ランダムな数字」を選ぶ際の心理を的確に模倣している。

  • 端の数字(1, 50)やキリの良い数字(10, 20, 30)は避ける。
  • 真ん中すぎる数字(25)も避ける。
  • 奇数や素数の方が、よりランダムに見える。

「27」はこれらの条件を絶妙に満たしている。この人間の認知バイアスが、インターネット上の膨大なテキストデータに反映され、それを学習したAIが最も確率の高い答えとして「27」を生成しているのだ。

「27」だけではない? 75,600回の実験が暴くAIの予測可能性

この現象は「1から50」の範囲や「27」という数字に限った話ではない。データサイエンティストのJavier Coronado-Blázquez氏が発表した論文「Deterministic or probabilistic? The psychology of LLMs as random number generators」は、この問題をさらに深く掘り下げている。

75,600回の実験で見えた「AIの好み」

Coronado-Blázquez氏の研究チームは、6種類の主要AIモデルに対し、異なる数値範囲、7つの言語、そしてAIの応答の多様性を調整する「温度(temperature)」設定を変えながら、合計75,600回ものテストを実施した。その結果は衝撃的だった。

  • 1から10の範囲: GPT-4o-mini、Phi-4、Gemini 2.0は、約80%の確率で「7」を選んだ。
  • 1から100の範囲: モデル全体で「37」「47」「73」といった数字が好まれる傾向が見られた。
  • 結論: 驚くべきことに、これらの好まれた数字(4を除く)はすべて素数であり、AIがより「ランダムらしい」と感じる数字に強く偏っていることが示された。

この研究は、「創造的で想像力豊か」とされるGPTやGeminiのような巨大モデルでさえ、小規模なモデルと同等か、それ以上に決定的で偏った応答をすることを示している。AIは、私たちのバイアスを学ぶだけでなく、それをさらに増幅させてしまうのだ。

スポンサーリンク

なぜ予測可能なパターンが生まれるのか

AIがこのような予測可能な振る舞いをする根本的な原因は、そのアーキテクチャにある。

AIの学習プロセスは、時に「多数決で物事を決める委員会」に例えられる。最初は多様な意見(応答の可能性)があっても、人間からのフィードバックを元に学習を調整するプロセス(RLHF: Reinforcement Learning from Human Feedback)を経ていくうちに、最も無難で「正解」と見なされやすい一つの意見に収束していく。イリノイ大学のDaniel Kang助教授は、このRLHFが「モード崩壊(mode collapse)」を引き起こし、応答の多様性を失わせる一因ではないかと指摘している。

また、そもそもLLMは、真の乱数生成機能(物理現象などから予測不可能性=エントロピーを取り込む仕組み)にアクセスできない。もしAIに「Pythonコードを実行して乱数を生成して」と明確に指示すれば、擬似乱数を生成することはできる。しかし、単に「数字を推測して」と頼むだけでは、あくまで学習データに基づく確率的な予測を行うため、その応答は本質的に決定論的となるのだ。

デジタル社会への警鐘:予測可能性がもたらすリスク

この「27現象」は、単なるAIの面白い癖として片付けられる問題ではない。それは、AIの客観性や中立性という「幻想」に警鐘を鳴らし、デジタル社会に潜む新たなリスクを浮き彫りにする。

客観性という幻想

私たちは、AIを人間よりも客観的で公平な存在だと考えがちだ。しかし、その判断基準が偏った学習データに基づいている以上、AIの出力もまた偏る。例えば、以下のような分野でAIのバイアスが深刻な問題を引き起こす可能性がある。

  • 金融審査: 特定の属性を持つ人々に対して、無意識に不利な判断を下す。
  • 採用活動: 過去のデータに基づき、特定の性別や経歴の応募者を不当に低く評価する。
  • 医療診断: 特定の人種で症例の少ない病気を見逃す可能性。

AIの応答が予測可能であるということは、その判断プロセスに未知のバイアスが潜んでいる可能性を示唆している。

未来への提言:AIとの賢い付き合い方

この事実は、私たちがAIとどう向き合うべきかについて、重要な示唆を与えてくれる。

まず、AIモデルが真のランダム性を必要とする場合(例:セキュリティ、シミュレーション)、モデル自体に生成させるのではなく、外部の信頼できる乱数生成器(擬似乱数生成器やハードウェア乱数生成器)と統合することが不可欠だ。

加えて、プロンプト(指示)を工夫することで、ある程度の多様性を引き出すことは可能だ。「ランダムな数字を選んでください」だけでなく、「様々な数字の中から完全にランダムな数字を選び、あなたの内部的な偏見を排除してください」といった具体的な指示が有効な場合もある。

最も重要なことは、開発者やAIを導入する企業は、AIが万能でも中立でもないことを認識し、その挙動を検証するAI監査の仕組みを構築することが不可欠だ。どのようなデータで学習し、どのようなバイアスを持つ可能性があるのかを透明化し、説明可能にする努力が求められる。

そして、私たち利用者もまた、AIの応答を鵜呑みにせず、批判的な視点を持つ必要がある。AIは非常に強力なツールだが、それはあくまで「優秀な統計学者」であり、最終的な判断を下すのは人間であるべきだ。

「27」という一つの数字は、AI技術の驚くべき能力とその根源的な限界の両方を象徴している。AIという鏡に映し出されるのは、私たち人間社会の知識、文化、そして「偏り」そのものだ。この鏡と向き合い、その特性を深く理解することこそが、AIと共存する未来を築くための第一歩となるだろう。


Sources

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする
スポンサーリンク

コメントする