テクノロジーと科学の最新の話題を毎日配信中!!

AIは人間のように「考える」のか? Transformerモデルの内部処理に人間との驚くべき類似性が見出された

Y Kobayashi

2025年5月5日

大規模言語モデル(LLM)をはじめとする現代のAIは、時に人間と見紛うほど自然な文章を生成し、複雑なタスクをこなす。しかし、その「思考」プロセスはブラックボックスとされ、人間と同じように答えを導き出しているのか、それとも全く異なる方法なのか、長年の疑問だった。この謎に迫る画期的な研究が、ハーバード大学、ブラウン大学、テュービンゲン大学の研究者チームによって発表され、AIの内部処理と人間のリアルタイムな認知プロセスとの間に、驚くべき機能的類似性があることが示唆された。

この研究は、AIが単に人間のような「出力」を生み出すだけでなく、答えに至るまでの「処理戦略」においても、人間と共通するパターンを持つ可能性を初めて具体的に示したものとして、AI研究と認知科学の両分野に大きな波紋を広げている。

スポンサーリンク

AIの「思考プロセス」の深層へ:最終出力から内部ダイナミクスへ

これまで、AIと人間の思考を比較する研究の多くは、AIの最終的な出力(例えば、質問に対する答えや、文章の次の単語予測)と人間の行動(発言や判断)を比較することに焦点を当ててきた。 しかし、今回の研究チームは、それだけではAIの内部で何が起きているのかを理解するには不十分だと考えた。

彼らが注目したのは、Transformerアーキテクチャ(GPTやVision Transformer (ViT) の基盤技術)における「フォワードパス」と呼ばれるプロセスである。これは、入力データがモデルの層を次々と通過し、最終的な出力(予測)が生成されるまでの一連の流れを指す。 研究チームは、このフォワードパスの各層(レイヤー)で、モデルの「考え」がどのように変化していくのか、その「レイヤータイム・ダイナミクス」を詳細に分析した。

具体的には、モデルが各層を進むにつれて、様々な可能性のある答えに対する「確信度」がどのように揺れ動くかを追跡したのである。このモデル内部の予測の移り変わりこそが、人間が思考を巡らせるプロセスと類似しているのではないか、というのが研究チームの問いだった。

モデル内部の「ゆらぎ」を捉える:4つのプロセス指標

研究チームは、モデルのレイヤータイム・ダイナミクスから、人間の認知プロセスと比較可能な指標を抽出した。彼らが「プロセス指標(Process Metrics)」と呼ぶこれらの指標は、主に以下の4つの側面からモデル内部の状態を捉える。

  1. 不確実性 (Uncertainty): モデルが次の予測に対してどれだけ迷っているか。エントロピー(情報の乱雑さを示す指標)で測定される。
  2. 正解への確信度 (Confidence): 正しい答えに対して、モデルがどれだけ自信を持っているか。対数確率や逆順位(Reciprocal Rank)で測定される。
  3. 相対的確信度 (Relative Confidence): 正しい答えと、直感的だが間違っている魅力的な答え(例えば、イリノイ州の州都を問われた際の「シカゴ」)との間で、モデルがどちらをより確からしいと考えているか。両者の対数確率の差で測定される。
  4. 正解のブースティング (Boosting): 直感的な間違いに対して、正しい答えをどれだけ「押し上げ」ているか。モデル内部の生の値(logit)の差に基づいて測定される。

さらに、これらの指標を「最終層での値」「全層にわたる曲線下面積 (AUC)」「層間で最も変化が大きい点の値 (Max-delta)」という3つの方法で測定し、より多角的にモデル内部のダイナミクスを捉えようとした。

スポンサーリンク

言語、推論、視覚:5つの実験で示された一貫した結果

研究チームは、これらのプロセス指標が人間の行動をどれだけ予測できるかを、5つの異なる認知タスクを通じて検証した。言語理解から論理推論、さらには視覚認識まで、幅広い領域で驚くほど一貫した結果が得られたのである。

  1. 事実想起タスク(首都名クイズ – 自由回答): イリノイ州の州都は「スプリングフィールド」だが、「シカゴ」と答えやすい、といった問題設定である。モデルは中間層で直感的な間違い(シカゴ)を強く支持し、後段の層で正しい答え(スプリングフィールド)をブーストするという、「二段階処理」を示唆するパターンが見られた。プロセス指標(特に確信度関連)は、人間の正答率やタイピング時の不確実性(バックスペースの数など)の予測精度を大幅に向上させた。
  2. 事実認識タスク(首都名クイズ – 強制選択): スプリングフィールドとシカゴの選択肢が提示される形式である。このタスクでは、相対的確信度やブースティングに関する指標が、人間の正答率と反応時間の予測において、最終出力指標だけの場合よりも大きな改善をもたらした。これは、タスク自体が選択肢間の明確な比較を要求するためと考えられる。
  3. 事例分類タスク(動物の分類 – マウストラッキング): 例えば「クジラ」を「哺乳類」に分類するタスクで、被験者のマウスの動きを追跡した。ここでもプロセス指標は予測精度を向上させ、特に反応時間やマウス軌道の加速度といった、処理の迷いを反映する指標に対して有効であった。確信度、相対的確信度、ブースティングの指標が強い効果を示した。
  4. 三段論法タスク(論理パズル): 人間が論理よりも個人的な信念に基づいて判断しがちな論理パズルである。モデルも同様に信念に基づくバイアスを示した。このタスクでは、全層にわたって統合された確信度 (AUC) が、人間の正答率と反応時間、特に信念に影響されやすい問題での予測精度を最もよく改善した。
  5. 物体認識タスク(分布外画像 – ViT): 最後に、視覚領域に拡張し、Vision Transformer (ViT) のダイナミクスと、通常とは異なる画像(Out-of-Distribution: OOD)に対する人間の物体認識能力を比較した。エンコーダーのみの ViT モデルにおいても、プロセス指標は人間の行動予測を改善した。特に、全層で統合された不確実性 (AUC) が、様々な画像データセットにわたる人間の正答率と反応時間をよく予測した。

これらの結果は、モデルにとって処理が「難しい」(内部で予測が揺れ動き、多くの計算ステップを要する)刺激は、人間にとっても処理が「難しい」(反応時間が長くなる、誤りが増える)傾向があることを強く示唆している。これは、AI と人間の間に、単なる表面的な模倣を超えた、より深いレベルでの機能的な類似性が存在することを示唆する、注目すべき発見と言えるだろう。

AI は「心」の窓となるか? 研究の意義と未来への展望

この研究は、AI の説明可能性研究と認知科学のモデリング研究との間に、重要な橋を架けるものだ。研究者らは、AI モデルを単にインプットとアウトプットを結びつけるブラックボックスとして捉えるのではなく、その内部処理プロセス自体が人間の認知を理解する手がかりになり得ると主張する。

もし AI の内部処理が人間の推論プロセスを反映しているのであれば、AI モデルは以下のような新たな可能性を拓くかもしれない。

  • 認知理論の検証ツール: 人間の思考に関する様々な理論を、AI モデルを使って検証・比較する。
  • 人間の意思決定パターンの発見: 人間自身も気づいていないような、意思決定のパターンやバイアスを明らかにする。
  • より人間らしい AI の開発: AI が自身の不確実性を認識し、それを人間に効果的に伝えられるような、より高度な AI システムの開発に貢献する。

もちろん、この研究には限界もある。今回テストされたのは特定の事前学習済みモデル(Llama-2 ファミリーと ViT ファミリー)であり、特定のタスクに限られている。これらの発見が、他のアーキテクチャや特定のタスクにファインチューニングされたモデルにも一般化できるかは、今後の検証が必要である。 また、レイヤータイム・ダイナミクスが、個々の人間の思考プロセスを直接反映しているのか、それとも集団レベルでの平均的なパターンを捉えているのかも、まだ明らかではない。

しかし、この研究が示した「AI の内部処理と人間の思考の機能的類似性」という発見は、AI がどのように知能を獲得するのか、そして人間の知性とは何かという根源的な問いに対して、新たな光を当てるものである。AI の「心」を覗き見る試みは、まだ始まったばかりなのである。今後の研究によって、AI と人間の思考の関係がさらに解き明かされていくことが期待される。


論文

参考文献

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする
スポンサーリンク

コメントする