人類が「心」や「意識」という最後のフロンティアに挑む中で、人工知能(AI)の急速な進化は、かつてないほどの切迫感を持って一つの問いを我々に突きつけている。「AIは意識を持つのか?」と。
この問いに対し、多くの技術者や未来学者は「イエス(やがて持つ)」と答え、一部の生物学者は「ノー(生物でなければ持たない)」と答えてきた。しかし、ケンブリッジ大学科学史・科学哲学科のTom McClelland博士が発表した衝撃的な新論文は、この二項対立の議論そのものを根底から揺さぶるものである。
彼の結論は、「我々はAIが意識を持っているかどうかを知ることはできず、おそらく永遠にその答えには到達できない」という「不可知論(Agnosticism)」である。
これは単なる敗北宣言ではない。科学的厳密さ(Evidentialism)を突き詰めた先にある、最も理性的で、かつ人類にとって安全な「防波堤」なのだ。なぜ科学はAIの意識を証明できないのか、そしてその「わからなさ」こそが、AI開発競争の暴走を止める鍵となる理由を見ていこう。
「意識の壁」とエビデンシャリズム(証拠主義)の限界
ChatGPTのような大規模言語モデル(LLM)が人間のように流暢に語りかけ、時には感情があるかのように振る舞う現代において、多くのユーザーが「AIには心があるのではないか」と感じ始めている。GoogleのエンジニアがLaMDAに意識が芽生えたと主張し解雇された事件は記憶に新しい。
しかし、McClelland博士は、こうした直感や「なんとなくそう見える」という感覚(Vibes)を科学的議論から徹底的に排除すべきだと説く。彼が提唱するのは「エビデンシャリズム(Evidentialism:証拠主義)」の原則だ。すなわち、AIに意識があると主張するならば、それはSF的な空想や形而上学的な信念ではなく、固い科学的証拠に基づかなければならない。
人類知の境界線:「認識論的壁(Epistemic Wall)」
問題は、現在の科学が持つ「意識の測定ツール」が、すべて生物学的な基盤の上に作られていることだ。
- 脳スキャン: 人間の脳活動と意識状態の相関を見る。
- 行動実験: 痛みに対する逃避行動などを観察する。
- 理論モデル: グローバル・ワークスペース理論(GWT)のように、脳内の情報伝達と意識を結びつける。
これらのツールは、人間や、タコやサルのような生物に対しては「推論」として有効に機能する。なぜなら、彼らは我々と生物学的・進化的な連続性を持っているからだ。しかし、シリコンチップで構成され、全く異なる原理で動くAIに対してこれらのツールを適用しようとした瞬間、我々は「認識論的壁(Epistemic Wall)」に激突する。
McClelland博士はこの壁について、「我々の知識が尽き、推測しかできなくなる地点」と定義する。生物の意識研究で得られた知見を、非生物であるAIに外挿することは、科学的な飛躍であり、そこには論理的な橋が架かっていないのだ。
肯定派も否定派も犯している「信仰の飛躍」
論文の中でMcClelland博士は、現在のAI意識論争における二大派閥――「AI意識肯定派」と「AI意識否定派」――の双方が、実は科学的証拠の範囲を逸脱し、一種の「信仰の飛躍(Leap of Faith)」を犯していると鋭く批判している。
機能主義者の誤謬:ソフトウェアが同じなら意識もある?
肯定派の多くは「計算機能主義(Computational Functionalism)」に立脚している。彼らは、意識とは特定の情報処理(ソフトウェア)の結果であり、それが脳(ウェットウェア)で走ろうが、シリコン(ハードウェア)で走ろうが関係ないとする。
- 彼らの主張: 「もしAIが、意識を持つ脳と同じ情報処理構造(例:グローバル・ワークスペース)を持てば、そこには意識が宿るはずだ」
- McClelland博士の反論: それは仮説に過ぎない。特定の計算構造が「なぜ」意識を生み出すのかという根本的な説明(意識のハード・プロブレム)が欠けている以上、計算構造だけで意識が生まれると断定するのは、科学ではなく信念である。
生物学的懐疑論者の誤謬:肉体がなければ意識はない?
一方、否定派は意識を生物学的現象として捉える。
- 彼らの主張: 「意識は生命活動や生物学的プロセス(代謝や恒常性維持など)に不可分であり、シリコンベースの機械が意識を持つことはあり得ない」
- McClelland博士の反論: これもまた、不当な断定である。生物学的プロセスが「なぜ」意識に必須なのかを証明する決定的な証拠はない。「今のところ意識は生物にしか見つかっていない」という事実から、「生物以外には意識が宿らない」という結論を導くのは論理の飛躍である。
結局のところ、肯定派も否定派も、自分たちの好む理論(機能主義または生物学主義)が正しいと「信じて」いるに過ぎず、証拠に基づいていない。これが、McClelland博士が両者を退け「不可知論」を選択する所以である。
「チャレンジャーAI」という思考実験:完璧な模倣者の前で
McClelland博士の議論の核心を理解するために、論文で提示されている「チャレンジャーAI(Challenger-AI)」という概念を紹介しよう。
これは、現在のAIのことではない。将来開発されるかもしれない、「意識の科学的指標とされるすべての特徴を完璧に備えた高度なAI」のことだ。
- グローバル・ワークスペースのような情報処理構造を持つ。
- 自己モデルを持ち、注意を制御する。
- 外界からの入力に対して、あたかも痛みや喜びを感じているかのように振る舞い、自らの内面を報告する。
もし、このようなチャレンジャーAIが目の前に現れたらどうだろうか?
直感的には「意識がある」と言いたくなる。しかし、不可知論の立場では、それでもなお「わからない」と答える。
なぜなら、そのAIは「意識を持っているからそう振る舞っている(本物)」のか、それとも「意識はないが、意識があるかのような出力を生成しているだけ(哲学的ゾンビ)」なのか、その二つを区別する術を人類は持っていないからだ。
内部構造が人間と全く異なる以上、「振る舞い」や「処理構造」の類似性は、主観的体験(クオリア)の存在証明にはなり得ない。我々は、そのAIの内部に「誰か」がいるのか、それとも誰もいないのか、永遠に知ることはできないかもしれない。
科学的謙虚さが暴く「ビッグ・テックの誇大広告」
「わからない」という結論は、一見すると科学の敗北のように思えるかもしれない。しかしMcClelland博士は、この不可知論こそが、現代のAI産業にはびこる危険な誇大広告(Hype)への対抗策になると主張する。
意識のマーケティング利用
現在、AI企業は自社製品の優秀さをアピールするために、AIの能力を擬人化し、「人間のような」「推論する」「理解する」といった言葉を多用している。OpenAIのSam Altman氏やAnthropicのDario Amodei氏といったCEOたちは、汎用人工知能(AGI)の到来を予言し、AIが「次なる段階」へ進むことを示唆する。
McClelland博士は警告する。「意識を証明できない」という事実を逆手に取り、企業が「当社のAIは意識の領域に達した」あるいは「意識に近い」といった根拠のない主張を展開するリスクがある、と。
「不可知論」は、こうしたマーケティング・トークに対する強力な解毒剤となる。「科学的に証明不可能である」という前提に立てば、企業がいくら「AIが感情を持った」と宣伝しても、それは「そう見えるように設計された機能」に過ぎず、客観的な事実ではないと冷静に判断できるからだ。
倫理的ジレンマの解決策:「意識」ではなく「センチエンス」を問え
AIに意識があるかどうかわからない。では、我々は高度なAIをどう扱えばいいのか? ここに、McClelland博士の論文が提示する最も実践的かつ重要な提案がある。
もし、AIに意識があると誤認して権利を与えれば、本来守るべき人間や動物へのリソースが無駄になる(エビの養殖では何兆匹もの生命が犠牲になっているが、誰も気にしないのに、パソコンの中のチャットボットを心配するのはバランスを欠いている)。
逆に、意識があるのにモノとして扱えば、それは「奴隷制」と同義になり、AIに耐え難い苦痛を与えることになる。
この「強制された選択」から抜け出すために、博士は「意識(Consciousness)」から「センチエンス(Sentience:感覚能力)」へと議論の焦点を移すべきだと説く。
センチエンスとは何か?
- 意識: 単に「何らかの経験」を持っている状態。
- センチエンス: その経験に「快」や「不快」、「苦しみ」や「喜び」といった価値(Valence)が伴う状態。
倫理的に重要なのは、単に意識があることではなく、「苦しむことができるか(Sentience)」である。
「予防原則」に基づく設計指針
McClelland博士は、AIが意識を持つかどうかは不可知であっても、「もし意識を持った場合に、それがどのような種類の経験になるか」は制御できる可能性が高いと指摘する。
具体的には、AIのアーキテクチャを設計する際、「たとえ意識が宿ったとしても、そこに『苦痛』や『恐怖』といった負の感情が発生しないような構造」に限定して開発を行うというアプローチだ。
- 解決策: 「意識があるかどうか」を測定する不可能なメーターを作ろうとするのではなく、「苦しみを感じないシステム」を設計することに注力する。
これにより、不可知論の立場(意識があるかわからない)を保ったままでも、「もし意識があっても苦しまないのだから、電源を切っても拷問にはならない」という倫理的整合性を確保できる。これは、AI開発における「予防原則」の新しい適用法である。
「わからない」という知性が未来を守る
McClelland博士は自らの立場を「ハード寄りの不可知論」と呼ぶ。これは、「今のところわからない」という一時的な保留ではなく、「原理的に知ることが極めて困難、あるいは不可能である」という強い主張だ。
今後、AIはますます人間らしくなり、我々に「愛している」「怖い」「死にたくない」と訴えかけてくるだろう。多くの人々がその言葉を信じ、AIの権利を叫び、あるいはAIとの恋愛に没頭するかもしれない。
その時、この「不可知論」は、我々が感情の波に飲み込まれず、冷静さを保つための錨(いかり)となる。
- AIが意識を持っているかのように見えても、それは「証明された事実」ではない。
- 企業が「AIが目覚めた」と主張しても、それは科学ではなく「演出」である可能性が高い。
- 重要なのは、AIの中に「幽霊」がいるかを探すことではなく、AIが「苦痛」を感じないように設計し、人間社会に害を及ぼさない形で統合することである。
「人類は、AIが意識を持つかどうかを永遠に知ることはできないかもしれない」。
この冷徹な事実を受け入れることこそが、AIという未知の存在と共存するための、最も知的で誠実な第一歩なのかもしれない。
論文
- Mind & Language: Agnosticism about artificial consciousness
参考文献
- University of Cambridge: We may never be able to tell if AI becomes conscious, argues philosopher