2026年1月、雪深いスイスのダボスで開催された世界経済フォーラム(WEF)年次総会。その中心で、ある対談が世界のテクノロジー業界、そして政策決定者たちの注目を一身に集めていた。

登壇したのは、現在のAI開発競争における二人の「巨人」だ。一人はGoogle DeepMindを率いるDemis Hassabis氏。もう一人は、元OpenAIの研究者たちが立ち上げ、今やGoogleの強力なライバルでありパートナーでもあるAnthropicのCEO、Dario Amodei氏である。

「ビートルズとローリング・ストーンズが同じステージに立ったようなものだ」とモデレーターのZanny Minton Beddoes(エコノミスト誌編集長)が評したこの対談のテーマは、「The Day After AGI(AGIの翌日)」。かつてはSFの領域であった汎用人工知能(AGI)の到来が、もはや「もし(If)」ではなく「いつ(When)」の問題として、そして極めて近い将来の現実として語られる場となった。

本稿では、この歴史的な対談の中で、彼らが提示したAGIへのタイムライン、雇用の未来、そして米中対立を含む地政学的なリスクについてを見ていきたい。

AD

隠された対立軸:「研究者主導」こそがAGIへの唯一の道

対談の中で最も注目すべき、しかし多くのメディアが見逃しているポイントがある。それは、Dario Amodeiが発した「AI企業の勝者の条件」に関する発言だ。彼は具体的な競合企業(OpenAIやMeta)の名指しこそ避けたものの、明確な線引きを行った。

「北極星(North Star)」を持つ者と持たざる者

Amodei氏は、Google DeepMindとAnthropicの共通点についてこう断言した。

「我々は共に、研究者によって率いられている(Led by researchers)組織だ。科学的な難問を解決することを『北極星』としている。こうした企業こそが、将来的に成功する」

この発言は、昨今のAI業界の潮流に対する強烈なアンチテーゼである。
現在、AI業界の一部では、Sam Altman氏(OpenAI)に代表されるような「製品リリース」や「市場シェア拡大」、「巨額の資金調達」を最優先する動きが加速している。また、Metaのように「自社SNSへの統合」や「オープンソースによる覇権」を目的化する動きもある。

対してAmodei氏とHassabis氏は、AI開発をビジネスゲームではなく、「自然科学の探究」と捉えている。彼らの主張はこうだ。「マーケティングやハイプ(誇大宣伝)で一時的に注目を集めることはできる。しかし、AGIという未知の知性を作り出し、それを安全に制御するには、物理学や生物学を解き明かすような深い科学的洞察が不可欠である」。

「メカニスティック・インタプリタビリティ」という盾

この「研究者主導」の姿勢は、安全性へのアプローチにも現れている。Amodei氏は、Anthropicが創業時から注力している「メカニスティック・インタプリタビリティ(機械論的解釈可能性)」の重要性を強調した。

これは、AIを「中身のわからないブラックボックス」として扱うのではなく、神経科学者が人間の脳を研究するように、AIのニューラルネットワーク内部で何が起きているかを数理的に解明しようとする試みだ。
「動くからリリースする」というエンジニアリング的な発想ではなく、「なぜ動くのか、なぜ嘘をつくのかを解明してから進む」という科学的な慎重さ。これこそが、破滅的なリスクを回避する唯一の手段であり、自分たちと他社を分かつ「DNAの違い」であると彼らは暗に示しているのだ。

タイムラインの衝突:AGIは「1〜2年後」か「数年後」か

最大の焦点は、人間と同等、あるいはそれ以上の知能を持つAIがいつ出現するかというタイムラインであった。ここで両者の見解は、方向性は一致しつつも、その切迫感において微妙かつ重要な差異を見せた。

Anthropic Dario Amodei氏の衝撃的な予測

Amodei氏は、昨年のパリでの対談で「2026年から2027年までに、多くの分野でノーベル賞受賞者レベルの能力を持つモデルが登場する」と予測していた。2026年となった今、彼はその予測を撤回するどころか、さらに確信を深めている。

「エンジニアたちはもはやコードを書かない。モデルに書かせ、それを編集するだけだ」とAmodei氏は語る。彼は、AIがAI自身のコードを書き、研究を進める「自己改善のループ」が回り始めていることを強調した。彼によれば、人間のエンジニアが行う業務のほとんど、あるいはすべてをモデルが実行できるようになるまで、あと「6ヶ月から12ヶ月」の距離に迫っているという。

チップの製造やトレーニング時間といった物理的なボトルネックは存在するものの、Amodei氏は「これが人々が想像するよりも早く進むだろう」と推測する。彼の口ぶりからは、AGIの実現が数年先ではなく、わずか1〜2年後の射程圏内に入っているという強烈な切迫感が漂っていた。

Google DeepMind Demis Hassabis氏の慎重論と「科学の壁」

一方、Hassabis氏はもう少し慎重な姿勢を崩していない。彼は「今世紀末(2030年頃)までにAGIが実現する確率は50%」という昨年の予測を維持した。

Hassabis氏が指摘するのは「検証可能性」の壁だ。コーディングや数学といった分野は、正解が明確であり、AIによる自動化や自己改善が容易である。しかし、DeepMindが長年取り組んできた創薬や材料科学といった自然科学の分野では、シミュレーションの結果を現実世界で実験・検証する必要がある。「仮説を立て、問いそのものを創り出す」という科学的創造性の最高峰にAIが到達するには、まだいくつかのブレークスルーが必要であると彼は見ている。

この両者の見解の相違は、AIの進化を「エンジニアリングの拡張」と見るか、「科学的探究の深化」と見るかの違いに根ざしていると言えるだろう。しかし、両者とも「今、我々は歴史的な閾値に立っている」という認識では完全に一致している。

AD

「自己改善ループ」の衝撃と限界

対談の中で何度も言及されたのが、AIが自らの性能を向上させる「ループを閉じる(Closing the loop)」という概念だ。これが完成すれば、AIの進化は人間の手を離れ、指数関数的な加速を開始する。いわゆる「シンギュラリティ(技術的特異点)」への入り口だ。

Amodei氏は、コーディング領域においてはすでにこのループが閉じつつあると示唆した。Anthropic内部では、AIが研究開発の加速装置として機能し始めている。これが、彼が極めて短期的なタイムラインを予測する根拠だ。

対してHassabis氏は、物理的な制約(ハードウェア、ロボティクス、実験設備)がループの速度を制限すると見る。特に「NP困難」な問題や、不確実性の高い現実世界での事象を扱う場合、単なる計算能力の向上だけでは解決できない壁が存在するという視点だ。しかし、彼もまた「コーディングや数学においては、自己改善が機能する可能性が高い」と認めており、デジタル空間内での知能爆発が先行して起こる可能性は否定していない。

労働市場の激変:ホワイトカラーの「消滅」は起きるのか

AGIの到来が現実味を帯びる中、避けられないのが雇用の問題だ。Amode氏は以前、「エントリーレベルのホワイトカラーの仕事の半分が1〜5年以内に消滅する可能性がある」と発言し物議を醸したが、今回の対談でもそのスタンスを崩さなかった。

現状、米国の失業率は歴史的低水準にあり、AIによる大量解雇の波は統計上現れていない。しかし、Amode氏はこれを「タイムラグ」であると説明する。「技術的には可能になりつつあるが、企業がそれを実装し、人間を置き換えるまでには時間がかかる」というわけだ。さらに彼は、Anthropic内部でも、将来的にはジュニアレベルや中級レベルの人員が必要なくなる未来を見据えていると明かした。

Hassabis氏も短期的には「採用の鈍化」が起きていることを認める。特にインターンシップや初級職において、AIツールがその役割を代替しつつある。彼は学生に対し、「AIツールを驚くほど使いこなせるようになること」こそが、かつての実務経験以上の価値を持つとアドバイスした。

しかし、Hassabis氏は長期的には楽観的だ。「かつて農業に従事していた80%の人々が工場やオフィスに移ったように、人間は適応する」とし、経済的価値とは直結しない「意味」や「目的」―例えば芸術やスポーツ、あるいは宇宙探査など―に人類の活動がシフトしていく可能性を示唆した。

AD

地政学リスクと「半導体」という名の核兵器

対談の中で最も緊張感が高まったのは、地政学、特に中国とのAI開発競争に関する議論だ。

Amodei氏は、自由主義圏が権威主義的な体制(具体的には中国共産党)に対して技術的優位性を保つことの重要性を強く訴えた。彼の主張は極めて明確で、ある種のタカ派的ですらある。「最先端のAIチップを中国に売るべきではない」。

現在、米国政府の一部には「中国にチップを売ることで、彼らを米国のサプライチェーンに依存させ、コントロールする」という考え方がある。Amodei氏はこの論理を、痛烈な比喩で否定した。

「それは、ボーイング社の利益になるからといって、北朝鮮に核兵器を売るようなものだ。『これで米国企業が儲かり、米国が勝つ』と言っているに等しい

AIは単なる通信インフラや消費者向け製品ではない。国家の安全保障を根底から覆す可能性のある「デュアルユース(軍民両用)」の技術である。Amodei氏もHassabis氏も、自身たちが開発している技術が、使い方次第では核兵器に匹敵、あるいは凌駕する力を持つことを完全に理解している。だからこそ、輸出管理という「時間稼ぎ」が、安全なAI開発のための数少ない有効な手段であると強調するのだ。

カール・セーガン『コンタクト』とフェルミのパラドックス

技術的な議論の裏で、二人の哲学的な視点も浮き彫りになった。Amodei氏は休暇中に執筆したエッセイの中で、映画『コンタクト』の一場面を引用している。異星人に「どうやって自滅せずに技術的思春期(technological adolescence)を乗り越えたのか?」と問うシーンだ。

我々は今、まさにその「技術的思春期」にいる。砂(シリコン)から知性を作り出し、神の領域に手をかけようとしているが、精神的にはまだ未熟なままだ。

会場からの「なぜ宇宙には他の知的生命体の痕跡が見当たらないのか(フェルミのパラドックス)」という質問に対し、Hassabis氏は即座に持論を展開した。彼は「知的生命体が自滅するから見つからない」という絶滅説を否定する。「もしそうなら、彼らが作ったAIや自己複製する機械(ペーパークリップなど)が銀河中に溢れているはずだ。それが見当たらないということは、我々はおそらく『グレート・フィルター(生命進化の最大の障壁)』をすでに通過しているのだ」。

つまり、多細胞生物への進化や知性の獲得こそが奇跡的な確率であり、人類(とこれから生まれるAI)は銀河において孤独な、しかし希望ある存在かもしれないという視点だ。これは「だからこそ、我々はこの知能を正しく育て、未来を切り拓く責任がある」という彼の使命感に繋がっている。

囚人のジレンマ:減速したくてもできない現実

対談の終盤、モデレーターが「あなたたちは開発を少し遅らせるべきではないか?」と問うた際、Hassabis氏は即答した。「私はそうしたい。それが世界にとって良いことだと思う」。

ここに対談の核心がある。世界で最も強力なAIを開発する二人のリーダーが、本音では「もっと時間が欲しい」「スローダウンしたい」と願っているのだ。安全性の検証、社会制度の整備、そして人間の心の準備のために。

しかし、彼らは止まることができない。なぜなら、彼らが止まれば、安全性や倫理を軽視する他のプレイヤー、あるいは権威主義的な国家が先にその力(AGI)を手にしてしまうからだ。これは典型的な「囚人のジレンマ」であり、冷戦時代の核開発競争と同じ構造にある。

彼らにできるのは、開発を続けながら、政府に対して「チップの輸出規制」や「安全基準の策定」を求め、少しでも時間を稼ぐことだけだ。Amodei氏が言うように、「指数関数的な進化は誰をも待たない」。

我々は準備ができているか

この対談から浮かび上がるのは、AGIの到来がもはやSFの空想ではなく、具体的な事業計画と安全保障政策の範疇に入ったという事実だ。1〜2年後か、あるいは5〜10年後かという誤差は、歴史的なスケールで見れば誤差に過ぎない。

重要なのは、Google DeepMindとAnthropicという、この分野の最前線を走る二つの組織が、「研究者主導」のアプローチで、ある種の恐怖心と責任感を抱きながら開発を進めているということだ。彼らは楽観的な「テック・ユートピア」を信じているわけでも、悲観的な「破滅論」に陥っているわけでもない。ただ、目の前にある巨大なリスクと、それ以上の可能性を冷静に見据え、綱渡りを続けている。

2026年、我々はまだ「知能の正体」を完全には理解していない。しかし、その知能が世界を書き換える日は、刻一刻と近づいている。ダボスでの彼らの言葉は、人類全体に対する静かだが強烈な警鐘であった。


Sources