OpenAIの共同創設者であり、GPT-3やGPT-4の開発を主導した「AI界の予言者」Ilya Sutskever氏。彼が長期間の沈黙を破り、自身の新会社Safe Superintelligence Inc. (SSI)の戦略と、現在のAI開発が直面している重大な転換点について語った。
Dwarkesh Patelとの約90分に及ぶインタビューで彼が発した「スケーリングの時代は終わった(The Age of Scaling has ended)」という言葉は、シリコンバレーのみならず、世界中の技術者や投資家に衝撃を与えるものだ。これまでAIの進化を支えてきた「計算量とデータを増やせば性能は上がる」というドグマが崩れ去ろうとしている今、私たちはどのような未来に向かっているのだろうか?
「スケーリングの時代」の終焉:物理学から生物学への回帰
過去5年間(2020年〜2025年)、AI業界は一つの単純明快な法則に支配されていた。それが「スケーリング則(Scaling Laws)」だ。より巨大なデータセットを用意し、より多くのGPUを投入してモデルパラメータを巨大化させれば、AIの知能は予測可能かつ直線的に向上する——これが業界の共通認識だった。
計算量だけでは越えられない壁
しかし、Sutskever氏はこの「勝利の方程式」が限界に達したと断言する。その理由は明白だ。事前学習(Pre-training)に必要な高品質なテキストデータが、事実上枯渇したからだ。
インターネット上のテキストデータは有限である。これまでのようにデータ量を10倍、100倍に増やすことは物理的に不可能になりつつある。さらに、計算リソースを単に増やすだけでは、もはや劇的な性能向上は見込めない「収穫逓減(Diminishing Returns)」のフェーズに入ったと彼は分析する。
「計算量を100倍にすれば全てが変わると本気で信じているのか? 私はそうは思わない」とSutskever氏は語る。これは、AI開発が「リソースを投入すれば結果が保証される」という物理学的なフェーズから、未知の原理を探求しなければならない「化学あるいは生物学的な発見」が必要なフェーズへ移行したことを意味する。
「研究の時代(Age of Research)」の再来
Sutskever氏によれば、私たちは再び「研究の時代」へと回帰している。2010年代、Deep Learningの黎明期には、AlexNetやTransformerといったアーキテクチャの発明(=研究)こそがブレイクスルーの源泉だった。
今後求められるのは、単なる力技(Brute force)ではない。限られたデータと計算資源から、いかにして高度な推論能力や一般化能力を引き出すかという「新しいレシピ」の発見だ。Sutskever氏は、これを「知性の正しいパラダイムを見つけるための、純粋な研究競争」と位置づけている。
現代AIのパラドックス:「ギザギザな一般化(Jagged Generalization)」
現在の最先端LLM(大規模言語モデル)は、一見すると人知を超えた能力を持っているように見える。しかし、Sutskever氏はそこに潜む致命的な欠陥を指摘し、それを「ギザギザな一般化(Jagged Generalization)」と表現した。
博士号レベルの推論ができても、単純なバグ修正に失敗する
「モデルは経済的なインパクトが示唆するよりも賢く見える」と彼は言う。現在のAIは、難解なベンチマークテストでは人間を凌駕するスコアを叩き出す。しかし、実務レベルのタスク、例えばコーディングにおける単純なバグ修正で奇妙な挙動を見せることがある。
Sutskever氏はこれを「Vibe Coding(雰囲気コーディング)」のループと呼び、次のような例を挙げた。
- AIにバグ修正を依頼する。
- AIは「おっしゃる通りです」と修正するが、その過程で新しいバグを作り出す。
- 新しいバグを指摘すると、AIは謝罪し、最初のバグを再実装してしまう。
- このピンポンゲームが延々と続く。
なぜ、高度な数学の問題が解けるAIが、このような初歩的なミスループに陥るのか? ここに、現在の学習手法の根本的な欠陥がある。
「試験勉強」に特化したAIの悲劇
Sutskever氏は、この現象の原因を強化学習(RL)による過剰適合にあると分析する。彼はこれを「競技プログラマー(Student A)」と「真の理解者(Student B)」の対比で説明する。
- Student A(現在のAI): 特定のテストで満点を取るために1万時間の訓練を受けた競技プログラマー。過去問のパターンや解法は全て暗記しているが、少しでも出題傾向が変わったり、未知の状況に直面したりすると適応できない。
- Student B(理想のAI): 基礎的な理解力とセンスを持ち、未知の問題に対しても「直感」と「論理」で解を導き出せる存在。
現在のAI開発、特にRLHF(人間によるフィードバックを用いた強化学習)は、モデルを「人間に好かれる回答」「ベンチマークで高得点を取る回答」をするように強制する。これは、いわば「テスト対策(Cramming for the test)」であり、本質的な知能の獲得(真の一般化)とは異なるプロセスだ。その結果、見た目は賢いが、実社会の複雑さには脆い「ギザギザな能力」を持つAIが量産されているのである。
生物学からのヒント:感情という「価値関数」
では、どうすれば「真の一般化」を獲得できるのか? Sutskever氏が提示するヒントは、私たち人間の中にある。
なぜ人間は10時間で運転を覚えられるのか
自動運転AIが運転を習得するには、何百万kmもの走行データが必要だ。しかし、人間のティーンエイジャーは、わずか10〜20時間の教習で車を運転できるようになる。この圧倒的な「サンプル効率(Sample Efficiency)」の差はどこから来るのか。
Sutskever氏は、「感情(Emotions)」こそが生物学的な「価値関数(Value Function)」であるという仮説を提示する。
過去の経験から「直感」を学ぶメカニズム
強化学習において、エージェントは結果が出るまで報酬を得られないことが多い。しかし人間は、行動の結果が出るずっと前に「これはマズい」「これは良さそうだ」という感情的なフィードバックを即座に感じる。
- チェスで悪手を指した瞬間の「後悔」。
- 新しい発見をした時の「高揚感」。
- 危険に近づいた時の「恐怖」。
これらの感情は、進化の過程でハードコードされた強力な評価システムであり、これがあるからこそ、人間は少ないデータから効率的に学習し、未知の状況でも大失敗を避けることができる。
ある脳損傷患者の事例——知能は高いままだが感情を失った結果、昼食のメニューすら決められなくなった——を引用し、Sutskever氏は「知性とは単なる計算能力ではなく、感情に裏打ちされた価値判断システムである」と示唆する。次世代のAIには、この生物学的なメカニズムを取り入れた、新しい学習パラダイムが必要なのだ。
SSI(Safe Superintelligence Inc.)の戦略:商業主義からの脱却
OpenAIを去ったSutskever氏が立ち上げた新会社SSIは、現在のAIブームとは一線を画す特異な戦略をとっている。それは「ストレートショット(Straight Shot)」と呼ばれるアプローチだ。
「製品」を作らないという決断
GoogleやOpenAI、Anthropicが、GPT-5やGeminiなどの製品リリース競争(ラットレース)に明け暮れる中、SSIは「製品をリリースしない」ことを明言している。
短期的な収益や市場シェア獲得は、研究の方向性を歪めるノイズとなる。「Student A(テスト対策)」のような見せかけの賢さを作るのではなく、数年、あるいはそれ以上の期間をかけてでも、信頼性が高く、安全で、真に賢い超知能(Superintelligence)を実現するための「技術的なボトルネック」の解消だけにリソースを集中させる。これがSSIの存在意義だ。
Sutskever氏は、超知能の実現には「5年から20年」という幅広いタイムラインを見積もっている。この期間、SSIは静寂の中で「研究、研究、研究」に没頭することになる。
安全性と「センチメント」への配慮
SSIの社名にある通り、「安全性(Safety)」は最優先事項だ。しかし、Sutskever氏の考える安全性は、現在の「有害な出力をしない」といった表面的なものではない。
彼は、将来のAIが「意識(sentience)」を持つ可能性を真剣に考慮している。そのため、AIのアライメント(人間の価値観への適合)の目標として、「感情を持つ生命への配慮(Caring for sentient life)」を掲げている。AI自身が感情や意識を持つ存在になるならば、ルールで縛るよりも、生命に対する根本的な共感や配慮を学習させる方が、より堅牢な安全性につながるという哲学だ。
AI開発は「量の競争」から「質の競争」へ
Ilya Sutskever氏のインタビューから見えてくるのは、AI業界の地殻変動だ。
GPUを何万個買い集めるかという「資本の殴り合い」は終わりを迎えつつある。これからは、限られた計算資源を使って、いかに人間の脳のような効率的で柔軟な学習システムを構築できるかという「知の競争」が始まる。
Sutskever氏の言葉を借りれば、「スケーリングが部屋の空気を全て吸い尽くしてしまった」時代は終わった。これからの勝者は、巨大なデータセンターを持つ者ではなく、「なぜモデルは失敗するのか?」「知能の本質とは何か?」という根源的な問いに対する「新しい答え(アイデア)」を持った者になるだろう。
開発者や企業にとっての教訓は明確だ。ベンチマークの数値に一喜一憂するのではなく、実社会での「信頼性」と「適応力」に焦点を当てること。そして、既存のLLMの延長線上ではない、全く新しいアプローチの出現に備えることである。
Sources