テクノロジーと科学の最新の話題を毎日配信中!!

「AIの父」が今やAIは安全でないと懸念:彼にはそれを抑制する計画がある

The Conversation

2025年6月9日

今週、米連邦捜査局(FBI)が、先月カリフォルニア州の不妊治療クリニックを爆破した疑いのある2人の男性が、爆弾製造の指示を得るために人工知能(AI)を使用したと疑われていることを明らかにした。FBIは問題となったAIプログラムの名前を明かしていない。

これは、AIをより安全にする緊急の必要性を鮮明に浮き彫りにしている。現在我々は、企業が最も高速で最も魅力的なAIシステムを開発するために激しく競争しているAIの「西部開拓時代」に生きている。各企業は競合他社を上回り、トップの座を主張したがっている。この激しい競争は、特に安全性に関して、意図的または非意図的な手抜きにつながることが多い

偶然にも、FBIの発表とほぼ同時期に、現代AIの父の一人であるカナダのコンピュータサイエンス教授Yoshua Bengioが、他のAIモデルよりも安全に設計された新しいAIモデルの開発と、社会的害をもたらすAIモデルを標的とすることに特化した新しい非営利組織を立ち上げた

では、Bengioの新しいAIモデルとは何か?そして、それは実際にAIによる害から世界を守ることができるのだろうか?

スポンサーリンク

「正直な」AI

2018年、Bengioは同僚のYann LeCunとGeoffrey Hintonとともに、深層学習に関する画期的な研究で3年前に発表していた研究によってTuring賞を受賞した。機械学習の一分野である深層学習は、人工ニューラルネットワークを使用して計算データから学習し、予測を行うことで、人間の脳のプロセスを模倣しようとするものである。

Bengioの新しい非営利組織LawZeroは「Scientist AI」を開発している。Bengioはこのモデルが「正直で欺瞞的でない」ものになり、設計による安全性の原則を組み込むと述べている。

今年初めにオンラインで公開されたプレプリント論文によると、Scientist AIは現在のAIシステムと2つの重要な点で異なる。

第一に、答えに対する信頼度レベルを評価し、伝達することができるため、AIが過度に自信を持って不正確な回答を与える問題を軽減するのに役立つ。

第二に、人間に対してその推論を説明することができるため、その結論を評価し、正確性をテストすることが可能になる。

興味深いことに、古いAIシステムにはこの機能があった。しかし、速度と新しいアプローチを求める急速な展開の中で、多くの現代のAIモデルはその決定を説明することができない。開発者たちは説明可能性を速度のために犠牲にしたのである。

Bengioはまた、「Scientist AI」が安全でないAIに対するガードレールとして機能することを意図している。それは他の、より信頼性が低く有害なAIシステムを監視することができる――本質的に火には火で対抗するということである。

これがAIの安全性を向上させる唯一の実行可能な解決策かもしれない。人間は日々10億以上のクエリを処理するChatGPTのようなシステムを適切に監視することはできない。この規模を管理できるのは別のAIだけである。

AIシステムを他のAIシステムに対して使用することは、単なるSFの概念ではない――AIシステムの異なる知能レベルを比較しテストする研究における一般的な実践である。

「世界モデル」の追加

大規模言語モデルと機械学習は、今日のAI環境の小さな部分に過ぎない。

BengioのチームがScientist AIに追加しているもう一つの重要な要素は、確実性と説明可能性をもたらす「世界モデル」である。人間が世界に対する理解に基づいて決定を下すように、AIも効果的に機能するためには同様のモデルが必要である。

現在のAIモデルにおける世界モデルの欠如は明らかである。

よく知られた例の一つが「手の問題」である:今日のAIモデルの多くは手の外観を模倣することはできるが、自然な手の動きを再現することはできない。なぜなら、それらの背後にある物理学――世界モデル――の理解が欠けているからである。

別の例は、ChatGPTがチェスに苦戦し、勝つことに失敗し、さらには違法な手を打つ方法である。

これは、チェスの「世界」のモデルを含むより単純なAIシステムが、最高の人間プレイヤーでさえ打ち負かしているにもかかわらずである。

これらの問題は、現実世界のダイナミクスをモデル化するように本質的に設計されていないこれらのシステムにおける基礎的な世界モデルの欠如に起因している。

スポンサーリンク

正しい方向にあるが、でこぼこ道になるだろう

Bengioは、大規模言語モデルを他のAI技術と組み合わせることで、より安全で信頼できるAIを構築することを目指して、正しい方向に向かっている。

しかし、彼の旅は簡単ではないだろう。LawZeroの3000万米ドルの資金調達は、今年初めにDonald Trump米大統領が発表したAI開発を加速させる5000億米ドルプロジェクトのような取り組みと比較すると小さい。

LawZeroのタスクをより困難にしているのは、Scientist AI――他のAIプロジェクトと同様に――強力になるためには膨大な量のデータが必要であり、ほとんどのデータは大手テクノロジー企業によって管理されているという事実である。

また、未解決の疑問もある。たとえBengioが彼の言うすべてのことを実行できるAIシステムを構築できたとしても、害をもたらしている可能性のある他のシステムをどのように制御することができるのだろうか?

それでも、才能ある研究者たちが支えるこのプロジェクトは、AIが真に人間の繁栄を助ける未来に向けた運動を引き起こす可能性がある。成功すれば、安全なAIに対する新しい期待を設定し、研究者、開発者、政策立案者に安全性を優先させる動機を与えることができるだろう。

おそらく、ソーシャルメディアが最初に登場したときに同様の行動を取っていれば、若者の精神的健康にとってより安全なオンライン環境を持っていただろう。そして、もしかすると、Scientist AIがすでに実装されていれば、有害な意図を持つ人々がAIシステムの助けを借りて危険な情報にアクセスすることを防げていたかもしれない。


本記事は、シドニー大学 コンピュータサイエンス学部 講師Armin Chitizadeh氏によって執筆され、The Conversationに掲載された記事「‘Godfather of AI’ now fears it’s unsafe. He has a plan to rein it in」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする
スポンサーリンク

コメントする