テクノロジーと科学の最新の話題を毎日配信中!!

超知能AIとは何か? それは人類を破滅させる可能性があるのか? そしてそれは本当にもうすぐ実現するのか?

Y Kobayashi

2024年10月29日

2014年、イギリスの哲学者Nick Bostromは、『Superintelligence: Paths, Dangers, Strategies』という不吉なタイトルの人工知能(AI)の未来に関する本を出版した。この本は、人間よりも高度な能力を持つAIシステム、すなわち「超知能」が将来的に世界を支配し、人類を破滅させる可能性があるという考えを広めるうえで、大きな影響力を持った。

それから10年後、OpenAIのトップであるSam Altmanは、超知能の実現まで「数千日程度」かもしれないと述べている。1年前、Altmanの共同創設者であるIlya Sutskeverは、会社内に「安全な超知能」に焦点を当てたチームを立ち上げたが、現在、彼とそのチームはこの目標を追求するために独自のスタートアップを設立し、10億ドルを調達している。

彼らは正確には何を語っているのか? 広義には、超知能とは人間よりも知的な存在のことを指す。しかし、それが実際に何を意味するのかを解き明かすのは少々厄介である。

異なる種類のAI

私の見解では、AIにおける異なるレベルと種類の知能について考える最も有用な方法は、GoogleのUS computer scientist Meredith Ringel Morrisと彼女の同僚たちによって開発されたものである。

彼らのフレームワークは、AIのパフォーマンスを6段階に分類している:AIなし、emerging(発現段階)、competent(有能)、expert(専門家)、virtuoso(達人)、superhuman(超人的)。また、限られた範囲のタスクを実行できる狭いシステムと、より一般的なシステムとの間の重要な区別も示している。

狭いAIなしのシステムとは、電卓のようなものである。これは明示的にプログラムされたルールに従って、様々な数学的タスクを実行する。

すでに非常に成功している狭いAIシステムは多数存在する。Morrisは、1997年に世界チャンピオンのGarry Kasparovを有名な対局で破ったDeep Blueチェスプログラムを、達人レベルの狭いAIシステムの例として挙げている。

AIのレベル

狭いAI (特化型AI)

明確に定義されたタスクまたはタスクの集合
一般AI (汎用AI)

幅広いタスクを処理し、新しいスキルも学習
レベル0: 非AI狭い非AI一般非AI
計算機ソフトウェア、コンパイラ人間が関与する計算作業(例: Amazon Mechanical Turk)
レベル1: 初期AI

未熟な人間と同等か、それよりもいくらか優れている
初期の狭いAI初期の汎用AI
単純なルールベースのシステムChatGPT、Llama 2、Gemini など
レベル2: 有能なAI

熟練した大人の少なくとも50パーセントに相当
有能な狭いAI有能な汎用AI
Jigsawのトキシシティ検出、SiriやAlexaなどのスマートスピーカー、LLMの一部タスク対応(未達成)
レベル3: 熟練AI

熟練した狭いAI熟練した汎用AI
Grammarlyのスペル・文法チェック、ImagenやDALL-E 2などの画像生成AI(未達成)
レベル4: 名人AI

熟練した大人の少なくとも99パーセントに相当
名人レベルの狭いAI名人レベルの汎用AI
Deep Blue、AlphaGo(未達成)
レベル5: 超人AI

全ての人間を凌駕する能力
超人レベルの狭いAI人工超知能 (ASI)
AlphaFold、AlphaZero、StockFish(未達成)

一部の狭いシステムは超人的な能力さえ持っている。その例として、機械学習を使用してタンパク質分子の構造を予測し、その開発者たちが今年のノーベル化学賞を受賞したAlphafoldが挙げられる。

一般的なシステムについてはどうか? これは、新しいスキルの学習を含む、はるかに広範な課題に取り組むことができるソフトウェアである。

一般的なAIなしのシステムとしては、AmazonのMechanical Turkのようなものが挙げられる。これは幅広いことができるが、実際の人間に依頼することでそれらを実行している。

全体として、一般的なAIシステムは、その狭い従兄弟たちよりもはるかに発展が遅れている。Morrisによると、ChatGPTなどのチャットボットの背後にある最先端の言語モデルは一般的なAIであるが、現時点では「初期」レベル(「未熟な人間と同等かやや優れている」という意味)にとどまっており、熟練した成人の50%と同等の「有能」なレベルにはまだ達していない。

したがって、この考え方によれば、我々は一般的な超知能からまだかなり遠い位置にいるといえる。

現在のAIはどれほど知的なのか?

Morrisが指摘するように、特定のシステムが正確にどの位置にあるかを判断するには、信頼できるテストやベンチマークが必要である。

ベンチマークによっては、DALL-Eのような画像生成システムは名人レベル(人間の99%が描いたり描いたりできない画像を生成できるため)かもしれないし、あるいは発現段階(人間であれば決して起こさない誤り、例えば突然変異的な手や不可能な物体を生成するため)かもしれない。

現在のシステムの能力についても、大きな議論がある。2023年の注目すべき論文では、GPT-4が「人工知能の兆し」を示したと主張している

OpenAIは、最新の言語モデルであるo1が「複雑な推論を実行でき」、多くのベンチマークで「人間の専門家のパフォーマンスに匹敵する」と述べている。

しかし、Appleの研究者による最近の論文では、o1やその他多くの言語モデルが本物の数学的推論問題の解決に著しい困難を抱えていることが判明した。彼らの実験は、これらのモデルの出力が、真の高度な推論というよりも、洗練されたパターンマッチングに似ていることを示している。これは、多くの人々が示唆してきたほど超知能が差し迫っていないことを示している。

AIは賢くなり続けるのか?

過去数年間のAIの急速な進歩のペースが継続、あるいは加速すると考える人々もいる。テクノロジー企業はAIのハードウェアと能力に数千億ドルを投資しているため、これは不可能ではないように思われる。

もしこれが実現すれば、確かにSam Altmanが提案した「数千日」以内(SF的でない表現をすれば10年程度)に一般的な超知能が実現する可能性がある。Sutskeverとそのチームもスーパーアライメントに関する記事で同様の時間枠に言及している。

AIにおける最近の成功の多くは、「ディープラーニング」と呼ばれる技術の応用によるものである。これは簡単に言えば、膨大なデータの集合の中から連想的なパターンを見つけ出すものである。実際、今年のノーベル物理学賞は、John Hopfieldと「AIの父」として知られるGeoffrey Hintonに授与された。これは、現在使用されている多くの強力なディープラーニングモデルの基礎となるHopfieldネットワークとボルツマンマシンの発明に対するものである。

ChatGPTのような一般的なシステムは、書籍やウェブサイトのテキストの形で人間が生成したデータに依存してきた。その能力の向上は主に、システムの規模と訓練に使用するデータ量の増加によってもたらされてきた。

しかし、このプロセスをさらに進めるには人間が生成したデータが不足している可能性がある(ただし、データをより効率的に使用する取り組み、合成データの生成、異なる領域間でのスキルの転移の改善は改良をもたらす可能性がある)。たとえデータが十分にあったとしても、一部の研究者は、ChatGPTのような言語モデルは基本的にMorrisが言う一般的な能力に達することができないと主張している。

最近の論文では、超知能の本質的な特徴は、少なくとも人間の視点からは、オープンエンド性であると示唆している。人間の観察者が新規とみなすアウトプットを継続的に生成し、そこから学習できる必要がある。

既存の基盤モデルはオープンエンドな方法で訓練されておらず、既存のオープンエンドシステムはかなり狭い。この論文はまた、新規性または学習可能性のどちらか単独では不十分であることも強調している。超知能を達成するには、新しいタイプのオープンエンドな基盤モデルが必要である。

リスクは何か?

では、このすべてはAIのリスクについて何を意味するのか? 少なくとも短期的には、超知能AIが世界を支配することを心配する必要はない。

しかし、それはAIがリスクをもたらさないという意味ではない。ここでもMorrisたちは考察を深めている:AIシステムが大きな能力を獲得するにつれて、より大きな自律性も獲得する可能性がある。能力と自律性の異なるレベルは、異なるリスクをもたらす。

例えば、AIシステムの自律性が低く、人々がそれをある種のコンサルタントとして使用する場合—ChatGPTに文書の要約を依頼したり、YouTubeのアルゴリズムに視聴習慣を形作らせたりする場合—我々はそれらを過度に信頼したり、過度に依存したりするリスクに直面する可能性がある。

その間、Morrisは、AIシステムがより高度になるにつれて注意すべき他のリスクを指摘している。それらは、人々がAIシステムとパラソーシャルな関係を形成することから、大規模な雇用の置き換え、社会全体の倦怠感まで多岐にわたる。

次に何が起こるのか?

いつの日か、超知能的で完全に自律的なAIエージェントを手に入れたとしよう。その時、我々は彼らが権力を集中させたり、人間の利益に反して行動したりするリスクに直面するのだろうか?

必ずしもそうではない。自律性と制御は両立することができる。システムは高度に自動化されていながら、高レベルの人間による制御を提供することができる。

AI研究コミュニティの多くと同様に、私は安全な超知能が実現可能であると考えている。しかし、それを構築することは複雑で学際的なタスクとなり、研究者たちはそこに到達するために未踏の道を進まなければならないだろう。


本記事は、シドニー工科大学コンピューターサイエンス・エンジニアリング学部教授、Cisco Chair of Digital Transport & AI 創設者 Flora Salim氏によって執筆され、The Conversationに掲載された記事「What is AI superintelligence? Could it destroy humanity? And is it really almost here?」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする

コメントする