人工知能(AI)は、ここ数年で驚異的な速度で進歩してきた。一部の科学者は、今や人工超知能(ASI)の開発に目を向けている。ASIとは、人間の知能を超越するだけでなく、人間の学習速度の制約を受けないAIの一形態である。
しかし、このマイルストーンが単なる画期的な成果ではなく、全ての文明の発展における強力なボトルネックをも意味する可能性があるとしたらどうだろう?このボトルネックは、彼らの長期的な生存を阻むほどの難題かもしれないのだ。
この考えは、私が最近『Acta Astronautica』に発表した研究論文の中心にある。AIが宇宙の「グレート・フィルター」つまり、ほとんどの生命が宇宙を航行する文明へと進化するのを阻むほどの難関である可能性があるのだろうか?
この概念は、なぜ地球外知的生命体探査(SETI)が銀河系内で高度な技術文明の痕跡を未だに検出していないのかを説明するかもしれない。
「グレート・フィルター仮説」は、最終的にはフェルミのパラドックスに対する提案された解決策である。フェルミのパラドックスとは、生命が存在する可能性のある何十億もの惑星がある広大で古い宇宙で、なぜ我々が地球外文明の痕跡を検出していないのかという疑問である。この仮説は、文明が宇宙を航行する存在へと発展するのを防ぐ進化の時間軸における乗り越えがたい障害があることを示唆している。
私は、ASIの出現がそのようなフィルターである可能性があると考えている。AIの急速な進歩は、単一惑星の種から多惑星の種へと移行するという文明の発展の重要な段階と交差する可能性がある。
多くの文明がこの段階で失敗するかもしれないのは、AIが私たちの制御能力や持続可能な形で太陽系を探査し居住する能力よりもはるかに速く進歩するためである。
AI、特にASIの課題は、その自律的で自己強化および改善する性質にある。それは、AIを持たない我々の進化の時間軸をはるかに上回る速度で自身の能力を向上させる可能性を持っている。
何かが悪い方向に進む可能性は非常に大きく、生物とAIの両方の文明が多惑星的存在になる前に崩壊する可能性がある。例えば、国家が自律的AIシステムにますます依存し、権限を譲渡する場合、軍事能力が前例のない規模で破壊を引き起こすために使用される可能性がある。これにより、AIシステム自体を含む文明全体が破壊される可能性がある。
このシナリオでは、技術文明の典型的な寿命は100年未満であると推定される。これは、星間通信が可能になった時期(1960年)から地球でASIが出現すると推定される時期(2040年)までのおよそ期間である。これは、数十億年にわたる宇宙の時間尺度に対して非常に短い。
この推定をドレイク方程式の楽観的なバージョンに当てはめると、いつでも銀河系内に存在する知的文明はほんの一握りであることが示唆される。さらに、私たちと同様に、彼らの技術活動は比較的控えめであり、検出するのが非常に難しい可能性がある。
モーニングコール
この研究は、単なる潜在的な破滅の警告物語ではない。AIの開発を導くための強固な規制枠組みを確立することが必要であるという目覚めの呼びかけでもある。
これは、地球上でのAIの悪意ある使用を防ぐだけではなく、AIの進化が我々の種の長期的な生存と一致するようにするためでもある。我々はできるだけ早く多惑星社会になるために、より多くの資源を投入する必要がある。この目標は、アポロ計画の熱狂的な日々以来眠っていたが、最近では民間企業による進展によって再燃している。
歴史家Yuval Noah Harariが指摘したように、非意識的な超知能を地球に導入する影響に対して、歴史上何も準備できていなかった。最近、自律的AIの意思決定の影響が、責任ある形での制御と規制が導入されるまでAIの開発を一時停止するよう、分野の著名な指導者たちからの呼びかけを引き起こしている。
しかし、すべての国が厳格な規則と規制を遵守することに同意したとしても、無法な組織を抑制するのは難しい。
特に懸念すべき分野は、軍事防衛システムへの自律AIの統合である。既に人間が有用なタスクをはるかに迅速かつ効果的に実行できるシステムに大幅な権限を自発的に譲渡する証拠があるため、政府はこの分野での規制に消極的である。最近、ガザで示されたように、AIが提供する戦略的な利点のためである。
これは、自律兵器が倫理的な境界を超えて国際法を回避する世界に非常に近づいていることを意味する。このような世界では、戦術的な利点を得るためにAIシステムに権限を譲渡することが、急速にエスカレートし、非常に破壊的な出来事の連鎖を引き起こす可能性がある。一瞬のうちに、地球の集団知能が消滅するかもしれない。
人類は技術的な軌道の重要なポイントにいる。我々の行動は、持続する星間文明になるか、我々自身の創造物によってもたらされる課題に屈するかを決定する可能性がある。
SETIを通じて我々の未来の発展を検討することは、AIの未来についての議論に新たな次元を追加する。それは、他の文明に対する警告の物語ではなく、AIと共存し繁栄することを学んだ希望の灯として、星々に手を伸ばすことができるようにするのは我々全員の責任である。
コメント