最新の研究結果により、人工知能(AI)、特に大規模言語モデル(LLM)は、一般に懸念されているような人類への実存的脅威ではないことが明らかになった。バース大学とドイツのダルムシュタット工科大学の研究者らによる新しい研究は、AIが独自に学習したり新しいスキルを獲得したりすることができず、本質的に制御可能で予測可能、そして安全であることを示している。この発見は、AIの発展と利用に関する議論に新たな視点を提供し、長年続いてきたAIに対する不安の一部を払拭する可能性がありそうだ。
AIの能力と限界
研究チームは、LLMの「創発的能力」、つまりモデルが明示的に訓練されていない新しいタスクを完了する能力をテストする広範な実験を行った。この実験では、4つの異なるLLMモデルを使用し、以前に創発的と識別されたタスクを割り当てた。
その結果、LLMは指示に従うことに非常に長けており、言語能力においても優れていることが明らかになった。これは、モデルが「文脈内学習」(ICL)と呼ばれる手法を用いて、提示された少数の例からタスクを完了できることを示している。例えば、社会的状況に関する質問に答える能力は、社会的状況について明示的に訓練されたわけではなく、むしろICLの結果であることが判明した。
さらに、研究はLLMが明示的な指示なしに新しいスキルをマスターすることはできないことを示した。これは、AIが自律的に進化して人類を脅かすような存在になるという懸念を直接的に否定するものである。LLMの能力は、その基本的な設計と訓練の範囲内に限定されていることが明らかになった。
また、LLMの振る舞いは常にそのプログラミングや指示に遡ることができることも示された。つまり、これらのシステムは本質的に制御可能で予測可能であり、安全であると言える。研究チームは、LLMが差別化された思考を発展させたり、プログラミングの範囲外で行動したりする証拠を見出さなかった。
バース大学のHarish Tayyar Madabushi博士は次のように述べている:
「モデルがどんどん大きくなるにつれ、現在予測できない新しい問題を解決できるようになり、これらの大規模モデルが推論や計画などの危険な能力を獲得する可能性があるという恐れがありました。これは多くの議論を引き起こしました。例えば、昨年ブレッチリー・パークで開催されたAI安全サミットでは、私たちにコメントを求められました。しかし、私たちの研究は、モデルが予期せぬ、革新的で潜在的に危険なことを行うという恐れは妥当ではないことを示しています」。
AIの発展と社会への影響
この研究結果は、AIの発展と利用に関する議論に重要な示唆を与えている。AIそのものは人類への脅威ではないが、その誤用や悪用の可能性については依然として注意が必要である。研究チームは、AIシステムが既に持つ注目すべき能力と、非常に近い将来にさらに洗練される可能性を強調している。
具体的には、AIを使用した情報操作やフェイクニュースの生成、新たな形態の詐欺の出現などが潜在的なリスクとして指摘されている。また、AIシステムの限界による意図しない虚偽情報の提供や、複雑な問題に対するAIへの過度の依存、AIによる情報のフィルタリングや偏向による真実の抑制なども懸念事項として挙げられている。
ダルムシュタット工科大学のIryna Gurevych教授は次のように付け加えている:
「私たちの結果は、AIがまったく脅威ではないということを意味するものではありません。むしろ、特定の脅威に関連する複雑な思考スキルの出現が証拠によって支持されていないこと、そして結局のところ、LLMの学習プロセスを非常にうまく制御できることを示しています。今後の研究は、フェイクニュースの生成に使用される可能性など、モデルがもたらす他のリスクに焦点を当てるべきです」。
この研究は、AIの発展と社会への影響について、より現実的で建設的な議論を促すものとなっている。AIの潜在的な危険性を完全に無視するのではなく、その適切な利用と管理に焦点を当てることの重要性を示唆している。
特に、エンドユーザーにとっては、複雑な推論を必要とするタスクを明示的な指示なしにLLMに解釈させたり実行させたりすることは誤りである可能性が高いことを意味している。代わりに、ユーザーは最も単純なタスクを除いて、モデルに要求する内容を明示的に指定し、可能な場合は例を提供することで恩恵を受ける可能性が高い。
今後、AIの開発と利用に関する政策立案や倫理的ガイドラインの策定において、この研究結果が重要な役割を果たすことが期待される。また、AIの実存的脅威に対する過度の懸念から注意をそらすのではなく、AIの誤用や悪用がもたらす現実的なリスクに焦点を当てた研究や対策の重要性が強調されている。
この研究は、コンピュータサイエンスの分野で最も権威ある国際会議の一つである第62回計算言語学会年次総会(ACL 2024)の一環として発表された。これは、研究結果の信頼性と重要性を裏付けるものである。
今回の研究は、AIは制御不能な脅威ではなく、むしろ適切に管理され利用されれば、人類にとって強力なツールとなり得ることを示唆している。しかし同時に、AIの倫理的で責任ある開発と使用の重要性も強調されており、今後のAI研究と政策立案の方向性に大きな影響を与えることが予想される。
論文
参考文献
- University of Bath: AI poses no existential threat to humanity – new study finds
研究の要旨
何十億ものパラメータから構成され、膨大なウェブスケールのコーパスで事前に訓練された大規模な言語モデルは、特別に訓練されることなく特定の能力を獲得すると主張されてきた。 これらの能力は「創発的能力」と呼ばれ、言語モデルの可能性とリスクに関する議論の原動力となっている。 創発的能力を評価する際の重要な課題は、モデルが少数の例に基づいてタスクを完了する能力である文脈内学習を含む、代替的な促し技法によって生じるモデルの能力と混同されることである。 我々は、潜在的な交絡因子を考慮に入れて、創発的能力を説明する新しい理論を提示し、1000以上の実験を通してこの理論を厳密に立証する。 その結果、創発的能力は真に創発的なものではなく、文脈内学習、モデル記憶、言語知識の組み合わせから生じることが示唆された。 我々の研究は、言語モデルの性能を説明するための基礎的なステップであり、言語モデルを効率的に使用するためのテンプレートを提供し、言語モデルの能力が、ある場合には優れているが、ある場合には劣っているというパラドックスを明らかにするものである。 したがって、言語モデルの能力を過大評価すべきではないことを実証している。
コメント