Elon Musk氏やSteve Wozniak氏を含む1800人以上のAIリーダーや技術者が、公開書簡を発表し、GPT-4よりも強力なAIシステムの開発を6ヶ月間一時停止するよう呼びかけた。彼らは、「社会と人類に深刻なリスクがある」としている。
一時停止が社会的リスクをよりよく理解し、規制するために役立つかもしれないが、競争力の低いライバル企業がOpenAIなどのAI研究リーダーに追いつくための試みであるとする意見もある。
VentureBeatと話したGartnerのAVPアナリストAvivah Litan氏によると、「6ヶ月間の停止は、GPT-4よりも強力なモデルのトレーニングを停止するよう求めるものである。GPT 4.5に続いて、人工汎用知能(AGI)を達成すると予想されるGPT-5がすぐに続く。AGIが到来すると、これらのシステムの人間の利用を効果的に守る安全制御を導入するのは遅すぎるだろう」と指摘する。
一方、生成AIによる社会的リスクについての懸念があるにもかかわらず、多くのサイバーセキュリティ専門家は、AI開発の一時停止が全く役立たないと疑っている。彼らは、そうした一時停止は、ソーシャルエンジニアリング、フィッシング、悪意のあるコード生成の増加に対応するためのセキュリティチームの防御を一時的に提供するだけであると主張している。
サイバーセキュリティの観点からAI研究に対する一時停止に対する最も説得力のある反論の1つは、それがベンダーにしか影響を与えないということである。サイバー犯罪者は、新しい攻撃ベクトルを開発し、攻撃技術を磨き続ける能力を持ち続けるだろう。
McAfeeのCTOであるSteve Grobman氏は「次世代AIの開発を一時停止しても、不正行為を行う者たちが技術を危険な方向に持っていき続けることを止めることはできません。技術的なブレークスルーがある場合、倫理と規格を持つ組織や企業が技術を最も責任ある方法で使用することを確保することが不可欠です」と、VentureBeatに語っている。
一方で、生成AIの訓練に対する禁止を実施することは、規制の過度な介入と見なされる可能性がある。
「AIは応用数学であり、数学を規制したり、防止することはできない。私たちはそれを理解し、指導者たちがそれを適切に使用するために教育し、私たちの敵がそれを悪用することを求めると認識する必要がある」とGrobman氏は語った。
生成AIの開発に対する完全な一時停止が実用的でない場合、規制当局や民間団体は、AIの開発のパラメータ、GPT-4のようなツールが必要とする保護のレベル、および関連するリスクを軽減するために企業が使用できる手段についての合意を築くことを考えるべきである。
「AIの規制は重要で継続的な対話であり、これらの技術の道徳的で安全な使用に関する法律は、健康管理から航空宇宙まで使用用途範囲が部分的に無限であるため、セクター特有の知識を持つ立法者にとって緊急の課題である。」とRed Team OperationsのSVPであるJustin Fier氏はVentureBeatに語っている。
「すべての種類のAIや自動化の誤用に対して誰が責任を負うべきかについて国内または国際的な合意に達することは、特定の生成AIモデルの開発に関する短い一時停止では解決されない重要な課題です」とFier氏は述べている。
一時停止ではなく、サイバーセキュリティコミュニティは、生成的AIの悪意のある使用に関連するリスクを管理する方法についての議論に焦点を当て、AIベンダーが新しい脅威を防ぐために実装するガードレールについてより透明性を提供するよう促すことによって、より良いサービスを提供できる。
GartnerのLitan氏によると、現在の大規模言語モデル(LLM)の開発は、ユーザーがベンダーのレッドチーム能力に対して信頼を置く必要がある。しかし、OpenAIのような組織は内部のリスク管理方法が不透明であり、ユーザーにはそれらの組み込み保護機能のパフォーマンスを監視するためのほとんどの能力が与えられていない。
そのため、組織は生成AIによって導入されるサイバーリスクを管理するための新しいツールとフレームワークが必要である。
「私たちは、LLMの基礎モデルをホスティングする企業とユーザー間のデータとプロセスフローを管理する新しいAIトラスト、リスク、およびセキュリティマネジメント(TRiSM)ツールが必要です。これらは、技術的な構成ではCASBのようですが、CASB機能とは異なり、クラウドベースの基礎AIモデルのリスクを軽減し、信頼を高めるために訓練されます。」とLitan氏はVentureBeatの取材で述べている。
AI TRiSMアーキテクチャの一部として、ユーザーは、これらのツールによって検出されるデータやコンテンツの異常、マスキングなどの追加のデータ保護とプライバシー保証機能を期待する必要がある。
モデルOpsや対抗攻撃耐性のような既存のツールとは異なり、AI TRiSMは、GPT-4などのツールが提示するリスクレベルを定義する上でユーザーがより重要な役割を果たすことを可能にする。
最終的に、生成AIの開発を抑制しようとする代わりに、組織は生成的AIが提供するリスクに対処する方法を見つけることを探すべきである。
これを行う方法の1つは、AIとAIの戦い方を見つけることであり、すでに生成AIの防御的なユースケースを開発しているMicrosoft、Orca Security、ARMO、およびSophosの組織に追随することである。
ツールが生成するアラートを処理するためにGPT-4と独自のプロプライエタリデータの混合物を使用し、これらをセキュリティインシデントの自然言語の説明に変換する。これにより、人間のユーザーはより効果的に侵害に対応するためのナラティブを参照することが出来るのだ。
これは、GPT-4が防御的に使用される方法の1つの例だ。生成AIが簡単に利用可能であり、野生化しているため、セキュリティチームはこれらのツールを利用して自組織を保護する方法を見つける必要がある。
「この技術は来ています…そして、速く来ています。」とForresterのVPプリンシパルアナリストであるJeff Pollard氏はVentureBeatに語った。「サイバーセキュリティが準備する唯一の方法は、今から対処することです。それが来ないふりをするか、一時停止が役立つと思い込むことは、長期的にはサイバーセキュリティチームに費用がかかるだけです。チームは、これらの技術が彼らの仕事のやり方を変える方法を研究し、学び始める必要があります」
Source
コメント