米英の両国政府は、ますます強力で強大になるAIモデルの安全性テストにおいて協力する事を発表した。米国商務長官Gina Raimondo氏と英国科学・イノベーション・技術担当国務長官Michelle Donelan氏によって署名されたこのパートナーシップ協定は、OpenAI、Google、Anthropicなどの最先端AI開発企業が発表したモデルについて、その安全性について独立した評価を行うための共通のアプローチを構築するための計画を定めた物である。
既に2023年11月に英国ブレッチリーパークで開催された第1回AI安全性サミットに前後して、米英両国ではAI安全性研究所が設立されている。その際に両組織の協力自体は発表されているが、今回の協定は、その協力関係を“正式な物”にし、“骨に肉付けをする”物とのことだ。
パートナーシップの一環として、同じ手法と基礎となるインフラを使用することを含む、AI安全性テストへの共通のアプローチを開発するとのことだ。また、両国による技術的な知識、情報、そして人材までも共有する予定であり、最初の目標のひとつは、一般にアクセス可能なモデルで共同テストを実施すると、ニュースリリースでは、述べられている。
Donelan科学相は、Financial Times紙に、来年には新世代のAIモデルが登場すると予想されているため、「本当に迅速に行動しなければならない」と語った。現在のAIモデルの進化のスピードを考えれば、次世代モデルは更なるゲームチェンジャーになる可能性がある。だが、具体的にどのようなことが可能になるのかはまだ不透明だ。
今回の提携はAIの安全性に関する世界初の二国間協定だが、米英両国は将来的に他の国とも提携する意向だという。「AIは我々の世代を定義する技術です。このパートナーシップは、国家安全保障やより広範な社会など、あらゆるリスクに関する両研究所の取り組みを加速させるものです。私たちのパートナーシップは、私たちがこうした懸念から逃げているのではないことを明らかにするものです。我々の協力により、両機関はAIシステムに対する理解を深め、より強固な評価を実施し、より厳密な指針を発表することになるでしょう」と、Raimondo長官は述べている。
AIに対する規制については、米国が2023年10月、Biden大統領がAIのリスク軽減を目指す大統領令に署名している。2024年1月には商務省が、外国企業がAIモデルを訓練するために米国のデータセンターにアクセスしているかどうかを判断するよう、米国のクラウド企業に義務付けることを提案していると発表している。最近では、国連が世界各国に安全なAIの開発を促す初の世界的決議案を全会一致で採択しているなど、世界中でこうした規制の動きが見られるようになって来ている。
Sources
- U.S. Department of Commerce: U.S. and UK Announce Partnership on Science of AI Safety
- GOV.UK: UK & United States announce partnership on science of AI safety
- Financial Times: US and UK sign landmark agreement on testing safety of AI
コメント