広島で開催されているG7広島サミットにおいて、G7首脳は、人工知能(AI)を “信頼できるもの “に保つための技術基準の策定と採用を、公の場でいくつか呼びかけた。彼らは、この技術の成長にガバナンスが追いついていないことを危惧していると付け加えている。
今後「ヒロシマAIプロセス」と呼ばれる会議を開催し、参加各国政府は閣僚レベルの協議を開始し、年末に結果を報告する予定だという。一方、日本の岸田文雄首相は、AI開発に向けた「人間中心」のアプローチを主張し、グローバルで安全なデータ交換を呼びかけた。岸田氏はまた、AIが情報の拡散や人間に危害を加えることに悪用されないよう、財政的な貢献も約束した。
米国、日本、ドイツ、英国、フランス、イタリア、カナダ、EUの首脳は声明で、“信頼できるAI”という共通のビジョンと目標へのアプローチは異なるかもしれないが、AIなどのデジタル技術のルールは“我々が共有する民主主義の価値観に沿ったものであるべき”と述べている。
これは、G7諸国のデジタルおよび技術担当大臣が、イノベーションを阻害することなく「リスクベースのアプローチ」を採用することを満場一致で決定した内容を再確認する物でもある。イタリアが最近ChatGPTを一時的に禁止したことや、米国、オーストラリア、EUなど複数の国や地域の法律家が生成AIの潜在的な危険性について懸念したことに続くものだ。
また、G7首脳は、“生成AIの機会と課題を直ちに把握する必要がある”と付け加えている。
異なるアプローチ、同じビジョン
しかし、すべての国が同じようにAIにアプローチしているわけではない。例えば中国は、生成的なAI搭載サービスを国の中核である社会主義的価値観に沿わせようと、非常に制限的な政策をとっている。
また注目すべきは、同じくG7の「非列挙型」メンバーである欧州連合(EU)が、世界初のAI利用に関する包括的な法律となる「AI法」の起草に向けた取り組みをすでに主導している点だ。AI法案はまた、リスクベースのアプローチに依拠し、さまざまなAIアプリケーションの意味合いに基づいて、許容できないリスク、高リスク、限定的なリスク、最小限のリスクを分類している。
G7首脳は金曜日、こうした核心的な違いを認めたが、生成型AIをめぐる問題を議論する「ヒロシマAIプロセス」と呼ばれる閣僚フォーラムを年内に整備することで合意できた。
G7諸国の参加は、参加国だけでなく、世界中の他の民主主義国家でもモデルとして利用され、ユーザーにとって安全なAIを維持するためのグローバルで統一された取り組みを加速させることが間違いなく期待されている。
Sources
コメント