Googleは、AI原則を更新し、兵器や監視技術への利用を禁じる項目を削除した。中国のAI開発が進む中、民主主義陣営がAI開発を主導すべきと主張する一方で、倫理的な懸念も再燃している。
AI原則の転換:兵器利用禁止の文言を削除
Googleは2025年2月4日、AI原則(AI PRINCIPLES)を更新し、以前のバージョンに存在した「兵器への利用禁止」という明確な項目を削除した。2018年にCEOのSundar Pichai氏が発表した初代AI原則では、「全体的な危害を引き起こす、または引き起こす可能性のある技術」や「国際的に認められた規範に違反する監視目的で情報を収集または使用する技術」へのAI利用を避けることを明記していた。特に、「主な目的または実装が人々に危害を加える兵器またはその他の技術」は明確に禁止されていた。
この原則は、従業員からの強い批判を受けて策定されたものである。当時、Googleが参加した米国防総省の「Project Maven」は、AIを用いてドローン映像を分析するプログラムであり、これに反対する3,000人以上の従業員が請願書に署名。Googleはその後、Project Mavenの契約を更新しないという決定を下した。
新AI原則:倫理条項は残しつつも対象を限定せず
新しいAI原則では、「大胆なイノベーション」「責任ある開発と展開」「協調的なプロセス」の3つを軸としている。以前の原則にあった具体的な禁止事項は削除され、代わりに「予見可能なリスクよりも全体的な利益が実質的に上回る」場合にAIモデルやアプリケーションを開発・展開するという包括的な表現に置き換えられた。
また、「適切な人間の監督、デューデリジェンス(相当な注意)、およびフィードバックの仕組み」を通じて、ユーザーの目標、社会的責任、国際法の原則に沿うことを約束している。さらに、「安全とセキュリティの研究、リスクに対処するための技術的解決策の開拓、そしてエコシステムとの学びの共有」への投資を継続するとしている。
背景:AI開発競争と国防への貢献
今回のAI原則改訂の背景には、AI開発における国際競争の激化と、Googleが国防分野への貢献を重視する姿勢への転換があると考えられる。Google DeepMindのCEOであるDemis Hassabis氏らは共同ブログ記事で、「ますます複雑化する地政学的状況の中で、AIリーダーシップをめぐるグローバルな競争が繰り広げられている」と指摘。「民主主義国家は、自由、平等、人権の尊重といった核心的価値観に導かれ、AI開発を主導すべきだ」と述べている。
Googleは、長らくAIの倫理的な利用に配慮する姿勢を示してきたが、近年では政府機関との連携を強化する方向に舵を切っている。Project Nimbusを巡る従業員からの抗議や解雇事件など、社内外からの批判も高まる中で、今回のAI原則の変更は、Googleの戦略的な方向転換を明確に示すものと言える。
競合他社は軍事利用に積極的な姿勢
Microsoft、OpenAI、Amazon、IBM、Oracle、Anthropicといった競合他社は、米国軍および政府機関へのAI技術提供に積極的である。Microsoftは、米国軍が最高のツールを利用する権利があると主張し、自社の技術を積極的に売り込んでいる。Googleも近年は政府プロジェクトへの関与を増やしており、AIの軍事利用に対して以前ほど慎重ではなくなっていることがうかがえる。
今回のGoogleのAI原則改訂は、AI技術が社会に浸透し、地政学的な競争が激化する中で、企業が倫理と実利のバランスをどのように取ろうとしているのかを示す象徴的な出来事だ。かつて「邪悪になるな(Don’t be evil)」を企業理念に掲げていたGoogleが、AIの軍事利用という倫理的にデリケートな領域に足を踏み入れることは、今後のテクノロジー業界における倫理観のあり方に大きな波紋を広げる可能性がある。今後は、Googleが新たなAI原則の下で、どのように「責任あるAI」を実現していくのか、その具体的な行動が注視される。
Sources
コメント