AIが進歩して軍事力と結びつき人類を滅ぼすというのは、SFでよくある終末ものであり、こうしたイメージもあってAIの軍事利用は多くの懸念を呼び起こす。
今回The Interceptは、そうしたAIの軍事的な利用をMicrosoftが昨年既に米国国防総省に提案していたことを明らかにした。とはいえ、これは兵器の直接的な運用にAIを利用すると言った物ではなく、“軍事利用”という表現が適切かは微妙なところだ。
同紙が閲覧したMicrosoftの内部文書によると、Microsoftは2023年10月に開催された国防総省の訓練セミナーの一環として、米国防総省に対し、軍事作戦用のソフトウェア開発にOpenAIのAI画像生成ツール「DALL-E」を使用することを提案していたという。
Microsoftのプレゼンテーションでは、国防総省がChatGPTやDALL-EのようなOpenAIのツールを、文書分析や機械のメンテナンスなどのタスクに利用できる可能性が示されていた。Microsoftのある文書では、DALL-Eによって生成された画像を戦場管理システムの訓練に使用することが提案されている。
Microsoftのプレゼンテーションが含まれたファイルは、米政府の非営利コンサルタントであるAlethia Labs社がWebサイトに掲載した。その後、このファイルはジャーナリストのJack Paulson氏によって発見され、彼のSubstackのページにその内容に関する自身の記事が掲載された。
「Generative AI with DoD data」と題されたMicrosoftのプレゼンテーションは、Documentcloud.orgで見ることができる。これは、MicrosoftがOpenAIとのパートナーシップを推進し、生成AIサービスを開発することを示している。プレゼンテーションのスライドの一部では、これらのサービスが政府によってどのように利用されるかの例をいくつか提示している。
そのうちのひとつは、軍に関するものだ。スライドにはこう書かれている:
戦闘管理システム:DALL-Eモデルを使って、戦闘管理システムを訓練するための画像を作成する。
Microsoft社の広報担当者は、The Intercept紙に電子メールで次のように述べた:
これは、生成AIの可能性についての顧客との会話から得た、潜在的な使用例の一例です。
同社は、この提案は行ったが実際には実施していないと述べている。
OpenAIは、Microsoftのスライド・プレゼンテーションから距離を置こうとしている。OpenAIの広報担当者は、同社はMicrosoftの提案には関与しておらず、米軍にそのような提案をしたこともないと述べている。広報担当者はこう付け加えた:
OpenAIのポリシーは、武器の開発や使用、他者への傷害、財産の破壊のために我々のツールを使用することを禁止しています。
米下院は最近、OpenAIのChatGPTモデルを一部使用したMicrosoftの生成AIアシスタント「Copilot」の職員による使用を禁止したことを明らかにした。Microsoftは、セキュリティ機能を追加した政府機関向けバージョンのCopilotを開発中だという。2024年夏には利用可能になる予定だ。
Source
コメント