数日前、世界の人工知能業界と国防コミュニティに激震が走った。Donald Trump大統領の直接の指示により、米国防総省(ペンタゴン)をはじめとする連邦機関が、生成AIのトップランナーの一つであるAnthropic製ツールの使用を突如として停止する事態に発展した。さらにPete Hegseth国防長官は、同社を国家安全保障上の「サプライチェーンリスク」に指定すると公言し、米国政府の調達ネットワークから同社を完全に排除する強硬姿勢を見せた。

しかし、Financial Timesの報道により、事態は急転直下、AnthropicのCEOであるDario Amodei氏と国防総省のEmil Michael国防次官(研究・技術担当)が、再び極秘の交渉テーブルについていることが判明した。一度は完全に決裂し、公の場で互いを非難し合った両者が、なぜ数日足らずで歩み寄りを模索せざるを得なかったのだろうか。

AD

崩壊した2億ドルの蜜月と「サプライチェーンリスク」の脅威

事の発端は、Anthropicが米国防総省と結んでいたAI利用に関する契約更新のテーブルで起きた。Anthropicは2023年7月、国防総省と2億ドルの契約を締結し、同社の大規模言語モデル「Claude」は政府の機密ネットワークに導入された初の主要AIモデルとしての地位を確立していた。Wall Street Journalの報道によれば、この技術はワシントンが関与するイランとの紛争においても、情報解析や作戦立案の支援目的ですでに実戦投入されていたとされる。

契約の更新にあたり、国防総省は軍がAI技術を「合法的なあらゆる用途(any lawful use)」に利用できるという、極めて広範で包括的な権限を要求した。これに対し、2021年にOpenAIから「安全第一」を掲げてスピンアウトして設立されたAnthropicは、強い難色を示した。同社は自社のAI技術が、人間の介入を伴わない自律型致死兵器や、国内市民に対する大量監視網に利用されることを明確に禁止する、具体的な保証とガードレールの設定を求めた。

交渉は平行線をたどり、最終的に決裂した。その結果引き起こされたのが、トランプ大統領による連邦機関でのAnthropic製ツールの使用停止命令と、Hegseth国防長官による「サプライチェーンリスク」への指定という威嚇である。

サプライチェーンリスクへの指定は、単に国防総省がClaudeを使えなくなるという次元の話ではない。この指定が正式に下されれば、防衛産業に関わるすべての民間請負業者(コントラクター)は、自社の業務プロセスや提供するシステムからAnthropicの技術を完全に排除する法的義務を負うことになる。米国政府という巨大な顧客基盤を失うだけでなく、防衛エコシステム全体からの「兵糧攻め」を意味するこの措置は、企業を屈服させるための極めて強力なカードである。

契約書の「一行」が分けたレッドライン

一度は歩み寄りの兆しを見せた交渉が、なぜ土壇場で決裂に至ったのか。その決定的な理由は、Dario Amodei氏が2月27日付で従業員に宛てた社内メモの内容から明らかになっている。

Financial Timesが確認したこのメモによれば、国防総省側は交渉の最終盤において、Anthropicが提示した利用制限の条件を概ね受け入れる妥協案を提示した。しかし、そこには一つの致命的な条件が付与されていた。契約書に記載されていた「大量に取得されたデータの分析(analysis of bulk acquired data)」という特定のフレーズを削除することである。

Amodei氏はこの要求を危険視し、メモの中で「我々が最も恐れていたシナリオに完全に一致する一文の削除であり、非常に疑わしい」と従業員に説明している。「大量に取得されたデータ」とは、軍事的な偵察データに留まらず、国家安全保障局(NSA)などが傍受・収集する膨大な通信記録やインターネットのトラフィックデータ、市民のデジタルフットプリントを指す可能性が高い。

AIモデルにこれらのバルクデータを与えれば、特定の個人の行動パターンを抽出し、人間関係のネットワークを可視化し、将来の行動を予測する強力な監視マシーンが完成する。Anthropicがこの一行の削除を拒絶したことは、自社のプロダクトがEdward Snowdenが暴露したような国家規模の監視プログラムの「頭脳」として組み込まれることに対する、明確な拒絶の意思表示である。

AD

政治的踏み絵とOpenAIのしたたかな暗躍

今回の騒動は、技術や倫理の枠組みを超え、新政権下の政治的力学が如実に表れた事例として記憶されることになる。交渉決裂後、Michael国防次官はソーシャルメディアX(旧Twitter)上でAmodei氏を名指しし、「神を気取った嘘つき(a liar with a God complex)」と激しく非難した。政府高官が一民間企業のトップに対してこのような過激な言葉を投げかけるのは異例である。

Amodei自身も、政府からの風当たりの強さの背景に、政治的な「踏み絵」の存在を感じ取っている。彼は社内メモにおいて、Anthropicが政府から冷遇されている理由について、OpenAIのSam Altman氏のように「Trump大統領に対して独裁者を称賛するような態度(dictator-style praise)」を取らなかったことを示唆している。

実際、Anthropicがトランプ政権から排除された数時間後というタイミングで、最大のライバルであるOpenAIは国防総省との新たな契約締結を大々的に発表した。この動きに対し、Amodeiは国防総省とOpenAIが発信する安全保障に関するメッセージを「真っ赤な嘘、あるいは意図的な混乱の誘発」と切り捨てている。

しかし、OpenAIのこの素早い立ち回りは、市場とコミュニティから手痛いしっぺ返しを受ける結果となった。TechCrunchなどの報道によれば、国防総省との契約発表直後、ChatGPTのアプリのアンインストール数が急増する異常事態が発生した。対照的に、政府の圧力に屈せず倫理的レッドラインを死守しようとしたAnthropicの姿勢が評価され、Claudeのアプリダウンロード数は急激な伸びを記録した

事態の深刻さとブランドイメージへの打撃を受け、OpenAIのSam Altman氏は後日、鎮火に追われることになった。彼は「契約を急ぐべきではなかった」と異例の釈明を行い、国防総省が自社の技術をどのように使用できるかについて、独自のセーフガードを見直す方針を表明した。さらにAltmanはXへの投稿で、「週末の会話の中で、Anthropicがサプライチェーンリスクに指定されるべきではないこと、そして国防総省が我々と合意したのと同じ条件をAnthropicにも提示することを希望すると繰り返し伝えた」と述べ、Anthropicを擁護する姿勢を見せざるを得なかった。

防衛産業を揺るがす「Claude依存症」の深刻な実態

政府によるAnthropic排除の動きは、国防総省内にとどまらず、米国の行政・防衛システム全体に深刻な混乱を引き起こしている。国務省や財務省を含む他の連邦機関は、大統領の指示に従い、直ちに従業員に対してClaudeの使用停止を命じた。さらに、軍需産業を支える多くの防衛テクノロジー企業も、将来的な制裁措置を恐れ、予防措置として自社のシステムからClaudeを排除し、他のAIモデルへの移行を余儀なくされている。

しかし、現場の技術者にとって、AIモデルの切り替えは単なるソフトウェアのアップデートとは訳が違う。特に長文脈の処理能力や複雑なプログラミング・コーディング支援において、Claudeは業界内で極めて高い評価を得ており、多くの開発現場の根幹ワークフローに深く組み込まれている。

AIモデルはそれぞれ独自のアーキテクチャと特性を持っており、プロンプトへの反応も異なる。Claudeで最適化されたシステムをOpenAIのGPT-4や他のモデルに移行するには、膨大なコードの書き換え、プロンプトエンジニアリングの再調整、そして政府基準を満たすための長期間にわたるセキュリティ審査のやり直しが必要となる。この移行コストとプロジェクト遅延のリスクは、防衛産業にとって計り知れない負担である。

そして、ここに今回の騒動における最大のパラドックスが存在する。公の場でCEOを「嘘つき」と罵り、大統領令で他省庁にまで使用停止を命じた国防総省が、なぜ舌の根も乾かぬうちにAmodeiを再び交渉のテーブルに呼び戻したのか。

その答えは、現在の軍事・情報分析の最前線において、Claudeの持つ高度な論理的推論能力が他社モデルで容易に代替できない水準に達しているという冷徹な事実に帰結する。RedditのAI開発者コミュニティでも、この事態を冷静に分析する声が上がっている。「軍が自由に使える他社モデル(OpenAIやxAIのGrokなど)の選択肢があるにもかかわらず、わざわざAnthropicを引き戻そうとしている事実こそが、現在のAI業界におけるClaudeの優位性を示す真のベンチマークである」という意見は多くの支持を集めている。ペンタゴンは一週間にわたり他社のモデルを試験運用した結果、その性能差を痛感し、方針転換を余儀なくされたという見方が濃厚なのだ。

AD

ユーザーコミュニティの厳しい視線とオープンソースへの逃避

この一連の出来事は、AI企業の倫理的スタンスを注視する一般ユーザーや開発者コミュニティにも大きな心理的変化をもたらしている。OpenAIの商業主義的な路線に疑問を感じ、透明性と安全性を求めてAnthropicに移行してきたユーザー層にとって、今回の国防総省との再交渉は複雑な感情を引き起こしている。

Redditの「r/ClaudeAI」コミュニティでは、交渉再開のニュースに対して激しい議論が交わされている。「結局のところ、巨大なAI企業はどこも同じ穴の狢であり、利益のためにいずれは政府と結託する」という冷笑的な見方がある一方で、「Anthropicは屈服(caving)しているのではなく、不当な権力による恐喝(extortion)に耐えながら、ギリギリの折衝を行っているのだ」と擁護する声も根強い。

こうした巨大AI企業と国家権力との癒着への警戒感から、新たな潮流も生まれつつある。特定国家の軍事・情報機関との強い結びつきを持たない独立系のオープンソースモデルへと目を向ける動きである。特にフランスのMistral AIなどが、企業や政府の検閲を受けにくい中立的な代替手段として頻繁に名前が挙がるようになっている。中国製のAIモデル(Qwenなど)は設計段階から国家の軍事利用が前提となっているため西側諸国のユーザーには受け入れがたいが、欧州発のオープンモデルは、地政学的なリスクを分散させる意味でも重要な選択肢となりつつある。

AIという戦略的アセットと国家権力の新たな境界線

現在進行中のDario AmodeiとEmil Michaelの極秘交渉が、どのような結末を迎えるかは予測が難しい。CBS Newsの音声記録によれば、Amodeiは投資家向けの会議で「Anthropicと国防総省は、相違点よりも共通点の方がはるかに多い」と述べ、事態の沈静化に向けた意欲を見せている。双方が政治的な体面を保ちつつ、大量監視と自律型兵器の禁止というAnthropicの「レッドライン」を維持し、かつ国防総省の作戦上の柔軟性を担保する妥協点を見出せるかが焦点となる。

これまで、シリコンバレーのテクノロジー企業は政府の調達仕様に対して従属的な立場に置かれることが多かった。しかし、汎用人工知能(AGI)へと近づきつつある現在の高度な言語モデルは、単なるソフトウェアツールを超え、国家のインテリジェンス能力や軍事力を決定づける強力な戦略的アセットへと変貌を遂げている。

Anthropicが「大量データの分析」という特定の文言の削除を拒んだことは、技術の創造者が自らの生み出した強大な力に対して、明確な倫理的境界線を引こうとした歴史的な試みである。一方で、国家側はサプライチェーンリスクへの指定という実質的な「事業の兵糧攻め」を武器に、企業を国家の軍事・情報戦略の枠組みに強制的に組み込もうとしている。

AIが人類の知的能力を拡張する一方で、前例のない規模の破壊と監視のポテンシャルを秘めている以上、この技術の制御権を誰が握り、どのようなルールで運用するのかという問いは避けて通れない。Anthropicとペンタゴンの間で繰り広げられている対立と交渉のプロセスは、21世紀におけるテクノロジー企業と国家権力の新たな関係性、そしてその境界線をどこに引くのかを決定づける、極めて重要な試金石となる。


Sources