OpenAIのCEO、Sam Altman氏が2026年2月28日、米国戦争省(Department of War、旧国防総省)の機密ネットワークに同社のAIモデルを配備する契約を締結したと発表した。この動きは、Anthropicが同様の要請を拒否した直後のタイミングであり、AI業界と一般ユーザーの双方から激しい反発を招いている。Redditの r/ChatGPT では、解約証明画像を共有するスレッドに数千件の支持票が集まり、「#CancelChatGPT」の波紋はソーシャルメディア全体へ急速に拡散した。

AD

Anthropicが引いた二本のレッドライン

事の発端は、Anthropicが米政府に対して明確な拒否を示したことにある。同社は自社のClaude AIモデルについて、交渉不可能な二つの条件を公式ブログで提示した。一つは自律型兵器システムへの使用禁止、もう一つは米国市民に対する大規模監視プログラムへの参加拒否である。Anthropicがこの姿勢を崩さなかった背景には、現行のAI技術が持つ根本的な限界がある。ハルシネーション(事実と異なる情報の生成)を依然として起こし得るモデルに、人間の生死を左右する判断を委ねることの危険性、そして監視技術の適用範囲を規定する法的枠組みが技術の進化に追いついていないという現実認識がその根底にあった。

Trump大統領はこの拒否に対し、連邦機関に対してAnthropicの技術の即時使用停止を命じた。Pete Hegseth国防長官は声明の中で、Anthropicを「傲慢と裏切りの教科書」と形容し、同社を「国家安全保障上のサプライチェーンリスク」に指定するよう指示した。請負業者にはAnthropicとの商業的関与を禁止し、6ヶ月の移行期間が設定された。国家が一企業に対し、技術の無条件提供を要求し、拒否すれば制裁で応じるという異例の構図がここに出現したのである。

Sam Altman氏の「安全原則」が意味するもの

この空白を埋める形でOpenAIが登場した。Altman氏はXへの投稿で、「国内の大規模監視の禁止」と「武力行使における人間の責任」という二つの安全原則を維持すると主張し、戦争省もこれに同意したと述べた。一見するとAnthropicとほぼ同じ立場を表明しているかのように読める。

問題はその言葉が意味するところにある。Altman氏の投稿に対してはすぐに追加情報(Community Note)が付され、政府当局者がOpenAIのモデルは「すべての合法的な目的」に使用可能であると発言していた事実が指摘された。ここに決定的な乖離が存在する。Anthropicが求めたのは、技術の使用方法に対する自社のコントロール権であった。法律の解釈に委ねるのではなく、モデルの適用範囲を契約上明示的に制限することを主張した。対してAltman氏は、使用方法の判断を米国政府に一任する構造を受け入れた。

弁護士を名乗るRedditユーザーが的確に指摘したとおり、Altman氏が用いた「safety principles(安全原則)」という言葉遣いは意図的に曖昧だ。「principles」は「red lines(越えない一線)」や「restrictions(制限事項)」とは法的に異なる概念であり、別の原則(たとえば国家安全保障)と衝突した場合、より重要と判断された側が優先される余地を残す。9/11後に成立した愛国者法(USA PATRIOT Act)は、特定の状況下での通信メタデータの大規模収集を合法としており、外国人の監視に付随して米国市民の情報が収集される事態も、米国法の下では完全に合法である。Altman氏の「原則」がこの法的枠組みと正面から衝突した場合に何が起きるかは、明示されていない。

AD

ユーザー反乱の構造:なぜ「Cancel ChatGPT」は拡大したのか

また、今回のこの契約に対するユーザーの反発は、単なる感情的な怒りというだけではない。実際のところ、複数の構造的要因が同時に噴出した結果と見るのが妥当だろう。

第一に、OpenAIの共同創業者であり現社長のGreg Brockman氏が、Trump陣営のMAGA系スーパーPACに対して史上最大級の2,500万ドルを献金していた事実が最近報じられた。さらに大統領の義理の息子であるJared Kushner氏の資産のかなりの部分がOpenAIに投じられているとの情報も拡散している。これらの事実が示唆するのは、Trump政権がAnthropicを排除し、OpenAIを後釜に据えた一連の流れが、純粋な安全保障上の合理性ではなく、政治献金と利益相反に基づく意思決定であった可能性だ。Redditの上位コメントでは「一企業が政権に賄賂を渡し、主要な競合他社を政府の力で潰した」という推理が展開され、数百の支持票を集めた。

第二に、ChatGPT自体の製品品質に対する不満が鬱積していたことも、あげられる。「GPT-5詐欺」と呼ばれたモデルアップデートへの失望、過剰なガードレール(安全制限)による実用性の低下、基本的な記憶機能の劣化といった不満が、解約に踏み切る心理的障壁を大幅に下げていた。あるユーザーは「最近のChatGPTはゴミになっていた。買い物リストすら覚えられず、何を言っても持ち上げてくるだけだった。この件がなくても解約する理由は十分にあった」と書き込んでいる。ペンタゴン契約は最後の引き金であり、不満の蓄積こそが本質と見るべきだろう。

第三に、解約と同時にClaudeへの移行を表明するユーザーの多さが目立つ。「ChatGPTを解約してClaude Pro Maxに加入した」「チーム全員分のChatGPTをキャンセルした」といった投稿が相次ぎ、Anthropicの拒否姿勢が結果的に同社のブランド価値を押し上げる皮肉な構図が生まれた。解約しようとしたユーザーに対して無料1ヶ月分の延長が提示されたという複数の報告は、OpenAI側がこの離反の規模を予測し、速やかに対処を始めていたことを示唆している。

AI業界全体を覆う倫理の空洞化

ただ、この事態でAnthropicが唯一の「善良なAI企業」であるかのように語られがちだが、構造はより複雑だ。Anthropic自身も過去2年にわたり米国防省と断続的に協力関係にあり、今回の決裂はあくまで条件交渉がまとまらなかった結果にすぎない。

より深刻なのは、主要なAI企業のほぼすべてが軍事利用への門戸を開いているという現実である。Googleは2025年に、社内規定から自律型兵器への明示的な禁止条項を削除した。Microsoftは「最終的な引き金を人間が引く限り」自律型兵器を容認する姿勢を示している。Amazonは曖昧な「責任ある利用」の文言以外に何の制限も設けておらず、Metaもペンタゴンとの軍事契約を積極的に模索している。Palantirに至っては、こうした利用を全面的に歓迎する立場を隠していない。

この状況は、AI倫理の議論が業界内部で事実上の敗北を喫しつつあることを意味する。2018年にGoogle社員数千名がProject Maven(軍事AIプロジェクト)への社内抗議を行い、Googleがこの契約を更新しないと決めた出来事は、テック業界における倫理的歯止めの象徴として語られてきた。8年後の現在、その歯止めは消滅している。企業ガバナンスの自主規制が限界を迎える中で、法的枠組みの整備だけが残された手段となりつつあるが、その法整備が最も遅れているのが米国であるという矛盾がこの問題の核心にある。

AD

7,300億ドルの虚構と有権者の財布

OpenAIが直近の資金調達ラウンドで7,300億ドルという企業価値を付けられ、Amazon、SoftBank、NVIDIAなどから出資を受けた事実と、今回のペンタゴン契約は切り離して見ることができない。AIスタートアップのバリュエーションは、政府との大型契約によるキャッシュフローの予測可能性に依存する度合いを増している。Microsoftは最近、FT(Financial Times)のインタビューで自社モデルの開発・展開を進める意向を表明しており、OpenAIとの関係が永続的でないことは明白だ。この文脈において、ペンタゴンとの契約はOpenAIにとって単なる売上機会ではなく、投資家へのシグナルであり、企業としての生存戦略の一環である。

消費者の解約運動がOpenAIの財務基盤を揺るがすかどうかは、疑問の余地がある。B2C(消費者向け)のサブスクリプション収入は同社の総収入に占める割合として大きいものの、B2G(政府向け)およびB2B(企業向け)契約の単価は桁違いだ。だが解約運動は財務的打撃というよりも、ブランド毀損のリスクとして機能する。テック企業にとってブランドの信頼が開発者エコシステムの維持、人材採用、パートナーシップの継続に直結することを考慮すれば、数千人のRedditユーザーの怒りを「ノイズ」として処理するのは経営的に危険な判断となり得る。GoogleやOpenAIの社員数百名がAnthropicの姿勢を支持する書簡に署名したとの報告は、この問題が企業の外部だけでなく内部にも亀裂をもたらしていることを示している。

「合法」の外側に広がる戦場

今回の事態が提起する最も根本的な問いは、「合法であれば許されるのか」という倫理的境界線の設定をめぐるものだ。米国政府は「すべての合法的な手段」を使うと明言した。Altmanは「法律と政策に反映された原則」に準拠すると述べた。だが、ハルシネーションの問題を完全には解消できていない現行のAIモデルが、国家安全保障の名の下に市民のリスク評価を行う世界が、法律の条文上は可能になったという事実こそが、この議論の射程を決定づけている。デジタル技術の社会的統制能力が民主的なチェック機構の速度を超えたとき、市場と消費者行動だけが残された均衡装置となる。r/ChatGPTのスレッドで解約証明を共有したユーザーたちは、意識しているかどうかにかかわらず、その代理戦争の最前線に立っている。


Sources