米東部時間2026年5月5日、米国商務省国立標準技術研究所(NIST)傘下のCenter for AI Standards and Innovation(以下CAISI)は、Google DeepMind、Microsoft、Elon Musk氏が率いるxAIとの新たな協定を締結したと発表した。この協定により、3社はフロンティアAIモデルの公開前に政府機関による評価を受けることに同意した。OpenAIAnthropicが2024年に結んだ先行協定から始まった米国政府の「民間AIモデル審査」の枠組みが、ここに主要なビッグテック全体をほぼ網羅する規模へと拡大したことになる。

AD

CAISIとは何か——Biden政権から引き継がれた安全評価の砦

CAISIを理解するには、その前身であるU.S. AI Safety Institute(AISI)まで遡る必要がある。AISIはBiden政権下で2024年8月に設立され、AIのテスト手法の開発や自発的な安全基準の策定を主な役割としていた。当時の指導者はBidenのテクノロジーアドバイザーだったElizabeth Kellyで、彼女はその後Anthropicに移籍している。

Trump政権発足後、同機関はCAISIへと名称を変更し、Commerce Secretary Howard Lutnickの指揮下に置かれた。ミッションも微妙に変化した。安全基準の「普及啓発」から、実際のモデル評価と「国家安全保障リスクの特定」へとシフトしたのだ。America's AI Action Planを受けて再構築されたCAISIのポジションは、「業界と政府をつなぐ一元的な窓口」であり、今回の協定発表でCAISI Director Chris Fallはこう述べている。

「独立した厳格な計測科学は、フロンティアAIとその国家安全保障への影響を理解するために不可欠だ。こうした産業界との協力の拡大は、極めて重要な時期に公益のために活動を拡充する力となる。」

組織の変遷を踏まえると、Trump政権がAI監視に踏み込んだこの協定は、2024年の先行合意とは性格が異なる。規制撤廃を掲げてきた政権が国家安全保障の名のもとにAI評価権限を握り始めた点で、政策の重心が実質的にシフトしている。

「ガードレールを外したモデル」の提供——評価の実態

今回の協定の技術的な核心は、評価に使用するモデルの形態にある。CAISIの発表文によれば、「安全保障関連の能力とリスクを徹底的に評価するため、開発者は安全制御が縮小または除去されたモデルを提供することが多い」。

つまり、通常のユーザーが触れるチャットボットとは別に、ガードレールを意図的に取り除いたモデルを政府の評価者に渡すということだ。この方法論は、いわゆる「レッドチーミング」手法に近い。外部の攻撃者視点から脆弱性を探るセキュリティ評価の手法を、政府機関が公式に採用した形だ。

Microsoftは自社のブログ投稿でこの評価の重要性を次のように説明している。「国家安全保障や大規模な公衆安全リスクのためのテストは、必然的に政府との協働が必要だ。」同社はすでにUK AI Security Instituteとも同様の協定を結んでおり、今回の米国との協定でAI安全テスト参加への姿勢を改めて示した。

評価には省庁横断的な専門家が参加する仕組みも整っている。CAISI-convened TRAINS Taskforce(国家安全保障上のAIリスク研究・テストに関する省庁横断タスクフォース)の専門家が評価に関与し、機密環境でのテストも想定して設計された、と協定には記されている。現時点でCAISIが実施した評価の累計は40件を超え、未公開のモデルも含まれるという。

AD

Anthropicの「Mythos」が引き起こした危機感

今回の協定拡大の背景に、Anthropicが2026年4月に公開した「Claude Mythos Preview」の存在がある。Reuters、CNBC、BBCの各報道によれば、Mythosはソフトウェアの脆弱性を特定してサイバー攻撃を超加速させる能力を持つとされ、Anthropic自身がその危険性を認識したため、リリースを選ばれた企業に限定する「Project Glasswing」という特別な展開スキームを採用した。

Anthropic CEO Dario Amodeiはモデル発表直後にTrump政権の高官と面会し、ホワイトハウスでのミーティングは「生産的だった」と両者が評した。この動きは、国防総省がAnthropicをサプライチェーンリスクと認定し事実上のブラックリストに載せていた時期と重なっており、米政府内のAIを巡る認識の複雑さを物語っている。

Mythosの登場は、AI企業と政府の関係に新たな緊張をもたらした。政府はその能力に驚かされ、かつそれを制御できていないことへの懸念を深めた。今回の協定拡大は、その不安に対する制度的な応答とも読める。

省庁横断ワーキンググループ——大統領令による新たな監視機構の可能性

CAISIの協定発表と並行して、ホワイトハウスが検討する動きも明らかになった。CNBCが確認した情報によると、Trump政権はAI監視の手続きを検討するための新しいワーキンググループの設置を考えており、これは「公開前にモデルを審査する計画」を含む。このグループは多様なテック企業の経営幹部と政府高官で構成される予定で、大統領令によって設置される可能性がある。

ホワイトハウスはCNBCの取材に対し「大統領令に関する議論は臆測に過ぎず、政策発表はDonald Trumpから直接行われる」と回答している。これは計画そのものを否定するものではなく、公式発表前の観測気球的な報道への牽制に過ぎない。

New York Timesがこのワーキンググループの構想を最初に報じたのは前日の4日のことで、翌日のCAISI公式発表と時系列が一致している。両者の連動は偶然ではなく、政府が協定の発表に合わせて監視体制強化のシグナルを段階的に外部に送っていた可能性を示唆する。

従来のTrump政権のAI政策は「規制の撤廃」「赤テープの除去」に重点が置かれていた。2025年に署名された一連の大統領令はAI開発の自由化を推し進め、「America First」のAI覇権戦略を前面に出した。その政権が今や政府主導の事前審査に動いているのは、能力が急拡大するフロンティアモデルに対し、もはや「自由市場に任せる」だけでは国家安全保障を担保できないという現実認識の表れだ。

AD

国際競争という文脈——中国との技術競争がもたらす構造的な力学

今回の取り組みには、中国との技術覇権争いという地政学的な文脈が深く絡んでいる。CAISIの発表文はこう記している。「これらの合意は情報共有を支援し、自発的な製品改善を促進し、AI能力と国際的なAI競争の現状について政府が明確に理解することを担保する。」

「国際的なAI競争の現状」というフレーズは、中国の軍事・サイバー分野でのAI利用を念頭に置いたものと解釈できる。米政府が民間企業のAIモデルをいち早く評価することの目的の一つは、中国がAI技術で優位に立つ前に、自国がその能力を正確に把握・活用できる態勢を整えることにある。

Reutersの報道では、国防総省が先週、7社のAI企業と協定を結び、同省の機密ネットワーク上でAIを展開する体制を整えたことも明らかになった。AIの軍事利用が現実のオペレーションとして動き出している中で、政府が事前評価の権限を持つことは、安全管理の域を超え、外交・技術競争上の優位につながる戦略的な権限だ。フロンティアモデルの能力を民間企業より先に「知っている」政府は、技術競争においても外交交渉においても主導権を握れるからだ。

OpenAIとAnthropicの協定再交渉——「Biden時代の合意」の書き換え

今回の拡大において見落とされがちなのが、OpenAIとAnthropicの既存協定の再交渉だ。2024年に締結された両社との協定は、新たなCAISIのディレクティブとAmerica's AI Action Planを反映する形で書き直されたと発表文は述べている。

Biden政権下の協定は自発的な安全基準の醸成に重点を置いていたが、Trump政権版はより明確に「国家安全保障」と「政府の監視権限」を前面に押し出している。この変化は、AI政策における「安全性」の定義自体のシフトを示している。Biden時代の「社会的なリスクから守る安全性」から、Trump時代の「国家安全保障上のリスクを特定する安全性」へ。

また、Anthropicは現在、国防総省とAIの安全制御(ガードレール)に関する訴訟で争っており、同社がAIの安全基準を巡って政府と対立関係にある一方、CAISI協定では協力関係にもあるという複雑な立場に置かれている。この矛盾は、Anthropicがどのような姿勢をとるかに関わらず、米国のAI安全基準をめぐる法的・制度的な整理が進んでいないことを示す。CAISIの枠組みは自発的な協力関係を前提とするが、訴訟中の企業が同時に評価対象となる状況は、制度の根拠が外交的な合意に依存しているに過ぎないという脆さを露わにしている。

政府によるAI評価が変える産業秩序

公開前審査の慣行が制度化されることで、AI開発の産業構造にどのような変化が起きるかを考えるのは、この問題の「So What?」を問う上で避けられない。

最も直接的なインパクトは、大企業が有利になる可能性だ。CAISIが評価できるモデルの数には限界があり、政府との協定を結ぶリソースを持つのは巨大テック企業に限られる。政府のホワイトリストに名を連ねることが、エンタープライズや防衛市場での信頼性の証明として機能するようになれば、小規模なAI企業は構造的に不利な立場に置かれる。

一方で、評価プロセスの透明性確保という課題も浮上する。「機密環境でのテスト」は内容が非公開であり、どのモデルが審査され、どのような理由で問題なしとされたのかを外部から確認する手段はない。独立した評価機関や学術機関が関与しないとすれば、政府と企業の閉じた二者間の取り決めにとどまるリスクがある。

CAISIが今後どのように評価基準を公開し、プロセスの説明責任を果たすかが、この制度の持続的な信頼性を左右する。40件超の評価実績は積み上がっているが、その内容が公益に資する形で開示されなければ、枠組みそのものへの信頼を担保することは難しい。