生成AIの進化がソフトウェア開発のパラダイムを書き換えつつある現在、サイバーセキュリティの領域において新たな緊張関係が生まれている。「AIが自律的に未知の脆弱性を発見し、システムを破壊するのではないか」という懸念だ。このナラティブを牽引しているのが、Anthropicが開発した次世代AIモデル「Mythos」だ。同社はMythosのセキュリティ探査能力が極めて高く、悪用された場合のリスクが甚大であるとして、一般公開を見送るという異例の措置をとった。この決定は業界に大きな波紋を呼び、Mythosは「世界で最も危険なAI」としての神秘性を帯びることになった。

しかし、この高度に演出された「AIの脅威」は、現実の複雑なソフトウェア・エコシステムにおいてどれほどの威力を発揮するのか。その試金石となる検証結果が、インターネットの基盤インフラとも言えるオープンソース・プロジェクト「cURL」の作者、Daniel Stenberg氏によって公表された。その結果、MythosがcURLのソースコードから発見した脆弱性は、Anthropicが主張するような「ゲームチェンジャー」の域には達していなかったのだ。本稿では、MythosによるcURLスキャンの結果を技術的に分析し、現在のAIコード解析が抱える構造的な限界、そしてAIベンダーが展開するマーケティング戦略の裏側に迫ってみたい。

AD

Project Glasswingを通じたMythosの検証:期待と失望の落差

Anthropicは「Project Glasswing」と呼ばれるプログラムを通じて、Linux Foundationに属する重要なオープンソース・プロジェクトに対し、限定的にMythosの能力を提供している。cURLの創設者であるStenberg氏もこのプログラムに参加したが、彼にMythosへの直接的なアクセス権は付与されず、第三者がMythosを用いてcURLのマスターブランチ(最新コミット)をスキャンし、そのレポートが送付されるというブラックボックス的なプロセスが採用された。

レポートには「確認されたセキュリティ脆弱性」として5件の指摘が含まれていた。「世界で最も危険なAI」がインターネットの基盤ツールから5つもの未知の脆弱性を発見したとすれば、それは重大なインシデントである。しかし、Stenberg氏とcURLのセキュリティチームが数時間をかけてこれらを詳細に解析した結果、事態の矮小さが浮き彫りになった。

5件のうち3件は、すでにAPIドキュメント等で既知の制約として明記されている「フォールス・ポジティブ(誤検知)」であった。AIはソースコードの局所的なパターンのみを抽出し、ドキュメントに記載された仕様や設計上の意図といった上位のコンテキストを理解できていなかったのである。残る2件のうち、1件はセキュリティ上の脅威を持たない単なるソフトウェアのバグと判定された。

最終的に「真の脆弱性」として確認されたのはわずか1件のみであり、その深刻度は「Low(低)」と評価された。この脆弱性は6月下旬にリリースされるバージョン8.21.0でCVEとして修正・公開される予定だが、Stenberg氏が「誰も息を呑むようなものではない」と評した通り、システムを根底から揺るがすようなクリティカルなものではなかった。Mythosは他にもいくつかの非セキュリティバグを正確な説明付きで発見しており、静的解析ツールとしての有用性は一定程度証明されたものの、それが「公開を差し控えるほど危険な、革新的なモデル」であるという証拠を見出すことはできなかった。

AIコード解析の歴史的コンテキスト:Mythosは本当に特別なのか

Mythosの実力を正しく評価するためには、cURLプロジェクトにおけるコード解析の歴史的コンテキストを踏まえる必要がある。1998年の誕生以来、cURLは約30年にわたって世界中のサーバーやデバイスで稼働し続けており、そのコードベースは常に最先端の静的解析ツール(SAST)やファジング・テストの洗礼を受け続けてきた。

近年のAI技術の台頭に伴い、cURLのコードは既にAISLE、Zeropath、OpenAI Codex Securityといった複数のAIモデルによって徹底的にスキャンされている。Stenberg氏によれば、ここ8〜10ヶ月の間にこれらのAIツールが報告した知見を元に、200〜300件のバグ修正がマージされ、1ダース(12件)以上の脆弱性がCVEとして公開されているという。つまり、cURLのコードベースにとってAIによる監査は決して新しいものではなく、すでに日常的な品質保証プロセスの一部として組み込まれているのである。

この文脈において、Mythosの成果をどのように評価すべきか。Stenberg氏の結論は明快だ。「今回の大きな誇大広告は主にマーケティングであったという結論以外には至らない。Mythosが、これまでのツールよりも高度なレベルで問題を発見するという証拠は見当たらない」と彼は述べている。Mythosは他の最新AIモデルと同水準の「優秀な静的解析ツール」ではあるが、セキュリティ探査のパラダイムを根本から覆すような特異点(シンギュラリティ)には到達していない。

AD

「未知の脆弱性」を発見できないAIの構造的限界と本質

なぜ最新鋭のAIモデルであっても、「誰も見たことのない革新的な脆弱性(Novel Vulnerability)」を発見できないのか。その理由は、現在のLLM(大規模言語モデル)のアーキテクチャと学習プロセスの根本的な性質に起因している。

LLMは、GitHubや過去の脆弱性データベース(NVD等)を含む膨大なテキストデータから、既存のコードパターンと脆弱性の相関関係を学習している。例えば、バッファオーバーフロー、SQLインジェクション、クロスサイトスクリプティング(XSS)といった「既知の脆弱性パターン」の新たなインスタンス(亜種)をソースコードの海から発見することにおいて、AIは人間の処理能力を遥かに凌駕する。彼らは、過去のデータに存在する微細なシグナルを驚異的な精度で拾い上げることができるからだ。

しかし、AIは「過去のデータ」という制約の枠内に囚われている。「我々がまだ経験したことのない、全く新しい概念の脆弱性」を発見することは、論理的な演繹ではなく、システム全体に対する直感的な飛躍や創造的思考を必要とする。Stenberg氏が「AIツールは既知のエラーの新しいインスタンスを見つけるだけであり、斬新な種類の脆弱性を報告したAIはまだ見たことがない」と指摘するのはまさにこの点である。

さらに深く考察すれば、ソースコードの本質的な性質が関係している。「ソースコードはテキストであり、セキュリティ問題を引き起こす方法のほとんどは既に知られているのではないか」というStenberg氏の洞察は重要である。

テキストベースの論理構造で表現される脆弱性のパターンは有限に近づきつつあり、真に破壊的なゼロデイ脆弱性は、単一のコードの瑕疵ではなく、複数のシステムコンポーネントが複雑に絡み合うアーキテクチャの隙間(論理的な欠陥やプロトコルの不整合)に潜んでいることが多い。現在のAIモデルは、数百万行に及ぶプロジェクト全体のコンテキストや実行時の動的な振る舞いを完全に保持・理解する能力(コンテキストウィンドウの限界と推論の深さ)において、熟練した人間のセキュリティリサーチャーには遠く及ばない。

「AI Slop」の脅威と過剰なマーケティングがもたらす弊害

Mythosの騒動は、AIベンダーのマーケティング戦略とオープンソース・コミュニティの現実との間に生じている摩擦を象徴している。AnthropicがMythosを非公開にし、「危険すぎるモデル」という神秘性を演出したことは、投資家やメディアの関心を惹きつける上で「驚くほど成功したマーケティングスタント(宣伝行為)」であった。AIの能力を過大に見積もらせることは、企業の技術的優位性をアピールする上で強力な武器となる。

しかし、こうした過剰なAIの神格化は、開発の現場に深刻な副作用をもたらしている。その最たる例が「AI Slop(AIが生成した粗悪なスパム的レポート)」の問題である。AIモデルの普及に伴い、セキュリティの専門知識を持たない一般ユーザーが、AIに出力させた不正確で表層的な脆弱性レポートをオープンソースのバグバウンティ(報奨金)プログラムに大量に送りつける事態が多発している。

事実、Stenberg氏は今年初め、処理能力の限界を超えるAI Slopの波状攻撃に耐えかね、cURLのバグバウンティプログラムの一時閉鎖に追い込まれている。AIは「問題らしきもの」を大量に生成することは得意だが、それが本当にエクスプロイト可能な脆弱性であるかを検証する能力に欠けている。結果として、プロジェクトのメンテナは膨大な誤検知(フォールス・ポジティブ)のトリアージに貴重な時間を奪われ、本来のセキュリティ強化活動が阻害されているのである。「危険なAIがシステムを破壊する」というSF的な脅威よりも、「不完全なAIが生み出すノイズが人間のリソースを枯渇させる」という現実の脅威の方が、今日のオープンソース・エコシステムにとっては遥かに深刻な問題なのだ。

AD

人間とAIが織りなす次世代セキュリティのパラダイムへ

Mythosの検証結果は、AIが決して万能のサイバー兵器ではないことを証明した。しかし、それはAIがセキュリティ領域において無価値であることを意味するものではない。AIを過小評価することも、過大評価することと同様に誤りである。

AIは、依然として強力な「人間のためのツール」である。熟練したセキュリティリサーチャーがAIを高度な静的解析アシスタントとして活用した際、有益な報告が行われている事実をStenberg氏も認めている。「人々の研究者は常にツールを使用してきた。AIを導入することで、人間はさらに強力なツールを手に入れ、問題を発見する新たな方法を得ることができる」と彼は語る。

今後のサイバーセキュリティにおける真のブレイクスルーは、AIの自律的な探査能力によってもたらされるのではない。AIの特性を深く理解した人間のリサーチャーが、AIに対して「未知の角度からプロンプトを与え」、AIのパターン認識能力を人間の創造的な直感と結合させる「協働」によってのみ達成される。ベンダーが流布する「AI脅威論」の誇大広告を越え、AIを「高度な解析機械」として実務に組み込む段階への移行が不可避となっている。