2025年11月18日、インターネットインフラの巨人Cloudflareで大規模な通信障害が発生した。X(旧Twitter)やChatGPTを含む主要サービスが相次いでダウンし、世界中のデジタル活動が一時停止に追い込まれた。本稿では、この「空白の時間」に何が起き、なぜインターネットはこれほど脆いのか、その技術的背景と構造的な課題を見ていきたい。
11月18日、世界が静止した日:障害の発生とその瞬間
2025年11月18日午前(UTC)、日本時間では同日夜20時過ぎ、世界中のインターネットユーザーが同時に異変を感じ取った。いつも通りにWebサイトにアクセスしようとした数億人のユーザーのブラウザには、冷酷な「500 Internal Server Error」が表示されるか、あるいは「challenges.cloudflare.com」への接続を求めるメッセージが無限ループする事態に陥ったのだ。
世界規模での機能不全と情報の真空地帯
この障害は、特定の地域や特定のISPに限定されたものではなく、地政学的な境界を超えて地球規模で発生した。Cloudflareは世界120カ国以上、330都市にエッジサーバーを展開し、インターネットのトラフィックの約20%を処理していると言われる、まさにWebの「中枢神経」である。その中枢で発生した不具合は、瞬く間に世界中の通信麻痺を引き起こした。
特筆すべきは、情報の「真空地帯」が生まれたことだ。通常、SNSがダウンすればニュースサイトで情報を得て、ニュースサイトがダウンすればSNSで情報を共有する。しかし今回は、その両方が同時に機能不全に陥った。さらに皮肉なことに、インターネットの障害状況を追跡するサイト「Downdetector」でさえ、一時的にアクセス不能となり、「今、何が起きているのか」を確認する手段さえ奪われたユーザーたちは、デジタルな暗闇の中で孤立することとなった。Cloudflare自身のステータスページやサポートポータルまでもがダウンしたため、エンジニアたちでさえも状況の把握に時間を要する事態となったのである。
被害の全貌:SNSから公共交通機関まで
影響を受けたサービスは多岐にわたり、現代社会がいかに特定のインフラに依存しているかを浮き彫りにした。
- ソーシャルメディア: Elon Musk 率いるX(旧Twitter)、Discord、Truth Social、Grindrなどが接続困難となり、リアルタイムのコミュニケーションが遮断された。
- AIサービス: OpenAIのChatGPTやSora、AnthropicのClaude、Perplexity AIなど、業務利用が進む生成AIサービスが一斉に使用不能となり、多くのビジネス現場で業務が停止した。
- Eコマース・ビジネス: Shopifyを利用する数百万のオンラインストア、求人検索のIndeed、デザインツールのCanva、配車サービスのUberなどがダウンし、経済活動に直接的な打撃を与えた。
- エンターテインメント: Spotifyでの音楽再生、League of Legendsなどのオンラインゲームが中断され、世界中の余暇時間が奪われた。
- インフラ・その他: NJ Transit(ニュージャージー州の公共交通機関)のデジタルサービス、仮想通貨取引所、ブログプラットフォームのMedium、そしてAxiosやPoliticoといった主要ニュースメディアも影響を受けた。
なぜ「設定ファイル」一つで世界が止まるのか
今回の障害において、多くのユーザーが目にした「500 Internal Server Error」は、サーバー内部でリクエストを処理できない致命的なエラーが発生したことを示している。通常、これは個別のWebサイトのアプリケーションエラーであることが多いが、今回はCloudflareのエッジネットワーク全体でリクエスト処理が失敗していた。
根本原因:自動生成ファイルの肥大化
当初、その規模の大きさからサイバー攻撃(DDoS攻撃など)を疑う声もあったが、Cloudflareの広報担当 Jackie Dutton 氏およびCTOの Dane Knecht 氏の説明により、原因は内部システムの不具合であることが明らかになった。
Dane Knecht 氏はXへの投稿で「これは攻撃ではない」と明言し、事態の透明性を確保しようと努めた。技術的な詳細によれば、根本原因は「脅威トラフィックを管理するために自動生成された設定ファイル」にあったという。そのプロセスは以下のようなものだと推測される。
- ルーチンな設定変更: Cloudflareのシステムは、常に変化するサイバー脅威に対応するため、攻撃パターンや不正なIPアドレスを識別するための設定ファイルを定期的に更新している。これは日常的な運用プロセスの一部である。
- 想定外の肥大化: 今回の更新において、自動生成された設定ファイルのエントリ数が、システム設計上の想定サイズ(閾値)を超えて肥大化した。これは、特定の脅威パターンが急増したためか、あるいは生成ロジックのバグによるものかは現時点では完全には詳細化されていないが、データの爆発的増加が発生したことは間違いない。
- コントロールプレーンのクラッシュ: この巨大な設定ファイルを各エッジサーバーへ配信・適用しようとした際、トラフィックを処理する基盤ソフトウェア(ボット緩和機能などを司るコンポーネント)がメモリオーバーフローやタイムアウトを引き起こし、クラッシュした。
- フェイルオープンの失敗: 本来、セキュリティ機能がダウンした場合、通信を遮断せずに通す(フェイルオープン)か、遮断する(フェイルクローズ)かの設計思想があるが、今回はシステム自体が不安定になり、結果として正当なユーザーのリクエストに対してもエラーを返す状態(フェイルクローズに近い状態)に陥ったと考えられる。
これは大規模分散システムにおいて最も恐れられる「毒入りパケット(Poison Packet)」ならぬ「毒入り設定(Poison Configuration)」のパターンである。たった一つの設定ファイルが、全ネットワークに同期されることで、世界中のサーバーを同時に死に至らしめる。自動化された運用システムの「境界値(エッジケース)」処理の甘さが招いた、古典的かつ致命的な設計ミスと言えるだろう。
復旧への道のりとWARPの遮断
障害発生から収束までのタイムラインは以下の通りである(すべて日本時間 JST を併記)。
- 11:20 UTC(日本時間 20:20頃): Cloudflareの監視システムが、一部サービスに対する異常なトラフィックスパイクを検知。日本のユーザーが夕食後のリラックスタイムに入った頃、異変は始まった。
- 11:48 UTC(日本時間 20:48): Cloudflareが最初のインシデントレポートを公開。「内部サービスの劣化」を認める。
- 12:03 – 12:37 UTC(日本時間 21:03 – 21:37): エンジニアによる原因切り分けが難航。ロンドンなどの一部地域では、トラフィックの輻輳を緩和し原因を特定するために、VPNサービスである「WARP」へのアクセスを物理的に遮断(再起動)する措置が取られた。
- 13:09 UTC(日本時間 22:09): 根本原因が「設定ファイルの肥大化」にあると特定され、修正パッチの展開が開始される。日本時間では深夜帯に差し掛かる頃、ようやく解決の糸口が見えた。
- 14:30 UTC(日本時間 23:30): Cloudflareがメディアに対し「問題は完全に解決した」と発表。
約3時間強、インターネットの主要動脈が詰まった状態となった。
「ハイパースケーラー連鎖障害」の恐怖と構造的脆弱性
2025年秋、インターネットはかつてないほどの不安定さを見せている。今回のCloudflare障害は、単発の事故として片付けることはできない。なぜなら、わずか1ヶ月の間に、インターネットを支える「ハイパースケーラー」たちが次々と大規模障害を起こしているからだ。
10月の悪夢からの継続
- 10月20日: AWS(Amazon Web Services)のUS-EAST-1リージョンで大規模障害が発生。Slack、Atlassian、Snapchatなどが15時間以上にわたり影響を受けた。
- 10月29日: Microsoft AzureでDNS設定ミスによる世界的障害が発生。Microsoft 365サービス群がダウンし、企業の業務基盤を直撃した。
これらに続き、今回のCloudflare障害が発生した。分散型ネットワークとして誕生したはずのインターネットが、現実にはAWS、Microsoft、Google、そしてCloudflareという極めて少数のプレイヤーに依存する「超・中央集権的」な構造になっていることが、これ以上ない形で証明された。
SignalのPresidentである Meredith Whittaker 氏は、この状況について警鐘を鳴らしている。以前のAWS障害の際、彼らは「なぜSignalはAWSを使うのか?」という問いに対し、「グローバルでリアルタイムな通信プラットフォームを維持するためのインフラ要件を満たす現実的な代替案が、AWSやその他のハイパースケーラー以外に存在しないからだ」と述べている。つまり、選択肢としての依存ではなく、構造的な不可避としての依存がそこにある。
Elon Musk氏と「依存のパラドックス」
今回の障害でとりわけ皮肉な注目を集めたのが、 Elon Musk 氏率いるX(旧Twitter)のダウンである。
先月(2025年10月)のAWS障害の際、 Elon Musk 氏はX上で、競合アプリがダウンしたことを揶揄し、「Xのチャットは完全に暗号化されており、広告のためのフックや奇妙な『AWS依存』はない」と豪語していた。彼は、自社サービスが巨大テック企業のインフラに依存しない独立性を保っていることをアピールポイントとしていたのである。
しかし、今回の事態は、XがAWSへの依存は回避していたとしても、Cloudflareという別の「依存先」を持っていたことを露呈させた。TechCrunchなどの報道によれば、Xのモバイルアプリおよびウェブサイトは完全に機能を停止し、読み込み不能となった。アプリケーションサーバーを自社で管理していても、ユーザーにコンテンツを届けるためのネットワーク層(CDN)を自前で世界規模に構築することは、 Elon Musk氏といえども容易ではなかったのだ。
私たちはどう備えるべきか
Cloudflareは今回の件について「このような障害は容認できない」と謝罪し、再発防止を誓った。しかし、ユーザーや企業がこの教訓から学ぶべきことは、ベンダーの謝罪を待つことではない。
企業の視点:マルチCDN戦略の再考
企業にとって、単一のCDNベンダーに依存するリスクはもはや許容範囲を超えている。これまでコストや運用管理の複雑さから敬遠されがちだった「マルチCDN戦略」が、今後は必須の要件となるだろう。AWSのCloudFront、Akamai、Fastly、そしてCloudflareなど、複数のCDNを契約し、DNSレベルでトラフィックを動的に切り替える冗長構成を持つことが、ビジネス継続性(BCP)の鍵となる。
開発者の視点:自動化とカオスエンジニアリング
今回の原因が「自動生成ファイルの肥大化」であったことは、DevOpsエンジニアに重い教訓を与える。自動化は運用を効率化するが、バリデーション(検証)が不十分であれば、自動的に破滅をもたらす装置にもなる。Netflixが提唱した「カオスエンジニアリング」のように、本番環境で意図的に障害を起こし、システムの回復力をテストする手法の中に、「極端に巨大な設定ファイルを読み込ませる」といったエッジケースのテストも組み込まれるべきだろう。
一般ユーザーの視点:デジタル・ブラックアウトへの備え
私たち一般ユーザーは、主要サービスが同時にダウンする事態を「あり得ること」として生活に組み込む必要がある。
- 情報の多重化: Xが落ちた時に備え、BlueskyやMastodonなどの分散型SNSのアカウントを持つ、あるいはRSSリーダーを使って個別のニュースサイトから直接情報を取得する手段を確保する。
- 連絡手段の確保: 通信アプリ(LINE/WhatsAppなど)だけでなく、EメールやSMS(ショートメッセージ)など、異なるプロトコルやインフラに依存する連絡手段を認識しておく。
2025年11月18日(日本時間夜)の障害は、インターネットが決して「空気のように当たり前に存在するもの」ではなく、無数のサーバーと、複雑な設定ファイルと、そして数人のエンジニアの汗の上に辛うじて成り立っている巨大なガラス細工であることを、私たちに再認識させた。このガラス細工が次にいつ砕けるか、それは誰にも予測できない。しかし、少なくともそれが「砕けうるもの」であるという認識を持つことから、次の対策は始まるのである。
Sources