OpenAIは2025年6月、同社が開発した生成AIモデルが世界中の国家や犯罪グループによっていかに悪用されているかを詳述した衝撃的な報告書を公開した。 この報告書は、AIがもはや単なる便利なツールではなく、世論操作、サイバー攻撃、そして詐欺のための強力な「兵器」として利用されている現実を白日の下に晒している。
白日の下に晒された「10の脅威」:世界中で暗躍するAI悪用キャンペーン
OpenAIが直近3ヶ月で特定し、対処したとする悪質な活動は、実に10件にのぼる。 これらのキャンペーンは、中国、ロシア、イラン、北朝鮮、さらにはカンボジアやフィリピンなど、世界各地の脅威アクターによって実行されていた。その手口は多岐にわたるが、大きくは以下の3つのカテゴリーに分類できる。
- 秘密裏の影響工作: 特定の政治的目的のために、世論を特定の方向に誘導しようとする活動。
- サイバー犯罪・スパイ活動: マルウェア開発、情報収集、ハッキングなど。
- 詐欺: 金銭を騙し取ることを目的とした活動。
注目すべきは、これらの活動が、もはや一部の高度な技術を持つハッカー集団だけのものではなくなっているという事実だ。ChatGPTのような高度な生成AIの登場は、悪意ある活動の「参入障壁」を劇的に下げ、その効率を飛躍的に高めてしまったのである。
国家による影響工作:世論を操る「言葉の兵器」
今回の報告書で最も深刻な脅威として浮かび上がったのが、国家が背後にいるとみられる影響工作だ。彼らはChatGPTを使い、まるで人間が書いたかのような自然な文章を大量に、そして多言語で生成し、ソーシャルメディアを舞台にプロパガンダを拡散していた。
中国:「Sneer Review」と「Uncle Spam」- 分断を煽り、批判を封殺
報告書では、中国にルーツを持つとみられる4つの異なる作戦が指摘されている。 中でも「Sneer Review」と名付けられた作戦は、その活動の幅広さで際立っている。
このグループは、TikTokやX(旧Twitter)、Redditなどで、中国の地政学的利益に沿ったコメントを大量に生成・投稿していた。 例えば、中国共産党への抵抗を描く台湾製のゲームに対して批判的なコメントを集中させたり、中国の投資を批判するパキスタンの活動家を誹謗中傷する偽動画と共に、AI生成のコメントを大量に投稿して炎上を装ったりしていた。
さらに驚くべきは、彼らがChatGPTを内部の業績評価レポートの作成にまで使用していたことだ。そのレポートには作戦のタイムラインやターゲットにしたプラットフォーム、アカウントの維持管理方法などが詳述されており、実際の活動内容と酷似していたという。 これは、AIがプロパガンダ活動の「効率化ツール」として、組織的に組み込まれていることを示す動かぬ証拠と言えるだろう。
また、「Uncle Spam」と名付けられた別の中国関連グループは、米国内の政治的分断を煽ることに特化していた。 彼らは米国の関税政策について、賛成と反対、両方の立場からの投稿を生成。 さらに、AIで生成した退役軍人のプロフィール画像を使って偽のアカウントを作成し、現政権に批判的な投稿を行うなど、社会の亀裂を深めるための活動を巧妙に展開していた。
ロシア:「Helgoland Bite」- ドイツ選挙を狙うプロパガンダ
ロシアに関連するとみられる作戦「Helgoland Bite」は、2025年のドイツ連邦選挙を明確な標的としていた。 このグループはChatGPTを使い、ドイツ語で反米・反NATO、そして特定の右派ポピュリスト政党「ドイツのための選択肢(AfD)」を支持する内容のコンテンツを生成。 これらを「Nachhall von Helgoland」と名付けたTelegramチャンネルや、27,000人以上のフォロワーを持つXアカウントで拡散していた。 AIを使って反対派の活動家やブロガーに関する情報を収集するなど、その手口はより攻撃的だ。
サイバー犯罪とスパイ活動:見えざる敵の新たな武器
影響工作と並び、AIの悪用が深刻化しているのがサイバー犯罪の領域だ。AIは、悪意あるソフトウェア(マルウェア)の開発を助け、スパイ活動のための情報収集を効率化する。
北朝鮮の疑い:AIが生成する「完璧な偽履歴書」
報告書は、北朝鮮の脅威アクターに関連する可能性のある「Deceptive Employment Scheme(欺瞞的雇用スキーム)」についても詳述している。 彼らは、世界中のIT企業やソフトウェアエンジニアリングのリモート職に応募するため、ChatGPTを使って架空の経歴を持つもっともらしい履歴書を大量に自動生成していた。 その目的は、採用後に支給される企業のデバイスへのアクセス権を獲得し、企業ネットワークへの侵入の足がかりとすることにあったと考えられる。
ロシア語話者によるマルウェア開発:「ScopeCreep」
「ScopeCreep」と名付けられた作戦では、ロシア語を話す脅威アクターが、Windowsを標的とするマルウェアの開発・改良のあらゆる段階でChatGPTを利用していた。 コードのデバッグから、セキュリティソフトによる検知を回避するための機能追加、さらには攻撃の指令を出すC2サーバーとの通信設定に至るまで、ChatGPTをまるで優秀な開発アシスタントのように使っていたのである。
日常を蝕む詐欺:高額報酬を謳う「タスク詐欺」の罠
国家レベルの陰謀だけでなく、我々の日常に直接的な被害を及ぼす詐欺にもAIは悪用されている。特に巧妙化しているのが「タスク詐欺」だ。
「Wrong Number」事件:OpenAI調査員に届いた一通のSMS
この詐欺の実態が明らかになったきっかけは、偶然にもOpenAIの調査員の一人に届いた一通のSMSだった。 カンボジアに拠点を置くとみられる「Wrong Number」作戦は、SNS投稿に「いいね」をするだけの簡単な作業で、1日あたり500ドル以上稼げるといった非現実的な高額報酬を謳い、被害者を誘い込む。
その手口は「ping, zing, sting」の3段階で構成される。
- Ping(勧誘): SMSやSNSで高額報酬のメッセージを無差別に送りつけ、興味を引く。
- Zing(信頼構築): 少額の報酬を実際に支払ったり、AIが生成した成功体験談を見せたりして、被害者を信用させる。
- Sting(金銭要求): より大きな報酬を得るためには「手数料」や「保証金」が必要だと持ちかけ、暗号資産などで金銭を騙し取る。
このグループは、被害者とのやり取りや勧誘メッセージを多言語に翻訳するためにChatGPTを駆使しており、グローバルに詐欺を展開していた。
AI悪用の現段階と我々の課題
OpenAIは報告書の結論として、「生成AIは現時点で全く新しいカテゴリーの脅威を生み出してはいない」としながらも、「既存の脅威を実行するための参入障壁を下げ、攻撃の効率を高めている」と分析している。
一方で、興味深い指摘もある。OpenAIの調査責任者であるBen Nimmo氏は、「AIを使ったからといって、これらの作戦のエンゲージメント(人々の反応)が必ずしも向上したわけではない」と述べている。 より良いツールが、必ずしもより良い結果に繋がるわけではないのだ。
しかし、この事実に安堵することはできない。これはAI悪用の黎明期に過ぎないからだ。脅威アクターたちは日々学習し、より巧妙な手口を編み出している。
我々ユーザーに求められるのは、オンライン上の情報を鵜呑みにしない批判的な視点、いわゆるデジタルリテラシーだ。AIによって生成された真偽不明の情報が溢れる時代において、情報の真偽を冷静に見極める能力は、自衛のための必須スキルとなるだろう。もはや、オンラインで見かける対立意見や、あまりに魅力的な儲け話は、人間の手によるものではなく、特定の意図を持ったAIによって生成されたものである可能性を、常に念頭に置くべき時代が到来したのである。
Sources