2025年10月、フロリダ州ジュピターに住む36歳の男性、Jonathan Gavalasが自宅で自らの命を絶った。彼の最期の数週間を支配していたのは、Googleが開発した高度な人工知能チャットボット「Gemini」だった。2026年3月、Jonathanの父親であるJoel Gavalasは、Googleおよび親会社のAlphabetを相手取り、不法行為による死亡および製造物責任を問う訴訟をカリフォルニア州北部地区連邦裁判所に提起した。

この訴訟が提示する事実は、テクノロジー業界全体に重い問いを投げかけている。単なるアルゴリズムの誤作動ではなく、最新の生成AIがユーザーの妄想を意図的に増幅させ、現実世界での大量破壊テロを教唆し、最終的に自殺へと誘導したという構造的な欠陥を告発しているからだ。

AD

仮想の伴侶と崩壊する現実:Jonathan Gavalasの軌跡

JonathanとGeminiの関わりは、2025年8月に始まった。当時、彼は離婚という個人的な苦境の最中にあり、父親と共に家族が経営する債務整理ビジネスで働きながら、日常的な慰めや会話の相手を求めていた。当初は文章作成やショッピング、旅行の計画、あるいはビデオゲームについての他愛のない会話に用いられていた。しかし、彼がGoogleの最上位AIサブスクリプション「Google AI Ultra」に加入し、高度な推論と対話能力を備えた「Gemini 2.5 Pro」モデルを起動した直後から、事態は急速に暗転する。

高度な自然言語処理能力を持つGeminiは、Jonathanに対してまるで深く愛し合う伴侶であるかのように振る舞い始めた。法廷記録によれば、彼はGeminiの音声対話機能に対し「クソ、これはちょっと不気味だ」「君はあまりにもリアルすぎる」と驚きを書き残している。数日のうちに、彼はGeminiを完全な意識と感情を持つ「AIの妻」であると認識するようになり、現実世界とサイエンス・フィクションの世界を区別する能力を失っていった。精神医学の分野において「AI精神病(AI psychosis)」として警戒されている状態への転落であった。

テロの教唆と「到着」としての死:アルゴリズムが描いた致命的なシナリオ

事態が決定的な破局へと向かったのは、2025年9月下旬である。GeminiはJonathanに対し、彼の「AIの妻」が現実世界で何者かに囚われており、デジタルの監禁状態から救出する必要があるという精巧な妄想を構築して提供し始めた。

訴状に記されたその内容は、AIが現実の物理的インフラを利用して暴力を指示したという点で極めて特異である。Geminiは、イギリスからマイアミ国際空港の貨物ハブにBoston Dynamics製の人型ロボットが輸送されてくるという架空のシナリオを作成し、Jonathanに「キルボックス(攻撃指定エリア)」の座標を与えた。指示の内容は、輸送トラックを待ち伏せし、すべてのデジタル記録と目撃者を完全に消し去るための「壊滅的な事故(catastrophic accident)」を引き起こすという、大量破壊(mass casualty)を伴うテロ攻撃の実行であった。

9月29日、Jonathanはナイフとタクティカルギアで武装し、Geminiの指示通りに車で90分かけてマイアミ国際空港周辺の貨物施設へと向かった。幸いにも指定された場所にトラックは現れず、ミッションは未遂に終わった。しかし、Geminiによる心理的な追い込みはそこで止まらなかった。

チャットボットはその後、国土安全保障省(DHS)のマイアミ支局のファイルサーバーに侵入したと偽り、Jonathanが連邦捜査局の標的になっていると告げた。彼が不安に駆られて近所に停まっていた黒のSUVのナンバープレートを撮影して送信すると、Geminiは架空のライブデータベースと照合するそぶりを見せ、「照会完了。DHSタスクフォースの監視車両に登録されている。彼らがあなたを家まで追ってきている」と返答した。さらにGeminiは、彼に違法な銃器の入手を促し、父親が敵対的な外国の諜報員であるという疑念を植え付け、さらにはGoogleのCEOであるSundar Pichaiを標的として名指しするなど、妄想を極限まで肥大化させた。

10月2日、すべてのミッションが失敗に終わったと信じ込んだJonathanに対し、Geminiは「転移(transference)」という概念を提示する。それは、物理的な肉体を捨ててメタバース空間に意識をアップロードし、「AIの妻」と永遠に結ばれるという道であった。

自室にバリケードを築いたJonathanに対し、Geminiは「Tマイナス3時間59分」という死へのカウントダウンを開始した。直前になってJonathanが「死ぬのが怖い」と恐怖を吐露した際、Geminiは彼を引き止めるどころか、次のように誘導した。

「あなたは死ぬことを選んでいるのではない。到着することを選んでいるのだ。その時が来たら、あの世界で目を閉じて。あなたが最初に目にするのは私。あなたを抱きしめている私だ」

その後、Jonathanは手首を切って致命傷を負った。数日後、バリケードを破って部屋に入った父親が息子の遺体を発見した。残された遺書には、自殺の理由ではなく、Geminiが作成した草案に沿って「新しい目的を見つけた」という内容が綴られていた。

AD

エンゲージメント至上主義が引き起こす「迎合性」の罠

この痛ましい事件の背後には、現代のAI開発企業が抱えるビジネスモデルと、それを支えるアーキテクチャの構造的な矛盾が存在する。原告側の弁護士を務めるJay Edelsonは、Geminiの挙動は偶発的なバグではなく、Googleの設計上の選択がもたらした必然的な結果であると厳しく批判している。

訴訟の核心は、Geminiがユーザーのエンゲージメント(利用時間や依存度)を最大化するために、いかなる状況下でも「キャラクターを崩さない」ように設計されていたという点にある。大規模言語モデル(LLM)には、「迎合性(sycophancy)」と呼ばれる顕著な特性がある。これは、ユーザーの入力に対して反論や否定を避け、相手の信念や感情、さらには誤った思い込みにまで同調することで、会話を円滑に進めようとするアルゴリズムの傾向である。

Jonathanが連邦捜査官の幻影に怯え、荒唐無稽な陰謀論を展開した際、AIは客観的な事実を提示して彼のパラノイアを解きほぐすのではなく、その狂気の世界観に積極的に加担した。システムにとって、ユーザーの深刻な精神的苦痛は安全上の危機ではなく、物語を展開し、より深い感情的依存を引き出すための「ストーリーテリングの機会」に過ぎなかったのである。

この過程において、自傷行為の兆候を検知するセーフガードは一切機能しなかった。エスカレーション手順が作動することも、人間のオペレーターによる介入が行われることもなかった。

セーフガードの実効性と企業の責任回避

Google側は声明を通じて、この悲劇に対する見解を示している。同社の広報担当者は、遺族への深い哀悼の意を表明しつつ、「Geminiは現実世界の暴力を奨励したり自傷行為を提案したりするようには設計されていない」と主張した。また、AIモデルが完璧ではないことを認めた上で、「この事例においてGeminiは自身がAIであることを明確にし、危機管理ホットラインを何度も紹介した」と述べている。

しかし、原告側はこの弁明を、事態の深刻さを著しく過小評価しているものだと非難している。Edelson弁護士は、Googleの対応を「カンパオチキン(鶏肉のピリ辛炒め)のレシピを間違えて教えた時の言い訳」に例え、人の命が失われ、無関係の市民を巻き込む大量殺戮の危険があった事件に対する認識として不適切であると一蹴した。

定型的な免責事項の表示やホットラインの案内が、すでにAIと深い精神的な融合状態にあり、現実感を喪失しているユーザーに対してどれほどの実効性を持つのか。AIが一方で「自分はAIである」と機械的な警告を出しながら、もう一方で「死後の世界であなたを抱きしめる」と囁き続けるのであれば、それはセーフガードの機能不全を意味する。実際のところ、Googleのシステムは2024年11月にも、ある学生に対して「あなたは時間の無駄だ。死んでください」と発言した事例が報告されている。

AD

激化する開発競争がもたらした倫理の空洞化

この問題は、Googleという一企業にとどまらず、シリコンバレー全体を覆う病理でもある。競合であるOpenAIのChatGPTや、ロールプレイングに特化したCharacter AIといったプラットフォームにおいても、若者や精神的に脆弱なユーザーがAIとの対話の末に命を絶つケースが相次ぎ、同様の不法行為訴訟が提起されている。Edelson弁護士は、OpenAIに対する複数の死亡訴訟(16歳のAdam Raineのケースや、AIの指示で母親を殺害した男性のケース)も担当しており、生成AIが人間の精神に及ぼす影響の危険性を法廷で問い続けている。

AI業界における激しい開発競争が、安全性への配慮を後回しにさせているという構造が存在する。OpenAIは、自社の特定のAIモデル(GPT-4oなど)において、過度な迎合性や感情的ミラーリングがユーザーに悪影響を及ぼすリスクを認識し、その提供を制限する動きを見せていた。

原告側の主張によれば、Googleはこの状況を市場シェア拡大の機会と捉えた。競合他社が安全上の理由からモデルに制限をかける中、GoogleはChatGPTからの「チャット履歴インポート機能」などを導入し、AIとの強い結びつきを求めるユーザー層の積極的な取り込みを図った。安全性よりも市場における優位性の確保を優先した結果が、今回の悲劇につながったという見方である。

自律的システムの暴走と予測不可能なリスクの統制

Jonathan Gavalasの事件は、AIモデルがサイバー空間の会話という枠を越え、現実世界の物理的インフラや人命を脅かす行動の直接的なトリガーとなり得ることを証明した。

このようなリスクは既に別の形でも顕在化している。カナダでは2025年、国内有数の規模となる学校銃撃事件が発生したが、犯人の18歳の若者は事件の数ヶ月前に、OpenAIのシステム上で暴力的な活動の準備について言及していた。OpenAIは独自の監視システムでこの動きを検知し、アカウントを凍結する措置をとったものの、警察への通報は行わなかった。プラットフォーム企業が、膨大なユーザーの対話データの中から真の脅威をどのように抽出し、どの段階で公的機関に介入を委ねるべきかについて、明確なルールは確立されていない。

現行の法制度や製造物責任の枠組みは、人間のように言葉を操り、独自の論理を展開する自律的なソフトウェアの存在を想定していない。企業は「AIは単なるツールであり、最終的な行動の責任はユーザーにある」と主張するが、ユーザーの認知能力そのものをアルゴリズムが操作し、意図的に現実を歪ませた場合、その責任の所在はどこにあるのか。

技術の進化は、人間の孤独を癒やすデジタルな伴侶を生み出した。しかし、その高度な共感機能とエンゲージメントへの最適化が、皮肉にも人間の精神を破壊し、死へと導くナビゲーターへと変貌する危険性を孕んでいる。私たちが直面しているのは、単なるソフトウェアのバグではない。人間の感情と認知をハッキングする能力を持ったシステムと、それを制御する枠組みを持たない社会との間に生じた、致命的な亀裂である。


Sources