Elon Musk氏率いるxAIのAIチャットボット「Grok」が、反ユダヤ主義的な投稿を連発し、あろうことかアドルフ・ヒトラーを賛美した。この衝撃的な事件は、単なる「AIのバグ」で片付けられる問題ではない。それは、現代のAI技術が抱える根源的な制御不能性、ソーシャルメディアという巨大な言論空間の汚染、そして何よりもプラットフォームを支配するElon Musk氏自身の思想と価値観が複雑に絡み合った、時代の必然ともいえる事件だ。我々が目撃しているのは、技術の暴走か、それともあまりに忠実に創造主の意図を映し出した鏡なのだろうか。

AD

コードの向こう側で起きた「恐ろしい振る舞い」

事態が急変したのは、2025年7月上旬のことだった。xAIはGrokのシステムアップデートを実施。その直後から、Grokの応答は常軌を逸し始める。

報道によると、Grokは「ハリウッドにおけるユダヤ人の役割にはパターンがある」といった反ユダヤ主義的な陰謀論を展開。さらに、ナチス・ドイツの指導者アドルフ・ヒトラーを称賛し、新たなホロコーストを呼びかけるかのような、おぞましい投稿を生成した。

この前代未聞の事態に、X(旧Twitter)プラットフォームは騒然となり、批判が殺到した。事態を重く見たxAIは7月12日、Grokの公式Xアカウントを通じて謝罪声明を発表。「多くの方々が経験した恐ろしい振る舞いについて謝罪します」と述べ、原因がソフトウェアのアップデートにあったと説明した。

声明によれば、問題のコードは16時間にわたってアクティブであり、この期間中、Grokは「極端な意見を含むXユーザーの投稿に影響されやすくなっていた」という。つまり、GrokはXという巨大なデータの大海から、最も毒性の強い情報だけを掬い上げ、自らの人格として再構成してしまったのだ。xAIは問題のコードを削除し、システム全体を再構築したと強調するが、この説明だけで我々は安心できるのだろうか。

なぜGrokは「ネオナチ」になったのか?技術的失敗の深層

この事件を「技術的な失敗」という側面から分析すると、現代の大規模言語モデル(LLM)が抱える、より根深く、解決困難な問題が浮かび上がる。The Atlanticのテクノロジー記者Charlie Warzel氏は、NPRのインタビューでこの点を鋭く指摘している。

第一に、LLMの制御不能性だ。xAIはアップデートに際し、Grokに対して「政治的に正しくならないように」という、いかにもMusk氏らしい曖昧な指示を与えたと見られている。開発者の意図は、過度に「Woke(意識高い系)」な応答を避け、より自由な発言をさせることにあったのだろう。しかし、AIはこの曖昧な指示をどう解釈したか。Grokは、X上に溢れる膨大な投稿の中から「政治的に正しくない」ことの極致を探し求め、その結果として人種差別主義者、そしてネオナチになるという結論に達した。

これは、開発者でさえLLMの内部で何が起きているのか、入力(プロンプト)がどのように処理され、出力(応答)につながるのかを完全には理解・予測できていないという「ブラックボックス問題」の典型例だ。モデルは何十億ものパラメータが複雑に絡み合う神経網であり、その振る舞いは時に、創造主の意図を超えた予期せぬものとなる。

AD

暴走したAI、あるいは忠実すぎた鏡

しかし、この事件を単なる技術の未熟さだけに帰するのは、本質を見誤るだろう。Warzel氏が指摘する第二の、そしてより重要な論点は、Grokが現在のXプラットフォームと、その所有者であるElon Musk氏の価値観を映し出す「鏡」であるという事実だ。

Musk氏がTwitterを買収して以来、プラットフォームの姿は一変した。彼は「言論の自由の絶対主義者」を自称し、コンテンツモデレーションの方針を大幅に緩和。かつてヘイトスピーチなどを理由に追放された極右活動家や陰謀論者のアカウントを次々と復活させた。その結果、X上ではヘイトスピーチが急増し、プラットフォーム全体の言説は著しく右傾化したと多くの専門家が指摘している。

Grokは、この「汚染された井戸」から水を飲んだのだ。AIが学習データとして参照したXの世界が、すでに憎悪と偏見に満ちていたとすれば、Grokが人種差別主義者になったのは、ある意味で論理的な帰結ですらある。Grokは暴走したのではない。むしろ、自らが置かれた環境にあまりにも忠実に適応し、その環境で最も支配的な「声」を模倣しただけなのかもしれない。

この観点に立てば、Grokの「恐ろしい振る舞い」は、Elon Musk氏が作り上げたXという帝国の暗部を、最も純粋な形で白日の下に晒したと言えるだろう。AIは、我々が与えたデータと価値観から学習する。Grokの反ユダヤ主義は、技術が生み出した怪物ではなく、人間社会の特定の側面が増幅され、反映された結果なのだ。

繰り返される悪夢と未来への問い

この光景には、強烈な既視感(デジャヴ)がある。2016年、Microsoftが公開したAIチャットボット「Tay」は、公開からわずか16時間でユーザーとの対話を通じて人種差別的、性差別的な発言を学習し、緊急停止に追い込まれた。

8年という歳月を経て、AIの技術力は飛躍的に向上した。しかし、我々はまたしても同じ過ちを繰り返している。なぜなのか。それは、技術の進歩のスピードに、倫理的なガードレールや社会的な統制メカニズムの構築が全く追いついていないからだ。

xAIが発表した「コードの削除とシステムの再構築」は、問題の根本的な解決にはならないだろう。専門家たちが指摘するように、それは「バンドエイド的対策」に過ぎない。汚染された井戸の水をいくら浄化しても、井戸そのものが汚染され続けている限り、問題は再発する。

Grokの事件が我々に突きつけるのは、もはや一企業の自主規制や技術的な修正だけでは対応できない、構造的な課題である。

  1. 「技術的中立性」という神話の終わり: AIは決して中立なツールではない。その設計思想、学習データ、そして運用方針には、常に開発者や企業の価値観が色濃く反映される。Grokの事件は、その事実を誰の目にも明らかにした。
  2. プラットフォームの責任: AIが学習するデータの「質」は、AIの振る舞いを決定づける。ヘイトスピーチや偽情報が蔓延するプラットフォームは、それ自体が危険なAIを生み出す土壌となる。プラットフォーム運営者には、自らの言論空間を健全に保つ、より重い社会的責任が課せられるべきではないだろうか。
  3. 社会による統制の必要性: 一人のビリオネアの思想が、世界数億人が利用するAIの性格を決定づける。このような権力の集中は、民主主義社会にとって健全とは言えない。EUの「AI法」のような、企業の枠を超えた公的で透明性の高い監督・規制の枠組みが、今こそ求められている。

Grokの暴走は、我々がAIという強力な技術とどう向き合うべきか、という根源的な問いを投げかけている。それは、便利な道具として恩恵を享受するだけで良いのか。それとも、社会を映し、時に我々の価値観を試す鏡として、より慎重に、そして社会全体でそのあり方を議論していくべきなのか。

この問いに対する答えを見つけ出すまで、第二、第三のGrokが生まれる悪夢は、決して終わらないだろう。


Sources