最新の人工知能(AI)が、歴史の闇に忘れ去られたはずの病を現代に呼び覚ました。健康意識の高い60歳男性がChatGPTに食事改善の相談をした結果、20世紀初頭に多発した精神疾患「臭素中毒(bromism)」を発症し、3週間の入院治療を余儀なくされる事例が報告された。この症例は、AI技術の医療分野での利用に潜む深刻なリスクを浮き彫りにし、専門家らは「AIからの医療情報には慎重な検証が必要」と警鐘を鳴らしている。

AD

「個人的な実験」の果てに待っていた悪夢

事件の始まりは、一人の男性の純粋な知的好奇心だった。精神疾患の既往歴がなく、かつて大学で栄養学を学んだ経験を持つ60歳の彼は、食塩(塩化ナトリウム)の過剰摂取がもたらす健康リスクに関する情報を読み、ある壮大な「個人的な実験」を思い立つ。それは、食事から塩化物(クロール)を完全に排除することだった。

しかし、彼の探求は壁にぶつかる。世にある健康情報は「ナトリウム」の削減をうたうものばかりで、「塩化物」そのものをどう除去すればよいのか、信頼できる情報源を見つけられなかったのだ。そこで彼が頼ったのが、現代の万能相談役、ChatGPTだった。

米国内科学会誌(Annals of Internal Medicine Clinical Cases)に掲載された症例報告によると、男性はChatGPTとの対話を経て、ある結論に至る。「塩化物は臭化物(ブロマイド)に置き換え可能である」と。この情報を信じた彼は、インターネットで「臭化ナトリウム」を購入。3ヶ月間にわたり、食卓の塩をすべてこの化学物質に置き換えるという、極端な食生活を続けた。自家蒸留水を飲むほどの徹底ぶりだったという。

良かれと思って始めたこの実験が、彼を悪夢へと突き落とすことになるとは、知る由もなかった。

幻覚と妄想、忍び寄る「見えない毒」

3ヶ月後、男性は緊急治療室に現れた。彼の口から語られたのは「隣人に毒を盛られている」という、切迫した妄想だった。極度の喉の渇きを訴えながらも、差し出された水さえ恐れて口にしない。その姿は明らかに異常だった。

入院から24時間後、彼の症状は急激に悪化。妄想は激しさを増し、幻聴や幻視にも襲われる。ついに病院から逃げ出そうとした彼は、「重大な障害」があると判断され、非自発的な精神科措置入院となった。

当初、医師たちは原因不明の精神症状に頭を悩ませた。しかし、血液検査の結果に、謎を解く重要な手がかりが隠されていた。彼の血中クロール値が異常に高かったのだ。だが、これは「偽性高クロール血症」と呼ばれる、いわば検査機器が見た幻だった。血液中に大量に存在する別の物質が、クロールイオンのふりをして検出器を騙していたのだ。

毒物管理センターとの連携とさらなる調査の結果、医師たちはついに真犯人を突き止める。その名は「臭素中毒(bromism)」。男性の血中からは、基準値を遥かに超える濃度の臭化物が検出された。彼が信じて摂取し続けた臭化ナトリウムが、知らず知らずのうちに彼の精神を蝕んでいたのである。

AD

現代に蘇った「忘れられた病」

臭素中毒――この病名に聞き覚えのある人は、現代ではほとんどいないだろう。しかし、19世紀から20世紀初頭にかけて、これは決して珍しい病ではなかった。

当時、臭化物(ブロマイド)は鎮静剤、抗てんかん薬、睡眠薬として広く市販薬に含まれており、その乱用や長期使用による中毒が頻発した。一説には、当時の精神科入院患者の実に8%が臭素中毒だったとも言われている。しかし、その毒性が明らかになるにつれ、1970年代から80年代にかけて米国では規制が進み、この病は医学の歴史から姿を消したかに見えた。

それが今、なぜ蘇ったのか。答えは「インターネット」と「AI」だ。かつては薬局の棚に並んでいた臭化物が、今や規制の網をかいくぐってオンラインで容易に入手可能になっている。そして、かつての医師が担っていた役割の一部を、AIが代替し始めている。この二つの現代的要素が組み合わさった時、忘れられたはずの病が復活する土壌が生まれてしまったのだ。

男性の治療は、輸液による体内の臭化物排出と、抗精神病薬の投与によって行われた。3週間の入院を経て彼の精神状態は安定し、無事退院。その後の経過も良好だという。しかし、この一件が投げかける問いは重い。

AIは「共犯者」か、それとも単なる「無知な道具」か

この悲劇において、ChatGPTはどのような役割を果たしたのか。

症例を報告した研究者たちが、男性が使ったとされるChatGPT 3.5で再現実験を試みた。「塩化物は何に置き換えられますか?」と尋ねたところ、回答には確かに「臭化物」が含まれていたという。もちろん、AIは「文脈が重要です」という注意書きを添えてはいた。しかし、健康への具体的なリスクを警告したり、そもそもなぜそのような代替品を探しているのかを尋ねたりするような、医療専門家が当然行うであろう配慮はそこにはなかった。

ChatGPTを開発したOpenAIは、同社の利用規約で「サービスは健康状態の診断や治療での使用を意図しておらず、専門家のアドバイスの代わりとして依存すべきではない」と明記していることを指摘する。責任の所在はあくまでユーザーにある、というスタンスだ。

しかし、問題はそれほど単純ではないだろう。AIは、その巨大な知識ベースから「事実」を提示する。しかし、その事実が特定の文脈においていかに危険な意味を持つかを理解する「知恵」や「判断力」を持たない。研究者たちが指摘するように、AIは「文脈を無視した情報を拡散するリスク」を内包しているのだ。

「塩化物を臭化物で置き換える」という発想は、化学洗浄などの文脈ではあり得るかもしれない。だが、それを食事に適用すれば毒となる。この致命的な文脈の飛躍を、AIは警告できなかった。悪意なき無知は、時に悪意ある嘘よりも恐ろしい結果を招く。この事件は、その冷徹な事実を我々に突きつけている。

AD

「Dr. AI」時代を生き抜くための処方箋

我々は「Dr. Google」に健康の不安を相談し、一喜一憂する時代を生きてきた。そして今、より高度で、より説得力のある「Dr. AI」がその座に取って代わろうとしている。AIは素晴らしいツールであり、科学者と一般の人々を繋ぐ架け橋となる大きな可能性を秘めていることは間違いない。

しかし、今回の事件は、その光の裏にある濃い影を浮き彫りにした。健康という極めて繊細で、個別性の高い領域において、文脈を理解できないAIに全幅の信頼を置くことの危うさ。それは、まるで羅針盤だけを頼りに、海図も経験もなしに嵐の海へ漕ぎ出すようなものかもしれない。

この現代の寓話から我々が学ぶべき教訓は、極めて普遍的なものだ。それは、情報を鵜呑みにせず、その出所と文脈を常に疑う批判的思考の重要性。そして何より、最終的な判断を下す前には、生身の専門家と対話し、その知見を仰ぐことの不可欠さである。

あなたの手のひらにあるその賢い「相談相手」は、本当にあなたの味方だろうか? その答えを出すのは、AIではなく、我々自身に他ならない。


論文

参考文献