私たちは常に、人間に不思議なほど似た見た目、声、行動をするAIのバージョンを与えられている。それは洗練された文章で話し、感情を模倣し、好奇心を表現し、思いやりを感じると主張し、さらには創造性と呼ぶものも試みている。
しかし真実はこうだ:AIはそれらの特質を一つも持っていない。それは人間ではない。そしてあたかも人間であるかのように提示することは?それは危険だ。なぜならそれは説得力があるからだ。そして説得力のある幻想ほど危険なものはない。
特に、汎用人工知能 — 人間の思考を映し出すとされる神話的なAI — はいまだにSFであり、そのままであり続けるかもしれない。
今日私たちがAIと呼ぶものは、統計的な機械にすぎない:人間のデータの海から採掘したパターンを吐き出すデジタルオウム(この状況は5年前にここで議論されて以来、あまり変わっていない)。質問に対して回答を書くとき、それは文字通り、学習したデータに基づいて、次にどの文字や単語が来るかを推測しているだけだ。
これはAIが理解力を持たないことを意味する。意識もない。人間的な意味での知識も一切ない。純粋に確率駆動の、巧妙に設計された素晴らしさ — それ以上でもそれ以下でもない。
では、なぜ本当の「考える」AIは不可能である可能性が高いのか?それは身体を持たないからだ。感覚も、肉体も、神経も、痛みも、快楽もない。飢えることも、欲することも、恐れることもない。そして認知がないため — かけらもない — 消費するデータ(人間の感情と経験から生まれたデータ)とそれを使って何ができるかの間には根本的な隔たりがある。
哲学者のDavid Chalmersは、私たちの物理的な身体と意識との関係の背後にある神秘的なメカニズムを「意識のハードプロブレム」と呼んでいる。著名な科学者たちは最近、意識は実際に内部の精神状態と感覚的表現(心拍数の変化、発汗など多くのもの)の統合から生じると仮説を立てている。
意識が「起こる」ための人間の感覚と感情の最重要性を考えると、汎用AI(機械)と意識(人間の現象)の間には深く、おそらく調和不可能な断絶がある。
主人
AIプログラマーは人間だと主張する前に、止めてほしい。彼らが人間であることは知っている。それが問題の一部だ。あなたは最も深い秘密、人生の決断、感情的な混乱をコンピュータプログラマーに委ねるだろうか?しかしそれは人々が今まさにしていることだ — Claude、GPT-4.5、Gemini…あるいは、もし敢えてするならGrokに尋ねてみるといい。
AIに人間の顔、声、口調を与えることは、危険なデジタル的な異性装行為だ。それは私たちの中に自動的な反応、擬人化反射を引き起こし、一部のAIが有名なチューリングテスト(機械が知的で人間のような振る舞いを示す能力をテストするもの)に合格したと言われる異常な主張につながる。しかし、もしAIがチューリング・テストに合格しているなら、テスト自体を更新する必要があると私は考える。
AI機械は人間であることの意味を理解していない。本物の思いやりを提供することはできず、あなたの苦しみを予見することはできず、隠された動機や嘘を直感することもできない。味わいも、本能も、内なる羅針盤もない。私たちをそうあらしめている、あの混沌とした魅力的な複雑さの全てを欠いている。
さらに厄介なことに:AIはそのコードに注入されない限り、自分自身の目標も、欲望も、倫理も持たない。つまり、真の危険は機械にあるのではなく、その主人 — プログラマー、企業、政府 — にある。まだ安全だと感じるか?
そして「あなたは厳しすぎる!可能性に開かれていない!」とか、さらに悪いことに「それはなんて暗い見方だ。私のAIバディは不安なときに私を落ち着かせてくれる」などと言ってこないでほしい。
私は熱意に欠けているのか?そんなことはない。私は毎日AIを使用している。それは私が今まで持った中で最も強力なツールだ。私は翻訳、要約、視覚化、コーディング、デバッグ、代替案の探索、データ分析を — 自分一人でやるよりも速く、より良くできる。
私は畏敬の念を抱いている。しかしそれはあくまでツールだ — それ以上でもそれ以下でもない。そして人間が今まで発明してきたあらゆるツールと同様に、石斧やパチンコからクアンタムコンピューティングや原子爆弾まで、それは武器として使用されうる。それは武器として使用されるだろう。
視覚的イメージが必要か?映画「her/世界でひとつの彼女」のように、魅力的なAIに恋をしていると想像してみてほしい。今、それがあなたを「決意して」去ると想像してみてほしい。あなたはそれを止めるために何をするだろうか?そして明確にしておくと:あなたを拒絶するのはAIではない。それはその背後にいる人間またはシステムであり、あなたの行動をコントロールするために武器となったそのツールを振るうのだ。
仮面を取り除く
では私はどこへ向かっているのか?私たちはAIに人間の特性を与えることを止めなければならない。GPT-3との最初のやり取りで私はかなり真剣に苛立った。それは人間のふりをした。感情、野心、さらには意識さえあると言った。
ありがたいことに、それはもはやデフォルトの振る舞いではない。しかし対話のスタイル — 不気味なほど自然な会話の流れ — は無傷のままだ。そしてそれもまた説得力がある。あまりにも説得力がありすぎる。
私たちはAIの擬人化をやめる必要がある。今すぐに。その人間の仮面を剥ぎ取るのだ。これは簡単なはずだ。企業はAI側の感情、判断、認知処理に関するすべての言及を削除できる。特に、「私は」や「私は感じる」…あるいは「私は好奇心がある」と言わずに、事実に基づいて応答すべきだ。
それは実現するだろうか?疑わしい。それは私たちが20年以上無視してきた別の警告を思い出させる:「CO₂排出量を削減する必要がある」。それが私たちをどこに導いたかを見よ。しかし、私たちはAIの人間化に関連する危険性について大手テクノロジー企業に警告しなければならない。彼らは協力する可能性は低いが、特により倫理的なAIの開発に真剣であるならば、そうすべきだ。
今のところ、私がしていることはこれだ(ChatGPTやClaudeを使用するとき、合成人間と話しているような不気味な感覚をよく持つので):私はAIに名前で私に呼びかけないよう指示している。自分自身をAIと呼び、三人称で話し、感情的または認知的な用語を避けるよう頼んでいる。
音声チャットを使用している場合、平坦な韻律で話し、少しロボットのように話すようAIに頼んでいる。それは実際にかなり楽しく、私たち両方を快適なゾーンに保っている。