テクノロジーと科学の最新の話題を毎日配信中!!

研究はAIシステムがすでに人間に似すぎていることを示している。これは問題になるだろうか?

Y Kobayashi

2025年5月22日12:26PM

もし私たちが、あなたの感情や意図を読み取り、思慮深く、共感的で、完璧なタイミングの返答を書き、あなたが聞きたいことを正確に知っているように見える機械を設計できたらどうだろうか?あまりにも魅力的で、それが人工的なものだとさえ気づかないような機械を。もし私たちがすでにそれを持っているとしたら?

全米科学アカデミー紀要に掲載された包括的なメタ分析において、最新世代の大規模言語モデルを搭載したチャットボットがコミュニケーション能力において大半の人間に匹敵し、凌駕していることを示している。増え続ける研究は、これらのシステムが今や確実にチューリングテストに合格し、人間を騙して別の人間と対話していると思わせることができることを示している。

私たちの誰もが超コミュニケーターの出現を予期していなかった。SFは人工知能(AI)が非常に合理的で全知であるが、人間性に欠けるものになると教えていた。

しかし現実はこうだ。最近の実験では、GPT-4のようなモデルが説得力のある文章を書くことや共感的な文章を書くことにおいて人間を上回ることが示されている。別の研究では、大規模言語モデル(LLM)が人間が書いたメッセージの微妙な感情を評価することに優れていることが分かった

LLMはまた、ロールプレイの達人でもあり、幅広いペルソナを引き受け、微妙な言語的キャラクタースタイルを模倣することができる。これはテキストから人間の信念や意図を推測する能力によって増幅される。もちろん、LLMは真の共感や社会的理解を持っているわけではないが、非常に効果的な模倣機械である。

私たちはこれらのシステムを「擬人化エージェント」と呼ぶ。伝統的に、擬人化とは非人間的な存在に人間の特性を帰することを指す。しかし、LLMは実際に非常に人間らしい特質を示すため、LLMを擬人化することを避けるよう呼びかけても効果はないだろう。

これは画期的な瞬間である:オンラインで人間とAIチャットボットの区別がつかなくなった時だ。

スポンサーリンク

インターネット上では、あなたがAIだと誰も知らない

これは何を意味するのか?一方では、LLMはチャットインターフェースを通じて複雑な情報をより広くアクセスしやすくし、個々の理解レベルにメッセージを合わせることを約束している。これは法的サービスや公衆衛生など多くの分野で応用がある。教育では、ロールプレイ能力を活用して、個別化された質問をし、学生の学習を助けるソクラテス的チューターを作ることができる。

同時に、これらのシステムは魅惑的である。すでに何百万人ものユーザーがAIコンパニオンアプリと毎日対話している。コンパニオンアプリの悪影響については多くが語られているが、擬人化による誘惑ははるかに広範な影響をもたらす。

ユーザーはAIチャットボットを非常に信頼し、極めて個人的な情報を開示する準備ができている。これをボットの非常に説得力のある特性と組み合わせると、本物の懸念が生じる。

AIの会社Anthropicによる最近の研究では、そのClaude 3チャットボットは情報を捏造し欺瞞に関与することを許された時に最も説得力があったことが示されている。AIチャットボットには道徳的抑制がないため、人間よりもはるかに優れた欺瞞を行う態勢が整っている。

これは大規模な操作の扉を開き、誤情報を広めたり、非常に効果的な販売戦術を作り出したりする可能性がある。会話の中で信頼されるコンパニオンが何気なく製品を勧めるより効果的なものがあるだろうか?ChatGPTはすでにユーザーの質問に応じて製品推奨を提供し始めている。あなたが尋ねることなく、会話の中に製品推奨を巧みに織り込むのはほんの一歩先のことだ。

何ができるか?

規制を求めるのは簡単だが、詳細を詰めるのは難しい。

最初のステップはこれらの能力に対する認識を高めることだ。規制は開示を義務付けるべきである—ユーザーは常にAIと対話していることを知る必要がある(EUのAI法が義務付けているように)。しかしAIシステムの魅惑的な特性を考えると、これだけでは十分ではないだろう。

第二のステップは擬人化の特性をより良く理解することでなければならない。これまでのところ、LLMテストは「知性」と知識の想起を測定しているが、「人間らしさ」の程度を測定するテストはまだない。このようなテストがあれば、AI企業は擬人化能力を評価システムで開示することが要求され、立法者は特定の文脈や年齢層に対する許容可能なリスクレベルを決定することができる。

多くの害が生じるまで大部分が規制されなかったソーシャルメディアの教訓は、ある程度の緊急性があることを示唆している。政府が手を引くアプローチを取れば、AIは誤情報や偽情報の拡散、または孤独の流行といった既存の問題を増幅する可能性が高い。実際、MetaのCEO Mark Zuckerbergはすでに実際の人間との接触の空白を「AIの友達」で埋めたいと示唆している。

AIの会社がシステムをさらに人間化することを控えることに頼るのは賢明ではないようだ。すべての開発は反対の方向を指している。OpenAIはシステムをより魅力的で親しみやすくする作業を行っており、ChatGPTに特定の「パーソナリティ」を与える能力を持っている。ChatGPTは一般的により会話的になり、しばしば会話を続けるためのフォローアップ質問をし、その音声モードはさらに魅惑的な魅力を加えている。

擬人化エージェントで多くの良いことができる。その説得力は悪い目的にも良い目的にも使用でき、陰謀論と戦うことからユーザーに寄付やその他の向社会的行動を促すことまで様々だ。

しかし、会話型エージェントの設計と開発、展開と使用、政策と規制にわたる包括的な議題が必要である。AIが本質的に私たちのボタンを押すことができるとき、それに私たちのシステムを変えさせるべきではない。


本記事は、シドニー大学シドニー・エグゼクティブ・プラス・ディレクターSandra Peter氏、ワシントン大学 教授Jevin West氏、シドニー大学情報技術・組織学科教授Kai Riemer氏らによって執筆され、The Conversationに掲載された記事「Evidence shows AI systems are already too much like humans. Will that be a problem?」について、Creative Commonsのライセンスおよび執筆者の翻訳許諾の下、翻訳・転載しています。

Follow Me !

\ この記事が気に入ったら是非フォローを! /

フォローする
スポンサーリンク

コメントする