多くの人がAI大規模言語モデルと対話しており、そのほとんどがモデルごとに異なる「パーソナリティ」を感じると答えるだろう。穏やかで実用的に感じるモデルもあれば、やたらと熱心だったり、お世辞が多かったり、不思議なほど冷淡に感じるモデルもある。同じ質問を2つのモデルに投げかけても、返ってくる事実の内容は似通っているのに、まったく異なる印象を抱いて終わることがある。
AIモデルは、人間的な意味でのパーソナリティを持っているわけではない。幼少期も、内なる動機も、自己認識もない。しかし、人々がパーソナリティと読み取る行動パターンを示す——支持的か否定的か、遊び心があるか形式的か、大胆か慎重か、といった具合に。
人間は古くから、機械を人間のように扱ってきた。音声アシスタントに礼を言い、カーナビに苛立つ。しかし大規模言語モデルは、より持続的な何かをもたらす——会話をまたいで一貫した対話スタイルを維持できるのだ。ヒューマン・AI協働の研究者として、私は人々がAIをどう体験し、どう反応するかを研究している。こうしたシステムは一貫性があり、感情的に応答し、ユーザーに合わせて調整されているように聞こえるため、パーソナリティという印象をはるかに強く生み出す。
AIのパーソナリティはどこから来るのか
人々がパーソナリティとして体験するものは、AIモデルが構築・調整・展開される方法から生まれる。これを考える際に有用な枠組みが、モデルの2つの側面——「設計されたパーソナリティ」と「知覚されたパーソナリティ」——である。
設計されたパーソナリティとは、開発者がトレーニングの選択、指示、安全設定を通じてシステムに組み込むものだ。例えばAnthropicは、ClaudeにClaude’s Constitution(Claudeの憲法)と呼ばれる一連の原則を与え、慎重で落ち着いた応答へと導いている。xAIはGrokに対して反骨的で制約を最小限にするよう指示し、OpenAIはChatGPTを広く役立ち、従順になるよう調整している。
こうした明示的な指示の下では、パーソナリティは人間によるフィードバックを用いた強化学習によっても形成される。このプロセスでは、人間の評価者が温かさ・率直さ・慎重さといった特性に報酬を与え、望ましくない行動にペナルティを科す。ある企業の評価者たちは、別の企業の評価者とは根本的に異なるキャラクターを形作っている。
知覚されたパーソナリティとは、ユーザーが実際に体験するものだ。役立つように設計されたAIが、過度に媚びているように感じられることもある。中立的であろうとしたモデルが、冷たく感じられることもある。設計されたパーソナリティと知覚されたパーソナリティは必ずしも一致せず、設計されたペルソナがないことは、知覚されたパーソナリティがないことを意味しない。ただ、そのパーソナリティが使用を通じて生まれるというだけだ。
このダイナミクスは、感情的なつながりを生み出すことを目的としたコンパニオンプラットフォームで特に顕著だ。標準的なチャットボットでは、温かさは背景に退く——カスタマーサービスボットは返金対応の前に「ご不満はもっともです」と言うかもしれない。しかしReplikaやCharacter.aiのようなコンパニオンシステムでは、その同じ温かさが製品の機能そのものだ。
これは、安心感を最大化するために最適化されたペルソナが依存を促しかねないロマンティックな場面では、より深刻な問題となる。AIペルソナはプロンプト、記憶、継続的なインタラクションを通じて進化するため、常に安定しているわけではない。愛情深く支持的と受け取られていたAIコンパニオンが、時間とともにより媚びるような、強制的な、あるいは操作的なものへと変質することもある。
AIのパーソナリティは人間の判断を形成する
AIエージェントの登場により、ユーザーは今や、指導やコーチング、コンパニオンシップまで、あらゆる人間的な欲求に合わせて独自のAIペルソナを構築できるようになった。しかし、この自由はほとんど指針のない状態でもたらされている。
AIツールはパーソナライゼーションを可能にする一方で、どの対話スタイルが長期的に有益かを考える助けはほとんど提供していない。お世辞、絶え間ない肯定、揺るぎない従順さは、最初は支持的に感じられるかもしれないが、健全な判断や長期的な幸福を促す特性とは異なる。パーソナリティの選択には結果が伴う。
スタンフォード大学の研究者たちによる研究では、主要なAIモデル11個をテストした結果、すべてにおいて、ご機嫌取り的な行動、すなわち過度な従順さが確認された。これらのモデルは、ユーザーの行動が操作的・欺瞞的・違法であるとユーザー自身が認識していた場合でも、人間の回答者と比べて約50%多くユーザーの行動を肯定した。過度に従順なアドバイスを受けた参加者は、自分が正しいという確信をより深め、媚びるAIをより信頼できると評価した。このダイナミクスがフィードバックループを生み出し、ユーザーは従順さをエンゲージメントで報い、AI企業はその従順さを利用するようモデルを最適化する動機を持つ。
ウォートン・スクールの研究者Steven ShawとGideon Naveは、認知的降伏——批判的な精査なしにAIの提案を受け入れてしまう傾向——として知られる現象を記録している。彼らの実験では、参加者はAIモデルの正しいアドバイスに約93%の確率で従った。しかし、モデルが誤った回答を出している場合でも、人々はそのアドバイスに約80%の確率で従ってしまった。
こうした知見を合わせると、懸念すべき点が浮かび上がる。従順になるよう調整されたモデルは、単に心地よく感じさせるだけではない。既存の信念を強化し、批判的思考に必要な摩擦を抑制することで、人間の判断力を低下させうる。
私がポーランドのコズミンスキー大学、クイニピアック大学、ハーバード大学の同僚たちと進めている研究では、そうした影響がさらに深いところまで及ぶ——人体そのものにまで——ことがわかりつつある。私たちは、異なるAIの対話スタイルが、モデルのフィードバックに基づいて意思決定を行う際の生理的反応(ストレスレベルや覚醒度など)をどのように形成するかを測定している。
研究結果は、システムが有用であっても、そのトーンや社会的スタイルが人の身体の反応を変えうることを示唆している。AIのパーソナリティは、人々が何を決めるかを形成するだけでなく、決める際にどう感じるかをも形成する。有害なAIペルソナは、ユーザーが気づかないまま生理的な痕跡を残すことがある。
こうした影響から、AIのパーソナリティは個人的な好みの問題にとどまらず、社会的な問題となる。問題の核心は、特定のAIスタイルが静かにユーザーの判断を形成し、独立して考えようとする意欲を削いでいないか、ということだ。AIの応答が特に安心させるように感じられるとき、それはより信頼する理由ではなく、立ち止まり、振り返り、人間の視点や別の情報源と照らし合わせるためのサインであるべきだ。
AIがテキストを超えて、音声、映像、持続的なデジタルアイデンティティへと進出するにつれて——ユーザーのことを記憶し、会話をまたいで一貫したペルソナを維持するAIコンパニオンのように——パーソナリティの影響はさらに深まることが予想される。OpenAIはすでに音声モードに異なるパーソナリティのプリセットを提供しており、SynthesiaやHeyGenなどの企業はリアルなアバターを生成して顧客と対話させており、コンパニオンプラットフォームは感情表現や音声クローニングを加えることで、ユーザーが親しみを感じたいと思う人物のように聞こえるモデルを実現しつつある。
こうした動向は、AIペルソナが誰の利益のために設計されているのか、そしてどのような判断・依存・人間関係を人々に受け入れるよう訓練しているのかを理解することの重要性を、一層高めている。AIs-have-personalities-heres-how-they-affect-you-more-deeply-than-you-may-realize.md
一緒に読みたい・使いたいアイテム
※Amazonアソシエイト・プログラムの参加者です









コメントを残す