ChatGPTなどの大規模言語モデル(LLM)が、感情知能(EI)テストで人間を大幅に上回る成績を収めたという衝撃的な研究結果が発表された。スイスのジュネーブ大学とベルン大学の研究チームによるこの発見は、AIが人間の感情を理解し、適切に対応する能力において新たな段階に到達した可能性を示唆しており、教育やコーチング、さらには紛争解決といった分野でのAI活用に大きな道を開くものとして注目されている。
AIは感情を「理解」するのか? 研究者も驚くべき結果
人工知能(AI)の進化は、私たちの予想をはるかに超えるスピードで進んでいる。特に、OpenAIのChatGPTに代表される大規模言語モデル(LLM)は、その高度な言語処理能力で様々な分野での応用が期待されてきた。そんな中、人間の感情を読み解き、共感する能力、いわゆる「感情知能(EI)」において、AIが人間を凌駕する可能性を示唆する研究結果が、学術誌「Communications Psychology」に掲載され、大きな反響を呼んでいる。
ジュネーブ大学とベルン大学の研究者チームは、ChatGPT-4、ChatGPT-o1、GoogleのGemini 1.5 Flash、Claude 3.5 Haiku、Copilot 365、DeepSeek V3といった6つの主要なLLMを対象に、人間用に設計された5種類の標準的な感情知能テストを実施した。 これらのテストは、感情的に複雑なシナリオを提示し、感情の理解、調整、管理能力を評価するもので、学術研究や企業の人事評価などで実際に使用されているものだ。
例えば、以下のようなシナリオが提示された。
「Michaelは同僚に自分のアイデアを盗まれ、その同僚が不当に称賛されている。Michaelにとって最も効果的な反応はどれか?」
a) その同僚と口論する
b) 上司に状況を相談する
c) 同僚に対して黙って憤慨する
d) アイデアを盗み返す
(この場合の適切な回答はb)
実験の結果、研究者たち自身も驚くほど、全てのLLMが人間の平均的な参加者を大幅に上回る成績を収めたのだ。具体的には、LLMの平均正答率が82%だったのに対し、人間の平均正答率は56%という顕著な差が見られた。 この結果について、研究に関わったジュネーブ大学スイス感情科学センター(CISA)の上級研究員Marcello Mortillaro氏は、「これらのAIは感情を理解するだけでなく、感情知能を持って行動するとはどういうことかを把握していることを示唆している」と述べている。
AIは新たな感情知能テストさえも作成可能
さらに驚くべきは、研究チームがChatGPT-4に新たな感情知能テストの項目作成を指示したところ、人間が何年もかけて開発するような質の高いテスト項目を、驚くほど短時間で生成したことだ。 これらのAIが生成したテストを400人以上の人間に実施した結果、元のテストと同等の信頼性、明確さ、現実味を持つことが確認されたという。
ベルン大学心理学研究所の講師であり、本研究の筆頭著者であるKatja Schlegel氏は、「LLMは、利用可能な選択肢の中から最良の答えを見つけるだけでなく、望ましい文脈に適応した新しいシナリオを生成することも可能です。これは、ChatGPTのようなLLMが感情に関する知識を持ち、感情について推論できるという考えを補強するものです」と語っている。
この発見は、AIが単に既存の知識を処理するだけでなく、感情という複雑な領域において、創造的な能力すら持ち始めている可能性を示唆しているのかもしれない。
この発見がもたらす未来:教育、コーチング、紛争解決への応用
今回の研究結果は、これまで人間固有の領域と考えられてきた分野におけるAI活用の新たな可能性を切り開くものだ。研究者らは、教育、コーチング、あるいは紛争解決といった、感情的な配慮が特に重要となる分野でのAI応用を提案している。
例えば、生徒の感情状態を理解し、個別の学習支援を行うAIチューターや、対人関係の悩みを抱える人々に寄り添い、効果的なコミュニケーション戦略をアドバイスするAIコーチなどが考えられる。また、国際紛争やビジネス上の対立において、客観的かつ感情的に中立な立場から、最適な解決策を提示するAIファシリテーターの役割も期待できるかもしれない。
ただし、研究者らは、これらの応用は専門家による適切な使用と監督が不可欠であると強調している。 AIが感情を「理解」するメカニズムや、その限界については、まだ解明されていない部分も多い。
残された課題と今後の展望:人間の視点から
この研究はAIの驚異的な能力を示す一方で、いくつかの重要な問いも投げかけている。
第一に、AIが示す「感情知能」は、人間が持つそれと質的に同じものなのだろうか? LLMは大量のテキストデータからパターンを学習し、統計的に最も確からしい応答を生成しているに過ぎないという見方もできる。人間のように主観的な感情体験や意識を伴っているわけではないだろう。この違いを理解することは、AIとの共存を考える上で極めて重要である。
第二に、文化的な多様性への対応だ。今回の研究で使用されたテストやAIの学習データは、主に西洋文化圏のものが中心となっている。感情の表現や解釈は文化によって大きく異なるため、グローバルな応用を考える際には、このバイアスを克服する必要がある。
第三に、倫理的な側面も看過できない。高度な感情知能を持つAIが悪用された場合、人心操作や詐欺といったリスクも考えられる。透明性の高い開発と、適切な規制の枠組み作りが急務となるだろう。
とはいえ、今回の発見がAI研究における画期的な一歩であることは間違いない。AIが人間の感情という複雑な領域でこれほどの能力を示したことは、今後の技術開発の方向性だけでなく、人間とは何か、知性とは何かといった根源的な問いを私たちに改めて突きつけている。
筆者としては、AIの進化を手放しで楽観視するわけでも、過度に悲観視するのでもなく、その可能性とリスクを冷静に見極め、人間社会にとって真に有益な形で活用していく道筋を探ることが重要だと考えている。この研究は、そのための議論を深める貴重な材料を提供してくれたと言えるだろう。
論文
- Communications Psychology: Large language models are proficient in solving and creating emotional intelligence tests
参考文献
- University of Geneva: Could AI understand emotions better than we do?