Research Press Release

心理学:AIが生成した応答を人間によるものと表示すると共感が高まる

Nature Human Behaviour

2025年7月1日

人間は人工知能(AI:artificial intelligence)チャットボットからの感情的な支援を、人間からの共感的な応答と偽って表示されない限り、拒否する傾向があることを報告する論文が、Nature Human Behaviour に掲載される。

生成型AIチャットボット(Generative AI chatbots)、特に大規模言語モデル(LLM:large language models)を使用するものは、一般公開以来、人気が高まっており、社会的相互作用の機会を提供したり、感情的な支援を提供したりする可能性を秘めている。以前の研究では、LLMを活用したツールが人間の感情状態を判断でき、その応答が共感的なものと認識されることが示されている。しかし、そのようなチャットボットからの支援が、人間からの支援と同じように認識されるかどうかは不明だった。

Anat Perryら(エルサレム・ヘブライ大学〔イスラエル〕)は、AIからの応答が人間によるものと表示されていない限り、AIによって生成された支援は、人間によるサポートよりも共感に欠けるものと認識されることを発見した。著者らは、合計6,282名の参加者を対象に9つの実験を行い、AIが生成した応答について、それが人間もしくはAIチャットボットが作成したと伝えた。Perryらは、参加者が受け取った応答を共感的なものと評価したものの、人間とやりとりしていると信じた場合、応答に対する評価がよりポジティブになったことを観察した。また、人間からの応答だと信じた場合、AIからの即時応答よりも長い待ち時間を許容する傾向があった。著者らはさらに、人間からの応答だと信じた場合、AI生成と表示されたときに比べて、ポジティブな感情(安心感、承認感、幸福感、および理解されている気持ち)がより多く、ネガティブな感情(困惑、怒り、不安や苛立ち)がより少ないことが判明した。一方、人間がAIの支援を受けて応答を作成したと認識された場合、共感、ポジティブな感情、および支援の感じ方はやや低く評価された。

これらの結果は、AIチャットボットが提供できる支援には限界がある可能性を示唆している。特に、共感や感情的な支援が期待される場合、人は人間からの応答をより重視する可能性がある。ただし、今回の調査対象となった相互作用は短時間であったため、長期的な感情的支援の相互作用におけるAIツールの活用と受容に関するさらなる研究が必要である。

  • Article
  • Published: 30 June 2025

Rubin, M., Li, J.Z., Zimmerman, F. et al. Comparing the value of perceived human versus AI-generated empathy. Nat Hum Behav (2025). https://doi.org/10.1038/s41562-025-02247-w

doi:10.1038/s41562-025-02247-w

「Nature 関連誌注目のハイライト」は、ネイチャー広報部門が報道関係者向けに作成したリリースを翻訳したものです。より正確かつ詳細な情報が必要な場合には、必ず原著論文をご覧ください。

「注目のハイライト」記事一覧へ戻る

プライバシーマーク制度