ビジネスリサーチラボ

open
読み込み中

コラム

AIが映し出す人間の心理:複雑な関係性を紐解く

コラム

AI技術が急速に発展し、私たちの仕事が変わりつつあります。AIが人間の能力を超える可能性も指摘される中、AIと人間の関わり方について考え直す必要が出てきました。

AIは確かに優れた能力を持っていますが、人間とのやりとりの中では予想外の反応を引き起こすこともあります。例えば、AIの助言内容は高く評価されても、助言者としてのAIの能力は低く見積もられるといった現象が観察されています。AIによる推薦が自分の考える自己像と合わない場合、ユーザーの心理に好ましくない反応を引き起こす可能性も指摘されています。

本コラムでは、こうしたAIと人間の複雑な関係について、心理学的な観点から考察していきます。AIがますます身近になる中で、私たちはAIとどのように向き合い、付き合っていけば良いのでしょうか。AIの存在感が増す現代において、この問いは意義深いものと言えるでしょう。

AIは感情面のサポートができる

AIが人々の心理的なニーズに応える能力について、注目すべき研究結果が報告されています。AIは適切な感情面のサポートを提供できることが明らかになりました[1]

実験において、参加者に複雑な状況を説明させ、その後AIまたは人間が作成した返答を提供しました。結果、AIによる返答は人間の返答よりも、参加者に「聞かれている」という感覚を強く与えることがわかりました。AIは特定の感情(喜び、悲しみ、恐れ、嫌悪)をより正確に把握し、それに基づいた共感的な返答を提供する能力に優れていたのです。

AIが感情面のサポートに長けている理由として、その優れた情報処理能力が挙げられます。AIは大量の情報を処理し、状況に応じた適切な返答を作成することができます。人間の専門家が自身の経験を共有しがちなのに対し、AIはより客観的に相手の感情に焦点を当てた返答を提供できるのです。

しかし、この実験で面白いのは、参加者が返答の出所がAIだと知った途端、その評価が低下するという現象です。AIが作成した返答の内容自体は高く評価されるものの、それがAIからのものだと認識された瞬間に、心理的な壁が生じてしまいます。

この現象の背景には、AIに対する固定的な考え方があると考えられます。多くの人々は、AIには感情がないため、共感や理解ができないと考えがちです。そのため、AIからの返答だと知ると、それまで感じていた「聞かれている」という感覚が薄れてしまうのでしょう。

この結果は、AIの感情サポート能力の高さを示すと同時に、人間とAIの関係における心理的な障害の存在も浮き彫りにしています。AIが提供する感情面のサポートの質は高いにもかかわらず、それを受け入れる人間側の心理的な準備が整っていないという現状が見えてきます。

AIとの関わりが増える中で、私たちはAIの能力を正しく理解し、その長所を最大限に活用する方法を探る必要があります。感情面のサポートにおいてAIが優れた能力を発揮できることを認識しつつ、AIとのコミュニケーションに対する心理的な抵抗感をどのように乗り越えていくかが、今後の課題となるでしょう。

AIが生成した文章は人間らしい

AIが生成する文章の質が向上し、人間が書いた文章と見分けがつかなくなっているという現象が報告されています。さらに、AIが生成した文章が「より人間らしい」と評価されるケースも出てきています[2]

研究では、AIGPT-2およびGPT-3)が生成した自己紹介文と人間が書いた自己紹介文を比較しました。参加者は、提示された文章がAIによって生成されたものか、人間によって書かれたものかを判別するよう求められました。

結果は予想外のものでした。参加者はAI生成の自己紹介文を5052%の精度でしか識別できず、これは偶然と同程度の結果だったのです。AIが生成した文章と人間が書いた文章をほとんど区別できなかったということです。

AIが生成した文章が「より人間らしい」と評価されるケースもありました。参加者は、家族に関するトピックや第一人称の使用、文法の正確さなどを基に、テキストが人間によって書かれたと推測する傾向がありました。しかし、これらの特徴は実はAIが容易に再現できるものでした。

一方で、文法エラーや長い単語の使用は、人間が書いたものだと誤って判断されました。これは、人々が「AIは文法的に正確で、複雑な表現を使わない」という固定的な考えを持っているためだと考えられます。

このような状況は、私たちに新たな課題を突きつけています。AIが人間以上に「人間らしい」文章を生成できるとすれば、オンライン上のやりとりにおいて、本当の人間とAIを見分けることがますます難しくなるかもしれません。このことは、情報の信頼性の問題にも影響を及ぼす可能性があります。

好みに合わないAIの推薦は嫌な気持ちになる

AIによる推薦システムが増える中、AIが提供する推薦が消費者の好みや期待と一致しない場合、それが消費者の心理や行動にどのような作用を与えるかという結果が提出されています。

研究では、AIが提供する映画や音楽の推薦が消費者の好みに合致しない場合、それが後悔やサービスへの不信感を増大させ、最終的にはAIツールの利用をやめる傾向が強まることが明らかになりました[3]

特に、AIによる推薦が消費者のアイデンティティを低下させ、その結果として後悔の感情を引き起こす点は興味深いところです。消費者は、AIの推薦が自分の好みと合致しないと感じると、自分が正しく理解されていないという感覚を抱きます。これが、サービスへの不信感や否定的な感情につながるのです。

また、自己表現の動機が強調された場合、AI推薦の失敗がさらに強い後悔の感情を引き起こすことも示されました。自己表現が重要視される状況、例えば音楽の好みを他者と共有しようとしている時などに、AIの推薦が自己イメージと一致しないと、消費者はより強い不満を感じます。

さらに、AIの推薦が失敗した際の消費者の生理的反応も調べられています。実験では、顔認識ソフトウェアを使用して、AI推薦の成功または失敗が消費者の表情や生理的反応にどのように影響するかを測定しました。そうしたところ、AIの推薦が失敗したとき、消費者は悲しみの感情や自己防衛的な行動(目を閉じるなど)を示すことが確認されました。

これらの結果は、AIによる推薦が単なる情報提供以上の意味を持つことを示唆しています。消費者は、AIの推薦を通じて自分を確認し、自己表現を行おうとしています。そのため、AIの推薦が自己イメージと一致しない場合、それは不便さ以上の心理的な作用を及ぼすのでしょう。

この研究は、AIが私たちの日常生活に深く入り込んでいる現状を反映しています。消費者はAIを、自己のアイデンティティや好みを理解し、反映してくれる存在として期待しているのかもしれません。しかし、このような期待は、時として失望や不満につながる可能性があります。

AIは公平だと思うが意思決定には使わない

AIの公平性に対する人々の認識と、実際の意思決定におけるAIの受け入れとの間にあるギャップが明らかになっています。人々はAIを人間よりも公平だと認識しながらも、自分に関わる意思決定では人間を好む傾向があります。

研究では、資源配分に関わる意思決定において、AIと人間のどちらが好まれるかを調査しました[4]。結果としては、多くの人々がAIを人間よりも公平だと認識していることがわかりました。AIは感情や個人的な利害関係に左右されず、純粋にデータに基づいて判断を下すと考えられているのです。

しかし、自分自身が意思決定を受ける立場になると、人々は人間の意思決定者を好む傾向がありました。人間の意思決定者に対して「人間らしさ」や「感情的なつながり」を期待しているためでしょう。人々は、人間の意思決定者なら自分の事情や魅力を理解し、柔軟に対応してくれるのではないかと期待しています。

また、人間の意思決定者が偏見を持つ可能性がある場合、AIに対する選好がどのように変化するかも調査しました。人間の意思決定者が自分に「不利な偏見」を持っていると知った場合、多くの人々はAIによる意思決定を好みました。一方で、意思決定者が「有利な偏見」を持っていると知った場合は、人間の意思決定者を選好しました。

これらの結果は、人々がAIの公平性を認識しつつも、状況に応じて戦略的に意思決定者を選んでいることを示しています。自分に不利な状況では、AIの公平性に頼ろうとする一方、有利な状況では人間の柔軟性や偏見を利用しようとします。

さらに、社会的地位に基づく偏見の影響も調査されました。社会的地位が低いと感じる人々は、AIによる意思決定を選ぶ傾向が強くなりました。これは、社会的に弱い立場にある人々が、人間の意思決定者からの偏見を恐れ、AIの公平性に期待を寄せているためだと考えられます。

AIの公平性に対する人々の期待と、実際の意思決定の選好との間にある複雑な心理を明らかにした研究と言えます。人々はAIの客観性と公平性を認めながらも、状況によっては「人間的な要素」や「自分に有利な偏見」を期待して人間の意思決定者を選ぶという心理を持っているのです。

AIの助言内容は評価するが、助言者としては評価しない

AIによる助言の信頼性に関する研究があります。研究では、AIが作成した助言の質自体は高く評価される一方で、その助言の作成者としてのAIの能力に対する評価は低くなる傾向があることが分かりました[5]

具体的には、AIと人間の専門家が提供する助言に対する評価が、助言者の身元が明らかにされているかどうかでどのように異なるかが調査されました。実験は社会課題(フェイクニュース、移民問題、地球温暖化など)や個人的な課題(健康的な食生活や貯蓄を増やす方法など)を対象に行われました。

その結果、AIが助言を提供したことが明示されると、助言者としてのAIの能力評価は低くなる一方、助言内容の質には大きな違いがないことがわかりました。人々はAIが提供する助言の内容自体は高く評価しながらも、その助言を出したAIの能力については低く評価すということです。

この現象は「アルゴリズム嫌悪」と呼ばれる、人々がAIやアルゴリズムに対して持つ偏見に関連しています。特に社会問題や道徳的・倫理的な問題においては、「人間でなければ適切な判断ができない」と考えやすいため、AIの能力が低く評価されるのかもしれません。

一方で、AIが提供する助言内容自体(信頼性、説得力、実用性)は人間の助言と同じくらい高く評価されます。これは、AIが提供する助言が多くの場合、正確であることや、特定の事実やデータに基づいていることが関係しています。

人々はAIの能力に対して偏見を持ちやすい一方で、その出力結果については合理的な評価を下しています。これは、AIの活用方法を考える上で大切な視点となるでしょう。

また、研究では過去の経験がAIの評価に影響を与えることも明らかになりました。AIに対して前向きな経験を持っている場合、AIの助言を選びやすくなります。AIとの直接的な良い経験が信頼性を高め、AIが提供する助言を選ぶ可能性を増加させるためです。

AIの能力に対する偏見を減らし、AIの助言をより効果的に活用するためには、人々にAIとの良好な経験を積んでもらうことが大切だと言えるでしょう。

AIとの共存に向けて

AIと人間の関係性に関する研究知見を見てきました。これらの研究は、AIが私たちの生活や意思決定に及ぼす作用の複雑さを浮き彫りにしています。

AIは感情面のサポートにおいて優れた能力を発揮し、人間以上に「人間らしい」文章を生成することができます。しかし、AIによる推薦が自己認識と一致しない場合、人々は強い不満を感じる傾向があります。

また、AIの公平性は高く評価されながらも、実際の意思決定場面では人間が好まれるという矛盾した状況も明らかになりました。さらに、AIの助言内容は高く評価されるものの、助言者としてのAIの能力評価は低くなるという現象も観察されています。

これらの研究結果は一貫して、AIと人間の関係性が単純なものではないことを表しています。人々はAIの能力を認識しつつも、依然として人間特有の判断や感情的なつながりを重視しています。AIに対する評価は、個人の経験や状況によって大きく変わる可能性があります。

AIとの共存が進む中で、これらの取り組みを通じて、AIと人間がより良い関係性を築いていくことが大切です。AIの能力を活用しつつ、人間の判断や感情の大切さも認識し、バランスの取れたアプローチを取ることが求められているのです。

AIとの共存は、技術的な課題だけでなく、心理的、倫理的、社会的な側面を含む複雑な問題です。多角的な視点から検討を重ね、AIと人間がお互いの長所を活かしながら、よりよい社会を作り上げていくことが期待されます。

脚注

[1] Yin, Y., Jia, N., and Wakslak, C. J. (2024). AI can help people feel heard, but an AI label diminishes this impact. Proceedings of the National Academy of Sciences, 121(14), e2319112121.

[2] Jakesch, M., Hancock, J. T., and Naaman, M. (2023). Human heuristics for AI-generated language are flawed. Proceedings of the National Academy of Sciences, 120(11), e2208839120.

[3] Goncalves, A. R., Pinto, D. C., Jimenez, H. G., Dalmoro, M., and Mattila, A. S. (2024). Me, myself, and my AI: How artificial intelligence classification failures threaten consumers’ self-expression. Journal of Business Research, 186, 114974.

[4] Claudy, M. C., Aquino, K., and Graso, M. (2022). Artificial Intelligence Can’t Be Charmed: The Effects of Impartiality on Laypeople’s Algorithmic Preferences. Frontiers in Psychology, 13, 898027.

[5] Bohm, R., Jorling, M., Reiter, L., & Fuchs, C. (2023). People devalue generative AI’s competence but not its advice in addressing societal and personal challenges. Communications Psychology, 1(32).


執筆者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。

#伊達洋駆

アーカイブ

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています