ビジネスリサーチラボ

open
読み込み中

コラム

AIに対する信頼と受容の心理メカニズム:過信と懐疑の間で

コラム

AI(人工知能)技術の進歩により、職場におけるAI利用が広まっています。AIは業務の効率化や意思決定の支援など、様々な場面で用いられるようになりました。しかし、AIの導入には予想外の影響や課題も生じます。

本コラムでは、AIと人間の関係に焦点を当て、特に職場におけるAI利用が従業員の心理や行動にどのような影響を与えるのかを、最新の研究結果に基づいて検討します。

AIによる管理や意思決定支援は、客観性や効率性の向上をもたらしますが、従業員の地位や自律性の認識、モチベーションにも影響を与えます。また、AIのアドバイスに対する人々の反応や信頼性の認識についても興味深い知見が得られています。

これらの研究結果は、職場におけるAIの活用方法や、人間とAIの役割分担を考える上で示唆を与えます。AIと人間がうまく共存・協働するための課題や方向性について考察できればと思います。

応答時間が短いほうが信頼される

AIによる意思決定支援や予測が様々な場面で利用されるようになりました。人々はAIの予測をどのように受け止め、信頼しているのでしょうか。AIの予測の応答時間が人々の信頼に与える影響について、興味深い知見が得られています[1]

研究では、AIが予測を行う際の応答時間が人々の信頼にどのように影響するかを複数の実験で検証しました。大学の入学審査や企業の売上予測などのシナリオを用いて、AIと人間による予測の信頼性を比較しました。

研究の結果、人間が予測を行う場合、遅い応答時間はより正確であると評価される傾向がありました。人間が慎重に判断していると認識されるためです。例えば、大学の入試担当者が学生の合格可能性を予測する際、時間をかけて判断することで注意深く情報を精査していると考えられます。

一方、AIによる予測の場合、遅い応答時間は信頼性を損なう結果となりました。人々は、AIは迅速に処理するべきだと期待しており、遅い応答は性能の低さや問題を示すと捉えました。例えば、企業の売上予測を行うAIが遅い応答を返すと、その性能に疑問を抱きました。

タスクの難易度によっても信頼性の評価は変わりました。難しいタスクでは遅い応答時間がより高く評価されましたが、簡単なタスクでは評価が下がりました。これは、難しい課題には時間をかけるべきだという認識があるためです。

AIの使用経験が増えるほど、遅い応答時間に対するネガティブな評価が強まることも分かりました。経験が増えるにつれて迅速な処理への期待が高まるからです。

これらの研究結果は、AIの設計や導入において示唆を与えてくれます。AIによる予測や意思決定支援を行う際には、正確性だけでなく応答時間にも注意を払う必要があります。特に、ユーザーの期待に応じた適切な応答時間を設定することが、AIに対する信頼性を高める上で重要です。

一方で、人間による判断の場合は必ずしも迅速な応答が求められるわけではありません。むしろ、時間をかけて慎重に判断することが信頼性の向上につながる可能性があります。

AIによる迅速な処理と人間による慎重な判断を適切に組み合わせることで、より信頼性を感じる意思決定システムを構築できるかもしれません。ただし、ここでの議論は、あくまで信頼性の認識であり、実際の意思決定の質は別途検討する必要があります。

プロセス公開が受け入れにつながる

AIの応答時間が信頼性に影響を与えることが分かりましたが、AIの受容にはプロセスの透明性も重要になります。特に医療分野におけるAIの導入では、この点が顕著に表れています。

AIの活用が進む中、医療分野におけるAIの導入も注目されています。しかし、医療AIの高い性能にもかかわらず、多くの人々はその利用に抵抗を感じています。医療AIの受容を促進する方法について、新たな視点が提示されています[2]

研究チームは、人々が医療AIの利用に抵抗を感じる主な理由として、AIのアルゴリズムが「ブラックボックス」として認識されていることと、人間の医療提供者の意思決定プロセスに対する幻想的な理解があることを指摘しています。

具体的には、人々は人間の医療提供者の意思決定プロセスを理解しやすいと感じる傾向がありました。例えば、医師が患者の症状を診断する過程は一般の人々にとって想像しやすく、ある程度理解できると感じられます。一方、AIによる診断プロセスは複雑で不透明に感じられ、理解しにくいと認識されます。

しかし、実際には人間の医療提供者の意思決定プロセスもAIと同様に「ブラックボックス」である場合が多いのです。人々は人間の医療提供者の判断プロセスを実際以上に理解できていると錯覚しています。

研究チームは、この問題を解決するために、AIの意思決定プロセスを説明する介入を行いました。AIがどのようにして診断や予測を行うのかを、簡単な図や文章を用いて説明しました。その結果、AIによる医療提供の利用意図が増加しました。

さらに、研究チームはGoogle広告を用いた実験も行いました。AIの意思決定プロセスを説明する広告と、単にAIの存在を知らせるだけの広告を比較したところ、プロセスを説明する広告の方が、クリック率が高いことが分かりました。一般の人々がAIのプロセスに関する情報を求めていることを示唆しています。

これらの結果は、医療に限らず、AIの導入を進める上でヒントを提供しています。AIの性能や精度を強調するだけでなく、そのプロセスを分かりやすく説明することが、受容を促進する上で効果的なのです。例えば、次のような取り組みが考えられます。

  • AIの意思決定プロセスを視覚化し、分かりやすい図や動画で説明する
  • AIが使用するデータの種類や分析方法について、一般の人々にも理解しやすい言葉で説明する
  • AIの限界や不確実性についても伝え、人間との役割分担を示す
  • ユーザーが希望する場合、AIの診断結果だけでなく、その判断根拠も提供する

一方で、人間の意思決定プロセスについても、透明性を高める努力が必要かもしれません。人々の幻想的な理解を修正し、人間の判断も不確実性を伴うものであることを認識してもらうことで、AIとのバランスの取れた比較ができるようになるでしょう。

テクノロジーによる行動追跡は受容される

AIのプロセス公開が受容を促進することを見てきました。では、AIやアルゴリズムが従業員の行動を追跡する場合はどうでしょうか。興味深いことに、ここでも人々の受容に関する特徴的な傾向が観察されています。

AIやアルゴリズムによる従業員の行動追跡が導入される機会が増えています。このような追跡は従業員にどのように受け止められるのでしょうか。テクノロジーによる行動追跡と人間による追跡の受容度の違いが明らかになりました[3]

研究チームは、複数の実験を通じて、テクノロジーによる行動追跡が人間による追跡よりも受け入れられやすいことを発見しました。

まず、テクノロジーによる追跡は、人間による追跡よりも否定的な判断を受ける可能性が低いと認識されました。例えば、アルゴリズムが勤務時間や業務効率を追跡する場合、従業員はそのデータが公平に扱われると感じました。一方、上司が直接観察して評価を行う場合、個人的な感情や偏見が入り込む可能性を懸念する声が聞かれました。

次に、テクノロジーによる追跡は、従業員の自律性を高めると認識されることが分かりました。これは一見矛盾しているように思えますが、テクノロジーによる追跡は客観的なデータを提供するツールとして捉えられ、自己管理や自己改善に役立つと考えられていました。

例えば、自分の業務パフォーマンスをリアルタイムで確認できるダッシュボードがあれば、自主的に改善点を見つけ、効率を上げることができると感じる従業員が多かったのです。

テクノロジーによる追跡は、内発的動機づけを高める可能性があることも示されました。テクノロジーが提供するフィードバックが管理や監視ではなく、情報提供やサポートとして認識されるからです。例えば、AIが提供する業務改善の提案を、自己成長の機会として前向きに捉える従業員が見られました。

他方で、人間による追跡は、否定的な評価を受けるリスクが高いと認識され、ストレスや不安を引き起こす可能性が示されました。例えば、上司が従業員の行動を監視していると、ミスを指摘されることへの恐れや、個人的な感情が評価に影響するのではないかという懸念が生じやすいのです。

これらの結果をもとにすれば、テクノロジーによる行動追跡を適切に導入することで、従業員の受容度を高め、さらには自律性や動機づけを向上させる可能性があると考えることもできます。

しかし、テクノロジーによる追跡が常に最適というわけではありません。人間による直接的なコミュニケーションや指導の価値を軽視するべきではないでしょう。また、テクノロジーによる追跡に依存することで、職場の人間関係が希薄化したり、数値化されにくい貢献を軽視したりしてしまう危険性もあります。

管理されると地位が低いと感じる

前節では、テクノロジーによる行動追跡が比較的受け入れられやすいことを確認しました。しかし、AIやアルゴリズムによる管理が導入されると、別の問題が浮上します。それは、従業員の社会的地位の認識への影響です。この現象について詳しく見ていきましょう。

AIやアルゴリズムによる管理が導入される中、従業員はそれをどのように受け止めているのでしょうか。アルゴリズムによる管理が従業員の社会的地位の認識に及ぼす影響が検証されています[4]

複数の実験を通じて、アルゴリズムによる管理が従業員の社会的地位の認識を低下させる可能性があることがわかりました。

具体的には、人々は人間の上司から管理されている場合と比べて、アルゴリズムに管理されている場合に自分の社会的地位が低いと感じました。例えば、同じ業務内容であっても、AIが業務の割り当てや評価を行う場合、従業員は自分の仕事の価値や重要性が低く評価されていると感じます。

この背景には、アルゴリズムによる管理が仕事のタスクの複雑さを欠いていると認識されることがあります。人々は、人間の上司による管理の方が複雑な状況判断や柔軟な対応を必要とすると考えます。一方、アルゴリズムによる管理は機械的で単純なプロセスだと認識されるようです。

営業部門で考えてみましょう。人間の上司が顧客の状況や市場動向を総合的に判断して営業戦略を立てる場合、その仕事は複雑で高度なスキルを要すると認識されます。しかし、AIが過去のデータを分析して最適な営業先を提案する場合、その業務は単純作業のように感じられ、従業員の地位が低く見積もられてしまうのです。

アルゴリズムによる管理は従業員に否定的な感情をもたらす可能性も示されました。例えば、疎外感や不満、無力感などの感情が報告されました。これらは、アルゴリズムが個々の状況や感情を考慮せずに機械的に判断を下すと認識されることに起因しています。

加えて、アルゴリズムによる管理を実際に体験する前と後で、地位の低下に対する予測は変わらないことが分かりました。人々はアルゴリズムによる管理に対して予め低い期待を持っており、実際の体験がその認識を変えることはないのです。

この研究を参考にすれば、単にアルゴリズムを導入するだけでは、従業員のモチベーションや自尊心を損なう可能性があると考えられます。そのため、アルゴリズムが従業員を支援し、より高度な判断を行うためのツールであることを強調する必要があるかもしれません。

また、アルゴリズムが行う処理の複雑さや、それを理解し活用することの重要性を従業員に伝えることも求められます。例えば、AIの分析結果を解釈し、実際の業務に適用する能力の重要性を強調することで、従業員の仕事の複雑さや価値を再認識してもらうことができます。

誤っていても助言を聞こうとする

AIによる管理が従業員の地位認識に及ぼす影響について検討しましたが、AIやアルゴリズムの役割はそれだけではありません。AIは人間に対してアドバイスを提供します。ここで疑問が生じます。人々はAIのアドバイスをどのように受け止めているのでしょうか。人間の専門家のアドバイスとの違いはあるのでしょうか。

AIやアルゴリズムの活用が進む中で、人々はそれらのアドバイスをどのように受け止め、どの程度信頼しているのでしょうか。人間とアルゴリズムのアドバイスに対する人々の反応の違いを調べた研究が存在します[5]

研究においては、次のような結果が得られています。

  • アルゴリズムのアドバイスは人間のアドバイスよりも理解しやすいと認識されました。例えば、株価予測タスクにおいて、アルゴリズムの提案は明確で一貫性があると感じられやすく、人間の専門家の意見よりも理解しやすいと評価されました。
  • 理解しやすいと感じられたアドバイスは、より効果的で信頼できると認識され、採用されました。アルゴリズムのアドバイスは「分かりやすい」という理由で、その正確性とは関係なく信頼されやすいのです。
  • 人々はアルゴリズムのアドバイスに対して、批判的な評価を行わずに従う傾向が見られました。例えば、天気予報タスクにおいて、アルゴリズムの予報が不自然であっても、それを疑問視せずに受け入れる参加者が見られました。
  • 誤ったアドバイスに対する反応に違いが見られました。人間の専門家が誤ったアドバイスを提供した場合、人々はすぐにその信頼性を疑い、以降のアドバイスに慎重になりました。一方、アルゴリズムが誤ったアドバイスを提供しても、人々はそれを「偶然のエラー」と捉え、引き続き高い信頼を寄せました。
  • アルゴリズムのアドバイスに従った結果、予測タスクにおける収益が減少するケースが見られました。アルゴリズムの誤ったアドバイスを批判的に評価せずに採用してしまうことによる結果です。

この研究より、アルゴリズムに対する過度の信頼は、誤った判断や不適切な意思決定につながる可能性があることがわかります。

 

さて、本コラムでは、AIと人間の関係性について、最新の研究成果をもとに考察してきました。AIによる行動追跡やマネジメント、アドバイスの提供など、様々な場面でAIが人間の活動に深く関わるようになってきている現状が浮き彫りになりました。

これらの研究から、AIやアルゴリズムの導入が従業員の心理や行動に予期せぬ影響を与える可能性が明らかになりました。例えば、AIによる管理が従業員の地位認識を低下させたり、アルゴリズムのアドバイスに対して過度の信頼を寄せたりしてしまいます。

一方で、適切に設計・導入されれば、AIは従業員の自律性や内発的動機づけを高める可能性もあります。特に、AIのプロセスを透明化し、その役割を明確に説明することで、受容度が高まることが分かりました。

AIを単なる効率化のツールとしてではなく、人間の能力を拡張し、より高度な判断を支援するパートナーとして位置づけることが重要かもしれません。そのためには、AIリテラシーの向上、透明性の確保、人間の判断の重要性の強調など、様々な取り組みが必要と考えられます。

脚注

[1] Efendic, E., Van de Calseyde, P. P., and Evans, A. M. (2020). Slow response times undermine trust in algorithmic (but not human) predictions. Organizational Behavior and Human Decision Processes, 157, 103-114.

[2] Cadario, R., Longoni, C., and Morewedge, C. K. (2021). Understanding, explaining, and utilizing medical artificial intelligence. Nature Human Behaviour, 5(12), 1636-1642.

[3] Raveendhran, R., and Fast, N. J. (2021). Humans judge, algorithms nudge: The psychology of behavior tracking acceptance. Organizational Behavior and Human Decision Processes, 164, 11-26.

[4] Jago, A. S., Raveendhran, R., Fast, N., and Gratch, J. (2024). Algorithmic management diminishes status: An unintended consequence of using machines to perform social roles. Journal of Experimental Social Psychology, 110, 104553.

[5] Chevrier, M., Corgnet, B., Guerci, E., and Rosaz, J. (2024). Algorithm credulity: Human and algorithmic advice in prediction experiments. Available at SSRN 4828701.  https://papers.ssrn.com/sol3/papers.cfm?abstract_id=4828701


執筆者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。

#伊達洋駆

アーカイブ

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています