ビジネスリサーチラボ

open
読み込み中

コラム

透明性のジレンマ:AIへの信頼が高まると同時に不安も増す

コラム

突然ですが、AIが選んだ候補者と、ベテランの面接官が推薦する候補者、どちらを採用すべきだと思いますか。

最近、採用プロセスにアルゴリズムを取り入れる動きが広がっています。履歴書のスクリーニング、適性検査の分析、面接の評価に至るまで、さまざまな場面でアルゴリズムが活躍しています。しかし、これらの技術をどこまで信頼して良いのでしょうか。

アルゴリズムへの信頼は、人事の現場で重要な課題です。優秀な人材を見逃さないためにAIの力を借りたい一方で、人間の判断や直感を完全に無視することもできません。このバランスをどうとるべきか、多くの人事担当者が悩んでいることでしょう。

本コラムでは、アルゴリズムに対する信頼について研究知見をもとに考察していきます。なぜ、従業員や採用候補者がアルゴリズムに抵抗を示すのか、どうすればアルゴリズムへの信頼を高めることができるのか、そしてアルゴリズムの透明性がどのような影響をもたらすのか、これらの疑問に対する答えを探ります。

本コラムを通じて、アルゴリズムと人間の判断をうまく組み合わせ、より良い人事施策を展開するためのヒントを見つけていただければ幸いです。

AIへの心理的抵抗の要因を分類

AI技術が発展し、人々はAIに対してさまざまな心理的反応を示しています。AIの利用に抵抗を感じる人も少なくありません。なぜ人々はAIに抵抗を感じるのでしょうか。

研究によると、AIに対する抵抗感は主に5つの心理的要因に分類されることが指摘されています[1]。これらの要因を理解することは、AIの受容と普及を促進する上で重要です。

1つ目の要因は「不透明性」です。AIがどのように動いているのか、その内部メカニズムが見えにくいことが、不信感を引き起こします。AIの判断プロセスがブラックボックス化していると、その結果や決定に対する信頼感が低下します。

2つ目は「無感情」です。AIには人間のような感情がないため、感情的な判断や対応ができないという認識が、AIへの抵抗感を生み出しています。特に、感情的なサポートが必要な場面では、AIの無感情さが問題となることがあります。

3つ目は「硬直性」です。AIが柔軟に学習や適応ができないと見なされると、人々はAIを固定的で役に立たないと感じます。状況に応じて柔軟に対応できないAIは、信頼を得るのが難しくなります。

4つ目は「自律性」です。自律的に動作するAIが、人間のコントロール感を奪うと感じられることがあります。特に、ユーザーが自分の意思で行動できないと感じる場面では、AIへの抵抗感が強まります。

最後の要因は「メンバーシップ」です。AIが人間のグループに属していないという感覚が、AIに対する抵抗感を助長します。人間は本能的に、自分たちのグループに属していない存在に対して警戒心を抱きやすいのです。

これらの要因は、AIに対する態度を形成する上で重要な役割を果たします。例えば、AIの意思決定プロセスが不透明だと、ユーザーはその判断を信頼しにくくなります。また、AIが感情を持たないことで、人間的な対応が必要な場面における利用に抵抗を感じる人もいます。

AIの硬直性に対する懸念は、予期せぬ状況への対応が求められる場面で顕著になります。自律性の問題は、AIが人間の意思決定を代替する場面で特に重要です。そして、AIが人間のグループに属していないという感覚は、AIとの協働や信頼関係の構築を妨げます。

他者が見ているとアルゴリズムへの信頼が向上

人間の行動や判断は、周囲の環境や他者の存在に影響されます。この現象は、アルゴリズムとの関わりにおいても例外ではありません。研究によると、他者が見守っている状況では、人々のアルゴリズムへの信頼が高まることがわかりました[2]

参加者を3つのグループに分けて信頼ゲームを行いました。信頼ゲームとは、相手に信頼を置くかどうかを決定し、その結果に基づいて報酬を得るというゲームです。1つ目のグループは他の人間とオンラインでゲームを行い、2つ目のグループはアルゴリズムと対戦し、3つ目のグループはアルゴリズムと対戦しながら他の人間がオンラインで観察している状況でゲームを行いました。

その結果、人間を相手にしたグループが最も協力的な行動を示しました。一方、アルゴリズムを相手にしたグループでは信頼が低下し、協力的な行動も減少しました。しかし、アルゴリズムと対戦しながら他の人間が見ている状況では、アルゴリズムへの信頼が向上し、協力的な行動が増加しました。

人間の存在がアルゴリズムへの不信感を和らげる効果があるということです。「社会的存在感」がアルゴリズムとの相互作用に影響を与えているのです。

人間は他者の存在や社会的環境に影響を受けやすい生き物です。他の人が見ているという状況では、私たちは社会的な規範や期待に応えようとします。社会的存在感は、アルゴリズムとの関わりにおいても働き、信頼感を高めます。

他者の存在は、アルゴリズムとの関係に人間的な要素を加えます。これによって、冷淡で機械的に感じられがちなアルゴリズムに対して、親近感や信頼感を抱きやすくなるのかもしれません。

アルゴリズムへの信頼が任せる行動の要因に

私たちは、様々な場面でアルゴリズムの力を借りています。しかし、人々がどのような条件下でアルゴリズムを信頼し、タスクを任せるのかについては、まだ十分に理解されていません。

これに対して、人々がアルゴリズムにタスクを委ねる際の要因について、興味深い発見があります[3]。参加者に多重物体追跡(MOT)タスクという、画面上の複数のターゲットを視覚的に追跡する課題を行ってもらいました。参加者は、このタスクの一部または全部をコンピュータ・パートナーに任せることができ、すべてのタスクを委ねた場合は別のボーナスタスクに挑戦できるという設定でした。

研究の結果、アルゴリズムへの信頼感が、タスクを任せる行動の重要な要因であることが明らかになりました。コンピュータの能力が完ぺきであると事前に知らされた場合、参加者はタスクを完全に任せる傾向が強くなりました。

人々がアルゴリズムを信頼するかどうかは、単にアルゴリズムの性能だけでなく、その性能に関する情報がどのように伝えられるかにも依存することを示しています。アルゴリズムの能力を明確に伝えることが、人々の信頼感と利用意欲を高める上で重要だと考えられます。

また、この研究では、ボーナスタスクの有無や金銭的インセンティブは、任せる行動にそれほど大きな影響を与えないことも分かりました。外的な報酬よりも、アルゴリズムへの信頼感そのものが、人々の行動を決定することを示唆しています。

透明性がAIへの信頼感と不快感を高める

AIがどのように決定を下すのか、その過程を理解することは、AIへの信頼を築く上で欠かせない要素だと考えられています。しかし、研究によると、AIの透明性が必ずしも単純にAIへの信頼を高めるわけではないことが明らかになりました[4]

AIの意思決定の透明性が従業員のAIに対する信頼にどのような影響を与えるかを調査しました。研究者たちは、AIが主要な意思決定者である職場のシナリオを設定し、参加者を「透明性がある」グループと「透明性がない」グループに分けて実験を行いました。

結果は予想外のものでした。AIの意思決定プロセスが透明である場合、確かに従業員はAIの有効性をより強く認識し、その結果としてAIへの信頼が高まることが確認されました。透明なプロセスがAIの能力を明確に示し、従業員がその判断を信頼しやすくなるためだと考えられます。

しかし同時に、透明性が高まることで、従業員の一部がAIに対して不快感を覚える可能性があることも明らかになりました。この不快感は、AIが人間に近い決定を行うことで、人間の仕事を脅かしていると感じるために生じるものです。AIの透明性が高まるほど、AIが人間の能力に匹敵する、あるいはそれを超え得ることが明確になり、それが従業員の不安や不快感を引き起こすのです。

この発見は、AIの透明性と人間の心理の間に複雑な関係があることを示しています。一方では、透明性がAIの有効性への認識を高め、信頼を築く助けとなります。しかし他方では、その同じ透明性が、AIへの不安や脅威の感覚を強めるのです。

この結果は、職場にAIを導入する際の示唆を提供しています。単にAIの意思決定プロセスを透明にすれば良いわけではなく、従業員の心理的反応を考慮した慎重なアプローチが必要だということです。

例えば、AIの透明性を高める際には、同時に人間の役割の重要性や、AIと人間の協働の利点について強調することが有効かもしれません。AIが人間の仕事を奪うのではなく、人間の能力を補完し、より効率的で創造的な仕事を可能にするツールであることを伝えることが大事でしょう。

また、AIの透明性を段階的に高めていく方法も考えられます。急激な変化は従業員の不安を高めるため、徐々にAIの意思決定プロセスを開示していくアプローチがあり得ます。

さらに、AIの透明性を高める際には、従業員のフィードバックを取り入れると良いでしょう。従業員がAIの意思決定プロセスについて疑問や懸念を持つ場合、それに丁寧に対応することで、信頼関係を築くことができます。

最良の選択をしようとする人は推薦を嫌がる

多くのサービスでアルゴリズムによる推薦システムが使われています。これらのシステムは、私たちの好みや過去の行動を分析し、選択肢を提案してくれます。しかし、興味深いことに、最良の選択を追求する傾向が強い人々、いわゆる「マキシマイザー」は、こうしたアルゴリズムによる推薦に抵抗を示すことが、最新の研究で明らかになりました[5]

具体的には、マキシマイザーはアルゴリズムが提案する選択肢に対して反発を示し、その結果、アルゴリズムを利用する意欲が減少しました。

マキシマイザーにとって、選択行為そのものが重要です。自分で選択をコントロールすることが、自分のアイデンティティや満足感に直結しています。アルゴリズムが提案する選択肢は、このような自己決定のプロセスを奪われたと感じさせる可能性があります。

また、マキシマイザーは、自分が最良の選択をしているという確信を得たいと考えています。アルゴリズムの推薦は、この確信を得るプロセスを短縮してしまいます。自分で全ての選択肢を吟味し、最良の選択をしたという満足感が得られにくくなるのです。

マキシマイザーは、アルゴリズムの推薦が自分の個別的な状況や好みを十分に反映していないのではないかと疑います。自分の選択基準が複雑で個別的であるため、アルゴリズムがそれを完全に理解し、最適な推薦を行うことは難しいと考えているのかもしれません。

特に考えさせられるのは、この傾向がオートテリックな選択の場合に顕著だという点です。例えば、趣味で選ぶ映画や音楽、楽しみのために選ぶ食べ物などの選択では、選択プロセス自体が楽しみや意味を持ちます。このような場合、アルゴリズムの推薦は、その選択の楽しみや意味を奪ってしまうと感じられます。

マキシマイザーのようなユーザーを対象とする場合、単に最適な選択肢を提案するだけでは十分ではない可能性があります。例えば、推薦システムに一定の選択の余地を残すことが有効かもしれません。アルゴリズムが複数の選択肢を提示し、最終的な選択はユーザーに委ねるというアプローチです。

この知見は、アルゴリズムによる推薦が必ずしも全ての人に受け入れられるわけではなく、特に選択に強いこだわりを持つ人々にとっては、むしろ不快感や抵抗感を引き起こす可能性があることを示しています。

以上のように、アルゴリズムへの信頼は、技術的な側面だけでなく、人間の心理や行動、そして社会的な文脈を考慮に入れた複雑な問題であることが明らかになっています。

脚注

[1] De Freitas, J., Agarwal, S., Schmitt, B., and Haslam, N. (2023). Psychological factors underlying attitudes toward AI tools. Nature Human Behaviour, 7(11), 1845-1854.

[2] Liefooghe, B., Min, E., and Aarts, H. (2023). The effects of social presence on cooperative trust with algorithms. Scientific Reports, 13(1), 17463.

[3] Wahn, B., and Schmitz, L. (2024). A bonus task boosts people’s willingness to offload cognition to an algorithm. Cognitive Research: Principles and Implications, 9(1), 24.

[4] Yu, L., and Li, Y. (2022). Artificial intelligence decision-making transparency and employees’ trust: The parallel multiple mediating effect of effectiveness and discomfort. Behavioral Sciences, 12(5), 127.

[5] Kim, K. (2023). Maximizers’ reactance to algorithm-recommended options: The moderating role of autotelic vs. instrumental choices. Behavioral Sciences, 13(11), 938.


執筆者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。

#伊達洋駆

アーカイブ

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています