ビジネスリサーチラボ

open
読み込み中

コラム

アルゴリズム嫌悪の心理学:テクノロジーとの葛藤を紐解く

コラム

AI技術が進展し、さまざまな分野で人間の能力を超える成果を上げています。しかし、技術が広まる中で、「アルゴリズム嫌悪」という現象が注目されています。アルゴリズム嫌悪とは、アルゴリズムが人間よりも優れた結果を出せる場合でも、あえてアルゴリズムの使用を避け、人間の判断を選ぶ傾向のことです。

この現象は、新しい技術に対する抵抗感というだけでなく、人間の心理や意思決定の過程に深く根ざした複雑な問題です。本コラムでは、アルゴリズム嫌悪に関する研究を紹介し、人々がなぜアルゴリズムを避けるのか、またどのような状況でその傾向が強まるのかを探っていきます。

アルゴリズム嫌悪を理解することは、AIを組織にうまく導入するために重要です。人々の心理や価値観を考慮に入れることで、技術がより受け入れられやすく、効果的に活用されるようになります。

不確実性が高いとアルゴリズムを使わない

人々は不確実な状況に直面すると、アルゴリズムを使うことを避けます。この現象を説明する研究が行われています[1]

研究では、人々が予測の誤差に対して「鈍感」になることが明らかになりました。予測がわずかに外れた場合には敏感に反応しますが、予測が大きく外れた場合には、逆にその誤差に鈍感になるということです。

例えば、天気予報を考えてみましょう。曇りと予報されていたのに小雨が降った場合、人々は予報の誤りを強く意識しますが、晴れと予報されていたのに大雨が来た場合には、その違いが大きいにもかかわらず、反応はそれほど敏感ではありません。

この「鈍感さ」が、不確実な状況でアルゴリズムが避けられる理由の一つです。不確実性が高い場合、予測の誤差が大きくなりますが、人々はこの大きな誤差に対して鈍感になるため、安定した予測を提供するアルゴリズムよりも、時折大成功を収める可能性のある人間の判断を好みます。

また、不確実な状況では、人々は「完璧な答え」を求める傾向があります。アルゴリズムは平均的に高い精度を示しますが、人間の判断には時折「大当たり」を引き当てる可能性があります。この「大当たり」への期待が、人々にリスクの高い人間の判断を選ばせる要因となっています。

アルゴリズムの道徳的判断に人は嫌悪する

アルゴリズムに対する嫌悪感は、特に道徳的な判断が必要な場面で強くなります。人々が機械による道徳的判断に強い抵抗感を抱くことが明らかになっています[2]。この抵抗感は「機械には心がない」という認識に根ざしているという点が興味深いところです。

自動運転車が事故を回避するために乗員を犠牲にするべきかどうかという判断を考えてみましょう。多くの人々は、このような重大な判断をアルゴリズムに任せることに強い不安を感じます。なぜなら、アルゴリズムには感情や倫理観がないと考えるからです。

道徳的判断が必要な場面では、アルゴリズムがたとえ論理的に正しい判断を下せたとしても、人々はその判断を受け入れがたいと感じます。

研究者たちは、アルゴリズム嫌悪を和らげる方法も探りました。例えば、アルゴリズムを完全な意思決定者ではなく、助言者として位置づけることで、人々の抵抗感がやや軽減することが分かりました。また、アルゴリズムに「経験」があると説明したり、専門知識を持っていることを強調したりすることで、多少の改善が見られました。

しかし、重要なことに、これらの方法を用いても、道徳的判断に関するアルゴリズム嫌悪を完全に解消することはできませんでした。人々の中にあるアルゴリズム嫌悪は根強いものです。

この研究は、AIを組織に導入する際の課題を浮き彫りにしています。特に倫理的に敏感な分野では、技術的な精度や効率性だけでなく、人々の心理的な抵抗感にも配慮する必要があります。

主観的なタスクではアルゴリズム嫌悪が起きる

アルゴリズムを避ける傾向は、タスクの性質によっても変わります。主観的な判断が必要なタスクでは、アルゴリズム嫌悪が強く現れることが明らかになりました[3]

様々なタスクを「主観的」と「客観的」に分類し、それぞれのタスクでアルゴリズムと人間のどちらが信頼されるかを調査しました。その結果、例えば、ジョークの面白さを予測したり、恋愛相手を推薦したりするような主観的なタスクでは、アルゴリズムよりも人間の判断が好まれました。

なぜ主観的なタスクでアルゴリズム嫌悪が起きるのでしょうか。まず、人々は主観的なタスクには人間特有の感性や直感が必要だと考えます。例えば、音楽や映画の推薦を考えてみましょう。これらの好みは個人差が大きく、文化的背景や気分によっても変わります。多くの人は、このような複雑な要素を考慮できるのは人間だけだと信じています。

次に、主観的なタスクでは、結果の評価も主観的になりがちです。例えば、ジョークの面白さを予測する場合、その結果を客観的に評価することは難しいように思われます。そのような状況では、アルゴリズムの性能を正確に判断することが難しくなり、結果として人間の判断に頼ります。

さらに、主観的なタスクでは、人々は「正解」よりも「納得できる答え」を求めます。例えば、贈り物を選ぶ際には、相手の好みや状況、贈り主との関係などを考慮する必要があります。このような複雑な判断はアルゴリズムには難しいと考え、人間の直感や経験に基づく判断を好みます。

研究者たちは主観的なタスクに対するアルゴリズム嫌悪を軽減する方法も検討しています。タスクを「より客観的」に再定義する方法です。また、アルゴリズムに感情的な要素を加えることで、主観的なタスクにおけるアルゴリズムの受容度が向上することも示されました。

これらの発見は、主観的なタスクでのアルゴリズム活用において、アルゴリズムの精度を高めるだけでなく、アルゴリズムがどのように提示されるかにも注意を払う必要があることを示唆しています。

例えば、映画推薦サービスを提供する場合、単に「あなたに合う映画」を提示するだけでなく、「あなたの過去の視聴履歴と好みのジャンルに基づいて、この映画をおすすめします」というように、推薦の理由を出すことで、ユーザーの信頼を得やすくなるかもしれません。

高精度でもアルゴリズムの失敗は許せない

アルゴリズム嫌悪の一つの側面として、人々がアルゴリズムの失敗に対して特に厳しい態度を取ることが挙げられます。研究によると、アルゴリズムが一度でも誤りを犯すと、それが全体的に人間よりも高い精度を持っていても、人々はそのアルゴリズムを信頼しなくなることが分かりました[4]

参加者にMBAプログラムでの成績予測や航空会社の乗客数予測などのタスクを与え、アルゴリズムと人間の予測者のどちらを選ぶかを調べました。アルゴリズムが人間よりも高い精度で予測を行っていても、一度でも失敗を見た参加者は、次回の予測で人間の予測者を選ぶ可能性が高くなりました。

人々はアルゴリズムに対して「完璧さ」を期待する傾向があります。アルゴリズムは機械的で論理的なプロセスに基づいているため、誤りを犯すべきではないという高い期待が生まれます。そのため、アルゴリズムが一度でも失敗すると、その期待が裏切られ、信頼を失うことになります。

他方で、人間の予測者に対しては、もともと「ミスをするのは当たり前」という認識があるため、失敗に対して比較的寛容なのかもしれません。人間は感情や経験に基づいて判断するため、誤りがあっても「人間だから仕方がない」と納得しやすいわけです。

また、アルゴリズムの失敗を目撃した際、人々は「機械は完璧であるべき」という期待と「ミスをした」という事実の間で葛藤を感じます。この不快な心理状態を解消するために、アルゴリズム全体に対する信頼を捨て、人間の予測に頼る傾向が強まるという心理的なメカニズムも考えられます。

結果が重大なものほどアルゴリズムを使わない

アルゴリズム嫌悪に関する研究では、意思決定の重大性がアルゴリズムの使用にどのように影響するかについて検討しています。意思決定の結果が重大であるほど、人々はアルゴリズムを使わず、人間の専門家を選ぶことが分かりました[5]

自動運転車の選択、医療診断の評価、刑事事件の判断など、結果の重大性が異なる6つの意思決定シナリオを用いて実験が行われました。その結果、重大な意思決定シナリオでは、アルゴリズムを選ばず、人間の専門家を選ぶことが明らかになりました。一方、料理のレシピ選択や天気予報といった比較的軽い意思決定では、アルゴリズムを選択しました。

理論的には、重大な決定ほど、それがアルゴリズムであっても人間であっても、高い精度を持つ方法を選んだほうが良いのですが、実験ではアルゴリズムの精度が高い場合でも、人間が選ばれました。

この背景として、例えば、責任回避の心理が働いている可能性があります。重大な決定で誤った選択をした場合、その結果に対する責任を感じることになります。人間の専門家を選ぶことで、失敗しても「人間だから仕方がない」と自分を慰めやすくなります。

信頼の問題も要因です。アルゴリズムは感情や直感に基づかないため、特に重大な状況では「冷たく」「機械的」な印象を受けるかもしれません。人間の専門家は、経験や直感に基づいて判断を下すため、より信頼しやすいと感じられるのです。

この現象は、組織において重要な影響を与える可能性があります。例えば、重大な意思決定の場面で、より精度の高いアルゴリズムが利用可能であっても、人々は人間の専門家の判断を好むかもしれません。今後、AI技術が進歩するほど、そのような事態は増えることが想定されます。

アルゴリズム嫌悪との付き合い方

本コラムでは、アルゴリズム嫌悪という現象について探ってきました。不確実な状況、道徳的判断が必要な場面、主観的なタスク、アルゴリズムの失敗に対する反応、そして意思決定の重大性という観点から、人々がなぜアルゴリズムを避け、人間の判断を好むのかを見てきました。

これらの研究から浮かび上がるのは、アルゴリズム嫌悪が単なる技術への抵抗ではなく、人間の心理や価値観に根ざした現象であるということです。人々は、感情や直感、責任感、信頼感といった人間特有の要素を重視し、それらがアルゴリズムには欠けていると感じています。

しかし、アルゴリズムがますます組織の中で活用されていく中で、この嫌悪感をどのように克服するかが重要な課題となってくるでしょう。

例えば、アルゴリズムの判断プロセスを透明にし、説明可能性を高めることで、人々の信頼を得やすくなる可能性があります。また、アルゴリズムと人間の協働モデルを構築することで、双方の長所を活かしたシステムを作り上げることができるでしょう。さらに、アルゴリズムの判断に「人間らしさ」を加えたり、教育を通じてアルゴリズムへの理解を深めたりすることも効果的かもしれません。

いずれにせよ重要なのは、技術の進歩と人間の心理の両方に配慮したアプローチを取ることです。アルゴリズムの性能を向上させるだけでなく、それをどのように人々に提示し、どのように組織に導入していくかを慎重に検討する必要があります。

アルゴリズム嫌悪の研究は、技術と人間の関係について洞察を提供してくれます。これらの知見を活かし、人々に受け入れられやすい形で技術を提供することが、今後の組織を形作る上で重要になるでしょう。

最後に、アルゴリズム嫌悪は必ずしも否定的な側面ばかりではないことを指摘しておきます。この現象は、人間の判断力や直感の価値を再認識させ、技術と人間の適切な役割分担について考えるきっかけを与えてくれます。

今後、アルゴリズムは多くの場面で人間を上回る性能を示していくでしょう。しかし、人間にしかできない領域も依然として存在します。アルゴリズム嫌悪は、そうした人間の独自性や価値を検討するための素材となります。

したがって、アルゴリズム嫌悪を完全になくすことを狙うより、アルゴリズム嫌悪から目を背けず、むしろそれを活かすというアプローチも有効でしょう。アルゴリズムと人間の適切な役割分担を考えることで、両者の長所を最大限に活かした組織体制を構築することができます。

脚注

[1] Dietvorst, B. J., and Bharti, S. (2020). People reject algorithms in uncertain decision domains because they have diminishing sensitivity to forecasting error. Psychological Science, 31(10), 1302-1314.

[2] Bigman, Y. E., and Gray, K. (2018). People are averse to machines making moral decisions. Cognition, 181, 21-34.

[3] Castelo, N., Bos, M. W., and Lehmann, D. R. (2019). Task-dependent algorithm aversion. Journal of Marketing Research, 56(5), 809-825.

[4] Dietvorst, B. J., Simmons, J. P., and Massey, C. (2015). Algorithm aversion: People erroneously avoid algorithms after seeing them err. Journal of Experimental Psychology: General, 144(1), 114-126.

[5] Filiz, I., Judek, J. R., Lorenz, M., and Spiwoks, M. (2023). The extent of algorithm aversion in decision-making situations with varying gravity. PLOS ONE, 18(2), e0278751.


執筆者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。

#伊達洋駆

アーカイブ

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています