ビジネスリサーチラボ

open
読み込み中

コラム

AI時代の意思決定:アルゴリズムへの過信と不信

コラム

私たちの毎日の生活や仕事には、決めなければならないことがたくさんあります。例えば、朝、何を着るかを選ぶことや、仕事での大事なプロジェクトの方針を決めることなど、私たちは選択をしています。

最近、この決定のプロセスに「アルゴリズム」を用いるケースが増えています。アルゴリズムを使った意思決定支援は、私たちの生活の様々な場面に入り込んでいます。例えば、オンラインショッピングで「おすすめ」の商品を教えてくれたり、SNSで「興味がありそう」な投稿を表示したり、企業の採用活動でも活用されています。これらのシステムは、大量のデータを処理し、人間には難しい計算を行い、私たちの意思決定を手助けしてくれます。

しかし、このアルゴリズムと、私たちはどのように付き合っていけばいいのでしょうか。アルゴリズムの判断をいつも信じるべきでしょうか。それとも、人間の直感や経験を優先するべきでしょうか。

本コラムでは、最新の研究結果を紹介しながら、このことについて考えていきます。アルゴリズムがどんなに優れていても、人はすべてを任せるわけではない理由、採用担当者がアルゴリズムより人を信じる理由、難しい課題に直面したときにアルゴリズムの助言を求める心理など、興味深い発見をお届けします。

アルゴリズムが優れていても、人はすべてを任せない

人工知能(AI)の進歩により、さまざまな分野でアルゴリズムを使った意思決定支援が導入されています。しかし、人間はこれらのシステムを完全に信じ、すべての判断を任せるわけではありません。人間がアルゴリズムにすべてを任せることをためらう心理的なメカニズムが明らかになっています。

ある研究において、認知的に難しいタスクにおいて、人々がどの程度アルゴリズムにタスクを任せるかを調査しました[1]。実験では、視覚的な注意を要する、複数の物体を追跡する課題(MOT課題)を使い、参加者がコンピュータと協力してタスクを行う場合の行動を分析しました。

実験結果としては、参加者は自分の負担を軽減するために、いくつかのターゲットをコンピュータに任せる傾向が見られました。しかし、すべてのターゲットをコンピュータに任せるわけではなく、一部のターゲットを自分で追跡する選択をしました。

コンピュータが完璧にターゲットを追跡できると事前に知らされていても、参加者は同様に一部のターゲットを自分で追跡することを選びました。これは、すべてをコンピュータに任せることに対する心理的な抵抗があることを示唆しています。

このような行動の背後には、人は自分がタスクの一部をコントロールしているという感覚を持ちたいという心理があります。すべてを他者(この場合はコンピュータ)に任せることで、自分の役割や存在感が薄れると感じ、それを避けるために一部を自分で引き受けるのです。

コンピュータが完璧だと知らされていても、「もし何か問題が起きたらどうしよう」という不安を完全には拭えません。そのため、自分でもいくつかのターゲットを追跡するのかもしれません。

さらに、すべてを他者に任せると、結果がどうであれ、自分には何もできなかったという感覚が生じます。これは心理的に不快であるため、人は自分でもタスクを行うことで、この不快感を避けようとすると考えられます。

人は与えられたタスクに対して責任を感じます。すべてを任せてしまうと、うまくいかなかった場合に「自分が何もしなかった」という後悔や罪悪感を抱く可能性があるため、一部を自分で追跡することでそのリスクを減らそうとするのかもしれません。

採用担当はアルゴリズムより人間を信じる

技術の進歩により、採用プロセスでもアルゴリズムを使った意思決定支援が活用されるようになっています。しかし、これらのシステムが人間の採用担当者にどのように受け入れられ、利用されているかについては、まだ十分に理解されていません。

研究においては、採用担当者がアルゴリズムよりも人間の判断をより信頼することが明らかになりました[2]694人の採用担当者を対象に、履歴書のスクリーニングにおいてアルゴリズムによる推薦と人間の専門家による推薦の信頼性や影響を比較しました。実験では、参加者に架空の履歴書を評価させ、その際にアルゴリズムまたは人間の専門家からの推薦を提供しました。

その結果、採用担当者は、アルゴリズムによる推薦よりも人間の専門家による推薦に対して高い信頼感を示しました。この傾向は、推薦の一貫性や個人の性格特性によっても影響を受けることが分かりました。

特に注目したいのは、推薦の一貫性が結果に与える影響です。一貫性のないアルゴリズムの推薦は、不適切な履歴書を好む傾向を引き起こしました。アルゴリズムの推薦が一貫性を欠く場合、採用担当者はその推薦を信頼せず、むしろ逆の判断をする傾向があったのです。一方、人間の専門家による一貫性のない推薦は、それほど大きな影響を与えませんでした。

採用プロセスのような主観的で複雑な判断が求められる場面では、人間の判断がより信頼できると感じられるようです。これは「アルゴリズム嫌悪」と呼ばれる現象の一例で、人々が自動化されたシステムに対して抱く不信感から生じます。

人間の判断には、経験や直感、文脈を考慮した柔軟性があると感じられます。採用担当者は、候補者の履歴書を評価する際に、単純なスキルや経験だけでなく、その人の潜在的な能力や組織との適合性など、数値化しにくい要素も考慮に入れます。このような複雑な判断において、人間の専門家の意見がより信頼されるということです。

アルゴリズムの推薦が一貫性を欠く場合、その信頼性が大きく損なわれる点も興味深い発見です。アルゴリズムは一般的に「正確」であると期待されているため、その期待に反して一貫性がない場合、採用担当者はアルゴリズムの結果に対して強い不信感を抱きます。

これは、人間の専門家の判断に対する態度とは対照的です。人間の判断には元々ある程度の揺らぎがあることが想定されているため、一貫性の欠如がそれほど大きな問題にならないのかもしれません。

加えて、個人の性格特性がアルゴリズムへの信頼に影響を与えることも明らかになりました。例えば、外向性が高い人はアルゴリズムを信頼しやすい一方、神経症傾向が強い人はアルゴリズムに対して不信感を抱きやすい傾向がありました。これは、個人の性格が新しい技術やシステムに対する態度に影響を与えることを表しています。

アルゴリズムを用いた意思決定支援システムを導入する際には、単にシステムの精度を高めるだけでなく、人間の採用担当者がそのシステムをどのように受け入れ、信頼するかを考慮する必要があります。

難易度の高いタスクでアルゴリズムの助言を選ぶ

人間がアルゴリズムの助言をどのように使うかは、タスクの難しさによって変わることが研究を通じて見えてきました。難しいタスクに直面したとき、人々はアルゴリズムの助言をより積極的に取り入れる傾向があります。

1500人以上の参加者に、正確な答えが求められる課題に取り組んでもらい、アルゴリズムからの助言と他人の平均的な判断(社会的助言)のどちらを信頼するかを比較しました[3]。実験では、画像に映る人物の数を推測するという課題を使い、簡単なものから非常に難しいものまで様々な難易度が設定されました。

研究の結果、タスクが難しくなるほど、参加者はアルゴリズムの助言を信頼しました。参加者が両方の助言を同時に比較できる状況でも、難しいタスクではアルゴリズムの助言がより信頼されました。

難しいタスクに直面したとき、人々は自分の判断に対する自信が低くなります。そのような状況では、客観的かつ計算に基づいた助言を提供するアルゴリズムが、信頼できる選択肢として認識されるのです。

一方、社会的助言(他の人の判断)は、主観的な要素が含まれる可能性があるため、特に難しいタスクでは信頼性が低く見られがちです。人々は、複雑な状況下では感情や直感よりも、データに基づいた判断を重視するのかもしれません。

アルゴリズムの助言が意図的に不正確だった場合の参加者の反応は考えさせられます。研究では、アルゴリズムからの不正確な助言は、社会的助言よりも無視されることが分かりました。これは、アルゴリズムへの信頼が強いことを示唆しています。

参加者は、アルゴリズムが間違っている場合でも、「アルゴリズムは一時的に間違っているだけだ」と考えました。アルゴリズムの一回の失敗が、その信頼性全体を損なうわけではないのです。これに対して、社会的助言が間違っていた場合、その信頼性がより簡単に崩れました。

複雑で難しい意思決定を行う場面では、アルゴリズムの助言が非常に有効に活用される可能性があります。高度な専門知識と正確な計算が求められる分野では、アルゴリズムの支援がより積極的に受け入れられるでしょう。

しかし、注意も必要です。難しいタスクでアルゴリズムの助言を過度に信頼することで、人間の判断力や批判的思考能力が低下する可能性があります。また、アルゴリズムにバイアスや誤りがある場合、それが見つかりにくくなる危険性もあります。

自分の能力に不安を抱くとアルゴリズムに頼る

人間がアルゴリズムに頼る理由や状況について、自分の能力に対する不安や自信の欠如が、アルゴリズムへの依存度を高める可能性があることが分かりました。

参加者に二者択一の判断課題を与え、必要に応じてアルゴリズムの推薦を利用できる状況を作った研究があります[4]。この実験では、アルゴリズムの精度が70%に設定されており、参加者は自分の判断力とアルゴリズムの精度を比較しながら課題に取り組むことができました。

研究の結果、参加者はタスクの難しさに応じてアルゴリズムを選んで使いました。参加者が自分の能力に不安を感じると、アルゴリズムに頼る傾向が強まりました。

簡単な課題では参加者は自分の判断を優先し、アルゴリズムの推薦を無視しました。簡単なタスクでは自分の判断力に自信があり、外部の助言を必要としないと感じたためだと考えられます。

一方で、難しい課題に直面すると、参加者は自分の判断が不確かだと感じ、アルゴリズムの推薦に従いました。自己評価の低下とリスク回避の心理が働いた結果でしょう。難しいタスクでは、自分の能力に対する不安が高まり、失敗を避けるためにアルゴリズムに頼る方が安全だと判断したのかもしれません。

参加者が自分のパフォーマンスを再評価する機会があると、アルゴリズムへの依存度がより適切に調整されることが分かりました。自分の能力をより正確に把握できるようになると、アルゴリズムに頼るべきかどうかを適切に判断できるようになったのです。

この研究は、人間とアルゴリズムの関係において自己評価が重要であることを示しています。自分の能力に対する不安や自信の欠如が、必要以上にアルゴリズムに頼る原因となることがあります。一方で、適切なフィードバックや訓練によって自己評価が改善されれば、より効果的にアルゴリズムを活用できる可能性もあります。

アルゴリズムへの信頼が利用に影響

アルゴリズムを使った意思決定支援の利用において、アルゴリズムへの信頼が影響を与えることが明らかになっています。とりわけ、人事マネジメントの分野での調査結果は、アルゴリズムに対する信頼や不信が、その利用にどのように影響するかを示しています[5]

従業員の昇進や解雇の決定を行う際に、アルゴリズムを使うかどうかの判断に焦点を当てました。調査では、288人の若手専門職と大学院生を対象に、仮想の会社で従業員の業績を評価し、昇進や解雇を決定する役割を与えました。

研究の結果、アルゴリズムへの信頼度が、その利用に影響を与えることが分かりました。特に興味深いのは、アルゴリズムの事前テストが可能な場合と、意思決定の種類(昇進か解雇か)によって、アルゴリズムの使用傾向が変わったことです。

具体的には、アルゴリズムの事前テストが可能な場合、参加者はアルゴリズムを使う可能性が低くなりました。これは、事前にアルゴリズムのパフォーマンスを確認することで、その精度や欠点が明らかになり、アルゴリズムへの信頼が低下したためだと考えられます。

また、昇進と解雇という異なるタイプの意思決定において、当初の予想では、解雇のような「不快な」決定をアルゴリズムに委ねる傾向が強いのではないかと考えられていましたが、実際の結果はそれほど明確ではありませんでした。

むしろ、昇進か解雇かという意思決定の種類よりも、アルゴリズムの信頼度やテスト状況が、その利用に影響を与えることが分かりました。参加者は単に責任を回避するためにアルゴリズムを利用するのではなく、アルゴリズムのパフォーマンスや信頼性を重視していたと言えます。

本コラムでは、アルゴリズムを使った意思決定に関する研究成果を紹介しながら、人間とアルゴリズムの関係について検討してきました。アルゴリズムを使った意思決定は、私たちに大きな可能性をもたらす一方で、新たな課題も提示しています。これらの課題に適切に対応し、人間とアルゴリズムの調和のとれた関係性を築いていくことが、これからの社会の重要な課題となるでしょう。

脚注

[1] Wahn, B., Schmitz, L., Gerster, F. N., and Weiss, M. (2023). Offloading under cognitive load: Humans are willing to offload parts of an attentionally demanding task to an algorithm. Plos One, 18(5), e0286102.

[2] Lacroux, A., and Martin-Lacroux, C. (2022). Should I trust the artificial intelligence to recruit? Recruiters’ perceptions and behavior when faced with algorithm-based recommendation systems during resume screening. Frontiers in Psychology, 13, 895997.

[3] Bogert, E., Schecter, A., and Watson, R. T. (2021). Humans rely more on algorithms than social influence as a task becomes more difficult. Scientific Reports, 11(1), 8028.

[4] Liang, G., Sloane, J. F., Donkin, C., and Newell, B. R. (2022). Adapting to the algorithm: How accuracy comparisons promote the use of a decision aid. Cognitive Research: Principles and Implications, 7(1), 14.

[5] Maasland, C., and Weismuller, K. S. (2022). Blame the machine? Insights from an experiment on algorithm aversion and blame avoidance in computer-aided human resource management. Frontiers in Psychology, 13, 779028


執筆者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。

#伊達洋駆

アーカイブ

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています