ビジネスリサーチラボ

open
読み込み中

コラム

アルゴリズムの客観性神話:技術的判断に潜む人間性の影

コラム

スマートフォンのアシスタント、ネット通販のおすすめ機能、SNSのタイムライン、自動運転車の判断。私たちの生活の中には、さまざまな場面でアルゴリズムが活躍しています。これらの便利で効率的な技術は、私たちの暮らしを豊かにしてくれますが、一方で人間の考え方や行動にも影響を与えています。

しかし、アルゴリズムと人間の関係は「便利な道具とその利用者」という単純な図式では説明しきれません。そこには複雑な心理的な作用があり、想定外の結果を生むこともあります。例えば、AIの判断を信じすぎたり、逆に不信感を抱きすぎたりすることがあります。AIとどう関わるかによって、私たちの道徳観や倫理観にも影響が出る可能性があります。

本コラムでは、最新の研究を基に、アルゴリズムと人間の関係について掘り下げていきます。私たちはアルゴリズムの判断をどのように受け止め、どう活用しているのでしょうか。アルゴリズムとの関わりが私たちの道徳観にどのような影響を与えるのでしょうか。そして、アルゴリズムのバイアスをどのように認識し、対処しているのでしょうか。

これらの問いについて考えることは、アルゴリズムがますます社会に浸透し、重要な決定に関与する機会が増えている今、重要です。私たちがアルゴリズムとどう向き合い、どのように設計し運用していくべきかを検討する上で、重要な示唆を提供してくれます。

人間が調整しても精度は上がらない

アルゴリズムによる意思決定支援が普及している中で、人間が関与することでどのような影響が出るのかという問題は、研究テーマとなっています。とりわけ、人間がアルゴリズムの判断に介入することで、意思決定の精度が向上するのか、逆に悪影響があるのかという点に研究者が関心を寄せています。

ある研究を通じて、アルゴリズムによる判断に人間が介入することで、システムの受容度が高まる一方、意思決定の精度が低下することがわかりました[1]

研究では、参加者に生徒のプロフィールを基に数学テストの成績を予測するタスクが与えられました。参加者には、アルゴリズムや他の参加者からの推奨を受け、それを調整するかそのまま受け入れるかの選択肢が与えられました。

結果的に、人間が介入できる条件では、アルゴリズムの推奨を好む傾向が強まりました。参加者は自分の判断が反映されることで、アルゴリズムに対する信頼感が増し、システム全体への安心感が高まったのです。

しかし、人間が介入することで意思決定の精度が低下しました。大きな誤差を含む推奨を修正することが少なく、修正しても誤差が小さくならないケースが観察されました。この現象の背景には、いくつかの要因が考えられます。

まず、人間は「自動化バイアス」の影響を受けやすいということが挙げられます。自動化バイアスとは、機械が自動で行う判断を過度に信頼してしまうことです。参加者はアルゴリズムの推奨を信じすぎて、必要な修正を怠る可能性があります。

また、アルゴリズムが扱う大量のデータや複雑な計算を人間が短時間で正しく評価し、修正することは非常に難しいため、結果として判断の精度が下がることもあるでしょう。

さらに、人間の判断には様々なバイアスが影響します。例えば、確証バイアス(自分の信念に合う情報を重視し、それに反する情報を無視すること)や利用可能性ヒューリスティック(思い出しやすい情報を重視すること)などが、適切な判断を妨げる可能性があります。アルゴリズムの推奨を調整する際に、これらのバイアスが働いて、結果として精度が低下したのかもしれません。

この研究は、人間とアルゴリズムの協働において、人間の介入が必ずしも良い結果を生むとは限らないことを意味しています。場合によっては、性能を低下させることもあります。しかし、人間の介入がシステムの受容度を高める効果があることも明らかになりました。

アルゴリズムの誤った助言は悪影響

アルゴリズムが様々な分野で意思決定の支援に使われる中、アルゴリズムが提供する助言が人間にどのような影響を与えるのかは重要です。アルゴリズムが誤った助言をした場合、人間の判断にどのような影響が生じるのかについて、興味深い研究が行われています。

人事選考の場面でアルゴリズムの助言がどのように人々の意思決定に影響するかを調べました[2]。研究においては、参加者が自動車会社の品質管理責任者にふさわしい候補者を選ぶというタスクが与えられました。参加者にはアルゴリズムからの推奨または他の参加者からの推奨が提供され、それに基づいて判断を行うよう求められました。

その結果、アルゴリズムによる誤った助言は人々の判断に悪影響を及ぼすことが明らかになりました。具体的には、アルゴリズムが誤った助言をしても、参加者はそれを否定せず、そのまま信じてしまう傾向が見られました。アルゴリズムが間違った判断を提示しても、人々はそれを批判せず、素直に受け入れてしまうのです。

この現象にはいくつかの理由があります。まず、前述の自動化バイアスが関係しています。人々はアルゴリズムが大量のデータを処理し、客観的な判断をしていると信じているため、その助言を疑わずに受け入れます。

また、権威への服従という心理的な要因も関係しているかもしれません。アルゴリズムは高度な技術を用いているため、その判断が正しいと考えてしまいがちです。これは、専門家や権威者の意見を無批判に受け入れてしまう心理に似ています。

さらに、アルゴリズムの助言を批判的に評価するには多くの情報を処理し、複雑な思考を要しますが、人間の認知能力には限界があるため、アルゴリズムの助言をそのまま受け入れる方が楽だと感じてしまうということも考えられます。

研究では、アルゴリズムの助言がなぜそのような判断をしたのかを説明する機能が、誤った助言への依存を減らすかどうかも調べられましたが、アルゴリズムが判断の理由を説明したとしても、誤った助言への依存は有意に減少しませんでした。

アルゴリズムの透明性や説明可能性を高めるだけでは不十分であり、アルゴリズムの助言を批判的に評価する能力を人間側が身につけることが必要であることを表しています。

アルゴリズムの助言は便利で有用ですが、鵜呑みにせず、批判的に評価する姿勢が必要です。特に重要な意思決定の場面では、アルゴリズムの助言を参考にしつつも、最終的な判断は人間が責任を持って行うべきでしょう。

AIやアルゴリズムとのやりとりで非道徳的に

アルゴリズムが私たちの生活に深く浸透する中で、それらとの関わりが人間の道徳性にどう影響を与えるかという問題があります。人間がアルゴリズムと直接やり取りする場面では、道徳的な行動に変化が見られることが、最近の研究でわかってきました。

小売業における消費者の道徳的行動に注目し、AIやセルフレジなどの技術との関わりがどのような影響を与えるかを調査しました[3]。研究では、レストランやスーパーマーケットでの支払い場面を想定し、人間のスタッフ、AI、セルフレジのそれぞれと関わる際の消費者の行動を比較しました。

結果としては、消費者は人間のスタッフと比べ、AIやセルフレジに対して非道徳的な行動をとりやすいことがわかりました。例えば、請求書の誤りを報告する意欲が低くなったり、誤った請求を受けても罪悪感が薄れたりする傾向が見られました。

人は機械的な存在に対して道徳的な基準を緩めがちです。人間のスタッフに対しては、社会的な規範や倫理観に基づいて行動しようとしますが、AIやセルフレジに対してはそうした意識が弱まります。

また、AIやセルフレジは感情を持たないと認識されているため、そうした存在に対しての行動が他者に与える影響を考えにくくなります。人間のスタッフに対しては、相手の感情や迷惑を考慮しますが、機械に対してはそのような配慮が働きにくいのです。

さらに、AIやセルフレジとのやり取りでは、匿名性が高まります。人間のスタッフと直接やり取りをする場合には、自分の行動が他者に観察されているという意識がありますが、機械との取引ではその意識が薄れ、非道徳的な行動を取りやすくなるかもしれません。

この研究では、AIが「人間らしさ」を持つことで道徳的な行動が促進されることもわかりました。AIが人間に近いと感じられるほど、消費者はより道徳的に行動しました。例えば、AIに名前が与えられている場合、誤った請求を報告する確率が高くなり、報告しなかった場合の罪悪感も強まりました。

アルゴリズムのバイアスを過大評価

アルゴリズムの公平性や中立性についての議論が進む中、人々がこれらのシステムのバイアスをどのように認識しているのでしょうか。人々がアルゴリズムのバイアスを過大評価する傾向があることが明らかになっています。

ある研究において、人々が自分自身のバイアスとアルゴリズムのバイアスをどう比較するかを調査しました[4]。研究者たちは、参加者にAirbnbのリスティングやUberの運転手の評価など、実際の判断を行わせた後、その判断に基づいて訓練されたアルゴリズムがどのような評価を下すかを比較させました。

参加者は自分の判断よりもアルゴリズムの判断の方が、バイアス(例:人種、性別、外見に基づく偏見)が強く反映されていると感じました。人々は自分自身のバイアスを過小評価し、アルゴリズムのバイアスを過大評価したということです。

この現象の背景には、主に二つの心理的なプロセスが関与していると考えられます。

一つ目は「バイアスの盲点」です。自分自身の判断過程に内省的にアクセスできるため、自分の判断にはバイアスがないと感じがちです。一方、アルゴリズムの判断過程には直接アクセスできないため、そこにバイアスを見出しやすいのです。自分のバイアスには気づかず、他者のバイアスを強く感じるという現象です。

二つ目は「動機づけられた推論」です。これは、自分を良く見せたいという動機から、自分が偏見に基づいて判断していないと信じたいことを指します。そのため、自分がアルゴリズムに教えた内容が偏っている可能性を過小評価し、代わりにアルゴリズムがバイアスを持っていると考えやすくなります。

アルゴリズムの公平性について議論する際には、人間の認知バイアスも考慮に入れる必要があるでしょう。アルゴリズムのバイアスを指摘するだけでなく、人間自身のバイアスについても同時に考えることが重要です。いずれにせよ、バイアスの問題は、アルゴリズムの技術的な側面だけでなく、それを利用する人間の心理的側面も含めて考える必要があります。

客観性という必ずしも正しくない信念

アルゴリズムに対する認識を探る中で、アルゴリズムの「客観性」に対する信念が、潜在的な差別を正当化し、バイアスを見過ごす結果をもたらす可能性が指摘されています。

人事選考プロセスにおいて、アルゴリズムによる意思決定が性別や人種に基づく格差をもたらす場合でも、それが人間による意思決定よりもバイアスが少ないと認識されることがわかりました[5]。アルゴリズムによる判断は、たとえ差別的な結果をもたらしていても「客観的」で「公平」だと見なされやすいのです。

この現象の背景には、アルゴリズムが個人の特性を除外し、全員を平等に扱っているという誤った信念があります。人々は、アルゴリズムがデータに基づいて一定のルールを適用し、判断を行うため、感情や偏見、無意識のバイアスが入り込む余地がないと考えてしまいます。

しかし実際には、アルゴリズムもバイアスを含む可能性は十分にあります。例えば、アルゴリズムの学習に使用されるデータ自体に偏りがある場合、そのバイアスがアルゴリズムの判断に反映されます。アルゴリズムの設計段階で人間の価値観が反映される可能性もあります。

にもかかわらず、アルゴリズムの「客観性」という信念が強く働くことで、アルゴリズムが生み出す差別的な結果があたかも公正なものであるかのように認識される危険性があります。この認識は、社会的な不平等を見過ごし、さらには正当化してしまうかもしれません。

注目すべきは、差別を受ける可能性のある人々、特にマイノリティのメンバーが、人間の判断よりもアルゴリズムの判断を好むという発見です。人間が持つ潜在的な偏見を回避できると考えているためです。マイノリティの人々もまた、アルゴリズムが個人の特性を除外し、公平に扱ってくれると期待しているのです。

しかし、この期待は現実とは一致しないこともあり得ます。アルゴリズムにも偏りが存在し、その偏りが見過ごされることで、不平等がさらに助長されることも想定されます。

 脚注

[1] Sele, D., and Chugunova, M. (2024). Putting a human in the loop: Increasing uptake, but decreasing accuracy of automated decision-making. Plos One, 19(2), e0298037.

[2] Cecil, J., Lermer, E., Hudecek, M. F., Sauer, J., and Gaube, S. (2024). Explainability does not mitigate the negative impact of incorrect AI advice in a personnel selection task. Scientific Reports, 14(1), 9736.

[3] Giroux, M., Kim, J., Lee, J. C., and Park, J. (2022). Artificial intelligence and declined guilt: Retailing morality comparison between human and AI. Journal of Business Ethics, 178(4), 1027-1041.

[4] Celiktutan, B., Cadario, R., and Morewedge, C. K. (2024). People see more of their biases in algorithms. Proceedings of the National Academy of Sciences, 121(16), e2317602121.

[5] Bonezzi, A., and Ostinelli, M. (2021). Can algorithms legitimize discrimination? Journal of Experimental Psychology: Applied, 27(2), 447-459.


執筆者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。

#伊達洋駆

アーカイブ

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています