ビジネスリサーチラボ

open
読み込み中

コラム

アルゴリズムと人間の協奏:AIを活用した新しい人事のかたち(セミナーレポート)

コラム

ビジネスリサーチラボは、202410月にセミナー「アルゴリズムと人間の協奏:AIを活用した新しい人事のかたち」を開催しました。

AI技術が発展し、人事にも変革をもたらしています。採用や評価、育成など、さまざまな場面でAIの活用が進んでいます。

一方で、その信頼性や倫理的な問題に悩む声も多く聞かれます。本セミナーでは、最新の研究知見をもとに、人事におけるAI活用の課題と可能性を探ります。

※本レポートはセミナーの内容を基に編集・再構成したものです。

はじめに

人工知能(AI)の急速な進歩は、社会に大きな変化をもたらしています。特に人事の分野では、採用、評価、配置などの判断プロセスにAIが使われるようになってきています。この技術の発展は、効率を上げ、公平な判断を実現するように見えます。

しかし、AIの導入は技術的な進歩だけではありません。これらの技術と人間の間に生まれる複雑な相互作用に注目する必要があります。AIを利用する私たち人間の心理が、予想外の形で、この相互作用に作用しているのです。

本セミナーでは、AIと人間の関係性に潜む心理的側面について考えます。私たちがAIをどのように捉え、どのように反応するのか。そして、その認識や反応が、判断プロセスにどのような結果をもたらすのか。これらの問いを掘り下げることで、AIと人間がより良い形で共存し、協力できる人事のあり方について検討していきます。

自動化バイアスの影響

AIが私たちの意思決定を支援する場面が増えていますが、これらのテクノロジーに対する私たちの態度はどのようなものでしょうか。興味深いことに、人々はしばしばアルゴリズムに対して過度の信頼を寄せる傾向があります。この現象は、特に人事選考のような重要な判断場面で顕著に現れることが分かってきました[1]

ある研究では、参加者に自動車会社の品質管理責任者にふさわしい候補者を選ぶというタスクが与えられました。参加者は、選考においてアルゴリズムからの推奨または他の参加者からの推奨を受けることができました。この実験設定は、アルゴリズムの助言が人々の判断にどのように影響するかを明らかにするために設計されたものです。

その結果、アルゴリズムによる誤った助言は人々の判断に好ましくない結果をもたらすことが明らかになりました。具体的には、アルゴリズムが誤った助言をしても、参加者はそれを否定せず、そのまま信じてしまう様子が見られました。

この背景には、「自動化バイアス」と呼ばれる要因があります。自動化バイアスとは、人間が自動化されたシステム(この場合はアルゴリズム)の判断を過度に信頼してしまうことを指します。人々は、アルゴリズムが大量のデータを処理し、客観的な判断をしていると信じているため、その助言を疑わずに受け入れてしまうのです。

例えば、人事評価システムにおいて、アルゴリズムが従業員の業績を評価する場合を考えてみましょう。アルゴリズムが誤って特定の従業員を低評価した場合でも、その評価をそのまま受け入れてしまい、実際の業績とは異なる判断をしてしまいます。アルゴリズムの判断が半ば絶対的なものとして扱われ、人間による適切な検証や修正が行われにくくなります。

さらに、研究ではアルゴリズムの助言がなぜそのような判断をしたのかを説明する機能が、誤った助言への依存を減らすかどうかも調べられましたが、アルゴリズムが判断の理由を説明したとしても、誤った助言への依存は顕著に減少しませんでした。

この結果は、アルゴリズムの透明性や説明可能性を高めるだけでは、人々の判断を改善するには不十分であることを示唆しています。アルゴリズムの判断過程を説明するだけでは、人々はその説明を批判的に評価せず、むしろ説明の存在自体がアルゴリズムへの信頼を不適切に高めてしまいます。

この問題に対処するためには、アルゴリズムの説明機能を実装するだけでなく、ユーザーがその説明の内容を適切に理解し、批判的に評価できるようにするための学習が必要です。特に人事の文脈では、アルゴリズムの判断をそのまま受け入れず、人間の専門知識と組み合わせて活用する能力が求められるでしょう。

自動化バイアスは、アルゴリズムの判断に対する過度の信頼につながります。そして、この信頼は時として「客観性の神話」と呼ばれる現象を生み出します。

「客観性の神話」の危険性

自動化バイアスがアルゴリズムへの依存を引き起こす一方で、「客観性の神話」は、アルゴリズムの判断が常に中立で公平であるという誤った認識を生み出します。

アルゴリズムによる判断が性別や人種に基づく格差をもたらす場合でも、それが人間による判断よりもバイアスが少ないと認識されることが分かっています[2]。このアルゴリズムの「客観性」に対する誤った信念は、潜在的な差別を正当化し、バイアスを見過ごす結果をもたらす可能性があります。

この現象の背景には、アルゴリズムが個人の特性を除外し、全員を平等に扱っているという誤った信念があります。人々は、アルゴリズムがデータに基づいて一定のルールを適用し、判断を行うため、感情や偏見、無意識のバイアスが入り込む余地がないと考えてしまいます。

しかし実際には、アルゴリズムがバイアスを含む可能性は十分にあります。例えば、アルゴリズムの学習に使用されるデータ自体に偏りがある場合、そのバイアスがアルゴリズムの判断に反映されます。また、アルゴリズムの設計段階で人間の価値観が反映される可能性もあります。

注目すべきは、差別を受ける可能性のある人々、特にマイノリティのメンバーが、人間の判断よりもアルゴリズムの判断を好むという発見です。研究では、マイノリティの参加者が、人間による評価よりもアルゴリズムによる評価を選好する様子が見られました。

これは、人間が持つ潜在的な偏見を回避できると考えているためです。マイノリティの人々は、人間の評価者が持つ意識的または無意識的なバイアスを懸念し、アルゴリズムがより公平な判断をすると期待しているのです。

しかし、この期待は現実とは一致しないこともあり得ます。アルゴリズムにも偏りが存在し、その偏りが見過ごされることで、不平等がさらに助長されることも想定されます。例えば、過去の採用データを基に学習したアルゴリズムが、既存の不平等を再生産するかもしれません。

この問題に対処するためには、アルゴリズムの設計段階から多様性と公平性を考慮に入れること、定期的にアルゴリズムの判断結果を監査し、バイアスがないかチェックすること、そして人間の専門家による洞察を組み込むことなどが大切です。

アルゴリズムの客観性に対する過度の信頼は、特に困難な状況に直面したときに顕著になります。続いて、タスクの難易度が人々のアルゴリズム依存度にどのような影響を及ぼすかを見ていきましょう。

タスクの難易度による判断の変化

アルゴリズムの客観性への信頼は、とりわけ人々が自信を失うような状況で強まります。タスクの難易度が上がるにつれて、人々は自分の判断よりもアルゴリズムの判断を信頼するようになります。

人々がアルゴリズムを利用するかどうかは、タスクの難易度によっても変化することが分かっています。タスクが難しくなるほど、人々はアルゴリズムの助言を信頼する様子が明らかになりました[3]

研究では、1500人以上の参加者に、正確な答えが求められる課題に取り組んでもらい、アルゴリズムからの助言と他人の平均的な判断(社会的助言)のどちらを信頼するかを比較しました。画像に映る人物の数を推測するという課題を使い、簡単なものから非常に難しいものまで様々な難易度が設定されました。

結果的に、タスクが難しくなるほど、参加者はアルゴリズムの助言を信頼しました。参加者が両方の助言を同時に比較できる状況でも、難しいタスクではアルゴリズムの助言がより信頼されました。例えば、画像に多くの人物が写っていて、短時間で正確に数えるのが困難な場合、参加者はアルゴリズムの判断をより信頼しました。

この現象の背景には、難しいタスクに直面したときに人々が自分の判断に対する自信が低くなるという心理があります。人間は自分の能力の限界を認識し、より信頼できると思われる情報源に頼ろうとします。

そのような状況では、客観的かつ計算に基づいた助言を提供するアルゴリズムが、信頼できる選択肢として認識されます。アルゴリズムは大量のデータを処理し、複雑な計算を瞬時に行うことができるため、人間の能力を超えるような難しいタスクでは信頼されやすくなります。

実際に、別の研究において、人々が自分の能力に不安を感じると、アルゴリズムに頼る様子が強まることが示されています[4]。研究では、参加者に二者択一の判断課題を与え、必要に応じてアルゴリズムの推薦を利用できる状況を作りました。

具体的には、実験参加者に複数のオブジェクトが動き回る画面を見せ、特定のオブジェクトを追跡するよう求めました。参加者には、このタスクの一部または全部をコンピュータ・パートナー(アルゴリズム)に任せるオプションがありました。

結果、参加者はタスクの難しさに応じてアルゴリズムを選んで使いました。簡単な課題では参加者は自分の判断を優先し、アルゴリズムの推薦を無視しましたが、難しい課題に直面すると、参加者は自分の判断が不確かだと感じ、アルゴリズムの推薦に従いました。例えば、追跡するオブジェクトの数が少ない場合は自分で追跡を行いますが、数が多くなると、アルゴリズムに任せるようになりました。

一方、社会的助言(他の人の判断)は、主観的な要素が含まれる可能性があるため、難しいタスクでは信頼性が低く見られがちです。人々は、複雑な状況下では感情や直感よりも、データに基づいた判断を選ぶのかもしれません。

例えば、他の人間が行った判断には、その人の経験や知識の限界、個人的なバイアスが含まれている可能性があります。一方、アルゴリズムは(少なくとも表面的には)これらの主観的要素から自由であり、純粋にデータと計算に基づいた判断を行うと認識されています。

こうした特徴は、人事の分野にも考慮すべき点を提供しています。例えば、複雑な人材評価や予測が必要な場面では、人々がアルゴリズムの助言をより積極的に受け入れる可能性があります。

しかし、アルゴリズムへの依存が高まる一方で、人々は完全に制御を手放すことには抵抗を感じます。人々がアルゴリズムとのバランスをどのように取ろうとするかを見ていきましょう。

人間の主体性の維持

アルゴリズムへの依存が高まる中で、人々は自分の役割や存在感を完全に失うことを避けようとします。この「コントロール感」への欲求は、人間とアルゴリズムの協働において注目すべき要素となります。

認知的に難しいタスクにおいて、人々がどの程度アルゴリズムにタスクを任せるかを調査した研究を紹介しましょう[5]

実験では、視覚的な注意を要する、複数の物体を追跡する課題(MOT課題)を使い、参加者がコンピュータと協力してタスクを行う場合の行動を分析しました。画面上で複数の動く物体の中から特定の物体を追跡するという課題で、参加者はこのタスクの一部または全部をコンピュータに任せることができました。

実験結果としては、参加者は自分の負担を軽減するために、いくつかのターゲットをコンピュータに任せる様子が認められました。しかし、すべてのターゲットをコンピュータに任せるわけではなく、一部のターゲットを自分で追跡する選択をしました。例えば、5つのターゲットを追跡する必要がある場合、4つをコンピュータに任せ、1つを自分で追跡するといった具合です。

こうした行動の背後には、自分がタスクの一部をコントロールしているという感覚を持ちたいという心理があります。すべてを他者(この場合はコンピュータ)に任せることで、自分の役割や存在感が薄れると感じ、それを避けるために一部を自分で引き受けるのです。

この研究は、AIと人間の協働を考える際に重要な視点を提供しています。完全な自動化ではなく、人間が一定の役割を担えるようなシステムを設計することで、ユーザーの受容度を高め、同時に人間の責任感を維持することができるかもしれません。例えば、評価システムにおいて、AIが大量のデータを分析し、初期評価を行う一方で、最終的な評価や重要な決定は人間が行うという分業が考えられます。

コントロール感を維持したいという欲求は、人間がアルゴリズムの判断に介入する機会を求めることにつながります。しかし、この介入は必ずしも良い結果をもたらすとは限りません。人間の介入がアルゴリズムの判断にどのような作用をもたらすかを検討しましょう。

人間の介入の二面性

人々のコントロール感を満たすため、多くのシステムは人間がアルゴリズムの判断に介入する機会を提供する形をとるかもしれません。しかし、実際のところ、人間が介入することは必ずしも良い結果をもたらすとは限りません。

アルゴリズムによる判断に人間が介入することで、システムの受容度が高まる一方、判断の精度が低下することがわかりました[6]。研究では、参加者に生徒のプロフィールを基に数学テストの成績を予測するタスクが与えられました。参加者には、アルゴリズムや他の参加者からの推奨を受け、それを調整するかそのまま受け入れるかの選択肢が与えられました。

結果的に、人間が介入できる条件では、アルゴリズムの推奨を好む傾向が強まりました。参加者は自分の判断が反映されることで、アルゴリズムに対する信頼感が増し、システム全体への安心感が高まったのです。

例えば、AIが提示した成績予測を参加者が確認し、必要に応じて修正できるという条件下では、参加者はそのシステムをより好意的に評価しました。これは、人間が最終的な判断に関与できるという感覚が、システム全体への信頼を高めることを表しています。

他方で、残念ながら、人間が介入することで判断の精度が低下しました。大きな誤差を含む推奨を修正することが少なく、修正しても誤差が小さくならないケースが観察されました。AIが明らかに間違った予測をした場合でも、参加者がそれを適切に修正できないことがありました。また、参加者が修正を行った場合でも、その修正が必ずしも予測の精度を向上させるわけではありませんでした。

この結果が生じた背景には、いくつかの要因が考えられます。まず、前述の「自動化バイアス」の作用が挙げられます。参加者はAIの推奨を信じすぎて、必要な修正を怠る可能性があります。例えば、AIが高度な分析を行っているという認識から、その判断を疑問視せずに受け入れてしまうケースが考えられます。

また、AIが扱う大量のデータや複雑な計算を人間が短時間で正しく評価し、修正することは難しいため、結果として判断の精度が下がることもあるでしょう。人間の認知能力には限界があり、AIが処理している膨大な情報を全て把握し、適切に判断することは困難です(それに、そんなことが可能であれば、AIを用いる意義は薄まります)。

さらに、人間の判断には様々なバイアスが作用します。例えば、確証バイアス(自分の信念に合う情報を選び、それに反する情報を無視すること)や利用可能性ヒューリスティック(思い出しやすい情報を選ぶこと)などが、適切な判断を妨げる可能性があります。

この研究は、人間とアルゴリズムの協働において、人間の介入がシステムの受容度を高める効果がある一方で、必ずしも良い結果を生むとは限らないことを意味しています。場合によっては、性能を低下させることもあります。

アルゴリズムとの相互作用がもたらす結果はこれだけではありません。最後に、人々の倫理的行動にアルゴリズムがどのような作用をもたらすかを見ていきましょう。

AI時代の倫理的課題

アルゴリズムとの相互作用は、判断の精度だけでなく、人々の倫理的行動にも作用します。特に注目すべきは、アルゴリズムとの関わりが人々の倫理観を緩和させる可能性があることです。

AIと人間の協働モデルを考える上で、倫理的配慮の維持は大切な課題です。人間がAIと直接やり取りする場面では、倫理的な行動に変化が見られることが明らかになっています[7]。研究では、レストランやスーパーマーケットでの支払い場面を想定し、人間のスタッフ、AI、セルフレジのそれぞれと関わる際の行動を比較しました。

結果、人間のスタッフと比べ、AIやセルフレジに対して非倫理的な行動をとりやすいことがわかりました。例えば、請求書の誤りを報告する意欲が低くなったり、誤った請求を受けても罪悪感が薄れたりする様子が見られました。

この現象の背後には、機械的な存在に対して倫理的な基準を緩めがちな人間の心理があります。AIやセルフレジは感情を持たないと認識されているため、そうした存在に対しての行動が他者に与える結果を考えにくくなるということです。

この研究は、AIを活用した人事システムに対する含意を提供しています。人事領域でAIを用いる際には、倫理観が低下しないようにする必要があります。

そのために、例えば、組織全体で共有される倫理ガイドラインを策定することが求められます。ガイドラインには、AIとの相互作用における期待される行動や、倫理的な判断のための枠組みを含めるべきでしょう。

また、AIの使用に関連する倫理的なグレーゾーンについて、オープンな議論の場を設けることも望ましいと言えます。実際のケースや仮想のシナリオを用いて、倫理的ジレンマを探求し、適切な対応を共に考える機会を作ることで、従業員の倫理的感性を高めることができます。

さらに、従業員を対象とした、AIの倫理的使用に関する研修プログラムの実施も求められます。研修では、AIの特性や限界、人間の判断の必要性、そして倫理的な判断のプロセスについて学ぶことができると良いでしょう。

これらの対策を組み合わせることで、AIとの関わりにおいても、人々の倫理的行動を維持・促進することができるでしょう。人事領域におけるAIの活用は、効率性と公平性を高める可能性を秘めていますが、同時に倫理的な配慮を怠らないことが、その成功の鍵となるのです。

効果的なAIと人間の協働

AIと人間が人事分野で協働する際には、次の点に注意を払うべきでしょう。

  • AIの判断を過信せず、人間の専門的な知識や批判的思考力を尊重すること。AIの判断プロセスを透明化し、その内容を深く理解し評価できる能力を養うことが望ましいです。
  • AIシステムにも偏りが存在する可能性を認識すること。AIの開発段階から多様性と公平性を考慮し、定期的な検証を通じて潜在的な偏りを特定し、対処することをお勧めします。
  • 複雑な業務ほどAIに依存しがちになることを自覚し、困難な状況下でも人間の洞察力や経験を活用する方策を模索すること。同時に、人々の主体性を維持するため、AIと人間の業務分担を適切に設計することも有効です。
  • 人間の介入によりシステムの受容性が向上する一方、判断の精度が低下する可能性があることを心に留めておくこと。人間がどの段階でどのように関与するかを慎重に検討することをお勧めします。
  • AIとの対話により倫理観が希薄化する可能性があるため、倫理的行動を維持・促進するための施策を講じること。

これらの点に配慮し、AIと人間が互いの長所を生かしながら補完し合える関係を構築することが、人事分野でのAIの効果的な活用につながります。AIの進化に伴い人間の役割も変容していくため、協力のあり方を定期的に見直し、改善する姿勢が今後求められるでしょう。

Q&A

Q:AIによる採用選考で、教師データの偏りを是正し、採用基準の公平性を担保するにはどうすればよいでしょうか。

採用選考でAIを活用する際は、性別、年齢、学歴などの属性による偏りがないか検証することが重要です。もし偏りが見られた場合は、データの補正や追加収集を行う必要があります。また、採用結果を定期的に分析し、特定の属性に対して不利益が生じていないかモニタリングしましょう。AIを導入したら終わりではなく、継続的な監視と改善が求められます。

Q:人事部門でAIを活用する際に必要なリテラシーや知識はどの程度でしょうか。おすすめの学習方法があれば教えてください。

人事担当者は必ずしもAIの技術的な細部まで理解する必要はありませんが、AIの基本的な仕組みや限界について理解しておくことは大切です。例えば、なぜバイアスが生まれるのかといった点の知識は必要です。

学習方法としては、次のようなアプローチが効果的です。

  • 実際の業務でAIを活用しながら学ぶOJT方式
  • 意思決定に使用する場合と試行錯誤のための使用を区別する
  • AI専門家とコミュニケーションを取り、知識を積み重ねる

特に重要なのは、AI時代においてはむしろ人事の専門知識が一層重要になるということです。AIの結果を正しく解釈し、適切な意思決定や対策につなげるためには、人事に関する深い知識が不可欠だからです。

Q:AIを活用した人材育成システムで、個人の成長意欲や主体性を引き出すにはどのような工夫が必要でしょうか。

重要なのは、従業員が自身のキャリア目標や興味を明確にし、システムに入力できるようにすることです。そして、それらの目標や興味に基づいて学習コンテンツを自由に選択できる仕組みを提供します。AIによる提案は絶対的なものではなく、従業員自身が取捨選択や調整を行える余地を残すことで、主体的な学びを促進できます。

Q:AI活用による効率化で生まれた時間を、どのような活動に振り向けると良いでしょうか。

AIによって効率化された時間は、例えば、従業員との直接的なコミュニケーションや個別具体的なキャリア支援に充てることをお勧めします。また、従業員の声をヒアリングし、それをもとに新しい施策を考案・実行することも有効です。人間にしかできない、きめ細かな対応や創造的な業務に時間を使うことで、より価値のある人事業務が実現できるでしょう。

Q:AIを活用した採用面接を導入する際、面接官の主観的な判断とAIの客観的な分析をどのようにバランスを取るべきでしょうか。

採用面接には「見極め」と「惹きつけ」という2つの要素があります。見極め(適性評価)についてはAIが得意とする領域なので、積極的に活用すべきです。一方、惹きつけ(候補者の志望度を高めること)は人間が得意とする分野です。面接官は、その候補者に対して自分だからこそできる個別的な対応や声掛けを行うことで、志望度を高めることができます。

Q:AIを活用した人材育成において、世代間のデジタルリテラシーの差をどのように埋めていけばよいでしょうか。

デジタルリテラシーの差は必ずしも世代間だけの問題ではなく、個人のパーソナリティや普段のテクノロジーとの関わり方にも影響されます。効果的な対応として、学習コンテンツをレベル分けし、個々の習熟度に合わせて段階的に学習できる環境を整備することが考えられます。また、デジタルリテラシーの高い従業員と低い従業員がペアを組んで教え合う仕組みを導入することで、相互学習を促進することができます。

脚注

[1] Cecil, J., Lermer, E., Hudecek, M. F., Sauer, J., and Gaube, S. (2024). Explainability does not mitigate the negative impact of incorrect AI advice in a personnel selection task. Scientific Reports, 14(1), 9736.

[2] Bonezzi, A., and Ostinelli, M. (2021). Can algorithms legitimize discrimination? Journal of Experimental Psychology: Applied, 27(2), 447-459.

[3] Bogert, E., Schecter, A., and Watson, R. T. (2021). Humans rely more on algorithms than social influence as a task becomes more difficult. Scientific Reports, 11(1), 8028.

[4] Liang, G., Sloane, J. F., Donkin, C., and Newell, B. R. (2022). Adapting to the algorithm: How accuracy comparisons promote the use of a decision aid. Cognitive Research: Principles and Implications, 7(1), 14.

[5] Wahn, B., Schmitz, L., Gerster, F. N., and Weiss, M. (2023). Offloading under cognitive load: Humans are willing to offload parts of an attentionally demanding task to an algorithm. Plos One, 18(5), e0286102.

[6] Sele, D., and Chugunova, M. (2024). Putting a human in the loop: Increasing uptake, but decreasing accuracy of automated decision-making. Plos One, 19(2), e0298037.

[7] Giroux, M., Kim, J., Lee, J. C., and Park, J. (2022). Artificial intelligence and declined guilt: Retailing morality comparison between human and AI. Journal of Business Ethics, 178(4), 1027-1041.


登壇者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。

#伊達洋駆 #セミナーレポート

アーカイブ

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています