2024年12月9日
AIとの付き合い方:自動化バイアスを乗り越える知恵
AIを日常生活や職場で活用する機会が増えています。スマートフォンの音声アシスタントを使う人、チャットボットに相談する顧客、AIを用いた意思決定支援を利用する従業員など、AIの存在感が高まっています。
しかし、人工的に作られた知能に人間が助言を求め、時にはその助言に基づいて判断を下すという状況は、よく考えると不思議なものかもしれません。AIと人間の関係は、私たちが想像する以上に複雑で深いものになりつつあります。
AIは本当に信頼できるのでしょうか。AIの判断に従うことで、私たちはどのような影響を受けるのでしょうか。もしAIが間違った助言をしたら、私たちはそれを見抜くことができるのでしょうか。
こうした疑問に答えるため、実に様々な実験が行われています。それらの研究は、AIと人間の相互作用の奥深さを明らかにすると同時に、私たちに警告を発してもいます。
本コラムでは、新しい研究成果を紹介しながら、AIが人間の心理に及ぼす影響について考えます。文化による違い、自動化バイアス、AIの誤りがもたらす長期的な影響、そしてAIによるサポートのタイミングの重要性など、多角的な視点からこの問題を探ります。
人間に対して情報をより開示する
AIと人間のコミュニケーションにおいて、情報開示の程度が人間の反応にどのような影響を与えるかは研究テーマの一つです。特に、チャットボットのような対話型AIと人間のエージェントを比較した場合、情報開示の意図にどのような違いが生じるのでしょうか。
中国とアメリカの参加者を対象に実験が行われています[1]。約210名ずつの中国とアメリカの被験者が参加し、チャットボットまたは人間のエージェントとのやりとりを通じて、仮想の健康保険サービスに関する質問に答えるというシナリオが用いられました。
実験では、エージェントの種類(チャットボットか人間か)と情報の機密性(高機密か低機密か)という二つの要因が比較されました。高機密情報としては健康保険に関する詳細な個人情報が、低機密情報としては一般的な問い合わせ情報が設定されました。
実験の結果、文化的な違いが明らかになりました。中国の参加者は、チャットボットに対して人間のエージェントよりも高いプライバシーへの懸念を示しました。これは、中国のユーザーが技術やAIシステムに対してより慎重な態度を持っていることを表しています。
一方、アメリカの参加者では、チャットボットと人間のエージェントの間でプライバシーへの懸念に大きな差は見られませんでした。アメリカのユーザーは技術に対する信頼度が比較的高く、AIやチャットボットが提供するサービスに対して抵抗感が低いことが分かります。
情報の機密性が高い場合、参加者はチャットボットよりも人間のエージェントに対して情報を開示する意図が高まることも分かりました。これは、機密性の高い情報のやりとりでは、感情的な信頼関係が構築しやすい人間のエージェントが好まれるためと考えられます。
文化的な違いも顕著に表れました。アメリカのユーザーは、プライバシーへの懸念が情報開示の意図に強く影響する傾向がありました。これは、アメリカ文化における個人主義や個人のプライバシー保護の重視を反映しています。
対照的に、中国のユーザーでは、プライバシーへの懸念よりも、エージェントが情報をどの程度第三者と共有するかという「境界リンク」の方が、情報開示の決定に強く影響していました。これは、中国の集団主義的な文化背景や、情報共有が個人的利益につながるという認識を反映していると考えられます。
この研究は、AIとのコミュニケーションにおける情報開示の問題が、技術的な側面だけでなく、文化的な要因にも左右されることを示しています。特に、中国とアメリカという異なる文化圏での比較を通じて、プライバシーに対する態度や情報共有の考え方の違いが浮き彫りになりました。
自動化バイアスを緩和させるために
AIを活用した意思決定支援システムの普及に伴い、人間がAIの判断に依存してしまう「自動化バイアス」が問題視されています。特に、人事選考のような重要な意思決定においては、AIの推奨を無批判に受け入れることで、質の低い判断につながる可能性があります。
この問題に取り組むため、自動化バイアスを軽減し、意思決定の質を向上させる方法を探る実験が行われました。オーストリアの大学に在籍する心理学およびビジネス系の学生を主な対象として、AIが推薦する候補者情報を含むダッシュボードを使って人事選考を行ってもらいました[2]。
実験では、3つの異なる情報提供方法(システムエラーに関する情報、責任の説明、一般情報)と、2つの異なるデータ表示形式(低集約データと高集約データ)を組み合わせて、どのアプローチが自動化バイアスを軽減し、意思決定の質を向上させるかを調べました。参加者は、10人の応募者から5人を選ぶという課題を2回実施し、AIシステムによって意図的に評価ミスが含まれるデータも用意されました。
実験の結果、システムエラーに関する情報を事前に提供された参加者は、AIの推奨を無批判に受け入れることが少なくなり、より慎重に判断を行う傾向が見られました。これらの参加者は、ダッシュボードの情報を詳細に確認し、多くのページを閲覧するなど、AIの評価を精査する行動を取りました。
この結果は、エラーの存在を意識させることが、システムの評価をより慎重に行わせ、結果的に高品質な意思決定につながることを示しています。人間がAIを補助的なツールとして利用し、自分自身の判断力を駆使することで、質の高い意思決定が可能になるのです。
一方で、予想外の結果も得られました。責任を強調されたグループでは、期待に反して自動化バイアスの軽減につながりませんでした。これは、責任感を持たせるだけでは、具体的な行動変容を促すには不十分であることを意味しています。
データの表示形式も意思決定に影響を与えることが分かりました。低集約データ(より詳細な情報)を提示された参加者は、ダッシュボードの詳細なデータを確認することにより多くの時間を費やし、複数の情報源を考慮する傾向が見られました。一方、高集約データ(シンプルなスコア表示)の参加者は、短時間で意思決定を行い、AIシステムの推奨をそのまま受け入れる傾向が強まりました。
これらの結果は、AIと人間の協働における重要な示唆を提供しています。自動化バイアスを軽減し、より質の高い意思決定を行うためには、AIの推奨を提示するだけでなく、システムの限界や潜在的なエラーに関する情報を提供することが大切です。また、データの表示方法を工夫し、ユーザーが詳細な情報に簡単にアクセスできるようにすることで、より慎重な判断を促すことができるでしょう。
AIの誤った助言の影響は持続する
AIの活用が進む中で、AIの判断が人間の意思決定にどのような影響を与えるかは重要な研究テーマです。特に、AIが誤った助言をした場合、その影響がどの程度持続するのかについて、示唆深い結果が得られています。
医療診断を模したシミュレーション実験を通じて、AIの偏った推奨が人間の判断にどのように影響するかが調査されました[3]。研究では、3つの実験が行われ、それぞれ異なる設定と目標が設定されました。
実験1では、169名の心理学専攻の学生が参加し、AIの助けを受けたグループと、AIなしでタスクを遂行するグループに分かれ、医療診断を模した分類課題を行いました。AIは正確な推奨を行う場合が多いものの、一部のデータでは意図的に誤った推奨を行い、その影響を測定しました。
AIの偏った推奨を受けた参加者は、明らかに誤った推奨を受けた際にも、それに従う傾向が見られました。これは、人間がAIを信頼しすぎる(自動化バイアス)ためだと考えられます。特に、医療診断のような技術的で専門的な場面では、AIが客観的で信頼できると感じられやすく、人間は自分の判断よりもAIの推奨に頼ることが多くなります。
実験2では、AIの支援を受けた後も、その影響が残るかどうかを調べました。AI支援なしのフェーズも追加され、AIなしでも人間が誤った決定をするかどうかを確認しました。結果、AI支援を受けたグループが、AIなしでも同じ誤りを繰り返すことが示されました。新しい、曖昧なデータ(AIの推奨がなかった50/50のデータ)に対しても、参加者はAIのバイアスを反映した判断を行いました。
この結果は、AIの影響が一時的なものではなく、行動に長期的な影響を与えることを示しています。参加者はAIの推奨を「学習」し、その推奨が後の判断に影響を与え続けたのです。
この現象は、「認知的省力化」と呼ばれる人間の心理に関連していると考えられます。人間はしばしば複雑な情報処理を避け、簡単な判断基準を採用しようとします。AIの推奨は、そのような判断基準として機能し、一度それに依存すると、その後も同様の判断パターンを繰り返すのです。
実験3では、先にAIなしでタスクを実行した場合、偏ったAIの影響をどれだけ防げるかを確認しました。参加者は、最初にAIなしでタスクを実行し、その後AIの支援を受けてタスクを行うか、その逆の順序で実験に参加しました。
結果は、最初にAIなしでタスクを行ったグループが、後にAIの支援を受けた際に、AIの誤りに対してやや耐性があることを示しました。これは、自分自身で課題に取り組む経験を積むことで、AIに頼らずに判断するスキルが向上し、AIの偏った推奨に対して批判的に対処できるようになるからでしょう。
この研究の面白い点は、AIが人間に影響を与えるだけでなく、その影響が長期間にわたり持続すること、新しい状況においても偏見が継承されるという点にあります。AIと人間の協力関係における新たな課題が浮き彫りになり、AIの誤りが人間社会にどのような影響を与えるかを示しています。
AIによるサポートはタイミングが大事
AIによるサポートが人間の意思決定にどのような影響を与えるかを理解することは、AIと人間の協働を効果的に進める上で重要です。AIが提供する情報のタイミングが、人間の判断にどう影響するかについて研究結果が得られています。
AIの誤りが人間を介した意思決定プロセスに与える影響を探る実験が行われました[4]。研究では、2つの実験を通じて、AIによる誤ったサポートが人間の判断に与える影響を検証しました。
実験1では、150名の対象者が参加し、犯罪の容疑者の有罪確率を判断するという設定で、AIのサポートを受ける前に判断するグループと、AIのサポートを受けた後に判断するグループに分けられました。
実験2では、260名の対象者が参加し、評価スケールを詳細化し、正確性をより敏感に測定しました。9つの犯罪ケースに対して同様の手順を実施しました。
両実験の結果は先ほどの研究と類似していました。AIのサポートを受ける前に自分で判断を下したグループは、AIの誤った情報に影響されることが少なく、正確な判断ができました。一方、先にAIのサポートを受けたグループは、AIの誤った情報に引きずられ、正確な判断ができなくなる傾向が見られました。
この現象は「アンカリング効果」として知られています。人間は最初に得た情報を基準(アンカー)として、その後の判断を調整します。AIのサポートが判断前に提示されると、その情報がアンカーとなり、誤った情報が与えられた場合には正確な判断を阻害してしまうのです。
自動化バイアスも要因となっています。多くの参加者は、AIに依存し、その判断を疑わずに受け入れる傾向がありました。AIが複雑な判断や大規模なデータ処理を担当している場合、人間はAIの判断を優先し、自らの判断を省略することがあります。
この研究で特筆すべきは、AIサポートのタイミングが判断の正確性に影響するという点です。AIのサポートを受ける前に人間が自分の判断を形成することで、AIの誤りに引きずられにくくなり、正確な判断ができる可能性が示されました。
これらの結果は、AIと人間の協力による意思決定プロセスを最適化する上で重要な示唆を与えています。AIのサポートを受ける前に、まず人間が自分の判断を形成することで、AIの誤りに引きずられにくくなるかもしれません。
脚注
[1] Liu, Y.-L., Yan, W., Hu, B., Lin, Z., and Song, Y. (2024). Chatbots or humans? Effects of agent identity and information sensitivity on users’ privacy management and behavioral intentions: A comparative experimental study between China and the United States. International Journal of Human-Computer Interaction, 40(19), 5632-5647.
[2] Kupfer, C., Prassl, R., Fleis, J., Malin, C., Thalmann, S., and Kubicek, B. (2023). Check the box! How to deal with automation bias in AI-based personnel selection. Frontiers in Psychology, 14, 1118723.
[3] Vicente, L., and Matute, H. (2023). Humans inherit artificial intelligence biases. Scientific Reports, 13, 15737.
[4] Agudo, U., Liberal, K. G., Arrese, M., and Matute, H. (2024). The impact of AI errors in a human-in-the-loop process. Cognitive Research: Principles and Implications, 9(1).
執筆者
伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。