2024年2月26日
AIと人間らしさ:AIのもたらす心理的影響とは
AIの発展には、目を見張るものがあります。特にこの十年間で大幅な進化が認められ、様々な分野に革新的な変容をもたらしています。人と組織をめぐる領域も例外ではありません。
AIを用いることで生産性が高まることが実証され始めています。例えば、大量のデータから新しいテキストやビジュアルを出力する生成AIを活かすことによって、あるタスクにかかる時間が37%減少し、成果物の質も高まることを示す研究があります[1]。
一方で、本コラムでは、このような生産性の側面ではなく、心理的な影響に焦点を当てたいと思います。心理学的な関心に基づいたAIに関する研究も増えてきています。
ほとんどの場合、AIを用いるのは人間です。AIの結果を活かすのも人間です。そこには人間の心理が作用します。
本コラムでは、AIと人間心理との相互作用を話題として取り上げます。具体的には、3つの議論をもとに、職場におけるAIの適用に対する含意を得ることを狙います。
あるAIの失敗は他のAIに一般化される
AIの最も特徴的な点の一つは、学習する能力です。学習においては、そのプロセスで「失敗」が発生することも含まれます。大量のデータからパターンを抽出し、新しいインプットに基づいて予測を行う中で、私たちが望む出力が十分な精度で得られないこともあります。
失敗を伴うテクノロジーには馴染みのない人もいるかもしれません。AIによる失敗を人はどのように捉え、どのように反応するのでしょうか。ここには人間心理の問題が関係してきます。この問いにアプローチした研究を紹介します[2]。
この研究によれば、障害者手当の割り当て、社会保障給付の計算、失業保険詐欺の判定という3種類のタスクにおいてAIが失敗した場合、人々は「それ以外のAIも失敗するだろう」と考えることが明らかになりました。
特定のAIの失敗に関する情報を受けて、他のAIが失敗するだろうと推論することを「アルゴリズム転移」と呼びます。興味深いことに、アルゴリズム転移は人が失敗したときよりも強く作用することが分かっています。つまり、人が失敗したときよりもAIが失敗したときの方が、その結果を一般化するのです。
研究では、アルゴリズム転移が大きくなる理由を考察しています。たとえ異なるタスクを処理するAIであっても、同じAIであれば人々はそれに同一性を感じるため、あるAIが失敗したときに「他のAIもダメだろう」と思うようです。実際、「AIと言っても、様々な特性や能力がある」という説明をしっかり行ったら、アルゴリズム転移が起きにくいことが示されました。
アルゴリズム転移が起こると、AIを用いたサービスの利用意欲が下がることも報告されており、失敗の一般化は利用を妨げる要因になります。また、AIに対してネガティブな感情を抱く人ほど、アルゴリズム転移が大きいことも明らかになっています。
アルゴリズム転移を緩和させるためには、「人間による監視がある」という情報が有効です。人がモニタリングしていると聞くと、AIの失敗が一般化されにくくなるという、なんとも人間味あふれる結果です。
アルゴリズム転移が示唆するもの
アルゴリズム転移という現象は、職場でAIを適用する際に、様々な示唆を提供します。AIは学習プロセスにおける失敗がつきものですが、私たちは人間による失敗よりもAIによる失敗に対して寛容ではなく、過剰に反応する可能性があります。
例えば、特定の仕事を進めるシステムにAIが搭載されていて、そのAIがうまく機能しなかった場合、たとえそれが一時的な問題であっても、「AIはもうダメだ」というように他のAIに対する不信感を招くかもしれません。
人間の失敗に対して許容すべきという議論があるように、AIについても同じ考えが適用されるべきでしょう。そうでなければ、AIは人間よりも高い成果基準が適用され、小さな失敗も許されない状況に陥ります。
このような保守的またはリスク回避的な姿勢では、AIの活用はスピーディに進みません。導入が遅れることで、イノベーションの遅延や競争力の低下を招く恐れがあります。
アルゴリズム転移を抑制するためには、例えば、企業が主導してAIに関する教育を進める必要があります。AIの仕組みや能力を知り、その魅力と限界を理解する機会を提供すれば、AIに対してその多様性に気づき、アルゴリズム転移を緩和できるでしょう。
もう一つの示唆は、AIを完全に任せるのではなく、人間の関与を要求する声が高まるという点です。AIの適用には「代替」と「補完」という表現が用いられます。代替は人の仕事を奪う一方で、補完は人と共に働くことを意味します。
AIを補完的に探求する方向で進めば、アルゴリズム転移を緩和でき、AIの活用を促進する足掛かりとなります。人間の関与を重視することで、AIの失敗を一般化する傾向が弱まり、むしろAIの活用が進む可能性があるのです。
AIが進むと人間らしさを意識する
先に挙げたアルゴリズム転移は興味深い現象ですが、今度は「AI効果」と呼ばれる概念について紹介します[3]。AIの普及は年々進んでおり、多くの人々がAIに関する情報に触れるようになっています。
AIが広く適用される中で、私たちは「人間らしさ」に対してより敏感になっていくのではないでしょうか。AIの情報に触れることで、人間特有の属性がより必要不可欠であると感じるようになる、これを「AI効果」と称します。
5つの研究により、AI効果の存在が実証されています。たとえば、樹木に関する記事とAIの進歩に関する記事を読んだ場合を比較した際、後者の人々は人間特有の属性をより不可欠であると評価することが示されています。
ここで問題となるのは、人間特有の属性とは何かという点です。研究では、共有属性と弁別属性に分けています。
共有属性とは、人とAIが共有している特徴を指します。例えば、計算する、言語を使用する、ルールに従う、未来を予測する、論理を用いる、コミュニケーションを取る、顔を認識する、物事を記憶する、温度を感知する、音を感知する、などが挙げられます。
一方、弁別属性は、AIと人間を区別する特徴であり、人間だけが有すると認識されているものを指します(この研究では、実際に人間だけが有するかどうかではなく、そう認識されていることに焦点を当てています)。例えば、文化を持つ、信念を持つ、ユーモアのセンスを持つ、道徳的である、精神的である、欲望を持つ、幸福を感じる、愛を感じる、人格を持つ、人間関係を持つ、などです。
AIが高度化していることを知れば、弁別属性の必要性をより強く感じるようになります。つまり、人間独自の性質への注目が高まるのです。一方で、共有属性に対する評価が下がることはありませんでした。人間とAIを区別したいという気持ちが高まっただけです。
では、なぜAI効果が起こるのでしょうか。研究では、社会的アイデンティティ理論[4]を参考に、その理由を説明しています。
AIの優秀さに関する情報は、私たち人間に対する脅威となりえます。そのため、自尊心を維持するために、人は人間を独自性のある存在として区別する特徴、すなわち弁別属性を優先的に認識するようになります。「私たちには、私たちならではの良さがある」と自己肯定するわけです。
職場へのAI適用に対するAI効果の含意
AI効果の存在は、私たちが職場にAIを適用する際、どのような示唆を与えるのでしょうか。AIの進化は止まることなく、今後もAIに関する様々な情報を目にするはずです。このことはAI効果を発生させ、私たちは次第に「人間らしさ」(先の研究が指摘する弁別属性)を過剰に評価するようになるかもしれません。
人間らしさの過剰評価は、場合によってはAIに対する懐疑やさらには嫌悪を生み出し、結果としてAIの適用を妨げることになりかねません。そこまでいかなくとも、AIが職場で適用されるにつれて、どのような仕事が価値を持つのかが変わっていくことは容易に想像できます。
研究結果を参照する限り、AIと人間が共にできる仕事(共有属性を含む仕事)の価値が下がるわけではありませんが、AIにはないと思われる人間らしさを伴う仕事(弁別属性を含む仕事)が重宝されることになりそうです。
AI効果は、AIと人間の役割をより区別する作用を持っている点には注意が必要です。職場において「AI対人間」という二元論的な構図が強化されてしまうと厄介です。この発想はAIと人を補完するのではなく、代替か拒絶かという極端な選択を迫ることになります。
AIを活用して成果を上げようとする人たちと、人間らしさを重視する人たちの間でコンフリクトが生まれる事態も想像できます。コンフリクトは、それが意見の違いであっても人間関係の問題であっても、マイナスの影響をもたらすことが明らかになっています[5]。
AIが高度化する中で人間の役割を再考することは大切です。それを怠ると、私たちの仕事が現実的に減っていく可能性があります。しかし、あまりに人間らしさに向き合い続けると、過度なロマンチシズムに陥るかもしれません。
私たちが職場にAIを適用する中で努めて理解しなければならないのは、むしろAIの能力です。AIに何ができるのか、逆に何ができないのかを把握し続けることもまた、重要な実践となるでしょう。
AIは功利主義的な判断を下す
道徳的ジレンマをご存知ですか。複数の道徳的な原則が衝突し、どの行動を選んでも何らかの道徳的な価値を損なう状況を指します。そこにおいて完全に正しい選択肢は存在せず、一定の損失を伴う難しい判断を迫られます。
著名な例としてトロッコ問題があります。線路の分岐点でレバーを操作すればトロッコの進行方向を変更できます。そのまま進むと5人の作業員が危険にさらされますが、レバーを操作すると1人の作業員が危険にさらされます。この状況でどのように行動するかというのがトロッコ問題です。
道徳的ジレンマへの対処は、功利主義的かそうでないかで大きく分けることができます。功利主義的アプローチでは、多少の問題を受け入れながら結局は結果を重視します。(本来はもう少し複雑ではありますが、単純化するなら)トロッコ問題においてレバーを操作する立場が近いでしょう。
皆さんはAIが道徳的ジレンマに直面した際、功利主義的な判断をすると思いますか。この点について実証した研究があります[6]。
研究では、AIが制御する自動運転車を題材に、人々がAIは道徳的ジレンマにどのように対処すると考えるかを検証しました。その結果、多くの人がAIは功利主義的に対処すると認識していることが分かりました。
問題は、なぜ人々がAIに功利主義的な判断を期待するのかです。研究では、「心の知覚」を手がかりにこの問題を検討しています。心の知覚とは、人間以外の存在、例えば機械に対して、心があると認識することです。
心の知覚には、主体性と経験の2つの側面があります。主体性はタスクを実行する能力を、経験は感情を抱く能力を指します。
研究においては、人々がAIに対して主体性(有能さ)を認識しつつ、経験(温かさ)は低く評価していることを明らかにしています。これが、人々がAIに功利主義的な対処を期待する一因と考えられます。AIには温かさがないため、より客観的、効率的な判断を行うというわけです。
功利主義のもたらす二重性と衝突
人々はAIが功利主義的な判断を下しやすいと考えており、これがAIに対する二重の認識を生み出し得ます。一つは、AIが人間よりも客観的で合理的な判断をするという期待です。もう一つは、AIが冷徹で温かさのない判断をするという懸念です。
この問題は抽象的なものではありません。例えば、採用におけるAIの活用を見てみましょう。面接官が候補者を評価する際には、様々なバイアスの影響もあり、高い精度での評価は難しいとされています。
これに対して、面接動画を読み込ませてAIに判断してもらうことで、人間の面接官よりも客観的かつ合理的な結果を出せることが期待されています。しかしながら、それによって無慈悲な判断を行うのではないかという懸念も同時にあります。
注意したいのは、この議論が事実とは異なる次元で起こっているということです。実際にAIが客観的かつ合理的であるかどうかではなく、私たちがAIを客観的かつ合理的だと考えるかどうかです。
客観性と冷たさが共存すると、AIをどこまでどのように適用するかについての議論が展開されます。特に、道徳的ジレンマを伴いやすい人事の仕事においては、AIをめぐる議論の衝突が様々なレベルで継続的に起こることが予想されます。ある企業は、人事において何を重視するかという理念を定め、その理念を照らし合わせてAIの活用を考えるかもしれません。
AIは功利主義的な対処をしやすいと考える傾向は、私たちがどのような仕事にAIを適用しやすいかを推測する上で一つのヒントになります。例えば、データ分析や書類の整理、診断など、冷静かつ合理的な判断が求められると人が認識している仕事ほど、AIの適用が進みやすいと想定されます。
逆に、例えば、対人サービスや創造性が求められる仕事、倫理的な判断が求められる仕事など、つまり温かさ、共感、そして結果よりプロセスが重要とされる仕事に対しては、たとえAIがカバーできたとしてもAIの適用が遅れるかもしれません。
後者のケースでは、AIと距離が遠いと思われている人間らしさの側面が逆に商品化される可能性も示唆されます。人の手が加わっていることが付加価値とみなされるようになり、人間らしさが社内外のマーケティング手段になるという未来も描けます。
脚注
[1] Noy, S., and Zhang, W. (2023). Experimental evidence on the productivity effects of generative artificial intelligence.
[2] Longoni, C., Cian, L., and Kyung, E. J. (2023). Algorithmic Transference: People Overgeneralize Failures of AI in the Government. Journal of Marketing Research, 60(1), 170-188.
[3] Santoro, E., and Monin, B. (2023). The AI Effect: People rate distinctively human attributes as more essential to being human after learning about artificial intelligence advances. Journal of Experimental Social Psychology, 107, 104464.
[4] Tajfel, H., and Turner, J. C. (1979). An integrative theory of intergroup conflict. The Social Psychology of Intergroup Relations, 33, 74-88.
[5] De Dreu, C. K. and Weingart, L. R. (2003). Task versus relationship conflict, team performance, and team member satisfaction: A meta-analysis. Journal of Applied Psychology, 88(4), 741-749.
[6] Zhang, Z., Chen, Z., and Xu, L. (2022). Artificial intelligence and moral dilemmas: Perception of ethical decision-making in AI. Journal of Experimental Social Psychology, 101, 104327.
執筆者
伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。