2024年12月11日
AIがもたらす倫理的課題:人間の道徳性と責任感の変容
AIと人間の関係をめぐる最近の研究から、様々な発見が報告されています。例えば、人々はAIに責任を転嫁しようとする傾向や、AIの倫理的判断を人間よりも厳格に評価する傾向があることがわかってきました。AIの役割や外見によって、人々の倫理的行動が変化することも明らかになっています。
これらの発見は学術的な関心だけでなく、社会や職場のあり方にも関わる問題を提起しています。AIとの共生が進む中で、人間らしさを保ち、倫理的な判断を行うにはどうすれば良いのでしょうか。AIの存在は私たちの道徳観や責任感にどのような変化をもたらすのでしょうか。
本コラムでは、AIと人間の関係に関する研究知見を紹介しながら、この新しい関係がもたらす課題と可能性について検討します。AIとの共生が進みつつある今、この問題と向き合い、より良い未来を築くための知恵を見出す必要があります。
人はAIに責任を転嫁する
AIと人間の関係を考える上で、興味深い現象の一つに「AIへの責任の転嫁」があります。人々が意思決定をAIに委ねることで、悪い結果が生じた際の責任や罰則を避けようとすることが明らかになりました[1]。
研究では、参加者に論理パズルを解いてもらった後、自分で判断するか、他者(人間またはAI)に委任するかを選択させました。その結果、AIに委任した場合、人間に委任した場合と比べて、悪い結果が生じたときの罰則が大幅に軽くなることがわかりました。
例えば、AIに判断を委ねて失敗した場合、「それはAIが判断したことで、自分が意図的に悪い結果を選んだわけではない」と認識され、責任が軽くなりました。一方で、人間に委任して失敗した場合は「なぜその人に任せたのか」と非難される可能性が高くなりました。
この結果は、AIを活用した意思決定システムの設計において重要な点を示しています。人々がAIに依存したり、責任を避けたりする可能性を考慮し、適切な責任分担の仕組みを構築することが求められます。
自分の道徳観はAIに評価されたくない
AIと人間の関係におけるもう一つの示唆的な側面は、人々がAIに自分の道徳観を評価されることに対して抵抗感を持つという点です。AIによる道徳的評価に対する人々の受容性や抵抗感の背後にある心理的メカニズムが調査されています[2]。
イギリスとアメリカの参加者を対象に、AIが個人の道徳的特性をスコアリングすることに対する態度が調べられました。その結果、約40%の参加者がAIによる道徳的評価を受け入れられないと回答しました。
この抵抗感の主な要因として浮かび上がってきたのが、「自分の道徳観は特別である」という認識です。多くの参加者は、自分の道徳的プロフィールが他者とは異なると考える傾向がありました。実際、88%もの人が自分の道徳的特徴は他者とは違うと感じていたのです。
自己独自性の認識が、AIによる評価への不信感につながっています。参加者は、AIが一般的な道徳的プロフィールは評価できても、自分のような「独自な」プロフィールは正確に評価できないだろうと考えていました。
AIシステムの設計や導入において、人々の心理的抵抗感を考慮することの必要性を示す結果です。特に、道徳的評価のような繊細な領域では、AIの評価結果をどのように提示し、説明するかが課題となるでしょう。
AIの道徳的判断は厳しく評価される
人々はAIの道徳的判断を人間よりも厳しく評価することが明らかになっています。自動運転車と人間のドライバーの行動が道徳的にどのように評価されるかが比較されています。
交通事故のシナリオにおいて、自動運転車、擬人化された自動運転車、そして人間のドライバーによる行動がどのように道徳的に評価されるかを検証しました[3]。結果としては、同じ行動や結果であっても、人間のドライバーの方がAIよりも寛容に評価されることがわかりました。
例えば、歩行者を犠牲にして車内の人間を守るという判断をした場合、人間のドライバーによる決定は「瞬間的な判断だった」「不可避の状況だった」として理解されやすい傾向がありました。一方、AIが同じ判断をした場合は、より厳しく評価されました。
この結果が得られた理由として、人間に対する共感のバイアスが考えられます。人々は他人に対して、事故時のストレスや瞬時の判断に理解を示しやすく、人間が完璧でないことを知っているため、ある程度の過失は許容されやすくなります。一方、AIは「プログラムされた判断」で動くため、より厳格な基準で評価され、「もっと良い決定ができたのではないか」といった期待が高くなるのです。
AIの擬人化はこの問題の緩和につながるのでしょうか。研究では、AIに名前をつけたり、感情や意図があるかのように描写したりすることで、評価が改善されることが示されました。擬人化されたAIは、より人間に近い存在として認識され、その行動も「感情や意図に基づいたもの」として評価されやすくなったのです。
人々の心理的バイアスを考慮し、AIの判断プロセスをより透明化したり、適切な擬人化を行ったりすることで、AIの道徳的判断に対する人々の理解と受容を促進できる可能性があります。
トロッコ問題と橋の上の問題では評価が異なる
道徳的判断の評価は状況によって異なることがわかっています。注目すべきは、有名な倫理的ジレンマである「トロッコ問題」と「橋の上の問題」において、AIと人間の行動に対する評価が異なる点です[4]。
トロッコ問題は、暴走するトロッコが5人の作業員に向かって進んでいる状況で、1人を犠牲にして5人を救うかという選択を迫られる問題です。一方、橋の上の問題は、橋の上から1人を突き落として5人を救うかという選択を迫られます。
研究では、これらの問題でAIと人間の行動がどのように評価されるかを比較しました。トロッコ問題では、AIの行動が人間の行動よりも非道徳的で非難されるべきだと評価されました。例えば、AIが1人を犠牲にして5人を救う判断をした場合、人間が同じ判断をした場合よりも厳しく評価されたのです。
これは、「AIは命に関わる倫理的判断を行うべきではない」という感情が強いためだと考えられます。人々は、AIには感情がないと認識しているため、生命に関わる重大な決断をAIが下すことに対して抵抗感を持っているのです。
一方、橋の上の問題では、AIと人間のどちらが行動したかよりも、行動の内容そのものが評価に影響を与えました。特に、1人を突き落として5人を救うという行為は、AIでも人間でも強い否定的な感情を呼び起こしました。
橋の上の問題が直接的で物理的な力を伴う行動を含むため、より強い感情的な反応を引き起こすためだと考えられます。人を押し落とすという行為は、意図的な殺人として受け取られ、これは倫理的に受け入れがたいと感じられます。
人間とAIでは不正行為の出方が違う
人々はAIと人間に対して異なる方法で不正行為を行うことが明らかになっています。ホテルやレストランなどのサービス業において、ロボットや人間スタッフが提供するサービスが、顧客の倫理的行動にどのような影響を与えるかが調査されました[5]。
具体的には、サービスの「排除」(冷たく扱われたり無視されたりする状況)と「包摂」(親切に扱われる状況)の両方のシナリオが検討されています。結果、人間スタッフとAIロボットに対する不正行為の出方が異なることがわかりました。
例えば、サービスの排除を受けた場合、人間スタッフからの排除は顧客の不正行為を増加させました。これは、人間からの無視や冷たい対応を「意図的」なものとして捉え、心理的なダメージや敵意を感じるためです。その結果、「攻撃されたから攻撃し返す」という心理が働き、不正行為が増加するのです。
一方、AIロボットからの排除は、それほど強い不正行為につながりませんでした。これは、AIロボットには感情や意図がないと認識されるため、その排除を「意図的な攻撃」とは捉えにくいためでしょう。
サービスの包摂(親切な対応)を受けた場合の反応も興味深いものでした。人間スタッフからの親切な対応は、顧客の倫理的行動を促進する傾向がありました。社会的交換理論の「肯定的な互恵性」に基づくもので、受けた良い対応に応じて、他者にも良い行動を返そうとする心理が働きます。
しかし、AIロボットからの親切な対応は、逆に不正行為を増加させる傾向がありました。これは、AIロボットによる対応が心理的な満足感を与えにくく、「恩を返す」という意識を喚起しにくいためだと考えられます。
AIロボットの擬人化(人間らしい特性を持たせること)が、これらの効果に影響を与えることもわかりました。擬人化されたAIロボットは、人間スタッフに近い心理的効果を持ち、排除時には不正行為を強化し、包摂時には抑制する傾向がありました。
人間とAIでは、顧客の反応や行動が異なる可能性があるため、それぞれの特性を考慮したサービス設計が必要になるでしょう。また、AIの擬人化が顧客の行動に与える影響も考慮に入れる必要があります。
AIに非倫理的行動をとるとき
AIエージェントの役割が消費者の非倫理的行動にどのような影響を与えるかを調査したところ、人々がAIに対して非倫理的な行動をとりやすくなる状況があることが見えてきました[6]。
特に関心を払うべきは、AIエージェントが「使用人」として設定されている場合、消費者がより非倫理的な行動をとるという発見です。例えば、オンラインショッピングの返品理由を偽ったり、保険金詐欺を行ったりする可能性が高くなることがわかりました。
このような結果が生じる理由の一つとして、「使用人」AIに対して消費者が優位性を感じ、道徳的な責任を感じにくくなることが挙げられます。また、AIが機械的な存在と認識されるため、人間相手の場合ほど道徳的な配慮をしなくなることも関係しているかもしれません。
研究では「予期的道徳的解放」(AMD)というメカニズムが働いていることも明らかになりました。予期的道徳的解放とは、人が非倫理的行動を行う前に、その行動を正当化するための心理的プロセスです。例えば、「AIは感情を持たないから、傷つかない」と考えたり、「企業は大きいから、少し嘘をついても影響はない」と自分を正当化したりするのです。
しかし、非倫理的行動への傾向は、いくつかの条件で弱まることもわかりました。例えば、消費者の道徳的アイデンティティが高い場合、要するに道徳観が強い人は、AIに対しても非倫理的行動を控えました。内在化された道徳基準が、状況にかかわらず一貫して適用されるためでしょう。
AIエージェントが人間らしい外見をしている場合も、非倫理的行動は減少しました。AIが人間に似た外見を持つと、消費者はそのAIをより人間的に扱う傾向があります。これは擬人化によって、AIに対する共感や道徳的配慮が増すためです。
消費者の行動が他人から見える場合も、非倫理的行動は抑制されました。他人から行動が見えると、社会的評判を気にして非倫理的行動を控えるのです。社会規範の影響力が強まり、自己イメージを維持しようとします。
AIの設計や使用方法によって、人々の道徳的行動が予想外の形で変化する可能性があります。例えば、AIを「使用人」として設定することで、非倫理的行動を誘発してしまう可能性があります。一方で、AIに人間らしい特徴を持たせることで、そうした問題を軽減できるかもしれません。
技術の恩恵を享受する職場づくり
AIと人間の関係をめぐる一連の研究から、私たちはAIとの関わりが人間の心理や行動に複雑な影響を与えることを学びました。これらの知見は、職場のマネジメントに対しても重要な点を提供しています。
AIを導入する際には、それが従業員の責任感や倫理観にどのような影響を与えるかを慎重に検討する必要があります。AIに責任を転嫁したり、AIを「使用人」として扱うことで非倫理的行動が増加したりする可能性があることを認識し、適切な対策を講じることが大事です。
例えば、AIの役割を「パートナー」として位置づけ、人間とAIの協働を促進するような職場文化を醸成することが有効かもしれません。また、AIの判断プロセスを透明化し、従業員がAIの決定を盲目的に受け入れるのではなく、批判的に評価できるようにすることも有効です。
AIと人間の関係が適切に行われるよう、従業員のAIリテラシーを向上させる取り組みも必要でしょう。AIの能力と限界を正しく理解し、AIとの効果的な協働方法を学ぶことで、AIの導入による生産性向上と倫理的な職場環境の維持の両立が可能になると考えられます。
また、AIの擬人化が人々の反応に影響を与えることを踏まえ、職場で使用するAIシステムのインターフェースデザインにも注意を払う必要があります。適度な擬人化によって、従業員がAIをより身近に感じ、適切に相互作用できる可能性があります。
AIとの関係における倫理的問題は、個人の道徳観や組織の価値観と深く関わっています。そのため、AIの導入に際しては、組織の倫理規定を見直し、AIとの関わり方に関する明確なガイドラインを策定することが望ましいでしょう。
これらの取り組みを通じて、AIと人間が互いの長所を活かしながら協働できる職場を創出することが、今後のAI時代における組織マネジメントの課題となるでしょう。AIと人間の関係に関する研究知見を活用し、技術の恩恵を享受しつつも、倫理的で生産的な職場を実現することが求められています。
脚注
[1] Feier, T., Gogoll, J., and Uhl, M. (2022). Hiding behind machines: Artificial agents may help to evade punishment. Science and Engineering Ethics, 28(2), 1-19.
[2] Purcell, Z. A., and Bonnefon, J.-F. (2023). Humans feel too special for machines to score their morals. PNAS Nexus, 2(6), 1-7.
[3] Mayer, M. M., Buchner, A., and Bell, R. (2023). Humans, machines, and double standards? The moral evaluation of the actions of autonomous vehicles, anthropomorphized autonomous vehicles, and human drivers in road-accident dilemmas. Frontiers in Psychology, 13, 1052729.
[4] Zhang, Y., Wu, J., Yu, F., and Xu, L. (2023). Moral judgments of human vs. AI agents in moral dilemmas. Behavioral Sciences, 13(2), 181.
[5] Liu, Y., Wang, X., Du, Y., and Wang, S. (2023). Service robots vs. human staff: The effect of service agents and service exclusion on unethical consumer behavior. Journal of Hospitality and Tourism Management, 55, 401-415.
[6] Lei, S., Xie, L., and Peng, J. (2024). Unethical consumer behavior following artificial intelligence agent encounters: The differential effect of AI agent roles and its boundary conditions. Journal of Service Research, 27(1), 1-16.
執筆者
伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。