ビジネスリサーチラボ

open
読み込み中

コラム

「人間らしさ」の可能性と限界:AIとの共存が問いかけるもの

コラム

人工知能(AI)技術の発展に伴い、AIと人間の接点が増加しています。しかし、AIと人間の関係が深まるにつれ、その相互作用の複雑さも顕著になってきました。

本コラムでは、AIと人間の相互作用に関する研究結果を参照しながら、この関係性がもたらす課題について考察します。AIの外見や振る舞いが人々の信頼感にどのような変化をもたらすのか、AIによるサービス提供の利点と課題は何か、そしてAIと人間の協調はどのように進んでいくのか。これらの問いを通じて、AIと共生する社会の姿を探ってみましょう。

AIと人間の相互作用は、技術的な側面だけでなく、心理的、社会的な要素が複雑に絡み合う領域です。本コラムを通じて、読者の皆様がAIとの付き合い方について新たな視点を得られることを願っています。

擬人化されたAIは人間らしく捉えられる

AIの外見や振る舞いが人間に似ていると、私たちはそのAIをより人間らしく捉える傾向があることが判明しています。この現象は、特にAIが人型をしている場合に顕著に表れます。

ある研究では、AIの外見的特徴、特に人間らしさが、人々のAIに対する認識にどのような変化をもたらすかを調査しました[1]。調査では、参加者に人間らしいAIと、そうではないAIの画像を見せ、その後、AIに関する様々な質問に答えてもらいました。

結果、人間らしい外見を持つAIは、政治的意見を持つ可能性があると認識されることがわかりました。参加者は、人間らしいAIが自ら考え、意見を形成する能力を持っていると考えました。AIが大量のデータを処理し、学習する能力を持っているという理解が背景にあると考えられます。

加えて、宗教的信念や祈りの可能性についても、人間らしい外見を持つAIの方が高く評価されました。一部の参加者は、AIが「祈る」ことさえも可能だと考えました。AIの一貫した行動パターンが、あたかも信仰心や精神性を持っているかのように解釈されたためと推測されます。

AIが自身のアイデンティティを持つかどうかについても、人間らしい外見を持つAIの方が可能性が高いと見なされました。AIの一貫した応答や行動が、人間のアイデンティティに似た何かを持っているように感じられたのでしょう。

しかし、AIの責任や罰の概念については、参加者の反応は複雑でした。AIが間違いを犯した場合、責任を問われるべきだと考える傾向はありましたが、AIを実際に罰するという考えには否定的でした。

また、AIが世界平和や犯罪削減などの複雑な社会問題に貢献できるかという点については、参加者は懐疑的でした。これらの問題は、文化的、歴史的、心理的な要素が複雑に絡み合っており、AIだけでは解決できないと考えられたのです。

これらから、AIの外見や振る舞いが人間に近づくほど、私たちはAIにより人間らしい特性や能力を期待することがわかります。しかし同時に、AIの限界や、人間との本質的な違いも認識されています。このような認識の二面性は、今後のAI開発やAIと人間の関係性を考える上で意味を持っています。

擬人化がプロセス失敗の後に悪影響をもたらす

AIやロボットが人間らしい外見や振る舞いを持つことで、人々の期待が高まる一方で、それが裏目に出ることもあります。特に、サービスの提供過程でAIやロボットが失敗した場合、その影響は人間らしさの度合いによって異なることがわかっています。

ヒューマノイド型(人間の形をした)ロボットと非ヒューマノイド型ロボットによるサービス失敗に対する消費者の反応が調査されました[2]。調査では、プロセス失敗(例:無礼な対応)と成果失敗(例:注文ミス)という2種類の失敗を設定し、それぞれに対する消費者の反応を比較しました。

調査の結果、ヒューマノイド型ロボットがプロセス失敗を犯した場合、消費者は非ヒューマノイド型ロボットよりも大きな不満を感じることがわかりました。これは、ヒューマノイド型ロボットに対して、より人間らしい対応を期待するためです。人間らしい外見を持つロボットには、より高い温かさや親しみやすさが期待されるため、その期待が裏切られたときの失望も大きくなります。

一方で、成果失敗(例:注文ミス)に関しては、ヒューマノイド型と非ヒューマノイド型の間に大きな違いは見られませんでした。成果に関する失敗が主にロボットの能力や有能さに関するものであり、外見的な人間らしさとはあまり関係がないためだと考えられます。

研究では、サービス失敗後の回復方法についても調査しました。ヒューマノイド型ロボットが謝罪を行うことで、消費者の満足度が回復することがわかりました。さらに、失敗の原因を説明することで、消費者の再利用意図が高まることも確認されました。これらの結果は、ヒューマノイド型ロボットが人間らしい社会的スキルを持つことへの期待を反映しています。

非ヒューマノイド型ロボットの場合は、人間の従業員が介入して謝罪することで、消費者の不満を緩和できることが見えてきました。非ヒューマノイド型ロボットには人間らしい対応があまり期待されていないため、人間の介入がより効果的に働くのでしょう。

人間らしい外見や振る舞いを持つAIやロボットは、消費者の期待を高める一方で、失敗時のリスクも大きくなります。特にプロセス面での失敗は、消費者の信頼を損なう可能性があります。

AIと人間の相互作用において、人間らしさは両刃の剣となり得ます。適切に設計された人間らしさは、AIとの円滑なコミュニケーションを促進しますが、過度の人間らしさは期待と現実のギャップを生み出し、失望や不満を招く可能性があるということです。

ときにAIは人間より信頼される

AIと人間の相互作用において、示唆的な現象が明らかになっています。ある状況下では、人々がAIやロボットを人間よりも信頼する傾向があるということです。この現象を探るため、研究チームは独自の実験を行いました[3]

実験では、「信頼ゲーム」と呼ばれる方法を用いて、人々のAIやロボットに対する信頼度を測定しました。参加者は1000ドルを持っており、その一部を相手(AIやロボット、または人間)に渡すことができます。渡した金額は3倍になり、相手がどれだけ返金するかを決定します。このゲームでは、相手により多くのお金を渡すほど、その相手を信頼していることを表します。

実験の結果、予想に反して、AIやロボットの対戦相手が人間よりも信頼されることがわかりました。特に注目すべきは、「jdrx894」という機械的な名前のロボットが、「Michael」という人間の名前よりも高い信頼を得たことです。

なぜこのような結果になったのでしょうか。研究者たちは、これにはいくつかの要因が関係していると考えています。

まず、人々は他人を利己的だと考える傾向があります。「他人は自分よりも自己中心的である」というバイアスが働くため、人間の名前を持つ相手に対しては警戒心が働き、信頼が低下する可能性があります。

一方、ロボットやAIは個人的な感情や利己的な動機がないと見なされることが多く、「機械は公正で合理的な決定を下す」と期待されやすいのです。このため、ロボットやAIが人間よりも信頼されたと考えられます。

また、技術や工学の学位を持つ参加者や、ロボットやAIにオンラインで接触した経験のある参加者が、他の参加者よりもロボットやAIに対して高い信頼を示すことがわかりました。技術に精通している人ほど、AIやロボットの性能や限界をよく理解し、それらに対して合理的な期待を持つことができるのでしょう。

参加者の性格特性も信頼度に影響を与えていました。ビッグファイブの性格特性のうち、「開放性」が高い人ほどロボットやAIに対する信頼が高く、逆に「誠実性」が高い人ほど信頼が低いことがわかりました。

開放性の高い人は新しい経験やアイデアに対して柔軟で、好奇心旺盛です。技術的な革新や未知の存在に対しても積極的に接する傾向があり、ロボットやAIに対しても信頼を寄せやすいと思われます。

一方、誠実性の高い人は規律や慎重さを重視するため、新しい技術や不確実な存在に対して懐疑的になりやすく、ロボットやAIに対する信頼が低くなったのかもしれません。

さらに、自己効力感(自分がロボットやAIをうまく扱えるという自信)が信頼に影響することもわかりました。自己効力感が高い人は、自分がロボットやAIをコントロールできる、あるいは正しく扱えるという信念を持っており、この自信が技術に対する安心感や信頼につながっています。

この研究は、AIと人間の相互作用の複雑さを浮き彫りにしています。人々のAIに対する信頼は、技術そのものだけでなく、個人の経験や性格、そして社会的な文脈によって形成されるのです。今後、AIがさらに社会に浸透していく中で、このような信頼関係がどのように変化していくのか、注目される分野となるでしょう。

専門サービスにおけるAIのダークサイド

AIの進化と社会への浸透が進む中、その利点が広く認識される一方で、潜在的な問題点も指摘されています。特に、専門的なサービス分野においてAIを導入する際のリスクについて、研究が発表されています[4]

研究では、法律、会計、コンサルティングなどの専門サービス分野でAIを導入することによって生じる可能性のある問題点、いわゆる「ダークサイド」に焦点を当てています。注目すべきは、AIの導入が専門家とクライアント間の信頼関係を損なう可能性があるという指摘です。

研究者たちが懸念しているのは、主に4つの問題点です。

1つ目は、「ブラックボックス問題」です。AIが使用するアルゴリズムは非常に複雑で、一般のユーザーには理解が難しいものです。そのため、AIがどのようにして判断を下しているのかが不明確になってしまいます。

これは特に法律や金融の分野で問題となる可能性があります。例えば、過去の判例データに基づいて学習したAIが、特定の属性を持つ人々に不利な判断をしてしまうかもしれません。しかし、その判断過程が不透明なため、問題の発見や修正が困難になるのです。

2つ目の問題は、「プライバシーとガバナンス」に関するものです。AIシステムは膨大な量のデータを扱います。特に医療や金融サービスでは、個人の機密情報がAIに入力されることになります。もしこれらのデータが適切に管理されなければ、情報漏洩や不正利用のリスクが高まります。例えば、ハッキングによってデータが盗まれたり、AIの開発者が個人情報を不適切に扱ったりする可能性があるのです。

3つ目は、「エージェンシーと責任問題」です。AIが判断を下した場合、その結果に対して誰が責任を負うのかが不明確になります。例えば、AIが誤った診断を下した場合、その責任はAIの開発者にあるのか、それともAIを使用した医療機関にあるのか、判断が難しくなります。責任の所在があいまいになると、問題が発生した際の対応が遅れたり、適切な解決策を見出すのが難しくなったりする可能性があります。

4つ目の問題点は、「サービス品質の低下」です。AIによる自動化が進むと、特に高度な知識や経験が必要とされる分野で、サービスの質が低下する可能性があります。AIは確かに大量のデータを処理し、一般的な解答を提供することはできます。

しかし、個々のクライアントの特殊な状況や細かなニュアンスを理解し、それに応じたアドバイスを提供することは、現状のAIには難しいのです。例えば、複雑な法律相談において、AIが提供するアドバイスが一般論に終始し、クライアントの具体的な状況に即していない場合、クライアントの信頼を失うことにつながるかもしれません。

これらの問題点は、AIの技術的な複雑さや、データの扱い方、責任の所在の不明確さなど、様々な要因が絡み合って生じています。長期的に見ると、AIが社会に与える影響を予測するのは困難です。倫理的な問題や法的な課題が次々と浮上してくる可能性があります。

AIと人間の相互作用は、技術の進歩とともにますます複雑化しています。AIの能力が向上し、より多くの分野で活用されるようになるにつれ、私たちはその恩恵を受ける一方で、新たな課題にも直面することになるでしょう。特に専門サービス分野では、AIの活用と人間の専門性のバランスをどのようにとるかが重要な課題となります。

AIの「ダークサイド」を認識することは、AIの可能性を否定することではありません。むしろ、これらの問題点を理解し、対処することで、AIと人間がより良い形で共存し、協力できる未来を築くことができるのです。技術の開発だけでなく、倫理的・法的な枠組みの整備、そして社会全体でのAIリテラシーの向上が不可欠となるでしょう。

脚注

[1] Pelau, C., Pop, S., and Ciofu, I. (2024). Scenario-based approach to AI’s agency to perform human-specific tasks. Proceedings of the 18th International Conference on Business Excellence, 2311-2318.

[2] Choi, S., Mattila, A. S., and Bolton, L. E. (2021). To err is human(-oid): How do consumers react to robot service failure and recovery? Journal of Service Research, 24(3), 354-371.

[3] Oksanen, A., Savela, N., Latikka, R., and Koivula, A. (2020). Trust toward robots and artificial intelligence: An experimental approach to human?technology interactions online. Frontiers in Psychology, 11, 568256.

[4] Trincado-Munoz, F. J., Cordasco, C., and Vorley, T. (2024). The dark side of AI in professional services. The Service Industries Journal.


執筆者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。

#伊達洋駆

アーカイブ

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています