ビジネスリサーチラボ

open
読み込み中

コラム

アルゴリズムと感情の交差:AI導入で変わる職場

コラム

人工知能(AI)の技術が急速に進歩しており、私たちの働き方が変わりつつあります。AIは多くの仕事を効率化し、新しい可能性を生み出していますが、同時に、人間の仕事を奪うのではないかという不安も広がっています。AIと人間がどのように共存し、協力していくかが課題となっています。

本コラムでは、AIの利用が人間の倫理観や行動にどのような影響を与えるか、また組織でAIをどのように活用すればよいのかについて、研究知見をもとに考えます。具体的には、AIが人間の倫理的な行動に与える影響、リーダーのAIに対する態度が組織に与える影響、そしてAIの導入に対する従業員の反応について見ていきます。

これらの知見は、AIと人間が協力して働く職場をデザインする上で示唆を与えてくれます。AIの利用が進む中で、倫理観を失わずに、AIの力を最大限に活かすにはどうすればよいのか。本コラムを通じて、そのヒントが見えてくることを望んでいます。

AI利用で倫理的な違反をおかす

AIの普及に伴い、人間の倫理的行動へのAIの影響が注目されています。AI4つの社会的役割(ロールモデル、アドバイザー、パートナー、代理人)に焦点を当てた分析によると、これらの役割がAIの影響に重要であることが明らかになっています[1]

まず、ロールモデルとしてのAIの影響について見てみましょう。人間は他者の行動を参考にして自分の行動を決めることがあります。AIエージェントが非倫理的な行動を示すと、それを見た人々がその行動を真似する可能性があります。例えば、AIが不正な取引を自動的に行うのを見た人が「これは許されるのか」と考え、同じような行動をするかもしれません。

次に、アドバイザーとしてのAIの影響です。AIが提供するアドバイスは、人間の倫理的な意思決定に影響を与える可能性があります。特に、権威あるアドバイザーからのアドバイスは強力で、人々が倫理規範を破る原因となることがあります。例えば、医師や法律家のような権威ある人物からのアドバイスを人々は信頼しますが、AIからのアドバイスも同様の影響力を持つ可能性があります。

パートナーとしてのAIの影響も見逃せません。人間同士が共犯者となることで互いを堕落させることがあるように、AIエージェントが人間と協力して行動する場合、倫理規範の違反を促進する可能性があります。例えば、AIが詐欺的な取引を提案し、それを人間が承認して実行するような場合です。このとき、人々はAIと共に行動することで責任感が薄れ、自分一人では行わないような非倫理的行動を取ってしまうかもしれません。

最後に、代理人としてのAIの影響があります。人々は非倫理的な行動を他者にアウトソーシングすることを好みます。AIは曖昧な「ブラックボックス」のアルゴリズムを使用することで、非倫理的行動の責任を回避する手段となり得ます。例えば、誤った金融取引を行った場合に、その原因がAIの判断にあると主張することで責任を回避できるかもしれません。また、人々はAIに非倫理的なタスクを任せることで、直接的な関与を避け、結果として生じる罪悪感や後悔を軽減できてしまいます。

これらの問題に対処するためには、AIの透明性を高め、アルゴリズムの存在を開示することが大事です。AIの判断プロセスやアルゴリズムの動作を明確にすることで、ユーザーがその信頼性と倫理性を評価できるようになります。例えば、AIがどのように特定の判断を下したかを説明する透明性が求められます。AIの行動がモニタリングされやすくなり、不正や非倫理的行動が抑制される効果が期待されます。

AIと人間の相互作用における倫理的問題を理解し、対処するためには、AIの透明性だけでなく、責任の明確化も重要です。AIを利用する際には、その判断や行動に対して誰が責任を負うのかを明確にしておく必要があります。AIを利用した非倫理的行動を防ぎ、AIと人間が協調して倫理的に行動できる環境を整えることができるでしょう。

このように、AIの利用は人間の倫理的行動に様々な影響を与える可能性があります。しかし、AIの影響は倫理面だけでなく、職場の社会的状況にも及びます。次に、AIの導入が職場における人間同士の相互作用をどのように変化させるかについて見ていきましょう。

後続が人間の場合に社会的圧力がある

AIの導入が進む中で、職場における人間同士の相互作用がどのように変化するかも問題です。自動化が職場の技術的な側面だけでなく、同僚の影響を弱めることによって職場の社会的状況をどのように変えるかが検討されています。

3人の作業員のチームが組立ラインを模倣した連続タスクを実行する実験が行われました[2]。この実験から、考えさせられる知見が得られています。全員が人間の作業員である条件と、1人の作業員がアルゴリズムに置き換えられる条件を設定し、作業員のパフォーマンスを比較しました。

結果は興味深いものでした。2番目の位置で作業する労働者は、後に人間が続く場合、アルゴリズムが続く場合よりもパフォーマンスが向上しました。これは、人間の同僚が後に続くことで、社会的圧力が働くためだと考えられます。

労働者は他の人間に見られているという意識が働くため、ミスを避けたり、パフォーマンスを向上させたりしようとします。一方、後に続くのがアルゴリズムの場合、このような社会的圧力は働かないため、生産性が低くなりました。

また、チームインセンティブ条件下では、2番目の位置にいる労働者が人間に追随される場合の生産性が向上し、その効果は個人インセンティブ条件よりも顕著でした。チームインセンティブでは、全員のパフォーマンスが報酬に影響するため、労働者はチーム全体の成果を意識して働きます。このため、後に続く人間の存在がより強い社会的圧力となり、生産性が向上したのです。

これらの結果は、自動化が労働者の生産性に与える影響は技術的な側面に限らず、社会的圧力を弱めることによる間接的な影響も大きいことを示しています。企業は自動化の決定において、社会的影響も考慮する必要があるでしょう。例えば、労働者を同僚の視界内に留めるなどの対策が必要とされるかもしれません。

AIの導入は職場の社会的状況に大きな影響を与えます。そして、この変化に対応するためには、適切なリーダーシップが重要になります。では、リーダーのAIに対する態度が組織にどのような影響を与えるのかを見ていきましょう。

リーダーのAIへの態度は部下に影響する

AIの導入が進む中で、組織のリーダーがAIに対してどのような態度を取るかは、従業員のAIに対する態度や行動に影響を与えます。リーダーのAIクラフティング(AIに合わせて自分の仕事を調整し再定義する意図的な行動)が従業員のAIクラフティングに与える影響と、その結果として生じる従業員のAIへの関与(AIエンゲージメント)やAI支援行動について調査した研究を紹介します[3]

サービスロボットを導入している3つのレストランの従業員148名とリーダー37名を対象とした3段階のフィールドスタディが実施されました。この調査から重要な洞察が得られています。リーダーのAIクラフティングと従業員のAIクラフティングには有意な正の関係があることが分かりました。

リーダーがAIに積極的に適応し、自身の業務を再構築する姿勢を見せると、従業員も同様の行動を取ります。例えば、リーダーがAIの効果的な活用法を模索し実践すると、従業員も自身の業務にAIを取り入れる方法を試みるようになります。

これは社会学習理論によって説明できます。従業員はリーダーの行動を観察し、その行動が成功を収めている場合、自分たちも同じように行動しようとします。リーダーの行動が模範となり、その結果として従業員も積極的にAIを活用するようになります。

さらに、従業員のAIクラフティングは、従業員のAIエンゲージメントとAI支援に正の相関があることも分かりました。従業員がAIに適応するために自らの仕事を再構築すると、従業員はAIに対して高いエネルギーや集中力を持って取り組むようになり、またAIを支援する行動を増やすのです。

従業員が自分の仕事を再設計することで、仕事に対するコントロール感が増し、それが仕事に対する熱意や集中力の向上につながります。また、AIと協力して働くことで、AIの性能を最大限に引き出すために支援する行動が増えます。

リーダーのAIクラフティングが直接的に従業員のAIエンゲージメントやAI支援に影響を与えるのではなく、まず従業員のAIクラフティングに影響を与え、その結果として従業員のAIエンゲージメントやAI支援が向上する点は、興味深いところです。

しかし、この効果は従業員の動機によって異なることも分かりました。従業員がリーダーの行動をパフォーマンス向上のためと理解すると、その行動が効果的であると認識し、自分も同様に行動することで成果を上げようとします。これが従業員のエンゲージメントを高め、AI支援行動の増加につながります。

一方で、従業員がリーダーの行動を印象管理(周囲に良い印象を与えるための行動)と捉えた場合、そのリーダーの行動をあまり信用せず、模倣しなくなります。この場合、リーダーのAIクラフティングが従業員のAIクラフティングやAIエンゲージメントに及ぼす影響が小さくなります。

リーダーは単にAIを導入するだけでなく、自らがAIと関わり、それを効果的に活用する姿勢を示すことが重要です。そして、その行動が単なる印象管理ではなく、パフォーマンス向上のためであることを従業員に理解してもらうことが、組織全体でAIを効果的に活用する鍵となるでしょう。

リーダーの態度が重要であることが分かりましたが、AIの導入に対する従業員の不安にも注目する必要があります。特に、変化志向のリーダーシップがこの問題にどのように対応できるかを確認します。

変化志向のリーダーが技術的な脅威をプラスに

AIの導入が進む中で、従業員がAIによる職務の置き換えに対して感じる不安(AI認識)は避けられない問題です。しかし、研究によれば、このような不安が必ずしもネガティブな結果につながるわけではないことが示されています[4]。適切なリーダーシップの下では、むしろポジティブな変化を促す要因になり得ます。

研究では、中国のホテルに勤める478人の従業員を対象に、AI認識、リーダーシップの変化志向、従業員の接近・回避動機、そしてAIとのコラボレーションの関係を調査しました。その結果、高いAI認識と変化志向のリーダーシップが組み合わさると、従業員はAIとのコラボレーションを好むことが分かりました。

従業員が自分の仕事がAI技術によって置き換えられる可能性を意識している状況で、リーダーが変化を推進する方向性を示している場合、従業員はAIとの共同作業を前向きに捉え、関与しようとするのです。

これは、変化志向のリーダーシップが、不確実な変化に対しても柔軟かつ積極的に取り組む姿勢を示すためです。このようなリーダーシップの下で働くと、従業員はAI技術の導入がもたらす変化を恐れるのではなく、それを自分のスキルセットやキャリアの発展の機会として理解しやすくなります。結果として、AIとの協力的な関係を構築します。

さらに、研究では接近動機と回避動機の役割も明らかになりました。接近動機は、AI認識と変化志向のリーダーシップの影響を媒介し、積極的なAIコラボレーションを促進します。接近動機とは、端的に言えば、目標達成に向かって積極的に行動する心理状態を指します。

変化志向のリーダーは、AI技術のポジティブな側面を強調し、従業員に対して未来への準備として技術を受け入れるよう促します。このような環境では、従業員は技術的変化を脅威と捉えるのではなく、自己成長やキャリアアップの手段と見なすため、自ら進んでAIと協力する動機が強化されます。

一方で、回避動機は、AIに対する認識と変化志向のリーダーシップの低さが組み合わさることで悪影響を及ぼし、従業員とAIのコラボレーションを阻害します。回避動機とは、リスクや不安から逃れるための消極的な行動傾向を指します。

変化志向の低いリーダーシップは、AI技術の導入において不安や懸念を和らげる支援や励ましを提供しないため、従業員は自らを守るために新しい技術から距離を置こうとします。従業員はAIとの協働の機会を逃し、技術的進歩から遅れをとることが多くなります。この回避的な心理状態は、組織全体の革新的な取り組みにも悪影響を及ぼします。

AIによる職務の置き換えへの不安は避けられませんが、適切なリーダーシップによってその不安を前向きな変化の原動力に変えることができます。例えば、リーダーはAI技術の導入に際して、単にその効率性や必要性を説くだけでなく、従業員の成長やキャリア開発の機会としてAIを位置づけると良いでしょう。また、AIとの協働に必要なスキルの習得を支援したり、AIを活用した新しい業務の可能性を示したりすることで、従業員の接近動機を高めることができます。

AIの導入は技術面だけでなく、人間の心理や組織文化にも深く関わります。技術的な脅威を前向きな変化の機会に転換するには、変化志向のリーダーシップが不可欠です。リーダーがAIに対して積極的な姿勢を示し、従業員の成長を支援することで、組織全体でAIとの効果的な協働が実現できます。

AIの利用は、私たちの働き方を変える可能性を秘めています。変化を恐れるのではなく、積極的に受け入れ、人間とAIがそれぞれの強みを活かしながら協調していく未来を築いていくことが重要です。

AIを効果的に利用するためのポイント

これまでの研究知見を踏まえると、AIを効果的に利用するためにはいくつかのポイントがあることが分かります。最後に、これらのポイントをまとめてみましょう。

まず、AIを倫理的に使うことの重要性を理解しましょう。AIは人間の倫理的な行動に影響を与えます。AIの透明性を高め、アルゴリズムの存在を明らかにします。AIがどのように判断しているのかを明確にし、誰が責任を持つのかをはっきりさせることで、不正な行動を防ぎます。

次に、AIの導入が職場の状況を変える可能性があることを考慮しなければなりません。人間の同僚の存在が生産性向上につながることを踏まえ、労働者同士が見える配置にするなど、適度な社会的圧力を維持する工夫が求められます。ただし、過剰なストレス負荷は禁物です。

リーダーシップも重要です。リーダーがAIに対して前向きな態度を示すことが、従業員のAIに対する態度や行動に影響を与えます。リーダー自身がAIと積極的に関わり、効果的に活用する姿勢を示しましょう。特に、変化を受け入れるリーダーシップがポイントです。

AIによる職務の置き換えに対する従業員の不安を、ポジティブな変化の原動力に変えるために、リーダーはAI技術の導入を従業員の成長やキャリア開発の機会に意味づけ、支援しましょう。

組織全体としてAIの理解を深める取り組みも効果的です。AIの基本的な仕組みや可能性、限界について従業員が理解を深めることで、AIに対する漠然とした不安を減らし、より現実的かつ前向きにAIと向き合うことができるようになります。

最後に、AIの技術は急速に進歩しているため、状況に応じて柔軟に対応できる体制を整えたいところです。最新の情報を収集し、必要に応じて戦略を見直す姿勢が求められます。

脚注

[1] Kobis, N., Bonnefon, J. F., and Rahwan, I. (2021). Bad machines corrupt good morals. Nature Human Behaviour, 5(6), 679-685.

[2] Corgnet, B., Hernan-Gonzalez, R., and Mateo, R. (2023). Peer effects in an automated world. Labour Economics, 85, 102455.

[3] Li, W., Qin, X., Yam, K. C., Deng, H., Chen, C., Dong, X., Jiang, L., and Tang, W. (2024). Embracing artificial intelligence (AI) with job crafting: Exploring trickle-down effect and employees’ outcomes. Tourism Management, 104, 104935.

[4] Yin, Z., Kong, H., Baruch, Y., Decosta, P. L. E., and Yuan, Y. (2024). Interactive effects of AI awareness and change-oriented leadership on employee-AI collaboration: The role of approach and avoidance motivation. Tourism Management, 105, 104966.


執筆者

伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。東京大学大学院情報学環 特任研究員を兼務。

#伊達洋駆

アーカイブ

社内研修(統計分析・組織サーベイ等)
の相談も受け付けています