2024年2月19日
生成AIの試行錯誤を促すために:最新論文をもとに検討する
本コラムは、生成AIに焦点を当てます。生成AIとは、与えられた指示に基づき、文章、画像、動画などのコンテンツを作成するシステムのことです。ChatGPTやGeminiなどの生成AIサービスが、この1・2年間で急速に普及し、私たちの仕事のあり方を変えようとしています。
生成AIは新しい技術動向の一つであり、その柔軟性の高さと応用範囲の広さから、まだ定式化された標準的な使い方が存在しないのが現状です。
このような状況の中で私たちに求められるのは、様々な文脈で試行錯誤を行い、その可能性を探求することです。仕事における新たな利用方法や利用可能な領域を発見することで、技術の持つ潜在能力を引き出すことができます。
本コラムでは、この種の探索的なアプローチを進める上で必要なことを、最新の研究を参照しながら検討します。ただし、生成AIそのものが進化の途上にあり、研究知見も次々と更新されているため、本コラムの内容も試行錯誤の一環とご理解ください。
誰もが生成AIを受け入れるわけではない
生成AIは現在も進化の途中にあり、応用の可能性は広がっています。そのため、私たちは探索的なアプローチを通じて新しい利用方法を考える必要がありますが、これは簡単なことではありません。
というのも、学術研究によると、生成AIは人々に様々な感情を引き起こすことがわかっているからです。人々の生成AIに対する態度は大きく3つに分類されます[1]。
- リスク知覚:生成AIが提供する情報の信頼性やセキュリティ、プライバシー問題に対する懸念を表します。生成AIに対して様々なリスクを感知することです。
- 不安:生成AIが自分にもたらす可能性のある否定的な影響に対する懸念です。例えば、生成AIへの依存や、それに頼ることで自己の能力が向上しないという恐れが含まれます。
- 技術・社会的影響:生成AIに対する肯定的な態度を示します。例えば、生成AIを魅力的で楽しいものと感じたり、その重要性を認識し、さらに学びを深めたいと考えたりすることが含まれます。
技術・社会的影響を高く評価する人は、生成AIの利用に積極的になると考えられます。しかし、リスク知覚や不安を強く感じる人は、生成AIに対して否定的な態度を持ち、試行錯誤を試みることが少ないでしょう。
ここで重要なのは、生成AIを誰もがすぐに受け入れるわけではないという点です。職場において生成AIの活用を模索する際、誰にその任務を依頼するかによって、探索の範囲や積極性が変わる可能性があります。
知的謙虚さが生成AIの受容を促す
生成AIに限らず、新しい技術が登場した際にそれに対してネガティブな感情を抱くと、合理的な利用を妨げる可能性があることが、これまでの研究で分かっています。
例えば、AIに対して敵意を抱いたり、AIが非人間的であると感じたりすることで、AIに対する不信感が増すという報告があります[2]。
それでは逆に、どのような人が生成AIを受け入れるのでしょうか。このことを明らかにする研究が進められています。一つの要因として、知的謙虚さの高さが挙げられます[3]。
「謙虚」という言葉は日常用語ですが、知的謙虚さはおそらく一般的な語感よりも踏み込んだ意味合いを持ちます。具体的には、知的謙虚さとは、自分の信念、意見、知識の誤りを自覚することを指し、自分の知見が完全ではなく、新しい情報によって変わる可能性があることを認めている状態です。
研究では、知的謙虚さが生成AIに対する受容を促すことを、4つの調査実験によって明らかにしています。その傾向は学生だけではなく社会人にも当てはまり、知的謙虚さが自己報告の場合でも、行動を観察した場合でも一貫した結果が得られています。
知的謙虚さが高い人がなぜ生成AIを受け入れやすいのか気になるところですが、それについても実証されています。知的謙虚さが高いと、経験に対する開放性が増し、結果的に生成AIの受容につながるのです。
経験に対する開放性とは、要するに、本人にとって新しい物事や変化に対して開かれた姿勢を持つことを指します。好奇心旺盛で、これまでにないアイデアにも受容的になり、生成AIも受け入れやすくなります。
知的謙虚さを見出し育む
職場で生成AIの様々な可能性を探求したい場合、知的謙虚さが高い人に頼むと、うまくいく可能性があります。また、知的謙虚さが高い人は、自発的に生成AIを活用しているかもしれません。そのような行動を認め、支援するのも良いでしょう。
知的謙虚さを持つ人を見つける方法は、いくつか考えられます。例えば、アセスメントの結果を参考にすることができます。入社時や昇進時などに受けるアセスメントが、自己報告形式であっても、しっかり設計されていれば、知的謙虚さを推測する手段となります。
自己報告だけでなく、他者からの評価も役立ちます。360度フィードバックと同じ要領で、同僚、部下、上司からの評価を集めることで、自分の意見や信念に固執せず、異なる視点を受け入れる能力があるかどうかのヒントが得られます。
普段の行動から知的謙虚さを見出すことも可能です。定例会議中に意見の相違があったとき、他者の意見を尊重し、自分の間違いを認める様子が見られるかを確認するのも一つの方法です。
知的謙虚さが高い人を選ぶだけでなく、社員の知的謙虚さを引き上げ、生成AIに対する受容を高める方向性も考えられます。
例えば、自分の考え方や依拠する信念を振り返る機会を設けます。自分の価値観に気づき、その前提に思いを巡らせることで、自分の信念を客観視することにつながります。
様々な考え方の人と触れ合うことも有効です。自分にとって異質な他者の声に耳を傾けることで、自分を相対的に認識し、知的謙虚さを育むことができるでしょう。
定期的にフィードバックを提供することも、知的謙虚さを刺激する方法です。フィードバックを通じて自分を俯瞰し、修正する習慣が身につきます。
これらの方法で知的謙虚さを育めば、生成AIに対して積極的に取り組む社員が増えるでしょう。そうすることで、様々な方向性の試行錯誤が進み、自社にとって有益な活用方法を見いだせます。
技術受容モデルが生成AIにも当てはまる
知的謙虚さ以外の観点からも、技術の受容について考えることは重要です。その際、「技術受容モデル」[4]と呼ばれる情報技術に関する有名な枠組みが役立ちます。
技術受容モデルは、生成AIだけでなく、情報技術全般において、導入後の利用促進という課題に対して、長年にわたり注目されています。特に、「生産性のパラドクス」と呼ばれる、組織が情報技術への投資にもかかわらず、期待されたリターンが得られない問題の解明に部分的に貢献しています。
技術受容モデルは、人々が情報技術を受け入れ、利用するための条件を探る上でヒントを提供します。モデルの核心は、「知覚された有用性」と「知覚された使いやすさ」が、情報技術の利用意向を促進するという考え方です。
これら二つの要因が「知覚された」と表現されているのは、実際の有用性や使いやすさよりも、利用者がどのように感じるかが、技術の受容においては影響を与えるためです。
知覚された有用性とは、情報技術の利用によって自分の仕事のパフォーマンスが向上すると信じること、知覚された使いやすさとは、その技術を利用することで余計な労力がかからないと信じることを、それぞれ意味します。
技術受容モデルは、様々な技術に関する研究で実証が積み重ねられており、特に知覚された有用性に関しては一貫した結果が得られています[5]。一方、知覚された使いやすさについては、研究によって結果が異なっているようです。
生成AIに技術受容モデルを適用した研究もあります。それによれば、生成AIが提供する情報や機能が有用と認識されれば、より頻繁にその技術を利用する傾向にあることが示されています[6]。
この結果から、技術受容モデルは、過去の情報技術だけでなく、生成AIにも適用可能であると言えます。したがって、生成AIの利用を促進するためには、その有用性を利用者に認識してもらうことが重要です。
生成AIの知覚された有用性を高める
生成AIの知覚された有用性をどのように促進できるのでしょうか。有用性を高めるためのきっかけを考えてみましょう。
実際に生成AIを利用し、その結果として仕事の効率が向上したり、目標に迅速に到達できたりするという実感が得られれば、生成AIに対する肯定的な認識は形成されます。
これは、生成AIの有用性を知覚する最も確かな方法の一つです。質の高い体験が「生成AIは使える」という認識をもたらします。しかし、試用することが簡単であれば、そもそも本コラムの問題はクリアできているとも言えます。
生成AIをうまく使いこなしている人を目の当たりにすることが、別の有効な方法となります。インターネット上には、生成AIの利用体験を収めた動画が多数アップロードされています。これらを視聴することで、自分が使った場合の可能性や意義を想像しやすくなります。
もし、そのような利用者が身近にいる場合、その効果は一層高まります。知人からの具体的な体験談や推薦は、生成AIの有用性を感じる契機となり得ます。
生成AIに関する情報を得ることも重要です。インターネットを利用すれば、生成AIに関する情報は非常に豊富に存在し、情報の海に溺れそうなほどです。情報収集も生成AIの有用性を理解するための手段となります。
さらに、生成AIについて教育を受けることも、有用性を知覚する機会を提供します。例えば、基本的な内容から応用的な実践に至るトレーニングを受けることで、実体験としての有用性を感じることができます。
これらの取り組みを積み重ねることで、生成AIの知覚された有用性は高まり、利用を考える社員が増えるでしょう。その結果、予期せぬ使い方が開発される確率も高まります。
生成AIを取り入れる上での他の要因
生成AIの採用に影響を与える要因は他にも指摘されています。ある研究では、5つの要因が提案されています。これらは、既に触れた内容と重複する部分もありますが、紹介しましょう。
- 相対的優位性:他の手法と比べて自分にとって実際に便益をもたらすと認識することを指します。これは、技術受容モデルにおける「知覚された有用性」と重なる部分があります。
- 互換性:ある種の相性と捉えることができます。既に慣れ親しんでいる技術に近いほど、生成AIを取り入れる意向が高まります。
- 使いやすさ:自分のニーズに対して便利さを感じることを意味します。これは、技術受容モデルの「知覚された使いやすさ」に関連しているでしょう。
- 観察可能性:他の人が生成AIを使っているのを見ることで、その有用性を知覚しやすくなります。これは、知覚された有用性を促す方法として先に挙げた点と重なります。
- 試用可能性:生成AIを実際に使ってみる機会のことを指します。トレーニングセッションやデモンストレーションがあると、利用意欲は高まります。
これらの要因は、改めて説明を受けると「そんなことは当たり前では」と思えるものかもしれません。しかし、多くの場合、これら「当たり前」の要素をしっかりと理解し、整備することが、生成AIの利用意欲を高め、さまざまな試行錯誤を促進します。
生成AIの利用に関する過信に注意
生成AIに関する研究成果の中には、私たちが注目すべき警鐘を鳴らしてくれるものが存在します。生成AIを批判的、倫理的、効率的に、つまり上手く使用する能力について、自分が他の人よりも優れていると考えることを確かめた研究です[7]。
自分は他者よりも生成AIを適切に使えると信じる心理は、人間心理に関する他の議論、具体的には「第三者効果」に関連しています。
第三者効果とは、メディアの情報が他人に与える影響は大きい一方で、自分にはそれほど大きな影響を与えないと考える傾向を指します。生成AIの文脈では、他の人と比べて自分は影響を受けにくいと誤って考えることがあります。
生成AIを積極的に利用することは、意図せぬ可能性を開く一方で、その使用に対して過信してしまう心理が潜在していることに注意が必要です。生成AIに限らず新しい技術は、場合によっては、無意識のうちにステレオタイプを強化したり、誤った情報を拡散したり、倫理的に問題のある行動を取ったりするリスクを伴うのです。
ここにおいて、知的謙虚さが生成AIの受容を高めるという研究知見の重要性が高まります。すなわち、生成AIは、その利用を通じて自身を変えることに抵抗がない態度が求められます。
しかしながら、一人で生成AIを使用していると、第三者効果における落とし穴に陥る可能性があります。そのため、生成AIを使用する人同士で知見を共有し、オープンな対話を行い、特に自分と異なる考え方に触れることが重要です。
また、生成AIが含む倫理的な課題について考え、組織としても生成AIの利用を促しつつ、そのリスクを教える研修などの場を提供することが求められます。これに加えて社内のガイドラインを整備し、不適切な行動を避け、誤用を抑制することも大切です。
脚注
[1] Sallam, M., Salim, N., Barakat, M., Al-Mahzoum, K., Al-Tammemi, A. B., Malaeb, D., Hallit, R., and Hallit, S. (2023). Assessing health students’ attitudes and usage of ChatGPT in Jordan: Validation study. JMIR Medical Education, 9, Article e48254.
[2] Bochniarz, K. T., Czerwinski, S. K., Sawicki, A., and Atroszko, P. A. (2022). Attitudes to AI among high school students: Understanding distrust towards humans will not help us understand distrust towards AI. Personality and Individual Differences, 185, 111299.
[3] Li, H. (2023). Rethinking human excellence in the AI age: The relationship between intellectual humility and attitudes toward ChatGPT. Personality and Individual Differences, 215, 112401.
[4] Davis, F. D. (1989). Perceived usefulness, perceived ease of use, and user acceptance of information technology. MIS Quarterly, 319-340.
[5] Venkatesh, V., and Davis, F. D. (2000). A theoretical extension of the technology acceptance model: Four longitudinal field studies. Management Science, 46(2), 186-204.
[6] Ivanov, S., and Soliman, M. (2023). Game of algorithms: ChatGPT implications for the future of tourism education and research. Journal of Tourism Futures, 9(2), 214-221.
[7] Chung, M., Kim, N., Jones-Jang, S. M., Choi, J., and Lee, S. (2023). What to do with a double-edged sword? Examining public views on regulating ChatGPT through third-person effect. SSRN.
執筆者
伊達 洋駆 株式会社ビジネスリサーチラボ 代表取締役
神戸大学大学院経営学研究科 博士前期課程修了。修士(経営学)。2009年にLLPビジネスリサーチラボ、2011年に株式会社ビジネスリサーチラボを創業。以降、組織・人事領域を中心に、民間企業を対象にした調査・コンサルティング事業を展開。研究知と実践知の両方を活用した「アカデミックリサーチ」をコンセプトに、組織サーベイや人事データ分析のサービスを提供している。著書に『60分でわかる!心理的安全性 超入門』(技術評論社)や『現場でよくある課題への処方箋 人と組織の行動科学』(すばる舎)、『越境学習入門 組織を強くする「冒険人材」の育て方』(共著;日本能率協会マネジメントセンター)などがある。2022年に「日本の人事部 HRアワード2022」書籍部門 最優秀賞を受賞。