(28) 生成AIのリスクと従業員向けガイドラインの必要性
生成AIのビジネス利用は経営者の知らない間に拡大しています。AIの先進国であるアメリカにおけるAIの浸透は日本の比ではなく、すでに多くの企業が対応策を取っています。
生成AIとは人間の代わりに文章を書いたり画像や動画を作成してくれるAIの一種です。さらに膨大なデータを分析整理したり、コンピュータープログラムを書いたりそのテストをすることもできます。ほとんどの企業で非公式にこうしたAI利用が進んでいると想定できます。それには従業員がレポートやプレゼンテーションを作る時にAIの助けを借りるような初歩的な使い方から、取引先の信用調査や新入社員のレジュメ分析など企業活動に大きなインパクトを持つ活動まで含まれています。
生成AIは使う側にとっては大変便利ですが、同時に多様かつ重大なリスクを持っています。経営者は早めに対応策を取り、AIのベネフィットを安全に享受するスタートを切ることをおすすめします。
具体的なリスクにはどのようなものがあるでしょうか。
- 虚偽の情報の提供
- 偽造・盗作
- 情報漏洩
- ブランド棄損
- 違法利用による罰金
- AIに過度に依存した社員のスキル低下
根本的な問題は現在のAIは責任を持てないことです。AIは人間の目的を共有できませんし、常識と暗黙の制約条件を理解していません。さらにAIは真実という概念を持ちません。したがってAIを利用する社員はそのことを十分理解し、最終責任は自分にあるということを自覚する必要があります。
経営者側にはどういう打ち手があるでしょうか。
これからもAIはますます進化し、それをどう使うかが企業の存続に関わってくるでしょう。社員がAIの長所と短所を理解し効果的に使えるようになるためには学習の時間が必要です。したがってAI利用の一律禁止は現実的でもないし得策でもないでしょう。企業にはAI利用を促進しつつ推奨事項と禁止事項を明確に打ち出すことが求められます。具体的にはAI利用に関するガイドラインやポリシーを策定し、説明会・トレーニングを実施することをおすすめします。
ガイドラインの具体的な内容の候補を以下に示します。日本の本社側で規定がある場合はそれをローカライズすることも必要になります。ガイドラインは完全性を追求せず、簡潔に社員の頭に残るように工夫が必要です。
- 業務で使用可能なAIツールの一覧(ホワイトリスト、ブラックリスト、要相談リスト)
- 業務で使用する場合の利用方法・コスト負担について
- 最終責任は社員にあることのリマインド
- AI利用の注意点(バイアス・虚偽・著作権違反・国別規制への配慮など)
- AIのアウトプットを人間のレビューなしに社外に出さないこと(あれば例外規定)
- AIにインプット可能(不可)なデータ一覧
- 具体的なAI利用の推奨事例と利用不可ケースの解説
- 相談窓口・連絡先
ガイドラインの作成の最初のステップは社内においてAIがどのように使われているかの実態調査でしょう。上記で触れていない情報セキュリティ上の問題が発見されるかも知れませんし、思わぬベストプラクティスが発掘されるかも知れません。AIと人間は一緒になって新たな進化の途上にいると言えます。経営者の関心が今まで以上に向けられることを期待します。