ChatGPTやGeminiなど、生成AI(人工知能)を活用したツールが身近になったことで、業務効率化が進んだ企業・組織は少なくないでしょう。しかし、AIの利用にはプライバシー、セキュリティー面など、いくつかの潜在的なリスクが伴います。事前にリスクマネジメントを行うことが今後の課題です。
この記事では、AIを利用する際のリスクマネジメントのアイディアや対策について解説します。
目次
生成AIとは?
生成AIとは、学習した膨大なデータに基づいて、テキストや画像、音声、動画などを生成するシステムです。深層学習技術で収集したデータからパターンを学習し、新しいコンテンツを生成します。
小説や詩、音楽、絵画などの創作活動のほか、広告、マーケティング、医療、教育、環境といったビジネスおよび社会課題の解決をサポートするために導入が進められています。
生成AIの導入事例
愛知県と県内の全市町村は、AIチャットボットを導入したところ、定量・定性的効果が1つずつ得られました。
1つは、従来職員が行っていた単純な問い合わせをAIに任せることで、対応時間を削減する定量的効果です。2つ目は、問い合わせ方法が追加されたうえ24時間対応が可能になったことで利便性が向上した定性的効果です。
従来のAIは、過去のデータに基づいて分析や予測を行うものでしたが、生成AIでは、新しいものを創造することができます。
(参考:自治体における AI活用・導入ガイドブック|総務省)
AI特有のリスク
AIには、以下のようなリスクが潜みます。
安全性・セキュリティ | 特に使用者の生命・健康等が危ぶまれるインシデント |
セキュリティ | 主にサイバー攻撃に関連するインシデント |
説明可能性 | AI の判断プロセスや根拠が不透明であることに起因したインシデント |
プライバシー | AI システムのデータセット・入力に個人情報・機密情報を用いたインシデント |
公平性の欠如(バイアス) | AI システムの不適切な出力によるインシデント |
悪用 | 人間の悪意などに基づく意図的な対応に関連するインシデント |
ヒューマンエラー | 人間の不注意等のヒューマンエラーに関連するインシデント |
これらのリスクを軽視すると重大なインシデントを招きかねないため、注意が必要です。この項目では、過去に起こったインシデントを紹介します。
安全性
サンフランシスコでは、自動運転車が運行されています。過去には、自律型の自動運転車が暴走した事例がありました。
報告によると、警察が車との対話を試みると車は突然加速して逃げ出し、停車したあとさらに走り出して道の先でハザードランプを点灯してようやく停車しました。
AIを利用した自動車運転は、乗客や歩行者、他の自動車などへの安全性と自動運転に関する法的な課題を残します。
(参考:インシデント175|AI INCIDENT DATABASE)
セキュリティ
双子の兄弟が、お互いが所有するスマホの顔認証システムを試したところ、ロックを解除できた事例がありました。
カメラはユーザーの顔の輪郭を読み取り、その顔が所有者の顔の基準と一致するかどうかを判断します。このシステムでは、一卵性双生児の指紋や瞳の虹彩、静脈パターンなどの違いを識別できますが、顔の3Dモデルを構築して照合する顔認証システム等の場合、双子のようによく似た顔であればロックを解除できることもあります。
(参考:インシデント32|AI INCIDENT DATABASE)
説明可能性
とある地域では、AI予測モデリング(AIPM)を採用してビーチの水質調査を行っていましたが、精度について懸念が生まれました。
AI予測モデリングで安全とされた水域を、従来の伝統的な手法で調査したところ高い数値の大腸菌が数十回検出されたためです。
AIモデルによって予測された結果は必ずしも完璧ではありません。
(参考:インシデント290|AI INCIDENT DATABASE)
プライバシー
とある大学では、オンライン試験の監督などに使用するソフトウェアプラットフォームに関するプライバシー問題が報告されました。
もともとは学生を監視し、試験中の不正行為を防止するのが目的でしたが、新型コロナウイルス感染拡大によって自宅学習を余儀なくされ、日常的に使用することになったのが原因です。自宅という個人的な領域を監視されるのは不安を招くため、生徒は問題提起しました。
(参考:インシデント138|AI INCIDENT DATABASE)
公平性の欠如(バイアス)
企業で内部採用アルゴリズムを採用していていましたが、公平性の欠如が見られたため廃止しました。
このアルゴリズムでは、応募者を5つの段階にランク付けします。「実行した」や「捕らえた」などといった強い動詞が含まれる履歴書に優先順位を与えた一方、「女性」という単語や2つの女子大学の名前が含まれると評価を下げました。
原因は、アルゴリズムを作成したエンジニアの提出した過去の履歴書が影響したと考えられています。過去の候補者は男性がメインでした。
(参考:インシデント37|AI INCIDENT DATABASE)
悪用
大統領が他国への攻撃を命じるように見せかけたディープフェイク動画が広がり、人々の間に不安が広がりました。
ディープフェイクは、ディープラーニングや人工知能(AI)の技術を用いて、顔や音声データを合成・変換する技術です。ディープフェイクによって、人物の顔や動きを別の人物に巧妙に合成することが可能になるほか、ある人物が別の人物の声で話すように見せることもできます。
ディープフェイク技術は、映画やテレビ番組の特殊効果、クリエイティブな表現手法としては有効ですが、悪用されると深刻な問題を引き起こす可能性もあります。
(参考:インシデント676|AI INCIDENT DATABASE)
ヒューマンエラー
ChatGPTなどの生成AIに間違った情報を提供するヒューマンエラーを起こすと、適切な回答を生成できない場合があります。ユーザーが詳しい情報や明確な質問を提供しない場合だけでなく、質問の質が低い場合も同様です。
ある事象や情報を理解するために必要な状況や背景、周囲の状況を詳しく提供することが重要です。
リスクマネジメントのアイディア4つ
AI利用によって起こる問題を避けるには、リスクマネジメントをしっかり行うことが重要です。ここでは、4つのアイディアを紹介します。
- データガバナンスを強化する
- 最新の法規制を理解する
- 説明責任のあるAIモデルを開発する
- モニタリング・リスクマネジメントツールを導入する
1.データガバナンスの強化
組織内でのデータの管理と活用を規定するためのプロセスや枠組みを構築しましょう。ユーザーが生成AIを理解しないまま出力結果を鵜呑みにすると、安全性やセキュリティなどのリスクが生じます。
入力・出力内容を慎重に確認するなどの注意喚起を行うとともに、利用上のガイドラインを策定します。あるいは、入力データを学習に用いないサービス、学習機能を無効にする設定で利用するという方法によってリスク管理をするのも1つの方法です。
全てのサービスがこうした機能を備えているわけではないため、事前に確認が必要です。
2.最新の法規制を理解する
最新の法規制を理解することで法的リスクを最小限に抑えられます。AI技術の発展に伴い、法律や規制は頻繁に変更されます。
AIシステムの開発や運用が法的な要件に適合しているのか、新たなリスクを特定し、影響を把握しておくことが必要です。コンプライアンスを遵守することによって、組織の透明性と信頼性の向上にもつながります。
企業や組織では、専門家や法律顧問を依頼するなど、常に最新の法規制への対応が重要になります。
EUの動向
EUでは、2022年4月にAI規制法案を公表しました。目的は以下の通りです。
- AIのリスク(健康、安全、基本権などへのリスク)に対処する
- AIの導入、AIへの投資、AIによるイノベーションを強化する
- EUにおけるAI単一市場を実現する
適応対象となるAIシステムや人、リスクレベルごとに規制内容を明示しましたが、法案の内容が複雑で解釈に困難な部分があります。EUは今後も法案の詳細な内容を策定し、施行に向けて準備を進めていく予定ですので、今後の動向にも注目しましょう。
(参考:EUのAI規制法案の概要|総務省)
日本の動向
総務省・経済産業省「AI事業者ガイドライン(第1.0版)」では、AI事業者がAIを安全安心に活用できるように、倫理的な指針やリスク管理、ガバナンスなどの自主的な取り組みを促しています。
具体的には、AIに関する法令や倫理指針、技術、事例などの情報を提供するほか、AIに関する相談窓口を設置し、事業者の疑問や質問に個別に回答するなどの取り組みです。
しかし、現時点では具体的な規制案は示されていません。技術の進歩の速さに法整備が追いついていないためです。今後は、国際的な整合性を確保し、AI倫理に関する社会的な議論を深化して規制を検討していくことが予想されます。
生成AIで出力した文書や画像も著作権侵害のリスクを負う
生成AIサービスが商用利用可能でも、出力された画像や文章は他者の権利を侵害するリスクがあります。文化庁によると、AIを利用して画像を生成した場合でも、著作権侵害となるか否かは、人がAIを利用せず絵を描いた場合などの、通常の場合と同様に判断されます。
既存の著作物と似た生成物を利用する際は、著作権者の許諾を得て利用するか、全く異なる著作物となるよう、大幅に手を加えたうえで利用しましょう。
(参考:AIと著作権|文化庁)
3.説明責任のあるAIモデルを開発する
意思決定や結果を説明できるAIモデルを開発することで、企業や組織へのリスクを低減できます。そのためには、MLモデルとAIモデルを明確に定義し、学習データの信頼性と安全性を高めることが重要です。
誤った情報を出力しないように、モデルの学習に利用するデータを精査し、AIのバイアスに対処して公平性を管理します。そのうえで、AIのパフォーマンスを継続的に検証・監視するといいでしょう。入力したプロンプトや出力された回答をチェックし、必要に応じて修正する仕組みを導入するなどの対策を行いましょう。
AI自身に評価させる
AIを使ってAIが出力したコンテンツを評価するのも1つの方法です。それに加えて、複数のAIによる議論を行い、より適切な結果を導き出すのもいいでしょう。人間の評価に比べて迅速かつ低コストで評価できます。
ただし、AIの精度が評価結果に影響する可能性があるため、人的な評価とAIによる評価を組み合わせて、より客観的に評価します。常に正しい結果を出力するAIモデルを作り上げることは簡単ではありません。アウトプット時に注意事項を明示したり、複数の回答を出したりすることで、利用者が生成AIの出力を信じ込まないよう対策しましょう。
4.モニタリング・リスクマネジメントツールを導入する
モニタリング・リスクマネジメントツールは、AI利用時のリスクマネジメントを部分的に支援する有効な手段です。
AIモデルの入力データや出力結果、処理時間などを可視化することで、異常挙動や予期せぬ結果を早期に発見できるほか、データに偏りや欠損、誤りがないかどうかを自動的に検査し、データ品質の問題を検知できます。
不正アクセスやデータ改ざんなどのセキュリティインシデントの検知も可能なため、企業・組織での管理も効率化できます。ただし、 AIモデルの倫理的な問題、AIモデルの利用に関連する法規制への対応を支援することは難しいです。ツールを活用した定量的な分析に加え、定性的な分析も行いましょう。
AIを安全に活用するためにリスクマネジメントを徹底しよう
AIは、業務効率化や新たな価値創造を促進するのに有効なツールです。一方、特有のリスクも存在します。
AIリスクを回避し、安全に活用するために以下4つのアイディアを押さえておきましょう。
- データガバナンスの強化
- 最新の法規制に対する対応
- 説明責任のあるAIモデルの開発
- モニタリング・リスクマネジメントツールの導入
これらのアイディアを参考に、AIリスクを適切に管理し、安全かつ効果的にAIを利用しましょう。
AIを利用して事業を行うなら、併せてBCP対策を考え始めてみてはいかがでしょうか。
トヨクモの「BCP策定支援サービス(ライト版)」ではおよそ1ヵ月でBCP策定ができます。
- 忙しくて時間がない
- 人材が足りない
- AI利用に対するBCP策定方法がわからない
このような企業様にもおすすめです。
以下より資料をダウンロードして、ぜひご検討ください。
BCP策定支援サービス(ライト版)の資料をダウンロードする
※BCP策定支援サービス(ライト版)は株式会社大塚商会が代理店として販売しています。