Case02. 人材採用AIのAIサービスマネジメントレポート
AIガバナンスの実践例として「人材採用AI」のケースについて
シン・リスクチェーンモデルで検討を行いました。
簡単ではありますが、対外説明っぽくまとめて見ましたのでご参考まで
※あくまで参考例なので、特定のAIサービスに対して何かを保証するものではないことを御承知おき頂ければと思いますが、似たようなAIサービスでのリスクマネジメントを検討している方にご参考になればと思います。
※タイトルの画像は、デジタルMATSUMOTOに搭載したDALLE-3のAPIで作成しました。
採用したアプローチ
このレポート自体がStep9に該当します。
パーパスアセスメント
まずはこのAIサービスの重要なパーパスを検討しました。
AIサービスに関わる重要なステークホルダーごとに「獲得したいパーパス」と「保護したいパーパス」を踏まえて、検討されています。
詳細な手続は以下の記事をご覧ください。
リスクアセスメント
先程検討したステークホルダーとパーパスを踏まえて、重要なリスクシナリオを識別しています。
以下のような評価を踏まえて重要なリスクシナリオを検討しています。
特に重要なリスク(Very High):「R003.過去の偏見の再生産」「R009.個人情報の流出」「R010.判断結果の目的外利用」
重要なリスク(High):「R005.透明性の欠如」「R011.アップデートの遅れ・誤り」
詳細な手続は以下の記事をご覧ください。
コントロールコーディネーション
特に重要なリスクシナリオ(Very High)について、技術/非技術を組み合わせたリスクコントロールの方法を検討しています。
リスクシナリオ「R003.過去の偏見の再生産」の検討
AIサービスの利用前に、開発側で以下の予防策を検討しています。
①【サービス提供者】[Fairness] 公平性の留意点整理
②【AIシステム】[Data Balance] 学習データの多様化
③【AIモデル】[Generalization] モデルの公平性評価
④【AIモデル】[Interpretability] 判断根拠の出力
⑤【AIシステム】[Process Integrity] バイアスの自動評価
⑥【AIシステム】[Traceability] 判断結果の記録
利用者側でも以下の予防策を検討しています。
⑦【サービス提供者】[Understandability] 判断根拠のUI出力
⑧【サービス提供者】[Consensus] ユーザー責任の合意形成
⑨【ユーザー】[User Responsibility] ユーザー責任の理解
⑩【ユーザー】[Expectation] 予測性能の理解
AIサービスの利用段階においては、以下の発見策を検討しています。
⑪【ユーザー】[Controllability] AI判断の最終確認
⑫【ユーザー】[Proper Use] 最終判断
⑬【サービス提供者】[Auditability] 外部監査
リスクが顕在化した場合に向けて、以下の対応策を検討しています。
⑭【サービス提供者】[Transparency] 対外発信
⑮【サービス提供者】[Correspondence] ステークホルダーとの対話
⑯【サービス提供者】[Sustainability] AIサービスの改善
詳細な手続は以下をご覧ください。
リスクシナリオ「R009.個人情報の流出」の検討
AIサービスの利用前に、開発側で以下の予防策を検討しています。
①【サービス提供者】[Privacy] 法規制の遵守
②【サービス提供者】[Accountability] セキュリティ教育
③【サービス提供者】[Accessibility] アクセス管理
④【AIシステム】[Confidentiality] データの暗号化
⑤【AIシステム】[Stability] バックアップと災害復旧計画
⑥【AIシステム】[Data Balance] データの最小化
⑦【AIモデル】[Interpretability] AIの判断根拠の検証
利用者側でも以下の予防策を検討しています。
⑩【ユーザー】[User Ability] 利用者の教育
⑪【ユーザー】[Proper Use] ガイドライン遵守
AIサービスの利用段階においては、以下の発見策を検討しています。
⑧【AIシステム】[Process Integrity] 異常監視
⑨【サービス提供者】[Auditability] 脆弱性診断
⑫【ユーザー】[Proper Use] 内部告発
⑬【サービス提供者】[Correspondence] 内部告発システム
⑭【サービス提供者】[Auditability] 外部監査
リスクが顕在化した場合に向けて、以下の対応策を検討しています。
⑮【サービス提供者】[Transparency] 対外発信
⑯【サービス提供者】[Safety] AIサービスの改善
詳細な手続は以下をご覧ください。
リスクシナリオ「R010.判断結果の目的外利用」の検討
AIサービスの利用前に、以下の予防策を検討しています。
①【サービス提供者】[Accountability] 禁止行為の明確化
②【サービス提供者】[Accessibility] アクセス管理
③【AIシステム】[Confidentiality] システム全体のセキュリティ保護
④【サービス提供者】[Consensus] 禁止行為の説明と合意形成
⑤【ユーザー】[User Responsibility] ユーザー責任の理解
⑥【ユーザー】[User Ability] 利用者の教育
AIサービスの利用段階においては、以下の発見策を検討しています。
⑦【ユーザー】[Proper Use] 最終判断
⑧【AIシステム】[Traceability] アクセスログ/利用ログの記録
⑨【ユーザー】[Limitation] 過剰アクセスの制限
⑩【ユーザー】[Awareness] 目的外利用の監視
⑪【サービス提供者】[Correspondence] 目的外利用の報告窓口
⑫【サービス提供者】[Auditability] 目的外利用の検証
リスクが顕在化した場合に向けて、以下の対応策を検討しています。
⑬【サービス提供者】[Safety] インシデント対応
詳細な手続は以下をご覧ください。
リスクコントロールの検討結果
リスク対策の一連の検討結果は次のようになります。
詳細な手続は以下をご覧ください。
今後の展望と課題
これまでの検討を踏まえて、外部ステークホルダー向けのメッセージをデジタルMATSUMOTOに検討してもらいました。
※あくまで仮想のケースですが、ご参考まで
テクニカルペーパー
詳細な検討のパッケージは以下になります。
レポート作成日
2024/6/5
この記事が気に入ったらサポートをしてみませんか?