生成 AI のセキュリティ対策と責任あるAIの実現

OWASP Top 10 for LLM Applicationsは一読するべき

  • 分類はどのフレームワークに対応しているか

  • AI倫理に関するリスク

  • AIのコアディメンション=安全なAIかの指標

AIサービスカードによる透明性の向上

Amazon Bedrockのデータ保護

  • Bedrockで使用されるデータ

    • サービス改善に利用されない

    • 第三者のモデルプロパイダーに共有しない

  • Amazon BedrockサービスとVPC間のプライベート接続ができる

  • データは転送中と保存中も暗号化される

  • データの利用方法や暗号化方法を確認しながら、基盤モデルをプライベートにカスタマイズできる

Guardrails for Amazon Bedrockの仕組み

モデル自動評価の仕組み

  • responsible AI

  • モデルの自動評価と人間の目視評価ができる

  • 両方のモデル評価レポートが生成できる

ログ出力

プロンプトインジェクションへの対策

  1. 生成AIアプリやモデルのバックエンドシステムへのアクセスは最小権限の原則に従い、モデルの動作に必要な最小レベルのアクセスのみに制限

  2. 電子メールの送信や削除のような特権的な操作を実行する場合には、ユーザーの承認など人による判断を入れる(Human in the loop)

  3. 生成AIアプリやモデルを信頼されないユーザーとして扱い外部ソース、拡張可能な機能(プラグインやダウンストリーム機能など)間の信頼境界*を確率する

  • 暗号化オプションを使った方がいい

  • IAMでアクセス管理

  • アクセス制御はアイデンティティでやるしかない

まとめ

*信頼境界とは、コンピュータサイエンスとセキュリティで使用される用語。プログラムデータや実行によって「信頼」レベルが変化する境界、または異なる機能を2つのプリンシパルがデータやコマンドを交換する境界

この記事が気に入ったらサポートをしてみませんか?