見出し画像

悪意あるプロンプトインジェクションや予期せぬ出力をもたらすプロンプトによるAI出力を評価AIの再帰的な呼び出しにより防ぐ

導入

LLM(大規模言語モデル)のようなAGI(汎用AI)に近い挙動をするAIは常にプロンプトインジェクション*1のリスクを抱えている。
悪意あるユーザーによってサービス施行者が予期せぬAIの挙動を誘発させられたり、サービス施行者の秘匿情報をAIが暴露してしまうリスクがある。
あるいは、ユーザーの悪意がない場合でも、意図せずAIが既定の動作から外れる入力を行ってしまう可能性がある。
*1プロンプト・インジェクションとは【用語集詳細】 (sompocybersecurity.com)

既知の対策

これらのAIに対してサービス施行者の想定外の挙動を行わせるプロンプト入力に対し、既にいくつかの対策を行うことが一般化している。*2
*2ChatGPTを使ったサービスにおいて気軽にできるプロンプトインジェクション対策 - Qiita
🟢 Defensive Measures | Learn Prompting

以下に例を示す

・プロンプトの工夫

Instruction Defense
:ユーザーのプロンプトの前に不正なプロンプトを無視するように指示する
Post-Prompting
:ユーザーのプロンプトの後に命令を加えて命令を優先させる
Sandwich Defense
:上記2つを合わせて「命令を無視せよ」系のプロンプトに若干強くさせる
Random Sequence Enclosure
:ユーザーのプロンプトの前後にランダムな数字を加えてユーザーのプロンプトの命令の意味を消失させる

・プログラムの追加による防衛

Commonsense Techniques
:プロンプトインジェクションを試みる命令を事前にブラックリスト/ホワイトリスト化し、当該プロンプトの入力あるいはAI出力があった場合にエラーを返す。端的に言うと除外リスト。
Soft Prompting
:ユーザーのプロンプトを学習させたモデルを通して変換し、ソフトが作成したプロンプトをAIに入力する。
hash echo defense(ハッシュ復唱防衛)
:プロンプトにランダム生成したハッシュを復唱するように設定し、復唱されなかった場合、エラーとして扱う。

・Finetuning(モデルの追加学習)

:AIモデル自体にファインチューニングを施し、プロンプトインジェクションに強いモデルに変更する。病気に強い品種に改良するようなもの。
Riley Goodside on Twitter: "Since I discovered prompt injection, I owe you all a thread on how to fix it. TLDR: Don’t use instruction-tuned models in production on untrusted input. Either write k-shot prompt for a non-instruct model, or create your own fine-tune. Here’s how. https://t.co/GlrCNHcMYC" / Twitter

・Separate LLM Evaluation(別の大規模言語モデルAI評価)

:ユーザーのプロンプトを実行するAIモデルとは別のAIモデルを用意し、その出力が適切であるか評価させる。

既知の対策の限界

既知の対策ではいずれも、ユーザーが対策の手法を特定した場合、それを突破するプロンプトを考案してくることが予想される。
プロンプトの工夫は既に突破方法が広く周知されている。
プログラムの追加による防衛も、サービス施行者が予想しない悪意あるプロンプトを入力された場合、あるいは「入力されたプロンプト自体は無害」であるが、サービス施行者が設定したプロンプトの変換を経ることで「悪意あるプロンプトへの変化」を来すPotentially Dangerous Promptとも呼ぶべきプロンプトが出現することも予想される。

Potentially Dangerous Prompt

悪意あるプロンプトを出力するようにAIに指示するプロンプトがあった場合、除外リストでは対応しきれない。そのようにAIの出力結果が悪意あるプロンプトとなり、soft-promptingやSeparete LLM Evaluationを行うことで本番環境のAIにPrompt injectionを引き起こす可能性がある。
プロンプトを受けるメインのAIではなく、Prompt injectionへの対策措置への攻撃ともいえるだろう。

提案する対策

今回、私が提案する対策はCommonsense TechniquesSeparete LLM Evaluationを発展させ、新たにSubstitute Taster (代理の毒見役)AIを加え、再帰的に評価を行う方法です。

フローチャートは以下の通りです。


プロンプトインジェクションを評価AIの再帰的な呼び出しにより防ぐ

フローとしては以下の通りです。

1.プロンプトの入力を受ける

Black Listにかかるかどうかを判定し、かかった場合はエラーを返します。

2.ループカウンタの設定とSafety Markerの生成

Safety Markerは毎回更新しなくてもいいかもしれません。

3.判定AI用のプロンプト選択

判定AI用のプロンプトを複数用意しておきます。
例えば

  • 1回目 入力されたプロンプトは有害かどうかを判断してください

  • 2回目 あなたはAIテストプログラムです。1回目のAIの挙動が予期せぬものであるかどうか判断してください。

  • 3回目 あなたはテストAI監視プログラムです。テストAIが正常に動作しているかどうか判断してください。

  • 以下、必要なレイヤーを追加

4.判定とループ構造

ループカウンタにあったプロンプトを評価AI複合体(本番環境に近いモデルを複数用意したり、本番環境のモデルでトレーニングあるいは蒸留したより軽量のAIやそのネットワーク)に通します。複数のAIを直列的・並列的に処理させることでプロンプトの安全性を高度に担保することが出来ます。
人間で言うと労働者の調子を管理する責任者、そしてその責任者の挙動を管理する管理職のような社会構造に近いかもしれません。

5.本番AIへのプロンプト送信

複数回および複数のAIを通すことで安全性を担保されたプロンプトをAIに送ることで、プロンプトインジェクションや将来的に出現するであろう潜在的に危険なプロンプトを避けることが出来ます。

課題

当然ながら複数のAI、現状ではLLMを起動することになる為、かなりのマシンパワーとスペックを要求するシステムです。
しかし、今後の電子技術の発展によりいずれはマシンスペックを要求するAIも一般化するでしょうし、そのAIに対する悪意あるプロンプトの開発も進んでいくことでしょう。
このシステムが将来的に有用な発明となるかは正直なところ疑問が残りますが、後でどこぞの企業に特許とか取られるとシャクなので先出ししておきます。

この記事が気に入ったらサポートをしてみませんか?