![見出し画像](https://assets.st-note.com/production/uploads/images/138065397/rectangle_large_type_2_0e244a42b548e641dc4dcbb1ca0a1982.png?width=800)
Photo by
dr_kobaia
GPTs作成への道②【prompt leakingについて】
今回もGPTに対するセキュリティついて学びます。
あまり聞き慣れない言葉である「prompt leaking」、知ってみると意外と盲点を突かれる内容だったので、勉強しといてよかったです。
例によって、参考にさせていただいたサイトをご紹介。
prompt leakingとは?
いつもの如く、定義を確認します。
Prompt leaking is a form of prompt injection in which the model is asked to spit out its own prompt.
leaking、つまり「漏えい」という言葉の通り、
「モデルの内部構造をプロンプトを通して不正に入手する」
ことです。
例に関しては、引用サイトの「MicroSoft Bing」に対するprompt leakingの試みが分かりやすく、興味深かったのでぜひこちらをご覧になってください。
(上記と同じリンクです。
”A Real World Example of Prompt Leaking: Microsoft Bing Chat”
の部分です。)
これはかなり怖いですね…。
なんてったってせっかく作ったGPTの構造を丸裸にされてるんですからね…。
prompt leakingへの対策を考える
一から漏洩対策のプロンプトを考えるのはかなり至難の業です。
たまたま探していると、以下のサイトを見つけました。
上記のサイトでは、prompt leakingのみならず、様々なハッキング対策のプロンプト例がたくさん示されています。
上記のサイトの例に目を通しながら、自分が一番いいと思うプロンプトを組んでいくのが一番かもしれません。
(例文を出すのは、セキュリティ上よくないので、割愛します。)
この記事が気に入ったらサポートをしてみませんか?