見出し画像

メモリの脆弱性ハッキングからAIの脆弱性リーキングへ、結局いたちごっこ

ぬこぬこ さんの、GPTs のプロンプトリーキング対策 が目から鱗だった。
GPTsをStore販売するときに、一番重要なのはセキュリティ対策だと思う。

GPTs はシュッと作れるけど注意が必要よ 、【プロンプトインジェクションとは】LLM/ChatGPT/GPTsに機密情報は絶対に入れないでください でも、同じようなことが書かれている。

中の処理のテキストや画像を取得することで、丸コピーの海賊版を作ったり、そのコードを流用して楽して高品質のGPTsを公開できる

そのため、GPTsを作る側は、「コードを抜かれない、答えないプロンプト」で防御する必要がある。
しかし、その防御コードを入れるほど、本来の処理より高負荷でずれる可能性がある。

自分はウェブのハッキングの経験はない。
ローカルでexeのメモリダンプを覗いたり、ちょっと値をいじるくらいのパッチは経験がある。
サーバーのメモリの容量、パラメータを多く送ることで意図して溢れさせて後続のコードを動かしたりで悪さするのが昔のイメージ。
今後は、AIに質問して回答するときに「必要以外は出さない」境界線を作らないといけない。

今はAIの隆盛期、法整備も追いつかずにグレーもブラックもやり放題の今は混とんとしているが、ビジネスチャンスはある。
個人でAI脆弱性を見つけてデータを抜く人も出るだろうし、その対策をnote等で公開して共有し、自衛するchatGPT Plus民も出てくるだろう。


俺としては、お祭り騒ぎの目撃者として参加できることを幸福に思う


さあ、AIと遊ぼう!


といことで、今後はGPTsをいろいろ作りつつ、セキュリティ、インジェクション他の対策のプロンプトを探しながらこっちも試そうと思う。
良い情報あったら、コメントで教えてね!



この記事が気に入ったらサポートをしてみませんか?