いろんなAIに聞く「〇〇(各サービス)を利用することによる情報セキュリティリスク」
Q:〇〇(各サービス)を利用することによる情報セキュリティリスクを教えてください
ChatGPT先生のご意見
ChatGPT先生は以下の4つの観点からリスクをあげてくれました。
機密性の問題
マルウェア・フィッシング攻撃
データ侵害
倫理的問題
2番と3番はChatGPTに限らずオンラインサービスであれば想定されうるリスクですね。ただもちろん「他でも想定されているから気にしなくていい」ではなく、他サービスと同じようにしっかり考えて対策を行なっておくことが大切です。
そのうえで注目すべきは1番と4番のリスクではないでしょうか。
まず1番。こちらはChatGPTは入力された情報を学習して出力することがあるので、機密情報を入力してしまうとそれを学習データにして、第三者に出力してしまうかもしれませんということに言及しています。
そして4番。こちらは例えばChatGPTを用いて偽情報を作ってその情報をChatGPT経由で拡散したり、ChatGPTの学習データに偏りが出ることによって出力される情報も差別的になる可能性があるというものです。
自分が直接検索をしにいかないからこそ、情報の正確性などを確かめるという作業がより重要視することが必要になります。
Bing AI先生のご意見
BingAI先生は、まずMicrosoft社が情報セキュリティに対する高い意識が持っていることを推してくれました(笑)。
そのうえであげてくれたリスクも、BingAIの具体的なリスクというよりもは「BingAIというサービスを使うにあたってプラポリは守らないといけないものなのでちゃんとプラポリに従ってくださいね」という利用者側に向けた注意な感じ…。
言いたいことやその正しさ自体はもちろんわかるんですが、「うーむ…。知りたいことと微妙に違う…」という感じですね…😅
まあただ、内容が誤っているリスクや使えなくなるリスクは他のサービスと同じようにあるので、他のサービスの回答内容を参考に考えることはできそうです。
NotionAI先生のご意見
Notion AI先生は3つのリスクをあげてくれました。
機密情報の漏洩
誤った情報の生成
不正なアクセス
一見ChatGPT先生と同じようなことを言っているように見えますが、例えば1番の「機密情報の漏洩」はNotion AIに入力した情報が学習データに使われるという話ではなく、「Notion AIはNotionに入れた文書内から特定の文字列だけ抽出する機能があるので、それを悪用されたらNotion上の重要なデータ悪用されるかもよ」というよりNotion AIの機能特有のリスクのようです。
また、2番のリスクについては「あくまでもAIなので完全性を100%担保できるわけではないですよ」という点についてですね。
これは観点は違えど、出力される情報が正しくない可能性は考慮してくださいという点ではChatGPTにおける倫理性の問題と近しいものがあるかもしれません。
Note AIアシスタント先生のご意見
※「切り口を提案」で聞いてみました
Note AIアシスタント先生は、Note AIアシスタントで想定されるリスクというよりもは、こういうサービスを利用するときに一般的に気をつけるべきことをあげてくれているように感じますね🤔
各リスクについても若干抽象的な感じはしますが、オンラインサービスを利用するうえで重要なことに間違いはないので、Note AIアシスタントに限らずこれらの対応ができているか、また行わない場合はどういう理由で行わないのか整理してみてもいいかもしれません。
まとめ
ChatGPTをしたAIサービスは利便性の高さからどんどん話題になる一方で、その新しさからセキュリティリスクが把握しづらいため「とにかく禁止」というケースも少なからずあると思います。
ただ「ちょっとでも危ないものには蓋をする」というセキュリティ観点にあまりにも偏重しすぎるとせっかく効率化につながるかもしれないことも逃してしまう可能性もあります。
なので今回はリスクを知ったうえで判断ができるようにという観点から、リスクをいっそのこと当事者に聞いてみようということでいろんなAIに自分たちを利用する際のリスクを直接聞いてみました!(これがもし対人だとめちゃくちゃ聞きづらいやつですね(笑))
もちろんここにあがっていないリスクというのもまだまだあるかもしれませんが、これらのAIサービスを利用すべきか、もしくは制限すべきか、利用するならどういうルールは作っておくか、今回のリスクを参考に考えてみてはいかがでしょうか!
この記事が参加している募集
この記事が気に入ったらサポートをしてみませんか?