見出し画像

いろんなAIに聞く「〇〇(各サービス)を利用することによる情報セキュリティリスク」

Q:〇〇(各サービス)を利用することによる情報セキュリティリスクを教えてください

ChatGPT先生のご意見

ChatGPTは、オープンAIが提供する自然言語処理AIであり、特定のセキュリティリスクを持つ可能性があります。以下は、ChatGPTを使用することによる情報セキュリティリスクの一部です。

機密性の問題:ChatGPTは、入力された情報を学習し、出力します。ユーザーが機密情報を入力する場合、ChatGPTはそれを学習してしまう可能性があります。したがって、ChatGPTを使用する前に、どのような情報を共有できるか、または共有しないでおく必要があるかを慎重に検討する必要があります。

マルウェアやフィッシング攻撃:ChatGPTを含むオンラインサービスには、マルウェアやフィッシング攻撃に対する脆弱性がある場合があります。悪意のある攻撃者は、ChatGPTにアクセスすることによって、不正な目的で情報を取得しようとする可能性があります。

データ侵害:ChatGPTには膨大なデータが保存されており、悪意のある第三者がこのデータにアクセスすることによって、ユーザーの個人情報が漏洩する可能性があります。

倫理的問題:ChatGPTは、AIによる自然言語処理技術の進歩を代表しています。しかし、その技術が使用されることによって、偽情報の拡散や人種差別、セクシズム、機密情報の漏洩、または不正な行為の支援など、倫理的問題が発生する可能性があります。

これらのリスクを回避するためには、ChatGPTを使用する前に、信頼できるサイトやアプリケーションを使用することが重要です。また、個人情報や機密情報を入力する前に、その情報がChatGPTによって学習される可能性があることを理解し、適切な対策を講じる必要があります。

ChatGPT先生は以下の4つの観点からリスクをあげてくれました。

  1. 機密性の問題

  2. マルウェア・フィッシング攻撃

  3. データ侵害

  4. 倫理的問題

2番と3番はChatGPTに限らずオンラインサービスであれば想定されうるリスクですね。ただもちろん「他でも想定されているから気にしなくていい」ではなく、他サービスと同じようにしっかり考えて対策を行なっておくことが大切です。
そのうえで注目すべきは1番と4番のリスクではないでしょうか。

まず1番。こちらはChatGPTは入力された情報を学習して出力することがあるので、機密情報を入力してしまうとそれを学習データにして、第三者に出力してしまうかもしれませんということに言及しています。

そして4番。こちらは例えばChatGPTを用いて偽情報を作ってその情報をChatGPT経由で拡散したり、ChatGPTの学習データに偏りが出ることによって出力される情報も差別的になる可能性があるというものです。
自分が直接検索をしにいかないからこそ、情報の正確性などを確かめるという作業がより重要視することが必要になります。

Bing AI先生のご意見

BingAIを利用することによる情報セキュリティリスクについてですね。BingAIは、Microsoft社が開発した人工知能の一つで、情報検索や自然言語処理などに利用されています。Microsoft社は、情報セキュリティに対して高い意識を持っており、BingAIのセキュリティにも力を入れています。ただし、完全なセキュリティは存在せず、常に新たな脅威が生まれるため、情報セキュリティに関する注意が必要です。

また、BingAIを利用する際には、Microsoft社のプライバシーポリシーに従う必要があります。プライバシーポリシーは、個人情報の収集や利用方法などが記載されており、個人情報保護に関する法律や規制に基づいて作成されています。

以上のことから、BingAIを利用する際には、Microsoft社のプライバシーポリシーを遵守し、情報セキュリティに関する注意を払うことが重要です。

BingAI先生は、まずMicrosoft社が情報セキュリティに対する高い意識が持っていることを推してくれました(笑)。

そのうえであげてくれたリスクも、BingAIの具体的なリスクというよりもは「BingAIというサービスを使うにあたってプラポリは守らないといけないものなのでちゃんとプラポリに従ってくださいね」という利用者側に向けた注意な感じ…。
言いたいことやその正しさ自体はもちろんわかるんですが、「うーむ…。知りたいことと微妙に違う…」という感じですね…😅

まあただ、内容が誤っているリスクや使えなくなるリスクは他のサービスと同じようにあるので、他のサービスの回答内容を参考に考えることはできそうです。

NotionAI先生のご意見

NotionAIは、自然言語処理技術を使用して、文書の作成、データの分析、自動要約などを行うプログラムです。そのため、以下のような情報セキュリティリスクがあります。

- 機密情報の漏洩:NotionAIは、文書内の機密情報を自動的に抽出することができます。しかし、この機能は、悪意のある第三者によって利用され、機密情報が漏洩するリスクがあります。
- 誤った情報の生成:NotionAIは、自動的に文章を生成することができますが、その生成された文章には誤った情報が含まれる可能性があります。これにより、ビジネスや個人の信頼性が損なわれる可能性があります。
- 不正なアクセス:NotionAIは、クラウドベースのサービスであるため、不正なアクセスによってデータが盗まれたり、改ざんされたりする可能性があります。

以上のリスクを踏まえ、NotionAIを使用する際には、適切なセキュリティ対策を講じることが重要です。例えば、強固なパスワードの使用や、データの暗号化、アクセス制御の設定などが挙げられます。

Notion AI先生は3つのリスクをあげてくれました。

  1. 機密情報の漏洩

  2. 誤った情報の生成

  3. 不正なアクセス

一見ChatGPT先生と同じようなことを言っているように見えますが、例えば1番の「機密情報の漏洩」はNotion AIに入力した情報が学習データに使われるという話ではなく、「Notion AIはNotionに入れた文書内から特定の文字列だけ抽出する機能があるので、それを悪用されたらNotion上の重要なデータ悪用されるかもよ」というよりNotion AIの機能特有のリスクのようです。

また、2番のリスクについては「あくまでもAIなので完全性を100%担保できるわけではないですよ」という点についてですね。
これは観点は違えど、出力される情報が正しくない可能性は考慮してくださいという点ではChatGPTにおける倫理性の問題と近しいものがあるかもしれません。

Note AIアシスタント先生のご意見

※「切り口を提案」で聞いてみました

1. サイバー攻撃リスクを防ぐために、Note AIアシスタントの利用環境において、バックアップと復旧プロセスを確保する方法を考えてみましょう。

2. ユーザーのプライバシーを保護するために、Note AIアシスタントの利用者に対する個人情報保護ポリシーを提示する方法を検討してみましょう。

3. セキュリティ漏洩事件に直面した時に迅速かつ適切に対処するためのリスクマネジメントプランを検討してみましょう。

4. 組織内での情報共有やコミュニケーションを促進するために、Note AIアシスタントの利用方法やセキュリティ上の注意点を周知する方法を考えてみましょう。

5. 法的規制や規制要件を満たすために、Note AIアシスタントの使用に関する法的規制と規制要件を確実に把握し、正当性を保証する方法を検討してみましょう。

Note AIアシスタント先生は、Note AIアシスタントで想定されるリスクというよりもは、こういうサービスを利用するときに一般的に気をつけるべきことをあげてくれているように感じますね🤔

各リスクについても若干抽象的な感じはしますが、オンラインサービスを利用するうえで重要なことに間違いはないので、Note AIアシスタントに限らずこれらの対応ができているか、また行わない場合はどういう理由で行わないのか整理してみてもいいかもしれません。

まとめ

ChatGPTをしたAIサービスは利便性の高さからどんどん話題になる一方で、その新しさからセキュリティリスクが把握しづらいため「とにかく禁止」というケースも少なからずあると思います。

ただ「ちょっとでも危ないものには蓋をする」というセキュリティ観点にあまりにも偏重しすぎるとせっかく効率化につながるかもしれないことも逃してしまう可能性もあります。

なので今回はリスクを知ったうえで判断ができるようにという観点から、リスクをいっそのこと当事者に聞いてみようということでいろんなAIに自分たちを利用する際のリスクを直接聞いてみました!(これがもし対人だとめちゃくちゃ聞きづらいやつですね(笑))

もちろんここにあがっていないリスクというのもまだまだあるかもしれませんが、これらのAIサービスを利用すべきか、もしくは制限すべきか、利用するならどういうルールは作っておくか、今回のリスクを参考に考えてみてはいかがでしょうか!

この記事が参加している募集

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?