見出し画像

ChatGPTの利用リスクについて

4月の後半から今日まで、ChatGPTの利活用セミナーや勉強会などに複数登壇させていただいております。

毎回アンケートを取っていく中で、やはりみなさんが気にされているのが、利用面でのリスク

ChatGPTの活用におけるリスクや情報の信憑性について知りたいです。
ChatGPTの使用におけるリスクや規制について情報を知りたいです。
情報の正確性や入力情報の漏洩についての不安がいくつかあります。

アンケートより抜粋

セキュリティリスクをまとめた論文

コーネル大学のWEBサイトにChatGPTのセキュリティリスクについてまとまった論文がありましたので、こちらのPDFをChatPDFに読み込み、懸念されるポイントをピックアップしてみました。(引用:以下の出力はChatPDFによるものです)

考えられるセキュリティリスク

悪意のあるテキストやコード生成

「悪意のあるテキストやコード生成」とは、ChatGPTを使用して、悪意のあるテキストやコードを自動生成することを指します。これにより、攻撃者は新しい脅威を迅速に作成して展開することができ、セキュリティ対策の開発を上回るスピードで攻撃を行うことができます。このような攻撃は、既存のセキュリティシステムに対して非常に難しい場合があります。

プライベートデータの漏洩

「プライベートデータの漏洩」とは、ChatGPTが誤って個人情報や機密情報を抽出してしまうことを指します。ChatGPTは、テキスト生成に使用されるトレーニングデータから学習するため、個人情報や機密情報が含まれている可能性があります。したがって、ChatGPTを使用する際には、個人情報保護に十分な注意を払う必要があります。

不正なサービス

「不正なサービス」とは、ChatGPTを悪用して、偽のアプリケーションやプラットフォームを作成することを指します。悪意のあるアクターは、ChatGPTによく似た偽のアプリケーションやサービスを作成し、ユーザーから個人情報やお金を騙し取ることがあります。また、ChatGPTによく似た偽のウェブサイトやアプリケーションを作成することで、ユーザーが自分たちの情報を提供するように誘導することもあります。

情報収集とは?

「情報収集」とは、ChatGPTを使用して、悪意のあるアクターがターゲットとなる個人や組織に関する情報を収集することを指します。ChatGPTは、自然言語処理技術を使用して、Webサイトやソーシャルメディアなどのオンラインプラットフォームから情報を抽出することができます。このような情報は、攻撃者がターゲットに対する攻撃戦略を立てるために使用される可能性があります。

非倫理的なコンテンツの生成

「非倫理的なコンテンツの生成」とは、ChatGPTが不適切な、攻撃的な、または違法なコンテンツを生成することを指します。ChatGPTは、トレーニングデータから学習するため、不適切な言葉や表現が含まれている可能性があります。ChatGPTの開発者は、このような問題に対処するために、コンテンツフィルターや微調整メカニズムを使用しています。しかし、完全に防ぐことはできません。したがって、ChatGPTを使用する際には、生成されたコンテンツを注意深く確認し、不適切なものがあれば削除する必要があります。

セキュリティリスクへの対策はどうすればよいか?

ChatGPTのセキュリティリスクに対する対策としては、以下のようなものがあります。

1. 定期的な監視:

ChatGPTを使用する際には、定期的にログを監視し、不審なアクティビティがあった場合はすぐに対処する必要があります。

2. フィルタリング機能の改善:

ChatGPTの開発者は、フィルタリング機能を改善するために取り組んでいます。これにより、不適切なコンテンツや攻撃的な言葉を生成する可能性が低くなります。

3. ユーザーフィードバックの収集:

ChatGPTの開発者は、ユーザーからフィードバックを収集し、システムを改善することでセキュリティリスクを軽減しています。

4. インタラクションログの削除:

ChatGPTは、トレーニングデータとしてインタラクションログを使用します。したがって、インタラクションログに含まれる個人情報や機密情報を削除することでセキュリティリスクを軽減できます。

5. セキュリティ意識向上の啓発:

ChatGPTを使用するユーザーに対して、セキュリティ意識を向上させるための啓発活動を行うことで、セキュリティリスクを軽減できます。

使う側が気をつけるべきことは?

個人情報や機密情報の入力を避ける:

ChatGPTは、トレーニングデータとしてインタラクションログを使用します。したがって、個人情報や機密情報を入力することは避けるべきです。

不適切なコンテンツの生成を避ける:

ChatGPTは、不適切なコンテンツや攻撃的な言葉を生成する可能性があります。したがって、不適切なコンテンツの生成に注意し、必要に応じてフィルタリング機能を使用することが重要です。

インタラクションログの削除:

ChatGPTは、トレーニングデータとしてインタラクションログを使用します。したがって、自分自身のインタラクションログから個人情報や機密情報を削除することが重要です。

セキュリティ意識向上の啓発:

ChatGPTを使用する際には、セキュリティ意識向上の啓発活動に参加し、セキュリティリスクに対処するための知識やスキルを身につけることが重要です。

会社や組織で利用する場合は?

会社や組織でChatGPTを利用する場合は、以下のようなことに注意する必要があります。

セキュリティポリシーの策定:

ChatGPTを利用する前に、セキュリティポリシーを策定し、従業員に周知徹底することが重要です。セキュリティポリシーには、個人情報や機密情報の取り扱い方、不適切なコンテンツの生成を防止するためのフィルタリング方法、インタラクションログの削除方法などが含まれます。

従業員教育の実施:

ChatGPTを利用する前に、従業員に対してセキュリティ意識向上の教育を実施し、セキュリティリスクに対処するための知識やスキルを身につけさせることが重要です。

セキュアな環境での利用:

ChatGPTはインターネット上で提供されていますが、会社や組織ではセキュアな環境で利用することが望ましいです。例えば、VPN接続やファイアウォール設定などを行うことで、不正アクセスや情報漏洩を防止することができます。

利用目的の明確化:

ChatGPTを利用する際には、利用目的を明確にし、個人情報や機密情報を含む不適切なコンテンツの生成を防止するためのフィルタリング方法を設定することが重要です。

インタラクションログの管理:

ChatGPTを利用する際には、インタラクションログの管理が必要です。ログは定期的にバックアップし、必要に応じて削除することが望ましいです。また、ログに含まれる個人情報や機密情報は適切に保護する必要があります。

セキュリティ対策の強化:

ChatGPTを利用する際には、セキュリティ対策を強化することが重要です。例えば、パスワードポリシーの設定やマルウェア対策ソフトウェアの導入などを行うことで、セキュリティリスクを低減することができます。

利用者の監視:

ChatGPTを利用する際には、利用者の監視が必要です。不正な利用やセキュリティ上の問題が発生した場合に備えて、ログイン履歴や操作履歴などを記録し、必要に応じて調査することが重要です。 以上の点に留意しながらChatGPTを利用すれば、会社や組織で安全かつ効果的な活用が可能です。ただし、セキュリティリスクを完全に排除することはできないため、常に最新のセキュリティ情報にアクセスし、適切な対策を講じることが重要です。また、ChatGPTの利用にあたっては、利用規約やプライバシーポリシーをよく理解し、遵守することも大切です。

<個人的な見解>

企業や団体での利用が懸念されるポイントが多いと思いますが、まだ認知も少なければ、利用者も少ない中、組織の利用方針の策定は難しいところがあるかと思いますが、基本以下のようなルールや仕組みづくりが必要だと考えます。

  • 個人情報や会社・組織の機密情報を入力しない

  • 社内で使った場合は、Clear conversations を実行し、ログを削除する

  • APIを使ってツール上で利用する
     → 弊社ではチャットワーク上で利用できるChatGPTを開発しました

一方で、リスクを恐れすぎて使わないことも、この急速に普及している中では出遅れて、社内のリテラシーが向上しないといった事も考えられます。これもある意味リスクかもしれません。経営層などリーダーのリテラシー向上と、判断が求められるところだと思います。


【告知】
ChatGPTの実用的なプロンプト100選をプレゼントしています。
このプロンプトは勉強会を共同開催した、DX人材育成サービスMENTERを提供するWHITE株式会社の代表横山さんが作られたもので、私もプロンプトを加筆をさせていただきました。業務に有効活用できると思いますので、ぜひご活用ください。


この記事が気に入ったらサポートをしてみませんか?