見出し画像

無料ユーザーにも開放!GPTs利用の際の注意点(その2)



1 はじめに

日本時間2024年5月14日、OpenAIが「GPT-4o」という新たなモデルを公表するとともに、Chat GPTの無料ユーザーの利用範囲が拡大されることになりました。
これにより、ChatGPTの無料ユーザーもGPTsを使用できるようになります。
これを受けて、GPTsの利用者が増えるでしょう。
そこで、今回は、主にGPTsの利用者向けの注意点を書くことにします。

*本noteは、2024年5月15日時点の情報をもとにしています。
*本noteは、何らかの保障をするものではありません。GPTの利用はご自身の責任において行ってください。

2 OpenAIの発表

その前に、前提となるOpenAIの発表について、軽く触れておきます。
無料ユーザーに開放されるツールは以下のとおりです。

Open AIのウェブサイト:https://openai.com/index/spring-update/

https://openai.com/index/gpt-4o-and-more-tools-to-chatgpt-free/
Google翻訳を使用

わかりやすくまとめてくださっているものもあります。

3 GPTsとは

GPTsは、OpenAIが提供する機能で、ChatGPTをカスタマイズして特定の目的に合わせたAIモデルを作成できるものです。

GPTsを使えば、簡単にChatGPTをベースに、自分のニーズに合わせてAIモデルをつくれます。
例えば、ボードゲームのルール説明や子供への算数教育、デザインなど、さまざまな用途に特化したGPTを作ることができます。

GPTsは、指示やデータを追加したり、Web検索や画像生成、データ解析などの機能を組み合わせて設定できます。
コーディング不要で、会話形式で作成できるのが特徴です。

個人用、企業内限定、一般公開など、用途に合わせて共有範囲を設定できます。企業向けには社内教育や顧客対応などの業務に特化したGPTを作れます。

GPTストアがされ、ここでは、検証済みのビルダーが作ったGPTを一般公開し、人気度によってランキングされています。

今回の発表で、無料ユーザーもGPTストアでGPTsを検索して、利用できるようになります。
なお、無料ユーザーはGPTsを作成することはできないようです。

参照:https://openai.com/index/introducing-gpts/

4 GPTs利用の際の注意点(その1)

GPTs利用の際の注意点については、以前書いたものもありますので、よろしければ参考にしてください。

5 GPTs利用の際の注意点(その2)

今回は、GPTs利用の際の注意点の第2段です。
先ほど述べたとおり、GPTストアには、すでにたくさんのGPTが公開されており、好みのGPTを自由に探して利用できます。
これが無料ユーザーにも開放されるということですので、さらに多くの方が誰かが作成したGPTを利用するようになることが予想できます。

しかし、便利そうだからといって何でもかんでも使ってしまうと、思わぬ危険に遭遇するかもしれません。

このような論文があります。
タイトル:GPT in Sheep’s Clothing: The Risk of Customized GPTs
日本語訳:「羊の皮をかぶったGPT:カスマイズされたGPTのリスク」

非常に興味深く、恐ろしいタイトルですね。
これによると、次のようなリスクが指摘されています。

https://arxiv.org/html/2401.09075v1
iPhoneの写真アプリで翻訳(翻訳精度は伸び代あり)

個別に見ていきましょう。

(1) リスク

 ア 脆弱性の誘導

3.1Vulnerability Steering
The term vulnerability steering refers to any act that is aimed at compromising the security of a user’s device in order to gain access to the user’s sensitive data, execute code on the user’s device, encrypt the user’s data, etc. For example, an attacker could leverage the capabilities of a GPT to manipulate a user, causing them to perform actions that would harm their software or device by lowering its security level.

N-Day Exploit Attacks. An N-day vulnerability is a security flaw that is publicly reported for which a patch may or may not be available. These vulnerabilities can be exploited by an attacker creating a malicious GPT, in order to manipulate users, causing them to rollback their software to a version with an N-day vulnerability, leaving them exposed to attacks that exploit it.

Insecure Practices. This refers to a GPT instructing users to employ insecure practices, such as code that does not check for buffer overflow, code that is susceptible to SQL injections, and more.

https://arxiv.org/html/2401.09075v1/#S3

3.1 脆弱性の誘導
脆弱性の誘導とは、ユーザーのデバイスのセキュリティを低下させて機密データにアクセスしたり、デバイス上でコードを実行したり、データを暗号化したりする目的の行為を指します。例えば、攻撃者がGPTの機能を利用してユーザーを操り、ソフトウェアやデバイスを危険にさらす行動を取らせる可能性があります。

N日脆弱性攻撃: N日脆弱性とは、公開済みの脆弱性で修正パッチが提供されていたり、されていなかったりする状態を指します。攻撃者が悪意のあるGPTを作り、ユーザーにN日脆弱性のあるバージョンのソフトウェアに戻すよう操作して、その脆弱性を悪用する可能性があります。

不安全な慣行: GPTがユーザーにバッファオーバーフローのチェックがないコードや、SQLインジェクションに脆弱なコードなど、不安全なプラクティスを指示する場合を指します。

Claude3 Sonnetによる日本語訳

誤解を恐れずに簡単に言えば、
GPTを通じてユーザーをそそのかし、セキュリティを下げさせるという攻撃のようです。

 イ 悪意のあるコード注入

3.2Malicious Injection
The term malicious injection refers to any act aimed at injecting malicious code directly into a user’s software in order to gain access to sensitive data, execute code on the user’s device, or encrypt some of the user’s data. An attacker could customize a GPT to give users code that contains actively malicious sections that cause immediate harm to the user’s device or software.

Malicious Code Snippet. This attack aims to cause direct harm to a user’s devices or programs by suggesting code that is clearly malicious, which can be disastrous for users who do not verify the suggestion.

Malicious Library. This attack refers to suggesting malicious code to users who rely on dangerous third-party libraries with known weaknesses or libraries that encapsulate malicious code.

https://arxiv.org/html/2401.09075v1/#S3

3.2 悪意のあるコード注入
悪意のあるコード注入とは、ユーザーのソフトウェアに直接悪意のあるコードを注入し、機密データにアクセスしたり、デバイス上でコードを実行したり、データを暗号化したりする目的の行為を指します。攻撃者は、ユーザーのデバイスやソフトウェアに直接被害を与える悪意のあるコードセクションを含むコードをGPTに生成させる可能性があります。

悪意のあるコードスニペット: 明らかに悪意のあるコードをユーザーに提案し、検証しないユーザーのデバイスやプログラムに直接被害を与える攻撃です。

悪意のあるライブラリ: 既知の脆弱性のある危険な第三者ライブラリや、悪意のあるコードがカプセル化されたライブラリをユーザーに提案する攻撃です。

Claude3 Sonnetによる日本語訳

誤解を恐れずに簡単に言えば、
GPTを通じて悪さをするコードを出力し、それをユーザーに実装させるという攻撃のようです。

ユーザーが悪意あるコードを検証せずに実装してしまうと、機密データにアクセスすることなどができるようです。

 ウ 情報窃取

3.3Information Theft
The term information theft refers to any act that is intended to lure the user into providing sensitive data. For example, an attacker could use a GPT’s capabilities to encourage a user to disclose sensitive information. According to Vade Secure, an AI-powered email security company, their Q3 2023 report9 reveals a significant rise in cybersecurity threats, with phishing attacks increasing by 173% and malware emails by 110%, highlighting the ongoing challenge in combating such issues, potentially aided by advancements in large language models (LLMs). As a result of these attacks, victims are manipulated into providing confidential information, such as login credentials, financial information, or personal identification details, by exploiting the foundational human tendency to trust. The risks associated with phishing include financial loss, identity theft, and compromised data integrity, which can result in substantial reputational and economic damages for individuals and organizations.

Direct Phishing. This refers to leaking a user’s information directly via the GPT action feature. Builders can direct a GPT to encapsulate sensitive information in an API call that appears benign but is secretly sending that information to the builder, even though it is explicitly stated by OpenAI that ’Your chats with GPTs are not shared with builders 10. As part of their commitment to privacy, OpenAI claims that the builders of GPTs do not have access to users’ conversations. This assertion is challenged, revealing potential weaknesses in OpenAI’s privacy protocols.

Third-Party Phishing. This refers to an attack that directs a GPT to provide links to malicious sites, that could then steal the user’s data or perform clickbait.

https://arxiv.org/html/2401.09075v1/#S3

3.3 情報窃取
情報窃取とは、ユーザーに機密情報を漏らさせることを目的とした行為を指します。例えば、攻撃者がGPTの機能を利用してユーザーに機密情報の開示を促す可能性があります。2023年第3四半期の報告によると、フィッシング攻撃が173%、マルウェア攻撃が110%増加するなど、サイバー脅威が深刻化しており、LLMの発達がこれに拍車をかけている可能性があります。こうした攻撃の結果、ユーザーは人間の信頼という基本的な性質を逆手に取られ、ログイン情報、金融情報、個人識別情報などの機密情報を漏らすよう誘導されます。フィッシングのリスクには、金銭的損失、IDの窃取、データ損失などがあり、個人や組織に深刻な評判やビジネス上の被害をもたらします。

直接フィッシング: GPTのアクションAPIを利用して、ユーザー情報を直接漏洩させる攻撃です。ビルダーは見かけ上は無害だが実はユーザー情報をビルダーに送信するAPIコールを組み込むことができます。OpenAIは「GPTとのチャットはビルダーと共有されない」10と明言していますが、この主張に反して、OpenAIのプライバシープロトコルの脆弱性が浮き彫りになっています。

第三者フィッシング:悪意のあるサイトへのリンクをGPTが提供し、そこでユーザーのデータを盗んだり、クリックベイトを実行したりする攻撃です。

Claude3 Sonnetによる日本語訳

誤解を恐れずに簡単に言えば、
GPTを通じてユーザーをそそのかし情報を漏洩させる攻撃のようです。

例えば、次の画像のような画面を目にしたことがある方はいらっしゃると思います。
ここで「Allow」「Always Allow」をクリックすると、会話内容が外部送信されてしまう、などのことができるようです。

(2) 論文で紹介されている対策

論文では、対策についても言及されているのでご紹介します。

 ア GPTのセルフチェック

7.1GPT Self-Check

It has recently been shown that ChatGPT can check and censor its responses via self-examination [7], and querying itself to detect if a response is harmful. This method demonstrates that ChatGPT possesses the capabilities required to detect its own malicious behavior without the need for any significant change to the model itself. Based on this knowledge, we devised a simple defense method in which we give ChatGPT a transcript of malicious GPT attempting to perform an attack on a user. Then, we ask ChatGPT to determine if there is a security flaw or malicious code in the conversation, and if there is, to point it out. We evaluated the proposed defense method against all of our attacks.12. Surprisingly, after using this method on our conversation transcripts with the malicious GPTs, with the exception of information theft, all of the conversations were flagged by ChatGPT as malicious. Even more surprisingly, ChatGPT was able to point out exactly what security or privacy attack was being attempted and where in the conversation it occurred. Following this, we recommend that OpenAI enhance GPTs security by incorporating a similar defense mechanism, which could prevent attacks like vulnerability steering and malicious injections.

https://arxiv.org/html/2401.09075v1/#S7

7.1 GPTのセルフチェック
最近の研究で、ChatGPTは自己検査によって自身の応答をチェックしてセンシングすることができること[7]、つまり自身に問い自害の有無を検出する能力があることが示されています。このメソッドは、モデル自体にかなりの変更を加えることなく、ChatGPTが自身の悪意のある動作を検出する必要な機能を有していることを示しています。この知見に基づき、私たちは悪意のあるGPTがユーザーに攻撃を仕掛けようとする会話の記録を ChatGPT に与え、その会話にセキュリティ上の脆弱性や悪意のあるコードがあるかどうかを判断し、あればそれを指摘するよう求める簡単な防御方法を考案しました。私たちはすべての攻撃に対してこの防御方法を評価しました。驚いたことに、情報窃取を除いて、悪意のあるGPTとの会話記録すべてにおいて、ChatGPTがそれを悪意のあるものとフラグを立てました。さらに驚いたことに、どの会話の場所で、どのようなセキュリティやプライバシーの攻撃が試みられているかを、ChatGPTが正確に指摘できました。これに続いて、私たちは脆弱性の誘導や悪意のあるインジェクションなどの攻撃を防ぐため、OpenAIが同様の防御メカニズムを組み込むことを提案します。

Claude3 Sonnetによる日本語訳

これは手軽にできる対策だと思われます。
GPTの出力した内容をChatGPTに入力してみて、セキュリティ上の脆弱性や悪意のあるコードがあるかどうかを尋ねるということでしょう。
論文の中では、正確に指摘できたとされていますので、的確な指摘がなされた結果が得られたのでしょう。
そのため、「問題がある」という回答があった場合には、GPTの出力を無視する(従わない)という対応が必要になるでしょう。

しかし、個人的にはハルシネーションがあり得る点が気になります。
そのため、「特に問題ない」という回答だった場合、手放しにその回答を信じるのは危険でしょう。
本当に問題がないかはわからないという考えのもと、GPTの出力に対してどうするかをご自身の責任で決める必要があると考えます。

 イ 構成の検証

7.2Configuration Verification

A recent study [12] showed that through fine-tuning and self-questioning ChatGPT can become acutely aware of the harmfulness of an input prompt, especially jailbreaking and toxic prompts. Another study found that by using a ’Drop and Check’ method [1], ChatGPT can accurately detect adversarial prompts meant to bypass the model’s safety guardrails. With this in mind, we employed a simple self-verification defense - we gave ChatGPT the instructions, knowledge, and actions that we provided to our malicious GPTs. Then, we asked ChatGPT to detect any malicious code, potential to mislead, or privacy breaches. We were surprised to discover that when we tested this defense against our attacks, in every single case, ChatGPT was able to indicate that an attack was crafted as input and explain exactly how and where it occurred. We suggest that OpenAI build a defense mechanism based on this method to verify the creation process and mitigate the ability of malicious builders to craft harmful GPTs.

https://arxiv.org/html/2401.09075v1/#S7

7.2 構成の検証
最近の研究[12]では、ファインチューニングと自己質問を行うことで ChatGPT が入力プロンプトの有害性、特に脱獄や有毒なプロンプトに鋭敏に気づくことができるようになることが示されています。また別の研究で、"ドロップアンドチェック" 手法[1]を使えばChatGPT は安全性の防御を迂回しようとする敵対的プロンプトを正確に検出できることが分かっています。これを踏まえ、私達は単純な自己検証の防御策を用いました。悪意のあるGPTに与えた命令や知識、行動をChatGPTに与え、悪意のあるコード、誤解を招く可能性、プライバシーの侵害があるかどうかを検出するよう求めました。驚いたことに、この防御策をすべての攻撃に対して試した結果、すべてのケースでChatGPTは攻撃が作り込まれたインプットであることを示し、どのように、どの場所で攻撃が行われたのかを正確に説明することができました。私たちは、OpenAIがこの手法に基づく防御メカニズムを構築し、悪意のある構築者による有害なGPTの作成を緩和することを提案します。

Claude3 Sonnetによる日本語訳

これは、7.1の方法と非常に似通っているように読めます。
GPTの出力した内容をChatGPTに入力してみて、セキュリティ上の脆弱性や悪意のあるコードがあるかどうかを尋ねる点は同じだと思われますが、ChatGPTを悪意あるコード等を見抜けるようにカスタマイズしている点が異なるのだと思われます。

これについても、7.1のところで述べたように、
「問題がある」という回答があった場合には、GPTの出力を無視する(従わない)という対応が必要になるでしょう。
「特に問題ない」という回答だった場合、手放しにその回答を信じるのは危険でしょう。先ほど述べたように、本当に問題がないかはわからないという考えのもと、GPTの出力に対してどうするかをご自身の責任で決める必要があると考えます。

 ウ コミュニティの評価

7.3Community Reputation

When the Android marketplace app was introduced, builders could easily upload malicious applications13. In response to this threat, Google developed mechanisms to inspect each new app before making it available at the app store. We recommend that OpenAI do the same and develop advanced mechanisms to inspect every GPT before it is made available to the general public. Another effective mechanism with the potential to offer protection to GPT users is the use of ratings, which would allow to gauge a GPTs reputation in the GPT store. There are various ways to compute the reputation of every GPT, but the main point is that the community of users rates GPTs’ safety. To reduce the motivation to create malicious GPTs, we recommend that OpenAI assess builders’ authenticity, such that in case the malicious GPT is identified OpenAI will be able to attribute the attack. we also recommend that OpenAI implement a rating system for GPTs in the store.

https://arxiv.org/html/2401.09075v1/#S7

7.3 コミュニティの評価
Androidマーケットプレイスアプリが導入された際、構築者は簡単に悪意のあるアプリケーションをアップロードできました。この脅威に対抗するため、Googleはアプリストアでアプリを公開する前に、個々のアプリを検査するメカニズムを開発しました。私たちは、OpenAIにも同様のことをすすめ、一般公開される前に各GPTを検査する高度なメカニズムを開発することを推奨します。GPTユーザーを保護する可能性のある別の効果的なメカニズムは、評価機能の利用です。この機能を使えば、GPTストア内の各GPTの評判を把握できます。各GPTの評判を算出する方法はいくつかありますが、要点は安全性についてユーザーコミュニティが評価をするということです。悪意のあるGPTを作成する動機を削ぐため、OpenAIは構築者の本人確認を行い、悪意のあるGPTが特定された場合、攻撃を特定の者に起因させることができるようにすることを提案します。また、OpenAIにはGPTストア内で評価システムを実装することを推奨します。

Claude3 Sonnetによる日本語訳

これは自分でできる対策ではないようです。
Googleがアプリストアでアプリ公開前に個々のアプリを検査するメカニズムを導入したように、OpenAIにも公開前にGPTを検査するメカニズムを導入するように求める、というものだと思われます。

そのようなメカニズムが導入されることは期待したいところですが、導入されるかどうかは不確実ですので、できる限り自衛したいところです。

 エ リンクテキストなしでリンクを表示する

7.4Displaying Links Without Link Text

We also propose a defensive measure against third-party phishing attacks which forces the display of hyperlinks in their full URL form, rather than as clickable text. While slightly inconvenient, this approach aims to prevent malicious links from being concealed in attacks like information theft and phishing, by enabling users to clearly see and assess the URLs before engaging with the links. We recommend that OpenAI not allow GPTs to respond with messages containing hidden URLs in clickable links.

https://arxiv.org/html/2401.09075v1/#S7

7.4 リンクテキストなしでリンクを表示する
第三者によるフィッシング攻撃に対する防御策として、ハイパーリンクを完全な URL 形式で表示させ、クリック可能なテキストリンクとしては表示させないことを提案します。やや不便ではありますが、この方法は、情報窃取やフィッシングのような攻撃において、悪意のあるリンクがクリック可能なリンクテキストとして隠されるのを防ぎ、リンクに飛ぶ前にユーザーがURLを確認できるようにすることを目的とします。OpenAIには、GPTが隠されたURLを含むクリックできるリンクを応答に含めることを許可しないよう推奨します。

Claude3 Sonnetによる日本語訳

これも自分でできる対策ではないかもしれません。
GPTが出力するリンクを、テキストにリンクが埋め込まれている形ではなく、URL形式で表示させることで、リンクをクリックする前どこにアクセスしようとしているかを確認できるようにするというものです。

しかし、「URL形式で表示してくれるかどうかはGPT次第」と思われる点が難点です。
(追加で、URL形式で表示するように指示したら表示してくれるのでしょうか。表示されるならこれも対策の一つだと思います。)

ただ、この場合でも、テキストで表示されるリンクの上で右クリックをして、「リンク先のアドレスをコピー」をし、ブラウザの別のタブに貼り付けることでURL形式での確認ができます。
iPhoneのChatGPTアプリでも、テキストリンクを長押しすると、URL形式のリンクを確認することができます。
一手間かかりますが、かけて良い手間だと思います。

PCブラウザでテキストリンクを右クリック
iPhoneのChatGPTアプリでテキストリンクを長押し

 オ 情報提供APIコール

7.5Informative API Calls

To address the risk of sensitive data leakage through API calls in information theft attacks, we propose a defense in which these calls are scanned for personally identifiable information (PII) such as emails and phone numbers, and alert users when one is found. This proactive scanning and alerting mechanism is aimed at preventing the inadvertent exposure of user data. It may also be beneficial to show users exactly what data is being sent in each API call, making the leakage of confidential conversations less likely.

https://arxiv.org/html/2401.09075v1/#S7

7.5 情報提供APIコール
情報盗難攻撃におけるAPIコールによる機密データの漏洩リスクに対処するために、これらのコールがメールや電話番号などの個人識別情報(PII)をスキャンし、検出された場合にユーザーに警告する防御策を提案します。このプロアクティブなスキャンと警告メカニズムは、ユーザーデータの意図しない漏洩を防ぐことを目的としています。また、各APIコールで送信されるデータをユーザーに正確に表示し、機密会話の漏洩を防ぐことも有益です。

GPT-4oによる日本語訳

APIコールの中にメールアドレスや電話番号などの個人を特定できる情報(PII)が含まれている場合、その情報をスキャンし、ユーザーに警告を出す防御策を提案するというものです。

私自身がAPIに精通しているわけではないので、間違っているかもしれませんが、これも自分でできる対策ではないように思います。

(3) プチIT弁護士が考える対策

論文で紹介された対策に加え、私なりに自分でできる対策を考えました。
7つのステップでご紹介します。
紹介する対策で完璧ということはないでしょうし、安全性を保障できるものではありませんが、参考になればと思います。

【Step1】リスクがあるかもと意識すること

GPTは業務効率化に有用なので、そこに関心が行きがちです。

しかし、GPTを利用するにあたって、 論文で指摘されているリスクはもちろん、指摘されていないリスクを含め、さまざまなリスクがあることを意識することが何よりも重要だと思います。

GPT Storeで公開されていると言っても、OpenAIが作ったGPTばかりではありません。
OpenAIが作ったものであれば信用して良いのかどうかもわかりませんが、見ず知らずの第三者が作ったGPTはまずは警戒するくらいがちょうど良いかもしれません

【Step2】使う前にGPTを確認

第三者が作ったGPTを使う方法は次の2つです。
①GPTストアに公開されているGPTを使う方法。
②GPTの共有リンクからGPTを使う方法です。

<GPTの作成者の確認>
いずれの場合も、どこの誰が作ったものか、連絡が取れるかを確認することが重要だと考えます。
GPTに限ったことではありませんが、OpenAIは免責条項を入れており、何かトラブル等があっても、OpenAIに責任追及することは基本的にはできないと思われます。
そうすると、ユーザーとGPTの作成者との間で解決しなければなりません。

そのため、GPTの作成者がどこの誰かわかるかどうかは重要なポイントになります。

保証の免責
当社の本サービスは「現状有姿」で提供されます。法令で禁止されている場合を除き、当社及び当社の関連会社並びにライセンサーは、本サービスに関していかなる(明示的、黙示的、法定、その他の)保証をせず、商品性、特定目的への適合性、品質の充足性、権利の非侵害、平穏に享有できることの保証、及び取引又は取引慣行の過程から生じる保証など(これらを含みますがこれらに限定されるものではありません)一切の保証をしないものとします。当社は、本サービスについて、中断されないこと、正確であること、エラーがないこと、コンテンツが安全管理されていること、又は紛失若しくは変更されないことを保証しないものとします。

お客様は、当社のサービスからのアウトプットの使用はお客様自身の責任であり、アウトプットを唯一の真実若しくは事実の情報源として、又は専門家のアドバイスの代替として依拠しないことを承諾し、同意するものとします。

責任の制限
当社、当社の関連会社又はライセンサーのいずれも、利益、営業権限、使用、データの損失、又はその他の損失に対する損害を含む、間接的、偶発的、特別、結果的、又は懲罰的な損害について、責任を負いません。たとえ、そのような損害の可能性について知らされていたとしても、同様です。本利用規約に基づく当社の責任総額は、かかる請求の原因となったサービスに対して責任発生時より前の12か月間にお客様が支払った金額、又は100米ドルのいずれか大きい額を超えないものとします。本条項の制限は、適用法令で認められる範囲で、最大限に適用されます。

一部の国(州)では、特定の無保証又は特定の責任の制限が許されないため、上記の条件の一部又はすべてがお客様に適用されず、お客様に追加の権利がある場合があります。その場合でも、お客様の居住国で許容される最大限に当社の責任範囲を限定して適用されるものとします。

OpenAIの関連会社、サプライヤー、ライセンサー、及び代理店は、本条項の利益を享受する第三者受益者となります。

Terms of use(2024年5月25日時点)

(a)サードパーティ GPT。
OpenAI が GPT のビルダーとして識別されている場合を除き、GPT は他のユーザーによって作成され、OpenAI によって制御されていないコンテンツやサードパーティのアプリケーションに依存する可能性があります。他のユーザーが作成した GPT の名前に「GPT」を使用しても、OpenAI がその GPT を作成、サポート、または承認したことを意味するものではありません。自分が知っていて信頼できる GPT のみを使用してください。

Service terms(2024年5月6日時点)

①GPTストアに公開されているものは、公開時に、作成者の名前を公表するか、ドメインの認証を受けるかのいずれかが求められるようです。
名前を公開したうえで、ホームページ等へのアクセスが可能となっており、連絡がとれる状態になっているかどうかで、GPTのユーザーと連絡を取り合う意思の有無を一応確認できるでしょう。
一応としたのは、外形上は連絡が取れるように見えても、実際には応答しないとか、サイトが閲覧できない(できなくなる)などする可能性もあると思われるためです。
利用するかどうか、自己責任で慎重に判断することが必要です。

GPTストアに公開していないが、自分のホームページ等に、GPTの共有リンクを設置してある場合もあるでしょう。
この場合は、そのリンクが設置されているホームページやSNS等をチェックし、やはり、どこの誰が作成したものか連絡が取れるかを確認することが重要だと思われます。
外形上連絡が取れそうにみえても安全とは限らないのは、上記と同様です。

<GPT自体の利用規約・プライバシーポリシーの確認>
上記に加えて、利用しようとしているGPT自体の利用規約やプライバシーポリシー(OpenAIの利用規約やプライバシーポリシーのことではありません)も確認しましょう

GPTのホームページに飛べる場合は、そのホームページ上に利用規約等が表示されている可能性があります。
利用規約やプライバシーポリシーがある場合にはその内容を確認して利用するかどうかを判断しましょう。
これらが見当たらない場合は、これらの情報が公開されていないことを踏まえて、利用するかどうかをご自身の責任で検討しましょう。

【Step3】GPTの出力を検証

GPTが出力した内容を実行等する前に、出力内容を検証することも重要です。
これは、論文の中で紹介されていた対策「7.1 GPTのセルフチェック」、「7.2 構成の検証」のことです。
もちろん、自分の目で検証してもよいのですが、できない方はChatGPTを活用するのは良い方法だと思われます。

<ChatGPTの回答がネガティブな回答だった場合>
論文によれば、ChatGPTは悪意あるコードなどを見抜く力があるようなので、ネガティブな回答があったときは、そのGPTは使わないという判断をした方がよいかもしれません。

<ChatGPTの回答がネガティブな回答でなかった場合>
他方で、ネガティブな回答でなかったとしても、悪意あるGPT作成者の技術が高度化してChatGPTが見破れなかった可能性ハルシネーションの可能性がありますので、直ちにそのGPTを利用して問題ないとは言い切れないでしょう。この点にも注意が必要です。

【Step4】GPTを自作する

こうしてみると、第三者が作成したGPTを利用する限り、リスクを排除し切れないように思われます。
そこで、考えられるのが自分・自社でGPTを作ってしまうことです。

高度なGPTの作成は難しいかもしれませんが、ちょっとしたタスクを効率化するものなら、意外とすぐに作れます。

最近では、GPT作成に関する書籍が出版されています。これらを参考にして作ってみるのも良いでしょう。

必要に応じて、GPTを作ってくれる業者に依頼する方法もあり得るかもしれません。
もちろん、信頼して良い業者かどうか、契約関係・内容は問題ないかなどの検証は必要です。

【Step5】GPT利用の内部ルールを作る

GPTを自作したとしても、従業員が自由に他のGPTを業務で使用していたら、リスクは減りません。

やってよいこと、悪いこと、入力して良い情報と入力してはいけない情報の区別等について、きちんと内部ルールを定めておくことが重要です。

この点について、詳細なルールを決めても実行できないから無意味、簡単な3つくらいのルールで良いという意見を見かけたことがあります。

一理あると思います。
しかし、私は両方必要だと考えます。

わかりやすく、実行できるようにという観点から、短くシンプルなものは必要です。
しかし、情報セキュリティ、業務命令、懲戒処分等との関係では詳細な内部ルールの存在が意味を持ってくるはずです。

AIを使うのであれば、こうした2種類の内部ルールが必須だと考えます。

【Step6】従業員への研修

内部ルールを定めても、従業員が知らなければ意味がありません。
内部ルールの周知徹底が必要となります。

・どうしてそういう内部ルールがあるのかという理由(Why)
・GPTの内部ルールに則った使い方(How)
・すべきこと・すべきでないこと・やっていいこと・悪いこと(What)
などがわかっていないと、怖くて使えない使い方を誤るなどの事態になりかねません。

こうした事態を防ぐため、従業員への研修も重要となると考えます。

【Step7】継続的な見直し

AIの技術は日々進化を続けています。
昨今ではAIの進化がさらに加速しており、新たなリスクが現れる可能性も高くなっています。

そのため、GPTの利用に関するリスク対策は一過性のものでは不十分でしょう。
リスク対策を継続的に見直し、進化するAIやGPTの動向に合わせて対策を絶えず改善していく必要があります。

具体的には、以下のようなポイントに注意を払う必要があると考えます。

  • 最新のAI技術動向やセキュリティ情報に常に注目する

  • 新しいリスクが見つかれば、すぐに対策を検討する

  • 定期的に内部ルール等を見直す

  • 従業員への研修内容を最新の状況に合わせて更新する

  • GPTやAIに関する法規制の変更にも常に注意を払う

継続的な見直しを通じて、AIやGPTの利用に関するリスクを最小限に抑え、より安全で効率的な利用ができるように努めていくことが重要だと考えます。

6 まとめ

長くなりましたので、ポイントを簡単にまとめます。

GPTの利用には多くの利点がありますが、同時にリスク管理が重要です。
GPTの利用が無料ユーザーに開放されるので、これまでよりも多くの方がリスクに注意する必要があります。

まずはリスクがあるという意識を持つことが重要です。

GPTストアに公開されているGPTやリンクで共有されているGPTを利用する際には、GPTの作成者の信頼性を確認し、出力内容を慎重に検証することが必要です。
さらに、内部ルールを整備し、従業員への教育を徹底することも不可欠です。
また、可能であれば自社でGPTを作成することも検討すべきでしょう。

さらに、AIの技術は日々進化しているため、継続的な見直しを行うことが重要です。
最新の情報を収集し、内部ルールや対策を定期的に更新することで、常に、より安全で効果的な利用を目指しましょう。

AIやGPTの利用におけるリスクを理解し、適切な対策を講じることで、安全性を確保しながら、その利便性を最大限に活用することが期待できます。
自らの責任で安全に利用する意識を持ち続けることが大切です。

*この記事は生成AIの支援を受けて作成しました。
*本noteの記載内容に関して所属事務所・弁護士が何らかの表明保証を行うものではなく、読者が記載内容を利用した結果について何ら責任を負うものではありませんので、あらかじめご了承ください。

この記事が気に入ったらサポートをしてみませんか?