見出し画像

生成AIでセキュリティを気にするならAzure Open AIが良いのか?

生成AIを仕事で使おうとすると、

「いやーでも、セキュリティが怪しいから・・・」

という声をよく耳にします。


僕が仕事でご一緒するような、大きな会社の方であったり、

公的な機関での仕事をされている方なら、尚更です。



よく聞く懸念の声を、より具体的に言えば

「生成AIに入力したデータが、AI側の学習に使われてしまい、

 その後、別のユーザーが使った時に、

 自社のデータが漏れてしまうのではないか・・・」

というものです。



一方で、例えばChatGPT であれば、オプトアウトの設定があることが知られています。

オプトアウトを設定すれば、OpenAIとしては「入力されたデータを、LLMの学習には使わない」と説明してあります。


なので、

「うーん、何が本当の情報なんだろうか?🤔」

と、少し混乱をしていました。


また、ChatGPTのノーマルバージョン(Freeのスタンダードプラン)で、

オプトアウトをしなければ、セキュリティの問題があったとします。

では、セキュリティの観点で信頼できる生成AIは、他に何があるのだろうか?

ということも気になりました。



考えを整理しようと思い、個人的にまとめてみましたので、仕事用のメモですが、noteに残したいと思います。


こういった分野にご関心ある方には、ご参考になれば嬉しいです😃



結論

今回調べた限りでは、Azure Open AIを使うのが最もセキュリティのリスクが低そうです。

セキュリティを気にされる方は、Azure Open AIを使うのが得策と思います。

次点としては、ChatGPT のTeamプラン以上が良さそうです。

以上が結論です。

ちなみに、比較対象としては、他に以下も含めて検討しました。

  • ChatGPT のスタンダード(Free)プラン *

  • Dify

  • Perplexity

ChatGPTは4oでの話となります。

* 文中、僕はChatGPT のFreeプランのことを、スタンダードプラント書いてしまってます🙇‍♂️


なお、申し訳御座いませんが、僕はセキュリティの専門家ではないので、その点はご容赦ください🙇‍♂️

セキュリティの観点を最重視して生成AIのご利用をご検討の方は、ご自身で調査されることをオススメします。
僕のこのnoteは、あくまで素人調べのご参考情報です。


では、以下にて詳細を述べていきます。


Azure Open AIと、通常のOpenAI API(ChatGPT)

色々な記事を読み漁りましたが、上記の記事がわかりやすかったです。

この記事でも明確に、Azure Open AIの方が、セキュリティの観点ではOpenAI APIよりも優れているとの記載があります。

理由は、Azureという、かなりプルーブン(実績があり、保証された)クラウドがあり、天下のAzureのセキュリティに守られているから、というものです。



ChatGPT のTeamプラン

ChatGPT には、様々なプランがあります。

スタンダードなプランは無料ですが、他にも以下の有料プランがあります。

  • 個人で有料で使うプラン(Plusプラン)

  • 複数名で有料で使うプラン(Teamプラン)

  • 企業として法人契約するプラン(Enterpriseプラン)

弊社では、Teamプランを利用しています。

Teamプラン以上のプランでは、ChatGPT の利用規約に以下の通り明記されてあります。


excludeしまっせ

"Team data excluded from training by default."

とのこと。

つまり、

「チーム データはデフォルトでトレーニングから除外されます。」

とのことです。

安心そうですね。


さらにLearn moreを見ると、以下のOpenAIの規約に飛びます。

https://openai.com/enterprise-privacy/


ここに記載あることを、和訳しました。
結果、入力データは、LLMモデルの学習に使わないとのことです。

ーーー Lean Moreの先のリンクの和訳 ーーー

OpenAIにおける企業のプライバシー

信頼とプライバシーは、OpenAIの使命の中心にあります。私たちは、ChatGPT Team、ChatGPT Enterprise、APIプラットフォームのプライバシーとセキュリティを確保することに取り組んでいます。

私たちの約束

所有権: あなたのデータはあなたが所有し、管理します
・私たちはあなたのビジネスデータ(ChatGPT Team、ChatGPT Enterprise、またはAPIプラットフォームのデータ)を使用してトレーニングを行いません
・あなたの入力と出力は(法律で許可されている場合)あなたが所有します
・あなたのデータがどのくらいの期間保持されるかをあなたが管理します(ChatGPT Enterprise)


制御: アクセスする人をあなたが決めます
・SAML SSOを通じたエンタープライズレベルの認証(ChatGPT EnterpriseとAPI)
・アクセスおよび利用可能な機能に対する細かい制御
・カスタムモデルはあなただけが使用でき、他の誰とも共有されません


セキュリティ: 包括的なコンプライアンス
・SOC 2コンプライアンスの監査を受けました(ChatGPT EnterpriseとAPI)
・データは静止状態でAES-256、転送中はTLS 1.2+で暗号化されています
・私たちのセキュリティ対策について詳しくはセキュリティポータルをご覧ください

Lean moreのリンク先の和訳


結論として、

ChatGPT のTeamsプラン以上では、入力データは、OpenAI側に漏洩せずに、学習に利用されないと理解できます。

それは、情報漏洩の観点(ただし、OpenAIへのLLMモデルの学習に利用されるか否か)という点では、Azure Open AIとChatGPT Teamsプランは同等ということを意味していそうです。


さて、しかし、セキュリティの素人の私には、まだ腑に落ちない点があります。

というのも、セキュリティのリスクは、何も情報漏洩(LLMに学習されてしまう)ことだけではないはずです。


例えば、ChatGPT のもう一つのセキュリティのリスクであるインジェクション(悪意ある情報の抜き取り)があります。

そういったインジェクションへの対策は、Azure OpenAIは、デフォルトである程度対策がされているとのこと。ただし、完璧ではないとの但書もあるそうです。

また、ChatGPT Teamsでは、インジェクション対策は自分で行う必要があります。


これらのことから、単なる”情報漏洩”視点だけではなく、”セキュリティ”全般についてチェックする必要を感じました。


さらに、この辺で、

「ああ、各生成AIの比較表を作るのならば、生成AIに作らせるのが最適や」

と自分で言っていたな、と思い出しました。


よって、以降では生成AIを活用して比較してみます。



道は長い



Perplexityに聞いてみた


セキュリティそのものには僕は知見が乏しいので、生成AI本人に聞いてみることにしました。

まずは、ネット検索および比較で、非常に評価の高いPerplexityです。

以降では、生成AIとの対話を書いていきます。

また僕自身のコメントは引用欄に書きます。

以降の僕のコメントはココ

まずは、生成AI活用時のセキュリティリスクはどのようなものがあるのか、聞いてみました。


僕の質問①

生成AI利用時のセキュリティリスクは、どのようなものがあるか、挙げてください。


Answer①

Perplexityを利用する際には、いくつかのセキュリティリスクに注意する必要があります:

  1. 内部データの保護:
    Perplexityは内部データを利用できないため、企業の秘密情報や個人情報が外部に漏洩するリスクはありません。しかし、ユーザーが誤って機密情報を入力してしまう可能性があるため、注意が必要です。

  2. 悪用のリスク:
    生成型AIの進歩に伴い、ディープフェイクなどの悪用が懸念されます。例えば、なりすましや詐欺、フェイクニュースの作成などに利用される可能性があります。

  3. 情報の信頼性:
    Perplexityは回答のソースを表示しますが、情報の正確性や最新性を常に確認する必要があります。誤った情報や古い情報に基づいて意思決定を行うリスクがあります。

  4. プライバシーの懸念:
    ログイン不要で利用できる利便性がある一方、ユーザーの検索履歴や入力情報がどのように扱われるかについて注意が必要です。

  5. セキュリティ対策の不透明さ:
    Perplexityを含む多くの生成AI企業では、リスク管理面やセキュリティ面での対策が不十分である可能性が指摘されています。


Perplexity自身が、自分のセキュリティリスクを指摘しています。
特に注意が必要なのは5かと感じます。セキュリティ全般が弱そうです。
一方で、1で書いてある通り、Perplexityも入力データを学習に用いないようです。


僕の質問②

有難う御座います。では、挙げて頂いたリスクのそれぞれについて、Perplexity、ChatGPTのスタンダードプラン、ChatGPT のTeamプラン、Azure ChatGPT、Difyで、比較表を作成し、優劣をつけてください。



Answer②

ご要望に基づき、Perplexity、ChatGPTのスタンダードプラン、ChatGPTのTeamプラン、Azure ChatGPT、Difyについて、セキュリティリスクの観点から比較表を作成し、各項目で優劣をつけました。
以下の表では、各項目について5段階評価(5が最も優れている)を行っています。

Perplexity作成の比較表


内部データの保護:
Azure ChatGPTが最も優れており、企業向けのセキュリティ機能が充実しています。ChatGPT Teamプランも企業向けの保護機能を備えています。Perplexityは内部データを利用しないため、中程度の評価となります。

悪用のリスク:
ChatGPT TeamプランとAzure ChatGPTは、企業向けの管理機能があるため、悪用のリスクが比較的低くなっています。Perplexityは情報源が外部に依存するため、やや高リスクです。

情報の信頼性:
PerplexityとAzure ChatGPTが最も高く評価されます。Perplexityは情報源を明示する機能があり、Azure ChatGPTは企業のデータを活用できるためです。

プライバシーの懸念:
Azure ChatGPTが最も優れており、企業のプライバシー要件に対応しています。ChatGPT Teamプランも同様です。Perplexityはログイン不要で利用できるため、プライバシー面での懸念が比較的高くなっています。

セキュリティ対策の透明性:
Azure ChatGPTが最も透明性が高く、詳細なセキュリティ情報が公開されています。ChatGPT Teamプランも企業向けのセキュリティ情報を提供しています。PerplexityとDifyは比較的新しいサービスであり、セキュリティ対策の詳細が不明確な部分があります。総合的に見ると、Azure ChatGPTが最もセキュリティリスクが低く、次いでChatGPT Teamプランが優れています。これらは企業向けのセキュリティ機能と管理機能が充実しているためです。Perplexityは情報の信頼性では高評価ですが、他の面でやや懸念があります。ChatGPTのスタンダードプランとDifyは中程度の評価となり、一般的な利用には問題ありませんが、高度なセキュリティが必要な場合は企業向けのソリューションを検討する必要があります。


総合的に見て、Azure Open AIが最も評価が高くなりました。
その次に、ChatGPT のTeamプランとのことです。

印象的なのは、以下の自己評価ですね。
「PerplexityとDifyは比較的新しいサービスであり、セキュリティ対策の詳細が不明確な部分があります。」
今後の改善に期待です。




ChatGPT-4o に聞いてみた

いくらPerplexityが比較がうまいとは言え、偏った意見かもしれません。

念の為、ChatGPT にも聞いてみました。


僕の質問①

生成AI利用時のセキュリティリスクは、どのようなものがあるか、挙げてください。


ChatGPT の回答①

ChatGPTなどのAIチャットボットに関連するセキュリティのリスクは、以下のようなものが挙げられます:

  1. 個人情報の漏洩

    • ユーザーが個人情報や機密情報を誤ってチャットボットに入力した場合、その情報が第三者に漏洩するリスクがあります。特に、オンラインチャットのログが保存される場合は注意が必要です。

  2. フィッシングやソーシャルエンジニアリング

    • 悪意のあるユーザーがチャットボットを利用してフィッシング詐欺を試みる可能性があります。例えば、ユーザーに偽のリンクをクリックさせたり、個人情報を聞き出そうとする手口が考えられます。

  3. 誤った情報の提供

    • チャットボットが誤った情報を提供することで、ユーザーが不利益を被る可能性があります。特に、医療や法務など重要な分野での誤情報は深刻な影響を及ぼすことがあります。

  4. マルウェアの配布

    • チャットボットがリンクやファイルを提供する場合、悪意のあるユーザーがそれを利用してマルウェアを配布するリスクがあります。ユーザーは不審なリンクやファイルを開かないよう注意する必要があります。

  5. プライバシーの侵害

    • チャットボットの運営者がユーザーデータを適切に管理していない場合、プライバシーが侵害されるリスクがあります。ユーザーはチャットボットを使用する前に、データの取り扱いについて確認することが重要です。

  6. セキュリティの脆弱性

    • チャットボット自体やその基盤となるシステムにセキュリティの脆弱性が存在する場合、攻撃者がそれを悪用してシステムに侵入する可能性があります。定期的なセキュリティアップデートや脆弱性診断が重要です。

これらのリスクを軽減するためには、ユーザー教育や適切なセキュリティ対策の実施が必要です。また、チャットボットの運営者は透明性を持ってデータの取り扱い方を説明し、必要なセキュリティ対策を講じることが求められます。


4のマルウェアの配布については、Perplexityには出てこなかった視点ですね。
大事だと思います。
それ以外については、概ねPerplexityと同じポイントを挙げました。



僕の質問②

有難う御座います。では、挙げて頂いたリスクのそれぞれについて、Perplexity、ChatGPTのスタンダードプラン、ChatGPT のTeamプラン、Azure ChatGPT、Difyで、比較表を作成し、優劣をつけてください。



ChatGPT の回答②

以下に、ChatGPTのスタンダードプラン、ChatGPTのTeamプラン、Azure ChatGPT、Dify、Perplexityについて、挙げたリスクに関する比較表を作成しました。各項目に対して、一般的な評価を示し、優劣をつけます。

ChatGPT による比較表


評価の基準

  • ★☆☆☆☆: リスクが高く、対策が不十分

  • ★★☆☆☆: リスクが中程度で、対策が一部に限られる

  • ★★★☆☆: リスクが中程度で、対策が十分

  • ★★★★☆: リスクが低く、対策が十分

  • ★★★★★: リスクが非常に低く、対策が非常に徹底している


各プランの特徴と評価理由

  1. ChatGPT スタンダードプラン

    • 基本的な機能を提供するが、個人情報の取り扱いやセキュリティ対策は限定的

    • フィッシング対策や誤情報の提供についてのガイドラインはあるが、ユーザーの責任が大きい

  2. ChatGPT Teamプラン

    • スタンダードプランよりもセキュリティ対策が強化されており、チームでの利用を前提にしているため、プライバシー保護や誤情報対策が向上

    • 管理者機能が追加されており、ユーザー管理が容易。

  3. Azure ChatGPT

    • マイクロソフトのAzureプラットフォーム上で提供されるため、最高レベルのセキュリティ対策とプライバシー保護が保証されている。

    • エンタープライズ向けの機能が豊富で、フィッシング対策や誤情報提供のリスクが最も低い

  4. Dify

    • 比較的新しいプラットフォームであり、セキュリティ対策は他のプランに比べて若干劣る

    • 個人情報の取り扱いやマルウェア対策については、基本的な対策はあるものの、エンタープライズ向けには不十分

  5. Perplexity

    • セキュリティ対策は基本的に中程度で、誤った情報の提供やフィッシング対策に関しては、他のプラットフォームと同等。

    • 新興プラットフォームであり、セキュリティやプライバシー保護の面でさらに改良の余地がある


総合評価

Azure ChatGPTが最も優れたセキュリティとプライバシー保護を提供しており、エンタープライズ向けに最適です。
ChatGPTのTeamプランも高いセキュリティ対策を持ち、チームでの利用に適しています
Perplexityは、新興プラットフォームとしてセキュリティ対策は基本的に整っていますが、さらなる改善が期待されます。
一方、スタンダードプランとDifyは基本的な対策はあるものの、個人利用や中小企業向けに限定される可能性があります。

この評価をもとに、必要なセキュリティレベルに応じて適切なプランを選択することをお勧めします。



ChatGPT も、結論としては冷静にAzure Open AIをセキュリティ対策としては推奨しています。

次にChatGPT のTeamプラントのこと。



以上から、今回の調査としては、Azure Open AIがセキュリティ対策の意味では一番充実しているという結論になるかと思いました。






以下はスクショのメモ


Perplexity







ChatGPT 











今日も読んで頂いて有難う御座いました😃


#生成AI
#ChatGPT  
#Perplexity
#Dify
#AI
#人工知能
#セキュリティ
#情報漏洩
#比較



最後までお読みいただき有難う御座います! サポート頂ければ嬉しいです😃 クリエイターとしての創作活動と、「自宅でなぜ靴下が片方無くなることがあるのか?」という研究費用に使わせて頂きます!