見出し画像

【最新】Chat-GPTの新機能[Code Interpreter]の驚きと危険性【後編】[Technology]

 画期的なChat-GPTの新機能[Code Interpreter]について書きました。

 いいことずくめに思えますが、同時に僕が感じた懸念点についても書いていきます。これは、きちんとした対策を講じないと、大きな問題になることが想定されます


Chat-GPTへの情報アップロード、何が問題か

 それは、ファイルをChat-GPTにアップロードする機能です。

 この機能が、Chat-GPTに実装されると、誰もが、自分のパソコンにあるファイル、会社にあるファイルをChat-GPTにアップロードして、「このファイルを加工して」、「分析して」、「資料にして」、という作業をし始めることでしょう。

 そうなると、個人情報、例えば、顧客情報などのファイルを、うっかり、あるいは悪気がないままに、Chat-GPTにアップロードしてしまったということも起こりえます。すると、このファイルは当然、OpenAI社に渡ることになる…。

多くの企業がChat-GPTの利用を止めていた理由

 日本の大企業がChat-GPTの利用をこれまで止めていた理由の一つは、社内の重要情報が、漏れるのを危険視していたからです。

 述べてきたように、ファイルを簡単にアップロードできるようになったため、状況はさらに危険なことになります。

データが破棄されたか確認する術がない

 ちなみに、OpenAI社は「アップロードされたファイルのデータは、だめだと指定されれば、AIの学習データには使わない」と公言しています。

 しかし、このデータは、Chat-GPTが処理をするのですから、確実に、Chat-GPTには渡っているわけです。

 その先、そのデータをきちんと破棄したのかどうか、までは、確認する術はありません。企業側としては、そこに懸念をもたざるを得ません。

「Gmailとは根本的に違う」大きな懸念は

 ここで、何が問題かを再度整理します。

 「Gmailに個人情報を書いている人って、たくさんいるよね。それをGoogle社は見ているかもしれないけど、特に問題になっていないし、Google社が漏らして事件になったなんて聞いたこともない。だから、Chat-GPTにデータが渡っても、問題ないのでは?」という人がいます。

 いや、そこではないんです。問題は必ず起きます。

 なぜなら、この渡った情報でChat-GPTが学習したら、そのデータを他人が取り出せることができるからです。

 ここが、Gmailに個人情報を入れても問題なかった、ということと、根本的に違いがある点です。

「Gmailに個人情報を入れても問題なかった」ということと、根本的に違いがある点

 例えば、A社の社員が、自社の機密情報が入ったファイルを、Chat-GPTにアップロードしたとする

 そのファイルの中身を、Chat-GPTが学習したとする

 そのあと、ライバルのB社の社員が、Chat-GPTに「A社の機密情報を教えて」と書き込む

 Chat-GPTはそれに回答する形で、A社の情報を回答するかもしれない

 こうして簡単に情報が漏洩してしまうのです。だからGmailに機密情報を書き込むのとは次元が違う、セキュリティ上の危険が起きるのです。


技術の進歩の光と影。早めの対策を

 Chat-GPTに組み込まれた新機能「Code Interpreter」は、Chat-GPTの能力を飛躍的に向上させました。

 誰もがこぞってこの機能を使うようになっていくでしょう。

 その反面、機密情報の漏洩といったセキュリティの問題が、急速に拡大していくことでしょう。

 企業は今回のChat-GPTの機能アップデートに対して、きちんとした対策を講じないと、とんでもない問題になることが想定されますので、注意が必要です。

 技術の進歩には、常に光と影があると以前お話ししましたが、今回のChat-GPTの進化でも、その光と影が浮き彫りになった、そんな思いを強くした次第です。

 

この記事が参加している募集

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?