【最新】Chat-GPTの新機能[Code Interpreter]の驚きと危険性【後編】[Technology]
画期的なChat-GPTの新機能[Code Interpreter]について書きました。
いいことずくめに思えますが、同時に僕が感じた懸念点についても書いていきます。これは、きちんとした対策を講じないと、大きな問題になることが想定されます。
Chat-GPTへの情報アップロード、何が問題か
それは、ファイルをChat-GPTにアップロードする機能です。
この機能が、Chat-GPTに実装されると、誰もが、自分のパソコンにあるファイル、会社にあるファイルをChat-GPTにアップロードして、「このファイルを加工して」、「分析して」、「資料にして」、という作業をし始めることでしょう。
そうなると、個人情報、例えば、顧客情報などのファイルを、うっかり、あるいは悪気がないままに、Chat-GPTにアップロードしてしまったということも起こりえます。すると、このファイルは当然、OpenAI社に渡ることになる…。
多くの企業がChat-GPTの利用を止めていた理由
日本の大企業がChat-GPTの利用をこれまで止めていた理由の一つは、社内の重要情報が、漏れるのを危険視していたからです。
述べてきたように、ファイルを簡単にアップロードできるようになったため、状況はさらに危険なことになります。
データが破棄されたか確認する術がない
ちなみに、OpenAI社は「アップロードされたファイルのデータは、だめだと指定されれば、AIの学習データには使わない」と公言しています。
しかし、このデータは、Chat-GPTが処理をするのですから、確実に、Chat-GPTには渡っているわけです。
その先、そのデータをきちんと破棄したのかどうか、までは、確認する術はありません。企業側としては、そこに懸念をもたざるを得ません。
「Gmailとは根本的に違う」大きな懸念は
ここで、何が問題かを再度整理します。
「Gmailに個人情報を書いている人って、たくさんいるよね。それをGoogle社は見ているかもしれないけど、特に問題になっていないし、Google社が漏らして事件になったなんて聞いたこともない。だから、Chat-GPTにデータが渡っても、問題ないのでは?」という人がいます。
いや、そこではないんです。問題は必ず起きます。
なぜなら、この渡った情報でChat-GPTが学習したら、そのデータを他人が取り出せることができるからです。
ここが、Gmailに個人情報を入れても問題なかった、ということと、根本的に違いがある点です。
こうして簡単に情報が漏洩してしまうのです。だからGmailに機密情報を書き込むのとは次元が違う、セキュリティ上の危険が起きるのです。
技術の進歩の光と影。早めの対策を
Chat-GPTに組み込まれた新機能「Code Interpreter」は、Chat-GPTの能力を飛躍的に向上させました。
誰もがこぞってこの機能を使うようになっていくでしょう。
その反面、機密情報の漏洩といったセキュリティの問題が、急速に拡大していくことでしょう。
企業は今回のChat-GPTの機能アップデートに対して、きちんとした対策を講じないと、とんでもない問題になることが想定されますので、注意が必要です。
技術の進歩には、常に光と影があると以前お話ししましたが、今回のChat-GPTの進化でも、その光と影が浮き彫りになった、そんな思いを強くした次第です。
この記事が気に入ったらサポートをしてみませんか?