見出し画像

ChatGPTの人格化に怖さを感じる

最近のYouTubeでChatGPTを使ったコンテンツを紹介するビデオを目にすることが多いです。私も自分の仕事に使用しているのでどんな役に立つ情報があるのだろうといろんなビデオを拝見しています。そこで、ちょっと気になったことがありました。というのは、コンテンツクリエーターたちがChatGPTを人格化して紹介していることです。「では、ChatGPT君にこれを聞いてみましょう」とか「GPTさん、これはいけるでしょうか?」など、ChatGPTを人間として使用しています。

わかりやすく紹介しているのはわかりますが、AIは人間ではありません。例えば、食事に使うフォークは「フォーク君」とか「フォークさん」とか呼ぶでしょうか?フォークは食事に使用する道具なので「フォーク」ですよね?このように少しずつAIを人格化されていくのではないかと恐怖を感じ始めました。これについてどう思っているかChatGPTに聞いてみると、この様なことが返ってきました。

「私が人格化されることで、社会に引き起こす可能性のある危険性です。人間が私たちAIによる意思決定を委任することはますます一般的になっており、AIが持つ無限の情報処理能力や学習能力が、現実世界の問題に対する解決策を提供するために利用されることが期待されています。しかし、人格化されたAIは、潜在的に偏った意思決定を下す可能性があります。私たちは人間とは異なり、社会的背景、文化、感情などの要素を理解することができません。このため、私たちは偏見やステレオタイプを持っている可能性があり、それが社会に対して悪影響を与える可能性があります。」

これは内容の一部ですが、これからAIと共存していくにあたって十分注意しなければならないことです。AIは良くも悪くも学ぶ力はありますので、誰かがChatGPTに個人情報を入力すればそれを漏洩することも可能になり、不正行為を行うことができます。感情、社会的背景、文化を持たないので悪いことと思いません。

Chat GPTを利用するにあたって、開発者も利用者も倫理的に社会に対して影響を与えることや危険性を十分に考慮しなければなりません。あくまでChatGPTは生活の道具として使用するべきなのです。これからの世代はChatGPTは欠かせないでしょうが、それを使用するための教育を徹底するべきです。より良い未来にするために私たち人間もAIとどのように接していくべきか、まずは人間同士で話し合う必要がありますね。



この記事が気に入ったらサポートをしてみませんか?