見出し画像

ChatGPTの真の怖さ

こんにちは。だいすけです。
今日のテーマは、みんな大好きChatGPTです。
みなさんは、ChatGPTをどのように活用していますか?
仕事場では禁止されていることが多いみたいですが、一方で日常生活ではいろいろ活用できますよね。
特に、音楽や文章などをChatGPTに作ってもらう人も増えてきました。
では、この記事はそんなChatGPTの怖さについて考えていきます。

ChatGPTは禁止にすべきではない

まず、前提として、筆者はChatGPTを禁止にすべきではないと考えます。
ChatGPTは教育に悪影響があるとして、禁止論が増えていますよね。
ヨーロッパの国、特にイタリアでは一定期間ChatGPTを使用することが法律で禁止されました。
(まあ、VPNを他国にすれば問題なく使用できるのですが)
確かに、ChatGPTは多くの作業を自動化してくれます。
大学では、論文査読や論文執筆などを、ChatGPTがやってくれます。
だから、これが教育に悪影響を与えるという論は間違っていません。
しかし、これだけの理由で禁止にするのはどうかと思っています。
そもそも、ChatGPTはインターネット上の情報をまとめる能力に特化したAIです。
この中から新しい知恵が生まれてくることは考えにくいのです。
あくまで、ネット上の情報を効率よく整理し、ユーザーへ適切な形で応答しているにすぎません。
そのため、これは便利なツールとして使用でき、むしろ人間の活動を効率化してくれる良い味方です。
新しい技術が出てくると、必ず反対勢力が出るように、今回のケースでも反対する人が多い印象があります。
しかし、ここで技術の発展を止めてしまうと、イノベーションや社会改善に進むことができないため、ChatGPTは禁止すべきではないというのが筆者の意見です。

ChatGPTの仕組み

では、そのChatGPTはどのような仕組みで動いているのでしょうか。
よくある論として、ChatGPTを使った作文や論文が出回れば、子供の学習能力に悪影響が出るというものがあります。
それは本当でしょうか?
筆者の感想では、ChatGPTはサマライズ能力、つまり膨大な文章を数行にまとめる力がとても強い反面、何か文章を書く能力はイマイチです。
ChatGPTは自然言語処理という技術をもとに作られています。
自然言語処理の仕組みは、ざっくり言うと、ある単語と次の単語の繋がりを推測し、次の単語に繋がりそうなものを予測してアウトプットするというものです。
たとえば、「雨」という単語があったとしましょう。
そのとき、自然言語処理では「雨」の次に続くであろう単語を予測します。
この場合は「が」です。
「を」「に」はおかしいですし、「は」は文学チックになるので確率が低いです。
そして、「雨が」とくれば、次は「降っている」の可能性が高いです。
このように予測を繰り返しながら、「雨が降っている」という文章を生成します。
ここでのポイントは、ChatGPTはあくまで単語と単語のつながりを予測しているだけであり、文の意味を把握しているわけではありません。
内蔵されている膨大な計算機をもとに導かれた予測値をもとに、あたかも人間が書いたような文章を生成しているように見せかけているのです。
現在の技術は、この過程が全てであるため、ChatGPTが子供の学習能力を妨げるという結論は飛躍しすぎです。
どちらかというと、教科書や論文を読む手間が減るというのがChatGPTの技術のすごいところであり、この部分がもしかしたら子供の学習に影響をあたえるかもしれません。
いずれにせよ、そもそも子供や学生を育てる義務があるのは家庭であるため、スマホと同様、家庭ごとのルールを決めて教育をする方がいいでしょう。

ChatGPTの真の怖さ

子供の学習の議論は(重要ですが)ひとまず置いておいて、最後に本記事のテーマであるChatGPTの真の怖さを考えていこうと思います。
これはずばり、「ChatGPTは人間の能力を平均値にする」ということです。
どういうことか。
ChatGPT(というよりも自然言語処理ですが、ここでは分かりやすいためChatGPTで統一します)が進化すれば、人間の創造力やコミュ力、論理的思考力など、あらゆる能力が人間より勝ってしまい、相対的に、人間同士の能力の差が生まれにくくなるというものです。
ChatGPTは自然言語処理で動いており、この自然言語処理は、AI開発の最後の砦です。
AIの長い歴史の中で、人間の言語をコンピュータに処理させるためにはどうすればよいかが議論されてきました。
ChatGPTの登場は、コンピュータが人間の言語を理解するための準備が整ったことを意味します。
これからどんどん進化することが予想され、人間の言語をほぼ完全に理解する日が来る可能性が高いです。
理解するとは、AIが人間のようになることではありません。
AIは人間になる必要性はありません。
AIは人間マシンではなく、人間理解マシンなのです。

筆者の考えでは、AIが感情を持ったり意識をもったりする可能性は低いです。
しかし、AIが感情を持つことと、AIが感情を理解することは別です。
AIは感情を持つことが出来なくても、感情を理解することは可能です。
AIはディープラーニング、つまり大量のデータ分析に基づいた予測によって機能しています。
この過程で、人間のあらゆる感情の動きを計算することは、時間の問題であり、完全に理解する日は確実に訪れるでしょう。
なので、AIは人間に勝つという議論は、「AIが人間のあらゆる発言を理解し、たとえ感情や意識が無くても、人間らしい振る舞いをすることが可能になる」という前提を立てることが正解であると考えます。
そうなったとき、人間のあらゆる能力が使いものにならなくなります。
例えば心理カウンセラー。
これは人間にしかできないことのように思われますが、AIでも十分実装可能です。
AIはあらゆる人間の感情の動きを分析して理解しています。
そして患者さんも、目的は悩みを聞いてもらって共感してくれることにあり、それが達成されればいいわけです。
当たり外れが多い人間のカウンセラーを選ぶより、正確でかつ感情を理解してくれるAIを選んだ方が、心が癒されるという現象が起こるかもしれません。
よく巷では、「創造力」や「コミュ力」といった、人間にしかできないものというテーマで議論が広がっていますが、そもそもその問題提起が間違っています。
正しくは、「あらゆる頭脳労働はAIのサポートや支配を受けることになる」です。
AIは頭脳労働のすべてを支配、もしくはサポートします。
そのため、ChatGPTの怖さや本当に議論すべきことというのは、「人間にしかできないことを磨く」というのではなく、「そもそも人間がお金を稼ぐとはどういうことか」というような、メタ的な思考が改めて必要です。
AIは進化し続けますし、あらゆる頭脳労働はAIのサポートを受けるか、もしくは支配されます。
いま改めて、「仕事とは何か」という哲学的な問いが必要になってくるのです。

さいごに

今回はChatGPTの真の怖さについて話してみました。
もちろん、筆者の身勝手な空想がまぎれているため、これが真実とは限りません。
しかし、AIが進化し続けるのは事実であり、人間は少なからず対応をしていかなければなりません。
筆者の提案は、デジタル教育が叫ばれているときこそ、哲学を勉強することです。
AIの研究をすればするほど、哲学という問いにたどりつきます。
哲学を勉強して、メタ的な視点を手に入れ、改めてAI時代の社会を見てみると、本当に人間がすべきことが見えてくる気がしています。
筆者もその過程を楽しんでおり、改めて哲学の重要性を認識しています。

私の記事は、主に技術の進化や産業革命、AIの進化、人類の未来など、IT系の人間が暇つぶしに考えていそうなことをまとめていきます。
極力、エビデンスをもとに話しますが、一方で、完全に空想の世界を書くことがあるかもしれません。
技術や人類といったテーマに興味がある方は、ぜひフォローをよろしくお願いします。

著作物等の引用元
"image: Freepik.com”タイトル画面はFreepik.comのリソースを使用してデザインされています

お問い合わせ、削除依頼、お仕事の依頼などは以下のメールアドレスまでお願いします。
daisuke.netb@gmail.com

この記事が気に入ったらサポートをしてみませんか?