見出し画像

シンギュラリティ

 今回の部員日記は理工学部2年、鈴木龍一が担当させて頂きます。

 皆さん、AIを知っていますか?いや、知らない人はいないでしょう。AIとは“Artificial Intelligence”の略で日本語で人工知能という意味です。

 現在、“Chat GPT”というAIが流行っています。どんなAIかというと我々ヒトの質問に対してAIがなんでも答えてくれるというものです。しかも、AIの回答もしっかりとしていて質問の際に条件を指定すれば条件に沿った回答を返してくれます。

 まずは、“Chat GPT”の仕組みについて簡単に説明します。
 “Chat GPT”は、“GPT-3”という言語モデルを用いています。“GPT-3”とは、「入力文に続きそうな単語を出力する」言語モデルで、「世界一高い山はエベレストである」という文があった時にこの言語モデルに「世界一高い山は」と入力したら「エベレスト」と出力するように学習させ、「世界一高い山はエベレスト」と入力したら「である」と出力するように学習させます。この言語モデルの利点は、「教師なし学習」であるという点です。つまり、大量の文を入力し、学習させれば入力文に続く文を予測してくれるモデルが完成します。ここで、“GPT-3”はとにかく大量のデータを蓄積させることができるのですごく優秀というわけです。

 しかし、“Chat GPT”にも問題点が大きく2つあります。1つ目は、普通に嘘をつく点です。以下の画像をご覧ください。

 ということでマーガリンは危険物です。取り扱いには気をつけましょう...。

って、そんなわけあるかぁ〜!

 ご覧のように平気で嘘をつくことがあります。“GPT-3”は、あたかも人間が書いた文を生成しますが、不正確な文や非道徳的な文を出力してしまいます。ここで、非道徳的な文を生成してしまうとさまざまなサービスに組み込む際に問題になってしまうため、「教師ありファインチューニング」により人間好みの文で“GPT-3”を調整します。調整後は“SFTモデル”といいます。
 しかし、嘘をつくことは倫理的には反していないためか、規制することができませんでした。まあ、言ってしまえば“SFTモデル”は微塵も知らないものを知らないと言わずに適当なことをべらべらしゃべるシッタカ君(知ったかぶり)ということですね。

 今後の進化にも期待です。

 2つ目は、優秀すぎるが故に学生等が論文課題などで使ってしまうという点です。先ほども説明した通り、条件を指定すれば条件に沿った回答を用意してくれるためこのような問題が起こってしまっています。まあ、先述の通り平気で嘘をつくので非常に危険ではあります。

 今後、AIは加速度的に進化していくと言われています。また、2045年には「シンギュラリティ」が起こると言われています。「シンギュラリティ」とは、日本語で「特異点」という意味で「AIがヒトの知能を超える転換点(技術的特異点)、または、それにより人間の生活に大きな変化が起きる概念のこと」です。これによりヒトの仕事がAIに奪われる等の問題が起こるのではないかと言われています。一方で、人体の仕組みが全て解明され、人体の一部を人工化するということもできるようになるかもしれません。

 僕としては、AIの進化はとても楽しみなところであります。

 拙くまとまりのない文章でしたが、最後までご覧いただきありがとうございました。

この記事が気に入ったらサポートをしてみませんか?