見出し画像

今どきの人工知能は考えていない!? ― Chat GPTはパターンに沿って答える装置

 Chat GPT流行ってますよね。SNSのコメント。記事などを読んでいると勘違いしている方が圧倒的多数。気になりましたので書きます。

Chat GPTは考えていない

 「Chat GPTすごい」。「これで仕事が楽にできる」。こういうポジティブなフィードバックがコメントが多い様に思います。
 一方、「平然と嘘をつくことがある」。「自分のことを理解してくれない」。このようなネガティブなものも。
 「(Chat GPTは)よく知っている」「あまり頭よくない」などの言葉から察するに「考えている」というのが前提になっています。それはちょっと違うと思っています。

自分のことをきいてみた

 Chat GPTをエンジンとして使っているMicrosoft Bing Chatに質問してみました。結論から言うとなかなかの精度で答えています。

質問「楽描人カエルンって知ってますか?」

質問「楽描人カエルンって知ってますか?」

 似顔絵、構造化まとめ、高速タイピングが得意。ちゃんと特徴を拾えています。

質問「似顔絵のサンプルを見せてください」

質問「似顔絵のサンプルを見せてください」

 似顔絵のサンプルは、Twitterやnoteで見ることができる。似顔絵については、①眼鏡と髪型、②特徴とは標準顔との差(を意識)、③当人が嫌がる特徴を強調、④アニメ風/リアル風にかきわけられる。
 これもよくまとまっています。

答えのもとがたくさんあれば正解を出せる

 精度が高い答えだったと思います。理由は簡単です。Chat GPT自身も答えていますが、Twitter、noteにくどく書いている内容だからだと推察されます。

実際は考えていない

大量のデータからパターンを見つけて答えを言うだけ

 複雑な質問には答えられない。

「空はなぜ青いのか?」のような複雑な質問にはうまく答えられないようです。
他にも、GPTは意味を理解せず、喜びや怒りなどの感情や、常識も備えていません。
また、機械学習アルゴリズムの開発に置いてデータセットに含まれる偏見や差別は大きな問題です。(AI倫理分野の課題)

GPT-3(Generative Pre-trained Transformer 3)とは|K | aiacademy.jp/bootcamp|note

 「空はなぜ青いのか?」について「レイリー散乱」の説明をするのでちゃんと答えられます。(c.f. 「空が青いのはレイリー散乱だ」…アルドノア・ゼロ

 意味、感情、常識(自然法則)などはないようです。あと「2時間でまとめる」とお願いしても2時間以上の答えを出してしまう例があったので、このような計算もできないみたいですね。

仕組みの正しい理解が手戻りをなくす

 「Chat GPTは考えている」というどちらかと言うと誤った認識。これらを抱くことでその時点から得た情報、考えたこと。これらの精度がどんどん下がってしまいます。
 正しい言葉。正しい理解。これらに気をつけて情報を選り分ける。できるだけフェア、正しい結果を出すためには大事なことだと思っています。

大量のデータに負けない頭を作ろう

 グラフィックレコーディング、グラレコ。ライブドローイング。これらを学ぶことは大量データに負けない頭づくりに有用だと思っています。是非一緒に学んでいきましょう。

参考文献

楽描きが世に浸透するための研究のための原資として大切に使います。皆様からの応援をお待ち申し上げます。