![見出し画像](https://assets.st-note.com/production/uploads/images/100973497/rectangle_large_type_2_24844cfa8a2eb9c7adc884134dfe1951.png?width=800)
ChatGPT4はなぜ「お世話になってます」を文面に付けると複数の提案をするのか -単語と意味と語彙-
ひょんなことからGTP4に課金することとなった僕だが、ハマってしまった。
とても興味深いのだ。出来ることが多いし出来た時の快感が強い。
さて、そんな中とある投稿を見つけた。
今回、驚くべき実験結果が得られました。ChatGPTには敬語で接すると、出力が大幅に良くなる可能性が示唆されました!https://t.co/NsaJy0thqI pic.twitter.com/iesHpl9e1v
— ChatGPT研究所 (@ctgptlb) March 22, 2023
検証せずにはいられない僕は3.5ではない4でやってみた
これですね4だと pic.twitter.com/r2FWHnJQad
— リアル農夫houmei@【JCU】マイクラ城郭再現【BE勢】 (@nouhuhoumei) March 23, 2023
嘘っ子だと思っていたが、こういうリプを見つけた。
コメントありがとうございます!確かに、文型はかなり大きく影響してそうです!
— ChatGPT研究所 (@ctgptlb) March 23, 2023
いくつか試してみたところ、please系であっても、「いつもお世話になっております」を入れると出力が多くなりました👉 pic.twitter.com/MygvdAWR9l
冗談でしょと思って実際にやってみた。
![](https://assets.st-note.com/img/1679561632997-Vhf6fmjPiT.png?width=800)
えええええ、うそでしょ。何で出るのよ
というのが第一声だった。
GPT-4によるプロンプトデザインが圧倒的に素晴らしい🤯 自分の考え方や思考傾向を再現しながら、どんな話題にも対応できる汎用性を持ったプロンプトができた!これで、まるで自分と会話しているかのような対話が可能に🚀 #GPT4 #ChatGPT #プロンプトデザイン pic.twitter.com/aIsYI6kAYN
— あずま (@sngazm) March 19, 2023
こういう風に設定しなければ出ないというのが僕やプログラマーさん達の見解であった。だが、この「いつもお世話になっております」でなぜか複数出てきたのである。ふと考えるとこの文面は見たことがある文面である。
そう!メールの文章で書き出しに使う文面である。
皆さんはこういう文章を書かれないだろうか?
「いつもお世話になってます、〇〇です。先日はありがとうございました。今回メールを差し上げたのは「新商品のボールペンのキャッチコピー」についてです。自分で考えているのですが浮かばず〇〇さんのお知恵をお借りしたいです。よろしくお願いします」
返信
「ありがとうございます、いくつか案を思いついたので書いていきます・・・」
そう、この「いつもお世話になってます」なのだ。
つまり、人は単語には意味があると思っているが実際は意味と語彙があるのだ。
単語と意味と語彙
一般的には単語には意味があるというのは普通であるが、AIはどうやら文章の単語を抽象化してその配列から読み取っているらしい。
たとえば「私はペンを持っています」これをばらすと
「私」「は」「ペン」「を」「持って」「います」という風に分けれると思う(国語的におかしいのは許してください)
これを A は B を C D というふうにAIは認識ていてABCDとかの並びから見て答えを出しているのではないかと思われる。記号としての「単語」という意味でとらえてほしい。
この論証は下のまとめの参考文献でよくわかる。論拠に基づく解答(レファレンス)を行うとでたらめな参考文献を出す理由が説明できないのである。
さて、単語には確かに意味が存在するがそれとは違う意味が存在する。それをここでは「語彙」と規定する。たとえば、2023.3.23現在でツイッターの文章で「ペッパーミルが欲しい」とか「ペッパーミルやってて草」という文章があったと仮定する。そうするとこの「ペッパーミル」は本来は「粒の胡椒をつぶすための道具」なのだが、これは意味が通じない。
そう、ヌートバー選手が行うペッパーミルパフォーマンスの事を指すのである。
けれども、本来の意味とは違う。何がどう違うか。
とある状況で使われる単語が本来の意味とは違ったり、別の用途を持つ意味が存在するということである。僕はこれを「語彙」と定義する(言語・国語学的におかしいことがあれば是非教えてください。)
この現象を「いつもお世話になってます」に戻って見直すと
「いつもお世話になってます」+「提案系の命令文」→複数の回答を出す
この「いつもお世話になってます」が一種のペッパーミルや前の文章の草という一つのトリガーになっているのではないだろうか?
その原因はGPT4が取り込んだデータの中に「いつもお世話になってます」を含む提案系のメールの文章のデータを参照しているとしか説明が出来ないのだ。丁寧だから返答しているのではないのだ。
このことは「MidJourney」で「anime」や「Henitai」等を付けて生成すると通常の描画とは違うものが出るというのと原理は一緒である。僕は最初「単語の意味を得たんだ」と思ったのだが、違うのである。さっき言った語彙を得たのである。
まとめ
AIは感情を得たわけでもなく、謙譲語や尊敬語を得たのではなく
文脈に沿って使われる「語彙」を獲得したのであって、感情や意思をまだ持ったわけではないということである。
僕が尊敬する大分の先哲三浦梅園先生の言葉を最後に引用する。
人間は何でも人間にしてこれを見、人間として思うのである。子どもの絵本を見ると、鼠の嫁入りやその他いろいろの化け物が画かれている。鼠を鼠のままにして置くなら、それは鼠の本来の面目が出ているのである。それを鼠を一つ一つみな人間にしている。
追記
「拝啓」から始まる文章を書いてくださいと、「空前絶後」から始まる文章を書いてくださいと書いたら推測が当たった。
![](https://assets.st-note.com/img/1679571228805-V7bOjIFDOb.png?width=800)
![](https://assets.st-note.com/img/1679571248188-T7DeMg1SIn.png?width=800)
草々を最後にと最初に書かせた場合
![](https://assets.st-note.com/img/1679571662666-yqZ2xE7n9m.png?width=800)
![](https://assets.st-note.com/img/1679571679762-6hgzcqfE0G.png?width=800)
この記事が気に入ったらサポートをしてみませんか?