こちらのサイトにさまざまなプロンプトエンジニアリング(私は個人的にプロンプトエンジニアリングはエンジニアリングというよりテクニックに近い気がする)が紹介されていたので、一つずつ試していこうと思う。
内容は上記サイトを100倍薄めたものなので、ちゃんとプロンプトエンジニアリングを知りたい人は上記リンクをチェックしてほしい。
なお、世間ではGPT-4が話題を掻っ攫っているが、悲しいかな今回のテスト環境はGPT-3.5である。
普通のプロンプト
質問
ChatGPTの答え
う〜ん普通にChatGPTだ。
役割付与
質問
ChatGPTの答え
いいですね…非常にいい…ちょっとエモみありますね…
こんなプロンプトも投げてみました↓
ChatGPTの答え
ま〜教授の口頭試問としてはオーソドックスな方かな??
「素人質問で恐縮ですが」とか言って欲しかったな。
文脈・例示・指示
質問
ChatGPTの答え
perfectですね。
文脈は質問文冒頭にある京都の会話文化に関する説明、例示はその説明に紐づく複数の例、そして例示に指示が続く形になっています。
文体誘導
まず、普通に尋ねてみます。
答え
ChatGPTっぽい答えだ。
さて、文体を誘導してみましょう。
答え
いやまさかの自由律俳句。
ぜひプレバトに出してみたい。
しかも四季折々の俳句になってて味わい深い。
冬は特に良い。
Priming Prompt
和訳が思いつかなかった。あえて訳すなら手引きプロンプト、とかかな?
イメージとしては、変数を定義して、その変数がプロンプトに含まれているときに、どのようなリアクションをとるべきか、という手引書を一番最初のプロンプトに書くという方法。
例えば、こんな感じ↓
例えば、
と聞くと、
と返してくる。一方で、
と聞くと、
と返してくる。
当初の手引きに含めたロールプレイを100%完遂していないものの(そこは私のprompt力が低かったのだろう)、明らかに回答内容が変わっている。前者が比較的技術領域に焦点を当てている一方で、後者はビジネス寄り(というより全社目線?)で回答している。これは応用が効きそう。
約5000字に達したので続きはまた今度。
再掲になるが大元はこちらのサイトなので、ちゃんとprompt engineeringを知りたい人は大元をちゃんと確認しよう。