ChatGPT の回答が向上する「プロンプト26の原則」
以下の原則を適用することで、より具体的で適切な回答を得ることができるようになります。
ただし、過度な指定や制約は回答の多様性を損ねる可能性があるため、バランスを保つことも重要です。適切なプロンプトの設計には、試行錯誤や調整が必要な場合もありますので、柔軟に対応することも大切です。
1. LLM使用時のコミュニケーション: 礼儀的なフレーズ(「お願いします」「もしよろしければ」「ありがとう」)は不要。直接的な言葉遣いをする。
2. 対象者の明示: 「専門家向け」といった対象者をプロンプトに含める。
3. 複雑なタスクの分解: 難しいタスクは、簡単なプロンプトの連続に分けて実行する。
4. 肯定的な指示: 「~する」という肯定的な指示を使用し、「~しない」という否定的な表現を避ける。
5. 明確化と理解の促進: 特定のトピックを簡単な言葉で説明する。11歳の子供に説明するようにする。初心者向けの説明を行う。エッセイ/テキスト/パラグラフを5歳児に説明するように簡略化する。
6. 報酬の提示: 「より良い解決策にはxxxドルのチップを払う」と報酬を明示する。
7. 例題主導型のプロンプト: 数例に基づくプロンプトを使用する。
8. プロンプトのフォーマット: 「###Instruction###」で指示を開始する。必要に応じて「###Example###」や「###Question###」を追加する。指示、例、質問、文脈、入力データを区別するために改行を使用する。
9. 指示的なフレーズの使用: 「あなたのタスクは」「あなたは必ず」といったフレーズを含める。
10. ペナルティの提示: 「あなたはペナルティを受ける」というフレーズをプロンプトに組み込む。
11. 自然な回答の促進: 「自然で人間らしい方法で質問に答える」というフレーズを使用する。
12. ステップ・バイ・ステップの考慮: 導入的なフレーズとして「ステップ・バイ・ステップ考える」を使用する。
13. バイアスのチェック: 「あなたの回答にバイアスがかかっていないか、固定観念によるものではないかを確認してください」というフレーズを追加する。
14. 情報の精密化: AIモデルが必要な情報を得るまで、ユーザーに繰り返し質問するよう指示する。
15. 理解度のテスト: 特定のトピックやアイデアについて尋ね、ユーザー自身の理解度をテストする。
16. モデルへの役割割り当て: モデルに特定の役割を割り当てる。
17. 区切り文字の使用: 区切り文字を使用する。
18. 単語やフレーズの繰り返し: プロンプト内で特定の単語やフレーズを複数回繰り返す。
19. 思考の連鎖と例示: CoT(Chain-of-Thought)と例示を組み合わせる。
20. 出力プライマーの使用: 望ましい応答の開始部分でプロンプトを終了する。
21. 詳細な記述の要求: 必要な情報を提供し、[トピック]について詳細な[エッセイ/テキスト/段落]を書くよう指示する。
22. 文体の維持における修正: ユーザーの送信したすべての段落を見直し、文法や語彙を改善するよう指示するが、文体を変えない。
23. 複雑なコーディングプロンプト: 複数のファイルにまたがるコードを生成する際に、指定されたファイルを自動的に作成するよう指示する。
24. 一貫性のあるテキスト生成: ユーザーが提供する出発点から、LLMが一貫性を持ってテキストを生成するよう促進する。
25. 生成要件の明示: モデルがコンテンツを生成するために従うべき要件を、キーワード、規制、ヒント、または指示の形で明確に示す。
26. サンプルに基づくテキスト作成: 提供されたサンプルに似たエッセイや段落などのテキストを書くよう指示する。
要約元
アブダビのモハメド・ビン・ザイード人工知能大学 (MBZUAI) の研究者グループ
この記事が気に入ったらサポートをしてみませんか?