見出し画像

【プロンプトの基本】なぜプロンプトが必要なのか

生成AIが登場してから「プロンプト」という言葉を聞かない日がないぐらいに耳にすることが多いです。では、なぜ生成AIにプロンプトが必要なのか、わかっているようでわからないという人もいるのではないでしょうか。

プロンプトとは

まずプロンプトとは、生成AIなどの対話形式のシステムにおいて、適切な回答や結果を促すためにユーザーが指示や質問をすることです。

ではなぜ必要なのかをChatGPTに聞いてみました。

生成AIがプロンプトを必要とする理由は、主に次の点にあります:

1. 指示と方向性の提供:プロンプトは、AIに対して特定のタスクや要望を伝える手段です。これにより、AIはユーザーが求めている内容や出力の形式を理解し、それに応じた結果を生成できます。

2. コンテキストの確立:プロンプトは、生成するテキストや画像などのコンテキストをAIに伝えます。これにより、AIは与えられたコンテキストや背景情報を基に、より適切で関連性の高い出力を提供できるようになります。

3. 多様性と柔軟性の実現:プロンプトによって、AIはさまざまなジャンルやスタイルの出力を生成できます。これにより、ユーザーはAIを用いて、クリエイティブな作品から実用的な文書まで、幅広いニーズに対応するコンテンツを作成できます。

4. 精度と関連性の向上:プロンプトは、AIが目的に合致した正確な情報を生成するためのガイドラインを提供します。明確で詳細なプロンプトは、より関連性が高く、ユーザーの意図に沿った結果を引き出すことができます。

5. ユーザーとの対話:プロンプトを通じて、ユーザーはAIに質問したり、特定のタスクを依頼したりすることができます。これにより、AIとユーザー間の対話的なやり取りが可能になり、ユーザーの要求に応じたカスタマイズされた応答を得ることができます。

要するに、プロンプトは生成AIにとって、ユーザーの要望や目的を理解し、それに基づいて適切な出力を提供するための基本的な手段です。プロンプトの質は、AIによる出力の質に直接影響を与えるため、明確で具体的なプロンプトの使用が推奨されます。

GPT-4の回答

基本的には始めに示したような内容だと思います。

生成AIは「連想ゲーム」と似ている

ChatGPTを始めとする大規模言語モデル(LLM)は、「トランスフォーマーモデル」と呼ばれるモデルで、ある単語や文章に対して、次に発生する確率の高い単語や文章を推定します。わかりやすい言い方をすれば「連想ゲーム」をしている感じです。

例えば、「日本の首都は?」と入力すると「東京」と回答する確率が高いため「東京」となります。

また「むかしむかしあるところに、おじいさんとおばあさんが住んでいました。」と入力すれば、その続きを書いてくれます。こちらはGPT-3.5とGPT-4でそれぞれ試してみました。

そのおじいさんとおばあさんは、とても仲良しで、毎日一緒に過ごしていました。おじいさんは庭で野菜を育てたり、おばあさんは家の中で料理を作ったりして、二人で幸せに過ごしていました。

GPT-3.5の回答

むかしむかしあるところに、おじいさんとおばあさんが住んでいました。二人は山のふもとの小さな家で、おじいさんは山へ木を切りに、おばあさんは川へ洗濯に行きました。ある日、おばあさんが川で洗濯をしていると、川上から大きな桃が流れてきました。「なんと大きな桃じゃ!」おばあさんはその桃を家へ持ち帰り、おじいさんと一緒に食べようと思いました。

家に帰ると、おじいさんも山から帰ってきて、二人で桃を開けると、中から元気な男の子が現れました。男の子は「桃太郎」と名付けられ、おじいさんとおばあさんの子として大切に育てられました。成長した桃太郎は、鬼が住む島へ行って、人々を困らせている鬼を退治することを決意します。おじいさんとおばあさんは、桃太郎の旅立ちを悲しみながらも、彼を支えました。

桃太郎は犬、猿、キジを仲間にし、鬼が住む島へと出発しました。多くの困難を乗り越え、ついに鬼たちを退治し、平和を取り戻すことができました。桃太郎とその仲間たちは英雄として讃えられ、おじいさんとおばあさんもまた、桃太郎の勇気と優しさに心から感謝しました。

そして、二人は桃太郎と仲間たちとともに、幸せに暮らしましたとさ。めでたしめでたし。

GPT-4の回答

このように生成AIはユーザーの指示や質問に対して、確率的に最も適切と判断される単語や文章を回答します。確率となるため、誤った情報や実際には存在しない事実を生成する「ハルシネーション」を起こすこともあります。

例えば、「2023年に起こった出来事を1つ教えて。」と聞くと、実際にはないニュースを回答することがあります。これは入力文に続きそうな文章を推測して回答しているためです。とはいえ ChatGPTが登場した当初から比べると進展しているようにもみえます。

ハルシネーションは、とくに一般的に使われている用語と専門的な用語が異なる意味を持つ場合、AIの回答が不正確になることがあります。ユーザーの質問の仕方によっては、小動物の「マウス」とパソコンの「マウス」を混同させるようなイメージです。人間でもイントネーションの違いで「雨」と「飴」を間違うこともあるでしょう。

ハルシネーションを起こさないためには、プロンプトを適切に設計して、AIが生成する回答の範囲を絞り込むことが大切です。

参考文献

読んでいる方へのお願い

この内容が役に立ったという方は、「♡(スキ)」や「フォロー」をお願いします。「X」「facebook」「LINE」でシェアいただけるとさらに嬉しいです。

またGenerativeAI活用研究所では、サポートをお受けしています。活動を継続させていくために、どうかお願い申し上げます。

GenerativeAI活用研究所では、サポートをお願いしております。サポートのお金は、活動の原資(運営費や電気代などの固定費、書籍購入費など)に充てさせていただきます。活動を継続させていくために、どうかお願い申し上げます。