見出し画像

【ChatGPT】AIのことはAIに聞こう!デジタルヒューマンによるプロンプトの解説

みなさん、プロンプトエンジニアリングの勉強してますか?
勉強しようとしてもなかなか集中できない・・・。
ということで、試しにデジタルヒューマンを作って音読してもらいました。

フューショット・プロンプティング

 最近の自然言語処理(NLP)のトレンドは、大量のテキストコーパスを事前に学習し、特定のタスクで微調整することにより、多くのNLPタスクやベンチマークで実質的な進歩があることを示しています。しかし、この方法はタスクに依存しないアーキテクチャであっても、数千から数万のタスクに特化したファインチューニングのデータセットが必要です。人間は一般的に、わずかな例または簡単な指示から新しい言語タスクを実行できますが、現在のNLPシステムはこれに苦労しています。本論文では、言語モデルのスケーリングにより、タスクに依存しない少数のショットでのパフォーマンスが大幅に改善されることを示しました。GPT-3は1750億のパラメータを持ち、いくつかのタスクで従来のファインチューニング手法と同等またはそれ以上のパフォーマンスを発揮することができます。一方、GPT-3の少数のショット学習がまだ苦手なタスクや、大規模なWebコーパスでのトレーニングに関連する手法的な問題があることも指摘されています。社会的影響についても議論されています。

Chain of Thoughtプロンプト

 この論文は、複雑なタスク(算数、常識、記号論理など)における大規模言語モデルの推論能力を向上させるシンプルな方法「チェーン・オブ・ソウト・プロンプティング」について探究しています。この方法では、モデルに思考の連鎖として中間推論ステップの例を提供します。実証評価により、チェーン・オブ・ソウト・プロンプティングが従来のfew-shotプロンプティングよりも優れた結果を出し、一部のタスクでは最先端の性能を発揮することが示されました。このアプローチは、数値入出力の例数が少なく、コスト効果が高く、コンテキストにおけるfew-shot学習の可能性を提供します。ただし、推論タスクの中間例を作成することが難しい場合があるため、この方法は複雑な推論を必要とするタスクには適していない可能性があります。

ゼロショットCOT

本論文は、大規模言語モデル(LLMs)において、タスクに依存しないプロンプトを使用することで、ゼロショットの推論を可能にする「Zero-shot-CoT」という手法を提案しています。この手法は、問いに答える前にステップバイステップの思考を促進するプロンプトを使い、算術、記号論理、常識的推論、論理推論タスクなど、様々な推論タスクにおいて、タスクに依存しないプロンプトで高い性能を発揮します。本手法の柔軟性は、タスク固有のプロンプトを必要としないことが特徴であり、LLMsに内在する未開発のゼロショットの基本的能力を示唆しています。しかし、厳密に設計されたステップバイステップの例文を使用したFew-shot-CoTよりも性能が低いというデメリットがあります。

まとめ

今回、お試しで作ってみたデジタルヒューマンはいかがだったでしょうか?
デジタルヒューマンはこちらで作れます。
必要なものは人物の画像と読み上げるテキストだけ!
みなさんもぜひ試してみてください!



いいなと思ったら応援しよう!

この記事が参加している募集