見出し画像

AIアシスタントとのチームワークを最大限に成功させる方法 from Ezra Klein Show

「ニューヨーク・タイムズ」の「Ezra Klein Show」では、AIアシスタントの使いこなしに苦労しているポッドキャストホストのエズラ・クラインが、ウォートンスクールの教授であり、『Co-Intelligence: Living and Working with AI 』の著者、イーサン・モリック教授と対談している。

The Ezra Klein Showのカバー画像、イーサン・モリック教授
https://www.nytimes.com/2024/04/02/opinion/ezra-klein-podcast-ethan-mollick.html

AIアシスタントを活用してその潜在能力を最大限に発揮し、人間とAIが協力して創造的に働ける。そんな状況に近づくには、一般的でありきたりなプロンプトを打ち込むだけではなく、新たなスキルセットとアプローチが必要であるとモリック教授は指摘する。


1. 適切なペルソナの設定

これはすでに良く知られている手法かもしれないが、まずはAIに適切なペルソナを設定することから始めるべきである。例えば、「面接のエキスパートであり、温かくフレンドリーなスタイルで答える人物になって、面接の質問を考えるのを手伝って欲しい」といったものだ。しかし「ビル・ゲイツになってくれ」などというのは解像度が低すぎる。もっと具体的なコンテクストを与えなくてはならない。

2. 「思考の連鎖」プロンプトを使用する

AIには内部的なモノローグはなく、「思考」はしていない。AIが何も書いていないとき、思考プロセスは存在しない。AIにできるのは、次のトークン、次の単語、単語のセットを作り出すことだけだ。そしてそれを1ステップずつ何度も続けていく。内部的なモノローグがないということは、思考の代わりにそのステップを表出させる、つまり書かせることが効果的である。AIが最終的な結果を出す前に、書くことによって「考えさせる」。思考の連鎖(Chain-of-Thought、CoT)がうまく機能する理由のひとつはここにある。

言語モデルには内部的な推論機能が欠けているため、提供される回答が常に一貫性を持つとは限らない。そのため、モリック教授はAIの問題解決プロセスを明確な思考の連鎖で進めるよう勧めている。以下のような段階的アプローチにより、より合理的で論理的な応答が促される。

  1. 問題の概要を提示

  2. 解決策の選択肢を列挙

  3. 最終的な解答に至る前にその草案を作成

3. 反復的な会話による洗練

AIのアウトプットを基に、言い換えたり調整したりすることで、より良い結果を得ることができる。AIに、簡潔に言い換えたり、別の視点から言い換えたりするよう頼んでみるとよい。その上で、気に入った点、改善できる点を例として挙げるのである。

最良のアウトプットは、単発の問い合わせからではなく、双方向の対話から生まれる。AIアシスタントに働きかけ、その反応を検証した後、改善や細かな調整を施してさらに促すことが重要なのだ。高品質な成果物を得るためには、AIの言語生成能力を例文や批判を用いて形成し、このプロセスを繰り返し行ってコーチングすることが求められる。

4. 時間を割いて理解を深める

モリック教授は各AIアシスタントに対して、「少なくとも10時間、様々なプロンプトとインタラクションを行ってみること」を推奨している。自分の仕事に使ってみて、どこが良くてどこが悪いのか、何が自動化できて何ができないのかを理解し、そこから組み立てていくのだ。

モデルの長所、盲点、効果的なプロンプトのテクニックについて実質的な感触を開発し、AIの潜在能力をフルに引き出すには時間投資が必要なようだ。

  • Gemini: 親切

  • ChatGPT: ニュートラル

  • Claude: 温かみがある

といったような、各AIアシスタントの特徴を理解し始めるには、「軽く短い会話」以上のやり取りが必要そうだ。

まとめ: 新チームメンバーを受け入れ、信頼関係を築く

AIを単純な問い合わせツールとして扱う時代は、オープンエンドで反復的なコラボレーションの新時代へと変わりつつある。ペルソナを作成し、思考連鎖プロセスを促しつつ時間をかけて対話をすることにより、大容量で柔軟な言語モデルを、強力な協力者に変えることができる。AIの潜在的な力は計り知れないものがあるが、その力を最大限に引き出すには、命令を超えた相互的なパートナーシップを構築することが必要だとモリック教授は語っている。

「AIアシスタントの可能性を最大限に引き出す方法」に手っ取り早い裏技はなさそうだが、人間の新しいチームメンバーを迎え入れるのと同じように日々やりとりをしていく中で「相手」のことを深く理解できる時がいつか来るのであれば、その嘘を見抜ける関係性でさえも不可能ではないのかもしれない。

How Should I Be Using A.I. Right Now?
The Ezra Klein Show (APRIL 2, 2024)
https://www.nytimes.com/2024/04/02/opinion/ezra-klein-podcast-ethan-mollick.html


この記事が気に入ったらサポートをしてみませんか?