見出し画像

リサーチャーとAIのCo-Analysis(共同分析)実践方法

みなさんこんにちは。ソーシャルリスニング Blogです。

しばらくソーシャルリスニング全般の回が続いたので、今回はChatGPTなどのLLM(Large Language Model)を久しぶりに取り上げたいと思います。

ChatGPTでも最近Code interpreterが実装されたり、本当に毎日のように驚くニュースが飛び交ってますね。
会社でも社内利用が徐々に広がっていますし、間接的ですが、実際の案件ベースでもChatGPTを始めとしたLLMの利用がクライアントさんから聞こえてくるようになりました。

そんな中で今回の結論を先にまとめると、
「LLMってなんだかんだで拡張知性(Augmented Intelligence)ってやつだなぁ」
です。

では、よろしくお願いします。


LLMが強みを発揮するシチュエーション

ほぼ毎日のように実務レベルでLLMを使っているのですが、現時点の感触としてLLMを使うべき場面って、色々試した結果、以下の2パターンなのかもと思っています。

  • 「着想が広がらない時の叩き台を作る」

  • 「自分の考えの足りない部分を補完する」

少し詳しく説明していきましょう。

ヒューリスティックが効く場面ではLLMは不要

まず、LLMはリサーチャーがPJ業務の中でやっている思考作業の多くで、類似の情報処理ができます。しかし、全てのプロジェクトや全ての場面で使うのが正解ってわけじゃない、と思います。

具体的には、『経験値の二次利用』で済む場面では、LLMは不要です。
どういうことかと言うと、人は認知作業(=色々な考える作業)でヒューリスティック(≒直感的に答えを出す・判断する)を使ってますよね?

クライアントさんから相談を受けて、「あ、その話はあれと同じだな」とか「そういうパターンなら調査設計はこうだな」とかがパッと頭に浮かんでくるやつ。ソーシャルリスニング的に言うと、投稿にバババーっと目を通して、「あーこんな感じの心理、ニーズ、モチベのことだな」と発想できるのがそれ。

頭の中でロジックを積み上げて結論を導き出している訳じゃないんですよね、こういう瞬間って。でも、過去の経験の積み重ねによってパッと答えが想起される。そしてこういうプロセスで出てきた答えって、だいたい正しいことが多い。

でも、LLMを使うと、頭の中でパパっとやることを細かいステップに分けて、理論的工程を踏むから、ちょっと遅いんですよね。
今目の前にある状況を言語化して、ゴールの姿を抽象化して、思考のプロセスを全てプロンプトの形でパソコンに打ち込まないといけない。

正直めんどいですし、このような状況においてLLMを積極的に利用する意味や価値はあまりない気がします。

しっかり考えるシーンでLLMは活きる

一方で、経験値の二次利用が効かない場面で、LLMは結構使える印象です。経験値が足りないとヒューリスティックが発動しないですからね。
こういうシチュエーションでは、LLMで初期案・叩き台を作ってもらったり、自分が考えている範囲の外にある可能性を指摘したりアドバイスをもらうことは有効です。
仮設を広げることが大事だし、そもそも自分自身にヒューリスティックで判断するだけの事前知識や経験がない。これを自分の頭だけでウンウンやっていると時間が無限にかかるし、そこで出てきたものって一体なんだろうって感じです。

LLMとしっかり考える時のプロンプト例

具体的なプロンプトのイメージは、
「◯◯を考えたいんだけど、考えられる可能性を10個、理由と一緒にリストアップして」とか
「◯◯を検討中なんだけど、仮アイデアを異なる方向別に5パターン提案して」
みたいな形で質問を投げると色々とアイデアをくれます。

また、
「◯◯について考えていて、『A』と『B』『C』を考えているんだけど,他にもアイデアがあれば提案して」とか
「◯◯を考える中で、『X』と『Y』というアイデアに足りていない視点ってなんだと思う?」
とかの問いかけも結構刺激をもらえます。

こう言うふうに、経験値の外側に思考を広げようとする場合は、LLMは役立つんです。

アンカリングの罠

一方で、LLMを活用する上で注意すべき認知バイアスが「アンカリング」です。
アンカリングとは、特定の情報や数字に過度に引き寄せられる傾向のこと。
LLMを使った作業をで言うと、何も考えていない状況で、分かりやすい「答えっぽい何か」を目の前に並べられると、それに簡単に染められてしまう人間の怠惰な思考に注意が必要、って意味です。

さっきのLLM利用で考えるシーンに照らすと、まったく事前知識がない時にLLMに叩き台を出してもらう時が該当しますね。
LLMは初期案・叩き台をどんどん出してくれるんですが、ここで強烈な「クリティカル思考力」が試されます(笑)。LLMが「こんなんどうですかー?」と出してきたものに「へーそうなんだぁ、ありがとう採用!」となりがちなので、そこでグッと立ち止まれるリテラシーが必要というか。思考力としてはそこそこカロリー使いそうですねぇ。

LLMを活用する際は、あくまで自分の思考をブーストする役割で使いましょう。具体的には、以下のステップに徹底して活用することがおすすめです。

  1. 事前知識がないのでLLMに叩き台アイデアを質問する → LLMは何か出してくる

  2. これは本当に価値があるの?を問う。→どうしてこのようなアイデアを出してきたのか背景や理由を追加質問して、自分が納得できるか確認する。

  3. 他にも価値のあるアイデアはないの?を問う。→他には?他には?とくり返しアイデアを出させることが大切。

  4. その結果、自分がしっかり納得できるものだけど採用する。また、そこから自分が連想、発想できたものも追加して作業を進める。

メタ認知するチカラ

また、もう一つの活用シーンで、自分の考えを広げるパターンもありましたね。
その場合は、こんな感じです。

  1. まず、自分自身で考えて整理する。もう出てこないな、まで絞り出す。→ここまでを言語化しておきましょう。

  2. 他にも可能性があるか,足りない視点があるかをLLMに提案を求める。→自分の考えを一緒に入力してしまう。

  3. LLMが出した提案内容を、しっかり自分で判断する。

  4. ここまでの作業で拡張された視点をもとに作業を進める。

ここでも人のリテラシーは求められてしまいます。
それは、散々自分で考えた時に、「いや、まだ足りない要素があるんじゃないか」「本当に自分が考えた範囲が全部なのだろうか」と自分自身をメタ認知する力です。いやーこれもカロリーが高い(笑)

拡散ステップでも収束ステップでも

このような活用ケースを考えると、LLMは人の頭を「拡張」してくれるといういイメージに繋がるんじゃないあと思います。
決して、AIに答えを出してもらうのではなく、人が主(思考の中心)でありながら、LLMを従(サポート役)として使うことで、人が行う作業をブーストできるような感じ。

これは多分、発散ステップでも収束ステップでも使えるじゃないかと思います。上記は発散ステップですけど、収束ステップでも、広げたものをどうまとめるのかの視点やまとめ方についてもLLMからのサポートは受けられるはずです。

おわりに

と言うことで、今回は、LLMと一緒に考える作業をどう進めることができるのか、という点を考えてみました。

ChatGPTなどのLLM活用というと、「メールを自動で書く」とか「プログラムコードを書いてもらう」といった、自動化/省力化の議論になりがちなんですが、人の思考を深める・広げるといった「質」の面にも注目が集まるといいなぁと思います。
たぶん、今LLMや生成AIに関する情報発信としている人たちの多くがエンジニア的なバックグラウンドがあるからかもですね。リサーチャー領域ならではの活用というのも今後広がってほしいなぁと思っています。


この記事が参加している募集

AIとやってみた

この記事が気に入ったらサポートをしてみませんか?