デザイン思考の定量化#1 Emphasize
初回は”Emphasize”について、そもそもの位置付けと今まで使われてきたフレームワークについてリサーチした結果を共有する。
そもそも"Emphasize"って?
日本語で「共感」と訳されるように、ユーザーの感情や行動を理解することを目的とし、アンケートやインタビューなどリサーチの手段を用いる。
ここで得られる情報はその後のステップの材料であり、ここで多くのユーザーインサイトを得ることが大切である。(ただし集めすぎて情報に埋もれてはならない)
デザイン思考ではこの段階で色んな手段をとることができるが、多くの場合「定性データ」を集めることに苦心する。
もちろんユーザーを理解するのに、ユーザーの発信物を理解することは大切だ。ただインタビュー回数を重ねるうちに2つの疑問が出た。
もちろんインタビューの技術が未熟であることや、場数が少ないゆえこれらの疑問が生じたという背景はあるが今回は置いておく。
そこで今回は「いかに人の技量によらない再現性を保てるか」と「効率性」を達成すべく、定量的な観点でEmphasizeを実施する方法を探る。
今回検討するステップ
定性インタビューをインタビュイーの技量によらず、また効率的に実現する方法はいくつかあるが、大きく3つのステップを踏むと考えられる。
1. 発話データの獲得
2. データの加工と整理
3. インサイト抽出
1.発話データの獲得 / tl;dv, Rimo
定性インタビューだけでなく直近ではオンラインミーティングの議事録としても使える文字起こしやサマリを自動で作れるツールを使う。特にChat-GPTが広まった以降、日本語の発話データを精度高く書き起こせることになったのは日本のサービスデザイナーにとって大チャンスのはず。
2.データの加工と整理 / Excel, OpenRefine
3で使用するツールに依存するが、発話データはすぐ分析に使える綺麗な状態である可能性はほぼない。そこで加工と整理が必要になるわけだが、この作業が一番重要かつ手間のかかる作業でもある。データ量が少なければ、手っ取り早くExcel等で整理することは可能だが、多い場合はテキストデータの加工を専門にする「OpenRefine」などのツールを使うことを推奨する。
3.インサイト抽出 / Quantitative Ethnography
定性データを分析する上では、古くから形態素解析はじめ言葉を分解して利用頻度を可視化する試みが行われてきた。その一つとして"Quantitative Ethnography(定量エスノグラフィ)"と呼ばれる方法は使い方次第で、今まで分かれていた「定性」「定量」をまたぐ新しい可能性を秘めている。元々は教育心理学の分野で始まった学問だが、簡単に言えば次のことができる。
- 発話データを元に話者の傾向を分析
- 可視化
- 話者ごとの比較によるインサイト出し
これらを1つのツールで完結できるため、まとめ作業の効率化も図れるはずだ。また言葉の頻度を簡単に数値化できることで、人間がまとめをする時よりも精度高くインサイトを得られる可能性が高い。
実は現在進行形でこのQuantitative Ethnographyを実験中であり、インプットとして下記の本も読んでいる。こちらについてはまた別の回でまとめようと思う。
これらの1-3ステップを踏むことで、実質インタビュイーはインタビュイーとしての役割を担うことに没頭し、その後のIdeationフェーズに時間を費やせるはずだ。
今後の可能性について
ここまで今までのEmphasisの過程をテクノロジーで代用し、定量的に実施する方法を論じてきた。ただここまで読んだ方は、こう思うに違いない。
確かに、その認識は正しいと思う。
ただ今回紹介した方法は、現時点で複数のツールを組み合わせて利用するため面倒に感じるかもしれないが、仮にEmphasizeのステップに特化したツールとして1つに纏まれば、使わない手はないはずだ。(ぜひ今後チャレンジしたい)
今日、実務でのEmphasisフェーズでは多くのサービスデザイナーが採用するインタビューテクニックや記録の取り方、まとめ方に差異はほぼないと思う。
相手の発言を、"ゼロ感情"で整理することが急速に簡単になった今日、人が頭を使って考えるべきは、相手の発言を機械的にまとめてインサイトを出すのではなく、人にしか読み取れない相手の感情・雰囲気などのエッセンスを読み取り、機械的に得られたインサイトの価値を倍増させることだと思う。
そのエッセンスを加える作業に人が従事するために、このEmphasisの定量化は役立つに違いない。
次回は"Define"の定量化について、まとめる。