InsightTokyo #1 を見ながら考えていたこと

昨夜、InsightTokyo #1 がありまして、参加しました。オンラインでの開催だったので、自宅で子ども達のワーとかギャーを振り切りながらでしたが、登壇者の皆さんのとても興味深いご発表を聞くことができてとても有意義でした。

今回のお題は、「UXリサーチ×データ分析」とのことで、UXリサーチの側とデータ分析の側、双方の融合するポイントを探るのがテーマ。ご登壇の皆さんはそれぞれ、各社で取り組んでいるUXリサーチ×データ分析の現場が今どうなっていて、何をしています、ということをお話しくださいました。

・・・というところで、オールドタイプのデータ分析者(=私含む)にとっては、「UXリサーチって何?」「データ分析と何が違う?」ってなりまして。聞いているうちに、あぁ、これは言葉がかなり違うな、と。ですので、この言葉の違いを、どちらが良い悪いではなく、自分の推測も交えて、一旦紐解こうと思います。以降では、昔ながらの(私の知っている)用法を「旧」、今おそらく世に出回っている用法を「新」で言い分けます。

このイベントにご登壇の、もしくはオーディエンスの皆さんはおそらく、ビッグデータ以後にデータの世界に入ってこられた方々が大半なんだろうと思います。ビッグデータの流行が確か2003年頃ですから、もう15年以上経っているわけですよね。ですので、新データ分析では、「データ分析」という言葉が、おそらくそういうビッグデータを取り扱って、データのみから何らかの結果を導く、旧で言うところの完全データドリブンな分析のことを指す、もしくは、明示的にそうでなかったとしても、「データ分析」という言葉に対して思い浮かべるアクティビティは、巨大なデータをぶん回して、SQL書きまくって、A/Bテストやって、片っ端から機械学習に突っ込んで、みたいな世界なのではないかな。

なので、ここで「UXリサーチ」という、旧型の僕たちには謎のキーワードがでてきまして、謎というのは、意味がわからないのではなくて、そのキーワードがどの範囲を指し示していて、なぜUXリサーチというキーワードを当てはめているのか、そこにどんな理由があるのか、それがわからない。このイベントを聞くまではわからなかった。

わかったこと。旧型にとっては、UXリサーチもデータ分析も、僕らがもともと大きく「データ分析」と呼んでいたり、アプリケーション対象を限定すれば「マーケティングリサーチ」と呼んでいたものなんじゃないか。ただ、その当時にはビッグデータが無かった(あるところにはあったけれど、UXリサーチ~マーケティングリサーチの世界にはまだ届いていなかった)。そして、そこからビッグデータの時代が嵐のように到来したのだけれど、僕らにとってはただデータが大きくなっただけで、旧来の用語をわざわざ言い換える必然性もなかったので、その意味で新UXリサーチも新データ分析=データドリブンなデータ分析も、旧データ分析の中の種類の一つでした。ですから、もともと同じであるものを融合させるというイメージもなく、目標達成のために使う、いくつかある手段のウチの一つずつ、くらいの違いしか無かったわけです。

注:定性と定量という違いは当時からもあって、研究者によってはどちらが得意、苦手、というのはありました。インタビューや個体観察、実験、フィールドワークなどの定性が得意な人と、アンケート調査などの定量が得意な人と。(ログ解析もあるところにはありましたが、今のようなものではなく、例えば某視聴率調査会社さんがものすごいコストをかけて集めているモニターデータのようなものだけでした。)

ところが、2000年頃から急速に進んだインターネット化により、お客さんの活動がどんどん「ログ」として入手可能になってきました。これまでは机上やフィールドでうんうん唸りながら、あーでもないこーでもないと顧客の行動原理を想像して、仮説を作って、一回数百万円かかるアンケート調査を打って(しかもネット調査など無かったので、路上勧誘や郵送、電話などで!)、やっと集めた数百件程度のデータから、UXを推測するしかなかった。それがインターネットになった瞬間、顧客の動きがすべてログとして残っている。サンプリングですらない、全数データがある、これはすごい!ってことで、そちらの研究がぐいぐいと進んでいくことになったのです。

ところが、このビッグデータは蓋を開けてみると、とてもこれまでのリサーチャーが自分でなんとかできる代物ではないことがわかってきました。生ログの汚さは、扱った経験のある人にしかわかりません。センサーログもノイズ除去しないと見れたものではないし、よしんば美しく加工されていたとしても、何十万行、何百万行となった時点でお手上げ(当時のExcelの最大行数は6万行ほど)。そこで旧リサーチャー達は、少なくとも自分たちが目で見てわかる程度にまで加工してもらうことを、比較的近しい作業をしているように見えるシステムエンジニア達にお願いするようになります。彼らは日々トランザクションと戦っていますし、なによりログデータの発生源であるウェブサーバーを握っていますから、リサーチャーの思うようなデータ加工は朝飯前なので、ここに旧来のリサーチ部門(経営企画部等)と、システム部門(情報システム部等)とのコラボが発生します。

そのうち、というか、同時発生的に、ログ解析を主とするビッグデータを回して解析して素晴らしい成果を上げる人や組織ができてきます。おそらく初期の頃は、旧型リサーチャーなどとコラボしながら進めていたと思いますが、実は旧型リサーチや、その土台にある統計学って、データがとれないことを前提に考えているから、データがとれる状況になったときに、わざわざ「リサーチ」しなくてよくなっちゃったりする(注:もちろん、その上での難しい課題は当然大量にあるのですが、コラボしている領域だけを見れば、リサーチってたいしたことないじゃん?って思われがちだった、というのが公平な言い方かも)。むしろ、当時はでかいデータを回す方がよほど技術的に難しくて(MapReduceとかHadoopとかの黎明期)、しかも回せばすぐに、可視化や集計だけでも、新しい結果になるような時代だったし、旧型リサーチをちゃんと勉強して入ってきたデータ職人もいたりして、わざわざ旧リサーチャー~経営企画部の手を借りなくても、自分たち情シスだけでもできるじゃん?ってなってきたのが、たぶん2010年頃。

で、おそらくその頃からだんだんと旧型リサーチャー達と、情シス系のビッグデータテクニシャン達の仲が疎遠になっていったんじゃないだろうか。別に仲が悪くなったのではなくて、それぞれだけでできることがたくさんあったので、それぞれでやってたら時が過ぎた。って感じで。

つまり、UXリサーチとデータ分析はもともと同じもの。しかし、ビッグデータ時代に二つに分断されてしまって、それぞれ別の世界の物語として発展してしまった。それぞれに、それぞれの難しさや、研究課題や、実務課題がたくさんあって、それをこなすだけで十分成果が出たので、別れたままでも大きな問題にはならなかった。

じゃあなぜ今、UXリサーチ×データ分析なのか。

それはたぶん、新型のデータ分析の限界が見えてきたからなんじゃないか。というより、新型のデータ分析だけでできる範囲をあらかたやり尽くしてしまって、それでも課題はあって、その課題をどう解決する?って思ったときに、実は元は同じrootだったUXリサーチと再会したのではないでしょうか。だから、両者が惹かれ合うことは必然。幼い頃に別れた双子の兄弟が、大人になりお互い成長して、ある日再会したような感じで。

・・・などと、ちょっと本筋とはずれたことを考えながら楽しく過ごした InsightTokyo #1でした 。素晴らしいご発表、ありがとうございました。

この記事が気に入ったらサポートをしてみませんか?