ビッグデータの分析

昔は“マイニング”と言って、その利益が語られていたと思うんだけど、ここにきて、それが、そのマイニングをする対象である“ビッグデータ”と形を変えて我々に訴及してきた。

「ビッグデータの世界では、有効な仮説が無くても良い。(仮説・・・つまり評価指標だよね。)世の中の仕組み、個人の行動、消費者の購入内容、部品の故障時期などが、ビッグデータの相関関係を基にした予測により明らかになる事例が次々と紹介されている。」(日経)

「実際の分析において、一見関係無さそうに見える要素の間でも、時間軸や原因・結果の関係を整理していくと、1つひとつの要素がつながり、大きな流れが見えてくることがある。すると、これまで見えていた個々の要素から導いた結論が、決して本当の答えではないことに気付くことになる。」(Think NO46)

まさにそういうこと。

それがわくわく感に繋がっていくわけで。
データマイニングの凄さを認識したのは、東大工学部の数理言語情報学研究室においてテキストマイニングの実演を見たときだ。

モニターの中で、前もって意図しなかった関係性が次から次へと導きだされていく。

大きなデータを分析することがどんどん容易になれば、あらかじめ限定的な利用しか想定できない”仮説(及び評価指標)“を前もって設定して、その指標における分析・検証を行う“ということではなく、仮説を設定せずに、世の中の動きや個人の思いなど、ビッグデータの解析自体に、それらデータ間の相関関係等を見出して、その”気づき”をもって新しい価値や事業を生み出していくことができるだろう。

いわゆる政策指標なり施策指標、つまり個別事業ではなく、大きな枠で広く事業の過不足や事業間の関係性を含めて評価をしていかなければいけない上位の評価においては、このビッグデータの解析が活躍しそうだなあって思う。

この辺を、何とか、このビッグデータという言葉が流行っている時期に検討し、モノにしていきたい。

やりたいなあ、ビッグデータの解析!

それは数値の解析だけじゃなくて、テキストの解析をしっかりと含めて・・・。

これが“ブレイクスルー”を産むんだよなあ。

この記事が気に入ったらサポートをしてみませんか?