見出し画像

統計学が最強の学問である

はじめに

人材マネジメント系の本を読むことが多くなってきた最近ですが、今回は「統計学が最強の学問である」(2013年1月発行にダイアモンド社から発行)という本を拝読したので、私なりのまとめや感想をnoteにアップします。ゆとり世代、文系出身の私ですので、理解が追い付いていない部分があると思いますが、興味を持たれた方は、ぜひ本書を読んでみてください!!

本の概要について

統計学を使用して、分析を始める方法が書いている実践的な本という訳では無く、なぜ現代において統計学を学ぶ必要があるのか?という事について、歴史や統計学の成り立ち、何を解決できるツールなのか?統計学の限界は何か?など様々な背景や視点を織り交ぜて解説してくれる本になります。

そのため、すぐにでも実践的な統計学の知識を得て使用したいという方には向いていない本かもしれません。統計学を学び始める前の方の、なんで学ぶ必要があるんだっけ?という疑問に応えてくれる一冊だと思います。但し、後半になると、専門用語など難しい内容も盛り込まれています。私のような統計学全くの初心者というレベルだと中々細部まで理解する事が難しかったです。著者は西内啓さんという方ですね。東京大学の医学部ご出身で、統計学に関する多くの本を執筆されていたり、最近ではJリーグのアドバイザリーをされていたりと、マルチにご活躍されている方のようです。


なぜ、統計学が最強の学問なのか?

さっそく内容について、見ていきましょう。
ざっくりまとめると私の認識では、統計学を使用する事で下記2つの事が可能になるから最強であると考えています。

・最速・最善で回答を出せる。
・全ての問いに対して科学的にアプローチができる。


皆さんは、会社や所属する組織で長~い会議の後に施策が決まったり、上司や先輩から「わたしの長年の勘や経験によると。。。」などと言われて方向性が決まったりという場面に遭遇したことは無いでしょうか?
統計学は、そのような決定に対して科学的なエビデンスを持って、最速最善で発言や決定を検証して議論を正しい方向に向ける事ができます。また、現代ではビジネスパーソンとして、持っておく素養としてロジカルシンキングという考え方の思考法がありますが、科学的なエビデンスを背景に導き出した答えと比較すると、統計学>ロジカルシンキングとなると著者は言います。

統計学は汎用性は高く、特にウィリアム・フィッシャーが統計学における様々な新しい考え方を導入した後は、非常に多くの分野において重要な学問となっています。医学、教育、社会科学、昨今ではビジネスやスポーツといった分野まで裾野を伸ばしています。ITの発展によって様々な場面でデータの取得が容易になった現代において、統計学を活かせない分野を探す方が難しいのではないかと思うぐらい、汎用性のある学問となりました。

それでは、なぜ統計学がここまで裾野を拡げて多くの分野で科学的なアプローチをできるようになったのか?最強である背景には何があるのでしょうか?私が本書を読んで感じたのは、おそらく以下の要素が統計学の汎用性を飛躍的に拡大したという事です。

誤差のある現象を科学的に扱えるようになった。
100回やって100回そうならない現象を科学的に検証できるようになった。


一見、何を言っているのか分かりませんね。。実は統計学も最初から誤差のある現象を検証できた訳ではなく、現代統計学の父”ロナルド・A・フィッシャーがランダム化比較実験という方法を開発して以来、可能になったものだと言います。それ以前の科学の方法論の特徴は「観察と実験」でした。何らかの仮説を検証するために、対象物を見たり何らかの条件を加えた上で測定するというものです。
このような方法で、現在も常識とされている事象が多く発見されています。例えば、医学において動物の血管を様々な箇所で縛って観察する事により、動物は心臓をポンプとして血液を循環させていることを明らかにしました。(以前は肝臓が中心だと思われていた。)
しかし、当時の実験では上記の実験のように結果が何度やっても同じようなモノしか対象として扱う事ができませんでした。言い換えると、結果に誤差のある実験は扱う事ができませんでした。
例えば、小麦の収穫量を最大限に高めるためにA肥料を使用するべきか?という問いに対しては応える事が出来なかったのです。なぜなら、先ほどの心臓の実験と違って、土地のもともとの日当たりや水はけなど様々な要素が絡み合って、仮にA肥料が効果的に働くとしても結果はバラバラになります。肥料を上げた結果、収穫量が上がったのは誤差なのか?そうでないのか科学的に説明する事が出来なかったのです。
このバラつきという事象に対して、フィッシャーはどのようにしてA肥料の効果について科学的なアプローチをしたのでしょうか?
キーワードは”ランダム化”です。本書では”人間の意志がそこに入り込まない方法で選択する事”をランダム化と呼んでいます。フィッシャーは農地を40分割して、20面にA肥料をやって残りの20面にはB肥料という実験をしました。どの面にAorB肥料をあげるかはランダムで実施しました。これによって、一方だけに日当たりの良い場所が集中する可能性はどれぐらいあるだろうか?1/2^20で1/100万ほどというほとんど奇跡に近いレベルとなります。
ランダム化してしまえば、比較したい両グループの諸条件が平均的にほぼ揃う。条件が違うのは肥料の差だけという事になり、結果は科学的に正しいモノになるという。著者の西内さんは、私たちにランダム化のご利益を以下のように語っています。

この性質を現代のあなたの仕事に置き換えるのならば顧客や従業員の年齢や性別、心理的特徴といったものが仮に結果を歪める可能性があったとしても、「ある程度の数でランダム化をしてしまえば問題にならない。」というありがたい性質を示すことになる。

このようにして、統計学は100回やって100回そうなる訳ではない現象を科学的にアプローチできるようになりました。現代のビジネスにおいて結果があらかじめ予想できるような施策って無いですよね。統計学を学ぶ必要があるのか?という問いに対して、早くもYes!の方向に答えが向いてきました。

本書では、ランダム化の考えを使って、マーケティング施策を打ったコンチネンタル航空のストーリーが載っていますが、非常に興味深いモノでした。ざっくり説明すると、長い議論でマーケティングのHow toを決めるよりも、とりあえずランダムで顧客にいくつかの施策を打って、結果の良いモノを採用するといったものです。ランダム化の特性を活かしたマーケティングですね。最善最速で科学的なアプローチを経てベストなマーケティング方法は何かを導き出している好事例です。


統計学の入り口の入り口に必要なキーワード/概念

キーワードの一つとしてランダム化を挙げましたが、ここからは、統計学を学ぶのに欠かせない基本的な用語や概念についてまとめていきますが、ほぼ私自身のためのメモ代わりとしてまとめている内容ですので、読みづらい且つ長い文章になっています。ご容赦ください。

P値とは?

実際には何の差もないのに誤差や偶然によってたまたまデータのような差(正確にはそれ以上に極端な差を含む)が生じる確率

P値が小さいほど、その結果が偶然起きたものと考えにくい。となります。慣例的には5%以下であれば、偶然の結果では無いだろうと言えるそうです。例えば、ある企業のマーケティングでホームページのデザインを変える事によって、顧客の商品の購入を増やせないか?という施策を考えたとします。サイトの訪問者に対して、ランダムに新デザインと既存デザインを見せた結果、Aデザインを見た顧客の方が0.1%購買率が上がったとします。仮にP値が5%以下であれば新デザインの結果、購買率が上がったと結論づける事ができますが、P値が40%とかであれば、0.1%は誤差であり、たまたまという事になります。(このように誤差でもこれぐらいの差は生じるのか?といった事を確かめる解析手法に「カイ二乗検定」が本書では紹介されています。)

サンプリングについて

サンプリングとは”実験をする上でデータを取得する事”だと私は認識していますが、実際にどれぐらいの数を取得する事が良いのでしょうか?何となく多ければ多いほど、確実な結果が得られると思っている方も多いと思います。結論から申し上げると、確かに多ければ多いほど、結果は正確に出るのですが、実際にはサンプリングにかかるコストとのバランスを意識する必要があると言います。サンプリングの適切なサイズは標準誤差の数値を意識しながら、探っていく必要があるといいます。標準誤差とは本書では以下のように説明しています。本書では標準誤差を算出する式も記載されています。

標準誤差とは?
サンプルから得られた割合に対して標準誤差の2倍を引いた値から2倍を足した値までの範囲に真の値が含まれている信頼性が95%、という値

ちなみに、真の値(真値)とは無制限にデータを集めればわかるはずの真に知りたい値の事を指します。


因果関係について

データ分析をするにあたって、因果関係を意識する事は非常に大切であると著者は述べています。データ分析は、ビジネスにおいて具体的な行動に繋がるような結果を出す必要があると言います。そうした具体的な行動を引き出すには少なくても3つの問いに答える必要があると記載されています。

①何らかの要因が変化すれば利益は上がるのか?
②そうした変化を起こすような行動は実際に可能なのか?
③変化を起こす行動が可能だとしてその利益はコストを上回るのか?

上記3つの問いに答える事ができないなら、そもそも統計解析をする必要がない問題となってしまうでしょう。例えば、ある企業が商品のプロモーションの結果を調査するために、商品を購入したユーザーに対して、あなたは弊社のプロモーション広告を見たことがありますか?と質問をした結果、60%の方が見ていました。と答えていたので、このプロモーションは成功だと結論付けたとします。しかし、これだけでは商品の購入(結果)がプロモーションを見た(原因)であると結論付ける事は極めて難いでしょう。
そもそも商品を購入した人は購入していない人よりも、広告を見る機会は多いですし、商品を購入してない人で広告を見た人が60%以上であれば、むしろその広告は悪影響なのかもしれないですよね。従って、プロモーションを打ち出すという変化が利益をもたらすのか分かりません。
このようなミスをしないためにも、データ分析をする際は、どのような因果関係を明らかにするために分析であるのか? その関係性を明らかにすることによって、利益を生み出す行動につなげる事ができるのかを強烈に意識する必要があるでしょう。

比較について

データ分析をするにあたって、もう1つ重要な要素は”比較”です。
Webマーケティングの世界でよく使用されているA/Bテストという手法がありますが、デザインにせよ機能にせよ、AとBパターンを両方試してみて比較するというものです。(ちなみにランダム化のパートで説明しているランダム化比較実験=A/Bテストと捉えて良いとのことです。ランダムでは無いものを準実験と呼ぶらしい。)
データは何かと比較しないと意味を成さない。という事は分かります。しかし、ここで疑問になるのは「適切な比較とは何か?」という事です。
本書でも、「どのようにデータを解析するか?」については統計学を学ぶ事で自然に身につくことだが、多くのビジネスパーソンが意識すべき事はむしろ、「どのようなデータを収集し解析するか?」だと示しています。
本書では、”目指すゴールを達成したもの” VS ”そうでないものの”違いを比較する事が適切な比較だと言います。目指すべきゴールの意味を付け加えると、自分にとって理想的、もしくはより好都合の結果といった意味合いになります。
ビジネスにおいて解析するべきゴールは、因果関係のパートでも出て来た通り、”直接的な利益か、あるいはそこに至る因果関係の明らかな何か”という事になるでしょう。



回帰分析について ランダム化ができない場合の手法


ここまで、ランダム化によって、誤差のある実験を扱えるようになった事。そして統計学を学ぶ上で、必須のキーワードや考え方をまとめてきました。ここからは、ランダム化が何らかの理由で、できない場合についてどうすれば統計学を使用して科学的なアプローチができるのか?についてまとめていきます。後半は専門的な用語が頻出して私にとっては難解なモノでしたが、自分なりに大切だと思った部分のみをまとめています。

ランダム化の限界とは

前述したとおり、ランダム化という概念があるからこそ、統計学は科学的に誤差のある現象を取り扱えるようになり、汎用性が飛躍的に高まった結果、最強の学問と言われる存在になったと、本書を読んで私は解釈していますが、そのランダム化にも限界があると言います。主に下記、3つの要素が壁となり、ランダム化比較実験ができない場合があると言います。

現実の壁:絶対的なサンプルサイズの制限と制限の制御不可能性
倫理の壁:A/Bのいずれかが、明らかに有害である
感情の壁:実験に参加する人が感情的に参加したくないと思う。

ざっくりとまとめると上記のような壁が立ちはだかる事になります。
本書では例や実際のケースを紹介して、分かりやすくそれぞれの壁について解説していますが、感情の壁についての事例でAmzonのケースが紹介されていましたが、非常に興味深いモノでした。


ランダム化ができない場合

と言うように、3つの壁が立ちはだかってランダム化ができない場合があるとの事ですが、ランダム化ができなければ統計学は役に立たないのでしょうか?
本書では、ランダム化ができない場合でも他の方法があると解析しています。その方法として、層別解析によるケースコントロール研究によって、科学的に正しいと言えるような分析ができると書かれています。本書ではタバコが肺がんを引きおこす原因になる得るか?という実験を例に挙げていました。
研究方法としては、「関心のある疾患とリスク要因の有無以外は条件がよく似た人を選ぶ。選択方法としては、次のような方法が考えられます。”性別・年代・社会階層・居住地域といったものについて、調査対象とした患者と同様の人間を集めて男女別や年代別で区切ったグループごとに比較するといった方法を取っています。これを層別解析と言うそうです。喫煙の有無以外は意図的に同じような集団を集めて、比較して観察する事によって、喫煙以外の条件が揃えられてランダム化をしなくてもフェアな比較ができる。というロジックですね。

回帰分析

ケースコントロールは、ランダム化をしなくてもフェアな比較ができるというメリットがある一方で、データのとり方を工夫しなければならないし、労力がかなりかかってしまいそうですね。
本書では、より高度な手法を用いれば可能な限り条件を揃えたフェアな比較ができる手法を紹介しており、最も重要な枠組みの一つが回帰分析だと言います。

回帰分析とは?
データ間の関連性を示し、それが誤差と呼べる範囲なのかどうかを検定する手法。
データ間の関係性を記述する。あるいは一方のデータから他方のデータを予測する数式を検定する手法

なぜ、回帰分析は可能な限り条件を揃えたフェアな比較ができるのでしょうか?まずは、回帰の意味について、考えていきます。以下のグラフをご覧ください。1000組の親子の身長の相関を表しています。

【本書P153 の図を参照して作成】

画像1

-点の大きさ→該当する人数の多さ
-青の点線→両親の身長が子供の身長になるのではないかと仮定した理論上の関係性を示す線
-青の実線→実際のデータの中心を通る、すなわち「両親の身長から子供の身長を最も小さい誤差で予測する」実線
-式→青の実線を表す式

このグラフで重要な事は、実際のデータは理論上よりも平均に近づく。という事です。グラフの左側においては実線の傾きが点線よりも高い位置にあり、右側はその逆です。つまり身長が高い親同士の子は、実際にはそれほど高くならない。またはその逆もあるという事が分かります。これを”平均値への回帰”と言います。
このような現象が起こる事から”バラつきを持つ現象に対する理論的な予測がそれほどうまくいかない。”という事が分かりますね。

真値とは?

しかし、いくら回帰分析で最もそれらしい式を得られたとしても、それはデータとの誤差を最小化するように得られたものあるが、依然として誤差が存在するという事実は変わりないと言います。誤差を無視した分析は役に立たないという事を述べてきましたね。。誤差を扱う上で、回帰分析には2つの弱点がありました。1つはバラつきの差を無視して同じ回帰式が導かれてしまう。もう一つは回帰係数自体にバラつきがあるという事です。たまたま収集したサンプルデータによって回帰式が得られても、これではせっかく出した回帰式を他のケースで応用する事ができない。この壁を突破した概念が”真値”というものです。本書では真値について下記のようにまとめています。

真値とは?
真の値(真値)とは無制限にデータを集めればわかるはずの真に知りたい値の事を指します。
たまたま得られたデータから計算された統計量がどの程度の誤差で真値を推定しているかを数学的に整理する事で、無限にデータを集める事なく適切な判断を下せるという考え方を示した。

真値という概念によって、回帰式を汎用して使用する事ができたと私は解釈しています。

回帰分析をやってみた

回帰式を実際に使って分析をしてみましょう。現代は勉強したP値や標準誤差、係数といった指標を簡単に出力してくれるツールがあります。EXCELさんです。ありがたいですね。EXCELで賃料をy、リビングの大きさをxとして回帰分析をしてみました。y=3355.2x+13459という回帰式が導き出されました。1㎡大きくなるにつれて、3,352円+13,459円高くなるという意味の数式ですね。この数式を実際に使用する事ができるのかを見極めるために重要な数値がです。P値については前述したとおり、5%以下であれば、その結果が偶然起こったとは考えにくい。という事でしたね。リビングスペースについては、P値がほぼ0%ですので、賃料との相関はほぼ間違いなくあると言えます。切片に関しては、P値が約30%であり信用でき無さそうです。。

画像4

画像5

 あ回帰分析まとめ

上記のような分析は”単回帰分析”という手法を採用したものですが、本書ではどの場面で、どのような分析手法を使用するべきなのかを理解する事を劇的に進めてくれる1枚の表を示してくれています。

【本書P173 の図を参照して作成】

画像3

統計学には様々な分析手法がありますが、直線的な関係性を導出して結局、回帰分析のような方法を取るということで、一般化線形モデルとして分類する事ができ、それを一枚の表にまとめたものが上記であると、著者は述べています。
ここでは現代の統計学において王道と言われる重回帰分析及びロジスティック回帰の二つに関してまとめていきます。

重回帰分析とは?

説明変数すなわち予測したい結果に影響する要因が複数ある状況に拡張された回帰分析

要因が複数ある状況において回帰分析をする際にフェアな比較が崩れるケースの一つにシンプソンのパラドックスと呼ばれるものがあります。集団全体の比較とその集団をグループに分けて、そのグループごとを比較したときの結果が矛盾する事があるという事です。本書ではA高校とB高校の平均点はB高校の方が高いが、男子同士の比較・女子同士の比較ともA高校の方が高いという例で説明されていました。このような状況に関して、前述の層別解析をすればいいじゃん!という質問がありそうですが、層別解析をしすぎるとサンプル数が少なすぎてP値が高くなるという現象に悩まされます。
そこで、重回帰分析の登場です。考え方はシンプルで”仮に男子が全員女子の場合”といった前提を置くのです。(男子と女子の平均点の差を男子の点に加算する事によって仮の状態をつくる)
※ただし、複数の回帰係数はお互いに相乗効果がなかったとすれば。という仮定を置いている必要がある。ちなみに、本書ではお互いに相乗効果が働いているのか調べる分析として交互作用項を設定して分析する手法も紹介されています。

ロジスティック回帰とは?

もともと0か1かという結果変数を変換し、連続的な変数として扱う事で重回帰分析を行えるようにした、という考え方。

ロジスティック回帰では、回帰係数をオッズ比、つまり「約何倍になりそうか?」で示すということさえ、知っておけば他の回帰分析と見るべきポイントは同じだと著者は述べています。回帰分析や重回帰分析は回帰係数が連続値で示されますね。


統計学の多様さ


統計学の6つの分野

統計学は数学的な理論に基づいて組み立てられているものの、その数学的な性質を現実に適用する際には、必ずいくつかの仮定やそれに基づいた判断が必要になると言います。この仮定や判断は統計学の分野ごとに以外にも全然違うと著者は述べています。本書では、6つの特徴的な分野を下記のように紹介しています。

①実態把握を行う社会調査法
②原因究明のための疫学・生物統計学
③抽象的なものを測定する心理統計学
④機械的分類のためのデータマイニング
⑤自然言語処理のためのデータマイニング
⑥演繹に関心をよせる計量経済学

社会調査法

社会調査法のプロたちの目的は議論の土台となる正確な数値を推定する事だと言います。彼らは可能な限り正確な調査を追求する性質を持っており、
欠測(得られるべきデータが得られないこと)を極端に嫌がると述べられています。

疫学•生物統計家

社会調査のプロと違って、正確な数値を導出することを第一目的としている訳ではありません。目的は最終的に結果に与える影響の大きい「原因」を探すことだと言います。
すなわち、社会調査分野のように超正確なサンプルを取ることに対してそれ程熱心では無く、P値に基づき原因がちゃんと見つけられるのであれば、良いという考えを持っています。ランダムサンプリングによる正確な推定値を測りたい社会調査分野VSランダム化による妥当な判断を優先する統計学者の構図は避けられないと言います。

心理統計学

心や精神といった目に見えない抽象的なものを測定することを目指す統計家たちです。IQなどの例が代表的である”因子分析”を発明しています。

因子
お互いに相関している複数の値から、それら全てとよく相関する新しい合成変数を生み出し、それを使って分析をする事

また、心理統計家は自分の測定したい「抽象的な概念」が何なのかを定義するために、質問紙に命を懸けるといいます。例えば”仕事におけるやりがい”という抽象的な概念を定義する際に、やりがいを感じる人とそうでない人にインタビューをしてどのようなシーンや意味でやりがいという言葉が使用さえれているかを研究したり、先行事例が無いかを海外の文献を当たって調べるなどの努力を惜しまないと言います。

データマイニング

ITの進歩によって生み出された比較的新しい分野です。
有用でかつ既知ではない知識をデータから抽出する事を言います。
マーケティングのセグメンテーションでよく使用されるクラスター分析などが代表的なものです。曲線的な方法で分類ができるメリットを持っています。分類や予測自体が目的であればデータマイニングは有効でありますが、曲線を式で表すことは難しいですし、その数式の意味を人間が理解することは大変です。そのため、分析のゴールが正確な予測や分類であればデータマイニングを使用するべきですが、予測モデルから何をするべきかを議論するのであれば、やはり回帰モデルの方が使い勝手が良いと言います。

テキストマイニング

自然言語で書かれた文章を統計的に分析する事です。
形態素解析やN-Gramといった代表的な手法が本書では解説されています。内容自体は難解ですが、ツールの使用自体はそこまで難しいものではないと言います。大切なのはテキストマイニングの結果からどのような戦略を立てるかを考える所だと著者は述べています。

計量経済学

経済学の分野で統計を用いる事を言います。
演繹的な考え方を好むと言います。つまり仮定やルールを使用して予測をするやり方です。反対に疫学などの統計学者は帰納的な考え方をします。ここは対立軸というよりは、計量経済学の統計家が作ったモデルを参考に経済を分析するという協力的な関係性だと言います。
例えば、疫学者がタバコはがんの原因の一つである。という仮定を導き出すとこの仮説を使って喫煙が日本においてどれぐらいの経済損失を与えるか予測してみよう!となるのが計量経済学です。

ベイズ派と頻度論派

分野をまたいで存在する確率事体の考え方にも本書では詳しく述べられています。「事前に何らかの予測を想定するか」「しないか」の違いだと言います。ベイズ派は事前予測をして、頻度論派は予測をしない方です。


巨人の肩に立つ方法

最終章で著者は、巨人の肩に立つ方法を紹介しています。どういう事でしょうか?これは先人たちの積み重ねた知恵を上手に使おうよ!という事だと言います。つまり、先人たちが積み上げた科学的な根拠に基づくエビデンスを基に、現代における課題を解決することを推奨しています。
また、面白いのがエビデンスにも下記のように信頼度があると言います。

(本書P283を参照に作成)

画像3


系統的レビュー 
複数の研究をまとめて結局何が言えるのかを述べる事。その際、客観的に論文を選択するためにあらかじめレビューする論文の条件を決めて、当てはまる論文すべてを参照するという方法。
メタアナリシス 
複数のランダム化比較実験や観察実験をさらに解析してまとめ上げる分析法

本書では、実際にどのような検索方法で系統的レビューやメタアナリシスからなるエビデンスを見つけることができるのかを具体的に記載しています。この方法さえ分かれば、先人達の知恵を科学的なエビデンスとして適切な判断や方向性を示す事ができるようになりますね。

終わりに

ビジネスのみならず、様々な場所でデータが溢れており、データ分析が行われている時代です。私も前職では小売店のPOSデータを分析して、クライアントへの提案資料を作成したりと、データ分析的な事をしていましたが、「その結果は誤差の範囲なのか?」また、「データをまとめたグラフは利益に繋がるアクションを示唆出来ているのか?」といったデータを扱う上で基本的な考えが抜けてしまっていた事に反省しています。自分が故意では無いにしろ、エビデンスのあるデータでは無いもので、先方の決断を促していたと思うと怖いものです。
また、逆に自分がデータやグラフに騙されない(または、意味のない分析にツッコめる)ように心がける必要もあると思いました。データ分析の目的がただの現状把握のみになっているシーンをよく目にします。
例えば、営業会議などで、前年比•前月比など簡単に手に入るデータをまとめているだけの資料などがありますが、それを持ってどういうアクションを促そうとしているのか明確ではないものをよく目にします。
現状把握して共有する事が目的であれば良いのですが、そうで無いのであれば、利益に直結する原因を見つけるという視点で分析をしていく事が求められるでしょう。
今後は、そのような意味のない分析や資料に修正を掛けられる側に周れるように人材関連の勉強と並行して統計学についても、少しずつ学んでいこうと思います。
本書は冒頭でも説明したように、統計学の入門書を読む前に読むべき内容のものであり、統計学の有能さ、そしてなぜ科学的なアプローチとして使用できるのかなどを説明してくれた本でした。著者の西内さんはその後、「統計学が最強の学問である」ビジネス編、実践編、そして数学編を出版されています。次は実践編、ビジネス編を読んで実際に統計をどう活かしていくのかを学び、使っていきたいですね。









この記事が参加している募集

この記事が気に入ったらサポートをしてみませんか?