毎日統計3

3日目の今日は、友人と終日外出の予定のため、手元に教科書が無い中での学習をする。

昨日のおさらい

昨日は確率と、その基となる集合についての用語や公式の整理を行った。ほとんど言葉の定義だが、数少ない学んだ公式が、n!の計算を近似するスターリングの公式だ。

改めてこれの有効性について考えていたが、コンピュータが発達した今はそれほど重要では無いのかな?と思ったが、それでもこの式を使えばある程度プログラムの処理速度が速くなるのかなと思った。

と思ったら、調べるとそれをやっている人がいた。

演算処理の時間については言及が無かったが、今度これを参考に自分でコード書いて試してみてもよいなと思った。(今日はPC無いのでできないが…)

今日の学習

さて、今日は、昨日頭出しされたベイズ統計学について学んでまとめようと思っていたが、生憎ベイズ統計学の分野は広く、詳細な部分は統計検定の範囲外のようなので、恐らくそのエッセンスが入っているベイズの定理が試験範囲だったので、これについて学ぼうと思う。


ベイズの定理

ベイズの定理は以下の式である。

#今度PCで追記予定

導出はこちらに掲載されている手順が分かりやすそう。

P(A|B)=P(B|A)•P(A)/P(B)

この条件付き確率の求め方から、まずは離散型のベイズの定理を導出できて、それを変換することで連続型の式も導出される…

(当たり前だけどnoteで数式めっちゃ書けない…)

導出方法はそのうち追加するが、ここではこの式の意味を理解する。

そもそもベイズの定理における根本的な考え方は、昨日のノートで述べたように、客観的で無い確率を主観的に決めていくというところにある。データが少ない未知の事象を扱う際にこれが有力であるのは既に述べたとおりである。

では、どのようにその主観確率を決めるのかというと、学習によって更新していくという事を行うのである。すなわち、全くデータのない未知の状態で任意に定めた最初の主観確率P(Ai)から何かしらの事象Bが起きた後に、その情報をもとにP(Ai)を更新するという事を行う。これは現代における機械学習との相性が非常にいいため(というかほぼ同じ考え?)、広く利用されるようになったという背景がある。

ここで事象Bの起きる前の確率P(Ai)を事前確率、起きた後の値を事後確率という。この事後確率を求めるのに、上記のベイズの定理が活躍する。

今日は一旦、できる範囲の学習をという事で振り返りと、ベイズの定理についての概論を学んだ。

ほぼ以下のサイトを言い換えただけである。非常に分かり易かったが、まだ途中までしか理解しきれてないのでこの続きはまたいずれまとめる。

という事で、この記事はいずれ推敲して追加する予定。











この記事が気に入ったらサポートをしてみませんか?