Courseraで機械学習を勉強する:ロジスティク回帰とは

分類問題を、予測するうえで線形関数を用いる(線形回帰)のはうまくいかないことはすでに示されている。そこで登場するのが、

画像1

この式である。これはシグモイド関数、ロジスティク関数と呼ばれている。その形は、

 

画像2

このようになっており、縦軸がhの値、横軸がg(z)、ただしz=ΘTx。つまり、

画像4

上のようになる。これにより決定されるhの値は、y=1である確率がどの程度であるか、ということを示している。この関数を用いて、仮説を表現し、パラメータを調整していく。上の考え方をすれば、zが0以下であれば偽、0以上であれば真と判断する。

決定境界(Decision Boundary)

決定境界(Decision Boundary)について説明を行う。

画像3

このようなパラメータの仮説関数があったとする。Θは本来は3x1行列だが、エディタの関係で1x3の転置行列としている。この関数の値がどうなれば仮説が予測したい物事が真である、と判定するのであろうか。この判断基準に、シグモイド関数を用いると、z、つまりΘの式が0以上であれば、真、0より小さければ偽と判断できる。(Θの式はeの何乗かを示していることに注意)。これは-3 + x1 + x2 > 0 ならば真、というわけで、座標系で1本の直線として表現できる。この直線より上のデータであれば、推定が正しい(もしガンかどうかの判断をしているのなら、がんのあるパラメータをプロットした時、この線より上にプロットされれば、その腫瘍は悪性だと判断する)といえる。この直線のことを決定境界と呼ぶ。


この記事が気に入ったらサポートをしてみませんか?