[備忘録]ベイズ推定による信号検出モデル

1. 信号検出論

 心理物理測定法の一種である、恒常法の発展形。評価者の判断基準の差異によるバイアスの除去ができる。例えばほんの僅かでも刺激を確認できたら「知覚した」と回答する評価者Aと、はっきりと確実に刺激を確認できた場合にのみ「知覚した」と回答するする評価者Bのデータを比べた時、判断基準の差異がデータにも現れると予想される。この差異を加味した調整を行い、判断基準のバイアスの無いデータを得ようとするものが信号検出論である。

 信号検出論では、物理量に対して1次元の心理量が得られる場合を考える。ノイズのみが提示される試行($${N}$$)とノイズと信号の両方が提示される試行($${N+S}$$)を比較した時、後者の方が物理量のエネルギーが大きい分、得られる心理量の平均も大きくなると仮定する。また、ノイズのみが提示された場合でも心理量が得られるものと仮定する。

信号検出論の適用には、さらに以下の2つの仮定が必要になる。

  • 正規性の仮定

 物理量に対して得られる心理量の大きさが一定ではなく、その誤差が$${N}$$の分布も$${N+S}$$の分布も正規分布に従うと仮定する。

  • 等分散性の仮定

 $${N}$$の分布も$${N+S}$$の分布も同じ分散を持つと仮定する。

 2種類の試行に対して評価者は二肢強制選択で回答するため、試行と反応の組み合わせは以下の4通りとなる。

  • false alarm:信号がないにも関わらず信号があるとした反応

  • hit:信号があるときに正しく信号があるとした反応

  • correct rejection:信号がないときに正しく信号がないとした反応

  • miss:信号があるにも関わらず信号を見落とした反応

 信号検出論では評価者ごとのfalse alarmを考慮することで、判断基準のバイアスによる差異を取り除くことができる。

 一般的な恒常法における知覚確率はhitの比率に相当する。しかしhitの比率のみでは$${N+S}$$分布が$${N}$$分布からどれだけ離れているかがわからず、$${N+S}$$分布の位置が定まらない。false alarmの比率を実験によって測定することで$${N+S}$$分布の$${N}$$分布に対する相対的な位置が計算できる。このときのずれの大きさを$${d'}$$と呼ぶ。$${d'}$$は各評価者がどれだけの検出能力を持っているかの指標になる。$${d'}$$は次式で表される。

$$
d' = \frac{M_1 - M_0}{s}
$$

 ここで、$${M_0, M_1}$$はそれぞれ$${N}$$分布$${N+S}$$分布の平均を示し、$${s}$$は$${N}$$分布の標準偏差を示す。信号検出論では2つの分布は正規分布を仮定しているため、$${M_0 = 0, s =1}$$であり$${d' = M_1}$$である。$${d'}$$は規格化された無次元の量であり、$${N}$$分布と$${N+S}$$分布の位置は刺激の物理的な強度と心理量との関係に依存するため、評価者ごとに異なる判断基準の値$${k}$$の影響を受けない。

この$${d'}$$から評価者の偏りである反応バイアス$${c}$$が求められる。

$$
c = k - \frac{d'}{2}
$$

$${k = \frac{d'}{2}}$$の時に$${c=0}$$となり、このときhitとcorrect rejectionの比率が等しく、false alarmとmissの比率も等しくなる。すなわちこの状態であれば評価者の反応に偏りがない状態(反応バイアスのない状態)であると言える。

信号検出論における分布の例

 以下に各試行における反応の分布を示す。

信号検出論における反応の分布。($${c > 0 }$$)

 図中の横軸は心理量を表しており、縦軸は反応の頻度を示す。図中の$${k}$$を判断基準とし、これより右側の反応を「知覚した」、左側の反応を「知覚しなかった」とする。このとき各分布の面積について$${N}$$試行では$${k}$$より右側がfalse alarm、左側がcorrect rejectionの比率と等しく、$${N+S}$$試行では右側がhit、左側がmissの比率と等しくなる。この図ではhitの比率が0.6、false alarmの比率が0.1となり、ここでは$${d' = 1.53}$$となる。この例では$${c > 0 }$$であり、刺激がないという反応が得られる傾向が強いことを示す。

信号検出論における反応の分布。($${c < 0 }$$)

上の図は$${c < 0 }$$の場合の例であり、信号があるという応答が得られる傾向が強いことを示す。

課題点

 信号検出論は評価者ごとの判断基準のバイアスを除去できるという点で有用ではあるが、前述の通り評価者の反応の分布に正規性が求められ、ノイズの有無によらずに分布が当分散性を満たす必要がある。こうした条件を満たすには多量のデータが必要になるために、コストがかかる場合が多い。この課題の解決のためにベイズ統計学を用いた新しい理論が提案された。

2. ベイズ統計学

 歴史的には、18世紀のイギリスの数学者トーマス・ベイズによって提唱されたものである。確率の捉え方について、頻度主義に則った古典統計とは異なった特徴を持つ。

 ここからは納品した1000個のうち30個に軽微な欠陥が見られ、1000個中12個が不動作品である製品の例を考える。この時、不動作品15個のうち6個に軽微な欠陥が見られたとする。
この1000個の製品から取り出した1つの製品に軽微な欠陥が見られた時に、この製品が不動作品であるかどうかを判断したい場合を考える。

古典統計の考え方

 古典統計では帰無仮説を立て、その正しさを判断する仮説検定と呼ばれる手続きを行う。ここでは「目の前の製品が完動品である」と帰無仮説を立てる。その後、仮説が正しければ小さな確率(有意水準$${\alpha}$$)でしか観測されない事象を設定する。ここでは「目の前の製品に軽微な欠陥が見られる」となり、その確率は$${\alpha = 3\,\%}$$となる。そして実際に観測された事象と照らし合わせる。もしもこの事象が観測された場合には、「小さな確率でしか起こり得ない事象が起きた」ことを理由に帰無仮説が正しくないだろうと推測し、棄却する。

この手法に従うと、たとえ目の前の製品が完動品でも$${3\,\%}$$の確率で軽微な欠陥が見られることになる。すなわち100回のうち3回の割合で「実際には完動品であるのに不動作品である」と誤った推定をしてしまうことになる。

ベイズ統計の考え方

例をベン図にして考えてみる。

$${A}$$:製品が不良品である。$${B}$$:製品に軽微な欠陥が見られる。

 ベイズ統計では事前確率と呼ばれるデータ入手前に想定する確率を設定し、その後に「目の前の製品に軽微な欠陥が見られた」という観測結果を元にして確率を更新(ベイズ更新と呼ばれる)をおこなっていく。

この例では事前確率は過去の経験から仮定され、$${P(A) = 1.5\,\%}$$となる。

 ここでは「目の前の製品に軽微な欠陥が見られた場合にその製品が不動作品である確率」(事象$${B}$$が観測された場合に事象$${A}$$が観測される条件付き確率$${P(A \mid B)}$$)を求めることになる。この条件確率はベイズの定理(後述)より以下のように求めらる。

$$
P(A \mid B) = \frac{P(A) P(B \mid A)}{P(B)}
$$

右辺のそれぞれの確率は、これまでの議論より以下のようになる。

  • $${P(A)}$$:仮定される不動作品である確率(事前確率1.5%)

  • $${P(B \mid A)}$$:不動作品であるとき、軽微な欠陥のある条件付き確率(40%)

  • $${P(B)}$$:全製品のうち軽微な欠陥が見られる確率(3%)

以上より$${P(A \mid B)=20\,\%}$$と求めることができ、目の前の製品が不動作品である確率は$${20\,\%}$$と推定できる。

一般化とベイズの定理

 ここでは事象$${A}$$を「目の前の製品が不動作品である」という事象のみを考えたが、ここには複数の既知情報を想定することもできる。たとえば「目の前の製品がA社製である」「目の前の製品がB社製である」といった具合に、不動作品かどうかの判断ではなく製造業社を推定したい場合などに有効である。ただしこれらの既知情報は互いに排反でかつ、全てを合わせると全事象になる必要がある。

以上のことは、全事象を$${\Omega}$$、各既知情報を$${A_n}$$とすると、

$$
\Omega \in A_1, A_2, \dots, A_n
$$

と表せる。この場合、事前確率は各既知情報に基づくそれぞれの確率となる。

次に事象$${B}$$が起こった場合を考える。$${B}$$は$${A_n}$$のうちの少なくとも一つとは必ず同時に起こるため、事象$${B}$$が起こった時の事象$${A}$$が起こる条件付き確率$${P(A_n \mid B)}$$を以下の式から求める。

$$
P(A_n \mid B) = \frac{P(B \cap A_n)}{P(B)}
$$

ここで乗法定理$${P(B \cap A_n) = P(A_n) \cdot P(B \mid A_n)}$$より、

$$
P(A_n \mid B) = \frac{P(A_n) \cdot P(B \mid A_n)}{P(B)}
$$

となり、ベイズの定理が導出できる。

$${P(B \mid A_n)}$$は尤度と呼ばれる。$${P(B)}$$は周辺尤度と呼ばれ、$${P(B) = P(B \cap A_1) + \dots + P(B \cap A_n)}$$で求められる。これをベイズの定理に代入すると、次式が求められる。

$$
P(A_n \mid B) = \frac{P(A_n) \cdot P(B \mid A_n)}{P(B \cap A_1) + \dots + P(B \cap A_n)}
$$

さらに、ここにも乗法定理$${P(B \cap A_n) = P(A_n) \cdot P(B \mid A_n)}$$を適用すると次式が得られる。

$$
P(A_n \mid B) = \frac{P(A_n) \cdot P(B \mid A_n)}{P(A_1) \cdot P(B \mid A_1) + \dots + P(A_n) \cdot P(B \mid A_n)}
$$

よって

$$
P(A_n \mid B)= \frac{P(A_n) \cdot P(B \mid A_n)}{\Sigma_{k=1}^{n} P(B \mid A_k)}
$$

この記事が気に入ったらサポートをしてみませんか?