見出し画像

レプリケータダイナミクスとベイズ学習の等価性(1)

レプリケータダイナミクスとベイズ学習の数理的な等価性について、日本語で解説されている例が見つからなかったので、書いておきます。英語だと Czégel, et. al., 2022 がまとまっています。本記事も同様の構成にしています。

確率的推論と進化ダイナミクスの等価性

適応度が頻度に依存しない場合の離散時間レプリケータ方程式は、時刻$${t}$$の表現型$${i}$$の頻度を$${q_i(t)}$$、適応度を$${f_i(t)}$$とすると、

$${ q_i(t+1) = \frac{f_i(t)q_i(t)}{\sum_k{f_k(t)q_k(t)}} }$$

のように書けます。ここで、適応度$${f}$$は環境$${x_t}$$の関数と考えます。また、右辺の分母は全ての$${i}$$について共通なので、

$${ q_i(t+1) \propto f_i(x_t)q_i(t)                             (1)}$$

となります。一方、データ $${\{x_1, …, x_t\}}$$ を学習した上で、$${x_{t+1}}$$を新たに観測した際の仮説$${h_i}$$の事後分布は、

$${ P(h_i|x_1, …, x_{t+1}) = \frac{P(x_{t+1}|h_i)P(h_i|x_1, …, x_t)}{\sum_k{P(x_{t+1}|h_k)P(h_k|x_1, …, x_t)}} }$$

ですが、こちらも分母は全ての仮説に対して共通なので、

$${ P(h_i|x_1, …, x_{t+1}) \propto P(x_{t+1}|h_i)P(h_i|x_1, …, x_t)                (2)}$$

のように書けます。
式(1)、(2)より、レプリケータ方程式とベイズ更新式は同じ形式を取っていることが分かります。対応関係は以下のようになります。

直観的理解

$$
\begin{array}{cc}
レプリケータ方程式 & ベイズ更新 \\ \hline
表現型i & 仮説h_i \\ \hline
環境x & データx \\ \hline
頻度q & 確率P \\ \hline
適応度f & 尤度P(x|h_i) \\ \hline
\end{array}
$$

表現型と仮説、環境とデータの対応はそれぞれ役割が同じなので、直観的に分かりやすいと思います。(仮説からデータが生み出されるのではなく、データから仮説の採否を決定することに注意。環境によって表現型の採否が決まりうることと等価。)
頻度も相対頻度と考えれば(実際相対頻度なのですが)仮説の確率との対応が理解できます。
ある仮説(表現型)がデータ(環境)に対してどのくらい尤もらしいか(適応しているか)という点の一致が、尤度と適応度の直観的理解になるかと思います。

レプリケータ・ミューテータ方程式と隠れマルコフモデル

レプリケータ方程式を一般化して表現型間の突然変異を考慮したものがレプリケータ・ミューテータ方程式で、$${j}$$から$${i}$$の突然変異率を$${\mu_{ji}}$$と置くと、以下の式で表されます。

$${ q_i(t+1) = \frac{\sum_j{\mu_{ji}f_j(t)q_j(t)}}{\sum_k{f_k(t)q_k(t)}} }$$

一方、HMMにおける隠れ状態の遷移確率 $${P(h_i|h_j)}$$ は、レプリケータ・ミューテータ方程式の表現型の遷移確率と同じ役割をしています。

$${ P(h_i|t+1) = \frac{\sum_jP(h_i|h_j)P(x_t|h_j)P(h_j, t)}{\sum_k{P(x_t|h_k)P(h_k|t)}} }$$

この式は、HMMにおける最新のステップの隠れ状態の確率を示しており、上記のレプリケータミューテータ方程式と同じ形式となっています。
Czégel, et. al., 2022では、これがHMMのフィルタリングの式だということにさらっと触れているだけなので、後日もう少し補足したいです。


以上です。間違いがあれば教えてください。

次回はマルチレベル淘汰・血縁淘汰と階層ベイズの数理的な関係についてです。

参考文献


この記事が気に入ったらサポートをしてみませんか?