[オープン論文]フォンノイマンエントロピを導く

この小論文は、オープンサイエンスの一環として
皆様に公開するものです。
自由に拡張・改変して発表してかまいません。
公開することで、多くの方々の参考になり、
どなたかの論文のタネになるのなら、
物理学の発展に寄与できると思います。

論文の概要

普通、純粋状態の情報エントロピー(シャノンエントロピー)
は、0とします。
しかし、波動関数の複素共役との積ψ*(q,t)ψ(q,t)は、
「物理量がqである時の確率密度」
を表すので測定できます(例えば電子雲とかの像)
そして、確率密度P(q)から情報エントロピーSが計算できます。
S= -∫dq P(q)log(P(q) )
もちろん、固有値分解したものを考えると情報エントロピーは
0です。また、波動関数そのままの情報エントロピーを考えても、
波動関数ψ(q,t)は、ψ(q,t)|q> = |q><q|ψ> で定義される
ので、物理量qは無数に考えられ、確率密度の分布は1つに
定まらないので、情報エントロピーは意味を持たないです。
そこで、「ある物理量qの測定」が始まる時、
定まっているqについての波動関数ψ(q,t) と、
射影仮説を適用した後のψ_after(q,t)=δ(q-q0) についての
情報エントロピーを考えます。計算すると、
その差は、フォンノイマン・エントロピーに一致します。
詳しくは、以下をお読みください。

波動関数の情報エントロピーの計算

① 離散固有値系の場合:

固有状態の|a>での確率は、
Pa=<ψ|a><a|ψ>
情報エントロピーSは、
S=-Σa <ψ|a><a|ψ>log( <ψ|a><a|ψ> )  
=-Σa f(a)*f(a)log( f(a)*f(a) ) 
=-Σn Pnlog(Pn )
密度行列ρにおいて、対角項が Pnlog(Pn )であると考えると
=-Tr(ρlogρ)
また、射影仮説を適用した後のS_after は、
-Σn Pnlog(Pn ) =-1nlog(1 )=0 ですから、
その差-Tr(ρlogρ)が、系の外=観測者に入る
ことになります(その全てが観測者の情報の増加ではないが)

② 連続固有値系の場合:

確率密度=ψ*ψ=<ψ|q><q|ψ> なので、
確率密度・Δq=ψ(q)*ψ(q)Δq=確率 と考えれば、
情報エントロピーSは、
S=-Σ ψ*ψΔq log(ψ*ψΔq)  
=-Σ { ψ*ψ log(ψ*ψ)Δq+ψ*ψΔq logΔq} 
=-∫dq ψ*ψ log(ψ*ψ) -∫dq ψ*ψ log dq
ここで dq=exp(da) と置くと、第2項は、 
∫exp(da) ψ*ψ da なので発散。
S=-∫dq ψ*ψ log(ψ*ψ) +∞
=-∫dq P(q)log(P(q) ) +∞
また、射影仮説を適用した後のS_after の左項は、
-1nlog(1 )=0 
その差は、発散項が消え、
-∫dq P(q)log(P(q) )
ここで、無限次元の密度行列ρにおいて、
対角項が P(q)log(P(q) )であると考えると、
-∫dq P(q)log(P(q) ) =-Tr(ρlogρ)

したがって、フォンノイマンエントロピー=-Tr(ρlogρ)が
導けました。
//

フォンノイマンエントロピーの正体

上記からこれは、物理量qの測定時 生成される
波動関数<q|ψ> の「平均情報量」
と言えます。

この記事が気に入ったらサポートをしてみませんか?