見出し画像

情報がエントロピーを減らす?

部屋が乱雑な人、手をあげて → どきぃぃ…!
そのような部屋の乱雑さを称して「エントロピーが高い」部屋だと言ったりします。

いやいや、でも、あれはあそこだし、何とかはそこってわかってるから、ぜんっぜん大丈夫! ――というような一見ヘリクツも、じつはヘリクツじゃないかも、というのが今日のお話です。

なぜなら、「あれはあそこにある」という“情報”は、情報理論的に考えれば「負のエントロピー」を持っているはずだから。ということは、情報を持つあなた/わたしからすれば、乱雑にみえる部屋であってもトータルのエントロピーは高くないかもしれないのだ!

エントロピーとは… 

エントロピー。うーむ、、聞いたことはあるとは思いますが、なかなか理解がむずかしい量ですよね。物理学的にざっくり言えば「乱雑さの度合い」。より詳しく言うと、

エントロピー =「系がとりうる場合の数(の対数)」に比例する量

です[1]。※対数というのは、高校でならったlogというやつです。logをとっても、場合の数が多いときには値がちゃんと?大きくなるから大丈夫。

例を考えましょう。AとBの箱二つと、それに入るボールひとつからなる世界、つまりボールが必ずAとBどちらかの箱に入っている場合。このときは、A、Bの2通りがボールの位置としてありうる可能性の全体=場合の数であり、(そのlogをとったlog2が)この小さな世界のエントロピーだと思ってよいです。

情報がもつエントロピー 

さて、では「あれはあそこにある」といった情報について。

一般に情報は、知れると不確実性が減るものです[2]p.40。(そしてその減り具合を「情報量」という。) 

たとえば、情報がなければAとBどちらの箱にボールが入っているのかわからない場合ならば、もしも「Aに入っている」という情報を持っていれば、不確実性が1/2になります ――なぜかというと、ボールのある場所の可能性(=とりうる場合の数)が、A、Bの2通りではなく、Aだけの1通りになるからです。

つまり情報を持っている人から見ると、観測しているその世界のエントロピーは、log2ではなくlog1だということ(=より小さな値になる)。

このように、情報は、得られると(情報を持っている人から見た)エントロピーが減る何かなのです! ですから数学的に言えば、「情報は負のエントロピーを持つ」はずだ。

なので、部屋の乱雑さのせいで一見エントロピーが高そうな場合でも、情報によって「あれはあそこにある」と知っていれば(それが負のエントロピーを持つので)、あなたから見た世界のエントロピーは低く保たれている…のではないか? いまのぼくの考えではどうやってもそういう結論になります…。

結び

仮にもしそうだとすると、観測される外界のエントロピーは、観測者によって違うのだろうか、という疑問がわいてくるでしょう。だって、持っている情報は人それぞれ違うのだから。んー、これは新しい相対論的なテーマ…?? →「相対論的情報学」?

※ただし上記のギロンでは、通常ならば区別される、統計力学的なエントロピーと情報理論的なエントロピーとを(自然なやりかたで)あえて同一視したことにご注意ください[3]。話におかしいところがないかどうか、こんど詳しい友人に確かめたいです。

ともかくも今日は、「情報は負のエントロピーをもつはず」、ところがどんな情報を持ってるかは人によって違うから「観測者ごとに見る世界のエントロピーは違うのかも」、したがって「はたしてエントロピーは、絶対的な意味を持ちうるか、常に相対的なものではないか」といったあたりの推測までのお話でした。

それにしても、かなり哲学的かほりのするテーマ…。このテーマでアート作品が作れるほどかも?などの妄想をふくらませる、かのわさびでした。


追伸:
先日、アーティストである故・荒川修作氏の関連施設を見てきました。その絵画や建築物は、かなり科学ちっくな気配をもち。生前の破天荒なエピソードばかりが先行していますが、だいぶ誤解されているアーティストの一人ではないかと感じます。その思想的なバックグラウンド、ぼくは大いに興味をそそられました。


参考文献: 
[1]石原純夫、泉田渉、『量子統計力学 マクロな現象を量子力学から理解するために』(共立出版、2014年)。
[2]川合慧、『コンピューティング科学』(東京大学出版会、1995年)。
[3]松枝宏明、『量子系のエンタングルメントと幾何学 ホログラフィー原理に基づく異分野横断の数理』(森北出版、2016年)。

理数系の教養は国力の礎。サイエンスのへヴィな使い手の立場から、素敵な科学の「かほり」ただよう話題をお届けしたいと思っています。