見出し画像

エントロピーと俳句

エントロピーという言葉は、なんだかむかし物理か何かで習ったような記憶はないでしょうか? あるいは、エントロピーという言葉はたまに聞くけど、改めてどういう意味なのか問われると分からないし、なんか自分の生活とは何の関係もなさそうだし、まあいいか、という感じでしょうか。

いわゆる熱力学の第2法則が、エントロピーの法則です(第1法則はエネルギー保存の法則)。エントロピーは、一言でいうと、ものの乱雑さや拡散の度合い、であり、それは時間とともに増大する、というのが法則です。

例えば、部屋に100°Cのお湯を入れたカップを置いておくと、やがてそのお湯は室温に等しくなります。これはお湯の熱量が部屋の中の空気に移動したわけです。これは熱エネルギーが拡散したのであり、エントロピーは増大したわけです。この動きは分子の拡散の動きに他なりません。

この分子の動きは、実は確率に関係します。ある小さな場所に分子がぎっしり集まっているケースより、広い空間に広がって分子が存在しているほうが確率(可能性)が高いのです。それで拡散するわけです。

コーヒーにミルクを一滴たらすと、徐々にミルクはカップ全体に拡がっていきます。これは、ミルクが垂らされてまだ混じっていない状態(ミルクの分子が集まっている状態)に比べて、ミルクコーヒーになった状態(コーヒーとミルクの分子が混じり合った状態)の方が確率的に高いので、分子は必ずその状態に移るのです。このようにしてエントロピーが増大します。

エントロピーは常に時間とともに増大します。例えば、ガラスのコップが、テーブルから落ちて割れると、粉々になります。これもエントロピーの増大です。あなたの部屋も時間が経つとだんだん散らかってきませんか? これもひとつのエントロピーの増大の形です。

こんな話がなぜ俳句と結びつくのか、と思われるかもしれません。このようにエントロピーは、分子の分散により生まれる熱エネルギーの法則とされていますが、さらにもう一つの重要な分野に関係しています。それは「情報」です。

それは、クロード・シャノン(1916-2001)が「情報」について、エントロピーの概念を応用したことです。シャノンは、現在私たちが1ビットとか1バイトとか言っている情報量の単位を生み出し、更に通信理論を革命的に飛躍させたと言われています。

2進法という方法を聞いたことがあると思います。つまり、0か1のみで表す方法です。その場合(0か1かという装置)を1ビットと言います。例えば、A、B、C、Dの4文字をこの2進法で表すには、A=00、B=01、C=10、D=11で表せます。これは、2つの(0か1か)という装置を使っているので、2ビットです。つまり2ビットで4種類の文字を表すことができます。同様に、3ビットで8種類、4ビットで16種類まで表すことができます。従い、アルファベット(全部で26文字)を表すには、5ビットの情報量で出来るわけです。

一方で、日本語を考えてみましょう。ひらがな、かたかな、漢字(5万語以上ある)を使うため、多くの情報が必要です。現在、日本語は16ビットの情報量で文字を表しているそうです。その場合、約6万5000字を表すことが出来るということです。

同じ文字数であっても、英語と日本語ではとても大きな情報量の差があることがわかります。

更に、面白い点は、情報の価値にあります。2つの情報を考えてみましょう。ひとつは「私は美味しいものが好きです」。もううひとつは、「私はプロの魔術師です」。

シャノンは、情報量を次のように計算しました。

情報量=log₂1/ P

なんか懐かしいけど、あまり見たくない数式だと思いますので、数式による計算は割愛して、例えば、1/2の確率で起こる事象(例えば、コインの表裏)は、Pに1/2を入れると、上記の情報量は、1ビットになります。

「私は美味しものが好きです」は、ほとんどの人がそうなので、100%になります。Pに1を入れると、情報量は0になります。一方で「私はプロの魔術師です」という情報はかなり価値がある情報です。プロの魔術師が仮に128人に1人いると仮定する(まあそんなにいるとは思えないですが)と、Pが1/128となり、この情報量は7ビットになります。

さてここからは、エントロピーの再登場です。
シャノンは、情報のエントロピーを期待値(確率×情報量)を使い次のように定義しました。

情報エントロピー=∑ P log₂1/P(単位はビット)
(∑は和を表すので、確率×情報量の合計になる)

ここにコインのケースを入れてみますと、1/2×1ビット+1/2×1ビットで合計で1となります。

一方で、魔術師のケース。プロの魔術師である確率を1/128とします。プロの魔術師でない情報量を計算すると0.011315ビットなので、プロの魔術師である情報量7ビットを使うと

127/128×0.011315ビット+1/128×7ビット=0.0659

このように、コインを単純に投げる際には、情報エントロピーが1であったのが、プロの魔術師という、確率を低めた情報に関しては、0.0659という小さいエントロピーになるわけです。

つまり、情報エントロピーは、答えがどうなるかわからない、つまり不確定であればあるほど大きくなり、一方高い情報価値で、不確定なものを含まないものほど、情報エントロピーは小さくなります。

お待たせしました。ここで、俳句について考えてみましょう。まず、日本語で表す際に必要な情報量の多さを指摘しました。アルファベットが5ビットで表せるのに対して、日本語は16ビットの情報量が必要なのです。

ということは、同じ文字数であれば、英語より日本語の方がはるかに情報量が多くなり(不確定性が下がる)、情報エントロピーは小さくなります。つまり、どうにでも理解できる、また散らかっている情報ではなくなるということです。

しかも日本語は、漢字の熟語があるため、単に文字の表現のみならず、熟語によってまた情報量が上がっていくことになります。

仮に17文字で表せる文字列は、日本語の場合は、6万5000通りの17乗。一方でアルファベットは、26通りの17乗ですから、まったく桁どころか、天文学的な数値の違いがあります。

つまりまとめると、俳句は17文字とは言え、その組み合わせは天文学的な数字、ほとんど無限に組み合わせが存在していること。これがアルファベットを使う言語との違いです。しかも、更に熟語、季語などにより、特殊な意味、感情、イメージとのつながりも生まれます。これにより、無限の中から、たった一つの特定の表現が生まれてくるのです。これが、世界でもっとも短い定型詩と言われる俳句が存在し続ける理由のひとつではないでしょうか。

更に言えることは、情報エントロピーの小ささが、俳句において非常に重要になるということ。どこにでもある、景色や思いではなく、様々な点で特殊で価値の高いものを対象としていること、またそれが読む人に正確に伝えることのできる形(不確定性の排除)になっていることです。

17文字の中に、様々な解釈の可能性のある言葉や、先人の使い古した言葉や、ありきたりの言葉を含めば含むほど、どんどん情報エントロピーは増大します。そして、その俳句は、価値のない平凡な俳句になってしまうのです。

もう一度最初に戻ります。時間とともに物は散らかっていきます。その散らかり具合、乱雑さの度合いがエントロピーです。熱力学の法則で、宇宙は常にエントロピーが増大しています。私たちの頭の中も何もしないと毎日エントロピーが増大し、散らかっていきます。

このように周りの様々なエントロピーが時間とともに増大し、頭の中が散らかっていくなか、俳句の創作は明らかに情報エントロピーの増大との戦いなのです。そして、この戦いに負けると、ああ、悲しいかな、あなたの俳句は、只事俳句、月並俳句と言われてしまうのです。  

            【完】