見出し画像

付き合ってはいけない3B

こんぬる~~~~~!

突然ですが皆さん、付き合ってはいけない3Bってご存知ですか?

画像3

世の中には、様々な理由により、「この職業の相手とは付き合わないほうがいい!」と言われる職種があります。典型的な3つの職業の頭文字を取って、3Bと言われるそうです!
全く職業差別も甚だしいですよね!

さて、今回はそんな3Bを理由とともに一つ一つ紹介していきたいと思います!

1.バイソン (Bison)

画像1

バイソンは哺乳綱偶蹄目ウシ科バイソン属に分類される動物一般を指し、現生種としてはアメリカバイソンとヨーロッパバイソンの二種に大別することができます。アメリカバイソンに関して言えば、体長2~3.5m、体重350~1000トンにも及ぶそうです。
そんな大きく強いバイソンとはなぜ付き合ってはいけないのでしょうか?

理由1 デカい
デカいからです。

理由2 強すぎる
強すぎるからです。走ると最高時速70km/hほどのスピードが出るそうです。

理由3 ズブロッカのボトルに描かれている

↑著作権をクリアできる画像がなかったからアマゾンのリンクにしただけでクリックや購入したところで私に一銭の得もございませんのでご安心ください

ポーランド産インフューズドウォッカであるズブロッカはビアウォヴィエジャの森で採取されたバイソングラスが使用されています。そのためか、なんとボトルにはヨーロッパバイソンが描かれているのです。考えても見てください。あなたの恋人であるバイソンと酒屋に行ったとしましょう。そうすると周囲の人から「あ、ズブロッカのやつだ」と思われます。そして隣にいるあなたも「ズブロッカのやつの隣にいる人」になります。そして翌日からあなたは学校でズブロッカとあだ名されます。もし、あなたの恋人がアメリカバイソンであり、あなたが「カレはアメリカバイソンなのでズブロッカのヨーロッパバイソンとは違います」と声を上げたところで人々に届くことはありません。衆愚はアメリカとヨーロッパの差異なんてどうでもよいのです。欧米とひとくくりにしちゃうくらいですからね。全く愚かだね~~~~~~~~


2. ホウ素 (B)

ぼろん
Photo by Jurii - Crystalline Boron (17 April 2009) / CC BY 3.0

ホウ素は原子番号5番、第13属元素の半金属です。

理由1 英名が卑猥
Boronらしいです。股ぐらの猥褻物がまろび出たときの擬音語やないかい!!!!!!!!!!!!!!!!!!!!!!!!!!!

3. ブール値 (Boolean)

ブール値とは、真(true)及び偽(false)のいずれかを表す値です。2値であることから、1bitの整数として見ることも可能です。

ところで、このbitとは何なのでしょう。なんとなく情報量の単位であるとは言われています。この情報量とbitとの関係について、少し考えてみましょう。

まず、ここで言う情報とは「ある不確かな状態を確かにするもの」です。情報量とは、その情報を知ったあとにそれまでの状態からどれほど不確実さが減ったかと考えれば良いでしょう。
例えばサイコロを振ることを考えてみると、1~6までの6通りが出ることは明らかです。今度は1~100の数字が書かれたくじを引く事を考えてみます。この二通りを比べて、サイコロの出た目(例えば4)を知る場合とくじで何の値が出たか(例えば87)を知る場合、どちらが情報量が多いでしょうか。これは直感的にくじの方だとわかる人も多いのではないでしょうか。$${\dfrac{1}{6}}$$ を当てるよりも、$${\dfrac{1}{100}}$$を当てるほうが難しいから、と言うと納得できるかもしれません。このことから$${n}$$通りの事象$${A_n}$$について、情報量は$${n}$$の大きさによって変化するものであるといえます。この情報量を$${n}$$の関数$${f(n)}$$と表すことにしましょう。
$${f(n)}$$の性質について考えてみます。ここで、$${n}$$を$${m}$$分割して$${k}$$個に分けたしたとしましょう。つまり、

$$
n=mk
$$

となります。例えばサイコロを奇数と偶数に分ける場合、$${m=2}$$, $${k=3}$$となります。
サイコロの目が何であるかという知ることを考えてみます。「サイコロで6つの出目のうち4の目が出た」という情報を知る場合と、「まず偶数の目が出た、その偶数の3つの出目のうち4の目が出た」と情報を小出しにする場合、どちらにせよ結果として4の目が出たことが明らかになるだけで、情報量は変わらないといえます。このことから、$${f(n)}$$について以下のことが言えます。

$$
f(mk) = f(m) + f(k)
$$

これを情報量の加法性といいます。

ここで実数$${x}$$について、$${f(x)}$$が微分可能であり、かつ$${f(xy) = f(x) + f(y)}$$を満たすものと仮定する。

$$
f(x+εx) = f((1+ε)x)
$$

$$
=f(1+ε) + f(x)
$$

$$
\dfrac{f(x+εx) - f(x)}{εx} = \dfrac{1}{x}\dfrac{f(1+ε)}{ε}
$$

ここで、$${\lim_{ε \to 0}}$$とすると、導関数の定義から

$$
(左辺) = f'(x)
$$

さらに、

$$
\lim_{ε \to 0}\dfrac{f(1+ε)}{ε} = c
$$

とおくと

$$
f'(x) =\dfrac{c}{x}
$$

の微分方程式が得られます。これを解くと、

$$
f(x)=c\log x + d (d:積分定数)
$$

ところで、$${f(x)}$$は$${x}$$通りの事象について、$${A_x}$$が起きた場合についての情報量であった。$${x=1}$$の場合を考えると、1通りしかない事象が発生したことを知ったところでわかりきっていることであり情報量は0であることは明らか。したがって

$$
f(1)=0
$$

これは

$$
c \cdot 0+d=0
$$

であるから、$${d=0}$$である。
さて残りは$${c}$$の値だが、これは情報量の尺度の話になる。ここで、二者択一の情報、例えばyes/noのどちらかといった情報を1bitと定義する。
つまり

$$
f(2)=1 (bit)
$$

であるから、

$$
\log2=\dfrac{1}{c}
$$

ここで底を変換して

$$
c=\log_2 e
$$

よって

$$
f(x)=\log_2 e \cdot \log x
$$

$$
f(x)=\log_2 x (bit)
$$

となり、$${f(x)}$$を求めることができた。
ちなみに、情報量の単位にはbitの他にもditやnatがある。それぞれ、10分割、e分割する情報量の定義であり、

$$
f(10)=1, f(e)=1
$$

である。その場合、

$$
f(x)=\log_{10} x (dit), f(x)=\log x (nat)
$$

となる。なお、情報理論では一般に情報量の単位bitとする場合が多いため、本稿においても以降は$${\log}$$の底が省略されている場合2として進める。
ということで、なんとなくある事象の情報量は対数の関数で表現できそうだということがわかった。
話を一般化しよう。
ある事柄$${A}$$について、発生する確率が$${p}$$であるとする。$${A}$$が発生したということを知らせる情報についての情報量を考える。$${A}$$を等確率で発生する$${n}$$個の事柄について、$${k}$$個のまとまりとする。このとき、

$$
p=\dfrac{k}{n}
$$

である。
さて、$${A}$$が発生したことを知らせる情報についての情報量を$${I}$$とおく。$${n}$$個の事柄が発生したことを知らせる情報の情報量は$${\log n}$$である。また、$${n}$$のうちどの事象が発生したかを知るための情報量は$${I}$$に加えて$${k}$$のうちのどれであるかを知る必要がある。これは

$$
\log n=I+\log(k)
$$

と表わせる。よって

$$
I=-\log \dfrac{k}{n}
$$

であるから、

$$
I=-\log p
$$

となる。
以上から、確率$${p}$$の事象が生気したことを知らせる情報量は

$$
-\log p
$$

である。
さて、ここまでで情報量とbitの話は終わった。仮定が正しいことの証明とかは疲れたしよく知らないからもういいですか。noteで数式打つの大変なんですけど。
ちなみに、情報量の期待値$${I}$$は

$$
I=-\sum_{i=1}^n p_i\log p_i
$$

であるが、これはある不確かな状況を確定するために要する平均情報量と言える。
この状況の不確定度を表す量がかの有名なエントロピーであり、

$$
H(p_1, p_2, ..., p_n)=-\sum_{i=1}^n p_i\log p_i
$$

と表す。
ちなみに、このエントロピーが最大になるのは$${p_i=\dfrac{1}{n}}$$のとき。事象が等確率で分布してる状態が最も不確実な状態といえるのである。

この記事が気に入ったらサポートをしてみませんか?