「頭が良い」とはどういう意味か?(SAAモデルの提起②)

これの続き。
※書き始めたのがギリギリ「今日」なので許してください……。23時半から24時半までを使って書きます。

前回の軽いまとめ

前回のnoteで導出(仮定?)した式をここに書き出していく。

c = Am × Ac × f ……①
※cは何かの定数
※fは何かの関数

c = Am ( 1-R ) × Ac × f ……②

f = Am ( 1-R ) × Ac ……③
※fは新しく定義しなおした別の関数

Sp = c / Ac ……④
※c はこれまた新しい何かの定数

f = Am ( 1-R ) / Sp ……⑤

さて、ここで出てきた変数 R は「知識の関連性の度合い」である。この変数は、ざっと思考実験を行ってみるに、おそらくインプット時にしか影響しないもののはずだ。……と前回述べたのだが、そうでもない気がしてきた。確かにインプットする際には関連知識をたくさん持っていた方が多くの知識をすばやくインプットでき、長く安定的に保持できるだろう。しかし、出力時にも関連知識であればあるほどスラスラと出てくるはずだ。

ということは、インプット時の R と、アウトプット時の R は別の変数として扱わなければいけないかもしれない。であれば、前者を R_i、後者を R_o という風に定義してみよう。

インプット時に関する式

上に上げたような話を踏まえると、インプット時に関する「頭の良さ」は、次のような式で表せそうだ。

I_i = Am_i ( 1-R_i ) × Ac_i ……⑥

この式が持つ意味は、次の通りだ。

・覚えられる量とその精度はトレードオフの関係にありそうだ
・覚えるべき知識が互いに関連性を持っているならば、「実質的な覚えるべき量」は少なくて済みそうだ ※ Am ( 1-R_i ) の部分
・この R には「自分の既存の知識」との関連性もあるはずだ
・たくさんの量を高精度でインプットできる人を「頭が良い」と考えると、その指標として「I(IntelligenceのI)_i」を上記のように定義できそうだ

そして「すぐ覚えられる」ということを表現したければ、次のようにすれば良いだろう。普通に時間で割っても良かったが、一応微分形式にしておいた。

Sp_i = d ( I_i ) / dt ……⑦

アウトプット時に関する公式

④式から議論を始めよう。

Sp_o = c / Ac_o ……④
※アウトプット時の話とわかるようにindexを添えた。

だが、この式を前のnoteで掲げてみたは良いが、正直あまり直感に合っている感じがしない。「アウトプットが速ければ精度が損なわれる」というのは、頻繁に観察される事象ではなさそうだからだ。

では、どうすれば良いのか。ここでひとつ、試みに式を立ててみよう。

Sp_o = d ( Am_o / 1 - R_o ) / dt ……⑧

つまり「関連性の少ない知識をどれだけ単位時間でアウトプットできるか」が、Sp_oになるわけだ。
関連性のある知識を思い出すのは、誰しも比較的簡単にできるだろう。しかし「それって関係あるか?」というような異分野の知識をスルリとアウトプットできる人間がいる。この速度を Sp_o としてみたわけだ。

なお、ここでも R_o には「自分の既存の知識」との関連性という側面を有しているはずだ。自分がよくアクセスしている(≒多くの知識がある)分野の話であれば比較的スムーズにアウトプットできるだろうし、たまたま知っている、よく知らない分野の豆知識であれば、そこまでスルスルと出てこなさそうである。少なくとも現時点で私の直感はそう思っている。

……これらの議論をもとに「頭が良い」ことを式にすれば、こうなるであろうか。

I_o = { d ( Am_o / 1 - R_o ) / dt } × Ac_o ……⑨

つまり、次のようなことを意味している。

・単位時間あたりにアウトプットできる情報量が多ければ頭が良い
・情報同士の関連性が高い場合、実質的な情報量が減る ※( Am / 1 - R_o ) の部分
・いくらスピーディーに出力できたとしても、精度が低ければ頭が良いとは言えない。つまり出まかせなどは「頭が良い」にはカウントしない。無論、あまりにもアウトプットの速度が速ければ、Ac_o 項のデバフをカバーするほどに I_o を押し上げるかもしれないが……

改名:AARモデル

このように考えていくと、どうも「知識同士の関連性」「既存の知識との関連性」を表すパラメータ「R」の存在は極めて重要そうだ。また、速度(Sp)は独立変数ではなく、Am・Ac・R などの組み合わせで表現できるかもしれない。
であるから、この「SAAモデル」は「AARモデル」と改名することにしよう。読み方は「アールモデル」あたりが良いだろうか。

そして、AARモデルの根幹となる2式を今一度ここにまとめておこう。

I_i = Am_i ( 1-R_i ) × Ac_i ……⑥
I_o = { d ( Am_o / 1 - R_o ) / dt } × Ac_o ……⑨

……いや、⑥式は「記憶の保持」に関する式であり、速度情報が加味されていない。であるから、このように改造してみよう。

I_m = Am_i ( 1-R_i ) × Ac_m ……⑥'
I_i = d ( Am_i ( 1-R_i ) × Ac_i ) / dt ……⑦'
I_o = { d ( Am_o / 1 - R_o ) / dt } × Ac_o ……⑨

⑥'式では「記憶を保持する能力の高さ」として書き換えた。基本的に右辺の変数は変更していないが、Ac_i だけは Ac_m として。というのも、「記憶保持の正確性(いわゆる記憶力の良さ)」と「記憶インプットの正確性(正確な読み取り能力)」は別だと判断したからだ。

⑦'式は⑦式の「Sp_i」つまりインプット速度の部分を「I_i」という別の関数とし、右辺にあった I_i をI_m に置き換えたものだ。ただし先述のとおり Ac_i と Ac_m は別物であろうから、⑥'式における Ac_m は Ac_iに変更してある。

かくして、量(Amount)、精度(Accuracy)、情報同士の関連度および脳内知識の関連度(Relativity)を引数とした、「頭の良さ」を表す3本の基本式の立式に成功した。この3本の式をもって「AARモデルの基本式」と名付けたいと思う。……大げさで傲慢なネーミングである気もするが。

最後に

多分この3本の式だけでは表現しきれない「頭の良さ」もあるだろう。それをうまく分析できるよう、モデルや基本式を調整していかなければいけない。
その作業は次回以降やることにする。

この記事が気に入ったらサポートをしてみませんか?