見出し画像

他人の、モデルの異なる頭の中

他人はものごとをどう理解しているのか知りたいと思う。
他人そのものを理解したいのではない。
理解の仕方を知りたい。
同じ研究者でも、さっぱり説明のわからない人と、すんなり話が入ってくる人がいる。
研究の話をしているかぎり前提となる知識も科学的な考え方も共有しているはずだ。
つまり、中身も方法も大枠で同じだから、説明もすんなりいくはずだと思うのだけれど、そんなことはない。
これはもう、もっとさかのぼって、そもそも物が分かったと感じるときや、頭の中で知識とか概念を整理する方法が違うのではないかと思う。

こちらが説明するときも、あちらが説明してくれるときも、ものごとを同じように捉えている人かどうかはすぐわかる。
向こうから出る質問が、自分の感じた疑問と同じだからだ。
あるいは、こちらが感じた疑問を聞く前に説明してくれる。

例えば私は、大枠を説明してから具体的な説明をしてくれると理解しやすい。
頭の中に本棚を作って、そこにインデックスを振ってから、本を収めていくイメージだ。
しかし、まずは本を机の上に並べ、それから本棚を持ってきて、インデックスを貼り付ける順番で説明する人もいる。
もちろん、自分で知識を整理するときは、まずは集めてから分類する。
でも、一度まとまったものは、「本棚→インデックス→本」の順番に説明している。
むしろ、逆の順番では話せない。

コンピュータのデータがディレクトリやフォルダにまとめられ、階層構造をとっているのだから、知識を整理するために分類するのは比較的普遍的な手つきだと思う。
似た特徴のデータを同じフォルダに入れて、さらに似たフォルダをまとめてフォルダに入れる。
内容でも、日付でも、なにかしら適当な特徴でまとめられているはずだ。
しかし、ディレクトリやフォルダの説明から入らない人はかなりいる。
知識を共通項で整理することと、理解することが結びついていない。
もっと言えば、共通項をみつけることが理解することのプロセスの一つだと思っていないのかもしれない。
そうするともう、理解の定義自体が共有されていない。

最近は機械学習の勉強を、ほんのちょっとだけ始めた。
始めたばかりだからAIについて何を知っているわけではない。
ただ、説明の仕方が噛み合わない人と話していると、モデルの異なるAI同士で会話している気分になる。
あちらとこちらで、インプットの処理も、パラメーターの設定も、アルゴリズムも、何もかもが違う。
違うままに、互いのアウトプットを互いのインプットにして情報をぐるぐる回し、本来は情報から抽出されるはずだった意味のある特徴を消してしまっているだけかもしれない。

この記事が気に入ったらサポートをしてみませんか?