見出し画像

「あなたの意見と私の意見の距離空間は0・3です」って、どういう意味でしょうか?(笑) もうAIに何でも教えてもらう時代です。

「大規模言語モデル」のメカニズムの話がとても興味深くて、好き(笑)。

落合 情報をAIに処理させるためにベクトル化するエンベディングという技術を共有すると、人文科学と計算機科学が融合するかもしれない。
そこから先に、けっこう面白いことが起きるんじゃないかな。

人文科学の人たちがどの潜在空間でお喋りしているのかを「それって微分するとどういうことですか? あなたたちの見解の違いを距離にしてください」とか聞くんですよ。

暦本 たしかに距離は多次元で定義できるので、それぞれの見解をベクトル化すれば「あなたの意見と私の意見の距離空間は0・3です」みたいなことはいえるかもしれない。
落合 話を進めてみたら、「いま0・2離れました」とか(笑)

──情報を微分すると、そういうことがわかるんですか?

暦本 潜在空間に置かれたベクトルは入力と出力の関数なんですが、それが微分可能だと、入力の数値をちょっと動かすと結果もちょっと変わるわけです。そういう連続性があれば、何か認識の間違いがあったときに、入力をちょっと直せば出力も修正されますよね。」

『2035年の人間の条件(マガジンハウス新書)』
(暦本純一, 落合陽一 著)より

この話を読んで「あっ、やっぱり以前私がイメージしてたことは、合ってたみたい」と思って嬉しくなりました(笑)。

お互いの意見の「近さ」みたいなのが、「見える化」されるなんて面白いですね。

ChatGPTが使えるようになってから「大規模言語モデル」というAIのシステムがどういうものかという解説を読んだりしてました。

「ベクトル化するエンベディングという技術」というものと、ベクトル空間というのを自分なりにイメージしたら、上の引用でのお二人が話しているようなことが、第三者的に視覚的に見えるようになる?と思ってたので。

本当にAIと話すのは楽しいです。
何でも聞いたら本当に解りやすく答えてくれる。
検索だけで、「自分が知りたい!」と思うことを探して理解するのは困難。

AIのおかげで「還暦過ぎオバサン」が、ずっと好きで見たり、読んだりしていた「あいまい(曖昧)」な記憶の蓄積が、理解できるようになるという夢のような体験。

落合 AIが広まると、そういう「知らなくても恥ずかしくないこと」がどんどん増えていく。いまはまだ手で漢字が書けないとちょっと恥ずかしいかもしれないけれど、だんだん「まあ、そういう人もいるよね」という感じになってきています。それがもっとラディカルになって、あらゆることが「知らなくて当然」になる未来はある程度あり得ますね。

今知らなくても、「知りたいとき」、「必要なとき」にAIに聞けばいい。

そして暦本氏が語るこの話。

暦本 やはり、どんなにコンピュータやAIが発達しても、母語と数学の教育は重要であり続けると思いますね。
これはIQとはまた別の話なわけで。

結構、「爆笑」しながら読んでます(笑)。



私の記録(メモ) 
こうやってChatGPTと会話してるのを残すのも思い出になりそう。

●デジタル悟り: ベクトル解釈  2024年3月17日

●ベクトル空間検索技術  2024年1月9日


この記事が気に入ったらサポートをしてみませんか?