「意味がわかるAI入門」次田瞬(著)
年末年始に読んだ本、その2のご紹介
著者 次田瞬氏の専門は心の哲学、言語哲学
名古屋大学大学院情報学研究科特任助教
意味を理解している、とはどういうことか
意味を理解している、とはどういうことか?
これは、AI(人工知能)が人間と同じように知能を持つのかどうかの問題に関わるが、そもそも、人間が意味を理解する、ということ自体、まだ解明できていない。
AIの研究を進める中で、人間の意味理解についても理解が深まるのでは、と期待が膨らむが、そう簡単ではなさそう。AIは意味を理解したように振舞う(模倣する)が、人間の意味理解のプロセスとはだいぶん違う。仕組みが違うのだから、今のAI研究が進んでも、人間の理解には到達しない、という。それでも、AIの振る舞いには驚きが大きい。
この本では、言葉や文章、言語学的な理解について論じている。AIと人間の違いにも触れながら、意味理解のプロセスを探求していく。。。
単語から文章へ、さらに言語へ
言葉の最小単位「単語」は概念を表す。単語から文章へ、さらに言語へ。
単語のつながりが、意味を形作る基本だというのは、なんとなくわかる。
でも、そうとも言い切れない気がする。モヤモヤしながら、先へ、、、
「真理条件意味論」
ある文章が表す状況を理解しているとき、複数の関連する質問にも正しくYes/Noで回答できる。そういうレベルの理解をしているかどうかに焦点を当てる考え方のようです。
ChatGPTの解説は、こんな感じ。
これだけだとロジカルな文章には使えるけど、情緒的な文章には弱そう。人間にはYes/Noがわかるけど、AIに理解させるのは難しそうです。
「意味の使用説」と「分布意味論」
「意味の使用説」は、同じ単語でも、文脈によって意味が変わるという考え方。
「分布意味論」は「意味の使用説」の一部に含まれる考え方で、単語の分布を統計的に扱い、意味を推測する方法。(コーパス分析に基づく統計的アプローチ)
大規模言語モデル(LLM)は、「分布意味論」を主に活用している。統計処理との相性がいいから、でしょう。
チューリングテストと、チューターテスト
どこまで行っても、AIが意味を理解しているかどうか、白黒はっきりしない。
そこで、チューリングテストという古典的な方法を確かめてみる。
チューリングテストは人間とAIが対話してみて、相手がAIか人間か区別がつかない場合に、その相手は知能を持っていると判断するらしい。主観的な判断なので、現代のAIはすでにかなり賢く、パスしてしまうものが多い。そのため、より信頼できるテストが必要とされている。
この本では、「チューターテスト」という考え方を提案している。
「チューターテスト」とは、人間(学生など)に対して、適切に指導し学力を向上させることを目的とする。正しい答えを導き出すより難易度が高い。一定期間、AIによる教育が行われた後、十分に学力や能力が向上したとすれば、AIが人間と同等以上の知能を持つと言える。
人間の教師を連想しても、その難易度はわかる。自分で答えるより、人に教える方が難しい。その人が何につまづき、何をハードルと感じているのか察して、適切なアドバイスで成果へ導く必要がある。
ただし、人間に対する実験は倫理的な問題や、人間の教師との比較を客観的にできるのか、といった課題はあるようで、いまのところ思考実験の段階のようです。
一方で、AIを教師として部分的に活用する人たちはすでにいる。今後、マルチモーダルAIの普及にで、より現実味を増してくることが予想される。
意味理解からチューリングテスト、チューターテストと、深い沼に入り込んだ感じ。。。
意味の理解と、意識、意志、心、魂
さらに、意味の理解には「意識」が関係しているのでは?
という考え方もあるみたい。
言葉の意味理解は、人間の知的活動において、大きな部分を占める。
意味理解=意識と言えるかもしれない。
たしかに、意識や意志がなければ、言葉を理解しようという意欲も出てこない。
心や魂に至っては、科学で解明することなのか、すらわからないが、関係はしそう。
意識、意志、心、魂。それぞれ重く深い。
意味理解は言動など表層的な側面が強く、意識は深層心理など、人の内面を表すニュアンスが強い。
そもそも、人間同士のコミュニケーションでは、文脈を読むし、それまでに蓄積された知識や経験から来る勘(無意識)も使う。相手が信用できる人かどうか、その日の心理状態によっても同じ言葉の受け止め方が違う。だから、意味は不確定で、曖昧な面も持つ。
言葉の不確実さを受け止めつつ、相手の真意を推し量るのが、人間らしい振る舞いで、AIもそういう領域を目指すのだろうか?
あらゆる知識や意見、価値観、倫理観を膨大に学習した結果、ほぼ完ぺきな回答を生成するAIは徐々に完成していく。逆に、人間と同じくらいに適度にいい加減な回答をするAIをつくる方が実は難しい。
文脈を読み取って、ちゃんとこちらの意図を推測して回答してくれれば、きもちいい。あたかも意味を理解しているように振舞うAIに対して、「本当は意味を理解していない」という反論はあまり意味を持たない。結果がよければ、それで良し。文句を言うより、うまく活用する方が賢い、と思うようになってきた。
最後に、最近使い始めたClaudeに、意味理解と意識、意志、心、魂の関係性について聞いてみました。
身体性や死についてもロボットの体を持たせたり、プログラミング上で「死」を定義することで、人間と同じような体験学習をさせることができそうです。
そういう膨大な学習の先には、人間とAIの境界はどんどん薄まっていく。
その先に、人間理解が深まっているのか、さらに謎が深まっているのか、興味深々なところです。今日は、長くなりましたが、こんな感じで!
この記事を書いたのは、
収益の柱を増やす「未来実現パートナー」 川原茂樹
https://mousoubiz.com/
https://twitter.com/mousoubiz
この記事が気に入ったらサポートをしてみませんか?