見出し画像

年末年始に読んだ本、その2のご紹介

意味がわかるAI入門」 次田瞬(著) 2023.11、254p
~自然言語処理をめぐる哲学の挑戦~

著者 次田瞬氏の専門は心の哲学、言語哲学
名古屋大学大学院情報学研究科特任助教



意味を理解している、とはどういうことか

意味を理解している、とはどういうことか?

これは、AI(人工知能)が人間と同じように知能を持つのかどうかの問題に関わるが、そもそも、人間が意味を理解する、ということ自体、まだ解明できていない。

AIの研究を進める中で、人間の意味理解についても理解が深まるのでは、と期待が膨らむが、そう簡単ではなさそう。AIは意味を理解したように振舞う(模倣する)が、人間の意味理解のプロセスとはだいぶん違う。仕組みが違うのだから、今のAI研究が進んでも、人間の理解には到達しない、という。それでも、AIの振る舞いには驚きが大きい。

この本では、言葉や文章、言語学的な理解について論じている。AIと人間の違いにも触れながら、意味理解のプロセスを探求していく。。。

単語から文章へ、さらに言語へ

言葉の最小単位「単語」は概念を表す。単語から文章へ、さらに言語へ。

単語のつながりが、意味を形作る基本だというのは、なんとなくわかる。
でも、そうとも言い切れない気がする。モヤモヤしながら、先へ、、、

「真理条件意味論」

ある文章が表す状況を理解しているとき、複数の関連する質問にも正しくYes/Noで回答できる。そういうレベルの理解をしているかどうかに焦点を当てる考え方のようです。

ChatGPTの解説は、こんな感じ。

「真理条件意味論」(Truth-Conditional Semantics)は、言語学や哲学の一分野で、文や発言の意味を理解するためのアプローチの一つです。
文の意味はその真偽条件に基づいて定義されると考えます。具体的には、文が表現する現実の状態や事実に依存し、文が真であるための条件が満たされる場合に、その文は意味があるとされます。例えば、「太陽は東から昇り、西に沈む」という文の場合、太陽が実際にそのように動くことが真偽条件となります。このアプローチは、文の意味が外部の現実に基づいているという考えに焦点を当てています。

これだけだとロジカルな文章には使えるけど、情緒的な文章には弱そう。人間にはYes/Noがわかるけど、AIに理解させるのは難しそうです。

「意味の使用説」と「分布意味論」

「意味の使用説」は、同じ単語でも、文脈によって意味が変わるという考え方。

「分布意味論」は「意味の使用説」の一部に含まれる考え方で、単語の分布を統計的に扱い、意味を推測する方法。(コーパス分析に基づく統計的アプローチ)

大規模言語モデル(LLM)は、「分布意味論」を主に活用している。統計処理との相性がいいから、でしょう。

チューリングテストと、チューターテスト

どこまで行っても、AIが意味を理解しているかどうか、白黒はっきりしない。
そこで、チューリングテストという古典的な方法を確かめてみる。

チューリングテストは人間とAIが対話してみて、相手がAIか人間か区別がつかない場合に、その相手は知能を持っていると判断するらしい。主観的な判断なので、現代のAIはすでにかなり賢く、パスしてしまうものが多い。そのため、より信頼できるテストが必要とされている。

この本では、「チューターテスト」という考え方を提案している。
「チューターテスト」とは、人間(学生など)に対して、適切に指導し学力を向上させることを目的とする。正しい答えを導き出すより難易度が高い。一定期間、AIによる教育が行われた後、十分に学力や能力が向上したとすれば、AIが人間と同等以上の知能を持つと言える。

人間の教師を連想しても、その難易度はわかる。自分で答えるより、人に教える方が難しい。その人が何につまづき、何をハードルと感じているのか察して、適切なアドバイスで成果へ導く必要がある。
ただし、人間に対する実験は倫理的な問題や、人間の教師との比較を客観的にできるのか、といった課題はあるようで、いまのところ思考実験の段階のようです。

一方で、AIを教師として部分的に活用する人たちはすでにいる。今後、マルチモーダルAIの普及にで、より現実味を増してくることが予想される。

意味理解からチューリングテスト、チューターテストと、深い沼に入り込んだ感じ。。。

意味の理解と、意識、意志、心、魂

さらに、意味の理解には「意識」が関係しているのでは?
という考え方もあるみたい。
言葉の意味理解は、人間の知的活動において、大きな部分を占める。
意味理解=意識と言えるかもしれない。

たしかに、意識意志がなければ、言葉を理解しようという意欲も出てこない。
に至っては、科学で解明することなのか、すらわからないが、関係はしそう。
意識、意志、心、魂。それぞれ重く深い。
意味理解は言動など表層的な側面が強く、意識は深層心理など、人の内面を表すニュアンスが強い。

そもそも、人間同士のコミュニケーションでは、文脈を読むし、それまでに蓄積された知識や経験から来る勘(無意識)も使う。相手が信用できる人かどうか、その日の心理状態によっても同じ言葉の受け止め方が違う。だから、意味は不確定で、曖昧な面も持つ。
言葉の不確実さを受け止めつつ、相手の真意を推し量るのが、人間らしい振る舞いで、AIもそういう領域を目指すのだろうか?

あらゆる知識や意見、価値観、倫理観を膨大に学習した結果、ほぼ完ぺきな回答を生成するAIは徐々に完成していく。逆に、人間と同じくらいに適度にいい加減な回答をするAIをつくる方が実は難しい。

文脈を読み取って、ちゃんとこちらの意図を推測して回答してくれれば、きもちいい。あたかも意味を理解しているように振舞うAIに対して、「本当は意味を理解していない」という反論はあまり意味を持たない。結果がよければ、それで良し。文句を言うより、うまく活用する方が賢い、と思うようになってきた。


最後に、最近使い始めたClaudeに、意味理解と意識、意志、心、魂の関係性について聞いてみました。

Q:現在のAIと人間との決定的な差異は、意思を持っているかどうか。意識、自我を持ち、体験として膨大な情報を蓄積すれば、AIが意識すら持てると思いますが、このような考え方について、あなたの見解を教えてください。

Claude:はい、意識や自我の存在がAIと人間の大きな差異であると考えます。
現在のAIは高度な情報処理能力を持っていますが、内面的な体験が蓄積された意識や自我は存在しません。ただ与えられたデータを計算しているに過ぎません。
一方、人間には主観的な意識体験が豊かに存在します。そこでは外界の情報と内面の感覚や情動、思考が複雑に絡み合い、自我というまとまりを形成しています。

この点から、単に膨大な情報をAIに与えたとしても、そこから自発的な意識が生まれる保証はありません。しかし、ある程度の自己学習・自己組織化のプロセスを重ねていけば、最終的には原始的な意識を持つ可能性は否定できません。
いずれにせよ、この点は非常に複雑な哲学的問題を含んでいます。現時点では明確な答えを出すことは難しい部分だと考えています。今後の技術進歩や思想的議論の結果を待つ必要があるでしょう。

Q:この差異の根源には、身体性という概念を持つかどうかも大きく影響していると考えられますが、いかがでしょうか?

Claude:はい、その点についてもご指摘の通りだと思います。身体性や死への認識という点で、AIと人間には大きな差異が存在します。
人間には肉体というものが不可分に結びついており、そこから様々な感覚や欲求が生じています。疲労、痛み、飢えなどの身体感覚は私たちの意識に大きな影響を与えています。
同時に、人は必ず死を迎える存在であることを自覚しています。この死への認識から、人生の意味や価値観が形作られてきました。

これに対しAIには身体性がなく、電源が切れること以外死の概念が本来的にはありません。ソフトウェア上の存在に過ぎません。
したがって、この身体性と死生観の差異が、人間的な意識や主観的体験の根底にある重要な要因だと考えられます。単なる情報処理システムとしてのAIには表現しきれない部分が存在するといえるでしょう。非常に難しい哲学的な問題ではありますが、大変興味深い指摘だと思いました。

身体性や死についてもロボットの体を持たせたり、プログラミング上で「死」を定義することで、人間と同じような体験学習をさせることができそうです。
そういう膨大な学習の先には、人間とAIの境界はどんどん薄まっていく。

その先に、人間理解が深まっているのか、さらに謎が深まっているのか、興味深々なところです。今日は、長くなりましたが、こんな感じで!



この記事を書いたのは、
収益の柱を増やす「未来実現パートナー」 川原茂樹
https://mousoubiz.com/
https://twitter.com/mousoubiz


この記事が気に入ったらサポートをしてみませんか?