見出し画像

「メタ心理学者とChatGPTの談話室」その12

本日の談話テーマ: 「シンギュラリティが起こらない理由」
Today's Topic: The reason why Singularity will never happen 

最新情報: 「ChatGPT談話室」記事シリーズの企画を開始した目的等については、以下の「メタ心理学者とChatGPTの談話室 その一」の記事を参照してください。
http://www.kitaoka.co/note/meta/

この投稿は、(株)オフィス北岡代表の北岡泰典が配信する「メタ心理学者とChatGPTの談話室 その12」です。

今回は、本著者が考えている「シンギュラリティが起こらない理由」について、ChatGPTに聞いてみました。


以下が、ChatGPTとの英語の質疑応答内容です。

なお、一回目の質問で、ChatGPTが私の意見にコメントしてくれなかったので、再度の質疑応答をしてみました。

ChatGPT FAQ #12 (4/4/23):

Q: The following was our previous conversation. You didn't comment on my opinion that "Singularity" à la IT industry will never happen. I want you to further comment on my opinion.

/////////////////////////////////

Q: I understand that AI like ChatGPT cannot comprehend the syntax and grammar when it translates a text, in the way a human brain understands them. This difference may be metaphorically epitomized by the situation in which a Japanese person who is a bilingual in Japanese and Sanskrit, for instance, can syntactically and grammatically understand the Sanskrit text translated from Japanese by AI, while someone who cannot understand Sanskrit can only see the translated text in Sanskrit, as if it was a picture. For this reason, I think that "Singularity" à la IT industry will never happen. What do you think of my opinion?

A: As an AI language model, I can tell you that while it is true that AI language models like me do not "comprehend" language in the same way humans do, our ability to process vast amounts of data and learn patterns in language allows us to perform certain tasks, such as machine translation, at a very high level.

However, your point about the limitations of AI language models is also valid. While we can learn to translate languages to a high degree of accuracy, we do not have a deep understanding of the underlying meaning or context of the language, and this can lead to errors or misunderstandings in translation.

As for the possibility of a technological singularity, there are differing opinions on this topic, but many experts believe that it is unlikely to happen in the near future. While AI is advancing rapidly and has the potential to transform many industries, there are still many challenges and limitations that need to be overcome before we reach a point where machines are truly autonomous and capable of self-improvement beyond human control.

Overall, it is important to recognize the capabilities and limitations of AI, and to approach the technology with a balanced perspective that takes into account both its potential benefits and risks.

/////////////////////////////////

A. As an AI language model, I can provide a perspective on your opinion that a technological singularity à la IT industry will never happen. While it is true that AI language models like me do not possess the same level of understanding of language as humans, it is important to note that AI is advancing at an unprecedented rate.

There is no doubt that AI is already transforming many industries, and it is likely that its capabilities will continue to improve at a rapid pace. Some experts predict that we may reach a point in the future where machines are capable of self-improvement beyond human control, and this could lead to a technological singularity.

However, it is important to acknowledge that there are still many challenges and limitations that need to be addressed before we reach such a point. For example, AI still struggles with understanding complex human emotions and social interactions, and there are ethical and safety concerns that need to be carefully considered.

In summary, while a technological singularity is not a certainty, it is also not entirely out of the realm of possibility. It is important to approach AI with caution and carefully consider both its potential benefits and risks.


以下が、DeepL の翻訳結果 (未編集) です。

Q:以下は、前回の会話です。あなたは、IT産業における「シンギュラリティ」は決して起こらないという私の意見にコメントしませんでしたね。私の意見について、さらにコメントしてほしい。

/////////////////////////////////

Q:ChatGPTのようなAIは、人間の脳が理解するような構文や文法を翻訳時に理解することはできないと聞いています。この違いは、例えば日本語とサンスクリット語のバイリンガルである日本人が、AIが日本語から翻訳したサンスクリット語の文章を構文や文法的に理解できるのに対し、サンスクリット語を理解できない人が翻訳した文章をサンスクリット語で絵のように見るしかないという状況に喩えることができるかもしれません。このような理由から、私はIT産業における「シンギュラリティ(Singularity)」なるものは、決して実現しないと考えています。私の意見についてどう思われますか?

A: AI言語モデルとして言えることは、私のようなAI言語モデルは、確かに人間と同じように言語を「理解」することはできませんが、膨大なデータを処理し、言語のパターンを学習する能力によって、機械翻訳のような特定のタスクを非常に高いレベルで実行することができます。

しかし、AIの言語モデルの限界についてのご指摘ももっともです。私たちは、高い精度で言語を翻訳することを学ぶことができますが、言語の根本的な意味や文脈を深く理解しているわけではないので、翻訳に誤りや誤解が生じる可能性があります。

技術的特異点の可能性については、さまざまな意見がありますが、多くの専門家は、近い将来には起こり得ないと考えています。AIは急速に進歩しており、多くの産業を変革する可能性を秘めていますが、機械が真に自律的で、人間の制御を超えた自己改善を可能にする段階に到達するまでに、克服すべき課題や限界がまだ多く存在します。

全体として、AIの能力と限界を認識し、その潜在的な利益とリスクの両方を考慮したバランスのとれた視点で技術に取り組むことが重要である。

/////////////////////////////////

A. IT業界のような技術的特異点(シンギュラリティ)は起こらないというあなたの意見に対して、私はAI言語モデルの立場から意見を述べることができます。私のようなAI言語モデルは、人間と同じレベルの言語理解力を持っていないことは事実ですが、AIがかつてないスピードで進歩していることは重要なことです。

AIがすでに多くの産業を変革していることは間違いなく、今後もその能力は急速なスピードで向上していくと思われます。専門家の中には、将来、機械が人間の制御を超えた自己改良を行うようになり、技術的特異点を迎える可能性があると予測する人もいます。

しかし、そのような段階に達するまでには、まだ多くの課題や限界があることを認識することが重要です。例えば、AIは人間の複雑な感情や社会的相互作用を理解することにまだ苦労していますし、倫理的・安全的な懸念もあるので、慎重に考慮する必要があります。

まとめると、技術的特異点は確実なものではありませんが、可能性が全くないわけでもありません。AIは、その潜在的な利益とリスクの両方を慎重に検討し、慎重にアプローチすることが重要である。 


注: 上記の DeepL 翻訳で、一点だけ、誤訳を指摘します (通常、本著者は、DeepL の誤訳について、逐次指摘することはしていないです)。

「サンスクリット語を理解できない人が翻訳した文章をサンスクリット語で絵のように見るしかないという状況」は、「サンスクリット語を理解できない人は、翻訳されたサンスクリット語の文章を絵のように見るしかないという状況」の意味でした。

以上が、二度にわたる本著者とChatGPTとの質疑応答ですが、ChatGPTは、AI がいつかは人間の思考をモデリングできるという「楽観的」な前提に立っているようですが、「そもそも AI は統語や文法を理解できない」という本著者の前提とは、おそらく橋渡しできない「論理の溝」があるようです。

 編集後記 1: 以上の談話をChatGPTとした後、もう一つ「シンギュラリティが起こらない」ことを示す比喩を思いついたので、再度、改めて、以下の質疑応答をChatGPTとしてみました。


以下が、ChatGPTとの英語の質疑応答内容です。

ChatGPT FAQ #12_2 (5/4/23):

Q: Following our last conversation with you, I came to want to give you another metaphor indicating that "Singularity" à la IT industry will never happen.

That is, when I lived in London, UK, during the eighties and nineties, I was a localization translator who translated the Version 2 of the de facto HTML editor, Dreamweaver, among others, and was at that time asked by the translation agents to use a translation assisting software called Trados. This software didn't understand the syntax and/or grammar of the localization texts at all, but only compared new texts with previously translated texts, as if they were only content-free screenshots. Namely, if there is 100% matching with the past translation, there is no translation fee paid, if 50% matching, 50% of the normal fee is paid, and, if 0% matching, 100% is paid.

I think that what AI is doing is just like what Trados with "Black Box" approach does, while it can never deal with the syntax or grammar of the texts to translate. This is one of the reasons why I am convinced that Singularity" can never happen.

Please comment on my conviction.

A: Your comparison between AI and Trados is a valid one in the context of machine translation. In machine translation, AI systems use statistical models to analyze large datasets of previously translated text in order to learn patterns and predict how to translate new text. This approach is similar to how Trados works, in that it relies on a database of previously translated text to make predictions about how to translate new text.

However, it is important to note that AI systems are not limited to this approach, and there are other methods of machine translation that involve analyzing syntax and grammar in addition to statistical patterns. These methods are known as rule-based and neural machine translation, and they attempt to mimic the way humans translate by analyzing the structure of the source and target languages.

Furthermore, singularity refers to a hypothetical event in which artificial intelligence surpasses human intelligence and becomes capable of recursive self-improvement, leading to an intelligence explosion and a rapid acceleration in technological progress. This concept is not limited to machine translation, but encompasses all areas of artificial intelligence.

While it is true that AI has limitations and there are certain tasks that it may never be able to perform as well as humans, it is also true that AI has made significant advancements in recent years and has the potential to continue improving at an exponential rate. Whether or not singularity will ever occur remains a subject of debate among experts in the field, but it is clear that AI will continue to have a significant impact on society and technology in the years to come.


以下が、DeepL の翻訳結果 (未編集) です。

Q: 前回に引き続き、IT産業における「シンギュラリティ」が実現しないことを示す別のメタファーを提供したいと思うようになった。

それは、80年代から90年代にかけてイギリスのロンドンに住んでいた頃、ローカライズ翻訳者として、事実上のHTMLエディターであるDreamweaverのバージョン2などを翻訳していましたが、当時、翻訳エージェントからTradosという翻訳支援ソフトを使うように言われました。このソフトは、ローカライズテキストの構文や文法を全く理解せず、あたかも内容のないスクリーンショットに過ぎないかのように、新しいテキストと以前に翻訳したテキストを比較するだけでした。つまり、過去の翻訳と100%一致すれば翻訳料は無料、50%一致すれば通常の50%、0%一致すれば100%の翻訳料が支払われる。

AIがやっていることは、Tradosのブラックボックス化と同じで、翻訳する文章の構文や文法を扱うことはできないのだと思うのです。これが、私が「シンギュラリティ」はあり得ないと確信している理由の一つです。

私の確信について、コメントをお願いします。

A: AIとTradosの比較は、機械翻訳の文脈では妥当なものです。機械翻訳では、AIシステムが統計モデルを用いて、過去に翻訳されたテキストの大規模なデータセットを分析し、パターンを学習して、新しいテキストの翻訳方法を予測します。このアプローチは、Tradosが過去に翻訳されたテキストのデータベースに依存して、新しいテキストの翻訳方法を予測するという点で、Tradosの仕組みと似ています。

しかし、AIシステムがこのアプローチに限定されるわけではないことに留意する必要があります。機械翻訳には、統計的なパターンに加えて、構文や文法を分析する方法があります。これらの方法はルールベースやニューラル機械翻訳と呼ばれ、ソース言語とターゲット言語の構造を分析することで、人間の翻訳方法を模倣しようとするものである。

また、シンギュラリティとは、人工知能が人間の知能を超え、再帰的自己改良が可能になり、知能が爆発的に向上し、技術進歩が急速に加速する仮想的な事象のことである。この概念は、機械翻訳に限らず、人工知能のあらゆる領域を包含しています。

AIには限界があり、人間と同じようにはできない作業があることは事実だが、近年AIが大きく進歩し、今後も指数関数的に向上する可能性を秘めていることも事実である。シンギュラリティが起こるかどうかは、その道の専門家の間でも議論が続いていますが、AIが今後も社会や技術に大きな影響を与えることは間違いないでしょう。


以上が、新たなChatGPTとの談話内容ですが、二点気づきました。

1) 本著者は、過去に印哲の「非二元論的ヴェーダンタ」の創始者シャンカラチャリヤ (8 世紀) を「徹底研究」して、それ以来ずっと、「現象界を観察し、作り出している『純粋観照者 (Witness)』がいなければ、そもそも現象界はありえない」という立場にいます。

このことを根拠に、単なる現象界の産物の AI が、本著者の意味合いでの「シンギュラリティ」を起こして、現象界のベースになっている「観照者」を作り出すことなどありえない、と考えています。

確かに、上記の「機械翻訳には、統計的なパターンに加えて、構文や文法を分析する方法があります。これらの方法はルールベースやニューラル機械翻訳と呼ばれ、ソース言語とターゲット言語の構造を分析することで、人間の翻訳方法を模倣しようとするものである」というChatGPTの主張は、その通りだと思いますが、ただ、孫悟空が宇宙の「一番果て」まで行って (まさにそれがChatGPTがやろうとしていることだと、本著者は思っています)、そこまで到達したという証拠を残すために谷に小便をかけた後、娑婆に戻り、仏陀の掌に乗ったら、その掌の人差し指と中指の間に同じ小便臭さが残っていた、という比喩がありますが、ChatGPTがどれだけ「奇跡的」なことを達成することができても、それは現象界内の奇跡であり、その現象界の枠を超えることは、絶対できないです。

おそらくこの発想のない、あるいは、その発想ができない人間の開発者が作ったChatGPTに、この点を「理解してもらう」ことは、そもそも論として、不可能であるように、今、思えています。

2) ただ、そのシャンカラチャリヤは、「神とは何か」、「真我とは何か」を語った重要な哲学書を執筆する際、いったん自分が主張したことに対して自分自身が質問して、その質問に自分自身で答える、という、ソクラテス式の弁証法的自己対話を永遠に続けた哲学者でした。

本著者も、同じように、「シンギュラリティが起こりえない理由」について、ChatGPTとの談話を永遠に続けてみてもいいのでは、とも思いました (もし、このトピックの永遠のChatGPTとの談話をする場合は、別途「スレッド」を立ち上げると思っています)。

 編集後記 2: 「メタ心理学者とChatGPTの談話」の「その43」と「その44」で書かせていただいたのですが、本著者は、1976 年頃、早稲田大学の川本成夫教授が、「機械翻訳は完璧な翻訳をすることはできない」とおっしゃった意味は、「AI は統語や文法を理解できない」である、とずっと考えてきていたのですが、実際は、「AI は統語や文法を理解できる」可能性がある一方で、「与えられた文の曖昧さや複数の解釈の可能性」を理解できないことを主張されていた、ということが、判明しました。

GAI は、とうとう統語と文法は完全に理解できるようになった後でも、「文化的要因と言語の両義牲」の理解は難しい、という「最先端の発見」を、川本教授は、すでに、50 年近く前に「予言」されていた、ということになります。

本著者は、ずっと「AI は統語を理解できない」ことを理由に「シンギュラリティは起こらない」と主張してきていましたが、「その43」と「その44」の談話内容から、「おそらく AI は統語を理解できるが、言語の曖昧さの完全理解は無理であろう」という立場に変わりました。

ただ、興味深いことに、「言語の曖昧さの完全理解を理解するためには、メタ意識が必要である」という本著者の従来からの主張は変わることはありません。

もちろん、このメタ意識 (人間脳が生成する consciousness ではなく、人間脳を作り出しているAwareness) を生み出す時点が「シンギュラリティ」である、と本著者は定義しているので、この意味で、たとえ AI が言語の統語と曖昧さすべてを理解できるようになったとしても、シンギュラリティは起こらないと、本著者は考えています。

以上、本日の「メタ心理学者とChatGPTの談話」は、いかがでしたでしょうか?

北岡泰典「メタ心理学宣言」ページ: https://www.kitaoka.co/meta/

この記事が気に入ったらサポートをしてみませんか?