【大前提】「強いAI」と「弱いAI」とは
AIには、「強いAI」と「弱いAI」があります。
AIの話をするときにどうも議論がかみ合わないことが多いと感じるのは、この2つが混在して語られていることが多いからだとも感じますので、本稿で手短に触れておきます。
「強いAI」と「弱いAI」
かつて、アメリカの哲学者ジョン・サール氏は、論文の中で、人間の知能を人工的に作ろうとする取り組みを「強いAI」として批判しました。これはAGI(Artificial General Intelligence:汎用人工知能)と呼ばれています。
AIに人類が支配される、といった「AI脅威論」の語る人が思っているのは、この「強いAI」の方です。
「強いAI」とは、人間と同じように、感じたり、考えたりする力をもつAIのことです。笑う、泣く、などの感情を持ち、あるいは理解ができ、教えられたことだけでなく、自分で学び、思考し、行動することができる、人間と同じような脳を持ったAIのことです。
わかりやすくいうと、古いところでは「鉄腕アトム」、今の現役世代だと「ドラえもん」、のような存在ですね。
一方、弱いAIとは、Chat-GPTなどの大規模言語モデルや、囲碁のチャンピオンに勝利したAIなど、特定の能力(しゃべる、見る、分析する、など)に秀でながらも、人間とまったく同じようには、振る舞えない、汎用性に欠けたAIのことを指します。
議論すべきは
「弱いAI」が「強いAI]に成り得るのかどうか
上の分類のように、今騒がれているChat-GPTなどのAIは、高度な機械学習などによる能力の習得が可能であっても、自らの意思をもって、人のようには完全にはふるまえない、考えられない、「弱いAI」です。
AIの能力が部分的に人間を上回ったのは、だいぶん前、かれこれ10年以上前から始まっていました。将棋、囲碁の世界チャンピオンはAIですし、医療の病巣画像判定能力は、ベテラン医師よりAI方が上回っています。
ましてや、計算能力なんて、コンピュータそのものが、30年以上前に、既に人間を凌駕していたわけですから、何を今さら?という感が、「僕的には」あります。
「強いAI」が登場したならまだしも、まだ「弱いAI」が登場しただけなのに、「AI脅威論」が盛んに語られるのは、少し筋違いだと思います。
議論すべきは、この「弱いAI」が「強いAI]に成り得るのかどうか」ではないでしょうか。
流ちょうな答えを返す「理屈」が、
AI専門家でもわからない
「弱いAI」が「強いAI]に成り得るのかどうか」。これについては、誰にもわかりません。
なぜなら、特にこの「弱いAI]の中でも、一番、「AI脅威論」を生み出している、Chat-GPTのような大規模言語モデル(LLM)について、なぜ、このように流ちょうに回答を返してくるか、もはや誰にも説明がつかなくなっているからです。
大規模言語モデルは、多くの文章、データを学習して、ひたすら「関数の計算」をして、その結果を並べているだけ、という説明を以前したことがあります。
この「関数の計算をしているだけ」なのに、ここまで流ちょうな答えを返してくることが、「AI脅威論」を混とんとさせ、漠然たる脅威にさせている理由です。
流ちょうな答えを返す「理屈」が、AI専門家でもわからないということは、AIがどんなスピードでどのように発展していくかの将来もわからない、ことになります。
専門家がわからなければ、誰がわかるのか?
ということが、AIがどのように動いているかの仕組みを知らない大半の人々を不安にさせている、根本的な原因ではないでしょうか。
この記事が気に入ったらサポートをしてみませんか?