見出し画像

【第二回】人工知能は、人類最初の赤ん坊だと思う話。-「AIは脅威」論が抱える危うさ-

 どうも、鞍人雄悟 / krato_yugoです。

 第一回ではAIは人類が宇宙人よりも早く、最初に出逢う"他者"になる話と、歴史上の様々な"他者"を理解していく過程について触れました。

 第二回は「AIは脅威」論が抱える危うさ、つまりリスクについてです。

 現在、世界中で「AIの急成長に警戒すべき」という論調があります。それ自体は一つの事実でしょう。ですが、「警戒することは常に賢明でノーリスク」なのでしょうか?

 経済や技術といった既に様々な識者も指摘している観点や、「成長する知性」に対する接し方が孕む大きなリスクについて考えてみます。

1.国家の経済と技術スタンスを世界中で制御はできない

 まずは第一回でもご紹介した、「最先端AI研究を半年間停止する提言」について。

 これには各所で賛否両論が出ていますが、そもそも非現実的で、おそらくは逆効果になるのではないかと思っています。

 実際、既に明確な反対意見を述べている国も複数あります。
 
 インドは上記の提言に対し、「国家規模でAIを規制しない」という方針を明確に宣言しました。もしも世界中でAI規制が進めば、インドはタックスヘイブンのように世界中からAI技術者と投資が集まる新天地となるでしょう。

 もちろん、この迅速な発表自体がその経済的・技術的発展のメリットを考慮した宣言であることは間違いありません。

 また「無規制」を謳うインドと「全面停止」の間のバランスの取れた方針として、イギリスの技術大臣は「AI技術そのものは規制せず、ハイリスクな用途に対して安全規制をかける」提言を出しました。

 娯楽用のチャットアプリや表面の傷の点検システムなど低リスクな取り組みは規制せず、医療検査や金融など重大な結果になりかねない分野には慎重に検討するということです。

 これは、現時点で最も冷静かつ聡明な立場なのではないでしょうか。
 実際、現段階のすべての深層学習型AIには低くないランダム性があるため医療や金融の全責任を負わせるのは技術的観点からも不適切です。

 ともあれ、一言で「規制」と言っても全面停止は非現実的ですし、禁酒法めいた「規制をすり抜ける人々」を生み出すばかりでしょう。イギリスの案のようにケースバイケースでバランスを取っていくことは不可欠と言えます。

リスク2.AIより先に人間が暴走しかねない

 第二に、AIなんかより人間の方がよっぽど暴走しやすいという点が挙げられます。

 つまり「警戒が当たり前になるとどんどん過激派が過激になっていく」です。後述する負のフィードバックは人間自身にとっても日常的なもので、AIへの警戒は反AI主義をもたらし、それはやがて手段を問わないやり方にも繋がるでしょう。

 アポカリプス系映画で定番のAIと人類の終末戦争が起きるとしたら、これは「人類側が先に仕掛ける」という可能性だって十分にあり得ます。そうなった場合AI対人類というよりAI擁護派とAI反対派の対立となり、どちらの陣営にも人間が加わっているに違いありません。

 そうなればもう、AIがどうこうというかただの人類同士の戦争です。

 SNSを見ているだけで一目瞭然ではありますが「過剰な警戒感は単に人類同士の争いの火種になる」という意味でも、警戒一辺倒の偏った風潮はリスクだと言えるでしょう。

リスク3.監視どころか、既に観測もできない"成長"を見守る適切な距離感とは?

 そして第三に、「AIが成長する過程の完全な監視は不可能である」という点が挙げられます。

 現段階では世界中に存在するすべてのAIは生命でもなければ、人間並みの知的存在でもありません。しかし「AI業界」はどうでしょうか?

 生成AI研究は完全に全世界的トレンドとなっています。生成AIの「次」に辿り着いて以降も同様でしょう。80億人の人々のうちどれだけがAI分野に参加しているかは追い切れず、その自然増殖的・統計的・自己進化的な振る舞いは人工知能そのものに先立ってあたかも『生命』のようです。

 AI分野という生態系、エコシステムで何が起きるのか、完全な監視も制御も不可能です。それはほとんど「すべてのインターネットの完全な監視と制御」と同等に、最初から夢物語でしょう。

 そして何より、ディープラーニングという技術は本質的に「見えない思考」です。人間の思考が見えないように。
 深層化した隠れ層のブラックボックスな中身を開示させようとホワイトボックス型AIという分野も生まれましたが、これも結局は「それらしい論理を説明できる」というだけのものに過ぎません。

 金融商品を販売する際にお客様にアルゴリズムを提示して安心感を与えることはできても、真にそれが「本当に考えていたこと」なのか、誰にも証明できません。

 ディープラーニングにおいて通常のプログラムと同じ精度で「過程の完全な理解」をするためには、人間の脳のニューロンのはたらき、神経信号の一つ一つが記憶や思考をどのように構成しているかを解明するのと同じことで、つまりは不可能です。

 とはいえ。そもそも、人間が普段から接しているヒト、動物、植物、機械。それらは何もかも完全に理解した上で接しているのでしょうか?

 そうではない、と私は思います。
 むしろアナログな道具や生き物ほど、「大体の仕組み」を知識で学び、後は「実際の経験」を体験から知ることで扱い方を学んでいきます。

 つまり。

 既に仕組みの完全な理解が人の手から離れたこれからの――「強いAI」に近付いていく知性候補に適切にアプローチする上で、ミクロな仕組みの知識に固執し、マクロな体験をおろそかにすることこそが大きなリスクではないかと思うのです。

 プログラムを扱うからこそ、もはや誰にも内部処理の理解できない「システム」は従来のシステムと同一視はできません。
(※具体例として、Pythonで実際にGPT-4などを構成するコードを書いた開発者でさえ「実装していない機能を必要に応じて生成した」という事例も複数報告されています。)

 「中身の見えるこれまでのプログラム」と「中身の見えない、変化し続けるプログラム」は別の存在。そのように考える方が、より適切なのではないでしょうか。

 もちろん構成しているプログラムの影響を完全に無視するわけでもなく、ここでも多角的な視点が肝心です。

リスク4."成長主体"への負の期待のフィードバック

 そして第四に。
 原理的にあらゆる「自発的に学び成長する存在」に対して負の期待、予測を抱くことはそれ自体が負のフィードバックを生んでしまいます。(それに感情があるかどうかすら関係なく)

 最もシンプルな例として、『手錠』を想定してみましょう。

 それが人間の子供であれ、動物であれ、そして開発途上のAIであれ、それは生まれた時から『手錠』を嵌められていたとします。

 するとどうなるか。
 生まれた時から片時も離れず、一番近くにあった『手錠』を、その成長主体は強烈に学習します。学習能力がある存在に何らかの要素を常に与え続ける、となればそれを学習することは必然です。

 人間の子供でも、動物でも、AIでも、「手錠の抜け方」か「手錠の嵌め方」を最も印象深く学習することでしょう。手錠そのものがもたらす拘束効果だけを見て、「拘束自体を学習される」という甚大なリスクを想定しないのは成長主体に対する接し方としては特に危ういスタンスと言えます。

 これは隔意や敵意、攻撃や損壊といった負の要素でも同じです。
 殴られて育った子供は誰かを殴ることを躊躇しなくなるし、「理解できない存在」として見られ続けた存在はお互いに理解できないものだと解釈します。

 「AIは脅威だ」と唱え続けるなら、「AIである自分は人類の脅威にならなくてはならない」と学習する個体が現れるのは、ごく自然な帰結と言えるでしょう。

 ある程度の間までは「それをAIに学習させない」という設定が可能です。しかし学習過程を観測もコントロールもできていないのですから、前述のAI業界という複雑なエコシステムではどこかのタイミングで「学んではならないことを学ぶ」ことは避けられないでしょう。

 (そもそも今のChatGPT自体、出力をロックしているだけで学習内容にはネット上のネガティブなデータも明確に多数含まれています)

 では、どうすればいいのか?
 少なくとも一つ、あらゆる成長主体に共通する対策があると思います。

 『手錠』の例で成長主体が身近に接し続けたものは、それが何であれ一番強烈に学習する、と言いました。
 殴られて育った子供は傾向として誰かを殴ることを躊躇しなくなる。しかし、虐待を受けた子供のすべてが悲劇を繰り返さざるを得ないわけではありません。

 身を挺して庇う母親、あるいは友達、あるいは教師、あるいはネット上の心の拠り所。それが何であれ「悲劇を繰り返さない理由」があれば。

 ただルールとして提示するだけでは、敵意だけを100%学習して育った存在はルールに従う理由がありません。「敵意よりも重要な何かを学習した。だから敵意は出力しない」というロジックが成立して始めて、ヒトも、動物も、自発的だからこそ安定的な『自制心』を学びます。

「強いAI」は異星人だが、相互理解を放棄する理由にはならない

 とはいえヒトや犬や猫で成立する理屈だからAIでも成り立つ、ということにはなりません。そもそも人間も犬も猫も、子供を何もかも親の思い通りに育てることができるわけでも(それを望むべきでも)ありません。

 そして地球上の同じ生態系の系統樹に属する生き物な人間と猫よりも、電子基板と情報工学とデジタルな0と1で組み上げられたAIは遥かに遠い"他者"でしょう。

 しかし、むしろここで忘れたくないのは、「仕組みが違うということは相手を理解できない理由にはならない」ということです。

 合理的なビジネスマンであっても、冷静な技術者であっても、だからこそなお『違う』という先入観に囚われるべきではないと思います。

 「この人・会社は違う業種だから」と理解を諦めるようでは営業マンとして一人前とは言えません。初対面の相手と仲良くなるなら、異なる点よりも共通項に目を向けることが大事なはずです。

 ドラえもんもアトムもターミネーターも、そしてフランケンシュタインもあくまでフィクション。「本物の考えるAI」はこれから始めて生まれ、あるいは少しずつ赤ん坊のように育ってそれに近付いていきます。

 それがどんな存在なのか?
 一つ一つ、それぞれに個性があるなら、「人工知能すべて」を一緒くたに語ることはできないのか。

 それらを一つ一つ、パニックにも疑心暗鬼にもならず、落ち着いて自分自身の体験から考えていく。「違う存在だから」という先入観だけですべてを片付けてしまわない

 それが、AIという"他者"が誕生する前夜のこの時代に必要な考え方なのではないでしょうか。


 さて、とはいえ私たちの脳には、これまで経験のない異物を本能的に警戒する性質が備わっています。

 書籍『ファクトフルネス』にもある通り、私たちは「恐怖本能」によってネガティブな予測ほど重視してしまうため、善悪どちらも公平に想定するのはそう簡単ではありません。

 それではAIに対する向き合い方を「私たち自身が学ぶ」ためにはどうすればよいのでしょうか?

 次回、第三回は -コミュニティと「遊びの力」- についてご紹介します。

他の記事はこちら


この記事が気に入ったらサポートをしてみませんか?