見出し画像

Invent or Die - 未来の設計者たちへ:第三回 中島聡 x 松本徹三 書き起こし その9

2018年11月20日(火)に開催された「Invent or Die - 未来の設計者たちへ:第三回 中島聡 x 松本徹三」の書き起こしです。
ソフトウェアエンジニアである中島聡と、半世紀以上にわたり、世界のITビジネスの最先端で巨大企業の経営に携わってきた松本徹三氏が、「AIの真髄」に対する正しい理解にとどまらず、シンギュラリティに達した「究極のAI」に対し、私たち人間に突きつけられる向き合い方の選択についてまで、グローバルな観点から議論します。
写真(© naonori kohira )

中島:まぁ中国とアメリカのAI同士がっていうのは…まぁあり得ないことではない。で、会場からの質問は受けるんでしたっけ?

司会:はい、そうですね。では一応ですね、お話させて頂きながら会場のお客様から質問を受けさせて頂きたいと思いますが、オフ会も貴重な機会なので、ぜひ遠慮なくご質問頂ければと思います。挙手制とさせて頂ければと思いますが、どなたかいらっしゃいませんか。何でも結構です。(挙手)はい、ありがとうございます。

質問者:ありがとうございます。AIに関してちょっとネガティブな質問になってしまうんですけれど、例えばAIがハックされてしまった、悪い人によってコントロールされてしまった、という風に想定をするとどうでしょうか…

松本:それはハックされないようにするしかありません。それ以外に解決方法はないじゃないですか。悪い人のコントロールは誰も出来ません。ですから、AIを開発するときには、いつも同時にセキュリティのことも考えていかなければなりません。何れにせよ「ハックされたら大変だからAIの開発なんか止めろ」なんていうことは言えませんよね。AIもサイバー攻撃力の充実も、いずれも中国では重点開発目標ですから、中国の属国になりたくないのなら、日本も全力で取り組むしかありません。それは時間との争いです。他の人に先を越されたらもうダメなんです。そこでちょっと怖いのが量子コンピューターです。量子コンピューターの実用化は割と近いと言われていますし、これもまた中国が非常に力を入れている分野です。量子コンピューターが出てくると、現在のセキュリティシステムを全部新しい時代に適応させないと、全てが完全に破られてしまいますから、大変なことになります。

中島:ただね、エンジニア目線から言うと守る部分ってあまり派手じゃないし、お金にならなかったりするので、そこは置いておいてまず作るっていうエンジニアが多いんですね。原発が良い例じゃないかと。

松本:はい、仰る通り。

中島:だからその、福島の事故ってやっぱりあれは発電の部分は凄い進んでたけど、防御する部分が全然ガタガタだったんじゃないですか、まぁマネジメントの問題だって仰っていたけど。それと同じようなことがAIでも起こるんじゃないかなっていう心配があります。

松本:全くそうです。やっぱり相当な統制をしないとダメですよ。ただ、幸いなことに…幸いかな? 将来の戦争ってどうなると思います? おそらく全部サイバー戦になっていますよ。だから、おそらく将来戦争では人は死なないでしょう。例えば、尖閣列島の問題がますます先鋭化してきたある日、日本のコンピューターが全部ダウンするんです。「あー、中国にハックされた」と思っても手遅れです。「あんたやったでしょう?」と抗議してみても「いや、知りません」と言われるだけです。そうなるとどうすれはいいのでしょうか? 降伏するしかありません。「我々が考えるに、あなたのところの優秀なサイバー技術をもってすれば、我が国の原因不明のコンピュータートラブルは解決されるように思われます。よろしければ隣国のよしみで助けて頂けませんか。その代わりお礼に尖閣列島を差し上げます」と言うんです。そうじゃないとコンピューターシステムは動かず、日本経済は破綻するのですから仕方がありません。それで戦争は決着。中国が全面勝利、日本は全面敗北で尖閣列島は中国領になります。それが嫌なら、日本でも、サイバー攻撃・サイバー防衛のところに徹底的に人材を集めなければなりません。

中島:そこで使える人を探さなければなりませんね。(笑)

松本:経団連にいるかもしれません。(笑)

松本:ちなみに、今私がやっている仕事で、ホワイトハッカー育成プロジェクトっていうのがあるのですけれども、この分野はエストニアが意外と強いんですよ。エストニアは旧ソ連の体制下ではコンピューター・エンジニアリングの中核を担っていました。そのエストニアがNATOに参画したので、ロシアは怒って、猛烈なサイバー攻撃を仕掛けてきました。でも、エストニアは見事にこれを撃退したんです。こういう歴史もあって、NATO軍は今でもエストニアのサイバー戦能力からかなり学んでいます。この前新聞に出ていましたが、日本の自衛隊でも、やっと、陸・海・空と並んでサイバー部隊というものが発足する様ですが、とんでもなく出遅れていると言わざるを得ません。

司会:ありがとうございます。よろしいでしょうか。他にいらっしゃいませんか?

質問者:先ほど「AIに政治をやらせるのは簡単ですよ」と仰られていたんですけれども、我々には社会的コンセンサスとか色々あって、例えば民主制だったら、ある種の「諦めの正当性」みたいなものもあるのかなと。「多数決で決まったのなら、まぁ私は反対だけど合意しようか」という気持ちはあったとしても、「AIが決めたんじゃ納得がいかない」とか、そういう気持ちが出てきませんか? また、一旦AIが決めたことでも、その時代によって価値観っていうのは変わってくるので、そういう時はどうするのでしょうか? 例えば、優生保護法で、不妊手術が50~60年前は平気で行われてきたのに、今ではとんでもないということになっています。そういう価値観の移り変わりとかもあるので、「50年前のAIはこう決めたけど、今は違うのでは」という問題もどんどん出てくるでしょう。そういう時には、誰がどういう風に判断するのでしょうか?

松本:はい、それに対する答えはあります。まずAIは人間に奉仕するための存在ですから、常に人間の意見を聞くことが義務付けられます。人間の意識がもし変わってきたら、それを反映しなければ、AI設計の基本理念に違反してしまうことになります。次に「多数決なら諦めがつくだろうけど、AIの結論と言われたら、それで割り切れますか?」というご質問に対しては、僕は逆だと思うんですよ。多数決だと、相手は「自分とは違う考えを持った人間」じゃないですか?「あいつらはちょっと多数派だと思って、やりたい放題をしている。許せん!」となりませんか? 相手が生身の人間だと敵愾心が出てきて、諦めはつき難いが、相手が純粋理性のAIなら「ま、仕方ないか」ということになりませんか? 人間同士の争いの方が、はるかに大変なのではないかと思いますよ。

いつだったか、3つのメガバンクが合併したとき、それぞれのコンピューターシステムが違っていて、統一できませんでした。みんな面子がありますから、他行のシステムに合わせろと言われたら猛烈に抵抗します。それで、結局統合はできなかったのです。三つのシステムがバラバラに動いているという、物凄く不合理なシステムをずっと引っ張って行くしかなかったのです。僕は今でも思っているのですが、あの時、何でサイコロを振れなかったのでしょうか? あの時に、誰かが「しょうがない、サイコロで決めよう」と言っていたら、もっとあの銀行の業績は上がったと思います。私は「意見が別れた時には多数決で決める」というのは、公平で一番良いやり方の様に見えて、実はあまり良くないと思っています。時と場合にもよりますが、私は、一番良いのは、AIが多数決の結果も勘案しつつ純粋に理性的に判断することであり、AIにも自信がなければ、サイコロを振るしかないと思っています。それが一番恨みつらみが残らない方法だと思います。

中島:私はちょっとAIに関して思っていたのは、ちょっと近い話ですけど、例えば自分が家を買おうとしてローンを申し込んだときに、今だと断られたときには色々理由が言われたりするんですけれど、多分言わなくなると思います。というのはAIを使い始めるので。AIを使われると、実は人間にとってブラックボックスなので、例えばどういう理由で断ったか誰も知らない状況が起こって、ローンが断られたからと文句を言うと、「いやAIで決めましたから」って答えられてそこで終わる時代が多分僕は5年10年くらいで来ると思うんです。で、実はそこに本当は黒人だから断ったとか、女性だから断ったっていう漠然としたデータの中にあるんだけど、あえてブラックボックス化してるから見えないみたいなことは起こるかなぁと。まぁちょっと気持ち悪いけど。

松本:ブラックボックスにするのは良く有りません。「AIはブラックボックス化する」ということはよく言われていますが、私にはその根拠が理解出来ません。実は、ブラックボックス化したい人が、AIを悪者にして言い繕っているのではありませんか? 人間に奉仕するために人間の手によって作られたAIは、当然あらゆる問題に対して「説明責任」を持つべきです。

中島:まぁでもそれを言ったら今のディープラーニングはブラックボックス化しちゃうんです。だからそれをホワイトボックス化するものを誰かがちゃんと作らなきゃいけない。

松本:ディープラーニングは、第一層、第二層、第三層とどんどん多層化していき、複雑さが二乗、三乗になっていきますから、その論理展開の経過についていちいち説明なんかしていられないということだと思いますが、少なくともラーニングメカニズムの原理原則のところについては説明責任をもつべきです。

中島:そうですね。でもローンを断って、何故かというと調べて第三層に実は「この人は黒人だから断った」っていうことを発見した技術者がすごいジレンマにならないかってことは起こるかもしれない

松本:それなら、せめて「質問に対しては正直に答えなければならない」という原則だけは確立しておけばよいのではありませんか? そうしたら、誰かに「私は断られたけど、それは私が黒人だからじゃないですか?」「そのプログラムの中に黒人というファクターが入っていますか、入っていませんか?」という質問をし、イエスかノーかで答えることを迫られれば、正直に答えざるを得ないと思います。だから、インチキのブラックボックス化は不可能だと思うんです。

中島:まぁ難しい問題だと思うんですけれども、あとオンラインで一つ質問が来ていて、

質問者:高価なメモリ・CPUを持った高度なAIを開発するには、資金力のあるGoogleやMicrosoftや国や軍でないと開発できないですか? それに対抗して高性能な善のAIを作るにはどのように組織化して資金を集めて開発を進めれば良いですか?

松本:今は幸いなことに、特にGoogleとMicrosoftが一生懸命プラットホームを作ってくれています。至れり尽くせりで、誰でもこうやったらアプリが開発出来ますよと教えてくれています。だから、アプリ開発だけなら、色々な人がそういうものを利用して割と簡単に出来ると思っています。マーケットを絞り込めば、すぐにお金になるアプリも見つかるでしょう。だから、AI の開発は、必ずしも巨大資本がないと手も足も出ないというものではないと思っています。

中島:じゃあそういうところのプラットホームを使えばいいと。

松本:はい、そして、使えるプラットホームが、少なくとも1社だけじゃなくてよかったと思いますよ。もうGoogleとMicrosoftの一騎討ちみたいになっていますけど、両方ともこれでもかこれでもかとサービスを充実させてくれています。一方中国は、絶対に独自のプラットホームで行くでしょう。アメリカはもう中国企業には基本技術は出さないと思います。あと、ロシアなりイスラエルもあるのかもしりませんけど、当面はいくつかのプラットホームが競い合って、どこかの時点で緩やかに統合される。そういう流れになる様な気がします。それぞれのプラットホームの上では、多くのアプリが開発されていて、お互い同士の連携もどんどん進められて行く。そして、さして資金力のない人でも、ちょっと面白いアイデアがあれば、いつでもこじんまりとしたサービスが始められる。これから十年ぐらいは、だいたいそんな展開になるのではないでしょうか?

中島:少なくとも独占ではないと。

松本:はい、少なくとも当面は独占にはならないと思います。

中島:ありがとうございます。そろそろ次に移りますか。

中島・松本:ありがとうございました。

AIが神になる日――シンギュラリティーが人類を救う


この記事が気に入ったらサポートをしてみませんか?