思考メモ:なぜ日本ではAIのexistential riskに挑もうと思う研究者が現れにくいのか(逆に海外ではなぜ現れるのか)
近未来のAIが人間に壊滅的な被害をもたらす、いわゆるExistential riskへの技術的な対策を考える団体が世界には数十存在し、研究者も数百人いると言われている。一方、そうした研究者が日本にはほとんど見当たらない。なぜか? これについて思うところを書いてみる。(寝る前の雑なメモ。Tweetで済ませようとしたものが少し長くなったので、ここに投稿する。)
しかし、「なぜ日本にいないのか」というのは自分の実感からすると問いが逆だ。不思議なのは、なぜ海外(おもに北米と英国)では、AIによるexistential riskに取り組む「研究者」がそもそもいるのだろう。私のイメージするエンジニアは「存在しないものを作りたい」とか「今ある危険を減らしたい」と思っても、「今は存在しない技術がもたらす危険を減らしたい」とはふつうは考えないように思える。
「どういう仕組みかわからないけれど、きっと出てくるAGIに対処する研究をしよう」というモチベーションは、科学者・エンジニアとしての心性だけからは出てこないものなのではないか。したがって、この分野に研究者を誘因する、何かプラスアルファの要素があるはずだ――と仮説を立ててみる。
それは何だろうか。いくつかの可能性が考えられる。わかりやすいのは、「心底、AIによる破壊的なリスクを信じていて、恐れている」という可能性。科学者や技術者である以前に、一市民としてそのAGIによる存亡リスクを恐れ、義務感に駆られて、立ち向かおうとしているのかもしれない。実際にこういう人はいるだろう(私はどちらかというと「気候変動」についてこのような感覚をうっすら持っていて、修士の研究室選びのときに気候変動対策に資する研究テーマを選ぼうか迷ったことがある)。
しかしこれだけではない気がする。雑な印象論かもしれないが、「技術の指数関数的な進歩というアイディア、それにより世界が終わる一点に向かってすべてが加速していくイメージに惹きつけられる感覚」がどこかにあるのではないだろうか。もちろん、「AI safety」を考えている以上、それを止めたいというスタンスなのだが、この加速していくイメージの魅力が、問題意識への入り口になっているようにも見受けられる。AGIの危険を声高に語る人々と、AI技術を最も加速させている人々にオーバーラップが見られるのも、根は同じところからきているからかもしれない。
英米圏には、どこまでもAIの可能性に突き進む人々、来るAGIのリスクに警鐘を鳴らす一群の人々とともに、そうしたAGI(あるいは人工超知能)というイメージや語り方そのものを、現実のAIがもたらす問題を覆い隠すものとして強く批判する人々もまた存在する。昨年来、この3者が三つ巴状態で言論空間を作っているイメージを私は持っている。
日本には現状、AGIを追い求める人々も、AGIの壊滅的リスクを唱える人も、AGI語りの落とし穴を声高に言い立てる人も、私が見る限り少ない。もっと穏当な立場をとる人が多い。そのため、従来のエンジニアリングの発想を超えて新しい分野をつくるようなモーメンタムは起こりにくいのだろう。
プラグマティックには、現実に未来のAIがもたらすリスクが壊滅的なものであるならば、どういう思想や傾向の人であろうと、そのリスクを抑え込む研究が充実するのは望ましいことだ。しかし、そこに自然と誘引される理由が、実際のリスク認知以外の部分にあるのだとしたら、戦略上考慮する必要がある。
穏当なのは決して悪いことではない。AGIの到来有無にかかわらずAIは世界に混乱をもたらすのは間違いない。3極にウィングを広げた言論空間のなかで、自分たちなりに「本質」をとらえる議論と、効果的な一撃を生み出す準備を、静かに積み上げていくことはできないものだろうか。
この記事が気に入ったらサポートをしてみませんか?