見出し画像

人間は家畜になる?ロボットも失業する?吉岡先生インタビュー中編:技術倫理とシンギュラリティ

こんにちは。経済学AI研究会 マシンエコノミクスの代表のSです。

 当サークルは「機械学習の経済学への応用法を探り、それを本団体の内外で共有し、団体外の学生にビジョンを示すことを通して立命館大学に機械学習を応用した経済学の学習と実践を行うオープンな学生のネットワークやその拠点を形成する」ことを目指しています。

 その活動の一環として現在立命館大学に在籍している先生方にインタビューをしてお話を伺い、機械学習と経済学のこれからについての構想を共に考え今後の活動の道筋を探究しています。

 今回はそのインタビューの第2回目ということで立命館大学経済学部の吉岡真史先生にインタビューを引き受けていただきました。

 今回は前編・中編・後編の3つに分けてインタビュー形式でお伝えしたいと思います。

今回は中編です。

前編はこちら

吉岡真史先生と考える経済とAI 前編|マシンエコノミクス 経済学AI研究会|note吉岡真史先生と考える経済とAI 前編|マシンエコノミクス 経済学AI研究会|note



データを扱う際の倫理

代表
「今、私たちはマシンエコノミクスという団体をやっています。もともと私自身がAI等に興味あり、これらの技術を経済学の研究に活かせたら、何か面白いことができるのではないかという発想のもとでいろいろな活動をしています。それでこれらの技術を生かす方法・方針等を探るべく、いろんな先生にインタビューしています。」
 
先生
「いやあ、いろいろ活かせると思いますよ。機械学習で何かをやろうと思ったら何が大事かっていうと、そのぶち込むデータがどれだけあるかなんですよ。少ないデータでうまいことをやるアルゴリズムとかもあるのかもしれないけども、AIって基本的にデータをたくさん打ち込んで、それで力ずくで分析するというものです。
 データが足りないと、いくらアルゴリズムが正しくったってどうしようもないので、その元のデータをどうするかというのが課題です。
 
 それを持っているのはGAFAM等の巨大IT企業で、マシンエコノミクスをやろうと思ったら政府とかそういうとこじゃなくて、そういうビッグデータのビッグテックの会社に入ってやるという方がいいのでしょうね。
 
 多分アマゾンなんかはさっき言ったような誰が何を買った等のいろんな個人属性のデータを持っていると思う。ある程度はデータの中からAI技術によってどういう属性で、見栄っ張りなのかとか慎重なのかとか、スケベなのかとかいろんなことが判別できますよね。
 
 しかし問題はデータを扱う際の倫理だと思います。
 
 一番えげつないのはケンブリッジアナリティカがやっていたような事だよね。ケンブリッジアナリティカって分かる? 2016年二のヒラリークリントン対ドナルドトランプのアメリカ大統領選挙の際にドナルドトランプがケンブリッジアナリティカという会社を雇いました。

 フェイスブックからデータを取ってきて、どういう人達がいて、どういう宣伝をすればドナルドトランプ支持者が増えるかということをビッグデータから分析したわけです。結局、それが原因で勝ったかどうかはわからないですが。
 
 その次の、AIで得られた成果を実際にどう生かすかというのは、いわゆる行動科学の世界ですよね。
 例えば赤い色を見せられると食欲が湧いて青色を見せられると食欲が減退するとかいうのがあります。
 
ラーニングの後に出てきた結果をそのどういう風に分析するか、得たインサイトをいかに現実に活かすかという点が非常に問題だと思います。人々を戦争に駆り立てるような使いかたもできれば、食欲をそそるような広告で売上を伸ばすという活かし方もあります。
 
 基本的に科学っていうのはニュートラルです。例えば同じ原子力でも水を沸騰させてタービンまわして電気を得るという使い方もできれば強烈な臨界反応で30キロ四方を焼け野原にするという使い方もできます。
 
 経済学でいえば行動経済学という分野もありますが、その成果をどう使うかについては学者それぞれの倫理観にかかっています。
 
データをたくさんぶち込んでアルゴリズムで分析して、これを実際に使うことには非常に怖い面があるのですよ。ですから出口の方が怖いですよね。」
 
代表
「ちなみにそのケンブリッジアナリティカの話ですが多分、ネットワーク分析ではないでしょうか。こうやってネットワーク構造を俯瞰して、じゃあここに適切にアプローチするには、この人がハブになっているから、この人にアプローチしてというような。」
 
先生
「そうそうそうそうそうそう。B層をターゲットにした小泉政権なんかもそうだよね。どこをどうやってナッジすれば自分の得票が増えるか、あるいは売り上げを伸ばせるかという使われ方は非常に怖いところです。
 
 私の知っているところですとある行動経済学をやっている人は製薬会社から研究費をもらってきてですね、こうすれば臓器提供が増えるというような臓器提供を促すようなナッジをする方法を研究しています。」

シンギュラリティで人間は家畜に!?


先生
「もう一つはですね。君たちはシンギュラリティとかあんまり考えてないの?」
 
代表
「そうですね。シンギュラリティを起こすようなAIは強いAIと言われているのですが、そういったものはまだまだかなと思っています。」
 
代表
「カーツワイル博士は2045年にシンギュラリティが起こると言っていますね。
 経済史というのは大雑把に言えばスキル偏向型の技術革新がなされてきました。例えば典型的に言うと。馬から自動車に切り替わった際やそろばんからエクセルの表計算になった際、自動車を運転できる、もしくはエクセルを使える等そういうスキルを持った人たちが高給をもらって、あまり機械ができないような仕事につく人たちは低賃金というような構図でした。

 ただ強いAIができてシンギュラリティが起きてマシンの能力が人間の能力を超えたらどうなるでしょう。」
 
 
副代表
「人間が作り出した機械がさらにまた新しい機械を作り出して、最終的には機械がすべての人間を淘汰するようになっていくと思います。」
 
 
先生
「そう。要するにマシンがマシンを作ってマシンを扱うようになるかもしれません。そうなると今まではマシンを扱える人が高スキル高賃金という構造であったけど、そんな人はいらないとなってしまいます。マシンがマシンを預かって、マシンがマシンを修理して、マシンがさらに新しい改良型のマシンを作り出すと言う事になったら人間がいらなくなりそうですね。」
 
 
副代表
「その時代になったら、もう人間は娯楽のほうに集中していくのでしょうか。」
 
先生
「人間が主体的に娯楽をできるかな、それともマシンが人間を娯楽の対象にするのかな?」
 
代表
「家畜のようになるかもしれませんね。」
 
先生
「そう!チンパンジーを動物園に入れたりみたいに。今だって馬はいるわけだよね。馬はいて、多分馬に乗っている人もいるんだよ。でも今の馬は100年、200年前のように運送手段としての役割は、何の役割を果たしてないよね。
 
 だから馬は今レジャー目的で存在している。でも別に馬が自分で好んでレジャーとしての役割を担っているわけではなくて、人間が馬を競馬などの娯楽の対象としている。

であるならばシンギュラリティが起きた場合、この現在の馬と人間の関係が人間とAIの間での関係で起きてしまうかもしれませんね。」
 
(一同笑う)
 
代表
「人間が旧世代の生産手段みたいな感じになってしまうかもしれないのですね。」
 
 
先生
「かつてのマルクスの労働価値説では労働が価値を生みだしていると考えていましたが、もう人間の労働もいらなくなるかも知れませんね。
 
 しかし、生産手段としての人間が機械に置き換わって行くのだけど、もっと複雑な人間労働を必要とする業務が生まれるから2045年とかにシンギュラリティが来るわけではない、もしくはもう永遠に来ないというような意見もあります。」
 
副代表
「現在のAIは特化型で、一部の分野にしか適用できないものが多いので、音声や言語等を複合的に処理できる汎用型AIができればそういった事にもなるかもしれませんね、」
 
先生
「人間の能力をはるかに超えたAIって、ディープブルーとか、あるいはAlphaGoとかゲームとかの特化型ですもんね。」
 
副代表
「今、ニューラルネットワーク、深層学習が発達してきましたけど、もっと発展するにはコンピューターとかのハードウェア自体にも変化が必要になるかもしれないですね。」
 
 
先生
「単に今人間様が考えているのは、コンピューターを量子コンピューターに変えて力ずくで能力を上げようという感じですけれども、さっき言ったように、そろばんからエクセルになったみたいなまったく違う技術変化が起こる可能性もあると思います。汎用型のAIができてくると我々は全部動物園に入って機械の方々に、愛嬌を振りまくのかね(笑)。」
 
 

ロボットも失業する?AIがナチスを礼賛?未来はどうなる!?



代表
「ただ一つ最近思ったのがありまして、ペッパー君というロボットをご存知ですか。
 実はもう彼はもういらないということで、生産中止になって、どんどん撤去されて失業しちゃいました。ですから人間ではなく、逆にロボットが失業しているというのはとても面白いなと思いました。」
 
先生
「他にもマイクロソフトのAIのTayの様にナチスを礼讃し始めて、汚い言葉を使い始めるAIもたぶん出て来るかもしれません。
 逆にそういうAIがものすごい能力を持ったら困ることも想定されますよね。」
 
 
代表
「多分、あれは多分ナチスを礼賛しているような人の発言データとかを学習させている等、学習させているデータが偏っていることが原因なので、そこは調整次第でどうにかなりそうだとは思います。」
 
 
副代表
「ネットワーク分析に関連する話ですが、今フェイクニュースとかたくさんそういったものがあるので、そういった情報の正誤や善悪を見分ける技術がまず必要になるのではないかと思います。実際に最近、大学名忘れてしまったのですけど、それを判別するアルゴリズムが完成してフェイクニュースをはじくようになったらしいです。」
 
 
先生
「それもいたちごっこでさ、AIが今度ははじかれないようなフェイクニュースを作り出すとか、このアルゴリズムでははじかれないようなフェイクニュースをうまく作りだすことをAIが考えるようになるかもしれませんね。
 
 アランチューリングのチューリングテストが元々そうだよね。チューリングテストはもともと会話をしてみて、これが機械か人間が分かんなくなったら、オッケーという話でした。

 だからそのフェイクニュースをはじく技術は逆転させれば、どうすればはじかれないようなフェイクニュースを作れるかという方向にも使えるでしょうね。
 
 私は2047年で、もうすでに90歳を超しているので多分、もうその時まで生きていないから本当に将来どうなるかっていうのはどうでもいいなと思っているんだけども。」
 
(一同笑う)

先生
「ただ、さっき言ったようにAIにせよなんにせよ力技のところがあるので元のインプットはかなり大量にないと実際には役に立たないと思う。だから大量のデータを確保して、大量のアルゴリズムにかけないといけない。

 そしていろんなことがわかったとしても、フェイクニュースをはじくと言う立派なことをするAIもあれば、はじかれないようなフェイクニュースを作るというAiもある。ここの使い方・使われ方の善悪はたぶんAIは判断しないと思います。

 それともそういうアルゴリズムでできるのかね?ポリティカルコレクトネスを実現するAIとか。」

代表
「多分、その設計者がどこに報酬を設定するかが大事だと思います。その報酬を最大化するように、多分動きやパラメータ決めているので。」

先生
「報酬と評価関数といえば経済学の人たちもよく言うのだけど、現在の日本経済にはどこを目指せばいいのかがわからないという問題もあります。

 本当に報酬が欲しいのか、年収が上がれば全部OKなのか?というところで評価関数が定まらないのです。今の日本経済って、まあそこそこいい感じじゃん。別にアメリカほどインフレも進んでないし、別に餓死者が毎年毎年とかとか出るわけじゃないし、就職氷河期も終わって、そこそこ人手不足で学生も売り手になってきてこれもいいじゃん。だから現状をどう捉え、考えるかも大切だね?

 ただAI×経済学の場合はAI技術も経済状況も5年先はもう闇の世界でどうなっているか分かんないけど、その辺のところをどう考えるかですよね。
でもAIの技術を経済学に応用するっていうのは確かに面白いよね。」

次回予告

そうか、あなた達が今後10年で最もセクシーなんですかそうですか(笑)
 吉岡先生インタビュー後編:PC上で経済実験!?シミュレーションは役立つのか


この記事が気に入ったらサポートをしてみませんか?