図1

【Exographまとめ】AIx憲法学者 山本龍彦教授との対談

AIと憲法の第一人者である慶應義塾大学の山本龍彦教授に今回のExographの問題点などをお伺いしました。
最終的に「人間の条件」やデータフェミニズムにまで議論が発展して、個人的にとても楽しかったです。

大変お忙しい中、お時間頂きありがとうございました。

山本

社会実験Exographの問題点

遠野:社会実験Exographでは、被験者に月20万円を支給する代わりに、浴室を除く自室のほとんど全てにカメラを設置し私生活動画を撮ります。そしてそれを市場調査・商品開発に役立てるための生活行動データとして企業に提供する。それらをきちんと説明した上で応募してきた方に実験を実施しているのですけど、これをビジネスとしてやっていく上で何か問題点というのはあるのでしょうか?

山本:最初にいくつか質問したいのですが、画像はどの程度加工するのでしょうか。基本的に生活実態そのものを撮影しているのだと思うのですが、企業に提供するときはどの程度マスク処理をするのでしょうか?

遠野:顔にマスク処理を行って個人を特定できないようにします。例えば表情はアイコンなどで笑っている、悲しんでいるくらいは分かるようにしようと思います。もしくは人の顔を猫の顔にするとか、ああいうので特定はできないけど、表情や感情は把握出来るようにしようとは思っています。

山本:猫が笑ったり?

遠野:そういう形で。顔や身体からは個人が特定出来ないようにしようとは思っています。

山本:まず、今回の社会実験では企業にデータは渡していないんでしたっけ?

遠野:今回は渡していないです。

山本:今後は。

遠野:渡すという形で議論を進めていきたいです。

山本:なるほど。今回の実験についても企業にデータを渡しますということを説明して、同意を取っているのですよね?

遠野:そうですね。企業のマーケティング調査などに使う予定として同意を取っています。今回は動画を保存したハードディスクをその権利丸ごとを20万円で買ったということにしてます。ハードディスクの中のビデオを丸ごと。

山本:そうすると、遠野さんの会社にはハードディスクそれ自体が渡るということですかね?

遠野:被験者からハードディスクを弊社が買いました、と。丸っとデータも買いました。それへマスク加工をして、身体が見えないようにした状態で他の企業に提供する。

山本:遠野さんの会社が買って、その遠野さんの会社から加工や処理をして他の企業に渡すという。

遠野:そうですね。なのである種、テレビ局が芸能人の動画を撮ったものを売ったり作品にしたり、そこの権利を全部買ったという認識です。

山本:なるほど。今回の利用目的は社会実験という形で、一応、利用目的は提示している。

遠野:そうですね。社会実験と、企業へのヒアリングに使うという形。

山本:あくまで調査的な目的というわけですね。

遠野:そうですね。

山本:なるほど。その社会実験で具体的に何を調査したいのか、「企業へのヒアリング」というのは具体的にどのようなものなのかをしっかり明示できていたのかがポイントになりそうですが、今回については最終的にはデータをすべて消去するということですので、実際には問題点は軽減されるのではないかと思います。ただ今後ビジネスとして実施する場合には、いろいろな課題があると思います。そこはしっかり切り分けたほうが良いですね。

遠野:今回の実験は特殊な例なので置いておきましょう。仮にこれが1000人以上の規模で、希望者へはカメラを送付して自主的にカメラを設置してもらって撮ってもらうと。その動画を月々送ってもらって20万円支払う。その動画をこちらが自動でマスク処理したものを希望する企業に見せる。というようなビジネスを行う場合に、何かしらの問題点というのはあるのでしょうか?

憲法上・人権上の観点からの問題

山本:当然同意を取るということなので、自らプライバシー権を放棄しているという建前にはなりますが、問題はあると思います。
一つは、自ら同意・承認していても、憲法上の観点から許されない可能性がある、ということです。例えば、「身体を売る」ことの法的・倫理的問題がある。最たるものが奴隷ですが、実は憲法第18条で奴隷禁止がうたわれています。奴隷に関しては、自ら奴隷になりたい、「自分を買ってください」というふうに願い出ても、その契約は憲法に違反して無効ということになります。私法上は「公序良俗」に反して無効というように処理される。その背景には「人間の尊厳(dignity)」の概念がありますね。自由主義的な自己決定や自由の考え方、つまり、他者を害しない限り自由だ、他者を害しない限りどのような自己決定も許されるのだ、という考え方は、「尊厳」という客観的な憲法価値との関係で制約を受けることがありうるということです。
今回の実験で被験者は、私生活上のあらゆる行動、排尿・排泄をするとか、食べるとか、性的な行為をするとか、そういう非常に動物的で、身体的な行動を撮影させ、金銭を得るわけで、「身体を売る」ということに近い側面があるように思います。ですので、同意があったとしても、憲法上の観点から許されるのかどうか、人間の尊厳を侵害していないか、ということを議論しなければならないのだと思います。もちろん、色々な意見が出ると思う。例えばアダルトビデオは自ら裸を見せ、性的な行為を見せ、その映像を売っているのではないか、と。他方で、それはあくまでも演技であって、プライベートな行為ではない。「芝居」を売っているのだ、という見方もできる。
以上が一つ目の論点です。

同意の有効性の問題

もう一点は、同意の有効性の問題。例えば、困窮状態に陥っているときの同意は、心からの同意と言えるのかどうか。今回の撮影で取得される情報にはセンシティブな情報も含みますから、同意は特にinformedなもので、慎重なものでなければならない。本当にお金に困っているという状況で、藁にも縋る思いで身体をさらすことに同意したとしても、それは非常に短期的な視点に立ったものですから、後々後悔するということもあり得ると思うんです。お金に困っている人に対して、困っていない人からはおよそ取れないようなデータを取る、というのは、状況の濫用と言いますか、ある種の「搾取」のようにも思えます。ですので、同意がなされる経済的な状況や環境にも注意が必要だと思います。

特に未成年や若い世代では、「若気の至りで、つい」、ということもあると思います。ややパターナリスティックかもしれませんが、やはり配慮は必要です。アダルトビデオに出演した人が、後々になってその消去を請求するというケースもあるわけですよね。そういうことを今回の撮影データに対しても許すかどうか。そういうきめ細かい議論も必要になってきます。例えば、遠野さんの会社に対して消去権や利用停止権を行使するというのは比較的簡単だけど、既にあらゆる会社にデータが渡っていれば、それらを全部消去するのは現実的に厳しい。どこかの会社に寝食に関するデータが残っていて、それが後々その人の人生に不利益を与えるということもあり得る。目ざまし時計をかけてもなかなか起きない奴だ、という情報が信用スコアに影響してお金を借りられなくなるとか、排便・排尿の傾向から健康リスクがプロファイリングされて保険料に影響が出るといったことがないわけではない。
このように考えると、最初の特定の状況における同意というのがどこまで有効なのか、というのは、真剣に考えなければならない問題のように思います。

遠野:ありがとうございます。同意の決定環境の問題を回避するためにはどのような対策がありうるのでしょうか。年齢制限、年収制限を設けるとかですかね。今回のExographに限らず、例えばIoTデバイスの設置されたスマートホームやtiktokやInstagram、Facebookも少なからず同様な課題はあると思うのですが、同意の有効性を担保する方法ってどんなものがありますかね。単なる同意書でいいのかという。例えばタバコですとグロテスクな絵をパッケージに載せることでリスクを分かりやすく表示してます。ああいう形は一つありうるんですかね。

山本:被験者がリスクを直感的に理解できるようにする、というのは一つの手ですね。現在同意を取るために使われているプライバシー・ポリシーは、利用者に本当にわからせるために書かれているわけではない。企業の免責のために書かれています。まずは、こうした企業意識を改めることが重要です。
ただ、それだけで問題が解決するわけではありません。先ほども話しましたが、最初に単発で行う同意がどこまで有効で意味があるのかはきちんと議論されなければならない。取得された生データは、後にAIを使ってプロファイリングされたり、色んな処理をされたりすることで、次々と新しいデータに化けていくわけですよね。このように二次的、三次的に収集されるデータについては本人も予測がたたないわけで、最初の同意でどこまでの処理を正当化できるか疑わしいわけです。
こう考えると、被験者との接点を継続的に維持して、その後の情報の処理や提供先などについて被験者自身が理解できるような経時的なユーザーインターフェース(UX)を作っていくことが重要だと思います。自分の情報のゆくえを確認したり管理したりするプライバシー・センターのようなものですね。遠野さんの会社では、例えば、提供先の企業や提供目的を記録し、かつそれらを被験者に随時通知して、被験者に追跡しやすくするアーキテクチャを作ることが重要です。
こうしたUXを作らない場合は、本人特定性を抑えた形に加工することが決定的に重要になると思います。もちろん、顔を猫に変えて、表情などの部分をマスキングしてしまうと、血流や脈拍といった情報が取れなくなる可能性が高いので、情報としての有用性は落ちます。情報の有用性を維持して、クオリティデータとして回すならば、先ほど述べたようなUXを作ることが重要です。どちらをとるか、ですね。

データの利活用に関する問題

遠野:なるほど、ありがとうございます。
続いてなんですけど、データの活用促進というのは、社会的な便益もすごく大きいと思っています。Exographのようなサービスを行っていくときに、データ漏洩などでその人の生活に支障が出る以外に、派生しうる社会的な問題などは考えられたりするんですかね?

山本:問題点。それはさっきのところに話が戻りますが、やっぱり被験者になる人たちが特定の層に偏ってしまう可能性がある。収入の低い方とか、若者とか、男性とか。そうすると、データセットに偏りが出てくるので、これを学習したAIの判断が歪んでくる可能性があります。ですので、現在のような金銭をご褒美にするようなデータ収集ですと、公共のためにこれを利用することが難しくなると思います。

遠野:正しい意思決定が出来ないとか?

山本:予測モデルを仮に作ったとしても、それを例えば高齢者に適用できるのか。ある一定の収入を越えた人に適用できるか。サンプルが偏っていると難しいかもしれない。そうすると、プライバシーの問題もさることながら、データの有効性という点でも、まだ課題があるのかなと思います。

遠野:他にもバーチャルスラムのような問題も、これから考えるべきところだったりしますか。

山本:どうなんでしょう。先にも触れましたが、Exographのデータを例えば信用スコアの算定に使えるということになれば問題が出てきそうですね。

データ上、家の中での何気ない行動が、社会的信用力と相関するということが分かってきたら、それをスコアリングにも使うということも理論上あり得る。ディープラーニングが使われれば、どのような行動が影響したのかよくわからないのだけれど、家の中での何らかの行動や表情の動きによってスコアが下がりまくって、お金が借りられなくなったり就職できなくなったりということは可能性としてゼロではない。そんなことを考えると、家の中でも緊張していないといけませんよね。それは結構しんどい。ありのままの私でいられない?
Exographで得られた情報をどういう目的で使っていくのかがとにかく重要です。認知症予防のアルゴリズムを作るためなのか、単なるマーケティングのためなのか、それとも信用スコアを算出するためなのか。。スコアリングなど、人格的評価のために使われないということがとても重要です。

遠野:例えば何時に寝て、起きて、どんな食生活か、家で実はだらだらしてポテチとコーラ食ってるのかも見えるようになったとき、保険料の最適化などにも波及する話だと思っています。就活でいうと内定辞退率みたいな話もあったと思うんですけど、そういう生活している人は仕事のパフォーマンスが低いと判断されバーチャルスラムになっていくという可能性も考えた方がよいかもですね。

山本:そういうことです。
生活リズムによってスコアが下がるということになると、本来社会的評価の対象になるべきではない私生活の部分が評価の対象になっていく。完全にプライベートな振る舞いによっていろいろな人生の機会が失われていくこともあり得ますよね。しかも、生理的な行動というのは、本人がコントロールして抑えられるものではない。微妙な表情の動きや声のトーンが社会的な評価に結びついてしまう。
ハイアービューという動画面接のAIスタートアップがあるんですが、昨年の11月に、アメリカの人権団体が、アメリカの政府機関であるFTC(連邦取引委員会)にプライバシー侵害などの観点から調査を要請したんです。ハイアービューは、表情解析と声の抑揚などで採用可能性についてスコアリングを行うのですが、例えば英語が母国語ではない人のスコアが低くついてしまったり、多数派である健常者とは身体の動きが異なる障がい者に低い採用スコアがついてしまったりすると。それが差別につながるのではないかということです。それと近い問題は、撮影データを使ったプロファイリングなどでも出てくるかもしれません。

ユーザーフレンドリーな同意の取り方について

遠野:ありがとうございます。先ほど利用目的を事前に提示、また経時的にユーザーとの関係性を築いていくという話がありましたが、全ての細かいデータ、使っているサービス全部に説明を受けて、同意を得て、利用をするというのも、なかなかユーザーにとっても煩雑かなと感じます。そこを現実的にどう落とし込んでいくか、方法はあるのでしょうか?

山本:まずはわかりやすい説明をするように努力する、ということだと思います。たばこの警告表示ではないけど、リスクを直感的に感じられるような説明などが考えられる。先ほどもお話ししましたが、会社が作っているプライバシー・ポリシーの多くは、「ほら、ここにちゃんと書いてありましたよね」と会社が後から言うための免責の文書でしかないので、全然ユーザーフレンドリーではない。ですから、ユーザーが理解するための文書としてまったく機能していません。企業としては、まずはデータを取りたいから、説明を分かりやすくするインセンティブがないわけです。

遠野:むしろ読まれないほうがいいくらいですよね。

山本:そのとおりです。むしろ分かりにくくするインセンティブが働く。そこはやっぱり変えていく必要があると思います。また、説明を多層化するべきだとも思います。詳しく知りたいという人、おおよそのことが知りたいという人など、色々な人がいますから、そのニーズに合わせた説明を表示できるUXが必要です。例えば、まずは最低限のことが分かりやすく書いてある文書がある。一つクリックすると、もう少し詳しい内容の文書が出てくる。更にクリックすると、専門家が読んで専門的にチェックできるぐらい詳しい文書が出てくる。いくつか説明の段階を分けておく必要があると思うんです。今は一まとめになっているのですが、それはどう考えても無理があるだろうと。
まずは、このように徹底的にUXを工夫してみる。その際にはデザイナーとの協働も必要です。そのうえで、情報信託のように、心から信頼できるような会社に同意を代行してもらう、ということも考慮してよい。

遠野:なるほど。ちなみに、ちょっと脱線するかもしれないですけど、情報銀行だとか、情報信託、信頼できるところに任せてそこによしなにしてもらうという時に、例えば、GoogleとかAmazonも銀行業に乗り出そうとしていますけど、彼らがそのままデータ信託事業やデータバンクを正式にやると宣言すると、何も変わっていないけど、もう良いかなってなりそうな気もして。ある種既にそういいう感覚でGoogleのサービス使ってる人多そうですし、Googleだったらもういいかなって。それに関して、例えば国がやるのか、企業がやるのか。国によっても政府が信頼できない国もあるでしょうし、データの扱いについて何を持って正しいとするかって、どういう議論が今行われているとかご存知だったりしますか?特になければなくて良いのですけど。

山本:政府ということになると、これは中国のような状況になりますね。政府が一元的に管理しようとする。日本の場合、そこは狙っていないと思います。ヨーロッパもそうですけど、「共同規制」という形が検討されています。共同規制というのは、自主規制でも政府規制でもなく、その中間的な規制モデルです。例えば、情報銀行も、現在のところ法律でガチっと規制されているわけではありません。日本IT連盟という一般社団法人が認定を出すわけです。けれども、政府も認定の指針作成には関与している。民間の活力をそがないような形で政府が横から水平的に規律するという共同規制の形ですが、良い意味でいうと協働的、悪く言えば折衷的な規律モデルだと思います。
重要になるのは、データポータビリティ権と独占禁止法ですね。ある程度民間の側に任せておいて、情報銀行の多様性を確保しておけば、利用者は信頼できるところを自分なりに選べる。この情報銀行は信用できないと思ったら、データポータビリティ権を行使して、別の情報銀行に移れる。ポイントをいっぱい還元するけどデータをたくさん使いますよ、という情報銀行もあれば、ポイントは出さないし手数料も取るけど、データを抑制的に利用します、という情報銀行があってもよい。利用者は自分の価値観や状況によって選べる。こうした仕組みが担保されていれば、政府が一元的に管理することも、強い政府規制をかけることも必要ないと思います。競争原理が働くからです。

遠野:なるほど、ありがとうございます。果たしてどんな運用が最適かについては、本当に各国、文化と経済的なところの落としどころをつけようとまさに今議論してるんだろうなと思いますよね。

Exographとプロテスタンティズムの倫理

遠野:分かりました。ありがとうございました。
最後に今回の取り組みとして、僕が面白いなと思った話を雑談がてら少ししても良いですか?(笑) 
一つ目に僕が面白いなと思ったのは、対人関係が苦手で会社で働くのが苦手だったり、就職できずに引きこもっている人が、Exographの仕組みであればプライバシーの提供で社会に参画している感覚が得られて自己を肯定でき生きる希望になる、という応募者の意見がいくつか見られた点です。マックス・ヴェーバーの「プロテスタンティズムの倫理と資本主義の精神」でも、労働を通して自分は神に認められているという自己確信を得ている、むしろお金を稼いだり暮らしを豊かにするというよりは自己確信を得るために労働に打ち込んでいる倫理観が描かれてます。現代日本でも、本来は働けなければ20代から生活保護を受給し働かずに生きてても誰に咎められる筋合いはないけれど、労働をして社会参画していないと何となく負い目を感じたり、サービス残業やブラック企業のように単純に自己の生活を豊かにするのが目的の労働というよりは、使命感や強い倫理観で労働をしている、プロテスタンティズムの倫理と似た状況を感じてます。
そういう時に、手軽に家の中にいても出来て社会的にも意義の大きな「生活行動データ」の提供という労働は、そのような何かしら意義のある社会参画や仕事をしたいが出来ていない人への救いになる可能性はあるのかなと。

Exographと現代の労働観のどちらが臓器売買的か

また二つ目に、別の見方として今回Exographが臓器売買に近いのではという意見も頂いたんですが、それについても考えると面白かったです。
AI・ロボットが人間のやっている労働を代替した世界において、人間にしか出来ない社会貢献の一つは、どんな人がどんな食生活で病気になったか、嬉しく感じたのか悲しく感じたのかといったデータを提供することだと思っています。そしてその価値提供はその人から何かしら時間を奪ったりもしません。
そんな未来の世界において今の労働観、つまり時給1500円のような時間の売買は逆説的にむしろ臓器売買のように非人道的な働き方と言われるかもしれない。なぜなら命って本質的には髪の毛でも、血液でも、臓器でもなくて、寿命ですよね。その寿命すなわち時間を1時間数百円~数千円で売買している。20歳~60歳の40年で一日8時間労働をすると生涯で13年間ほどを労働に費やすわけですが、13年間を生涯賃金2~3億円に換金している訳です。21世紀前半では今の時給換算の労働観が正しくて、Exographのようデータ提供の労働観は臓器売買のような非人道的な労働と考えられてるようですが、ひょっとしたら22世紀にはむしろ現代の労働観の方が野蛮な臓器売買と似たものと言われて、Exographのような仕組みが人間の尊厳を守った働き方と言われているかもしれない。
お金のない人がお金欲しさに嫌々やっているという話がExographへの批判となるのであれば、それはそのまま既存の労働に対しても言えそうな気はします。そしてデータ提供よりも命の切り売りを行う既存の労働観の方が倫理的に問題ある気もしてます。
そこらへんどう思いますか?

Exographと「人間の条件」

山本:刺激的な議論だと思います。
データ社会で「労働」のあり方が変わってくるという議論は非常に興味深いです。労働というと、政治哲学者のハンナ・アーレントが『人間の条件』の中で人間の能力を「Labor(労働)」,「Work(仕事)」,「Action(政治活動)」の3つに分けていたことを思い出します。彼女の議論では、Laborというのは、人間が自らの生存を維持するための動物的・本能的な能力で、最も格が低いとされている。

遠野:生活のためのもの。

山本:これに対してworkは何かを「作る」という文化的な能力で、自己実現ともかかわる。Laborよりも高尚な能力として位置付けられています。さらに政治活動を意味するActionは徳の高い能力で、それこそが人間の条件だ、というのが共和主義者アーレントの哲学でした。
この議論で言うと、Exographの領域は動物的なlabor領域ですよね。飲み食いしたり、生殖行為をしたり、まさに動物としての行動を切り売りする。アーレントの考えからすると、それは文化的なworkではないし、もちろん政治的な活動でもないということになりそうです。
ただ、ここで2つのことを考えなければならない。1つは、現代社会でworkと考えられてものの多くは、実はlaborなのではないかということです。自分ではworkだと考えていても、「社畜」という言葉があるように、実は生命を維持するための動物的な行為なのかもしれない。
もう1つは、遠野さんがおっしゃるように、これからのAI社会では、laborを行うことが、公共に寄与するactionとしての意味をもつかもしれないということです。ネットワーク化やデータ流通が加速して、今後ますます公私の境界が融解してくると思いますが、それにつれて、今までの労働観や近代的な価値序列が変容を迫られているのかもしれませんね。
いずれにせよ、やってみないと分からないです。Exographに参加して一瞬社会貢献した気になるけど、それを継続し続けた時に本人がどういう感覚になるのか。数ヶ月経ってみて最初の頃と同じ感情が続いているのか、それともやっぱり、AIにデータを供給するための単なるリソース、道具という感覚をもつのか。映画『マトリックス』では、人間がカプセルに閉じ込められ、AIのための単なるエネルギー源としてただ存在するわけですが、Exographの被験者も、AIが成長するためのデータ供給源として「客体化」・「手段化」するという側面がありますねよ。いずれにせよ、長期的にやってみないと分からない。

遠野:価値観ですね。一人一人違っていいし、既存の労働観が良い人もいれば、Exographが良い人もいていいと思います。実はやる対象は重要ではなく、何にしたって本人がやりがいを見出せばworkに昇華する気がします。Exographも人によっては奴隷的な感覚でlaborなんですけど、例えば性的マイノリティとか身体障害者の方が、自分と同じ境遇の人の生活を向上するために、ぜひ自分のデータを収集して活用してほしいという応募者の方もいました。きっとその方々はいわゆるやりがいを感じて、社会に貢献できると自身の中で感じていてlaborからworkやactionに昇華しているんだろうなと。逆に上場企業で働いている人のworkも、それにやりがいを見出せない人にとってはlaborとして奴隷的に利用されていると感じて苦しく感じているのかもしれない。

Exographとフェミニズム

山本:そうですね。Exographによって、今まで可視化されなかった部分に光が当たるということはあると思います。これはおそらくフェミニズムの発想に近いですよね。リベラリズムというのは、元々公私二元論を前提としていて、私的な空間と公的な空間を切り分けるわけです。私的な空間はプライバシーとして目隠ししちゃう。でも実はDVや児童虐待とか、人間の邪悪なところは私的空間の中で起きていた。公私二元論で、公は公、私は私というのは、男性という特定の性・ジェンダーの主張でしかなくて、私的な領域では弱者がすごく虐げられていたわけです。そこに問題を提起したのが、フェミニズムですよね。そういう意味で、今のマイノリティも、臭いものに蓋というわけでありませんが、私的空間の中に押し込められてきたところがある。そこに光が当たることによって、真に平等な社会というのが実現していくということはあり得ますね。家の中での虐待も減るかもしれない。すべてが透明化しますからね。

遠野:そうですね。

山本:ただ、その反動がどうなるかということです。安息地としての私的空間を長期的に撮影し続けたとき、人間はいったいどう反応するのか。これを確かめるために、限定的な条件の下でこういう実験を行うことには、社会的な意義はあると思っています。

遠野:ありがとうございました。実は1/31~2/5に表参道ヒルズでアート展を行うんですが、実は展示会のテーマは22世紀の臓器売買として考えてます。Exographを叩き台として、むしろ今の時代の生き方を振り返る作品を展示し、データ経済とずらした話をする予定です。自分の身体は政府の所有物でもないのに、なぜ売買が禁止され扱いを制限されるんだろう、とかそういう。

山本:哲学・倫理学の永遠のテーマですよね。社会学の立岩真也さんの自己所有論批判も、まさにそうしたテーマと関連しています。今回の社会実験は、憲法の自己決定権の議論とも絡んでいて、とても重要な問題を提起していると思います。例えば、売春の是非の議論とも絡んでくる。フェミニズムの一部の方々は、身体を売るということが女性の権利でもあるとも主張していますよね。Exographも、いままで抑圧されてきた社会的弱者が、身体の自己決定をすることで、従来の自由主義的な公私区分論に異議を申し立てるという側面がある。その意味で、「データ・フェミニズム」とでも呼ぶべき潮流が生まれているのかもしれませんね。

遠野:データ・フェミニズム(笑)
ありがとうございます、社会的な側面も議論できて楽しかったです。
非常に面白い示唆が得られた実験ではあるんですが、一月末の結果発表と展示を終えた後はこの社会実験は一度終わらせる予定です。

山本:そうなんですか。実験としてはもう少し継続することに意味がある気もしますが・・・。

遠野:ありがとうございます。ちょっと検討します。

この記事が気に入ったらサポートをしてみませんか?