国民民主党 第1回憲法調査会「AIと憲法」2

山本龍彦先生の講義の後半部(AIと憲法)を文字起こししました。敬称略。

(山本)
デジタル化によって我々の生活を豊かにしていこうというデジタルトランスフォーメーション、今いろんなところで言われている言葉だと思います。
これ非常に広い意味なのでここで厳密に定義することは避けますけれども、19行目にあるマイナンバー制ですね、これの拡充あるいはそのスマートシティといったようなことは、おそらく個人とその団体あるいはコミュニティ・共同体のあり方を根本的に変える可能性があるのではないかというふうに思っています。
さらにケイトクロニックというですね、アメリカの情報法の研究者と言っていいのかどうかあれですけれども、ケイトクロニックという若手の女性の研究者ですけれども、法学者ですけれども、彼女がharvard law reviewというですね、大学の企業に書いたニューガバナーズという論文が非常に影響力が今強くなってますけれども、彼女はプラットフォームですね、特にGAFAのようなプラットフォームをニューガバナーズであると、新たな統治者であるというふうに位置づけているわけであります。
確かにここにある通り、データ的な優位性つまり国家よりも多くの我々に関するデータを持っているという点で、データ的な優位性によって、国家といわば対抗しうるような新たな統治者に今なってきているのではないか。確かに私も今日は、朝某プラットフォームのニュースポータルを見てニュースをですね、仕込んでくるということになるわけで、生活の朝の始まりから寝るときまで、ある意味プラットフォームのお世話になっているとか、その基盤の上で我々は生活している、というふうにも言えるわけであります。すべての道はプラットフォームから通じるということを書きましたけれども、ビジネスをするにしてもプラットフォームに頼らざるを得ないという部分ももちろんあるわけであります。もちろんプラットフォームは両義的な存在で、我々の生活も本当に豊かになると、してくれると、ポジティブな側面も確かに非常に大きくあるわけですけれども、統治者としての権力的な要素もなくはないわけであります。こういうプラットフォームの台頭ということも、やはり我々の自由とか、あるいは安全とかといったようなことに、大きな影響を与えるように思います。
そうすると、25行目にありますようにDXというのは、結局我々の政治社会というものをかなり根本的に変えるものなのではないかというふうに思うわけであります。個人の自由やデモクラシーに直結するのが実はDXなのではないか。そうするとそれはまさに主権者国民がどういう政治社会を作っていきたいのかに関わる憲法事項なのではないかという風に私自身は思っています。
基本的な問題意識ということ書いてありますけども、結局はデータやAIを使って、これ使うのは分かったと、使う私も使うことは大賛成なんですけれども、使うのはいいと、でもそれを使ってどのような統治モデル・政治社会を構成決定したいのかというのは、まさにその主権者国民が本来的に考えていかなければいけない問題なのではないか。
そうすると現在の今の時期というのは、これはややオーバーに言うと実は憲法の制憲期ですね、新たな憲法を作る制憲期に我々はいるのではないか。そういうふうな印象すら持っているわけであります。

次にDXは適切に進めるべきというふうに書きましたけど、私自身はこれはDXは進めるべきという立場であります。例えば日本の場合にはですね、戸籍という制度がある程度形を変えつつも、実は残っているわけですね。この戸籍という制度は世帯単位というものが、ある意味残滓として残っているわけですけれども、こういう世帯主義的な発想というのが行政の諸々、いろんなところにですね、及んでいるという風に私自身は思っています。
いわゆる特別定額給付金の振込については、これちょっと給付というのはちょっと厳密には誤りで、「給付金の世帯主への振り込み」ということが、おそらく正しいのかなと思いますが、このまさに特別給付金というのも、世帯主に振り込まれるという世帯主義がですね、手続き上残っていた部分がある。これやっぱり世帯、かつての封建的な家族集団とそして個人との関係で言うと、なおこの集団が優位に立っているようなですね、つまり個人がまさにその家族集団の中に埋没してしまうような状況がなお残っているようにも思われるわけであります。
これは企業と個人との関係でもそうで、これ日本的な特殊性ということでその良さを強調する部分もあるわけですけれども、しかし個人というのが企業という組織に諸々の自由とかというものを拘束される部分があったというふうに思います。
さらにわれわれ人間というのも弱い存在ですから、やっぱり常に偏見を持ってたりですね、その偏見に基づいてあるものを排除しようとするというバイアスがですね、語られてしまう。非常に弱き存在だと。これは正面から認めざるを得ないんだろうというふうに思います。そうすると就職活動とか諸々のところでそういった偏見によってこの人は採らないでおこうということになってしまったりということがある。

それではこう、DXというのは、今お話した例えば世帯主義から個人主義ですね、真の意味での個人というものを中心とした、行政というものを可能にする可能性があるということ、あるいはその今のリモートワークとかですねジョブ型といわれるような、これにもいろいろな問題がありますけれども、集団と会社と個人との関係も非常にラディカルに変える、そういうポテンシャルを持っている。
さらにこの人間の偏見というものを反省的に見つめる材料にもなる。つまりそのAIというものをですね、色んなデータを使って人を多角的に評価することによって、今まで排除されてきたものをインクルードしていく、包摂するというインクルージョンにも資する。
そういう意味でやはりDXというのは、憲法の基本的な原理・価値というものを実現する重要な推進力になるというふうにも思っているところであります。
5ページにありますように、また個人の移動性ですね、今はアドレスホッピングなんていうふうに言われているように、今年は例えばこの半年は都会に住みたいけれどもこの半年はちょっと田舎でのんびり暮らしたいなぁ、住所をこう変えていくということですね。この移動性というのもこれは憲法22条には居住移転の自由、まあ移動の自由が保障されていながらも、従来なかなかこの移動というのは事実上の諸々のコストから難しかった。しかしより自分らしく生きたいと、こういう所に住んでいますみたいな、いうようなそういう移動性というものも、多くのDXによって実現していくという側面もあるように思います。
そのDXの目的というのは、やはり行政の効率性じゃないわけですね。つまり効率性というのは手段に過ぎませんから、効率化して何を達成するのかということが非常に重要だろうと思います。私自身はDXの目的はまさに個人の尊重ということですね、つまり近代の啓蒙主義者たちが思い描いてきた夢というのが、ようやくDXによって実現するという側面もあるのではないかということであります。
しかしながらこの次にありますように、この夢が叶わないということが起こりうるのではないか。つまりDX、AIデータというものによって憲法の諸価値がですね、むしろ脅かされるということもあるのではないかという風に考えております。
ここでは4点ほど挙げておきます。ひとつはプライバシーであります。プライバシーというのは、これまでおそらくですね、情報漏洩というものですね、これをどう防ぐかということとして理解されてきた側面がある。セキュリティの問題だと。あるいはその情報を収集するという段階でちゃんと同意を取りましょうみたいなですね、つまりデータの取得の段階、入口の段階と、漏れる漏れないという出口の段階をどう締めるかということだったわけですけれども、近年はこの取ったデータからですね、プロファイリングというものをかけることによって、些細なデータからその人の重要な側面、私的な側面というものを炙りだしていく、推測していくということが可能になってくる、これはプロファイリングという風に呼んでいるわけです。
古典的な事案としてこのターゲット事件というのをあげましたけれども、アメリカの小売大手のターゲット社という、大きなスーパーマーケットをイメージしていただければと思いますけれども、このスーパーマーケットが、これはAIよりもうちょっと前前の段階のものですけれども、お客さんの購買履歴から、その人が妊娠してるかどうかを予測して、妊娠していると予測された方にベビー用品のクーポン券を選択的に送っていたということなわけですね。ですから妊娠されている方というのは一定の購買傾向がある、こういうものある時期に買うという傾向がそのでビッグデータから分かっていくわけですね。そうすると逆算してこの人が妊娠してるかどうかは予測できる。こういうことになるわけですね。
これと同じ事は他の分野にも応用可能で、例えばリクナビ事件。これは昨年だったかと思いますが非常に世間を騒がせたもので、学生のいわゆる内定辞退率というのをウェブの閲覧履歴から予測をするということをやっていた。
さらにケンブリッジアナリティカ社というですね、これは2016年のアメリカの大統領選挙ではそのブレグジットの国民投票においてですね、重要な影響力を持ったというイギリスの選挙コンサルタント会社でありますけれども、このケンブリッジアナリティカ社はですね、そのsnsのデータを主に使って政治的な信条、この人はトランプを支持しているのか否か、そしてより重要だと思われるのが、フェイクニュースに対する騙されやすさですね、脆弱性というものをスコア化していたと、つまりそのだまされやすい人にフェイクニュースを選択的に送るということをやることによって投票行動を操作していたという風に言われているわけです。
これ後でお話しをする通り、最近ではいくつか暴露本が出ていて。ある本はマインドハッキングつまりその人の心をハッキングしてしまういうことをしていたんだというような本も出ているところであります。これは本当にそうなの?と思われるかもしれませんが、14行目にありますように、つい先日は先日といっても2ヶ月が経ちましたが、8月30日の日経のサイエンス面に「snsから内面見抜く」というタイトルの記事が掲載されて、これは総務省傘下の情報通信研究機構がtwitterの情報から個人のIQや性格、例えば他にも統合失調症やうつ病のような精神状態、人生の満足度などを見抜く実験に成功したというふうに報道されています。もちろんこれどこまで具体的にそういうものが予測あるいはどこまでの精度で予測されるのか、私は詳細を存じ上げませんけれども、非常に私自身は日本でもこういう技術が利用可能なというかavailableな状態になったんだということについては、一定のですね衝撃を受けたということになるわけであります。
ケンブリッジアナリティカがやっていたのはいわゆるビッグファイブという、人間の5つの5大特性、この17行目にある開放性とか誠実性・外向性・協調性・神経症傾向、BIG5を分析してその人の心理的な傾向を分析してたと言われていますけれども、それよりさらに先に進んできているような印象を私は持っています。
さらにはこの、時間の関係で詳細踏み込めませんけれども、23行目にありますように顔認証技術とか、あるいはセンシング技術が発達していくとですね、よりその人の心の中身というのが分かってくるという部分があるのではないかということですね。例えばその人は一体何を買おうとしているのかということが、遠隔的なカメラからですね、視線の動きとかあるいは脈拍と言ったような事をですね、見るとわかってくるという側面がある。そうすると我々は、これはいろんな議論があると思いますけれども、嘘がつけなくなるということですね。要するに人間というのは常にペルソナという仮面をかぶって社会活動、社会生活を送っているということになると、このAIのプロファイリングというのはこの仮面の下を見ようとする。つまり動物的なあるいは生理的なですね、その人の反射というものを見ようとするという傾向があるようにも思います。
これ私の専門の憲法学に引きつけてみますと、プライバシーをいわばbeyondしてですね、思想良心自由、つまり個人の内面の自由にも関わるようなですね、そういう技術になりつつあるようにも思います。こういったプライバシーへのリスクというものが一つあるでしょう。もう一つはこの自己決定あるいは自己決定権に対するリスクということを2番目にお話をしたいと思います。

近年アテンションエコノミーというですね、言葉が使われるようになってきております。これはそのインターネットの普及による情報過多の世界においては、人々が支払える、払えるアテンションつまり関心というのが、そのあるいはその消費時間ですね、これが情報量に対して過少になる、希少になるということでこれが価値・財産的な価値を持つという風にも考えられるようになっている。つまりこのアテンションを取引をするということが、プラットフォームの、特にビジネスモデルとして、なんて言うんでしょうね、確立しつつあるのではないかというこういう指摘があるわけです。
次のページの上を見ていただくと、グレンワイルという若き経済学者がですね、セイレーンサーバというふうに呼んでますけれども。つまりセイレーンというのは、オデュッセウスがですねギリシャ神話の中である航海、船で海を航海するときにそこの海にはセイレーンと美しい妖精がいて、その美しい歌声ですね歌声によってですね、人々がこの海から飛び込んで死んでしまう、こういう所で自分をその船のマストにくくりつけて航海したと。まあ有名な神話がありますけれども、そういう魅惑的な歌声で歌うそういう存在なのではないかというふうにグレンワイルはや皮肉的に言っていますけれども。
つまりこんなサービスあると無料ですよ、こういう魅惑的なコンテンツありますよということで滞在時間というかですね、そのページあるいはその動画を見る時間を長くする。それによってそのアテンションを得てそのアテンションを広告主に売るということですね。こういうビジネスモデルができてきているのではないか。こういう風な指摘があるわけであります。
このアテンションエコノミーとAIの相性というのは、すこぶる良いのではないか。つまりこのアテンションエコノミーにおいては、個人の精神状態がわかればその人のアテンションを惹くということはいとも簡単に行うことができるということになるわけであります。
今やその13行目12行目の辺りにあるように、これもやや比喩的に言えばということですけども、これまで広告主は個人のそのマインド・精神にいかにアクセスするかということに努力を傾けてきた、だけれども、それが簡単になっちゃうと。つまり個人の精神へのまあダイレクトのアクセス権を購入できるようになってしまういうことですね。光脱毛でしたっけ、思わず買ってしまうというのも、場合によってはそういうことと関連しているのかもしれないということにもなるわけであります。
確かにこのあたりもですね、ほんとにエビデンスベースでちゃんと実証しなきゃいけない。これは私自身は文献上研究者としてこういうことが言われているということを紹介してますけれども、ここはきっちり冷静にですね、ほんとにそういうことがあるのかは、エビデンスベースで議論していかなきゃいけないことだと、私自身は思っています。ただまぁ分からないでもないということですね、この指摘されていることは、16行目にあるようにプラットフォームは可能なかぎり多くの時間・多くのアテンションを獲得するためにデータを駆使して、その利用者が最も強く反応するものを予測している。まあこういう風にも言われているわけであります。そうすると自己決定というよりも結局決定させられてしまうと。まさにマインドハッキングじゃないですけれども、させられてしまうということがまあ起こってきているように思うということになります。
まさにこの25行目にあるマインドハッキングという問題が出てきているように思います。このシステムワン、システムツー、この後、人間の思考モードですね、この直感的で処理速度の速システムワンというですね自動システムと、この論理的・内省的で処理速度の遅いシステムツー熟慮のシステム、この二重過程論を前提とした議論も最近なされていますけれども、結局そのアテンションエコノミーの成果でこのシステムワンの思考モードを刺激して、いわば自動的な反応を引き出すと。それによってややこれは言葉が強いかもしれませんけれども、アディクションの状態を作り出しているのではないかという指摘すらあるわけですね。このあたりも十分に精査して今後議論していかなければいけませんけれども、重要な指摘だろうというふうに思います。
次のページですけれども、このシステムワンというですね、この反射的な思考モードですね、これに対するこの砲撃というのが、今起きているのではないかというふうに、5行目ですけれども、まあ指摘されている。そうすると自己決定を自分自身が決定したと自分自身思っているんだけれども、いつの間にかそれは操作されていて、ポチッとしてしまうということが起こってきて、あるいはその自分として政治的な自己決定をしたつもりだけれども、いつのまにか誰かに投票してしまうというようなことですね、いうことがまあこれは本当にしっかり実証的に検討しなければいけないことだと思いますけれども、技術的にかなりその、すごいところまで技術的に来ているということだろうというふうに思います。

次に平等のところですけど、これはよく指摘されていることですのであまり詳しく時間もありますのでご紹介できませんけれども、やはりそのAIを使うことによって、これまでのですね、その差別というものがむしろ助長されてしまうのではないか、再生産されてしまうのではないかということも指摘されています。
amazonの採用プログラムというのは、これも有名な事例ですのでご存知の方多いと思いますけれども、アマゾンが採用プログラムをAIを使って作ったと。ところがその何年間か回してみた時に女性を不当に排除しているということがわかったので止めたという、こういう事案です。
なぜそういうことが起きたかというと、アマゾンは良いエンジニアをですね、探り出すというんですか、予測するためのモデルを作ったと。ところがその時にAIがどういうデータを見ていたかと言うと、これpastdata、過去のデータなわけですけれども、過去のデータでこう優秀な奴というものを、そのデータからこうモデル化してそのモデルに当てはまる人を探すということだったわけです。ところが過去のデータというのは男性のデータが多い。つまりエンジニアという職は男性優位で男性が非常に多いとですね、結局そのデータばっかりそのAIは学習することになりますから、結局は男性優位のモデルになってしまう、だから過去のその構造的な差別とかそういったものがAIに受け継がれてしまう、いわばバイアスが承継されてしまう問題があるわけであります。
ハイアービューという、これはAIを使った動画面接ですね。学生はこのスマートフォンを立ててそこで質問に答えて、それをアップロードするというような、そういう仕組みのようですけれども、この動画面接ではハイヤービューという仕組みはですね、表情と声の抑揚を分析して採用の可能性スコアをはじき出すという、そういう仕組みだったわけです。このハイヤービューについて実は16行目にあるようにですね、アメリカのあるそのプライバシー保護団体が、これはプライバシーなりその平等に反するのではないか、こういうことで調査を要請したということが、アメリカ政府、つまりあのFTCですけれども、調査を要請したという事例がございます。

結局これは18行目ですけれども、顔・表情といったようなものから採用の合否を予測するのはやっぱり難しい上に、アルゴリズムが限られたデータで訓練されているために、白人や男性などのマジョリティーというんですかね、それぞれの伝統的な応募者を選ぶ可能性がより高くなってしまった。それに対して英語が母国語でない人、つまり声の抑揚・トーンというのが普通と違う、あるいは障害を持っていて顔の表情が普通と違うような形で動くという人が、不当に、いわば低い評価を受けてしまうのではないか、こういうふうに指摘されているわけです。
ですから、学習AIが食べる、学習するデータに適切に、何ていうんでしょう、コミュニティのメンバーが、多様なメンバーが代表されていないと、まさに代表されていないと、AIというのが差別的な判断をしてしまうということはですね、注意をしなければいけない問題だろうという風に思います。
ブラックボックス問題はですね、ちょっと時間の関係で省略をさせていただいて、最後「民主制」と「民主政」、同じ読み方になってしまいますけど、国民主権に与える影響についても簡単にお話しをして、最後まとめに入りたいというふうに思います。

超監視社会とこの7ページのですね、28行目のところは、これは言うまでもないことで、AIというのは基本的にたくさんのデータを食べれば食べるほど賢くなっていきますので、基本的にデータをを欲すると。モアデータ社会になってくるということにもなってくるわけで、これはどこまでデータの収集を許すのかということと、いわばトレードオフの関係に当たってくるというのは一つ目の指摘であります。
二つ目がこれはフィルターバブルの問題ですけれども、AIがですね、そのユーザーの政治的な信条とか心理的な傾向というものを分析して、その人が望んでいない、あるいは好まないデータをフィルタリングして、濾過していくと。その人が好むデータのみを、のみと言ったらちょっと大げさ、オーバーですけれども、重点的にその人のスマートフォンあるいはニュースポータルにフィードしていくということになると、その人は自分好みのデータ・情報に囲まれることになる。その人は当然快適なんだけれども、要は自分が知りたくもないものはカットされる、フィルタリングされるので心地よい空間なんだけれども、しかしここにあるエコーチェンバーですね。つまり自分の声が響き渡って反響してしまう。
で、ある特定の政治的な信条を持っている人は、例えば保守的な人は保守的な意見とかがその重点的に入ってくると、自分の考えが是認されたように感じる、つまり仲間がいるじゃないかということですよね。こんなにたくさん同じ考えを持っている人がいるということで、だんだんだんだん、その思想が極端化していくと。これはもちろんリベラルの側にも同じことが起きうるということにもなるわけですけれども、まさにそのフィルターバブルによって他者の見解を知る機会が減ってしまうのではないかという問題が出てくる。これが社会的・政治的な分断というものを招いているのではないかという指摘もございます。
これは、いやそうではないという指摘もあるので、このあたりもやはり実証的な検討が必要だろうと思いますけれども、後はこの政治的な無関心層の拡大ですね。これやっぱり重要だろうと思います。本当にプロファイリングを強めにかけてしまうと、少なくない人たちは、芸能とスポーツのニュースしか送られてこないという事態にもなりうる。そうするといつ解散が起きたのかもわからないということが、冗談抜きで起きうるわけですね。
トップニュースがあれば、トップニュースは基本的にプロファイリングがかかっていませんので、某ニュースポータルについては。そういう意味では、本当にみんなが知るべき情報をトップニュースでかろうじて確保されているかもしれませんが、その下に流れてくるものは基本的にプロファイリングにかかっておりますので、そういう事態、つまり政治に関心がない人はますます関心がなくなるということは起こりうる。それは、結局は先ほどの通常政治における代表民主制も危険にさらすことになるし、もっと言えば憲法改正の国民投票の時にフィルターバブルが起きれば、起きて維持されてしまうとですね、やっぱり非常にその重要な基本法の決定というところで、十分なですね、熟議が得られないということがあり得るわけであります。

次のページですけれども、他にもですね、先ほど申しましたデータとかAIを使った選挙の操作ですね、ジェリーマンダリング、ゲリマンダリング、これは要するに政治家が恣意的にその選挙区を操作したりして、その投票行動・投票結果をゆがめるということをゲリマンダリング、あるいはジェリーマンダリングと呼んだりしますけれども、これがデータとかAIを使って起こり得るのではないかという、こういう指摘であります。
最近ではこれも、最近ニュースになりましたけど、ディープフェイクというものが簡単に作れるようになってきているということも、重要な動きだろうというふうに思います。15行目にですね「嘘つきの分け前」という言葉を挙げておきましたけど、これはフェイクニュースとかですね、ディープフェイクが広く蔓延していくとですね、嘘つきが得をするということになる。こういう指摘であります。
要するに嘘か誠かわからない世界になれば、嘘つきはですね、まぁある国の大統領よくそうするんですね、対抗言論に対してそれはフェイクだという風に言えばよいと。つまりあれはフェイクだこれはフェイクだと言う、そういう議論の応酬になるので、中身が議論されないということになってくるわけであります。
これもですね、民主主義あるいは言論空間に与える影響というのは大きいのではないか、こう指摘できるように思います。あとはこのフェイク群衆ですね、ツイッターでもこれいわゆるbotによってですね、自動拡散されるということがあるわけですけれども、そのbotによってその群衆が作り出される、多数派が捏造されるということが、技術的には可能になってきているわけです。
これはさらに言えば21行目ですけど、このbotが作り出すフェイク群衆が、市場、これは言論市場ですね、思想市場における、言論空間における重要なアクターになっていくと、AIを含む技術利用の多寡、つまりどれだけこの技術を使ったかどうか、あるいはその技術を使える資金力があるかどうかということですね、これがその思想市場の勝敗を決することになってしまうのではないか。
だから中身が議論されない、どれだけフェイク群衆を多く作り出せて、何ていうんでしょうか、イマジナリーな世界を作り出せるかどうか。そういう勝負になってしまうと。私は25行目であるように、非常にカオスな状態、言論空間というのが、もう何を信じてるかわからない、しかもbotもあるし、もうその真実の基準はまさにポストトゥルースということかもしれませんけれども、カオス化してしまうと。
それによって、例えば選挙で勝ったとしても、おそらくそれは歪んだ選挙プロセスにおいて勝っただけだという、選挙で勝ったものの、レジティマシーというか正統性すら疑われてしまうという事態も起きうる。これはまさにデモクラシーの危機なのではないか、こういうふうに考えているわけであります。

ですので、まとめると結局のところ、DXあるいはAIデータの積極的な利用というのは、私自身はやるべきだと。つまり個人の尊重、集団と個人との関係でいえば、個人の真の意味の自由というものが実現する側面があるということですね。エクスクルージョンからインクルージョンといったような世界を実現する1つの重要なツール・手段になるというふうに思いますけども、他方でそれについてボーッとしているとですね、憲法価値というものの根源が根源がまさにこう、揺るがされるということになってくるように思います。

最後に、終わりにということですけれども、今私がお話しをしたのはまだ、いろんな本とかですね、論文等の指摘なわけです。もちろん2016年実際に起きたというのはあるわけで、それについてはしっかり分析をする必要があると思いますけれど、まずその憲法事実つまりその憲法レベルで本当に議論しなければいけないのかどうかということですね、今のようなお話を本当に、憲法改正論に結びつけて議論すべきかどうかの事実をやはりまず積み上げる必要があるのではないということであります。
ヒューマンライツインパクトアセスメント、36行目の一番下にあるように、この人権への影響評価というものまでは、しっかりですね、徹底的にするということが重要なのではないか。私は諸外国はですね、それは今行われているのではないか、特にケンブリッジアナリティカ事件の後に連邦議会等でもかなりツッコミを入れているわけですし、プラットフォームに対しても独禁法との関係でいろんな調査を入れているいうことになるわけですけど、まずその実態を明らかにするということが、まず重要なのではないかと。
プラットフォームも、私自身は非常に重要な、個人の尊重という非常に重要な役割、積極的な役割を果たせると私は思っていますけれども、しかしそれにはいろんなリスクをきちっと精査して議論していく必要があるのではないか、ということであります。
最後のページですけれども、もし仮にですね、このAIデータの利用というのが個人のあり方とかあるいはその統治形態・民主主義、この根本にかかわるという憲法事実があるならばそれはまさしく憲法問題であって、主権の領域に属する問題なのではないか。私たち主権者国民がどういうふうにそれをマネジメントするのか、こういう問題なのではないか。そうでないと、主権の横取りリスクというものが起きてしまうようにも思います。
今どういう統治形態を望むかという議論に国民が十分参加できているのかどうか、今のDXを何か自分たちから遠いところで、DXについての議論がなされているかのように、私自身は思わないでもないわけでありますけれども、本当にそのデジタル社会ってどうあるべきなのかに我々が参画できているのかということは、改めて精査しなければいけない。
つまり今のこの憲法の余白、このまさか、そのおそらく憲法制定期にですね、ここまでAIが進展するというふうに憲法起草者・政権者たちも思っていなかったとすると、そこに一定の余白がある。今この余白を誰が埋めているんだろうということをやはり改めて考えると、場合によってはそれはプラットフォームかもしれないし、まあ分かりませんけれども、やはり10行目にあるように、主権を横取りされないために、まさにその私自身、データ基本権ですね、これを前提とした議論をしていくべきなのではないか。そしてデータ基本権も、これは具体的内容について後でディスカッションで出てくるかもしれませんけれども、これを前提としたDXということが重要なのではないかというふうに思っております。
時間がちょっとオーバーしてしまいましたけど、私からのお話は以上とさせていただきます。どうもご静聴ありがとうございました。

この記事が気に入ったらサポートをしてみませんか?