見出し画像

AI Law / AIと法律に関する考察

2023 Fallに受講したAI Lawの講義などAIに関する考察について、遅まきながらWrap upしてみました。大きなテーマのため、後日加筆するかもしれません。


AIとHuman Loop

まず第一に、AIは人間の意思決定をReplaceし得る技術のため、影響を及ぼす法律の範囲が非常に広い。AI Lawは単にAIの規制だけを指すのではなく、AIは刑法、労働法、Housing、Copyright Law、武器関連法のほか、当然憲法の言論・集団結社の自由や匿名でいる自由(Privacyや匿名での表現活動)にも影響を及ぼし得る。個別の法領域に及ぼす影響については別途議論したいと思うが、例えば、刑法に関しては被告人の再犯率が高いかを予測しそれによって量刑を変えるプログラム、労働法に関してはApplicantsのプールからより有能なCandidateだけをスクリーニングするプログラムなど、既に様々なAIプログラムがLaw Enforcementの領域も含め各所で採用されている。

すべてに共通する点として、常にAIによる判定は偽陽性と偽陰性を生み出しうるというリスクを有することに注意する必要がある。アルゴリズムの設計に当たっては、偽陽性・偽陰性どちらがその設計目的の趣旨上“マシ”なのか、という視点を持たなければならない。どんなに緻密なアルゴリズムを作ったとしても、必ず偽陽性・偽陰性は生じ得る以上、なるべくエラーが少なくなるように寄せていかなければならない。
例えば再犯プログラムの場合、偽陽性(再犯確率が高い)より偽陰性が出る方が望ましく、逆に候補者スクリーニングプログラムの場合、偽陽性(有能である可能性が高い)方が望ましいといった形だ。

また、当たり前のことだが、AIを人間の補助として用いる場合でも、AIを使用する以上、使用者がそのプログラムの設計や、ひいてはAIがどうやって答えを生成しているか仕組みを理解しなければならない。そうでなければ、なぜChatGPTが時として平然と嘘をつくのか理解できず、ChatGPTの答えを鵜吞みにするだけになってしまう。
AIの使用に当たってはHuman Loopが大切だ、プロセスにおいて人間を介在させておく必要があるとはよく言われるが、その人間がAIの特性を理解し、またAIを使用する領域における十分な知識を有してAIの嘘や矛盾を見破れるようにならなければ、HumanをLoopさせておく意味が全くない。AIボタンをポチっと押せるロボットがいれば事足りる。
例えば、ChatGPTに自分が住んでいる地域のお勧めのレストランを聞いた場合、私たちは既にどのレストランが美味しいかある程度の知識を有しているので、ChatGPTが聞いたことのないレストランをつらつらと挙げてきた場合、これが新店なのか嘘なのかに疑いを持つことができ、ChatGPTの嘘を見破ることができる。
こうしたAIの生成結果に疑いを持つことは、特に無謬性が要求されるLaw Enforcementの過程でAIを使用する場合により重要になってくるだろう。AI時代であるからこそ、使用者にはAIのもっともらしい嘘を見破れるだけのより正確・高度な知識とAIの特性に関する理解が求められる。そういう意味で弁護士や医師といった高度に専門的な職業がただちにAIにとって代われることは無いのではと思う。一方、AIの誤り発生率が低いような単純作業の場合は人間からAIにReplaceされる可能性は高いだろうし、専門性のない人間はAIの監督者にはなれないため、今後は一層学歴の差・リテラシーの差・貧富の差が拡大していくのだろうなとも思う。

AIに対し全く新しい法律が必要なのか?

AIはGame Changerだ、全く新しい時代が来るとChatGPTが生まれた時には大々的に騒がれた。ただ、産業革命以降、どの時代でも新技術は既存の社会や人権等への脅威であった。電話が生まれた時も、写真が生まれた時も、自動車が生まれた時も、常に新技術が生まれる前の世界からその後の世界にどうTransferしていくかは法的・社会的課題であり、また法律も、馬車の時代から自動車の時代になるにつれて変容してきた。
授業でEasterbrookのLaw of Horseについて取り上げた際に言っていた教授の言だが、AIのような新技術を前にすると、一体どうすればこういった技術を社会がコントロールできるのか、もはや不可能ではないかといった感情に陥るが、こと法律に関して言えば常に結論は過去からの踏襲の延長線上にあり、AIの規制やそれに対する法律の関わり方にしてもゼロから生まれるものではない。例えば、著作権法をサイバー空間に引き込むのではなく、サイバー空間を著作権法に引き込むのだと。法律も科学と同じで、ある日突然ChatGPTが世界に爆誕したわけではなく、その前提として情報科学や計算科学の膨大な積み上げがあった。それと同様に、法律も同じように、法律が守ろうとしてきた価値やそれに対する議論には膨大な積み上げがあり、その先に新技術に対する新たな法律が必要か、旧法だけで価値を守れるのかという議論があるのであって、ある日突然AIに対する全く新しい規制を爆誕させる必要はないのである。(クリエイティブではなく常に前例から答えを探すような私のような人間はこれに少し安心する。)

世界のAI事情

同じプログラムの友人が各国のAI政策を話し合う会を主催してくれたことがあり、そこで聞いた話が大変興味深かったので紹介したい。
例えば南米のような途上国にカテゴライズされる国では、デジタルインフラを他国である先進国(例えば米)にほとんど依存しており、それ故その外国システムに不調が生じた場合であっても、自分たちでメンテナンスすることもできなくなるそうだ。その友人は、外国製システムがシャットダウンして全く復旧しなかったので、自分の本国での弁護士記録を出力できず困っていると話していた。自分の国で基本的なデジタルインフラをメンテナンス・コントロールできないというのは非常な脅威で、こういう意味で(デジタルに限らず)自国が基幹技術を持ち続けるということは安全保障的か観点でも極めて重要だと感じる。

また、第三世界/アフリカの国からすると、ChatGPTなり欧米の開発したAIは西洋世界の価値観を反映したもの、AIに用いているLearning Dataが西欧由来である以上、その価値観を反映したAIもまた西欧由来になる。自らのアイデンティティや価値観を反映したAIではない以上、そうしたAIを国をあげて使うわけにはいかないだろうし、先進国側が技術輸出をする際の示唆にもなるだろう。

また、東南アジアは米中のデジタルマーケットの覇権争いの前線だそうで、中国由来のAI/システムを使うか米国由来のものを使うか非常に微妙な時期にあるようだが、鉄道や水道といったハードインフラ以上にデジタルインフラは人々の価値観への影響力が大きいので、どちらの世界のインフラを採用するかによって国全体に与える影響が全く異なってくるだろう。
中国のインターネット監視システムをA国が採用した場合、仮にA国で反中活動が起きたら…何が起きるかは想像に難くない。また、どちらの世界のシステムを採用するかによって、米中覇権争いにおいてその国が赤くなるのか青くなるのかを決することになるだろう。
東南アジアにおいて米国システム導入のネックの一つは価格にあるそうで、日本はここで第三国として存在感を示せるのでは?とも思う。中国製より信頼でき、米国製より安い日本製アプリケーションは東南アジアマーケットに勝機があるように思うのだが…いずれにせよ、米中どちらのシステムを採用するのか問題は覇権争いの勢力図を変えるファクターにもなり得る問題である。


この記事が気に入ったらサポートをしてみませんか?