見出し画像

AIに刑事責任を問うことは可能か?

次の問題を考えてみたい。

AIによる制御システムを搭載したレベル4の自動車があった。ある日、その自動車に搭載されたAIが判断を誤ったことにより、誤った制動がなされ、結果、人を撥ねて死なせてしまった。

この事象において、AIに対して、刑事責任を問うことはできるのだろうか。

1.AIの犯罪主体性

刑法の世界では、被告人の刑事責任を問うか否かを、構成要件該当性、違法性、責任の3つのフィルターで判断することとなるため、AIの刑事責任を考えるにあたっても、まずはこのフィルターで考えてみたい。

そもそも、AIは、構成要件該当行為を行うことができるのか。

犯罪の主体は、「者」と表現されており、自然人を前提としている。

一方で、ある特定の犯罪については、業務主としての法人を、違反行為を行った自然人行為者とともに処罰する「両罰規定」により、法人に対する刑罰を認めている。法人については、この両罰規定がある場合に限り、刑罰の主体となるのである。

ここでいう「刑罰の主体となる」ということが何を意味するのか、これは法人の犯罪主体性を認めるものなのか、それとも刑罰主体性のみを認める(すなわち法人については無過失責任)ものなのかは議論があるようであるが、犯罪主体性を認めるものであるとする見解が多数であり、その中で、過失推定説等学説が分かれているようである。

これを踏まえたときに、既存の枠組みの中で、AIの犯罪主体性を認めることができるのだろうか。

前記のとおり、犯罪の主体性は自然人において認められるものであり、両罰規定による法人の犯罪主体性は、あくまで自然人による犯罪行為が認められた場合に擬制的に認められるものである。

そう考えると、あくまで現行法の既存の解釈の枠組みにおいては、自然人による犯罪が成立することがまず前提として存在するのであり、それを超えて、人格を法的に擬制した存在である法人に、第一次的に犯罪が成立するものではないと言えそうである。

これをAIに敷衍して考えると、AIは、自然人ではなく、自然人と同様の人格は有しないことは自明であるから、前記枠組みで考えるならば、自然人よる犯罪が成立しない限り、AIにも犯罪が成立しない、と考えるのが帰結なようにも思える。

だが一方で、法人とAIとの差異に着目すると、法人の活動は、あくまで、その内部にいる意思決定を行う自然人の意思に基づいて行われるものであるから、「法人の意思」は「法人内部における意思決定機関を構成する自然人の意思」と合致する。このことから、法人内部の自然人の行為を、法人の行為としてトレースすることにも一定の正当性が認められるように思える。

しかし、AIは、開発者等の自然人が設定する「条件Aのとき制動B」といった、あらかじめ定められた設定を超えて、取得した情報を元に、自ら「思考」し、機械制動に対する指令を出す。そうすると、開発者等の自然人とAIの「意思」とは必ずしもマッチしない(AIには、自然人が思いもよらないような相関性の発見等、ある意味で「人知を超える」ことを期待されている面もある)。

そう考えると、自然人の行動をAIの行動としてトレースし、自然人の犯罪成立を前提として擬制的人格による犯罪の成立を認める、とする枠組みは、AIの犯罪主体性を考えるにあたっては必ずしもマッチしないように思える。

AIの刑事責任を考えるにあたっては、法人とは異なる政策的な考慮が必要となりそうだ。

2.犯罪とはなにか?刑罰は何のためのものか?

そもそも、犯罪とはなにか。

犯罪とは、それが実行された場合、その実行に対して刑罰が科されるべき行為をいう。
国家が、その国の社会秩序や、国家の仕組みを維持するために、「やってはいけないこと」を法規範において「犯罪」として定め、実効的措置としての刑罰を定めているのである。

ここでは、刑罰には「法侵害により国家の秩序・安寧を脅かした」ことに対する国家による「報復=応報」と、威嚇による「犯罪の抑止=一般予防」の、大きく2つの目的があると考えられている。

また、近年では、主に被害者の視点から、被害者の処罰感情に答えるという視点からも、刑罰の目的が語られることもある。

この「応報」と「一般予防」、「被害者の処罰感情」の目的の観点から、AIの刑事責任を考えてみたい。

先の事例では、AIが判断を誤ったことにより、「人の死」という結果が生じているところ、これが自然人の行為である場合には、過失致死罪などが成立する余地があろう。過失致死罪は、犯罪の一類型であり、刑罰の対象となる行為である。すなわち、国家は、「人を誤って死なせてしまった」という行為を、「国家に対する侵害行為」であると位置づけているのである。

そう考えれば、AIによる誤判断と、これによって生じた人の死は、国家に対する侵害行為として、報復の対象となってしかるべき行為であるといえるから、「応報」という観点からは、刑罰を課すべきであるようにも思える。

また、「処罰感情」という観点からも、AIに対し刑事責任を問うことは、一つの回復手段としてありうるかもしれない。

しかし、AIに対する刑事罰を科すことによって「一般予防」が期待できるか、例えばAIに対する刑事罰として、「そのAIを消去する」という刑事罰を科したときに、それを見た他のAIが「まずい、判断を誤らないようにしないと!」と思うかというと、甚だ大いに疑問である。

このように考えると、AIに対して刑事責任を課すことの正当化根拠は、もっぱら「応報=報復」と「被害者の処罰感情」に求められることになろう。国家が報復を与えることで、被害者の処罰感情が回復されるという構造から、応報と処罰感情とは本質的に同義と考えられるから、やはり正当化根拠は「応報=報復」に収れんすると考えられる。

以上からすれば、AIに対して刑事責任を問うことは、応報の観点から正当化される余地はあるのではないか。

3.AIに刑事責任を問うべきか?AIと保安処分

AIに対して刑事責任を問うことは、応報の観点から正当化される余地はありそうである。

但し、AIに対する刑事責任を肯定する場合であっても、自然人を前提とした刑事責任に関する各種議論を、そのままAIに当てはめるのは困難を伴うように思える。
刑事責任の本質は、反規範的人格的態度に対する道義的な非難であると考えられるが、AIは単なるシステムであり、規範的人格的態度を観念しえないと考えられるからである。

そのため、AIに対する刑事責任については、法人に対する両罰規定のように、ある種政策的に、刑事責任を問う仕組み・枠組みを独自に作る必要があるのではないかと考える。

では、AIに対して刑事責任を問うための仕組みを、政策的であっても作るべきなのだろうか?

この点について思うに、冒頭に記載した事例のように、AIが判断を誤った場合、社会が求めるものは、行為に対する「応報」よりも、「そのAIに、もう二度と同じ過ちを繰り返さないでほしい」ということではないか。
これは、どちらかというと、その人個人の将来の犯罪を防ぐという「特別予防」的な発想に近いと思われる。

特別予防の観点からは、保安処分という概念が想起される。

保安処分は、犯罪行為から社会を保護するために国家的に行われる強制処分であるという点で刑罰と共通するが、刑罰がその正当化根拠を応報に求めるものであるのに対し、保安処分は、もっぱら特別予防を目的とし、応報的な要素を全く含まないのが特徴である。

刑罰、すなわち刑事責任の本質が、「反規範的人格的態度に対する道義的な非難」であるがゆえ、犯罪行為を行った人については、非難するに足りる「責任」が必要とされている。そのため責任無能力者に対しては、刑罰を科すことはできない。
ただ一方で、行為時には責任無能力であったとしても、精神的な病などにより、将来的にその者が犯罪を犯す可能性が否定できない場合もありうる。
そのような懸念がある場合に、保安処分として、将来的な犯罪の因子を取り除くべく処置を施すものである。

日本では、「心神喪失等の状態で重大な他害行為を行った者の医療及び観察等に関する法律」が制定され、運用されている。
これによれば、一定の重大犯罪を行った者が、心神喪失者として不起訴処分となったり、無罪の確定判決を受けた場合に、検察官が審判を申立て、裁判所(裁判官及び精神保健審判員)において、入院や通院等の治療など、措置を決定することになる。

前記のとおり、AIがシステムである以上、そのシステム上で行われた判断に誤りがあったとしても、AIに対して道義的な非難を行うことはできない。
しかしながら、当該AIによる同様の判断から社会を防衛せねばならないのであり、この状況はさながら、道義的非難を問いえないがゆえに無罪・不起訴となった被告人に対する価値判断と同様であるといえる。

このように、AIによる誤判断については、「刑事罰」の枠組みではなく「保安処分」の枠組みにおいて、その処分、処遇を考えるのが、現行法下の議論においてはもっともしっくりくるように思う。
具体的な手法については検討の必要はあるも、例えば、一定のアルゴリズムの改変であるとか、そういった処分を保安処分として行う、というようなことが考えられるのではないかと思った次第である。



この記事が気に入ったらサポートをしてみませんか?