見出し画像

AIは責任をとれない、か?

AIに医療・教育・軍事・与信などの重大な意思決定を行わせることに対する強い忌避感があるが、それが合理的かどうかは検討する余地があると思う

まずAIの方が精度が良い可能性がある。例えば素早く大量の情報を処理しなければならないトリアージや救急搬送などではAIに任せた方がよいかもしれない。なお機械に十分な精度があるとき(>80%くらい)に人間が関与するとかえって精度が低下することが知られているそう

またAIの判断が公平かどうか懸念が持たれることがあるが、機械学習公平性の研究者である神嶌氏が指摘するように、人間も隠れたバイアスがある。AIのバイアスは定量的に検討することができ対策も講じやすいが人間のバイアスは対策するのが難しい

さらにAIの「アカウンタビリティー」については、AIにはどのような原理にもとづいて動作するかは明確にすることができ、問題が起きた時技術的な対策が講じやすいという利点がある。その点人間については判断の根拠があいまいだったり改善も難しいことが多いだろう。なお英語、そして安全工学での「アカウンタビリティー」は原因を特定し改善する責任であってことばで原因を説明する「説明責任」ではない。

AIについては「責任を取らない」と批判されることもあるが、では人間が責任を取るか・取らせられるかというとこれも疑問だ。ミスをおかした個人に責任を問うことは事故を防止することには役に立たず、システムを改善することが必要である。良い例として航空機と医療の比較がある。航空機事故については原因調査に協力することを条件に過失責任を刑事上問わないことに国際的になっており、これが航空機事故の劇的な減少に効果があったとされている。一方、医療では現状では個々の医師への責任追及が可能であるため、事故への対応が事故の隠蔽や責任逃れに終始してしまう(そのことが道徳的に正しいかどうかは重要ではない)。そしてシステムとして考えた時、人間がAIより優れているという理由は必ずしもない。

AIにたいする忌避感についてはあれやこれやの理由を述べて合理化することが行われているが、つきつめると「機械に支配されてしまうのではないか」という恐怖と、その恐怖を科学的・工学的に解決していくことへの不信感(哲学者の岡本賢吾氏の言い方を借りるとサイエンスフォビア)からきているのであって合理的なものではないだろう

面白いのは、航空機の操縦については自動運転システムが広く受け入れられていることで、自動車の自動運転についても倫理的な問題を指摘する声は少ない。実際はどちらも人の命に関わる重大な意思決定を含んでいるのだが奇妙なことである。これは自動車や航空機が人命を危険にさらすことがあってもその利便性が高いから受け入れられているのであろう。意地悪な見方をすると、自動車を運転する人は、人や動物を殺害するかもしれないというリスクより自動車の利便性が重要である、という判断を下しているのだがそれを見ないようにしているのだ。

この記事が気に入ったらサポートをしてみませんか?