自動運転

自動運転と言えば、運転手がハンドルを握り、アクセルやブレーキを使って車をコントロールするのではなく、コンピュータ制御で加速や減速、ハンドリングをすることだ。自動運転の車は開発がどんどん進み、法整備も進んできているようだ。

SFの世界でよく見かける光景が現実のものになってきている。ゆくゆくは車で空を飛べるようになるのだろう。

だが、自動運転にも問題はある。事故が起きた時のことだ。自動運転と聞くと、人間がコントロールしているわけではないので、事故が起きないとイメージしがちだが、自動運転を作っているのは人間だ。人間が作っているものである以上、完璧ではない。事故も起こり得るのだ。

自動運転の車で事故が起きた場合、いったい誰の責任になるのだろうか。自動運転中に事故が起きるということは、単独事故の場合、システムの故障である可能性が高い。そうなると、これは製造者の責任になるのだろうか。それとも、所有者、つまり運転手の責任になるのだろうか。ケースバイケースだが、責任を誰が負うべきなのか難しい問題だ。AIに関しては倫理的な問題がたくさん残されているようだ。

倫理と言えば...

この記事が気に入ったらサポートをしてみませんか?