AIが下す判断は誰の責任になるのか

この記事からAIに関わる議論を何回かに分けて書いて、問題提起をするとともに自分なりの「今の段階」での考えをまとめていこうと思います。

今回は「AIが下す判断は誰の責任になるのか」というテーマで進めます。

医療におけるAIの責任は

以前、元医師の国会議員と話をする機会がありました。会の内容はその議員がベンチャーと交流するという内容だったかと思います。弊社の事業内容を説明をしてAIに関わるものだという説明をして、話の展開はAIに進んでいきました。常々自分自身はタイトルにある「責任」については疑問を持っていたので、元医師である議員に質問をしました。

私「AIが医療診断をしたとして、その診断の責任は誰にあると思いますか?」

元医師なりの意見を聞きたいと思ってその話をしました。すると、

元医師「AIが診断することはない、診断に関わることもない」

という話でした。いやいやと。もう考えは凝り固まっているのだろうと思い話は終了しました。

その場で打ち切ってしまったので議論にならなかったのですが、話を進めるために「AIは診断をする、もしくは関わる」という前提で話を進めたいと思います。さらに、過渡期ではなく充分に運用実績があるというのも前提にし、
AIが最初から最後まで診断をする
この時、結果的にミスが起きた場合、誰の責任かという議論を進めたいと思います。

次に責任がかかる可能性がある人たちをリストアップしていきます。
1. AIのみ (つまり人には責任がない)
2. 導入した医師
3. 担当している医師
4. 開発者
となるかと思います。

個人的には「AIのみ」に責任がかかるというのを推したいと思います。理由としてはAIの使うハードルを下げるという完全に使う側からの視点です。訴訟になった場合はAIが訴えられるというイメージです。(その時の弁護士もAIだったら面白いですが)

さらに、完全にAIが診断をするようになった場合はAIが若手を育てるという機能も出てきます。実際に将棋の若手プロはAIの棋譜を参考に強くなるというエピソードもあります。

というわけで個人的な結論は、
- 成熟期ではAI自身が責任を負う

皆さんはAIが負う責任についてどのように考えますでしょうか?

旅行が好きでそれに関わる事業を行なっています。写真のレベルをもっとあげたい!