見出し画像

児相がAI評価で一時保護を見送った問題をどう考えるか


三重県の津市で4歳の幼児が虐待で逮捕された事件について、児童相談所がAIの評価に基づいて一時保護を見送る判断をしていたことが問題になっています。AIが一時保護の要否について39%と評価したことを受けて、一時保護の判断を見送ったという問題です。

この問題を受けて、「AIは信用できない」「AIは使うべきではない」という声が大きくなるのではないかと懸念されます。

ただ、この問題の本質は、「児童相談所でAIを利用してよいかどうか」ではなく、「児童相談所はAIの判断をどう活かすべきか」であるように思います。

児相がAIを利用することは悪なのか?

「AIの評価を受けて判断を誤った事例がある」と聞くと、「AIの判断は信用できない」という印象を受けます。ただ、本当にそういえるのでしょうか。

児相が保護の要否について判断を誤った事例は、これまでも多数報道されてきました。さらにいえば、報道には至らず表面化されていない事例も、少なからず存在するのではないかと想像されます。

重要なことは、「AIを利用したことで判断を誤った事例が減少したかどうか」であって、AIが判断を誤った事例が存在するかどうかではありません。

AIの判断と人間の判断のいずれがより精度が高いかが統計的に示されない限り、AIの利用自体を否定することはできないように思います。

※さらにいえば、AIの判断の精度は、人間が事案の中から重要な事実を的確に選んで入力できるかどうかに依存します。仮に、AIの精度が現状低いとしても、それをもって直ちにAI自体の利用価値を否定することはできません。

最終判断を人間がすることの意義

ただし、AIの精度にかかわらず、AIの評価を過度に尊重し、人間の最終判断を介在させないままに保護の要否を決定することには、本質的な問題があります。

児童の保護の要否は、過去の事例を踏まえて確率的な判断をせざるを得ず、100%正しい判断をすることは困難です。その点は、AIも人間も変わりません。

このような判断においてAIの意見が過度に尊重されると、「だれが判断を誤ったか」が不明瞭になってしまいます。職員の中で、お互いに「AIが判断したことだからだれのせいでもない」という考えが生まれ、判断の誤りを深刻にとらえづらくなります。

また、AIの判断を鵜呑みにしてしまうと、判断の誤りが生じた際に「なぜ誤ったか」をだれも説明できなくなり、再発防止のための検証が困難になります。

児相からも同趣旨の見解がすでに示されていますが、「AIの評価を活かしてどのようなプロセスで人間が保護の要否を最終判断するか」については、改めて検討が必要であろうと思います。

おわりに

児童相談所でAIを利用することは、職員の恣意的な判断を防ぎ、保護の要否判断の基準を標準化できるメリットがあります。今回の問題を受けて、安易にAIを悪ととらえることは適切ではありません。

ただし、AIの判断に人間が「完全に依存してしまう」ことには、慎重にならなければなりません。

AIと私たち人間がどのような向き合うべきかを改めて考えさせられる報道でしたので、思うところをnoteにしたためました。

※このnoteは、筆者の個人的な見解であり、事務所の公式な見解を示したものではありません。

事務所サイトで執筆したコラムの紹介

所属する法律事務所のWebサイトで、法律に関するコラムを定期発信しています。ぜひ、こちらもご一読いただければ幸いです。noteでは、事務所サイトでは取り上げづらい個人的見解や、日々の業務とは離れた社会問題への考察を主に発信しています。

ITベンチャーなどビジネス向けの最新テーマを主に取り上げたサイト「Web Lawyers」はこちら

身近な日常の法律テーマを主に取り上げた事務所公式サイトはこちら


この記事が気に入ったらサポートをしてみませんか?