見出し画像

判断に迷ったとき、AIの意見は?

やるか、やらないか。自信をもって判断できない時、「参考」意見があると、つい頼りがちになる。これは、「AIの意見」であっても、同じであろう。

三重県は2020年から児童虐待事案の対応にAIシステムを導入した。14年度以降に報告された約1万3千件の虐待事例が蓄積されているという。対象の児童が、「頭や腹に傷があるか」「性的虐待の疑いがあるか」「保護を求めているか」などの項目を入力して、AIが過去の「保護率」を算出する。

「対応のスピード感を維持するには(AIは)欠かせない」と三重県の児童職員は言う。その通りだろう。

明確な証拠があれば何も迷う必要はない。AIの「数字」は横に置いておけばいい。「数字」に頼りたくなるのは、グレーな場合だ。

横道にそれるが、会社に入ったころ上司が「判断の迷い」について、

「我々凡人は、迷った時は悩まないほうがいい。やるか、やらないか。どちらかに決めて行動すれば、統計的に当たる確率は1/2になる。迷って、やったり、やらなかったりすれば、確率は1/2以下になる。わたしは、いつも、『やる』ほうに決めている」

いささか乱暴な見方だけれど、一理ある。

迷った時は「保護する」というスタンスで対処する。その上で、AIの数字を見ながら現場の手綱を調整する。というのはどうだろうか。

結果論ながら、三重県津市の4歳の三女への暴行致死事件で、児童相談所は三女の保護を見送る判断をした。「顔にあざがある」「母親が児童相談所の指導に応じる姿勢」というグレーな状況下、AIが示した過去の似たケースでの保護率は39%だった。

AI利用の難しさを感じる事件だ。