ブラックボックス問題とは ~ディープラーニングの思考回路って?~
例えばAI自動運転の車がハンドルを切って人を轢いてしまったとします。
「なぜそのタイミングでハンドルを切ってしまったのか」を調べた結果、「AIの判断なので知りません」では済まされません。
例えばローンを組みたいと銀行に申し込んだとき。
「AIによる審査の結果、不合格でしたのでローンは組めません。根拠は分かりませんが」では納得いきませんよね。
AI、特にディープラーニングと呼ばれる精度の高いモデルでは、めちゃくちゃ複雑な計算の果てに答えを導き出しています。だから、「どうやってその答えを出したのか」を観察しても、私たち人間には到底理解できないことがあります。
これをブラックボックス問題と呼びます。
ブラックボックスとは黒い箱、つまり中で何が行われているか分からないという意味。いくら精度だけ高くても、社会で実際に用いる際にはこれではダメなのです。
人命の懸っている医療や、資産を預けることになる金融、自動車や人事といった業界では特に、AIのブラックボックス性が障壁となって実用化に進めない、ということが起きるのです。
これからも役立つ情報をお届けしていきますので、ハートマークとフォローを忘れずに。
以上、ラケットでした!
この記事が参加している募集
よろしければサポートお願いします! 頂いたサポートはほとんど書籍代にさせて頂いております!