「AI」:根本的に使い物にならないことがバレる??? by Google。現実世界は複雑すぎるのだ。

ごちゃごちゃ言っているが、要するに、現実は研究室のシミュレータほど単純ではないのだ。

ここで述べているのは、医療用CTの診断画像の類いの話だ。それほどまでに対象を限定していてさえ、「現実の診断画像」はあまりにも千差万別で「AI」では対応できない。

機械学習に使うデータは「きれいに揃いすぎている」のだ。

残念ながら、第4次AIブームも終了だ。今回も机上の空論に終わった。今度こそはと、私も(投資家の立場で)期待していたのだが無理だった。調べれば調べるほどハードルは高くなる。

*********************

この事は、MIT教授でありルンバの開発者でもある、ロドニー・ブルックス教授が何年も前から指摘している。彼は、イラクやアフガニスタンで爆発物を処理する「ロボット」の開発者でもある。しかし、その「ロボット」にはほとんど自律性がない。人間が遠隔操作する。現実の街中の環境はあまりにも複雑で、「AI」には移動することすらできない。

ちなみに私自身は12万円もするルンバを買って試したが、やつも掃除以前に移動することができない(笑)。日本の家屋は障害物が多すぎて行ったきり戻ってこない^^; あれは学校の廊下や米国の巨大な家など、広くて障害物のない床を掃除するのがせいぜいだ。

**************

ここ10~20年の間に、実は人間の知能の研究から恐るべき事がわかってきた。ヒトは自分がどういう根拠に基づいて判断を行っているか、自分でも知らないのだ。通常の場合、人が口にする「判断の根拠」は後付けだ。

実は、ほとんど全ての判断は無意識下で処理されている。ロジックで判断をしていると結論を出すのに時間がかかり、自然界では敵に殺されるからだ。人は自然淘汰の結果、そのようにできている。

つまり、「人工知能」以前に「知能」とは何なのかがさっぱりわからないと言うことが、わかってしまった(爆)

***********

確かに「機械学習」を実行すると、もっともらしい「判断」をするロボットができあがる。しかし、それは「ブラックボックス」だ。どういう根拠で判断をしているのか、開発者ですらわからない。

そりゃあ、使い物にならないだろう。仮に使えるように見えても、怖くてとても信用できない。医療に使えば誤診をするだろうし、車を運転させたら事故るだろう。


この記事が気に入ったらサポートをしてみませんか?