【2】カーナビの呪縛から逃れよ
私が友人と開発した音声なび、そして、アメディア社のナビレク以外のナビアプリは、私の知る限り、すべてカーナビ類似んの動作をします。
ちなみに、私も、ナビレクを開発した望月さんも視覚障害当事者であり、カーナビ業界の人ではないです。望月さんはアメディア社の社長として日々活躍されているビジネスマンでもあります。
以下、晴眼者用のナビと視覚障害者用のナビの本質的な相違点について述べる。
【ちがい1】 前をよく見て歩けるか否か。
晴眼者用のナビは、基本、迷子にならずに目的地につれていくことである。歩道や横断ゼブラについては、自分で目視して判断する。 交叉点のスミキリや街路樹はナビの知るところではない。
【ちがい2】 傷害ブツを避けて歩きたい。
スーパーの駐車場などは歩行者用地図がない場合がほとんどなので「目的地周辺です。案内を終了します」 となる。それでは困る。
その問題を解決すべく、画像認識で音声案内するアプリもあります。
だが、この機能の致命的な問題はAIが識別できるオブジェクト以外は無言になることである。これはdeep learning を用いたAI画像認識を使うかぎり解決できない。
たとえば、晴眼なら目の前にアルミの壁があらわれて、そこに黒いネコが描かれていれば、ヤマトの配達トラックの後ろだとすぐにわかる。
だが、AIによる画像認識ではなにも発話しない。せめて「判別不能の傷害ブツあり、停まれ」と言ってほしい。
私は、上記架台の開発のためには、deep learning 以外の技術をつかわ鳴けばならないことは分かっている。
だが、一度でもぶつかったり、危険な思いをしたのでは、もうつかう気になれない。技術的にできるかできないかは関係ない。
だから 「まれにまちがった案内をします。自己責任で歩いてください。そのように利用規約に書いてありますいよ」 などと言われると 「そうですか。さようなら」 となる。
つまるところ、「この技術でできること」と「われわれが欲している機能」との間のおおきな乖離なのです。
この記事が気に入ったらサポートをしてみませんか?