見出し画像

強化学習は自動運転車に使えるか? 新手法で「安全性」を模索 - 日刊のぐりゅうAIニュース#13

「すべてのビジネスはAIと共に!」をモットーにしています のぐりゅう(野口竜司)です。さて、今日はAI/機械学習のひとつの手法である強化学習についてのニュースをお届けします。
photo by 人見淳

1月24日(木)の記事はこちら。

先日Amazonの機械学習プラットフォームSagemakerでも強化学習のシリーズ Safemaker RLが発表され、益々注目の集まる強化学習ですが、囲碁やチェスなどと違いミスが人命に関わる自動運転にまで応用できるのかどうかの議論が起こっています。

紹介する記事の中でも、強化学習は状況下が変わる環境で動くロボットなどでも応用可能性があるとしながらも、その限界性にも以下のように触れています。

強化学習には限界がある。学習によって徐々に動きを洗練させていくためには、機械が繰り返しミスをする必要があるのだ。研究室の中やボードゲームをしている最中は問題ないかもしれないが、ミスが致命的になりうる自動運転車などへの応用には理想的ではない。

そもそも強化学習は、連続した判断を繰り返す中で、報酬と罰を与えられ学習していくものですが、自動運転のための応用においては、ミスが起こり得る訓練データ不十分のシナリオに入った時点で罰を与えるという方法をニューヨーク大学の、研究チームが打ち立てているとのこと。

ニューヨーク大学の研究チームは、フェイスブックAI研究所のヤン・ルカン所長らとともに現在、この問題を克服できる新しい方法を提案している 。正確な運転方法を学ぶ自動車に罰と報酬を与えるのに加え、訓練データが不十分なシナリオに迷い込んだ場合も罰を課すというものだ。

これによって、自動運転車は未知の領域に直面しても大胆なターンなどの動きをするのではなく、慎重に運転せざるを得なくなる、と研究の共同執筆者の1人であるミカエル・ヘナフは説明する。

このように、強化学習をふくめた各種AIにはまだまだ工夫・応用が必要なシーンが残りますが、人間の知恵・実験によって直ぐにカバーされていくことでしょう。


タイトル画像は京都フォトグラファーの人見淳氏からご提供いただきました。

AI活用エヴンジェリスト 野口竜司(のぐりゅう)

この記事が気に入ったらサポートをしてみませんか?