見出し画像

EVの時代はくるのか?自動運転技術 第3回

EVの時代はくるのか?自動運転技術 第3回

皆さん、こんにちは!アメリカ株式義塾です。

「自動運転技術特集」は第3回、ついに最後までやってまいりました!
前回は、自動車メーカーが従来の方法では完全な自動運転を実現するのが難しい理由を一気に説明しました。今回はきっとみなさんが本当に知りたいこと、「結局勝つのはどの企業なのか」をお伝えします。

ぜひ最後までお読みください!

前回(第二回)はこちら



前回までの要点おさらい


写真の出典: Google

白カブ部隊: 第3少佐、我々が救出に来ました!
第3少佐: ついに…家に帰れるのか?

米軍は仲間を置いて行くことはありません…今回の連載は終わりまで少し時間がかかってしまったことをお詫び申し上げますが、ついにこの連載も終わりを迎え、家に帰れます。いよいよ「本当の」自動運転関連銘柄を探す旅を終わりにしましょう! 

 まず、自動運転特集第2回の最後の部分の要点をもう一度整理します。

・「未来の自動車産業の中心 = 自動運転」で、性能や燃費は二の次 

・ほとんどの自動車メーカーは自動運転を「真似する」ことには成功したが、完全な自動運転を実現させ、技術の完成に至るにはまだ程遠い

 ・この困難を最初に解決できる会社が未来の自動運転競争をリードする 

・テスラ(TSLA)以外に、こうした目標の達成に向け努力をしており、最もゴールに近い企業を探すべし!

 ・現在高速道路でのみ可能な自動運転を一般道でも可能にするには、カメラビジョン(Camera Vision)以外の手段がない 

つまり、費用と効率の問題で、テスラを除くほとんどの自動車メーカーは今のところレーダーやライダーを組み合わせた自動運転技術を搭載した車を出していますが、いずれ、一般道を含むすべての場所での自動運転を可能にするにはカメラビジョン技術が必須であるということです。

レーダーとライダーは、完全な自動運転を実現する際に補助的に使うのには役立ちますが、カメラビジョンなしでは完全な自動運転の実現は難しいと言えます。 では、本質に迫る質問をしてみましょう! 


カメラビジョン技術の難易度が高い理由は? 


技術の核心がレーダーやライダーとは完全に異なるためです。 
レーダー(RADAR)とライダー(LiDAR)には共通点があります。 

・レーダー:電波を発信し、物体に反射して戻ってくるまでの時間を測定する
 ・ライダー:レーザービームを発射し、物体に反射して戻ってくるまでの時間を測定して周囲の3Dマップを作成する 

つまり、こんな感じです。
 レーダー:「よし、電波発射!1...2...3...。3秒かかった!」

ライダー:「ちっちっちっ…まったく。電波だけ発射してどうするんだ?周囲の環境の地図を描かなきゃいけないだろう、地図を。」 

カメラビジョンはどうでしょう? 

カメラビジョン:「地図を描いてどうするの?私は周囲の環境を『見る』ことができるんだよ。そして見たものを分析して判断するのさ。」

第1回と第2回でも何度も説明しましたので聞き飽きた方もいるかもしれませんが、カメラビジョン技術は膨大な量の視覚データを非常に短い時間間隔で捉えて、走行中の車両が、道路上にあるさまざまな障害物、歩行者、ドラゴン、攻撃型原子力潜水艦、道路標識や他の車などを認識するために、データを解釈する必要があります。 

このプロセスには画像をリアルタイムで処理するための精密なアルゴリズムと強力なコンピューティングリソースが必要です。

後者は電気自動車の電力供給で解決可能で、クラウドコンピューティングを利用して車両は情報を受け取るだけとし、計算は他のサーバーで行うなどさまざまな方法があります。しかし、前者が難しいのです。

レーダーとライダーは「電波やレーザーを発射すること」だけが求められます。もちろん情報処理も行いますが、それほど高度な情報処理(=コンピュータが行う思考と分析)は必要ありません。しかし、カメラビジョンはカメラで撮影し、その写真をAIが判読するプロセスが必要です。つまり、根本的に、レーダーやライダーとカメラビジョンは違うのです。

カメラビジョン技術の開発には映像データが必要ですよね?それならテスラは最初に発売した電気自動車にもカメラを搭載していたのでしょうか?自動運転機能がない時から?

重要な質問です。実はテスラは少し新しい方法を採用しました。まず、不完全な自動運転機能(他の自動車メーカーのように、別の方法で大まかに実装したもの)を搭載した電気自動車を最初に発売し、これにカメラを取り付けて販売しました。 

当時はカメラが捉える情報を有意義に処理したり加工して自動運転に利用することはしていませんでしたが、何万人、何十万人の顧客が毎日運転することで得られるデータをとにかく収集しました。このように収集したデータを基に、テスラ本社の研究所が一生懸命開発しテストした後にソフトウェアをアップデートします。


写真の出典: YouTube

・オートパイロット(Autopilot):他の会社の自動運転と同様に、不完全な自動運転

・進化したオートパイロット(Enhanced Autopilot):これには自動車線変更やセルフパーキングなどの追加機能が含まれる

このようにして、定期的にソフトウェアをアップデートしながら、より多くのデータを収集し、カメラビジョンに必要な技術を開発し、後にFSD(フルセルフドライビング)ベータ版まで提供するようになりました。2015年にオートパイロットの初期バージョンが出たので、ほぼ10年近くずっとこのように続けてきたのです。

簡単に言えば、カメラビジョン技術の実現には、「カメラを搭載した車を顧客に販売し → 顧客がその車を運転し → 顧客が提供したデータで研究し、AIを継続的に学習させ → 新しい技術を次々と生み出す」という無限ループの作業が必要です。テスラはこれを行うのに10年かかりました。

レーダーやライダーは、適切に作動するものを工学的に作ることができればそれで終わりですが、カメラビジョンはそのように簡単に開発できるものではないのです。

大まかにご説明すると、カメラを搭載した車両からデータを収集し始めたのは、2世代目(HW2.0)が発売された2016年頃からです。数十万〜数百万台の自社製電気自動車を動員してデータを収集し、技術を開発するのに8年以上かかりました。このスピードでも速い方だと言えるでしょう。

他の自動車メーカーの立場ではどうでしょうか?


写真の出典: prohory

他の自動車メーカーたち:今が、テスラが開発を始めた2016年と同じだと思っているの?データの収集と処理技術はあの頃よりも10倍も100倍も進歩しているんだ。私たちはきっと、ずっと少ない苦労で同じことができるはずだ。 

ここから先は

4,127字 / 9画像
この記事のみ ¥ 300
期間限定 PayPay支払いすると抽選でお得に!

この記事が気に入ったらサポートをしてみませんか?