見出し画像

LLM時代の車載システム(IVI)

ChatGPTに代表されるLLMを活用する事で、人間と同等の音声認識システムを車両に組み込む事が可能です。この技術は車載情報エンターテインメント(IVI)システムに大きな変革をもたらす可能性を秘めています。

テスラに代表されるスマホ的なUIを自動車に導入する取り組みは、2023年現在さまざまなメーカーの自動車に導入されました。特に、EVに関しては、タブレットでエアコン、車両操作、ナビを使う機能はデファクトスタンダードになりつつあります。

一方、今の所、テスラ自身もあまり精度高く実現できていないのが、音声認識です。ナビの目的地入力については比較的精度高く入力可能ですが、車両の操作についてはコマンドを記憶して正確に発音しないとなかなか思い通りの挙動をしてくれません。

しかし、音声認識はLLMの登場により劇的な進化を遂げました。OpenAIのChatGPTアプリに搭載された対話機能を使うと、もはや、人間と区別がつかないレベルで音声で受け答えをしたり、必要な指示出しを実行する事が可能です。

この、大規模言語モデル(ChatGPTみたいなやつ)を使ったエージェントは、さまざまなITデバイスに組み込まれ、人間が機械と音声会話する事で、ほとんどの設定が実現できるようになります。

そのような時代の、自動車のIVIとはどのような構成でしょうか?


LLMネイティブな自動車のユーザー体験

LLMネイティブな自動車のユーザー体験とは、助手席にその自動車の開発者が座っている状態と似ています。音声で話しかける事で、エージェントが適切な機能を選び適切に設定をしてくれます。そのため、即時性を求めないほとんどの操作は音声を介して実行されることになると思います。

デバイスの構成は以下のような形になるのではないかと考えています。

スクリーン(タッチパネル)
時速、警告灯、テルテールなどの保安基準で定められた情報を表示するほか、ナビや設定の選択肢を表示するなど、機械の考えをユーザーに見せるデバイスとして、スクリーンは確実に残るでしょう。タッチパネルは必須ではないですが、大量生産されており、みんな使い慣れているので、情報を選ばせる際のUIとしてタッチパネルも残る可能性が高いです。

スクリーンのサイズは意外に小さくなるような気もしています。音声認識が主体のUIになると、小さなスクリーンでも操作には問題がないからです。もちろんエンタメを考えるとスクリーンは大きい方が良いですが、自分のタブレットを持ち込む方がユーザー視点だと快適だったりするので、そこは自動車のコンセプトによって変わってきそうです。

物理ボタン
自動車の運転に関連する機能、アクセル、ブレーキ、ウィンカー、ライト、ハザード、ADAS操作などは物理ボタンとして残るでしょう。ただし、人間が認知できるスイッチの数には上限があるため、即時性を要求されないような機能は音声入力に代替されていく可能性が高いです。現在のテスラ車がタブレットに収めている機能をまるッと音声認識システムが代替するようなイメージです。

現在のテスラ車では、物理スイッチが極限まで排除されていますが、音声認識を補完するような物理スイッチは見直される可能性があるように思います。
タッチパネルは便利な反面、触覚フィードバックを与える事が難しいので、風の強さ、温度、車間距離などはつまみでやった方が設定しやすいでしょう。

このように、LLMは自動運転システムだけでなく、自動車の操作体系を大きく変える可能性を秘めています。また、すでに実用化の目処も立っていることから、これから数年間で順次、LLMが自動車に搭載されていくのではないでしょうか?



Turingでは現在、LLMにテキストだけでなく、映像もセットで学習させたVision & Language モデルを開発しています。紹介動画を制作したので、ぜひ、以下をご参照ください。


レベル5の完全自動運転EVを作るTuringでは仲間を大募集中です。以下のリンクからぜひお問い合わせください。募集職種になくても、Turingに僕が必要なのでは?と思われる方は、Twitter経由でぜひ @tokchin までご連絡ださい。カジュアル面談もドシドシ受け付けています。

この記事が気に入ったらサポートをしてみませんか?