音声や文章で指示するのって、実はけっこうめんどくさい

今後、ユーザーインターフェイス(UI)はチャットや音声を使用したものになっていくのかな?なんて考えるとゾッとします。

普段から仕事で業者や部下に指示している人はよく分かるのではないでしょうか。

うちにもAmazonのALEXAいるし、最近ではChatGPTとかBing AIチャットとか使ってますけど、ALEXAはよく聞き取り間違いするし、しゃべってる途中で実行しちゃったりするし、ChatGPTとかもちゃんと指示しようと思うと、結構膨大な説明が必要だったり、プログラミング構造を意識して書いたり大変。

まあ、将来的には、「地球へ(テラへ)」のマザーみたいに、保護者のように見ていてくれて、こちらの意図を理解したり察したりしてくれて、管理してくれる(!?)ようになるのかも……。え?「地球へ…(テラへ…)」知らない?そうだよねぇ。名作だとはいえ、1977年から80年に連載されてて80年にアニメ映画化された竹宮恵子のマンガですからね。

いま調べたら2007年にテレビアニメ化されてる?ほほう。探してみよう。

そんなわけで、思考で操作できるように早くならないかな。

この記事が気に入ったらサポートをしてみませんか?