ChatGPTのGPT-4oで、世界が、また、アップデートされる!?
午前2時のデモンストレーション中継を見て、興奮冷めやらぬまま朝を迎えそうな足立明穂ですw
見ましたよね? え? 何をって???
OpenAIが、数週間でリリースしていくっていう新しいChatGPT GPT-4oですよ!!
何がすごいって、音声でのやりとりができて、そのレスポンスの速いこと!!
こんなの使い始めたら、もう、世界は戻ることなどできなくなるよね!!
興奮冷めやらぬ状況で書いているので、以下、支離滅裂な文章になってると思いますが、今の興奮と、熱量を伝えられればwwww(と、まとまりのない文章の言い訳をしておこうw)
P.S.
Udemyの講座で、アート思考を教えておられる柴田先生と対談しました。
NFTから生成AI、メタバース、そして10年後の未来まで楽しい内容になっています。下記から申し込むと、講師紹介特典で、42%オフの1,500円で申し込めるので、ぜひ!w
GPT-4oになると、何がすごい?
テクニカルな面で見ると、あれやらこれやら、いろいろあるけど、個人的には、下記の3つ!!
レスポンスの速さ
感情を表現するような抑揚
途中で話を止めて、傾聴重視!
そりゃ、他にも画像の認識とか、カメラ映像の読み取りとか、いろいろあるけど、上記の3点って、「会話」を考えた場合、めちゃくちゃ大きな変化なんですよね!!
その1 レスポンスの速さ
まずは、1:08:17のところからのデモンストレーションの最初のやりとりを見てください。
マークが話して、すぐに音声で回答してますよね? ほとんど間がない。まるで目の前に人がいるかのように会話になっています。
Zoomでリモート会議とかやってる人だと、「Zoomより話しやすくね?」とか思いません?wwww
それぐらいレスポンスが速い。これって、人が使う上で、めちゃくちゃ重要なことです。
今のスマホに話しかけるSiriとかGoogle、Alexaとかって、話してから、ちょっと間があきますよね?
慣れてはきますが、なんか、その「待つ」って状況が作られる。
先のZoomの話になるけど、相手が人間であったとしても、こちらが話し終えて、1秒も間があると「なんか、話しにくい・・・」になっちゃうんですよ。
で、両方が同時に話初めて、「あ、どうぞ、どうぞ」、「いえいえ、そちらから、どうぞ」っていう、妙な空気になりますw
AIとの会話も同じことで、このレスポンスが速いことは、とっても重要なんですよね。
その2 感情を表現するような抑揚
この感情があるかのような抑揚はすごい!
もっと、感情をこめて!とか、ロボットみたいに!とか注文つけて話をさせてるところがあるのですが、面白いですよ!
最初に、マークがドラマのように読んでよっていうと、ドラマっぽく話しだします。そして、途中で、隣のバレットが、「もっと感情込めて、感情を爆発させて読んで!」っていうと、舞台俳優のように朗読しますw
さらに、左端の女性が、「ロボットみたいに話して」と注文を付けると、ロボットがしゃべってるように、抑揚のない話し方に変わりますwww
この話し方を変えるってすごくないですか?
いやー、これまでも、音声合成での会話とかありましたが、ここまで感情表現を変化させて対応できるって、面白すぎます!!
これだと、電話対応でも、使えそうなレベルですよねーー!!
AIは、いつの間にか生活の中に浸透していて、例えば、お客様窓口とかに電話したときの対応が変わるよって言ってたんですよね。
今だと、
「すでに会員になれれている場合は1番、ご検討中のお客様は2番、オペレーターをご希望の場合は3番を押してください」
ってなアナウンスが流れますよね?
これが、いつの間にか、
「お電話、ありがとうございます。どのようなご用件でしょうか?」
と返答するようになったら、AIになったと思ったらいいよーって言ってますw
だって、今の人件費高騰、人材不足の時代に、電話番の人を増やすなんてありえないので、番号をプッシュしてたのが、人が出るようになったって思うのではなく、AIに変わったってことになりますよ。
で、その兆しが、今回のデモでもよーーーーーくわかります。
抑揚のない平坦な音声ではなく、それなりに感情があるかのような抑揚のある話し方になるってのは、より電話対応をAIがやりやすくなってきてるのですよねー!
その3 途中で話を止めて、傾聴重視!
これは、すごい!!
これまでも、テキスト出力を音声合成で読み上げるとかは、簡単にできました。
しかし、それだと、500文字とか出力してきたときに、音声の読み上げ機能を途中で止めるのは、どこかを「ぽちっ」ってやらないと止められませんでした。
これって、めちゃくちゃムズイ。
特にスマホで使っている場合は、音声だけでやりとりしたいのに、AIの会話をさえぎるために、画面を見て指でポチらないと止まってくれません。
こういう少しの面倒が、人間にとってはストレスになって、それが積もり積もって、「つかえねーーーー!」ってなっていくのです。
ところが、今回のデモを見ていると、ChatGPTが話している途中で、割り込んで話しかけるところが、何度も出てきます。
人間が話始めると、途中で止めて、「傾聴」に入るのです。これは、マジで優秀なカウンセラーですよ!!www
そういう「傾聴」しているということを意識して、もう一度、見てみてください。
常にスマホと話をする人が増えていく! そして、世界はアップデート!!
こうなってくると、スマホと常に話をしている人たちが、続々出てくるでしょうね。
いや、スマホに向かってというよりも、ワイヤレスのヘッドセットをしていて、常に会話をしている状態になるでしょう。
スマホを持たずに、電話をしている人たちが珍しくなくなってきた今、さらにアップデートされ、常に話をしている人たちが増えていく世界にアップデートされていきます。
むかーーーーーーーーーーーーし、パソコンで音声入力とかが、ちょっと話題になったころに、周囲の人が怪訝な顔をしていましたが、もう、そんなことはありませんw
これからは、いたるところで、ぼそぼそと独り言をつぶやく人たちが当たり前になり、電車の中が、また昭和のころのように(?)賑やかになるかもしれませんw
ただ、そこは、以前のように「同じ物理空間にいる人」と話をしているのではなく、「同じデジタル空間にいるAI」と話をする人たちばかり。
そんな世界へアップデートされていくのでしょうね!!
あなたは、そんな世界を、どう思いますか?
おまけ・・ というか、戯言www
Google I/Oの24時間前にデモをやったのはなぜか?
このライブ中継の24時間後には、Google I/Oというカンファレンスがあります。
なぜ、この24時間前に、OpenAIはデモをやったのか? しかもライブで!
この答えは、Googleが2023年末に発表したGeminiに対するOpenAIの自慢なんだろうなぁって思いますw
Geminiを発表したとき、マルチモーダルで、音声も認識するし、カメラ動画も読み込んで判断するし、すげーーーーー!ってなったのですが、ライブではなく、編集されていて、いろいろ失敗しているところはカットされてたということが、騒がれました。
つまりは、ライブで見せるほどのレベルではなく、あれこれ試行錯誤して、質問がうまく通るように何度も何度も、やり直していたということ。
ところが、今回のOpenAIは、ライブで、デモンストレーションを見せ、会場にも人を入れて、配信。
つまり、「これ達は、ここまでできてるぜー! しかも、この数週間で、使えるようにするぜー!」ってことなんです。
24時間後には、Googleも、かならずAIについての発表をするわけですが、たったの24時間で、このOpenAIのデモンストレーションを上回ることを見せられるのでしょうか?
今、Googleのエンジニアやら、プレゼンターやら、もう、必死であれこれ準備をやってるはずですよw
もし、「OpenAIさん、せいぜい、がんばりなよー」って余裕のよっちゃん(ふるっ!w)だったら、OpenAIは、たんなる前座になってしまいますけどねw
今のChatGPT本が一夜にして売れなくなったぞ!w いらぬお世話だけど(^^;
今夜のデモンストレーションで、またしても、ChatGPTの使い方が一気に変化してしまいました。
現時点で書店に並んでいるChatGPT本は、プロンプトを掲載していて、その通りに打ち込んで使いましょう!とか書いてますよね。
でも、数週間のうちに、話しかけて使う、音声で回答してくれるのが当たり前のChatGPTになってしまいます。
プロンプトがどうのこうのとか言ってるような場合ではなくなりますw
以前も、大幅に変更されて、それ以前のChatGPT本に書かれていること、特に操作方法がまったく変わってしまったのですが、またまた、同じことが起きました。
ChatGPT本が、大量にBookoffに持ち込まれる予感(^^;
この記事が気に入ったらサポートをしてみませんか?