見出し画像

#50【想像を超えるGPT-4o】ChatGPTの新モデル触ってみた

おはようございます。



51営業日後に『生成AI活用法』セミナーを開催するアヒルです。やっと50投稿、まだ50投稿です。。


昨日ChatGPTを開いたら、こんなポップアップが。

ふぉー。


なんだ?と思いながら、今すぐお試しすることにしました。

最新の、最もすすんだモデルがそこにはいました



GPT-4oとは?


読み方は「ふぉー・おー」。
一体どんなモデルなのかGPT-4o自身に聞いてみました。

OpenAIは新モデル「GPT-4o」を発表しました。これはテキスト、音声、ビデオの処理が可能な「オムニ」モデルで、GPT-4より高度な知能と機能性を備えています。リアルタイムの応答性と音声対話の強化、写真やデスクトップ画面からの質問への回答、約50の言語サポートが特徴です。

ここからわかることは、

GPT-4oが最新の情報にアクセスできていること、

4oの"o"は、"omni(オムニ)"の"o"であるということです。


使い方としては、従来のようなテキスト生成はもちろん、画像や動画をもとにチャットをしたり、人間さながらの口調で会話をしたりできるそうです。

歌を歌ったり、笑ったり驚いたりと感情を持って話してくれるそうで、期待が高まります。
より人間ぽくなったアレクサみたいなイメージでしょうか、、?


チャットしてみた



まずはテキストでチャットをしてみます。

久々に、アヒルがAIによく投げてるいつもの質問をしてみます。

お……!正解


それまでのモデルで聞いた時は、

ヌルスルタンで時が止まっていたのに……!


4oは最新情報を元に回答してくれました。


また、驚くべきはその生成スピードです。

音で表すなら"デュルルルルルルルルルル(巻き舌)"といった感じ

これだけの文章量を一瞬で生成しました。
GPT-4とは比にならないくらい速いです。

体感的には、hugging chatでGoogleのオープンソースAI・Gemmaとチャットした時と同じくらいのスピードです(こんなので果たして伝わるのでしょうか…)。

と、とにかく速いのです!


次回予告


音声でのやりとりが魅力ぽいので、早速スマホのアプリ版で試してみたいところでしたが、

同じ思いの人が多いためか、アクセスが集中しエラーになってしまいました。

復活してたら試してみようと思います。

お読みいただきありがとうございました!

この記事が参加している募集

#AIとやってみた

27,502件

この記事が気に入ったらサポートをしてみませんか?