![見出し画像](https://assets.st-note.com/production/uploads/images/140658227/rectangle_large_type_2_26ebe6786bcc16fada3af38a50d18089.png?width=800)
#50【想像を超えるGPT-4o】ChatGPTの新モデル触ってみた
おはようございます。
51営業日後に『生成AI活用法』セミナーを開催するアヒルです。やっと50投稿、まだ50投稿です。。
昨日ChatGPTを開いたら、こんなポップアップが。
![](https://assets.st-note.com/production/uploads/images/140629593/picture_pc_c5a3639296e230d163f780fb13389ee6.png)
なんだ?と思いながら、今すぐお試しすることにしました。
![](https://assets.st-note.com/production/uploads/images/140629760/picture_pc_2e1bf4283089e9967c4c8a27d24afb8e.png)
GPT-4oとは?
読み方は「ふぉー・おー」。
一体どんなモデルなのかGPT-4o自身に聞いてみました。
OpenAIは新モデル「GPT-4o」を発表しました。これはテキスト、音声、ビデオの処理が可能な「オムニ」モデルで、GPT-4より高度な知能と機能性を備えています。リアルタイムの応答性と音声対話の強化、写真やデスクトップ画面からの質問への回答、約50の言語サポートが特徴です。
ここからわかることは、
GPT-4oが最新の情報にアクセスできていること、
4oの"o"は、"omni(オムニ)"の"o"であるということです。
使い方としては、従来のようなテキスト生成はもちろん、画像や動画をもとにチャットをしたり、人間さながらの口調で会話をしたりできるそうです。
歌を歌ったり、笑ったり驚いたりと感情を持って話してくれるそうで、期待が高まります。
より人間ぽくなったアレクサみたいなイメージでしょうか、、?
チャットしてみた
まずはテキストでチャットをしてみます。
久々に、アヒルがAIによく投げてるいつもの質問をしてみます。
![](https://assets.st-note.com/production/uploads/images/140630761/picture_pc_45267924dd3e2bf2d4010be93b6daaee.png?width=800)
それまでのモデルで聞いた時は、
![](https://assets.st-note.com/production/uploads/images/140630802/picture_pc_7db831a0a42863e3c735bdaba1eeeb6b.png?width=800)
4oは最新情報を元に回答してくれました。
また、驚くべきはその生成スピードです。
![](https://assets.st-note.com/production/uploads/images/140630970/picture_pc_02c31fa4e69cef27348773759217f4f3.png?width=800)
これだけの文章量を一瞬で生成しました。
GPT-4とは比にならないくらい速いです。
体感的には、hugging chatでGoogleのオープンソースAI・Gemmaとチャットした時と同じくらいのスピードです(こんなので果たして伝わるのでしょうか…)。
と、とにかく速いのです!
次回予告
音声でのやりとりが魅力ぽいので、早速スマホのアプリ版で試してみたいところでしたが、
同じ思いの人が多いためか、アクセスが集中しエラーになってしまいました。
![](https://assets.st-note.com/production/uploads/images/140631539/picture_pc_20bac2ce30d0be915ccfdab1aac033d1.png?width=800)
復活してたら試してみようと思います。
お読みいただきありがとうございました!
この記事が気に入ったらサポートをしてみませんか?