見出し画像

20240514_GPT-4o(オムニ)が出たので関連ツイートをキュレーション(ChatGPT部、大城)

おはようございます、ChatGPT部、部長の大城です。いやー、今朝のAM2:00にGPT-4o (オムニ、の略みたいです)が出ましたね。もう1個くらい新しいNEWSが出ないかとも思いましたが、これはこれで結構すごかったので先人の検証結果のツイートを収集したいと思います。(私より詳しくまとめてくれてる方いっぱいいらっしゃると思いますので)

日本時間2024/5/14 AM2:00の公式ライブ動画

youtubeで見れます。日本語に翻訳すると便利です。

なお、youtubeでの英語から日本語への翻訳は設定から字幕をONにして自動翻訳で日本語を選択すると良いです。

GPT-4oの公式デモ

この辺り見ると良いかと。会話中に声色を変えたり、会話を途中で遮って別の話題を入れたり、動画でこちらの状況をシェアしながらGPT-4oと会話する様子が映ってます。( 手元のアプリのGPT-4oではまだここまでのインタラクティブな反応は見られないので、そのうちGPT Plusユーザーにupdateされるかもですね)

Twitterで早速検証してくれている皆様の投稿より


チャエンさんの投稿動画。GPT-4oとGPT-4 Turboの比較。チョッパやになってます。

Kyutaroさん。東大の数学問題もそのまま解いてくれたとか。

塩崎あきひさ議員も反応されてました。(5月14日7:00ごろ。早い。)

Tetsuro Miyatakeさん。デモ動画ですが、ChatGPT-4oがブラウザ内の他のドキュメントも読めるデモの一環で家庭教師役のユースケースの紹介。(動画認識できるってことはこういう使い方もできるのよね・・)

同じくTetsuro Miyatakeさん。対話の割り込みのデモも。

石川さんの「えぐい」OCR精度。こんな細かくても読めるんか・・

一応、自分もいつものマック画像で認識。チョッパやでした。

日本マイクロソフト社のGamoさんからはAzureでのGPT-4oアナウンスについての投稿も。

ML_Bearさんより、APIの価格関係。安くて性能も上がるといういつものパターン。


子猫遊りょうさんの投稿。英語だと画像結構いい感じに行けそうですね
(日本語だとうまくいかなかったです)

元木さんの感想。私も若干ホッとしてます(個人的には6割びっくりくらい)

ちなみにGPT-4o、ChatGPT Plusユーザーにはアプリ版やWeb版でも使えるようになっていました。(Torishimaさんの歓喜ツイート)


多分、他にも色々と検証が進んでいると思いますがそろそろ仕事の準備しないとなので一旦この辺で。他にも気になる方は上記の方々をフォローするか、GPT-4oとかでTwitter(X)を検索すると良いと思います。



まだ自分の環境では確認できてないところ

デモでは紹介されていた、以下はまだ未検証です
・動画認識
・声色の変化 / こちらの声色の認識
・デスクトップで動かして他を認識

あと
・他の人のポストにある、日本語を埋め込んだ画像出力
も未検証です。
前者はおそらくそのうちupdateあるんじゃないかなーという感じですね。

あとGPT Plusの未契約ユーザー(というか、非ログインユーザー)には5/14 8:15現在はまだ公開されていないようでした。
(OpenAIとしては、今後無料公開 & GPTsも一般公開、という感じの紹介がWeb上かどこかであった気がするので、おそらくそのうち使えるようになるのでは、と思います)

所感等:6割びっくり、でも十分強い

正直、ある程度既存の技術の範囲だったので想像の域は出ていませんが、それでも純粋に強い。スピードで殴ってくる感じですね。(個人的にはGPT-4やGPT-4Vが出た時の方がびっくり。)

とはいえ、まだほとんどの人(おそらく9割以上)がChatGPTの無料ユーザーだと思いますので、そのうちGPT-4oが無料公開されたら皆さん度肝を抜かれるのでは、と思っています。(GPT-3.5で日本語下手で使えない、という言説は昔からずっと聞いてますし)

おそらくそのうちGPT-5とかも出してくると思いますのでその時は200%くらい驚く結果になるかなとも思いつつ、ChatGPT APIを組み込んだサービス開発もたまに行う身としては「OpenAIの進化の方向に巻き込まれると一瞬で技術的優位性が失われる可能性がある」という点は気をつけないとなーと思っています。

いずれにせよユーザー視点ではありがたい話なので、また色々と触ってみたいと思います。皆さんもどうぞ良いChatGPTライフを・・!(大城)

この記事が気に入ったらサポートをしてみませんか?