GPT-4o がリリースされました!
GPT-4o実際に使ってみた感想
GPT-4oがリリースされました
日本時間2024年5月14日、OpenAIは新たなフラッグシップモデル「GPT-4o」を発表しました!
ということで、早速、弊社のチーム向けGPT導入アプリ「CHATMAN」も最新APIGPT-4o APIに対応をしました。
(動画は26分以上あるので、CHATMANにYoutubeも読み込ませて要約させてみます)
CHATMANをPWA版で利用される場合は、最新版へUpdateしてからお使いください。
実際にGPT-4oを利用した以下に結果をまとめておきます。
GTP-4oの特徴
・Visionインタフェース(画像生成I/O)が利用可能になった
・gpt-4-turboの50%のコストで利用できる
・gpt-4oの生成速度は、gpt-4-turboの約2倍速い
以前までの最新版のgpt-4-turboの変更点
・ Visionインタフェース(画像生成I/O)が使えるようになった
※この仕様追加に伴い、従来のビジョンモデル「gpt-4-vision-preview」は、非推奨となりました。
これ以外にも、話題になっているリアルタイム音声会話などもできるので、このバージョンはおすすめだと思います。
CHATMAN利用時の反応速度
文書生成の精度について(実際に使ってみた個人的な感覚です)
gpt-4o
・通常の質疑応答がとても速くなった。オフィシャルでは2倍と発表されているが、体感速度は3倍以上速く感じる。
・深く理解していないと説明できない状況の内容で把握する精度がかなり高い
・細かい状況を解析や分析する精度がかなり高い
gpt-4-turbo
・文書全体の概要を簡潔にまとめる場合は、gpt-4-turboの方がわかりやすい。
コンサル文書の作成時間調査
〇日本語文書=1658文字
・DeepLなし
→gpt-3.5-turbo(8000T):24秒
→gpt-4-turbo:57秒
→gpt-4o:37秒
・DeepLあり
→gpt-3.5-turbo(8000T):14秒
→gpt-4-turbo:29秒
→gpt-4o:20秒
〇日本語文書=27144文字
・DeepLなし
→gpt-3.5-turbo(4000T):4分20秒
※3.5は文書の出力能力が低いため、最大トークンを4000以下に設定しておかないと翻訳で失敗します。
→gpt-4-turbo:6分53秒
→gpt-4o:2分50秒
・DeepLあり
→gpt-3.5-turbo(8000T):16秒
→gpt-4-turbo:37秒
→gpt-4o:29秒
という結果になりました。反応速度は、GPT-4turboと比較して、とても早くなっているのが分かります!!
実際に使ってみた感覚ですが、gpt-4-turboよりもgpt-4oの方が処理が速く、APIの課金コストも半分で済むため、 今後はgpt-4oモデルを標準で利用した方が良いと思われます。
日々、進化している生成AIですが、Googleの検索と同様に業務効率のために利用するのが当たり前、の社会になっていくのではないか、と思います。
CHATMANは、チームで気軽に、セキュリティも安全に生成AIを導入できるようにすることを目指しています。文書の扱いに特化しているので、膨大なマニュアルや、仕様書などにお困りの企業の方にもおすすめです。
この記事が気に入ったらサポートをしてみませんか?