OpenAI Devday ざっくりまとめ!

※ライブを見ながらのメモを元にした、速記なので違和感あるところなどフィードバックください。すぐ編集します。一旦寝ます。


GPT-4 Turboが登場!

OpenAI APIより

ChatGPTにメモをまとめてもらいました。
OpenAIがいくつかの新しいAPIを発表し、既存のサービスをアップデートしました。これには、開発者向けのコード解釈や検索機能を備えた「新しいAssistants API」の提供開始が含まれます。また、最先端のGPT-4モデルは、「GPT-4 Turbo」として知られるようになり、その知識のデータベースは2023年4月までの情報でアップデートされています。視覚情報を処理できる「GPT-4 Turbo Vision API」も新たに登場し、画像入力に対応した能力を開発者に提供します。
OpenAIはまた、「DALL·E 3 API」をリリースしており、ユーザーはこれを使って独自の画像を生成することができます。さらに、「新しいText to speech API」は、6種類の異なる声を通じてテキストを音声に変換する機能を開発者に提供します。
将来の展望として、OpenAIは「Whisper V3モデル」を公開する予定であり、このモデルはより精度の高い音声認識能力を提供することを目指しています。そして、開発者が利用しやすくなるよう、APIのレートリミットを削減し、開発コストの削減にも寄与しているとのことです。これらの更新と新機能は、技術進歩の面で非常に興味深いものであり、開発者コミュニティに新たな可能性をもたらすでしょう。

感想
思ったよりすぐ4VのAPIも来たし、すごすぎる!知識ベースが2023年4月までに拡張されているのも神アプデですね。また、コストも下がっており、2.75倍?Cheaperになっているのも魅力的。function calling を同時に複数呼べるなどサラッと流している重要情報もあり、注目のアップデートでした!

Assistants APIも登場!

デモでも実施していましたが、音声→学習データを元にタスク実行(デモでは、会場に来ている方々をランダムに指名し、5ドル(500だったかも)のOpenAIのクレジットをお金配りしていましたw)できる世界はまさに近未来感ありましたね。アイアンマンのジャービスの世界w

↑この記事読めばとりあえず全部わかりますw


Playgroundもなんだが使いやすそうで良き。参考↓


GPTs/GPTビルダー(カスタマイズできるBot的な)

ChatGPTにメモをまとめてもらいました。
OpenAIは、ユーザーがChatGPTとの対話を通じて、自分だけのカスタマイズされたGPTを作成できる新機能を導入しました。この新しいオプションを使用することで、ユーザーは独自の名前や説明文を設定し、カスタム指示や会話の起点を定義できるほか、特定のファイルの追加や特定の機能やアクションを組み込むことができます。さらに、DALL-E 3を用いて作成したプロフィール写真を使って、そのGPTの"顔"を設定することも可能です。アプリストアにGPTを公開し、収益を得ることもできます。

感想
デモでは、チャット形式で対話をしながらインタラクティブに右のペインにてボットがアップデートされるインタラクションが紹介されていました。自然言語でAIペルソナを育てているUXが良かったですね。OpenAIのWebサイトを見ると、企業内でクローズドなBotも作成できるみたいなので社内秘書(概念)やら社内コンサルタント(概念)の育成が更に捗る予感ですね。

そしてアプリストアの発表もサラッと行っていましたが驚き。(さすがにプラットフォームのマージンなどは発表まだでしたが、Apple Storeになろうとしているw)

プラグインの機能はより「機能的 ※必要な時に呼び出す特性から、そもそも想起がむずい」だったものからより直感的に、慣れているインターフェースで各ボット(エージェント)と対話するUXに変わるのが非エンジニアからすると嬉しい。


まとめ

DevDayだけあって、開発者向けのアップデート中心、かつ物凄い速度でローンチされるAPIの数々に驚きでした。Generative、LLM のような言葉はほぼ出てこず、Microsoft CEOとの対話で使っていた「AGI」やそこを見据えた「Agent」というワーディングが多様されていたのが個人的には印象的でkした。プロンプトベースの生成UXからまずはAgentベースの対話でのタスク解決UXに主従が置かれていきますね!

よろしければサポートお願いします!集まったお金でいい記事を書くための書籍を買いまくります。