見出し画像

ChatGPT新版きた!

ChatGPT新版きた!
関数呼び出しとその他のAPIの更新
既存の4.0の廃止計画、3.5は値下げ
これまた地殻変動だわ

‪OpenAIからのメールより(はかせ文体翻訳)‬

‪OpenAI開発者プラットフォームのいくつかのアップデートを発表することを楽しみにしている。‬

‪GPT-3.5-turbo‬
‪このモデルは新しいバージョンに更新されたぞ!‬
‪gpt-3.5-turbo-0613は、システムメッセージでより操縦しやすくなった。その名も新機能「関数呼び出し」。プロンプトに関数を記述することで、お前の入力に基づいて、関数を呼び出すための引数を含むJSONオブジェクトをインテリジェントに出力することができるのじゃ‬
‪他のツールやAPIと統合するのに最適じゃろう‬
‪詳しくは関数呼び出しのドキュメントを参照されたし‬

‪さらにGPT-3.5 Turboの入力トークンの値段を25%削減したぞ‬
‪現在、1K入力トークンあたり0.0015ドルじゃ、もう今から即時適用じゃい!‬

‪より長いコンテクスト‬
‪さらにgpt-3.5-turbo-16kをリリースしたぞい。‬
‪このモデルは、4Kベースモデルの4倍のコンテキスト長なのに、価格は1K入力トークンあたり0.003ドル、1K出力トークンあたり0.004ドルである!‬

‪モデル移行計画‬
‪今日から新しいgpt-3.5-turbo-0613モデルを使い始めることができるぞい。6月27日には、安定版のgpt-3.5-turboがこの新しいバージョンに自動的移行される予定じゃ。移行に時間が必要な場合は、gpt-3.5-turbo-0301を明示的に指定して旧バージョンを使い続けることも可能じゃ。おすすめはせんが、9月13日まで利用できるぞい。‬

‪-OpenAIチーム(脳内はかせ翻訳)‬

公式Examplesもオープンソース

根回しが速いというか、ドキュメントもオープンソースだ

関数を実行…ってセキュリティは大丈夫?

functionsはChatCompletion APIのオプションパラメータで、関数の仕様を提供するために使用することができます。この目的は、モデルが関数入力スキーマに準拠した出力を生成することを可能にすることです。なお、APIは実際に関数の呼び出しを実行することはありません。モデルの出力を使って関数呼び出しを実行するのは、開発者次第です。

https://github.com/openai/openai-cookbook/blob/main/examples/How_to_call_functions_with_chat_models.ipynb
(DeepL訳)

functionsのdescription と引数から推測するってことですね

迂闊な関数を定義しなければ大丈夫なのかな

単純な理解としては、かならずJSONを返してくれる。
SQLもあるみたいだ。
LangChainのToolsそっくりだ…。
公式側は「ChatGPT PluginsのAPI版」と表現している。

LangChainの開発者たちはもう無言で回収。

すごい速度感ですごいもんがでてきたな…もうそろそろLLM自体がBIOSぐらいの意味になっちゃうんだろうな…。

bbzさんがシュッと評価してくれています

自分で手を動したレポ

このサンプルを日本語化しています
やれることがたくさんあります。

  • 関数呼び出し

  • sqliteを使ったSQL生成と問い合わせ

  • 複数の関数の問い合わせ

  • arXiv検索:PDFをダウンロードして要約

  • arXiv会話:会話でこの機能を試す

ChatGPT Functions... おまえ日本語で問い合わせてSQLが返せるじゃないか…やば…

Function generation requested, calling function Prepped query is {'query': 'SELECT Album.Title, COUNT(Track.TrackId) AS TrackCount FROM Album JOIN Track ON Album.AlbumId = Track.AlbumId GROUP BY Album.AlbumId ORDER BY TrackCount DESC LIMIT 1'} 最も多くの楽曲が収録されているアルバム名は、「Greatest Hits」です。このアルバムには57曲が収録されています。


ArXivから与えたキーワードの論文PDFダウンロードして和文で要約を作ってもらっている

こちらにおいておきます

最後、惜しくもこのモデルは4097トークンしか使えんが5237トークンあるとのことで実行できない。

InvalidRequestError: This model's maximum context length is 4097 tokens. However, your messages resulted in 5237 tokens. Please reduce the length of the messages.

日本語のプロンプトにしているせいだろうか、わかる人いたら教えてください。

タイトル画像

この記事が気に入ったらサポートをしてみませんか?