この動画では、OpenAIの次世代AIモデルに関する秘密の発表と最新情報が紹介されています。パリで開催されたVivaTechカンファレンスでは、2021年のGPT-3、2023年のGPT-4に続き、2024年11月に「GPT-Next」と呼ばれる新モデルがリリースされることが示唆されました。GPT-Nextは、GPT-5ではなく新しい名称が付けられており、その性能は現在のモデルとは比べ物にならないほど向上するとのことです。また、2024年11月というリリース時期は、米国大統領選挙の影響を考慮したものだと考えられます。OpenAIの幹部は、1〜2年以内にモデルが現在とは全く異なるものになると予測しており、特に推論能力の大幅な向上が期待されています。また、医学研究や科学的推論においても優れた性能を発揮すると考えられています。さらに、マイクロソフトとの協力により、大規模な計算リソースを用いた次世代モデルの開発が進められています。
公開日:2024年5月24日
※動画を再生してから読むのがオススメです。
今から1年か2年後には、モデルは今日のものとは見分けがつかないくらいになると考えています。
今年は、さらにその限界を押し広げる予定であり、次のフロンティアモデルが理論の改善において飛躍的な進歩をもたらすと期待しています。
実際、非常に興味深い発表がありました。
しかし、私を含め、多くの人々が実際にその発表が何であるか気づいていなかったのです。
それはかなり地味な存在でした。
しかし、このビデオでは、将来のOpenAIのモデルに導入されるこれらの秘密の発表やアップデートのいくつかを皆さんに紹介します。
実際には、秘密のプレゼンテーションで明らかにされたいくつかの重要な日付を含む、非常に近い将来についても触れます。
ここで見ることができるものの1つは、過去24時間インターネット上に出回っている画像です。
この画像は、一般的にVivaTechとして知られるViva Technologyイベントから来ていることを確認しました。
それは革新とスタートアップに捧げられた年次のテクノロジーカンファレンスです。
それはフランスのパリで開催され、2016年に広告代理店グループによって設立されました。
このイベントはパリエキスポで開催されます。
それはほぼ、あるいはむしろ、ヨーロッパ最大のテックとスタートアップのイベントの1つです。
それは主にテクノロジーの革新に焦点を当て、他のいくつかの重要なビジネスの洞察も含まれています。
この画像からは、非常にシンプルに見えますが、多くの人々が見逃してしまった点がありました。
こちらの画像をご覧いただいているとおり、3つの主要なポイントがあります。
私たちが持っているのは、2021年であり、GPT-3時代であるDaVinciモデルです。
これはもちろん2021年のことです。
今見ることができますが、これは実際に非常に興味深いです。
だからこそ、このビデオが非常に重要だと思います。
2023年にGPT-4時代に移行したことがわかります。
GPT-4がリリースされ、展開された時期であることがわかります。
非常に興味深いのは、新しい情報が示されていることです。少し興味深いと言えるでしょう。
彼らはこれをGPT-Nextと表現していることがわかりますね。
おそらくGPT-5は登場しないかもしれないと思います。
私が言うとき、GPT-5が実際に登場しないという意味ではありません。
私が言いたいのは、GPT-5というものを考えると、OpenAIは人々が考えている以上に多くの計画を立てている可能性が高いと思うということです。
もちろん、最近デモされたGPT-Oでも見られたことですが、それは私たちに2024年5月を示しています。ここで今日見ることができるように、そしてMay 2024と書かれています。
しかし、狂ったことに、このGPT-Nextモデルのリリース日が実際に公開されています。
ここを見るとわかるように、実際には2024年11月です。
この日付はいくつかの理由で非常に重要ですが、すぐに説明します。
でも、本当に驚いた最初のことの1つは、もちろん、これがGPT-5ではなくGPT-Nextと呼ばれているということです。
これが本当に狂っているのは、最も狂っていることは、明らかに何らかの能力の向上が見られるということです。
これは非常に難しいことですが、ここに左側に書かれているのはモデルの知能ということです。
GPT-3の知能がこのレベルだったことがわかりますし、GPT-4の知能は、それをベンチマークしていませんが、おそらくこれはGPT-4oだと思われます。
あそこにわずかな改善が見られることがわかりますが、その改善はわずかです。
考慮しなければならないのは、たとえ改善がわずかであっても、多くのユースケースが非常に驚くべきものになるという事実です。モデルが賢くなり、より信頼性が高くなると、それが影響を及ぼす産業が全体として大幅に増加することを意味します。
ここで見ることができる最も重要なことの1つは、GPT-4oまたはGPT-4からのモデルの知能が非常に大きく飛躍しているということです。
このレベルからこのレベルまで文字通り見ることができます。ジャンプの量がその程度であることがわかります。
しかし、ここからはかなり大きな飛躍です。
実際、実際の矢印を使うべきかもしれませんが、私のひどい絵についてはお詫び申し上げます。
ここで言いたいポイントは、このGPT-Nextモデルで得られるような飛躍が本当に驚くべきものに見えるということです。
これは彼らが繰り返し述べていることで、これらの将来のモデルは、どれだけスマートなシステムであるかに関して非常に賢いということです。
他にも特徴があるかもしれませんが、これは私たちが知っていることです。
OpenAIのこのGPT-Nextモデルについて話したかったことの1つは、もちろん、これがGPT-5になると簡単に言えたかもしれませんが、もちろん、公式には発表したくないということです。
それは単にGPT-5のプレースホルダーになる可能性があります。
私はそれがGPT-5ではないかもしれないと思いますが、それについて詳しく調べてみます。
しかし、皆さんに知ってほしいことの1つは、2024年11月のこのリリース日が重要な日であるということです。これは、GPT-5であろうとGPT-Nextであろうと、他にどんなモデルがあろうと、次のモデルのリリース日として意味があるからです。
この日付がOpenAIによって何度か言及されていることが重要だと思います。
今年の中で重要なことの1つは、アメリカに住んでいない人もいるので気にしていないかもしれませんが、2024年のアメリカ大統領選挙があります。
これは11月5日の火曜日に行われる予定で、あなたはおそらく、でもそれは選挙だと思っているかもしれません。
それが実際のAIシステムと何の関係があるのか?
つまり、それは政治であり、これは技術です。
実際、これらのことは非常に密接に関連しています。なぜなら、OpenAI自体がこれに関して声明を出しており、選挙がGPT-5の遅延の理由であると多くの人が考えていたように、実際に選挙はGPT-5のリリースに大きな影響を与えたとOpenAIのCTO ミラ・ムラティが最近確認したことがわかります。
私たちは、それが世界の選挙や他の問題にどのように影響するかに自信がないものは何もリリースしないと彼女は先月述べました。
OpenAIの彼女は先月、「世界の選挙やその他の問題にどのように影響するか自信がないものは何もリリースしないだろう」と述べました。
確かに、業界を驚かせたマルチモーダルAIであるGPT-4oのデモは非常に衝撃的でしたが、ここで見ることができるように、OpenAIが将来のモデルが選挙に関して何ができるのかに非常に関心を持っているのは驚くべきことです。
私は2つのうちのどちらかだと思います。
選挙が近づいているため、常に何が起こるかやプライバシー問題に関する議論など、さまざまな会話が行われています。
問題は、OpenAIが選挙前にモデルをリリースした場合、否定的なPR状況に直面する可能性があるということです。
一般の人々がOpenAIについて否定的に考える可能性があるということです。
もちろん、今週、OpenAIは、会社で起こっているいくつかのことにより、多くの悪いニュースを受けています。人々が去ったり、サム・アルトマンが疑問の余地のあることをしたりしているためです。
その時期にモデルをリリースしないことが重要だと思います。なぜなら、もし技術がグラフが示すように本当に進化しているなら、それは個々の民主主義を脅かすものとして広く受け入れられるだろうからです。人々に影響を与える能力があるなら、個々の人々はこれがすべて計画されたものだと言うかもしれません。
政治では、事態は非常に難しく、非常に迅速に進展します。
これは理にかなっていると思います。
私が間違っているかもしれませんが、OpenAIのCTOが何もリリースしないと述べていること、そしてもちろんここにはGPT-Nextという言葉があり、2024年11月に選挙の直後にそれがあるという事実があります。
2024年11月を考えると、その前の噂もそう言っていたので、これも理にかなっていると思います。
ここで彼は実際にGPT-Nextモデルについて話しています。
これは非常に魅力的なクリップで、ここにはこのグラフもあります。
とても、とても、とても見にくいですが、非常に、非常に、非常に見にくいですが、拡大すると、このグラフも見ることができます。
私たちはGPT-3時代、GPT-4、GPT-Nextを見ることができますが、これには実際の日付が記載されていません。
以前は日付があったかもしれませんが、それは独自の情報に基づく間違いだったかもしれません。
もちろん、今はその情報が出回っていますが、いつ発表されるかはわかりません。
11月5日以降、11月末まで、おそらく何らかのモデルが登場する可能性が高いことはわかっています。
とにかく、私たちはこれにとても興奮していますが、ここで彼が話していることを皆さんに見せたいと思います。私たちがカバーしたい4つの投資分野があります。
私たちが持つ最初の重要な優先事項は、テキストの知能です。
私たちの中心的な信念は、テキストの知能を高めることで、AIに変革的な価値を引き出すことができるということです。
ここで画面に表示されているのは、今日提供している2つの主要なモデルです。
GPT-4は、私たちがちょうど示したネイティブのマルチモダリティを持つ最高のモデルであり、GPT-3.5 turboは10倍安く、分類や非常に単純なエンティティ抽出など、簡単なタスクに便利です。
私たちは、大規模言語モデルの知能を高める潜在能力は依然として非常に大きいと考えています。
今日、私たちはモデルがかなり優れていると考えています。
それらはまるで一年生や二年生のようで、適切に反応しますが、時折まだミスを comit します。
しかし、私たちが自分自身に思い出すべき素晴らしいことは、これらのモデルがこれ以上愚かになることはないということです。
彼らは、瞬く間にマスターの学生になるかもしれません。
彼らは医学研究や科学的推論で優れるでしょう。
我々は、おそらく1年か2年後には、現在のモデルとは全く違うものになると考えています。
今年は、さらにその限界を押し広げる予定であり、次のフロンティアモデルが登場し、推論の改善において段階的な進化をもたらすと期待しています。
私たちにとって2番目の投資領域は、モデルが常に安価で高速であることを確認することです。
すべてのユースケースが最高水準の知能を必要とするわけではないことを知っています。
だからこそ、私たちが投資することを確認したいと思っています。
画面で見ることができるように、GPTの価格が1年で80%も減少したことがわかります。
それはかなりユニークですが、新しい技術が価格を非常に速く下げるのは珍しいですね。
しかし、私たちは、皆さんが目指す目標を達成し、AIネイティブ製品で革新するために、スケールを拡大するためには、これが非常に重要だと考えています。
私は、このテックカンファレンスからの短い断片がかなり洞察に富んでいたと思います。なぜなら、その短い断片で彼は多くの異なることを実際に言っていましたが、そのうちのいくつかは他のものよりも重要だと思います。
もちろん、彼は価格の低下について話していますが、OpenAIの人物である彼が実際に言及したことの1つは、非常に魅力的だったと思います。それは、文字通り1〜2年以内にモデルが見分けがつかなくなるということです。
これは、AIの分野に注意を払っている人として、さまざまなAIの更新情報を見ている人として、このチャンネルに投稿さえしていない私でも、かなり驚くものです。
私は、技術と知能の指数関数的な増加を理解するのが人間にとって難しいと思うのは、そのためです。
私は、次の5〜10年以内にこの会社から出てくるものに関して、これが本当に変革的な時期になると思います。彼が文字通りモデルが1〜2年で見違えるようになると述べているので、2026年には、これは遠くない未来です。
2年というのは、特にこの種の技術的な進歩にとっては非常に短い期間です。
彼が述べたもう1つの洞察に富んだ点は、推論における段階的な進化について言及したことです。
次のモデルに関しては、これはすでに話し合ったように、AIの推論能力において徐々に進化するのではなく、著しい、独立した改善があることを意味します。
基本的には、徐々な改善とは対照的に、段階関数は特定の時点で急激で実質的な改善を意味し、それに続いて新たな能力のレベルが得られることを意味します。
この変化は、徐々な改善と比較して、より急激で重要です。
推論能力に関して、GPT-3やGPT-4のような現在のモデルは、もちろん、推論や理解、テキスト生成の能力において著しい進歩を遂げています。
しかし、彼らの推論能力は特定の文脈ではまだ限定されている可能性があります。
GPT-Nextモデルは、推論における段階関数が意味するのは、彼らが理解、処理、より複雑で抽象的で論理的な推論形式を理解する能力において著しい飛躍を遂げるかもしれないということです。
その推論レベルの向上により、問題解決能力が向上しているということです。
これは、これらのモデルが、多段階および論理的な推論を必要とする複雑な問題に取り組むのに優れていることを意味します。
もちろん、これは理解力が向上していることを意味します。
これは、AIがより人間らしい方法で文脈やニュアンスを理解し、より正確で関連性のある応答をすることができる可能性があることを意味します。
意思決定に関して、これらのモデルは、提供された情報に基づいてより洗練された意思決定を行うことができる可能性が高いでしょう。これは、高次の思考に似ています。
前にも言ったように、これはまた、さらに多くの応用を開くことになるでしょう。
彼らは医学研究を行うことができるとさえ話していました。
私たちは、Googleが医療のGeminiでその分野に大きく進出しており、目覚ましいベンチマークを達成しているのを見てきました。
OpenAIがReALMで何かをしているのも驚かないでしょう。
一つ話したいことは、もちろん、このリリース日がかなり魅力的であるということです。
そのモデルの名前は、実際に以前に話されたことを思い起こさせました。
ここで見ることができるのは、GPT-Nextと呼ばれるモデルですが、サム・アルトマンとレックス・フリードマンのインタビューを取り上げたときに話したことの一つは、彼がかなり洞察に富んだことを言ったということです。
彼は、彼がリリースする将来のモデルは実際にはGPT-5とは呼ばれないかもしれないと言いました。
もちろん、GPT-5があるかもしれませんが、商標登録されているので、次のモデルが何になるか、いつリリースされるか、何と呼ばれるかはわからないと彼は述べました。
それが正直な答えです。
今年だというなら、二度まばたきしてください。
GPT-5のようなモデルについて話す前に、それがそのように呼ばれるかどうか、またはGPT-5よりも少し悪いか、少し良いか、私たちが最初にリリースするべき他の重要なことがたくさんあることを知っています。
GPT-5から何を期待すべきかわかりません。
あなたは私を緊張させて興奮させています。
何か...ここで、サム・アルトマンが積極的に話しているのは、GPT-5の前にいくつかのものをリリースする方法についてです。
もちろん、ボイスエンジンやSoraなど、さまざまなものを目にしてきましたが、彼がこれらの将来のモデルが私たちが予想している名前では呼ばれないかもしれないと話す様子も非常に興味深いです。
最近見たかもしれないことの一つは、Microsoftからのもので、これは次世代モデルを訓練するために使用している計算のレベルについて話しています。
現在、図を見ると、サメや海洋生物を使用して、彼らが現在使用している計算の規模を理解するのに役立つと言えるでしょう。
ここにはサメがいて、もちろん、シャチもいます。
もちろん、クジラを持っています。
つまり、このグラフで示されている能力の増加は、最初のグラフまで遡っても非常に似ているということですね。
GPT-3、GPT-4の技術は少ししか進化していませんが、次のレベルでは、おそらくOpenAIは信じられないほどの発見をしていて、それが世界を驚かせるかもしれません。それだけの計算量を使って何かを訓練し、アーキテクチャも改善しているので、得られる能力の量は本当に驚くべきものだと思います。
これが驚くべきことだと思うのは、トランスフォーマーのアーキテクチャを改善していないだけでなく、OpenAIが先駆的に取り組んでいる特定の技術について話しているからです。それらの技術を使って、彼らのモデルの推論と能力のフロンティアを前進させているのです。
これは非常に重要な文脈で話されているので、このクリップから短い断片をお見せします。
ここで追加のコンテキストを得たので、ここでスライドからそれを見ることができるようになったので、これを見せる理由はそれだけです。
ここで追加のコンテキストを得たので、前のグラフから見て、能力のジャンプについて文字通り見ることができるので、計算の背後にある側面を理解することが重要だと思います。
そのフロンティアを前進させる。
最初にこのスライドを示したように、私たちがプラットフォームの構築に適用している計算の指数関数的な進化と、私たちが得るプラットフォームの能力とパワーとの間には、今非常に美しい関係があります。
数字を挙げずに、これらのシステムのスケーリングのアイデアを皆さんに伝えたかったのですが、それは少し難しいです。
2020年に、OpenAIのために最初のAIスーパーコンピュータを構築しました。
GPT-3を訓練したスーパーコンピューティング環境です。
まるで海洋生物をスケールマーカーとして選ぶつもりです。
そのシステムは、サメほど大きいと考えることができます。
次に構築したシステムは、スケール的にはシャチほど大きいです。
2022年に納品したシステムは、GPT-4を訓練したものです。
私たちが展開したシステムは、サメサイズのスーパーコンピュータと比べて、クジラサイズのスケールであり、非常に大きいです。
クジラサイズのスーパーコンピュータで、非常に多くのものを構築できることがわかりました。
次にサンプルが来るので、みんな本当に本当に考えてほしいことの1つは、サムと話すための導入になるということです。
このクジラサイズのスーパーコンピュータは、現在、次にあなたの手に入れる予定の機能を構築しています。
彼はそこで言ったように、大量の計算リソースを使って、多くのAIを構築できると言っています。
私は、大量の計算リソースが私たちに何を提供してくれるのか、本当に興味を持っています。
ただ一つ注意すべきことは、膨大な数の機能があるということです。
彼らが話したものの一つに、もちろん、マルチモーダルエージェントがありました。
これは、次世代の最先端モデルの中にあるものになるでしょう。
おそらく今年は何か手に入るかもしれませんが、それ以外にもなぜ手に入らない可能性があるのかについても話したいと思います。
しかし、彼らはまた、マルチモーダルエージェントをデモしました。
もちろん、彼らの投資分野は、テキストの知能、より安価で高速なモデル、カスタムモデル、そしてもちろん、マルチモーダルエージェントです。
OpenAIは、エージェントのワークフローについてあまり多くを示していないので、この短いクリップを皆さんに見せたいと思います。
しかし、エージェントは、コンピュータとのやり取り方を本当に変えるでしょうので、一部をのぞいてみることが重要だと思います。
将来、エージェントがソフトウェアやコンピューターとのやり取りにおいて起こる最大の変化になると私たちは本当に信じています。
タスクによっては、テキストを活用したり、ある文脈やツールへのアクセスを活用したりすることができるでしょう。
再び、私たちが言及したこれらのモダリティは、ソフトウェアとの自然で新しいやり取り方法をもたらすでしょう。
個人的に好きな例の1つは、CognitionチームによるDevInです。
彼らは基本的にAIソフトウェアエンジニアを構築しました。
それは複雑なタスクを処理し、コードを書くだけでなく、タスクを理解し、チケットを作成し、新しい情報を取得する必要があるときにはインターネットを閲覧することもできます。
解決策を展開し、プルリクエストを作成することもできます。
私が本当に好きなエージェントのユースケースの1つです。
実際、今年の初めにポール・グレアムがツイートした内容が目を引きました。彼は、今日の22歳のプログラマーは、28歳のプログラマーと同じくらい優れていることに気づいたと述べています。
20歳代の人々が既にAIやDevInのようなツールを採用し始めていることを考えると、彼らがAIのおかげでますます生産性を高めていることは驚くべきことではないと思います。
もう1つのエージェント体験は、今回は消費者向けのものであるPrestoです。
Prestoは、顧客が声を使って注文をすることができるようにしています。つまり、音声エージェントを使用しています。
もちろん、ヨーロッパにはドライブスルーがあまりありません。
しかし、この例に魅力を感じたのは、労働力不足がある市場を本当に支援しているところです。
その結果、素晴らしい体験を提供するだけでなく、スタッフが実際に食事や顧客へのサービスに集中できるようになっています。
しかし、それでは、もう少しのライブデモに入りたいと思います。実際に今日、どのように支援体験やエージェントを構築できるかを少し説明します。
私たちの最初の具現化形態は。
それにより、このAIパワードのドライブスルーシステムの1つの特徴が、実際に人々に影響を与えていることがわかります。
ドライブスルーについて理解していないかもしれないことの1つは、それらが人間の知能に制限されているということです。
私が週刊AIビデオでデモを見たときに考えていたことの1つは、実際にAIシステムを使ってドライブスルーをしている人のことでした。
彼らは基本的に、AIシステムが正確にあなたが欲しいものを完全に理解できると話しました。
それは他の言語でも正確にあなたが欲しいものを理解することができます。
他の言語でもあなたと会話することができます。ただ一つの言語しか話せない人やバイリンガルでない人よりも、ずっと流暢に話すことができます。
それは忍耐強く、速いです。
私は、より多くのユニークな体験を可能にするものだと思います。
だからこそ、エージェントは非常に影響力があるものであり、これが日常の大規模言語モデルインターフェースだけでなく、実際の生活に影響を与えるところだと思います。
ウェンディーズへようこそ。
何が欲しいですか?
チョコレートフロスティをいただけますか?
チョコレートフロスティはどのサイズですか?
中くらいです。
本日は他に何かお持ちしましょうか?
いいえ、結構です。
次の窓口までお進みください。
これらのエージェントワークフローのデモを見てみましょう。実際に使用して行えるもので、このプレゼンテーションで示された内容です。
開発者向けのエージェントの具現化が、私たちがアシスタンスAPIと呼んでいるものです。
アシスタンスAPIは、皆さんが製品にアシスタンスを取り入れるために使用できる完全なツールキットです。
この場合、私はWanderlustという旅行アプリを作成しています。
ご覧の通り、右側に地図がありますが、左側にも支援体験があります。
これは完全にアシスタンスAPIによって動作しています。
さっそく見てみましょう。
パリオリンピックのトップ5の会場と言った場合、まず最初に注意すべきことは、私がそれらを管理する必要がないということです。
アプリを少しリフレッシュしましょう。
ネットワーク接続が切れたかもしれませんね。
パリオリンピックのトップ5の会場。
最初に注意すべきことは、私がその会話履歴を管理する必要がないということです。
その会話履歴はOpenAIのAssistance APIによって自動的に管理されます。
プロンプトなどを管理する必要はありません。
ここで何が起こっているのかよくわかりません。
さっと見てみましょう。
Wi-Fiや接続が途切れたかもしれませんね。
いいえ。
最後に1回試してみましょう。
ローマに行きましょう。
そうですね。
オリンピックは不運だったようですが、戻ってきたようですね。
実際には、これらのメッセージを管理する必要はありません。
会話履歴はOpenAIによって自動的に管理されます。
ここで本当にクールな2つ目のポイントは、これらのメッセージとやり取りを始めると、地図が自動的にズームされることがわかるということです。
私がエージェントを構築する際のお気に入りの機能の1つです。
「ファンクションコーリング」と呼ばれています。
「ファンクションコーリング」とは、皆さんがアプリのユニークな機能や独自の機能に関する知識を、この場合はGPT-4というモデルに持ち込む能力です。
ローマで見るべきトップ5のものを言ったら、ここで何が起こるか見てみましょう。
理論上、ここにポップアップするべきは、再びテキストと地図の間の相互作用です。
さあ、始めます。
ご覧の通り、モデルと話している間に、実際に地図を特定できるので、この機能が存在することを知っています。
本当にすごいですね。
それはすでにアシスタントCPIのツールキットの一部として利用可能です。
ここで言及したい別のツールは、知識の取得です。
多くの方が、GPT-4などのモデルとの会話に事実データを持ち込みたいと知っています。
通常、そのためには取得スタックを構築する必要があります。
多くの開発者から、それがどれだけ複雑であるかを学びました。
私たちは取得スタックに多くの改善を加えました。
実際にリアルタイムでこれをデモできるか試してみます。
私はイタリアへの旅行を準備するために、この本を実際に購入しました。
それはかなり包括的な本です。
250ページくらいあります。
95メガバイトくらいあります。
アップロードがうまくいくことを願っています。
ここで少しリスクを取っています。
しかし、ファイルがアップロードされるとすぐに、アシスタントCPIによって自動的に埋め込まれるので、これらのことを考える必要はありません。
会話で相互作用を始めるだけで、この本に基づいて、ラツィオで最高の写真スポットは何ですか?
Enterキーを押す前に、126ページを簡単に見せてあげますね。
126ページに行きましょう。
126ページはラツィオについて話していますよね?
ここで質問をさせていただきます。
ラツィオで最高の写真スポットは何ですか?
本を見ていると、写真の機会が128ページに記載されていることに気づきます。
それはピティリアーノであるはずです。
実際の時間で、この本で写真スポットがまさにこの場所であることがわかりました。
もう一度、私はエンジニアリングの仕事をする必要がありませんでした。
私は単に会話でファイルをアップロードするだけで、すべてが私のために処理されました。
最後に、Code Interpreterというもう1つのツールを強調したいと思います。
Code Interpreterは、通常、数値や数学、金融データに関する非常に正確な質問に答えるためにバックグラウンドでPythonコードを書く能力です。
例えば、この会話で「4人でAirbnbをシェアしている」と言った場合、
それは1,200ユーロです。
私のシェアと260ユーロの飛行費用はいくらですか?
この質問をすることで、これは大規模言語モデルがデフォルトで得意とする典型的なことではありませんね。
しかし、裏側で起こっていることは、実際にはサンドボックスでコードを書くことによって、通貨換算などを含めてすべて計算しているということです。
再び、開発者として、私には何もすることがありません。
しかし、Aponiaがこれを管理しているからといって、それがブラックボックスであるということではありません。
実際、ここに行ってスレッドを更新すれば、私たちが提供している正確なスレッドが表示されるはずです。
私たちはローマに行く予定です。
すべてのメッセージのように、私たちは地図に注釈を付けるために強調した関数呼び出しを見ることができます。
こちらは、実際に質問に答えるために裏で書かれたPythonコードです。通貨換算を行い、人数で割り、その他を計算します。
実際には、アシスタントAPIと同様に、会話履歴、取得やファイルへのアクセスが可能な完全なツールキットです。
取得には今や最大10,000ファイルをアップロードでき、コードインタプリターや関数呼び出しも可能です。
これらすべてを、最初の日から構築することができます。
将来のモデルについてどう思われるか教えてください。
ちなみに、少し混乱するのは、彼らがGPT-6や他の名前を商標登録しているという事実です。
彼らは従来の方法を続けるだけなのか、と考えています。
しかし、OpenAIが多くのドラマともちろん多くの驚きを伴う会社であり、AIの能力や新しい発見が毎週のように急速に増加していることを考えると、予測するのはかなり難しいです。
1年後、2年後、3年後を予測しようとする能力はかなり難しいと思います。
しかし、これから11月には新しいモデルがリリースされる可能性があることはわかっています。
GPT-Nextであろうと、GPT-5であろうと、確かなことは、私たちが見ることになる能力と使いやすさの面で、画期的な進歩になるということです。