ハーバード大学が提供するコンピュータサイエンスとプログラミングの芸術を学ぶための入門コースであるCS50の一部です。
GPT-4の仕組みや人間の言語がコンピューティングにおいて重要な役割を果たす理由を学びます。
公開日:2023年5月2日
※動画を再生してから読むのがオススメです。
さて、今回はCS50のテックトークです。
皆さん、お越しいただき、本当にありがとうございます。
1週間ほど前、午前10時52分にGoogleフォームを配布しました。
午前11時52分には100人の参加表明がありました。これは、AIやオープンAI、GPT、ChatGPTの世界にどれだけの関心があるかを示すものだと思います。
そして実際、もしあなたが...みんなが話していることはよく知ってるけど、自分で試したことがないのなら。
このURLで、ChatGPTというツールを試すことができるんです。
無料のアカウントにサインアップして、みんながやっていることを試してみることができるんだ。
また、今日ここにいらっしゃる方はそうだと思いますが、アプリ志向の方は、特にOpenAIには独自の低レベルAPIがあり、これを介してAIを自分のソフトウェアに統合することができます。
しかし、もちろん、コンピュータサイエンスの世界では、これらの技術の上に、より抽象化されたサービスが構築されているのです。
本日は、マギル大学とSteamshipのお友達、SilさんとTedさんがご一緒になって、同じような技術を使ってアプリケーションを構築し、デプロイし、共有する方法を簡単にする方法についてお話ししてくださることを大変うれしく思います。
本日のホストを務めてくださったお二人、プリンプトンの友人、そして卒業生のジェニー・リーさんに感謝します。
では、早速ですが、テッドとシルに話を移します。
ピザは午後1時過ぎに外でお召し上がりください。
ではテッド、どうぞ
皆さん、お集まりいただき、ありがとうございます。
今日はとても良いお話が聞けそうです。
GPTや他の言語モデルと同様に、その内部で何が起こっているのかについて、研究的な基礎知識を提供するつもりです。
そして、私たちが実際に見てきた、人々がどのようにアプリを作り、どのようなアプリが実際の世界で機能する傾向にあるのか、いくつかの例を紹介します。
私たちの視点は、AIアプリのためのAWSを構築していることです。
そのため、アプリを構築してデプロイしている多くのメーカーと話す機会があり、その中で、実験的なものから、どのようなアプリが世に送り出され、会社になったり、サイドプロジェクトになったりするのかを見ることができます。
昨日はクールなハッカソンを開催しました。
Neiman、David Malin、CS50、そして主催してくれたHarvardに感謝しています。
2つのセッションがありました。
多くの人がいろいろなものを作りました。
steamship.comのslash hackathonにアクセスすると、多くのガイドと、人々が作った多くのプロジェクトが見つかります。
そして、それをフォローすることができます。
また、リモートで、あるいは一人で参加したい場合は、テキストガイドも用意されています。
SILを始めるにあたって、今日は基本的に2つのことをお話しします。
1つは、GPTとは何か、それはどのように機能しているのか、ということです。
GPTの内部で何が起こっているのか、単に物事を予測する魔法の機械としてではなく、その意味をよく理解することです。
そして2つ目は、人々はどのようにGPTを使って構築しているのか、ということです。
そして重要なのは、もしあなたが開発者であるなら、どうやって私もこの製品を使って作ることができるのか、ということです。
CS50のバックグラウンドを持っている人なら、いろいろなことを吸収して、素晴らしいアプリを作り始めることができるはずです。
昨日、すでにCS50の卒業生に何人か会いました。
彼らがやっていることは、とても素晴らしいものでした。
だから、これが役に立つといいんだけど。
これからSILに引き継いで、GPTの理論的な背景について話をしようと思います。
ありがとうございます、テッド。
私の名前はSILです。
マギル大学でデジタル人文科学を専攻している大学院生です。
文学とコンピュータサイエンスと言語学を同列に研究しています。
ここ数年、特に言語モデルと文化で何が可能かを探る研究を発表しています。
このプレゼンテーションでは、GPTとは何かということを説明したいと思います。
15分で説明するのは本当に難しいです。
しかも、私たちが知らないこともたくさんあります。
しかし、それにアプローチする良い方法は、まず、人々がGPTと呼ぶすべてのもの、あるいは記述子を考えることです。
つまり、ラージ・ランゲージ・モデルと呼ぶこともできます。
コンピュータサイエンスのユニバーサル近似器と呼ぶこともできます。
生成的なAIと言うこともできます。
ニューラルネットワークであることは分かっています。
人工知能であることもわかっています。
ある人にとっては、文化のシミュレーターです。
他の人にとっては、ただテキストを予測するだけです。
ライティングアシスタントでもある。
ChatGPTを使ったことがあれば、自分のエッセイを少し書き込んで、フィードバックをもらうことができます。
これには驚かされます。
コンテンツジェネレーターでもあります。
コピーライティング、Jasper.ai、擬似ライティングなど、さまざまな用途に利用されています。
これはエージェントなんです。
今、本当にホットなのは、Twitterで見たかもしれませんが、AutoGPTやBabyAGIで、人々はこれらのものにツールを与え、野生の状態で少し自由に走らせ、世界やコンピュータなどと交流させています。
私たちはこれをチャットボットとして使っています。
また、実際のアーキテクチャはトランスフォーマーです。
ですから、GPTを説明する方法はたくさんあります。
そのどれをとっても、会話を始めるには本当に完璧に適切な方法です。
しかし、今回の目的では、GPTを大規模な言語モデル、より具体的には言語モデルとして考えることができます。
言語モデルとは、トートロジー(同語反復)を許してくれるなら、言語のモデルです。
しかし、実際には、ある語彙の確率分布を作成するものなのです。
例えば、「I am」という単語の次の単語を予測する仕事があるとします。
ニューラルネットワークにI amという単語を与えると、英語のあらゆる単語の中で次に続く可能性が高い単語は何なのか?
これが、GPTが答えを出すために訓練されたものです。
GPTは50,000語の語彙を持っています。
GPT-4では、最大2,000語、最大4,000語、最大8,000語、そして現在では最大32,000語まで、インターネット全体から、どの単語が他の単語の後に続く可能性が高いか、ある順序で知ることができます。
つまり、ここに私がいますよ、という順番をつけるわけです。
すると、5万語の語彙の中で、その後に続くすべての単語の可能性を示してくれるのです。
つまり、「I am」ですが、おそらく「happy」という単語はかなり頻繁に出てくるでしょう。
ですから、英語の全単語、全発話を対象にした場合、その確率は高くなります。
I am sad(私は悲しい)かもしれません、それは少し確率が低いかもしれません。
I am schoolは、誰もそんなこと言わないと思うので、本当に最後に書くべきです。
I am Bjork、これはちょっと、あまり確率は高くないですが、happy-sadよりは確率は低いですが、それでもある程度の確率はついています。
確率が高いというのは、文字通りパーセンテージです。
つまり、幸せなことは5%、悲しいことは2%の確率で起こるというようなことです。
GPTに与える単語ごとに、次の単語を50,000単語の中から予測しようとします。そして、それら50,000単語のそれぞれに、どれだけ確からしいかを反映した数値を与えます。
そして、本当に不思議なことに、新しいテキストを生成することができるのです。
GPTにI amを渡すと、5万語の中で最も確率の高い単語はhappyだと予測されますから、I amにそれを追加して、I am happyとし、それをまたモデルに送り込みます。
さらに別の単語をサンプリングして、それをまたモデルに送り込み、何度も何度も繰り返します。
そして、「私は幸せだ」「私は悲しい」と、さまざまな言い方ができるのです。
そして、少しランダム性を加えると、突然、エッセイを書いたり、話したり、さまざまなことができる言語モデルができあがります。これは本当に予想外のことで、5年前にさえ予測できなかったことなのです。
ですから、これはすべて関連することなのです。
そして、次に進むとします。
2012年にAlexNetが登場し、GPU上でモデルを実行できることがわかりました。
その結果、処理を高速化できるようになったのです。
インターネットからダウンロードしたたくさんの情報をモデルに与えることで、どんどん学習していきます。
そして、インターネット上でより多くの英語の例を見ているうちに、頻度や確率が向上していきます。
そのため、モデルを非常に大きく、広く、長い時間訓練する必要があります。
そうすることで、モデルはどんどん良くなり、表現力も能力も向上していきます。
そして、少しばかり知能も向上していきます。
その理由は分かりませんが。
しかし、問題は、インターネットを再現するために学習するため、さまざまなジャンルのテキストやさまざまな音域で話す方法を知っているということです。
ChatGPTのように会話を始めたとして、6歳の子に月面着陸を数文で説明できるでしょうか?
GPT-3、これはOpenAIのInstruct GPT論文から引用した例です。
GPT-3なら、「そうか、6歳児に月面着陸を説明するような例を教えてくれたんだな」と思うだけだったでしょう。
6歳児に月面着陸を説明するような、似たようなことを一通り説明するのですが、それらは順番にやってくる可能性が非常に高いと思われるからです。
質問されたら答えなければいけないということを、必ずしも理解していないのです。
GPT-3には、質問に答えるための装置やインターフェイスがなかったのです。
そして、その科学者は言いました、「OpenAIが解決策を見つけ出し、たくさんの質問と答えの例を与えることにしましょう。まずインターネットで学習し、その後たくさんの質問と答えで学習することで、インターネットの知識を持ちつつ、質問に答えることが重要であることを理解している」と。
そうして生まれたのがChatGPTで、1カ月で1億人のユーザーを獲得しました。
TikTokの1カ月2,000万人という記録を破りましたね。
それはとても大きなことでした。
そして、多くの人が、「これは知的だ」と感じました。
質問すれば答えてくれるし、一緒に解決策を考えることができる。
それは、まだ言葉を予測しているからです。
言語モデルであることに変わりはありませんが、質問と回答の枠組みで単語を予測することを知っているのです。
つまり、プロンプトとはそういうものなのです。
インストラクション・チューニングとはそういうものです。
それがキーワードです。
RLHFとは、「reinforcement alignment with human feedback」の頭文字をとったもので、「人間のフィードバックによる強化」という意味です。
これらの組み合わせにより、今日発表されている言語予測モデルは、Q&A形式で動作するように作られています。
GPT-4では、アライメントされたモデルのみが利用可能です。
GPT-4では、アライメントされたモデルだけが利用できます。これは、あらゆることができるようになる、本当に素晴らしい基盤です。
ChatGPTに、「これやってくれる?
とか、「あれをやってくれませんか?
OpenAIがChatGPTにプラグインでアクセスできるようにしたのを見たことがあるかもしれませんね。
だから、Wolframにアクセスできる。
ウェブを検索することもできます。
検索もできますし、インスタカートもできます。
レシピを調べることもできます。
モデルが言語を予測するだけでなく、問題を解決しなければならないことを知ると、その問題とは、私の質問に対して良い答えを出すということです。
それ以来、ChatGPTが使うQ&A形式の上に、さまざまなツールを構築してきました。
AutoGPT、LangChain、Reactなどがあります。これらの多くがReactの論文からきており、モデルを曖昧な目標を達成するためのエージェントに変えることが、未来への道筋です。
そして、これはすべてインストラクションチューニングのおかげなのです。
ということで、GPTをエージェントとして使う方法について、デモというか、その辺のことをやってくれるテッドにバトンタッチしようと思っています。
それでは。
ありがとうございました。
さて、私は超適当な男です。
物事を見ては、どうすればこのレゴとあのレゴを加えて、それらを組み合わせて何かを作ることができるだろう、と考えます。
今、コンピュータサイエンスの歴史を振り返ってみると、1970年にコンピュータが発明され、マイクロプロセッサーが発明された直後、人々は「数字のリストを並べ替えるにはどうしたらいいか」という研究をしていました。
それは有意義な仕事でしたし、重要なのは、誰にでもアクセスできる仕事だったということです。なぜなら、この新しい種類の石油、新しい種類の電気、新しい種類の計算機で何が作れるか、誰も知らないからです。
そして、何でもゲームになり、誰でもそのゲームに参加して解明することができるのです。
GPTに関して現在非常に興味深いのは、それ自体が素晴らしいことはもちろんですが、それを何度も呼び出したり、アルゴリズムに組み込んで広範なソフトウェアに組み込んだりするとどうなるでしょうか?
コンピュータができるような方法で、計算そのものを何度も何度もスクリプト化したら何ができるのか、単に計算と会話するだけでなく、計算の上にものを作ることができるのか、そういった根本的な疑問を解決するために、世界は本当にあなたのものなんですよ。
私たちはホスティング会社で、アプリをホストしていますが、これらはほんの一部です。
私はこれについてデモやコードをお見せし、思考プロセスの一部を説明しようと思いますが、Twitterで見たことがあるかもしれませんが、最終的にこれらが現在の言語モデルで構築・展開されているものの一部であることを高レベルで概観したいと思います。
コンパニオンシップは、I need a friendからI need a friend with a purposeまで、あらゆるものを指します。
コーチが欲しい。
ジムに行って、このエクササイズをしなさい」と教えてくれる人が欲しい。
外国語を勉強するのを手伝ってくれる人が欲しい。
質問回答、これは大きな問題です。
これは、ニュースルームがSlackのボットを使って、あなたをサポートすることから始まります。
この記事は、ニュースルームのスタイルガイドラインに沿っているか、宿題で助けが必要だ、または、ウィキペディアに質問してほしいことがある、それを他のものと組み合わせて答えを合成し、それを私に教えてほしい、といったことです。
ユーティリティ機能とは、「言語計算や言語知識さえあれば、人間でもできること、あるいはコンピュータでもできること」を指します。
例えば、Twitterのすべてのツイートを読み、その中から読むべきものを教えてくれるようなものです。
そうすれば、実際に意味のあるものだけを読むことができ、残りをざっと読む必要はないのです。
クリエイティビティ、画像生成、テキスト生成、ストーリーテリング、他のやり方の提案。
そして、AI自身が何をすべきかを決定し、自己管理するような野生の実験やBabyAGIと呼ばれるようなものです。
これらの例と、コードがどのようなものかをお見せします。
もし私があなたなら、これらをカテゴリーとして考え、自分が何を作るかを考え、また、オンラインでそれらを作るためのスターター・プロジェクトを探すでしょう。
ありがとうございました。
では、さっそくデモやコードを見ていきたいと思います。というのも、同じビルダーとして興味深いのは、どのように動作するのか、ハイレベルな図を見ることができるからです。
つまり、コンパニオンボットとは、自分にとって目的を持った友人と考えることができます。
これらのものを構築する方法はたくさんありますが、一つの方法は、GPTや言語モデルを特定の視点や目標を追加してプロンプトに注入するエンドポイントでラップするだけです。
ある意味簡単ですが、プロンプトが一貫して思い通りに動作するように反復して設計する必要があるため、非常に難しいことでもあります。
その良い例が、昨日のハッカソンで誰かが作ったもので、そのプロジェクトをお見せしたいと思います。
このプロジェクトは中国語のイディオムコーチです。
まずデモをお見せします。
もう引っ張り出してきたと思います。
さあ、どうぞ。
この人が作りたかった友達は、特定の問題を与えると、それを詩的に表現する4文字の成語(ちょうゆ)を選んで、こう言った具合に表現できると教えてくれる友達でした。
これを作った人は中国語を勉強していて、中国語についてもっと知りたいと思っているわけです。
だから、私は「とても悲しい気分です」と言うかもしれません。
そうすると、ちょっと考えてくれるんです。
そして、すべてがうまくいけば、この4文字のフレーズを1つ生成し、それに対して例文で応答してくれるのです。
さて、これが正しいかどうか、私にはわかりません。
もし、これが間違っているのであれば、どなたか教えてください。
そして最後に、「あなたならできる」と励まします。
これが難しいのは分かっている。
続けてください。
では、これをどのように作ったかをお見せしましょう。
まず、コードを表示させます。
ここにあります。
昨日のハッカソンで参加者が使用していた特定のスターターリプリートで、基本的にGPTをラップするものがありますが、できることはたくさんありますが、2つのことを簡単に行えるようにします。
一つはプロンプトに個性を注入することで、このプロンプトについては後ほど説明します。もう一つは、特定のことを行うツールを追加することです。例えば、ウェブを検索する、画像を生成する、データベースに何かを追加する、あるいはデータベースから何かを取得するなどです。
そうすることで、GPT以上のものを手に入れることができるのです。
GPTは、それが何であるか、どのように対話できるかを知っていますが、さらに、GPTがあなたと対話するための特定のレンズと、潜在的にいくつかのツールが追加されています。
この中国語の家庭教師は、4行で構築しました。
ここで、この業界の誰もが今、頭を悩ませている疑問があるのではないでしょうか。
これは、私たちが何気なくやっていることで、実際には誰も知らないことなのでしょうか。
将来、LLMに「ねえ、これから5分間、先生のような話し方をしてください」と言うだけなのだろうか?
そして、おそらくですが、間違いなくその間に、そして将来的には、このような個人的な終着点を包むことに意味があるのです。
GPTと話すとき、私はGPTと話すだけでなく、さまざまな仲間たちと話すことができるのです。
彼らは人間のようで、対話的に話しかけてくれますが、特にあなたには、親切で役に立つ中国語の先生であることを求め、それぞれの状況に適した成語を説明してくれると、事前にロードしておくことができます。
英語で話して、嫦娥とその意味を説明し、語学学習の励みになるような言葉を添える。
このように、ノンプログラマーでも「deploy」と入力するだけで、その内容を追加できます。
そうすると、ウェブにアップされます。
Telegramのボットに転送されます。
そして、「今、忙しいんだ」と対話することもできます。
Telegramやウェブ上で対話することができます。
このようなことが、CS101の卒業生から誰にでも手が届くようになったのです。
すみません、汎用フレームを使用しています。
この会話と知能の原単位の上に、ちょっと操作するだけでできることが、業界のプロに至るまでずっと続いているのです。
コンパニオンは、私たちが目にする最初の一般的なタイプのアプリの1つです。
Twitterのフォロワーならわかると思いますが、ここ数ヶ月で爆発的に普及したのが質問応答です。
皆さんの多くは、すでにこの種のアプリを作ろうとしたことがあると思うので、このアプリがどのように機能するのか、いくつかの異なる方法を説明したいと思います。
このアプリには、いくつかの異なる仕組みがあります。
一般的な枠組みは、ユーザーがGPTに問い合わせをする。
そして、そのGPTには汎用的な知識があるかもしれません。
汎用的な知識を持っている場合もあれば、そうでない場合もあります。
しかし、あなたがそれに戻ってほしいのは、あなたが書いた記事についての具体的なこと、あなたのコースのシラバスについての具体的なこと、あるいは特定のトピックに関する国連の特定の文書についての具体的なことです。
つまり、あなたが本当に求めているのは、私たちが望んでいたカスタマーサービスボットの姿なのです。
私たちは皆、カスタマーサービスボットに接し、キーボードに頭をぶつけながら、このようなやり取りをしてきました。
しかし、もうすぐ、私たちと快適に対話できる、非常に忠実度の高いボットが登場することになるでしょう。
そしてこれが、エンジニアとしてのおおよそのやり方です。
では、エンジニアとしてのゲームプランをご紹介しましょう。
ステップ1:応答させたい文書を用意します。
ステップ2、それを切り刻む。
さて、あなたがエンジニアであれば、これはあなたを怒らせることになるでしょう。
希望するような切り方をしないんですね。
例えば、きれいな文章やきれいな段落、意味的に一貫性のあるセクションに分割することができます。
そうすれば、本当にいいんです。
正直言って、ほとんどの人が行っている方法で、これはかなりうまくいく簡略化方法ですが、ドキュメントをスライドするウィンドウがあり、テキストの断片を引き出すだけです。
テキストの断片を取り出したら、それを埋め込みベクトルと呼ぶものに変えます。
埋め込みベクトルとは、ある意味での近似値である数値のリストです。
なぜかというと、皆さんはYelpで食べ物を注文したことがあるからです。
Yelpで料理を注文するとき、どのようなジャンルのレストランなのかを調べますよね。
ピザ屋さんなのか?
イタリアンレストランなのか?
韓国の焼肉屋さんなのか?
星がいくつついているか?
1つ、2つ、3つ、4つ、5つ。
どこにあるのか?
これらはすべて、空間の点、空間の次元として考えることができる。
私の家の近くにある韓国のバーベキューレストランは、4つ星です。
これは3、3個の数字のベクトルです。
これがすべてです。
これが1000個の数字のベクトル、1万個の数字のベクトルなんですね。
モデルによって異なるサイズのベクトルを生成します。
それはテキストのかたまりを分割し、意味を近似するベクトルに変換し、それをベクトルデータベースと呼ばれるものに入れるだけです。ベクトルデータベースとは、単に数字を格納するデータベースのことです。
しかし、このデータベースがあれば、質問をしたときにデータベースを検索することができ、「CS50では何を教えているのだろう?
という質問に似たベクトルを持つテキストは、データベースのどの部分にあるのでしょうか?
この一般的なアプローチを改良することで、さまざまなトリックや帝国が作られていますが、最終的には、開発者であるあなたが、このように簡単にモデル化するのです。
そして、クエリがあったら、それを埋め込み、ドキュメントの断片を見つけ、それをプロンプトに落とし込む。
今度はただのプロンプトです。プロンプトは「あなたは質問に答える専門家です。
ユーザーからの質問に答えてください、ソース文書、データベースの結果を使用しています。
これだけです。
何十年にもわたってカスタマーサービスボットを設計してきた結果、数行のコードでこれを作ることができることがわかりました。
CS50のシラバスを見ながら、授業の直前に作ったものをお見せしましょう。
シラバスを表示させ、「ここにPDFを追加しました」と言うことができます。
このシラバスは、正確かどうか、最近のものかどうか、申し訳ありませんが、わかりません。
CS50のシラバスのPDFをウェブで検索してみました。
ここにURLを入れたら、ここに読み込まれました。
これは、100行のコードが配置されたようなもので、このコードに話しかけると、「CS50は何を教えてくれるのだろう」と言うことができます。
つまり、今、ボンネットの中で起きていることは、先ほどのスライドで紹介したこととまったく同じなのです。
CS50は何を教えてくれるのだろう」という問いを、ベクトルに変換します。
それをベクトルに変換します。
このベクトルは、質問の意味を正確に表現することなく近似しています。
SteamshipがホストするそのPDFからの断片のベクトルデータベースを調べ、ドキュメントを引き出し、質問に答える専門家であるかのようにプロンプトに渡します。
誰かがあなたに、CS50は何を教えているのか、と質問しています。
私が提供したソース・ドキュメントとソース・マテリアルのみを使用して、それに答えてください。
このように、プロンプトにはソース資料が動的に読み込まれます。
これは基本的なプロンプトエンジニアリングであり、私はこのことをずっと言い続けたいと思っています。
今、ビルダーとして驚くべきことは、多くのことが、非常にクリエイティブで戦術的なプロンプトの並べ替えに集約されること、そして、それをアルゴリズムで何度も何度も使い、ソフトウェアに落とし込むことです。
そして、その結果を、また、嘘かもしれない。
作り話かもしれない。
幻覚かもしれません。
CS50では、抽象化、ドット、ドット、ドット、ドット、ドットといったトピックに焦点を当て、アルゴリズム的な考え方や効率的な問題解決の方法を学び、その結果、発見されたソース・ドキュメントを返します。
このように、文脈ごとに繰り返すことができるため、これも大きなカテゴリーであり、膨大な数の応用が考えられます。
ソフトウェアになれば、何度でも繰り返すことができるので、任意の数のものを作ることができます。
寮、部活、スラック、電報など、さまざまな情報を入れて、それに反応することができるのです。
しかも、文書である必要はありません。
プロンプトに直接読み込ませることもできます。
ここに引っ張り出してきたと思うんだけど、なかったら読み飛ばすよ。
あ、これでいい。
質問応答のもう一つの方法は、可能な限りシンプルなアプローチを常に奨励することが健全だと思うので、巨大なシステムを設計する必要はありません。
データベースがあるのは素晴らしいことです。
データベースを使うのもいいし、埋め込みデータを使うのもいい。
この大きなアプローチを使うのは素晴らしいことです。
スケールが大きいと派手ですね。
いろいろなことができます。
しかし、それをすべてプロンプトに押し込むことで、多くのことを回避することもできるのです。
エンジニアとして、私は、ここにいるチームの一人であるエネオスが、「エンジニアは怠け者を目指すべきだ」といつも言っているのですが、これには大賛成です。
エンジニアとして、何かに対して怠け者の道を追求できるように自分をセットアップしておきたいものです。
そこで、プロンプトだけで質問応答システムに相当するようなことをする方法を紹介します。
例えば、30人の友達がいて、それぞれの友達がある特定のことが得意だとします。
単純に、「私はあることを知っている」と言えばいいのです。
これが私の知っていることです。
あるユーザーが私に何か質問してきます。
どう答えればいいのか?
それをエージェントにロードし、エージェントはGPTにアクセスできるようにします。
それを出荷してデプロイすることができます。
TelegramやSlackに接続できるボットができあがります。
そのボットは、あるレベルではモデルのバリアンスを制御できないため、常に正しい答えを出すわけではありませんが、このリストに関しては答える傾向があります。
しかし、このリストに関しては、答えが出る傾向があります。その傾向は、ある程度、業界全体が能力として皆に提供するために取り組んでいることであり、また、エラーバーをより厳しくするために、エンジニアリングを迅速に行うことでもあります。
あと数分で質問に移るので、何を作る方法についてたくさんの質問があると思いますが、これまでのところどのような感じかをお見せします。
これはデモがないのですが、もしあなたが私のところに来て、「テッド、週末に仕事をしたいんだけど。
何を作ればいいんだ?
なんてこった。
ユーティリティ・ファンクションと呼ぶべきアプリケーションの一群があります。
この名前はあまり好きではないのですが、これは本当にエキサイティングです。
基本的な言語理解を必要とするタスクを自動化する、低空飛行の果実です。
例えば、ユニットテストを生成するようなものです。
テストを書いたことがある人がどれだけいるかわかりませんが、「ああ、もういいや」と思ってしまいますよね。
これなら私にもできる。
私なら乗り切れる。
もしあなたがテストを書くのが好きな人だとしたら、あなたは幸運な人です。
関数のドキュメントを調べること、関数を書き換えること、会社のガイドラインに沿わせること、ブランドチェックをすること。
これらはすべて、言語的な理解を必要とする情報の一部に対して、比較的文脈にとらわれない操作やスコープ付きの文脈操作を行うようなものである。
そして、本当に、これらは現在、ソフトウェアビルダーや週末プロジェクトビルダー、スタートアップビルダーとしてあなたが利用できるものと考えられ、それを周囲に提示し、他の人にとって意味のあるコンテキストで消費できるようにインターフェイスを構築するだけです。
だから、この空間は並外れたものなのです。
つまり、この新しいツールによって、今、すべての人間の努力の空間が広がっているのだと思います。
よく冗談で、会社を作るとき、プロジェクトを立ち上げるとき、ハンマーから始めるのは嫌だ、なぜなら問題から始めたいからだ、と言われます。
実際、その通りなのですが、このたび、とても素敵な新型ハンマーを手に入れました。
ある程度まで、週末には気軽に周囲を走り回ってものにぶつかって、ビルダーやいじり好き、実験家の視点から何が起こるかを見てみることをお勧めします。
そして、最後の1つがクリエイティビティです。
これも巨大なメガアプリケーションです。
さて、私は主にテキストの世界に住んでいるので、テキストベースのものについて話します。
なぜなら、私たちは視覚的な生き物であり、AIによって生み出されるイメージは、まさに驚異的だからです。
確かに、知的財産や芸術的なスタイルなど、さまざまな問題があります。
しかし、このテンプレートは、もしあなたがビルダーなら、私たちが実際に見ているのは、およそ次のようなものです。
ここで指摘したいのは、ドメインの知識です。
このスライドの目的は、ドメイン知識の重要性に触れることです。
多くの人は、創造的なプロセスを次のように考えているようです。
大きなアイデアを思いつく。
可能性を考えすぎ、考えすぎたものを編集し、それを繰り返す。
そうでしょう?
作家であれば誰でも知っているように、文章を書くと、書きすぎてしまい、その多くを削除しなければなりません。
そして、推敲を重ねると、また書きすぎてしまい、たくさんの文章を削除しなければならなくなる。
この特殊な作業は、AIにとって素晴らしいものです。
AIにとって素晴らしい理由のひとつは、AIが間違いを犯すことを許容するからです。
あなたは事前に、たくさんの文章を削除することに同意していますよね。
もしあなたが事前に同意したなら、私が語るかもしれないストーリーの5つの可能性、広告の見出しの5つの可能性、私が論文を書くかもしれない内容の5つの可能性を生成することになるのです。
あなたが事前に同意したのだから、多少間違っていてもいいのです。なぜなら、あなたが編集者になるのですから。
そして、ここで、あなたが本当に持っておくべきことは、これを技術的な活動として考えてはいけないということです。
これは、GPTを担当させるのではなく、あなたが舵取りをする機会だと考えてください。
代わりに、Pythonやプログラムに使用する言語で、GPTを使ってそれらを生成する際に、あなたがドメイン知識を持っているため、ハンドルをしっかり握ることが重要だと思います。
では、どういう意味か、例を挙げてみましょう。
これは、ある人がWriting Atlasプロジェクトのために作成したクールなアプリです。
Writing Atlasは、短編小説のセットです。
短編小説のGoodreadsのようなものだと考えてください。
ここに入って、さまざまな物語を閲覧することができます。
これは誰かが作ったもので、好きなストーリーや説明を入力することができます。
これは生成に1分ほどかかります。
生成される間、私は話をするつもりです。
生成中に何をしているかというと、すぐにコードをお見せしますが、ストーリーのコレクションから似たようなストーリーを探しているのです。
ここで、ドメイン知識の部分が登場します。
それから、GPTを使ってあなたが何を求めていたかを見て、編集者や書店員の考え方の知識を使って、その視点を通した特定の提案を生成し、地元の書店で時々見かける素晴らしい手書きのメモを書くことを目指します。
そのため、単に「あなたはこれが好きかもしれません」と言うだけでなく、「あなたがこれを贈ったことに関して、あなたがこれを好きかもしれない理由」を具体的に説明することができるのです。
失速しているか、時間がかかっているかのどちらかです。
ああ、そうですか。
これがその提案です。
特に、これらのことは、少なくとも今のところ、人間だけが知り得ることです。
具体的には二人の人間だ。
物語を読みたいと言った人間が送信したテキストであり、そのドメイン知識を持った人間が言語モデルとのやりとりをスクリプト化して、そのドメイン知識に基づいた情報で非常にターゲット指向の推論を提供できるようにしたものです。
ですから、このようなユーティリティ・アプリケーションには、ドメイン知識を持参してください。
実際にコードでどのように見えるかをお見せしましょう。これがいかにシンプルでアクセスしやすいかを確認するのに役立つと思うからです。
これは本当にプロンプトのセットです。
では、なぜ特定の場所が好きなのでしょうか?
これはオープンソースのプロジェクトで、たくさんの例があり、その中から私たちが興味を持っているものを選んでいます。
これはオープンソースのプロジェクトで、たくさんの例が載っています。
トピックや説明も同様で、ここを見ると、物語を提案する方法は、174行目から203行目までで、本当にこれが手の届く範囲にあることを繰り返し強調したいです。
実際には、20行ほどのステップ1: データベースで類似の物語を検索する、ステップ2: 類似の物語があることを確認したら、データを抽出する、ステップ3: ドメイン知識を持ったPythonでこれらのプロンプトを実行する、ステップ4: 結果を出力にまとめる、といった手順です。
つまり、私たちがスクリプトを作成しているのは、人間の認知に近いものであり、そこに喩えて言うなら、OpenAIは生命体なのか、という議論について、私たちがどのような位置にいるかは分かりませんが、議論するつもりはありません。
さて、1つだけ本当に突拍子もないことを書きますが、質問を受け付けます。
BabyAGI、AutoGPTは、Twitterでそう呼ばれているのを聞いたことがあるかもしれませんね。
私は、マルチステップ・プランニング・ボットのように考えています。
これまでご紹介したのは、GPTとの一発勝負のやり取りでした。
これは、ユーザーが何かを望んでいると言って、PythonがGPTとのやりとりを仲介するか、GPT自体がプロンプトエンジニアリングから追加した人格のニュアンスを持っていくつかのことを行う場合です。
本当に便利で、制御も簡単です。本番を目指すなら、週末のプロジェクトや会社を作りたいなら、今すぐにでもできる素晴らしい方法です。
これはワイルドです、もしTwitterでこのようなものを見たことがなければ、ぜひ検索してくることをお勧めします。
これはどういうことかというと、簡単に言うと、GPTをforループに入れると、こうなります。
GPTに自分自身と対話させ、自分自身に何をすべきかを指示するのです。
つまり...
それは創発的な行動であり、他の創発的な行動と同様に、いくつかの簡単なステップから始まります。
コンウェイのライフゲームのように、現実の多くの要素がTシャツに収まる数式で表されますが、時間が経つにつれてDNAや人間の生命を生成します。
つまり、これがおおよそのステップ1であり、人間の目標を設定する。
ステップ2、最初の仕事は、自分でステップのリストを書くことです。ここで重要なのは、書くことです。
ここで重要なのは「書く」ことです。
エージェントができることは、あなたが道具として与えたこと、そしてスキルとして持っていることに限定されます。
ですから、これは現在進行中の実験にすぎませんが、今後数年間はこのような展開が見られるでしょう。
Pythonが重要でなくなるシナリオは、Pythonに自己管理能力を持たせて、最終的に結果を出すことです。
この例では、いかにプロンプトエンジニアリングであるか、いかにコードが少ないかということを、改めて実感していただきたいと思います。
BabyAGIがどのようなものかをお見せしましょう。
これがBabyAGIで、Telegramに接続することができます。
そしてこれは、2つのツールを持つエージェントです。
エージェントが何なのか、ツールが何なのか、まだ説明していないので、簡単に一文で説明します。
エージェントとは、GPTと、そのGPTが生きている大きな体という意味の言葉です。
その身体には人格があり、道具があり、他のものとの経験を媒介するパイソンがあるかもしれません。
ツールとは、エージェントが物事を行うことを選択するための方法です。
例えば、GPTが「ピザを注文してください」と言えば、「ピザを注文してください」というテキストが表示される代わりに、ピザが注文されたとします。
これはツールです。
これがGPTの持つ2つのツールです。
ひとつはToDoリスト、もうひとつはウェブ検索です。
そしてこの下には、「あなたの目標はタスクリストを作成し、そのタスクリストを実行することです」というプロンプトが表示されています。
そして、これを何度も繰り返し行うハーネスに入れるのです。
次のタスクの後、そのタスクの結果をエンキューして継続させるのです。
そうすることで、キックスタート・ループができ、キックスタートするとエージェントが自分自身と会話するようになるのです。
このように、私が間違っていなければ、ソフトウェアを導入する現場において、この方法はまだ製品化されていないように思います。
しかし、もしあなたが実験という荒唐無稽な分野に飛び込みたいのであれば、これは間違いなく始められる場所の1つであり、本当に手の届くところにあるものなのです。
スターター・プロジェクトをダウンロードするだけで、プロンプトが表示され、反復のプロセスを開始する方法を知ることができます。
さて、超高度な話でしたが、お役に立てたでしょうか?
お役に立てたなら幸いです。
現場から、ボトムアップから、私たちが見ているもの、人々が作っているもの、つまり、人々が作っているアプリのハイレベルな分類を考えてみました。
これらのアプリはすべて、誰もが手の届くところにあるアプリであり、本当に、本当にエキサイティングです。
Twitterは、みんなで集まって何かを作るには最適な場所だと思います。
Twitterでは、たくさんのAIビルダーが発表しています。
ピザが届くまであと数分、10分くらいでしょうか。
続けてくれる?
何か質問があれば、それを聞いてからにしませんか?
皆さんから質問があると思いますので。
ちょっと早く終わってしまったようです。
そうですか?
もうひとつ、コミュニケーションに関する質問です。
例えば、私たちが最初にアプリケーションを思いついたとき、私たちの能力の1つは、物理学の問題をキーから与えることですが、ご存知のように、あなたはそれをやりたくありません。
40%は迷いますね。
ALSにするために開発者ができること、あるいはバックエンドでOpenAIができることで、実際に推奨できることはありますか?
そこで質問ですが、およそ幻覚の問題をどのように管理するのでしょうか?
物理の講義をさせて質問をすると、一方では正しく答えているように見えるが、他方では専門家の目には40%、70%、10%の確率で間違っているように見えるというように。
これは大きな問題です。
では、それを軽減するために、開発者として実践的に使える方法は何でしょうか?
私は答えを出しますので、皆さんも具体的な方法をご存じかもしれません。
ハイレベルな答えとしては、情報を合成する能力があるのと同じことが、幻覚を見せる理由の一部になっているということです。
だから、ある程度、ケーキを食べるのは難しいんです。
これはゲームの一部であり、実際、人間もそうしているのです。
人々は、知識について過度に積極的な仮定を持つ人々について話しますが、その現象の名前は思い出せません。ただ物事を言うだけですね。
そうなんです。
あなたができることは、あなたがどれくらいのお金を使うつもりなのか、どれくらいの技術的な専門知識を持っているのかにもよりますが、ある種の活動の幅があります。
私は応用の世界にいるので、ガムテープの世界や、開発者が何かを成し遂げる方法のようなものにとても詳しいんです。
ですから、私がお伝えする答えの中には、非常にガムテープ的な答えもあります。
例を挙げると、鋭敏なものには効果がある傾向があります。
乱暴な振る舞いをするのであれば、例を挙げれば挙げるほどいいのです。
しかし、それでは物理学の全領域を解決することはできません。
というわけで、物理学の全領域については、私よりもあなたの方がはるかに優れた能力を備えていると思うので、私は会釈してあなたに譲るつもりです。
もちろんです。
つまり、モデルには基本的な真実がないのです。
何も知らないのです。
トレーニングの過程で得られる意味というのは、純粋に差別化から生まれるものです。
ある単語は別の単語ではありません。
単語は同じ文脈で使われることはありません。
言語を通して与えられた例によってのみ、すべてを理解する。
それは、英語や話し方を学んだ人が、特徴のない灰色の部屋で育ち、外の世界を見たことがなく、何かが真実で何かが真実でないことを教えてくれる拠り所が何もないようなものです。
だから、モデルの視点からは、モデルが言うことはすべて真実なのです。
そして、もし少し嘘をついたり、2つの異なるトピックを混同したりすることが、そのための最良の方法であるならば、そうすることにします。
それがアーキテクチャの一部なのです。
私たちはそれを回避することはできません。
意外と簡単な方法で、混同や幻覚を少なくすることができるのです。
そのひとつに、最近、ちょっと面白い論文がありました。
回答の前に「私の最善の推測は」を追加すると、約80%の幻覚が減少または改善されるでしょう。だから、明らかに何かが真実であり、他のものはそうでないことを何らかの意味で感じているのですが、それが何なのかはまだよくわかりません。
Tedが言っていたことに追加して、簡単にできることのいくつかには、GoogleやBingを利用させることが含まれます。例えば、Bingチャットでは、それらが行っている情報を引用し、自分の回答が適切であることを確認するように求めます。
しかし、ChatGPTにプログラムを生成させたことがある場合、何らかの問題があり、ChatGPTに尋ねると、間違いがあるようです。
なぜ最初から正しい答えを出さなかったのか、まだわかりませんが、幻覚を減らす方向には進んでいるようです。
物理学に関しては、外部データベースに依存する必要があります。なぜなら、非常にドメイン固有の知識に関しては、内部では望まれるほど決定論的ではないからです。
このようなものは連続的な空間で働くため、何が間違っていて、何が真実なのかがわかりません。
ですから、今日のテッドのデモはすべて、幻覚を減らし、より多くの能力を与えることに努めているのです。
質問の答えになるといいのですが。
私は単純な人間なので、世の中のことはすべて、いくつかのことを何度も何度も繰り返しているに過ぎないと考える傾向があり、そのための人間のシステムがあります。
チームや企業の仕事、スポーツをするチームのように、私たちは常に正しいわけではありませんが、そうであることを望んでいます。そのため、人間として間違ったことに対処するためのシステムを開発してきました。
だから、人間には、間違っているかもしれないことに対処するために、人間として開発したシステムがあるのです。つまり、1番目の人間が答えを提案し、2番目の人間が自分の仕事をチェックし、3番目の人間が最終的なサインを出す。
これは本当によくあることで、会社で働いたことのある人なら誰でも実際に見たことがあるはずです。
今のソフトウェアの状況について興味深いのは、私たちはGPTを1つの実体として語るというモードになりがちだということです。
しかし、いわばチームという観点で考え始めると、各チームメンバーがそれぞれの目標とスキルを持つ独立したエージェントである場合、この問題を解決する方法は必ずしも1つの頭脳をより賢くすることではなく、それぞれの役割を果たす複数のソフトウェアエージェントの集合的な知性を活用するプログラミングモデルが登場することになると思われます。
そうすれば、私たちがこの問題に対処する方法として、人間のパターンに沿ったものになるのではないでしょうか。
例えるなら、スペースシャトルや宇宙へ行くもの、宇宙船は、良いものでなければなりません。
下手をすると、人が死んでしまいます。
そのため、システムを過剰に設計してしまうのです。
ほとんどの宇宙船には3台のコンピュータが搭載されていますが、あるステップに進むためには、すべてのコンピュータが一斉に合意しなければなりません。
もし1人が同意しなければ、再計算し、再計算し、再計算し、何かにたどり着くまで再計算するのです。
良い点は、幻覚は一般的に、その知識という点ではシステム的な問題ではないということです。
一過性のものであることが多いのです。
モデルが何かにつまづいて、その1回だけ幻覚を見せるのです。
ですから、もし3つのモデルが一体となって動作しているのであれば、それを言う代わりに、一般的に言えば、成功率を上げることができるのです。
あなたが示した例の多くには、「あなたはエンジニアです」「あなたはAIです」「あなたは教師です」という主張があります。
このような確率の組み合わせに影響を与えるメカニズムは何なのでしょうか?
もちろんです。
不満足な答えかもしれませんが、「うまくいく傾向がある」ということです。
しかし、なぜうまくいく傾向があるのか、その理由はわかっています。
もし私があなたに、「ねえ、手伝ってよ、私の模擬面接をしてほしいんだ」と言ったとします。
これは、ある種の相互作用のモードにあなたを導く、直接的な発言です。
あるいは、「助けてください、私は妻に謝りたいんです。
妻は本当に怒っているんだ。
一緒にロールプレイしてくれませんか?
そうすると、別のインタラクションモードに移行することができます。
このため、ソフトウェア開発者として期待している方法で機能するような特定の対話モードにLLMを活用するための人々が見つけた省略表現にすぎません。
さらに、デジタル人文科学に携わっている私は、これを「物語」と考えたいのですが、これは本当に簡単なことです。
物語には、数人の異なる人物が登場し、互いに話をします。彼らの役割は明確に定義されており、2人の人間は同じではありません。
GPTとのやりとりでは、GPTは人格を想定し、人格をシミュレートできますが、それ自体は意識的ではありません。しかし、特定の状況で意識的な存在がどのように反応するかを予測することは確かにできます。
ですから、私たちが「あなたはXです」と言うとき、その人格を描き出し、あたかもその人であるかのように話しているのです。
なぜならそれは、そのキャラクターが存在し、交流し、活動しているような記録を完成させたり、物語を完成させたりするようなものだからです。
そうそう。
外のピザまであと5分くらいかな。
はい、了解です。
それで、私はCSの人間ではないのですが、これで遊ぶのは楽しいですし、一語一句生成するような、その雰囲気というか感覚というか、物語を理解することができますね。
友人と一緒に、例えばLSATのような論理問題を出題してみたのですが、うまくいきません。
なぜだろうと不思議に思っていました。
この条件ではなぜそうなるのか」というような、レトリック的にとてももっともらしい答えを出すのですが、その答えが矛盾していることもしばしばで、正しいことはほとんどありません。
なぜそうなるのかというと、理性も思考もないのです。
つまり、意識はないと思っているんです。
つまり、思考を持つということです。
リアクトの話をしたいんですか?
GPT-4が3月に発売されたとき、確かLSATに合格していたんですよね。
そうです。
そうだ、そうだ。
そうです。
そうです、合格したんです、私の理解では。
GPT-4を使っていないからかもしれませんね。
ChatGPTにお金を払うと、より良いモデルにアクセスできるようになるんですが、それが不思議なところです。
そして、面白いのがプロンプトです。
とても繊細なんです。
プロンプトの出し方にとても敏感なんです。
GPT-3が登場した当初は、識字テストに合格できるとか、いや、識字テストには合格できないとかいう人がいた。
そうすると、GPTに賛成する人も反対する人も、「プロンプトをちょっと変えてみたよ」となる。
急にできるようになったとか、急にできなくなったとか。
このようなものには意識がありません。
彼らの理性能力は宇宙人みたいなものです。
彼らは私たちとは違う。
彼らは人間のように考えることはない。
彼らは人間ではない。
しかし、彼らは経験的に物事を判断することができ、モデルの中にある何らかの合理性や論理性を実証することができます。
しかし、私たちはまだゆっくりと、まるでプロンプトの囁きのように、正しいアプローチが何であるかを見つけ出しているところなのです。
そうですね。
ありがとうございました。
GDQを稼働させ、継続的にポンピングすることは、GDQの観点からも非常に高価なものであることは明らかです。
実際にGDQに何らかのビジネス価値を生み出すことができる事例を見たことがありますか?
スタートアップや企業で、小さなAIアプリのようなものを使うことで、本当の付加価値が生まれるようなケースはありますか?
そうですね、私たちは、彼らの主要な製品である企業を私たちの上にホストしているのです。
その付加価値は、他の企業と同じです。
つまり、Yコンビネーターのモットーは何でしょうか。
人々が欲しがるものを作れ。
つまり、GPTがビルダーであるあなたに本質的な価値を提供するとは思えません。
これは彼らの製品であり、OpenAIの製品です。
あなたはChatGPTにお金を払って、優先的にアクセスする。
あなたの製品は、それをどのように自分のデータ、他人のデータ、ドメイン知識、インターフェースと組み合わせ、何かに適用するのを助けるかということです。
これは、2つのことが両方とも真実です。
今、多くの実験が行われています。楽しみながら、経済的な価値がどこにあるのかを探ろうとしている人たちもいますが、データに応用することで100%支持される企業を立ち上げている人たちもいます。
そして、そのような会社では...
のように、AIに特化したものではないかもしれませんよね?
生産性のためにGPTを使うような社内ユニットを使ったり、開発したりするようなものです。
今日、私たちはこれをGPTと呼び、今日、私たちはこれをLLMと呼び、明日、それはエーテルにスライドする可能性があると思います。
つまり、どのような進行になるかを想像してみてください。
今日、人々が主に遊んでいるのは、このうちの1つです。
LLMは数多く存在しますが、人々が主にその上に構築しているのは1つです。
明日は、このようなものがたくさん出てきて、明後日には、インターネットに接続されていない携帯電話に搭載されることも予想されます。
そのため、今日のようにソフトウェアをマイクロプロセッサ・ツールやマイクロプロセッサ・アプリケーションと呼ばず、プロセッサがただ存在しているようなものだと思うのです。
5年後、10年後に役立つ一つのモデルとして、たとえ比喩的な表現であり、文字通りの表現ではないとしても、これを第二のプロセッサと考えるのは有効だと思います。
浮動小数点演算コプロセッサやグラフィックコプロセッサなど、90年代にはすでにあったことですが、コンピュータができることの1つとして、その軌跡を考えることは有効で、絶対にあらゆるものに組み込まれることになります。
それゆえ、基盤モデルという言葉も出てくるのです。
ごめんなさい.
では、ピザの用意ができました。
もう1つ質問を。
もう1つ質問したら、食事にしましょう。
そこのグラスに?
すみません
何かオススメの...
すみません、あと2つ必要だと言われていたところなんです。
そうそう、そうなんです。
スペシャルデータをより良くするために、何かオススメの方法はありますか?
例えば、すごく便利なプログラミングとか?
それを確実に実行させるのは難しいですよね。
それを確実にやってもらうと、ものすごく便利なんです。
だから、使えるワザはいくつか...。
例を挙げるのもいい。
直接聞いてみるのもいい。
この2つはよくある手口です。
そして、他の人が使ってうまくいったプロンプトを見ることです。
つまり、今、正しいプロンプトを見つけるには、たくさんのアートがあるんだ。
その多くは、魔法の呪文です。
もうひとつは、後処理でチェックすることで、一発で答えが出るハッピーパスと、他のプロンプトに戻るかもしれないサッドパスができる。
つまり、デフォルトでは速く、遅く、しかし最終的には失敗しても成功する可能性が高いところに収束するという、多様なアプローチを目指すのです。
そして、コンピュータが解析可能な出力で応答する可能性が高い、インストラクション・チューニング・スタイルのモデルを微調整することが、後々、人々の目に触れることになると思います。
最後に1つだけ質問をお願いします。
もちろんです。
私たちが話したことの1つは...
2つほどあります。
1つは、ドメインエグゼキューションについてお話されましたが、プロンプトという観点からドメインエグゼキューションの束をエンコードしていますね。
そのプロンプトの行き着く先は何なのでしょうか。
プロンプトはJeepに戻されるのか、またそれに伴うプライバシーの問題はあるのか?
素晴らしい質問ですね。
YouTubeのリスナーのために、すべての質問を繰り返していないことに今気づきましたので、YouTubeの皆さん、質問のいくつかを聞くことができなかったらごめんなさい。
質問は、このようなプロンプトの中には、プライバシーに関わるものがあるのか、というものでした。
もしメッセージの1つが、「あなたのプロンプトとこのプロンプトの微調整次第で、多くのことが決まる」というものだとしたら、私のIPに関してはどうなのでしょうか。
プロンプトは私のビジネスなのかもしれません。
正確な答えは出せませんが、おおよそどのような景色が見えるかは描けます。
ソフトウェア全般において、そしてAIにおいても同様ですが、SaaS企業には、他人のAPIを使用し、その利用規約が守られることを信頼する企業があります。
また、大手クラウド・プロバイダーの1社にホスティング・モデルを提供する企業もあります。
これも同じようなものですが、仕組みが少し違うので、企業版ソフトウェアと思われがちです。
この業界では、過去20年の間に、自分でサーバーを動かすことから、マイクロソフトやアマゾン、グーグルが自分のためにサーバーを動かしてくれると信じることに移行しました。
そして、マイクロソフトやアマゾン、グーグルが運営していることは知っていても、それは私のプライベートサーバーだと言い、私はそれで構わないと思っています。
AmazonのHugging Face、MicrosoftのOpenAI、そしてGoogleの独自のBardバージョンでこれらを実行していることがすでに見られます。SaaSバージョンとプライベートVPCバージョンの両方が提供されるでしょう。
まだ実用的に現れていないと思われる第3のバージョンもありますが、これは最大限にIPを安全に保護したいと考える方向性で、自分のマシンを稼働させ、自分のモデルを実行しています。
そして問題は、オープンソースや個人で利用可能なバージョンのモデルは、一般にホストされているものと同じように優れているのか、そしてそれは私にとって重要なことなのか、ということです。
そして、その答えは、今現在、現実的には、おそらく非常に重要です。
時間が経てば、達成しなければならないある特定のタスクは、達成するためにある一定の知能を必要とすると考えることができます。
そのため、時間が経つにつれて、民間で入手可能なバージョンのモデルがその閾値を超えるようになるでしょう。
しかし、SaaSのインテリジェンスがより賢くなり、おそらく優位に立つことができるでしょう。
しかし、SaaSのインテリジェンスがより賢くなり、おそらくSaaSの方が優位に立つでしょう。さて、問題はどちらがより重要かです。
より優れた総合的なインテリジェンスが欲しいのか、それとも自分のタスクがある程度固定されているのか。
そして、オープンソースで利用可能なものを使えばいいのです。
ご質問の件ですが、ChachiPTは最近プライバシーポリシーを更新し、トレーニングプロセスでプロンプトを使用しないようになりましたので、ご安心ください。
しかし、これまでは、すべてがビンに戻され、再びトレーニングを受けることができました。
というのは事実です。
だから、ピザはもうピザの時間だと思うんだ。
ピザを食べに行こう。
お役に立てたなら幸いです。
また、質問しに来て下さいね。