『ChatPDF』と『PDF GPT』の比較です。
公開日:2023年4月14日
※動画を再生してから、インタビューを読むのがオススメです。
テスト。
テスト、テスト。
テスト、テスト。
音量が良好であることを確認するために、マイクのテストを行っています。
そして、音量が良好であることが確認できるまで、テストを続けます。
音量は大丈夫ですか?
よし、音量は問題なさそうだ。
ようこそ。
ハッピーフライデー。
今日は面白い企画があります。
PDFサマライザーについて見ていきます。
GPTがリリースされて以来、PDFと対話できるGPTのラッパーがいくつかあります。
そこで、少し調べてみたのですが、基本的には2つが主流になっているようです。
PDFGPT.ioと、ChatPDF.comです。
そこで、ある論文をダウンロードしてみました。
これは私たちのDiscordで誰かが推薦してくれた論文で、深層学習の一般的な要約論文という感じです。
これから行うのは、このPDFを両方のPDFチャットボットに渡すことです。
そして、情報を探すという点で、両者がどのように動くかを見ていきます。
そして、GPT-4と比較してどうなのかも見ていきます。
GPT-4は明らかにこのPDFを正確に知っているわけではありませんが、一般論的な知識は持っています。
ですから、うまくいくかもしれませんし、うまくいかないかもしれません。
いずれ分かることです。
では、まず最初に、ファイルブラウザを開いてみましょう。
ダウンロードを開き、このPDF、ディープラーニングのアンケートを入れて、同じPDFをここにアップロードします。
さて、これで両方とも処理されました。
非常に短い時間で処理されましたね。
実際には、彼らがそのドキュメントをアップロードして、すべての内容を読んだのか、それとも「アップロードが完了しました」とだけ言って終わりにしたのか、という疑問が浮かびます。
というのも、このPDFのテキストをすべてスクレイピングして、そのテキストをすべてGPTに送り込むには、時間が足りないような気がするんです。
だから、まだ全部は読んでないと思うんです。
読み込んだだけだと思います。
次に、このインターフェースについてですが、私はこのインターフェースが好きです。
PDF GPTでは、PDFが横に表示されるんですね。
この実装が好きなんですよね。
それができるのがいいんです。
しかし、ChatPDFではそれができません。
もうPDFはないんです。
このようなことをしなければならないのです。
では、少し一般的なことを聞いてみましょう。
まずは簡単な質問から始めましょう。
ディープラーニングとは何か、2つの文章で説明しましょう。
ディープラーニングとは1文で何ですか?
ディープラーニングを2文ほどで説明してください。
では、チャットのPDF、PDFのGPT、そしてGPT-4を聞いてみます。
わかりました。
ディープラーニングは、複雑な問題をモデル化して解決するために人工ニューラルネットワークを使用する機械学習のサブフィールドです。
大量のデータに対してこれらのネットワークを訓練し、パターンを学習して予測や決定を行うことが含まれる。
その通りだと思います。
そして、私がここで注目しているのは、反応が変わるかどうかです。
この2つとも、ボンネットの中では明らかにGPTです。
そこで、PDFを渡したときにどうなるかを見てみたいのですが、元のGPTの答えを上書きするような情報を持っている可能性があります。
だから、この答えとどれくらい違うのか、見てみたいんです。
つまり、ChatPDFとGPT-4は非常によく似ていることがわかります。
ディープラーニングとは、人工知能のサブフィールドで、人工ニューラルネットワークを訓練して、パターンの認識、意思決定、経験からの学習を行うことです。
複雑な問題をモデル化して解決する。
一つ気になったのは、文言がとても重要だということですね。
ChatGPTはLLMということで、実際のトークンへの注目度が大きいんですね。
人間では認識できないようなパターンを認識しているようなものなんです。
特定の単語を使えば、その単語を埋め込み空間の特定の領域に置くことになる、ということを認識しているんです。
そして、自分がそうしていることにさえ気づかないかもしれません。
ですから、言葉を変えてみたり、ある言葉は使っているが他の言葉は使っていないという事実だけでも、多くのことがわかることがあるのです。
人間の脳の構造と機能からインスパイアされた。
例えば、ここでインスパイアされた、とかね。
ここでは全く出てこない言葉です。
ここに出てくるかどうか見てみましょう。
あ、これは参考文献がありますね。
ああ、それはちょっとかっこいいですね。
いいなあ、これ。
そうですか。
このチャットのPDFは、GPT-4の答えにとてもよく似ているんです。
でもPDFのGPTは答えを出してくれたんですが、これはもう少し論文に特化しているようです。
つまり、論文から具体的に引用しているように見え、さらに正確な論文への参照も示しています。
つまり、これはこの論文と同じ33ページ目です。
機械学習の手続きの一部は、モデルのパラメータを推定して、階層的なアーキテクチャを持つ非線形情報処理ユニットの学習戦略を特徴学習やパターン認識に利用することです。
うん、この方が論文からずっと多い気がする。
なるほど。
ここまではPDF GPT-1、ChatPDFゼロです。
ChatPDFはGPT-4の答えを教えてくれただけです。
PDFのGPTはこの論文に特化したものを教えてくれました。
では、このまま続けてみましょう。
ChatGPTが知らないような、もう少し複雑なものを探してみましょう。
この論文では、まずディープラーニングのアプローチの種類を説明しています。
半教師付き、教師付き、部分教師付き、教師なし。
強化学習もあります。
そして、深層強化学習。
強化学習を実際にやっている人はもういないのでしょうか?
あれは深い強化学習じゃない。
教師あり学習、半教師あり学習、教師なし学習。
では、この「教師あり」「半教師あり」「部分教師あり」「教師なし」という分け方ですが、必ずしもそうではなく、違う分け方をする場合もありますよね?
教師あり、教師なしと分けるだけでいいんです。
では、見てみましょう。
教師あり学習にはどのような種類があるのでしょうか?
その答えを見てみましょう。
送って、送って、送るんだ。
なるほど。
教師あり学習は機械学習のパラダイムで、アルゴリズムが入力と出力のペアを用いてラベル付きデータから学習し、予測を行うものです。
そうだ
その通りだ
教師あり学習の回帰は主に2種類あります。
連続的な数値を予測することを目的とする
なるほど。
分類では、入力がどのカテゴリに属するかを予測することが目標です。
ということで、どれも比較的正しいようです。
ここを見てみましょう。
PDFのGPTがまた勝っているかもしれませんね。
これを見てください。
これは論文にあったものです。
教師あり、半教師あり、教師なしと続きます。
つまり、教師あり、半教師あり、教師なしということです。
また、ここでは深層強化学習についても触れられています。
深層強化学習は2013年にGoogle deep mindで始まりました。
それは必ずしも真実ではありません。
もっと前からやっていたような気がします。
なるほど。
でも、論文から3つのことを教えてくれたのはよかったですね。
何ページくらい読み込んだんですか?
この論文はかなり長いんです。
だから、私は特に、長い紙を選んでいるんだ。
もう1つ、こちらにもあります。
これは歴史の論文なんですが、39ページあります。
だから、全部読んだとはとても思えません。
おそらく類似検索をしているのだと思いますが、ここでチャットのPDFを見てみましょう。
PDFファイルによると、ディープラーニングのための教師あり学習には、ディープニューラルネットワーク、カレントニューラルネットワークのための畳み込みニューラルネットワークなどの種類があるそうです。
あ、しまった。
ここで間違った単語を与えてしまったことに今気づきました。
ミスタイプしてしまいました。
私たちは「provised」と呼んでいます。
ChatPDFは実はここで一番悪いことをしました。
教師なし学習には、電流ゲート型リカレントユニットという種類があります。
これらは単なるアーキテクチャのようなものです。
これらは単なるアーキテクチャに過ぎません。
これは、みなさんが見ることができないものだと気づきました。
失礼しました。
では、このように切り替えてみます。
チャットのPDFは、ここではうまくいっていないようです。
これは教師あり学習の一種ではありません。
これはモデル・アーキテクチャです。
一般的なモデル・アーキテクチャを示しただけですが、PDFとGPTは少し良くなっています。
そしてもちろんGPT-4は、簡潔さと実際に正しいアイデアを与えるという点で、おそらく最良の答えでしょう。
なるほど。
有名なヨンラクーンケーキですね?
もし、みなさんがこのヨン・ラクーンケーキのことを聞いたことがないのであれば、論文発表会や何かの会議でこのケーキを見たことがあるかもしれません。
そして、このジョークをご存じでしょう。
基本的には、このケーキのことです。
ヤン・ルカンはこれで有名ですが、彼はいつも強化学習が上に乗ったサクランボであり、ケーキの肉だというのが教師なし学習や自己教師付き学習であると語っています。これらはほぼ同じことです。
そして実際に、この例えは真実となりましたね。
ChatGPTはどのように学習するのでしょうか?
その大部分は次のトークンを予測するもので、これは自己教師あり学習、あるいは教師なし学習の一種です。
さらに、人間のフィードバックによる強化学習であるRLHFが加わります。
つまり、ある意味、彼は実際に正しかったのです。
だから、人々が彼を非難するのと同じくらい、彼は実際に正しかったのです。
なるほど。
では、見てみましょう。
従来のMLとDLの重要な違いは、特徴をどのように抽出するかです。
なるほど。
では、見てみましょう。
この文章をなんとなく正確にコピーするんですよね?
従来のMLとDLの重要な違いは何でしょうか?
ここで私が探しているのは、これが非常に特殊な種類のフレーズであるという事実ですね?
ここでは、特定のトークンの並びです。
ですから、もしPDF GPTのどちらかが何らかの類似性検索を行った場合、ここでヒットすることになります。
なぜなら、私がコピーペーストしているのは、まさにこの文章だからです。
つまり、私が探しているのは、このようなものです。
正確な答えが返ってくるかどうかを見ているのです。
この3つに答えてください。
わかりました。
では、GPT-4は何を教えてくれるのでしょうか?
従来の機械学習と深層学習の主な違いは、その特徴表現と学習アプローチにあります。
伝統的な機械学習では、最も重要なステップは特徴エンジニアリングです。
ここでは、専門家が生データから最も関連性の高い特徴を手動で選択、抽出、変換し、問題を予測、表現します。
そしてMLアルゴリズムは、これらの手作業で作られた特徴から学習して予測を行う。
これは正しい。
ディープラーニングの世界では、今でも多くの特徴抽出が行われていますが、よりデータに近いところで行われているのですね。
つまり、現代のディープラーニングの世界におけるフィーチャーエンジニアリングは、実はほとんどがデータクリーニングと呼ばれているんですね。
しかし、データセットをクリーニングするとき、実際には何をやっているのでしょうか?
基本的には特徴量をエンジニアリングしているわけですよね。
しかし、GPTがここで指摘しているのは、データをクリーニングするだけでなく、たとえばコンピュータビジョンでは、画像上でどの特徴マップを畳み込むかを選択することも行われていたということです。
例えば、キーポイントに対して、siftやorbといった特定の記述子を選択すると思いますが、もうその必要はありませんよね。
では、画像を生のまま置いてみましょう。
データセットをクリーニングする必要がありますが、畳み込みニューラルネットワークは、手作業で設計しなくても、問題に関連する特徴の埋め込み空間を作成します。
PDF GPTの発言を見てみよう。
従来の機械学習とディープラーニングの決定的な違いは、特徴をどのように抽出するかということです。
特徴量がどのように抽出されるのか、ドカンと出てきましたね。
ということで、ここは間違いなく何らかの類似性検索をしているのでした。
伝統的なMLアプローチでは、いくつかの特徴抽出アルゴリズムを適用して、手作りの特徴を使います。
これは正確です。
そう、これを見てください。
DLの特徴量はすべて自動で学習されます。
一方、DLの場合、特徴は自動で学習されます。
だから、これは実はかなりすごいことなんです。
これを見てください。
MLの場合は単語単位で、DLの場合は単語単位で表示されますよね?
そして、それを2つのパートからなる文章に分割しています。
つまり、PDFからコピーペーストしているようなものですが、実際には知識を認識しているのです。
では、ここでチャットのPDFを見てみましょう。
このPDFによると、従来の機械学習とディープラーニングの重要な違いは、特徴をどのように抽出するかということだそうです。
なるほど、そうなんですね。
ChatPDFも類似検索みたいなことをして、この正確な部分を見つけることができたわけですね?
ほらね、これ。
特徴量の抽出方法にマジックワードがあるんです。
従来のMLアプローチ、伝統的なMLアプローチでは、ボツボツを適用して手作りの特徴量を使います。
DLは人工ニューラルネットワークを使って特徴を自動学習させるんだ。
さて、DLの特徴量は自動で学習され、階層や高さを多階層で表現します。
というわけで、これはちょっと似てますよね?
PDF、GPT、ChatPDFが同じ答えを出しているのが気になるところです。
これはDLがより適していると言えます。
これは、従来のMLアプローチに対するDLの長所です。
つまり、構造は同じようなものなのです。
トークンが違うのは明らかですが、同じ答えを出しているように見えます。
また、3ページ目を参照しているのも良いですね。
つまり、ここをクリックすると、参照元がどこから取得されたかを教えてくれるようなものがありますが、ChatPDFでは、答えの中にその情報が含まれていますよね。
だから、ここでストレートに教えてくれるんです。
だから、ここをクリックできるのがいいんです。
今のところ、PDF GPTの方がUIは優れているようですね。
私はこのUIが好きです。
サイドにPDFを表示する機能があるのもいいですし、ここでのリファレンスも気に入っています。
クリックして、ここに行って、それをクリックすると、2ページ目に行くことができます。
これはとてもいいことですよね。
UIという点では、こちらの方が答えの面で優れているように思います。
2人とも同じような答えをしていますね。
2人とも、本の中のその部分を正確に見つけることができたのです。
正答率という点では、どちらもほぼ同じですが、この問題はかなり簡単です。
では、ちょっと曖昧なものを探してみましょうか。
ある特定の論文の日付とかね。
2014年のビッグデータ解析のようなものです。
簡単すぎませんか?
とても曖昧な論文の日付が欲しいのですが、チャットGPTがそれを手に入れるかどうか。
だから、GPT-4が知らないようなものが欲しいんだ。
では、GPT-4がおそらく知らないであろうものを探してみましょう。
重量減衰、運動量、逆伝播、SGD...。
これらはすべて、基本的な概念に過ぎない。
GPT-4は必ず知っているはずです。
ネットワーク構造は1988年に福島が初めて提唱した。
もしかしたら、もしかしたら、これを知らないかもしれない。
GPT-4がこれを知っているかどうか見てみよう。
福島が初めてCNNを説明したのはいつだったかな?
CNNとまではいかなかった。
その時はMLPを描写していたような気がする。
よく分かりませんが。
ChatGPTに聞こう。
PDFGPTに聞こう、ChatPDFに聞こう。
福島は1979年から1980年にかけて発表された一連の論文で、CNNの概念を初めて説明した。
さて、では1988年というのは、実はこのPDFの中の日付です。
ということは、何かが間違っている。
本文には、福島が最初にCNNについて説明したのがいつなのか、情報がない。
いやはや。
よし、これでよし。
だから、ChatPDFのGPTはこれを見つけることができない。
この文章にはCNNという単語がないからだと思うんですよね。
だから、CNNの概要なんだけど、それはタイトルの一部なんだ。
そして、1988年の最初の文にはCNNのトークンが含まれていません。
だから、そこが混乱したのかもしれません。
チャットのPDFを見てみましょう。
やばい。
見てください。
チャット、ChatPDFがあった。
PDFファイルによると、福島がCNNを最初に提案したのは1988年だそうです。
なるほどね。
ChatPDFもいい感じだ
GPT-4は幻覚の誤答を出したが、再確認してみよう。
福島CNN論文、位置の変化に影響されないパターン認識機構のための自己組織化ニューラルネットワークモデル。
これは、CNNの説明を聞くときに、翻訳不変性、翻訳または同等の翻訳、基本的には空間バイアスについて話すことがあります。
彼らが言いたいのは、畳み込みの仕組みによって、犬が画像の中心にいるか、画像の隅にいるか、画像の下の隅にいるかに関係なく、特徴マップが画像全体に畳み込まれるということです。
つまり、画像内の犬の空間的な位置に対して不変なんですね。
つまり、位置の変化に影響されないというのは、こういうことなのです。
つまり、これは興味深いことなんですね。
この論文は1980年に発表されたものですが、これは非常に明確に畳み込みニューラルネットを記述していますよね?
これが規約のように見えるということです。
だから、これは間違っているような気がするんですね。
この調査論文は1988年だと言っていますが、これは、1980年にはすでにアイデアとしてあったんです。
だから、そうなんです。
チャップGPTは実は正しかった。
だからくそ、見てみろ。
この論文を読んでいたら、この論文が正しくて、ChatGPTは実は正しくないんだと思ったはずです。
でも、ネオコグニトロンの論文は1988年ではなく1980年に出ているので、ChatGPTが正しいことがわかったんです。
そうなんです。
これは、まさにマインドベンダーですね。
よし。
別のものを探しましょう。
ちょっと難しい概念みたいなものを探してみよう。
カーネル、学習可能なカーネル、活性化関数の種類などだ
おそらく、複雑さ、パラメータの数、入力特徴マップの次元がわかると思うんです。
これは畳み込みネットの1対1みたいなものです。
何か曖昧なものを見つけなければならない。
なるほど。
そこで、ImageNet賞を受賞した有名なConvNetであるAlexNetは、初のConvNetの1つであり、新しい概念であるLRN(局所応答正規化)を導入しました。これは一種の正則化ですね。
レイヤーノルムやバッチノルムのようなものです。
このネットワークでは、そのうちの1つとドロップアウトが導入されています。
なるほど。
では、どんな新しいものがあるか見てみましょう。
どんな新しいタイプの、あー、パーク・イット・テックがあるか。
そうですね。
アレックス・ネットが導入したデザインは?
そうだな
PDFのGPTとチャットのPDFをお願いします。
そうですね
GPT4が出したアレックス・ネットの提案を見てみよう。
実はこれがオープニングなんだ
BTダブで見つけたんだ
イルヤは深層学習、特にコンピュータビジョンの分野で画期的な進歩を遂げました。
CNNの基礎的な概念に基づき、いくつかの重要な革新的技術を導入し、より大きく、より深いネットワークを実現しました。
なるほど、なるほど。
でも、これは簡単に選べるものです。
私が本当に興味があるのは、このLRNが活性化関数になるのかどうかということです。
それは知りませんでした。
そうなんですか?
rel youはAlex netのものです。
でも、rel youはそれよりも古いんですよ。
ああ、これだ。
ドロップアウト。
ブームだ。
いいねぇ。
そうか。
というわけで、ドロップアウトをゲットしました。
PDF GPTがより深く、より広いモデルであることを確認してください。
よし。
さあ、どうぞ。
LRNを取得し、ドロップアウトをより深く、より広く取得することで、いくつかのPDF GPTがうまくいきました。
どちらも、より深く、より広くなっているのがわかります。
どちらも、ある特定のトークンの並びを中心に据えているような感じですね。
5つの畳み込み層と3つの畳み込み層、完全連結、整流された線形単位を使用することで、より深く、より広くなっています。
また、オーバーフィッティングを防ぐためにドロップアウト正則化を使って、ネットワークを正則化します。
このローカルレスポンスの正規化については触れていませんので、ChatPDFをご覧ください。
このように、PDF GPTはもう少し言葉足らずのようですが、どちらもドロップアウトを取得しています PDF GPTはレイヤーロカルレスポンス正規化を取得しています。
ChatPDFはローカルレスポンス、ローカルレスポンスの正規化を受けず、GPT-4も受けませんでしたが、GPT-4はドロップアウトを受けたのです。
かっこいいですね。
続けてみよう。
Google netを手に入れた。
ILS VRCの勝者。
古き良きインセプションネット。
そういえばそうだった。
Resnetは、超深層ネットワークの設計を意図して開発された。
実はこのResnetの論文をこの流れで読んだことがあるんです。
そのストリームを掘り返してみるのは自由です。
しかし、そうですね。
この考え方は、ネットワークを通過する経路をスキップさせるというものですね。
スキップ接続、残留接続と呼ばれるものですが、非常に強力なアイデアです。
密につながったネットワーク、デンスネット。
これはカプセル・ネットワークですか?
そうです。
カプセル・ネットワークです。
これがとても良いものになると思われていたのを覚えています。
ヒントンの研究室から出たものです。
確かです。
しばらくは宣伝していたようですが、その後、消滅してしまったようです。
誰も何もしなかったように。
問題は、ある時期、人々がアーキテクチャの分野でイノベーションを起こしたのですが、アーキテクチャとハードウェアは適合しなければならないという事実を考慮していなかったということです。
ハードウェア上で最もうまく機能するアーキテクチャが、成功につながるということですね。
コンバイン・ネット。
コンブネットが人気を博した理由のひとつは、実際にGPUと非常に相性が良かったからですよね?
しかし、カプセルネットはそうではありません。カプセルネットは、階層や理論の観点からは非常にクリーンです。
しかし、実際にGPUに実装して高速に学習させようとすると、ものすごく時間がかかります。
だから、誰も使わないのです。
カプセルネットは、GPTの4人が知らないかもしれないほど、潜在的に曖昧なものだと思うんです。
GPT4が知っているかどうか見てみましょう。
カプセルネットの説明をお願いします。
海賊になったつもりで、とんでもないことをやってみよう。
海賊になったつもりで、ちょっと変わったスタイルで転送して、実際に動くかどうか見てみましょう。
どれが核攻撃され、どれがされないか見てみよう。
これはすごいことになりそうです。
さて、人工知能の世界における革新的な技術であるカプセルネットワークについてお話ししましょう。
カプセルネットワーク、略してカプセルネットは、オブジェクトと画像の間の空間的な関係をよりよく理解するために設計された、古いニューラルネットワークの新しい品種です。
従来のCNNはパターン認識には優れていますが、オブジェクトの真の空間的階層やポーズを維持するのに苦労することがあります。
そこで、私たちの剣豪科学者ジョフリー・ヘンプトンとその仲間たちが考え出したのが、キャップスネットです。
キャップスネットには、カプセルというユニークな機能があります。
カプセルは、オブジェクトのさまざまな特性を表すニューロンの小さなグループであり、動的なルーティング全体は、正しい直接の目的地を指し示す信頼できるコンパスのようなものなのです。
それは素晴らしいことです。
なるほど。
つまり、このカプセル・ネットワークは、基本的にCPUやGPUにマッピングするのが苦手な部分ですが、このダイナミック・ルーティングという考え方があることを理解しているのです。
つまり、カプセルネットワーク内を流れる情報の経路が変化する、ということですね。
下の層からの出力は、どの要素が一致し、どの要素が一致しないかによって、類似検索のようなことを行っていると考えることができます。
例えば、同じ方向に向いているものがあれば、その情報を経由する経路は異なるものになります。
ダイナミック・ルーティングをコンパスに例えると、確かに印象的ですね。
なるほど。
PDF GPTが海賊の真似をするのが上手か下手か見てみましょう。
ようこそ、マティー
カプセル・ネットワークについて説明しよう。
これを見てくれ
これは実際に同じGPT PDFやChatPDF、PDF GPTを行ったものです。
どちらもここに同じイントロがあります。
こんにちは、mateyです。
教えてあげよう。
私、私たちの目がどのように働くかに触発されました。
そのフレーズが存在するかどうか見てみましょう。
えー、エンコード一次修正畳み込み。
カプセルは加重和を含み、それを可能にする。
だから海賊を見失ったんだ。
海賊と一緒にスタートしたわけですが、その後、あっという間に、従来のCNNと同じように、単一のコスト関数で能力を高めることができるようになりました。
これは論文と同じように読めます。
だから、海賊のスタイル要求で出力の形式を上書きすることは基本的にできなかった。
具体的な部分をご覧ください。
これも海賊のテーマがないのですが、ここにあります。
海賊で終わります。
海賊から始まり、一般的な技術、実際の正式な定義、そして海賊とPDF GPTの比較で終わっていますね。
一方、PDF GPTは、海賊版から始まり、普通に暴れまわっているうちに訳がわからなくなってしまいました。
海賊のように話すということを忘れてしまうのです。
だから、必ずしもそれを結論として引き出さなくてもいいと思いますが、テキストスタイルを模倣する能力においては、ChatPDFがPDF GPTよりも少し優れているようですし、どちらもGPT-4と比べると全然劣りますよね。
GPT-4は、信頼できるコンパスを備えていました。
海賊をテーマにしたような、パラグラフ全体がそうだった。
よし、このまま続けよう。
CNNの応用例、グラフ問題を解くCNN、画像処理とコンピュータビジョン、音声処理、医療用画像処理CNN、小さな活性化関数、ええと、ここにある。
小さなシグモイド、ハイパーボリックがある。
ここに小さなreluがあります。
relusを使う理由のひとつは、よりシンプルだからです。
方程式を計算するのが簡単なんですね。
シグモイドやガリューのように計算するよりも、このリルスの方が計算量が少なくて済みます。
だから、それもあるんです。
でも、現実的には、それが理由で選ばれているわけではないと思うんです。
ただ、より効果的だからという理由で選ばれることもあります。
リルムが漏れたんですね。
だから、このレルはフラットなんだ。
マイナスのものはゼロを返しますが、リーキーリリューはマイナスで、しかも大きなマイナスであれば、少しはマイナスを返しますよね?
このX軸が入力で、Y軸が出力です。
つまり、リーキーレルー活性化を持つニューロンが非常に大きなマイナスを受け取った場合、非常に小さなマイナスを返すことになるのです。
このLU指数線形結合は、基本的にここより少し低いところにあります。
だから、ここ、ここ、ここが変なんです。
Parametric relu PRLUです。
これはかなり曖昧です。
gbt4はたぶん知らないんじゃないかな。
えーと、パラメトリック・リルって誰がいつ提唱したんだっけ?
やばいな。
この名前、全部正解だったんだろうか?
KYMINGHER PARAMETRIC RELUにしよう。
もし、この名前が全部正しいのなら、正気とは思えないね。
やめろ
論文を渡せ
Kymingher, Xiangyu Zhang, Xiangyu Zhang, Xiao Qing Ren, Jian Sun.
すげえな、おい。
Gbt4のように、これらの名前の権利をすべて持っている。
この権利もあるんだ。
gbt4のように、クソ強いです。
整流器を掘り下げ、ImageNetの分類で人間レベルの性能を超える。
2015年に発表された論文だそうです。
くっそー。
PRLUはrectified linear unitのバリエーションで、関数の負の部分が0に固定されるのではなく、学習可能なパラメータを持っている。
だからgbt4とても、とても良い。
とても正しいです。
すべての名前が正しい。
日付も正しい。
とても印象的です。
では、見てみましょう。
PDFのgbtです。
2015年にkymingherらによって提案された「parametric relu」です。
ほら、これです。
2015年にkymingher et alによって提案されました。
つまり、これはPDF gbtがgbt4が正しいという状況の1つです。
つまりgbt4はこの論文の残りの人たちを正しく知っているわけです。
しかし、この質問をすると、通常であればgbt4が答えるはずの答えを、論文に書かれている答えで上書きしてしまうようなものなのです。
だから、この論文に載っている他の人たちが誰なのか知っているにもかかわらず、kymingher et al、つまり、kymingherと学生だけとか、そういう意味の答えを出すんです。
なぜなら、この論文ではそのように書かれているからです。
ということは、PDFのgbtは、紙面上で非常に高い強度を持つということを物語っていますね。
これは、「CAP THE PIRATE」を見てみるとわかるのですが、gbtのような生の力を使っていないんです。
ルックアップのようなものです。
gbtは、論文に書かれていることを正確に伝えることに長けています。
これは、論文を検索するようなものですね。
そして、ChatPDFも似たようなアイデアですね。
2015年にkymingherによって提案されました。
2015年にkymingherによって提案されました。
そう、これです。
これは同じトークンのセットですが、少なくともここでは、それに追加するようなものです。
ここではrelu activation functionの改良版として文章が追加されています。
それに対してここでは、2015年の期間にkymingherによって提案された、relu活性化関数の改良版である、と書かれていますね。
このPDFの書き方は、an efficient improved version of the relu activation functionという文章で始まり、その後に日付が記載されています。
興味深いのは、この2つのPDFは、日付が書かれていて、その前に文章が書かれているという点は同じなのですが、少し形式が違うということです。
なるほど。
そうですね。
移動します。
最適化手法です。
勾配SGDは勾配降下法の中でも最もシンプルなもので、デルタRMSプロップとアトムで得られる勾配を利用します。
他にもたくさんあります。
ここでもう1つ質問してみましょう。
最適化に関するさまざまな論文とはどのようなものでしょうか。
それは論文を全部読んでいるのでしょうか?
どうでしょう。
でも、あまりに速すぎるという印象はないですね。
非常に早く見つけたという感じです。
バックグラウンドで読んでいるのかどうかはわかりませんが、このPDFをすべて解析してチャットを開始するほどの時間があったとは思えません。
最初に1ページ目を解析し、チャットを表示してから、バックグラウンドで解析を続けるなど、非同期の処理が行われている可能性がありますが、確信はありません。
そうなんです。
ここで、DLおよびGPT-4に対する異なる最適化方法について尋ねたいと思いますが、GPT-4はこの論文を知らないので、おそらくここで正確に5つのセットを提供することはないでしょう。
おそらく、SGDとGrad、RMSとatomのデルタを出すことはないでしょう。
おそらく、より良い答えが得られると思います。
しかし、もしこれを、2つのChatPDFとPDF GPTに入れたら、おそらくこの5つのセットを正確に教えてくれるに違いない。
そうです。
ChatPDFは、デルタRMSプロップとアトムで、深い確率的勾配降下SGDを行い、この5つの正確な順番で、PDF GPTは、興味深いです。
これでは全くわからないですよね。
つまり、PDF GPTは、ここで奇妙な一般的な暴言を吐いているようなものです。
主な違いは?
DLには異なる最適化手法があります。
DLは、機械学習が採用されています。
なるほど。
参考文献は3ページ目5ページ目29ページ目そしてこの文献は18ページ目です
なるほど。
これは興味深いことです。つまり、ChatPDFは類似性検索の閾値が高いということです。
どのように実装されているのか正確には知らないので推測ですが、ある時点で、質問とPDF内のテキストの類似性を測定しているのですね。
そして、明らかにDLの最適化方法が異なる。
この正確なトークンのセットはここにあります。
最適化方法が違うんですね。
で、ChatPDFは、そのテキストの中で、最も高い類似性を持つ部分、つまり、その正確な単語セットを持つ部分を見つけましたね?
そして18ページと書いてあります。
しかし、PDF GPTでは、3ページと5ページが表示されました。これは、ルックアップ、つまり類似性の閾値が低いということですね?
つまり、「これと似たようなものを見つけたら、すぐにやめて、それに基づいて答えを作る」ということです。
PDF GPTがページ3に基づく要約を提供した理由として、私の推測では、ChatPDFがページ18から具体的に探していた1文の回答を提供したのと同様です。
つまり、PDFの上から下まで、どこから検索を開始するのか、そこに何かあるのかもしれません。
PDF全体を検索して最も一致するものを見つけるのか、それとも検索を開始して、ある種の類似性が求めるものと一致するとすぐに停止するのかどちらでしょうか?
GPT forの結果を見てみましょう。GPT forの結果、勾配降下SGDミニバッチ勾配降下運動量Nesterov加速勾配勾配RMS prop atom atomax and atom AMS gradが得られました。
というわけで、実はこれがベストアンサーなのです。
つまり、GPTはこれらすべてを提供してくれるだけでなく、より多くのものを提供してくれるのです。
つまり、GPT forは、PDFのような特殊なものよりも、いろいろなことを学びたい場合に適しているということです。
ここで、ゲーテッドリカレントユニットとLSTMを紹介します。
これらは以前はシーケンスタスク、特に自然言語処理で非常に人気がありましたが、今はトランスフォーマーに取って代わられたようなものです。
トランスフォーマーの方が優れているのです。
しかし、ある種の状況ではまだ使われているようです。
ロボット工学のユースケースのように、リカレント・ニューラル・ネットワークは今でも使われていますし、リカレント・ニューラル・ネットワークのアイデアを取り入れたビデオモデルもたまに見かけますね。
しかし、LSTMやGRUのユーザーグルーブ、あるいはそれらを何と呼ぶかは別として、LSTMやGRUはほとんど死滅したと言ってよいでしょう。
変分オートエンコーダー(Variational Auto Encoder)は、ここで何が起こっているのか、私たちは考えています。
潜在のKLダイバージェンスは、潜在変数が単位ガウス分布にどれだけ近いかを判断するものです。
潜在的な分布を異なるタイプの分布に合わせたい場合や、2つの分布を同じにしたい場合、KLダイバージェンスを損失関数や損失関数の要素として使用します。
これが、最初のGANのいくつかの姿であり、中間の旅について考えた後、ここが始まりの場所であることに気づくのです。
昔はこんな感じだったんだ......これじゃダメだ。
そして、医療用画像処理では、深層強化学習(deep reinforcement learning)を採用しています。
ディープ強化学習とは、強化学習の一種であり、価値関数やポリシーがディープニューラルネットワーク(基本的には万能関数近似器)で近似されるものです。
信じられないかもしれませんが、強化学習には非常に長い歴史があり、関数近似としてのディープニューラルネットワークが登場する前から、強化学習を行っている人々がいました。
彼らは文字通りテーブルのようなものを持っていましたね。
システムが遭遇したすべての状態が評価されるテーブルを持っていて、価値関数は文字通りテーブルなんです。
チェスの変な形みたいなものですが、バックギャモンもそうやって解いたんでしょうね。
部分的に観測可能なマルコフ決定問題POMDP。
ファジィRL......なんだそれ?
ディープラーニングの神話
これは転移学習の方法を説明するもので、画像ネットで訓練された大規模なネットワークを、特定の問題で微調整するものです。
ディープラーニングのためのハードウェア。
テンソル・プロセッシング・ユニットです。
最近、TPUv4が発表されましたね。
光学的に再構成可能なスーパーコンピュータです。
ここにあるのは、たくさんの...
もし、これを非常に...
ここでは、極めてニッチなことを聞いてみよう。
へのリンクはどうなっていますか?
スタンフォードの質問応答データセットへのリンクを教えてください。
SQUAD.
GPT-4がそれを知っているわけがありませんよね?
それは極めて不明瞭で、具体的にはこんな感じです。
Rajpurkargithub.ioを探してるので、それを入れて、これら全部に質問してみます。
どんな答えが返ってくるか見てみましょう。
さて、PDF GPTはかなり的を得ていますね。
さあ、どうぞ。
以下のリンクからアクセスできます。
Rajpurkargithub.ioです。
Rajpurkargithub.ioということで、ちゃんとリンクが貼られていました。
ChatPDFもちゃんとリンクしてましたよ。
ここで即座に見つかりました。
Rajpurkargithub.ioなので、これでよしとします。
さて、次はGPT-4です。
すげーな、なんだこれ?
なんでそんなことがわかるんだ?
正気とは思えません。
この2つのPDFの小さなボットが取得するのを見たとき、もちろんそうだろうと思いました。
この下にあるランダムなリンクの1つで、類似性を見つけているようなものなんだ。
これはユニークなトークンのセットで、それを理解するのですが、GPT-4はそれを知っているということです。
正気とは思えませんね。
このビデオのタイトルは、「これをわざわざ使う必要はない」と言うべきかもしれませんね。
PDFリーダーはGPT-4に尋ねるだけで、GPT-4は知っているので、そんなことをする必要はない。
これは、タスクスペシフィックインテリジェンスという考え方に対するコメントかもしれません。
過去50年間、タスクに特化した知能は、常に一般的な知能に勝ってきたように思います。
さまざまなタスクに対応した機械学習モデルがあれば、それぞれのタスクに特化して学習させた機械学習モデルに必ず負けていました。
しかし、もはやそのようなことはなく、ますます一般的なAIがタスクに特化したAIよりも優れていることが分かってきています。
このことは、世界や市場に大きな影響を与えることになります。
PDF専用のAIツールを作成して、PDFを与えるとそのPDFに関する質問に答えることができるようにする意味は何でしょうか?もしGPT-4自体が、そのPDFを読まなくても質問に答えられるのであればです。
そうでしょう?
GPT-4が質問に完璧に答えてくれるなら、PDFGPT.ioや特定のPDFに基づいたこのような製品の意義は何なのでしょう?
そんなのおかしいよ。
そうですね。
では、ディープラーニングを探求してみましょう。
ここで新しいことをやってみようと思います。
新しいチャットをしようと思います。
そして、私が選んだ2つ目の論文は、歴史に関する論文で、実際にはスクロール賞のDiscordから来た、ちょっと変わった計算考古学の論文です。
誰かが推薦してくれたのですが、とてもクールです。
しかし、このようなものは無名のものであり、次のレベルの無名のものです。
だから、何が起こるか興味があるんだ。
新しいPDFと新しいチャット。
これは非常に無名なので、GPTがこの無名なものを手に入れられるかどうか、アップロードするつもりです。
そうですか。
よし
古代建築の探求...............................。
なるほど。
では、ここをスクロールして、「クソ無名」みたいな感じで聞いてみましょう。
図9は、ほぼ同じ状況での写真測量のテストケースの例です。
ここで何か変なものを見つけてみましょう。
さあ、やってみましょう。
よし、いいぞ。
ここにクソ不透明なものがある。
エシェルの大部分は、1990年代半ばに何度も訪れてフィールドワークを行ったJ.P.プロトソンのフィールドノートからモデル化されたものです。
1893年のレオンセ・アングルとマックス・オエールのフィールドノートです。
なるほど。
ボリビアのティワナクのフィールドノートの原型は、いつ、誰が記録したのか。
ブロックで言うと何というのでしょうか。誰が、いつ、オリジナルのフィールドノートを記録したのでしょうか。
ボリビアのティワナクにあるエシェラです。
なるほど。
ChatGPTがこれを手に入れたら。
どうしたらいいんだろう。
この家を出なければならなくなる
そうか
だから、そこに入れてください。
わかった
ChatPDF9ページによると、オリジナルのフィールドノートは1990年代半ばにJ.P.プロトソンが記録したものだそうです。
なるほど。
だから、それを見つけているんだ。
これは8ページ目か何かです。
1848年のレオンセ・アングル。
これも正しい。
それからマックス・オーエル 1893年
なるほど。
ブームだ
ChatPDFはかなりいい感じです。
PDF GPTを見てみよう。
死んじゃった。
なんだこりゃ?
探してこい
何?
新しいPDFです。
死んじゃったのか?
そうか
そうなんだ。
というわけで、これはただ死んでしまったようです。非常に良い小さなUIを持っていたので、これはダメですね。
つまり、私はこのUIが好きだったのですが、私たちがこのUIを消滅させたという事実は、良いことではありません。
今のところ、チャット、チャットのPDFは、正しいことを教えてくれているようです。
さて、いよいよ正念場、ChatGPTのお手並み拝見です。
やばいな
ボリビアのドイツ人考古学者マック・オーエル1895年19日。
マックス・オーエル 1893年
とても、とても近い。
嫌になるほど近い
1960年代と70年代に アーサー・プロナンスキーと カールス・ポンスによって調査される
なるほど。
レオンス・アングロンも JPプロッツェンもダメだった でもマックス・フラと日付はわかった これはかなり印象的でしょう?
GPT-4はこのPDFを持っていませんから。
これは記憶で知っているだけなのです。
ここでもう一度、PDF GPTに挑戦してみましょう。
もう一度、ファイルをアップロードしてみましょう。
ハードリフレッシュです。
ちょっと出力させてみる。
それでも、やはりダメです。
よし。
PDF GPTを破壊したのかもしれない。
もうダメかもしれない。
ここでもう1つ、よくわからないものを探してみましょう。
フィラメントやポリマーの印刷には、2つの基本的な形態があります。
部品は層ごとに印刷されます。
では、これはどうでしょう?
ZCorpのラピッドプロトタイピングプリンターZ310です。
見てみましょう。
ZCorp Z310って何?
そして、こちらにも来てみましょう。
ZCorp Z310とは?
そして、ZCorp Z310とは何なのか。
12ページによると、ZCorp Z310は、パウダーベースの印刷技術、パウダーベースプリンティングを使用したラピッドプロトタイピングプリンターだそうです。
なるほど、そうなんですね。
その通りです。
インクジェットと似ていますが、インクの代わりに、インクジェットプリンターと同じように層を重ねます。
パウダー素材は支持体としての役割も果たします。
パウダープリントはマトリックス状になっているので、パウダーが支持体の役割を果たすのです。
なるほど。
それで、ChatPDFは基本的にこの段落を提供し、その中からいくつかの異なる部分を選択するような形になっています。
PDF GPTを参照してください。
ZCorp Z310は、アンデサイトビルの3Dモデルを作成するプロセスで使用された、パウダーベースの3Dプリンタの一種である。
プリントベッドにプラスチックパウダーを敷き詰めて、印刷剤を堆積させる。
プリントベッドに敷き詰める。
ほら、これです。
同じような小さな配列が見つかっていますね?
結合剤を堆積させる。
きっとこの辺にあるんでしょうね。
結合剤を入れる。
そうです。
チャットのPDFは簡潔でいいですね。
通常、PDFについて質問する場合、ただ単に答えてほしいのです。
そして、もちろん、GPT-4は知っています。
あなたのPDFは必要ないんです。
知識は必要ありません。
すでにすべてを知っているのです。
これを見てください。
ZCorp Z310、別名ZPrinter 310はZCorp社製の3Dプリンターで、2012年に3Dシステムズに買収された会社です。
再確認しておこう。
ZCropではなく、ZCorp。
2012年に3D Systems社に買収された。
プリンターは分離して、ビルドプラットフォームに粉末材料の層を広げることで動作します。
プリントフルカラー。
すげえな
GPT-4は80年代のプリンターを知っているようだ。
くそ
80年代じゃないかも
これは2000年の話だ
GPT-4はどんなデータで訓練されてるんだ?
それはわからない
OpenAIは教えてくれません。でも、推測は可能です。
おそらくウィキペディアで学習しているのでしょう。
クリエイティブ・コモンズ・ライセンスのようなもので学習しているのでしょう。
クリエイティブ・コモンズ。
おそらく、誰もあなたを訴えることができないほど十分に古いすべての本で訓練されているのでしょう。
しかし、ある時点で学習データが足りなくなることがあります。
今、各社がトレーニングデータの獲得にしのぎを削っています。
例えば、Quora、Reddit、Twitter、Facebook、Googleなどがそうですね。
これらはすべて、OpenAIがトレーニングできないような大きなデータセットを持っている企業です。
OpenAIは、Facebookの写真やテキスト、誰かがFacebookに載せた情報の一つひとつをトレーニングすることはできません。
しかし、Facebookはそれが可能です。
OpenAIはこれまで書かれたすべてのツイートをトレーニングすることはできませんが、Twitterはできます。
ですから、さまざまなGPTやLLMが、さまざまな種類の独自データで学習することになると思います。
しかし、ここで学んだことは、最も多くのデータで訓練されたGPTが、実際には最も良い結果を出すということです。
例えば、このPDFに特化したもの、PDFの中のものをフィルタリングするようなものは、通常のGPT-4ほど優れてはいません。
前進するための努力
建物を仮想的に再現。
ところで安山岩ってなんですか?
なんじゃこりゃみたいな。
安山岩?
石ころの一種か?
火山岩の一種で、中間の組成を持つ。
シリカに乏しい玄武岩とシリカに富む流紋岩からなる。
よし、これだ
この石は...
チャット50に間に合わない可能性がある。
美術・建築学部とヤング・リサーチ・ライブラリーがあるのはどこの大学でしょう。
アメリカ企業にもデータプライバシーに関するルールはありません。
例えばWeChatは財務データとテキストデータの両方を持っているので、中国企業が優位に立つと思います。
WeChatは、複数のアプリを組み合わせたような奇妙なものですよね?
Facebookと金融を同時に利用するようなものです。
このような特殊な組み合わせが、WeChatをユニークでパワフルなものにしています。
また、中国は人口が多いので、より多くのデータを持っています。
しかし、中国のデータはあまりクリーンではない、という話も聞いたことがあります。
ある人は、「中国のデータは一貫しているので、実際には難しい...」と私に伝えようとしていました。
英語のインターネットにあるような多様性はありません。
しかし、私は、中国のLLMは同様に非常に強力であろうと思います。
さて、それではPDFをご覧ください。
PDFには、どこの大学かという情報は入っていません。
しかし、インターネットで検索してみると、これらの施設は...。
えー?
これってツールフォーマーの機能があるんですか?
んなわけねーだろ。
ネットで検索できるのか?
お前、ツールフォーマーか?
くっそー、知らんかった。
ChatPDF、ネット検索できるならちょっとすごいな。
おお、見てみろ。
いいねぇ。
20ページの2番目、そして19ページ。
なるほど、ちょっと面白いですね。
ChatPDFはこの情報を見つけられませんでしたが、PDF GPTはこの情報を見つけられました。
この質問の書き方がちょっと特殊だったからだと思うんですが、どうでしょう?
美術大学・建築学部、そしてヤングリサーチライブラリー。
この2つは、類似性で検索できる完璧なトークンシーケンスなのですが、ここにあるもので中断されているんです。
ChatPDFがこれに対してトークンを生成したり、類似検索を行うために使用するベクトルを生成する方法は、まるで全体の段落に対して行っているかのようです。
しかし、ここで質問してみましょう。
それについてどう答えるか見てみましょう。
いいえ、私はインターネットを検索することはできません。
いよいよ答えよう。
間違いないGPTに聞いてみよう。
GPT-4はもちろん知っている。
ほら、私にとっては、これはこれで、面白いんですよ。
GPT-4は何でも知っているんだ。
私、ちょっと見直したんですよ。
論文を読むことの意味を深く考えてみたんだ。
考えてみてください。
ディープラーニングと考古学の論文のように、2つの異なる論文を読み込ませただけなのに、すべての疑問を解決してしまうんだ。
そして、これがGPT-4で、GPT-5、6、7、8と続くとしたら、論文を読む意味はあるのだろうか、というところまで来始めている。
論文を読むのが実はバカらしくなってくるような?
何か知りたいことがあれば、GPT-4やGPT-5やGPT-6に聞けばいいわけだし。
本を読むことが、その本についてGPTに聞くことに取って代わられるような、そんな地点に行き始めているような気がするんです。
論文を読むのも、その論文についてGPTに聞くだけで、置き換えられるでしょう?
そして、人間が読まなくなった時、論文はどうなるのでしょうか?
例えば、ディープラーニングや機械学習のコミュニティでは、論文の形式やこの種の論文には抄録があり、そのようなものがあります。
実際に論文を読む人がいなくなり、みんながGPT-4で読むようになったら、形式は変わるのでしょうか。
GPTやLLMがもっと読みやすいように論文の形式を変えるのでしょうか?
同じようなことがソフトウェアでも起こっていて、人々は自問自答を始めています。
例えば、ソフトウェアの世界では、人間が使いやすいようにAPIを設計するべきか、それともLLMが使いやすいようにAPIを設計するべきか、という疑問を持つようになってきています。
という疑問を持つようになりました。
これはバカげた質問ではありません。
これは本当の質問です。
それは、LLMが理解しやすく、混乱しないように、また、たくさんのトークンを使わないように、APIの機能の名前やキーワード引数の名前、レスポンスの種類の名前をどのように設計するか、ということですね。
では、人間のためのAPIはどのように設計するのでしょうか?
人間の読みやすさは、その大きな部分を占めていますよね。
だから、どうなんでしょう。
私たちは今、その曲線の上にいるような気がします。
文字通り、シンギュラリティの指数関数的なカーブを描いていて、その上にいるような気がする。
そして、よく分からないが、ただただクレイジーな時間だ。
というわけで、1時間ちょっとで終わりますが、結論から言うと、どちらのPDFツールもGPT-4より優れてはいません。
GPT-4は王者であるように思えます。
この2つのツールは、似ていますね。
ChatPDFはエラーにならない。
ChatPDFはエラーにならず、もう少し簡潔な表現が可能です。
エラーにならず、もう少し簡潔な答えを提供し、時には正しい答えが得られないこともあります。
PDF GPTは、同じサイズでPDFを見ることができるので、より良いUIになっていると思います。
また、クリックするとそのページが表示されるリファレンスもあります。
だから、UIは少し優れています。
ただ、ちょっと言葉足らずなところがあります。
ChatPDFのようにきれいにまとめてくれるのに対して、少し情報が多すぎることがあります。
そして、時にはそのままエラーになることもあります。
例えば、ここで質問しようとしたのですが、エラーになってしまいました。
エラーになっちゃうんです。
というわけで、レビューです。
ChatPDFやPDF GPTは使わないで、GPT-4を使うようにしましょう。
良い週末をお過ごしください。
それが興味深く、あるいは有用であることを願う。
また、Discordに気軽に参加して、より多くのコンテンツや見たいものを勧めてください。
いいね!」と「購読」して、また会いましょう。