見出し画像

衝撃の展開:OpenAIの驚異的な「ORION」モデル! 🔥 連邦政府も関与 🔥 全詳細が明らかに 🔥 これで終わりだ...

OpenAIに関する衝撃的な展開が情報誌によって公表されました。秘密のストロベリーモデルに関する噂は本当でした。以前QARとして知られていたモデルは実在し、アメリカの様々な国家安全保障機関の関心を集めることに成功しました。サム・アルトマンとOpenAIチームは、様々な国家安全保障当局者にその能力を実演しなければなりませんでした。おそらくさらに興味深いのは、ストロベリーの背後にある技術が次世代モデル、オリオンと呼ばれるモデルの構築に使用されているということです。このオリオンモデルは、これまで見てきた他のモデルとは全く異なるユニークな方法で機能します。オリオンモデルが具体的にどのようなものになるかは、AI安全性、国家安全保障、オープンソースの未来、そしてAI全体の進歩に大きな影響を与えます。想像以上に大きな話なのです。見逃さないようにチャンネル登録をお願いします。
さて、今日、情報誌は「OpenAIが連邦政府にストロベリーAIを披露し、オリオンの開発に利用」と報じました。この狂った状況はさらに展開し、ますます奇妙になっています。まさにストロベリー・フィールズ・フォーエバーですね。
これを初めて知る人のために説明すると、すべては2024年7月15日のこの記事から始まったと思います。「OpenAI、コードネーム『ストロベリー』の下で新しい推論技術に取り組む」というものです。ロイターは昨年からこの話を追っていて、QAR、つまり先進的なAIモデル、秘密のAIモデルについて報道しました。何らかの形でリークされたか、少なくともその詳細の一部がリークされ、大きな見出しを飾りました。QARについてはすぐに説明しますが、ストロベリープロジェクトがQARであることを理解することが重要です。それらは同じものです。内部での名称を変更したのか、何かしらの理由があるのでしょうが、我々は同じものについて話しているのです。あるいは、QARのスターがスタンフォード大学の2022年の研究、自己教示推論者(Self-Taught Reasoner)またはSTARを指しているのか、あるいは彼らが後に発表したQ自己教示推論者(Q Self-Taught Reasoner)というQARを指しているのか、おそらく内部名称がQARで、ストロベリーが完成品、最終的なものなのかもしれません。GPTがあってチャットGPTがあるのと同じようなものです。チャットGPTは外に出て何かをするもので、GPTはアーキテクチャ、基盤のようなものです。これは推測に過ぎませんが、ストロベリーとQARの両方が、そのものを指していることを理解することが重要です。
では、そのものとは何でしょうか。リークされた文書には、ストロベリーモデルを使用するプロジェクトについて説明されています。その目的は、単にクエリに対する回答を生成するだけでなく、インターネットを自律的かつ確実に操作して、OpenAIが「深い研究」と呼ぶものを実行するために十分に先を見越して計画を立てることができるようにすることです。情報源によると、OpenAIの広報担当者はストロベリーについてこう述べています。「我々は、AIモデルが私たち人間のように世界を見て理解することを望んでいます。業界では、これらのシステムが時間とともに推論能力を向上させるという共通の信念のもと、新しいAI機能の継続的な研究が一般的な慣行となっています。」
最後に、この記事に戻る前に理解しておく必要があるのは次のことです。これはノア・グッドマンです。彼はOpenAIとは関係なく、スタンフォード大学の研究者で、機械学習の博士号を持っています。彼はSTAR論文の著者の一人であり、次世代のQARの著者でもあります。QARは、最終的な出力を出す前に、私たちが考えてから話すのと同じように、モデルが静かに推論することができるかを研究しました。少なくとも、それが彼らが議論したことの一つです。彼はこう言っています。「STARは、AIモデルが反復的に自身のトレーニングデータを作成することで、より高い知能レベルへと自己成長することを可能にします。理論的には、言語モデルを人間レベルの知能を超えるところまで引き上げるのに使用できるかもしれません。」そしてもしそうなら、人間として真剣に考えなければならないことがいくつかあります。なぜなら、もしこれが本当なら、私たちがとても近い将来に対処しなければならない非常に大きな影響があるかもしれないからです。
この点については後で詳しく説明しますが、多くの人がこれを否定し、「これは起こらない、これはSFだ」と言っています。「我々はこれに近づいてもいない、トレーニングデータの問題に直面するだろう」「トレーニングデータが足りない」「彼らはすでにインターネットからトレーニングデータを収集し尽くした、それでおしまいだ」「AI冬の時代に入るだろう」「進歩は鈍化するだろう」「これらの言語モデルはもはや改善できないだろう」などと言っています。このような動画や記事を見たことがあるでしょう。「我々は壁にぶつかった、それでおしまいだ」というようなものです。
そして8月7日、サム・アルトマン、唯一無二のサマが次のような投稿をしました。「夏の庭が大好きです」そしてイチゴの写真を添えて。多くの人は彼のこういった小細工やマーケティング、SLトローリングと呼ぶものを好みませんが、私は本当に楽しんでいます。私たちの人生をつまらなくしないでくれてありがとう、とここで言っておきたいと思います。
そして情報誌はそれについて報じています。アルトマンがなぜこんなにも生意気なのかと。そして多くの記事があります。その一部をここで取り上げました。ニューヨークタイムズは基本的に、サム・アルトマンは本当は何も持っておらず、ただ匿名のTwitterアカウント、SLXアカウントと関わって空虚なハイプを作り出しているだけだと言っています。しかし、実際には何も起こっていないのです。私がそれを指摘する理由は、これまでの話の筋書きが「彼は何も持っていない、だから何も発表していない、だからこんな奇妙なことに関わっているのだ」というものだったからです。彼は何も持っていないから、というのがこれまでの話でした。では、その話がどれほど早く変わるか見てみましょう。今後数ヶ月で、「彼は世界最高の技術を持っている」「最も危険な技術を持っている」などというヘッドラインを目にしても驚かないでください。何もないという状態から、最大の恐怖要因へと変わるでしょう。
しかし、ここに新しく報じられたことがあります。アルトマンのチームは、ストロベリー/QAR技術をアメリカの国家安全保障当局者に実演したそうです。これらの会合に直接知識を持つ人物の話によると、これは以前に報告されていなかったことです。これが今回新たに分かったことです。この技術がアメリカの国家安全保障機関のようなところに提示されているのです。おそらく何もないわけではないでしょう。何かがあるのだと思います。
覚えておいてください。イギリスはこういった委員会を設立し、MetaやOpenAIのような会社は、モデルをリリースする前に彼らに報告することになっていたと思います。そこには一種の紳士協定がありました。そして、実際のAI企業はどれもそれを行いませんでした。以前は、これらの政府や国際的な企業や団体が「リリースする前に全てを報告しろ」と言っていて、これらの大企業は「いや、そうはしない」と言っていました。しかし、未発表の技術を政府当局者に、特にアメリカの国家安全保障当局者に実演することで、OpenAIは新しい基準を設定している可能性があります。特に、高度なAIがますます国家安全保障の懸念事項になっていくにつれて。このチャンネルをフォローしている方なら、私がこれについて以前話したのを聞いたことがあるでしょう。実際、これがどのように展開するかを予測した論文を取り上げたことがあります。ですので、これらのことは大きな驚きではないはずです。
簡単に言いますと、おそらくこれを参照することになるでしょう。これは状況認識です。レオポルド・アッシェンブレナーが2024年6月に発表しました。彼はAI安全研究者の一人で、ディルシュ・パテルのポッドキャストに出演しました。彼はこの論文を発表し、それについて話し始めた人物です。OpenAIを解雇された後、噂によると、彼はいくつかのリークに関与していたようです。再度言いますが、それが本当かどうかは分かりません。少なくとも噂によればそうでした。彼はイリヤ・サツキーと同盟を組んでいたようで、この記事を発表しました。基本的に、このAI AGIレースがどのように展開するかを概説しています。彼が言ったことのほとんどすべてが、私の考えと本当によく一致していました。これは当時の考え方ではありませんでした。彼がこれらのことの一部を最初に明確に述べた人物でした。そして今、これが展開するにつれて、私は驚きませんが、おそらく次の10年間、次の10年には名前がつくでしょう。パーソナルコンピュータ時代やドット・コム時代のように、これは知能時代とか何かそのようなものと呼ばれるかもしれません。そして今のところ、我々が学んでいることの多くがこれと一致しています。
アメリカの主要なAI研究所は、自称AGIを構築中だと主張しています。彼はここでOpenAIを指しているようです。彼らは、自分たちが構築している技術が、10年以内にアメリカが今まで作った中で最も強力な武器になると信じていますが、そのようには扱っていません。私にとって、これは最近のアップルの発表を見た後、非常に明白でした。電卓を作り直すと言っていたのを覚えていますか?みんな「何?」と思いました。なぜなら、これはある意味、証明だったからです。スティーブ・ジョブズが去っただけでなく、スティーブ・ジョブズの精神も去ったということです。彼らは電卓にランダムな更新を加えているだけで、イノベーションはアップルで完全に死んでしまったかのようでした。
しかし、彼らは誰もが驚くようなことをしました。本当に電卓をアップグレードしたのです。ペンで図を描くことができ、それを使って何か違うものに変形させる基盤となるAI技術を利用できるようになりました。紙に書くように簡単にグラフやチャートや数式を作成でき、数字や変数を変更できるのです。とてもクールに見えます。誰も知らなかったことで、みんな驚きました。
アップルのような大企業で、その情報をリークした人は何人いたでしょうか。情報はゼロです。誰もしませんでした。私たちが知る限りでは。そして、それはiPhoneや電卓などのような馬鹿げたものに対してです。しかし、OpenAIとAGIの構築については、私たちは彼らの壁の向こう側で何が起こっているかについて、知るべき以上のことを知っています。多くのリークがあります。
彼は続けます。超知能が国際的な軍事競争や経済競争、そして国家間の影響力ゲームにおいて決定的に重要になることが明らかになるにつれ、我々は外国の全力を直面しなければならなくなるでしょう。彼は続けます。今日の我々の失敗は、すぐに取り返しがつかなくなるでしょう。今後12〜14ヶ月以内に、我々は重要なAGIのブレークスルーを中国共産党に漏らすことになるでしょう。これは、10年が経つ前に、国家安全保障機関の最大の後悔となるでしょう。
情報誌の新しい記事に戻りますが、彼らはこう続けています。この実演、つまりアメリカの国家安全保障当局者への実演には、おそらく別の目的もあります。その技術を中国のような外国の敵対者が盗めないように、どのように保護できるかについて当局者と会話を始めることです。そして、おそらくMeta Platformsが中国や他の誰もがアクセスできるオープンウェイトAIをリリースしたことに対して一撃を加えることもあるでしょう。MetaのCEOマーク・ザッカーバーグは、中国がいずれにせよ何らかの方法で手に入れるのは避けられないと言っています。これについては、ディルシュ・パテルのポッドキャストでも話していました。
ここで、ドウェシュに少し賛辞を送りたいと思います。彼はAI分野だけでなく、他の興味深いトピックについても多くの人々にインタビューしていますが、私は彼に脱帽です。彼は左側の人物です。AI関連のインタビューの分野では、彼は断然トップのインタビュアーだと思います。彼はとても賢く、このような事柄について非常に知識が豊富です。深い知識を持ち、本当に鋭い質問をします。そして、彼はゲストをリラックスさせるのがとても上手だと思います。
ここに座って気づいたのですが、彼らは両方とも靴下を履いています。それが本当に深い個人的なインタビューの鍵なのかもしれません。靴を脱いでもらうのです。靴下を履いていたらどれほど不快になれるでしょうか。
しかし、はい、MetaのCEOマーク・ザッカーバーグは確かに中国がそれを手に入れることについて話しました。彼はオープンウェイトAIをリリースしました。彼の完全な議論はここでは完全には捉えられていないと思います。なぜなら、「ああ、我々には何もできない」というようなものではないからです。彼の議論は、オープンソースが実際により良いセキュリティにつながる可能性があるということについてです。それが正しいかどうか、あなたがそれを信じるかどうかは別として、それが彼の議論です。彼はそれを非常によく説明します。とても合理的です。繰り返しますが、それが真実かどうかは言っていません。ただ、彼は強力な議論を構築しているということです。
次に、この全体の肝心な部分に入ります。ストロベリーがオリオンにとってなぜ重要なのか、オリオンとは何なのか。
ストロベリーの最も重要な応用の1つは、開発中のオリオンのための高品質なトレーニングデータを生成することです。オリオンはOpenAIの次のフラッグシップ大規模言語モデルです。何と言いましょうか。このコードネームは以前に報告されていませんでした。
私は情報誌とは何の関係もありません。これらの人々、つまりこの記事を書いた人々とAIに関する最高の記事の一部を書いた人々です。私は彼らがOpenAIについて間違いなく第一の報道源だと思います。彼らは有料壁の裏側にいます。つまり、サインアップする必要があります。私は実際に昨年の初めから、文字通り情報誌のために支払ってきました。私が言いたいのは、これは私がオンライン出版物、少なくとも新聞スタイルの出版物のために支払っている唯一のものの1つだと思います。これは唯一のものの1つだと思います。
彼らは続けます。誰かOpenAI、Google、Amazonがなぜギリシャ神話を使ってモデルに名前をつけているのか説明できますか?つまり、はい、GoogleはGeminiです。そして私はそれが2つのものを示すためだと思います。つまり、Google本体とGoogle DeepMindがあり、彼らは常にこの分離を持っていました。だから私はそれが常にそのように理解されていると思います。しかし、はい、ここにいくつかのギリシャ神話が織り込まれているのは興味深いです。
次に、その記事では、ストロベリーモデルまたはオリオンモデルが製品にどのように適用されるかについて少し話しています。素晴らしい記事です。下にリンクを貼っておきます。言ったように、サブスクリプションが必要です。だから、彼らが行ってきた素晴らしい報道を損なわないように、記事全体を読むつもりはありません。
しかし、私は非常に簡単にこのSTAR、自己教示推論者について触れたいと思います。なぜなら、これがすべての基礎技術だと考えているからです。私はこの分野を何年も追ってきましたが、私にとって非常に明らかになったことの1つは、多くのことが通常このように起こるということです。スタンフォードやGoogleなど、多くの素晴らしい研究所のような誰かが論文を発表します。これのようなものです。そして、しばらくの間すべてが静かになります。そして、6ヶ月から12ヶ月から18ヶ月後に、多くの商業企業が市場に製品やソフトウェアを氾濫させ始めると、活動の集中が起こります。それはその技術の上に構築されたものです。
これは2022年5月に発表されました。つまり、我々がこれらのことについて聞く遥か前です。では、STARとは何でしょうか?それは自己教示推論者という技術です。自己教示とは、モデルが自分自身を教えるという意味です。推論者とは、時々何かについて話すと、何が起こっているのかをより理解しやすくなり、より良い解決策に到達できるということです。書き留めたり、他の人に話したりすると、より良い理解に至ります。ここでは、それが推論者の意味です。数学の授業で「計算過程を示しなさい」と言われるようなものです。
STARは単純なループに依存しています。多くの質問に答えるための推論を生成し、いくつかの推論例でプロンプトを与えます。生成された回答が間違っている場合、正しい答えを与える推論を再度生成しようとし、最終的に正しい回答をもたらしたすべての推論で微調整します。これを繰り返します。
それが意味不明に聞こえる場合、すぐにすべてが非常に明確になります。なぜなら、彼らは写真を持っているからです。やった、写真だ!
非常に簡単に説明します。これは以前にも何度か取り上げたので、深く掘り下げたくありません。基本的に、質問を想像してください。「小さな犬を運ぶのに何を使えますか?」そして、ここにいくつかの答えがあります。
AIやLLMがよく非難されることの1つは、幻覚です。質問をすると、何かを作り上げて、あなたは「何?」と思います。そして、明らかに間違っているのに、それが正しいと非常に確信しているのです。
以前の古い動画の1つで、チャットGPTやその当時のGemini、たぶんGoogleの古いバージョンとの奇妙なやりとりがありました。それは私のためにクイズを生成し、最初の一人称シューターゲームは何かを尋ねていました。4つの答えがあり、その1つがDoomで、1つがQuakeでした。私はDoomを選びました。するとそれは「実際はQuakeです」と言いました。私は「Doomはいつリリースされましたか?」と尋ねると、「1993年12月10日です」と答えました。「Quakeはいつリリースされましたか?」と尋ねると、「1996年6月22日です」と答えました。そこで私は「どちらのゲームが先に出たのですか?1993年のDoomか1996年のQuakeか?」と尋ねました。それは「確かに、1993年のDoomは1996年より早いです」と答えました。
そこで私は「では、最初の一人称シューターはどちらですか?」と尋ねました。もちろん、それはQuakeと答えました。それは、自分の回答について推論したり、根拠を提供したりする完全な能力の欠如を示していました。たとえあなたがそれに考えるのを手伝っても、根拠を提供しても、それでもときどき特定のことを作り上げるだけでした。
しかし、2022年の時点で、我々はすでにその推論能力と根拠提供能力を潜在的に改善する方法についてのアイデアを持っていたかもしれません。
この状況では、「小さな犬を運ぶのに何を使えますか?」という質問をしています。まず根拠を提供し、それから答えを提供するように求めます。私はいつも、気づかずに不適切な何かを描いてしまう恐れがあります。そして、動画を編集しているときに「ああ、やってしまった」と思い、撮り直さなければならないのではないかと心配します。
とにかく、これが根拠です。「答えは小さな犬を運ぶのに使えるものでなければなりません。バスケットはものを入れるためにデザインされています。したがって、答えはバスケットBです。」
ちなみに、現在利用可能なモデルで、驚くほど優れた推論能力を持っているのはどのモデルか分かりますか?驚くべきことに、つい最近リリースされたGrok 2、大規模なGrokモデルです。Grok 2には何か独特なもの、何か異なるものがあります。まだベータ版なので、今後どうなるかを見守る必要がありますが、明らかにこの点で優れています。
とにかく、この質問は言語モデルに入力され、ここで説明したような根拠と答えで回答します。最初の試みで正解した場合、それはデータベースに追加されます。これを「データ」と呼びましょう。これは合成データです。AIモデルによって生成されたデータです。
これらのモデルが英語や自然言語を理解する方法を訓練するのはこのようにしています。最初は、完全に人間が生成したデータだけを与えていました。誰かが本を書いたり、教科書を書いたりして、そのモデルがその教科書で訓練されます。そして、その教科書について推論し、質問に答えることができるようになります。教科書は人間の著者によって作られたので、それは人間のデータです。
合成データはAIによって生成されたデータです。この答えはAIによって生成され、この根拠もAIによって生成されています。それが今のところ「データ」と呼んでいるものに入力されます。後でそれに戻ります。
答えが間違っている場合、ヒントが与えられます。そして、もう一度推論するように求められ、正解するまでそれを繰り返します。ずっと間違い続けた場合どうするかは忘れてしまいました。論文のどこかに書いてあったと思いますが、読んでから時間が経っているので。
要するに、すべての道はローマに通じるように、すべての道はこの合成的に生成されたデータのデータベースに通じるのです。これは推論データであり、そのデータは次世代のモデルを訓練するために使用されます。ゼロから訓練するのではなく、特定のものに微調整するためです。
ちなみに、サム・アルトマンやマーク・ザッカーバーグ、その他の人々が言っていたり、ほのめかしていたりすることがあります。彼らは、以前はデータがあって、それからモデルを訓練して、そしてモデルができあがるという具合だったと言っています。これらは一種の個別の、あるいは自己完結したものでした。一定量のデータがあり、その後、特定の時間に訓練が行われます。訓練開始から訓練終了まで、プロセスには始まりと終わりがあります。そして、ほら、モデルができあがります。言わば不活性で、そこにあるだけです。
しかし、内部の知識を持つ多くの人々は今、将来的にはそうではないだろうと言っています。今はより連続的なプロセス、ループになりつつあり、訓練と推論の境界線が曖昧になっているそうです。推論はモデルの出力です。それが言うこと、出力するもの、画像やテキストや動画などです。訓練は、学習を助けるためにデータを与えることです。
彼らは、その境界線がますます曖昧になっていると言っています。この画像を見ればなぜかがわかるでしょう。モデルを訓練し、それが質問に答え始めると、その答えをまた取り込んで自身に戻すからです。つまり、この推論、これらの答えもまた訓練データとなるのです。
しかし、なぜこれが重要なのでしょうか。ちなみに、多くの人がAIモデルの崩壊問題について研究を発表したり、YouTubeの動画を作ったりしています。彼の動画はまだ見ていないので、特にその動画や彼やウンフラル・サビーヌ・ヘンフェルダーについて言及しているわけではありません。しかし、崩壊があるかもしれないことを示す研究がある一方で、その反対を示す研究もあると言うのは公平だと思います。
繰り返しになりますが、このSTAR論文で、ノア・D・グッドマン博士、スタンフォード大学出身です。これらの人々の多くは、言葉遣いに非常に慎重である傾向があります。少なくとも一般的には、誇張した主張をする傾向はないと思います。
再度、グッドマン、つまり彼らが話している人物です。STARの創造者の一人、スタンフォード大学教授のノア・グッドマンはロイターに次のように語りました。「STARは、AIモデルが反復的に自身のデータを作成することで、より高い知能レベルへと自己成長することを可能にします。」つまり、我々が先ほど見たことです。これは何を意味するのでしょうか。彼は言います。「理論的には、これを使用して言語モデルを人間レベルの知能を超えるところまで引き上げることができるかもしれません。もしそうなら、人間として真剣に考えなければならないことがいくつかあります。」なぜなら、そうなれば我々はもはやこの惑星上で最高の知能ではなくなるからです。
しかし、AIモデルがAI生成データ、合成データを使用することで崩壊すると人々が話すとき、彼らはしばしば画像生成モデルについて話しているように思います。おそらくそこでより顕著なのか、わかりません。しかし、大規模言語モデル、つまりこれらのテキスト生成モデルについては、例えばここにマイクロソフトのOrca 2があります。これはある意味で大きな出来事でした。なぜなら、彼らはこれらの非常に小さなモデルを作ることができ、それらは本当に重量級を上回る性能を発揮したからです。
いくつかのタスクで、これらのOrca 2モデルは、10倍大きな他のすべてのモデルと同等かそれ以上の性能を発揮しています。マイクロソフトはどのようにして、競合他社の10倍大きなモデルを打ち負かす小さなモデルを作ることができたのでしょうか。彼らはGPT-4、つまり巨大なモデル、本当に大きなモデルを取り、それに合成データを生成させました。つまり、物事をどのように考えるかという推論データです。彼らはそれを特定のアプリケーションのために行いました。
彼らが説明した1つは、4〜5つの文章が与えられ、それらは物語の一部ですが、順番が混ざっているというものです。そして、それらを時系列順に並べ替えなければなりません。つまり、物語を理解し、各文がどこに入るか、どれが1番目、2番目、3番目、4番目かを把握する必要があるのです。
もちろん、GPT-4、この巨大なモデル、1.7兆パラメータかそこらのモデルは、これを非常に得意としていました。しかし、それは高価で遅いです。しかし、それはその問題に対処する推論を出力しました。彼らはそれが作成した合成データを取り、Orca 2を訓練しました。Orcaは非常に小さく、いくつかの異なるサイズがありますが、はるかに小さいです。そして、それは10倍大きな競合他社を打ち負かし始めました。
マイクロソフトはこう書いています。彼らは小さなモデルに推論を教えることの価値を強調していますが、それはまた、より強力なモデルによって作成された調整された高品質な合成データを使用して言語モデルを訓練することの可能性も強調しています。複雑なプロンプトと潜在的に複数のモデル呼び出しを使用してです。
申し訳ありません、少し長くなってしまいました。基本的に、より強力なモデルを取り、それが特定のモデルや特定のタスクのために高品質で調整された合成データを作成できるようにするのです。もしこれを理解できれば、あなたは本当にこの全体像と、オリオンが何であり、なぜそれがとても大きな大きな大きな話題なのかを把握したことになります。
ちなみに、ストロベリーマン、別名「私は世界を支配する」は、確かにただのパイプを叩いていたわけではありませんでした。彼は特定の日に何かが起こると予測しましたが、それは起こりませんでした。そのため、人々は彼を無視しましたが、マーク・ケッチマンが言うように、「あなたは常に正しい、ただしタイミングを除いて」です。そして確かに、これは彼が言っていた多くのことと本当によく一致しています。少し暗号的でしたが、何かが起こっているのは確かです。
情報誌もこれを発表しました。「OpenAIは推論AI『ストロベリー』を立ち上げてチャットボットビジネスを後押しする急ぐ」。ここでも繰り返していますが、OpenAIは国家安全保障当局者にストロベリーを実演し、今後登場するオリオン大規模言語モデルを改善する計画を立てているとのことです。再度言いますが、我々はこれが一種のループだと考えています。
ちなみに、このことについて本当に詳しい方がいたら、コメントで教えてください。なぜオリオンと呼ばれていると思いますか?我々が話してきたことの一部が真実だとすると、それは神話なのでしょうか、星座なのでしょうか、何か象徴的な意味があるのでしょうか。何か関連性があると思う場合は教えてください。とても興味があります。
それ以外にも、OpenAIは従業員からのリークによると、ストロベリーをチャットボットの形でリリースする予定のようです。ストロベリー家族からの何らかの小さな、おそらくより能力の低いモデルがチャットボットとしてリリースされ、あなたや私が使用できるようになるかもしれません。潜在的に、いくつかの生成を行うことができ、オンまたはオフにすることができるかもしれません。おそらくより高価になるか、使用量に制限がかかるでしょう。
彼らは、それが推論、複数のステップを先を考えること、長期的な計画立てに本当に優れていると言っています。例として、ニューヨークタイムズのクロスワードパズルを解くことができると言っています。具体的には、4つの単語のグループを作成する必要がある「コネクションズ」というゲームに言及していると思います。
もちろん、大規模言語モデルは、物事を考え抜いて解決することが非常に悪名高いものでした。異なるプロンプト機構でいくつかの潜在的な改善が見られました。例えば、昨年だったと思いますが、「思考の木」について言及しました。ここでは、分岐する思考パターンがあり、1つの道筋を進んでから戻り、正しい出力が見つかるまでやり直すというものです。
クロスワードパズルと言った理由は、それがどのようなものかの良い例だからです。クロスワードパズルを埋め始めると、答えを思いつき、それが正しい長さかどうか、そして他の文字がすでに配置されている場合はそれと一致するかどうかを確認するために入力する必要があります。そして、「いや、それじゃない」と言って、戻って、やり直して、別の推測をします。そうやって進めていき、最終的に正しい出力にたどり着くのです。
大規模言語モデルは、そのままではこれを行うことができません。しかし、これらの複雑なプロンプト機構と反復を使用すると、それを行うことができます。しかし、緑色の部分が出力で、灰色の部分が思考であることに注目してください。彼らはそれを思考と呼んでいます。おそらく、我々が推論と呼んでいるものです。
単語を書き出しながら、それについて推論しているのです。例えば、最も一般的なことは、モデルに質問をして答えを得ることです。しかし、思考の連鎖は、「ステップバイステップで考えてください」と言うことです。そうすると、「わかりました。これが私の理解です。これがステップ1です。これが私の理解です。ステップ2、ステップ3」というように進みます。一種の思考プロセスを全て声に出して、そして結論に至ります。これらの出力、これらの結論は、より良い傾向にあります。
思考の連鎖との自己一貫性は一般的ではありませんが、例えば、Geminiモデルは複数の応答を生成する傾向があることをご存知かもしれません。基本的に、「2+2は何ですか?」と尋ねて10個の応答を生成し、そのうち9個が「4」で、1つが「猫」だとします。そうすると、「おそらく猫ではない」と考えるでしょう。他のすべてが4と答えたので、2+2の答えが猫ではないとかなり確信できるでしょう。そして基本的に、多数決のようなものがあります。より一般的な答えが勝つのです。そしてそれは出力を改善する傾向があります。
しかし、ここでの思考の木に注目してください。これらは個別の出力です。質問をすると答え、また質問をすると答えます。出力を得るために、何度も何度も何度もプロンプトを与えなければなりません。
この推論が大幅に改善されているようです。それがGrok 2で見たことです。繰り返しますが、まだ早い段階ですが、その推論能力には本当に優れた何かがあるようです。
思考、別名思考も同様です。STAR論文を発表した同じ人々が、Quiet STAR(Q-STAR)も発表しました。「Quiet STAR:言語モデルは話す前に考えることを自分で学ぶことができる」というものです。
若い頃、両親から話す前に考えるように教えられませんでしたか?私たちの中にはまだそれに苦労している人もいます。そして、スタンフォード大学のノア・D・グッドマン氏も同じチームにいることに注目してください。
ここでの全体的な考え方は、基本的に思考と出力、つまり話すことを異なるものにすることです。物事について考え、それから話します。出力があり、そしてより良い結果につながる思考が報酬を受け、言語モデルはそこから学び、改善します。そして、ネガティブな思考、つまりネガティブな結果につながる傾向のある思考の仕方は破棄されます。
モデルがより多くの思考トークンを得るほど、トークンは単語のようなものです。基本的に、より多く考えれば考えるほど、そして反復とトレーニングステップが増えれば増えるほど、見てのとおり、性能が向上します。赤い線は最も先を考えるもので、ベースラインと比較しています。
ちなみに、AI業界の少し汚い秘密で、誰も話さないことの1つは、みんなが互いのモデルでトレーニングしているということです。みんな競合他社のデータを引き出してモデルをトレーニングしようとしています。マイクロソフトとOrcaは研究論文にそれを書いています。「これをやっています。うまくいっています」と。彼らは競合他社ではありませんが、一緒に働いてもいます。
一部のGoogle研究者たちは、GoogleがOpenAIのデータでBardをトレーニングしていることに怒って辞めたか、不満を表明したそうです。それが本当かどうかはわかりません。ただいくつかの人々がそう主張しており、彼らはGoogleを去ったようです。繰り返しますが、これは噂や申し立てに過ぎず、本当のところはわかりません。
例えばAdobeは、FireflyというAI画像生成ツールを持っていて、これは倫理的なAI生成ツールだと言っていました。ライセンスされたストック画像でトレーニングされていて、アーティストの作品を盗むMidjourney のような「悪い奴ら」とは違うと。しかし、彼らのトレーニングデータの画像の大部分がMidjourneyから来ていたようです。つまり、Midjourneyによって生成された合成データがAdobe Fireflyのトレーニングに使用されたということです。これも申し立てに過ぎません。私を訴えないでください、Adobe。Adobeは、何百万もの使用画像のうちわずか5%だと言っています。
これらの事実がすべて真実だと仮定し、私の推論がすべて正しいと仮定すると、オリオンやGPT-6はいつリリースされると思いますか?私はそれをGPT-6とは考えないでしょうが。
ここでこの人は言っています。情報誌の報道によると、OpenAIの全能の推論モデルであるストロベリーは内部で利用可能ですが、まだリリースされていません。ストロベリーをリリースする代わりに、それを使ってオリオンをトレーニングするための合成データを生成しています。ストロベリーは数学と推論が得意です。
では、OpenAIはいつオリオンを一般に公開するのでしょうか?私が推測するなら、決して公開しないか、少なくとも非常に古くなり、OpenAIがアクセスできるはるかに優れたモデルが出るまでは公開しないでしょう。オリオンが一般に公開されることは決してないと思います。
OpenAIは密かにそれを使用して、これらの新しいモデルを生成し、合成データを作成して、あらゆる種類の新しいモデルをトレーニングするでしょう。おそらくOrca 2のスタイルで、それぞれが小さくて、設計された特定のタスクを非常に上手くこなすようなものです。
私の頭に浮かんだ画像は、「エイリアン」や他の同様の映画を見たことがある人なら、エイリアンの女王が部屋にいて卵を産み、そしてそれらの卵が孵化して彼女の意志を実行するドローンになるというものです。彼女の仕事は卵を産むことで、そしてその卵が孵化すると、必要な仕事をするドローンになります。
オリオンは卵を産むものであり、その卵が孵化すると、あなたや私がコーディングや顧客サービス、執筆などに使用するモデルになります。
GPT-4が1つの大きなモデルではなく、専門家の混合体であることは、ほぼ確実か100%確実です。そして、より多くのモデルがその方向に向かっていると思います。それをモデルのクラスターと考えることができます。これは実際にかっこいい画像です。
何かを尋ねると、それは専門家の1つにルーティングされます。例えば、感情分析のためのものがあるかもしれません。それがその特定のもので、それだけを行います。別のものはコーディングかもしれません。
要するに、大きなモデルが特定の用途のための小さなモデルを作成し、それらは非常に優れたものになります。なぜなら、その特定の用途のための最高品質のカスタムメイドデータのみを含むからです。職人のデータ、良いものです。
そして、それがユーザーであるあなたに、単なるチャットボットなどとして提示されます。質問をすると、正しい小さなモデルにルーティングされ、そのモデルがあなたの特定の質問に対する世界最高の専門家となり、答えが生成されて返されます。
大きな女王モデルとインターフェースする必要は全くありません。これもOpenAIのムーブです。彼らが最高の女王モデルを持ち、それが最高の小さな専門家を生み出し、そしてそれらの小さな専門家を織り交ぜて、あなたが尋ねる正確な質問に正しい専門家が答えるようにする最高のものを作ることができれば、それをリバースエンジニアリングするのは非常に難しくなるでしょう。
そしておそらく、だからこそ彼らはアメリカの当局者と会って「ほら、これが国家安全保障を作る方法です。おそらくドローンを自由に走らせますが、女王はリリースしません。女王が捕まらないようにします」と言っているのかもしれません。
しかし、これはすべて推測です。これは私が読んだ研究や聞いた噂に基づいて、どこに向かうのかを考えているだけです。だから、これが真実かどうかはわかりません。
女王やオリオン、そしてそれが決してリリースされず、ただそれらのモデルを作成するために使用されるという最後の部分については、すべて推測です。しかし、これまでに聞いているすべてのことから、確かにそれがまさに物事が向かっている方向のように見えます。
私はしょっちゅう間違いを犯します。そして、多くの人々が私が間違っているときに指摘することを躊躇しません。私がGrok 2に対して行ったテストの1つは、ワソン選択課題でした。それは、知っている人のためのより修正された、より高度な、より複雑な例です。
私が何を間違えたのか、混乱が何だったのかを説明するのを手伝ってくれたすべての人々に感謝します。ありがとうございます。また、私がどれほど間違っていたかを面白いと思った人々にも感謝します。私が楽しませることができてうれしいです。
正確に何が起こったのかを理解した後、私は激しく顔を覆いました。Nexus1225が言うように、「この次の問題は本当に私たちのバイアスを示しています」と言い始め、そしてウィキペディアのワソン選択課題の記事を注意深く読み、記事の異なる問題の解決策を読み、その解決策を繰り返し言い換え、その時点で自信を持って間違った答え、悪い答えを出し、それを読んで正しいと確認し、少しの自己疑問もなく。
あなたは知っていますか、それは公平でした。公平でした。この問題の面白いところは、元の実験では、もっと単純化されていたにもかかわらず、回答者の5%か10%しか正解できなかったことです。つまり、圧倒的多数が間違えたのです。
しかし興味深いことに、私の理解が正しければ - 全部は読んでいませんが - これらの質問がより社会的に関連のある設定で尋ねられた場合、つまり赤と緑、16と14などではなく、この人は怒りやすい傾向があるとか、この人は嘘をつく傾向があるといった、より似たような質問が尋ねられた場合、人々はずっとうまく答えられる傾向があるようです。
人生経験から引き出すことができるとき、これらのアイデアをよりよく理解できますが、ただ論理と数字と色だけを扱わなければならないとき、私たちは特定の間違いを犯したり、特定のバイアスに邪魔されたりする傾向があるようです。
とにかく、私がどれほど間違っていたかという発表で締めくくろうと思います。それを指摘してくれた人々に、親切だったかどうかにかかわらず、どちらにしても感謝します。私はできる限り正確であろうと努力しています。これらの動画の多くを一発撮りで録画し、毎日やろうとしています。最近はそうではありませんが。
これらの発展中の話題のようなものについては、投稿した直後に、AIやストロベリーなどについて知っていることを変える新しい記事が出るかもしれません。そのため、次の動画では「あ、私が言ったことは間違っています」とか「古くなっています」と言って、言い換えたり、新しい見方をしたりするかもしれません。
そのことを覚えておいてください。私が間違っているときは指摘してください。私は間違いを認めることを恥じません。そしてそれが変わらないことを願っています。なぜなら、それが学び続ける方法だと思うからです。それが生徒であり続ける方法で、自分がすべてを知っていると思って停滞しないようにする方法だと思います。
このストロベリーモデルやオリオン、あるいは他の何かについて、私が言ったことで理解できないことがあれば、何か間違っていたり、あるいは私が言ったことに強く同意する点があれば、ぜひ下のコメントで教えてください。
私のエイリアンの女王のたとえ、ドローンと卵について、それが真実だと思いましたか?確かに、それは国家安全保障と私たちがAIにアクセスする方法に大きな影響を与えます。政府が言わば「女王」を安全に保つことができれば、つまり、非常に賢く非常に危険な大きなモデルを隠しておくことができれば、しかしそれでもこれらの小さなモデルを生産することができれば、考えてみてください。Orca 2はおそらくそれほど危険ではありません。なぜなら、それができる唯一のことは、物語の断片をどのように並べ替えるかを推論することだけだからです。それは本当にそのことに優れていますが、それ自体では何もありません。レトロウイルスを作り出したりすることはないでしょう。
確かに、大きなAIを一般から隠しておきながら、特定のタスクに非常に capable な AI をリリースすることは、もしそれが事実なら - 繰り返しますが、ここでは推測しているだけです - AI安全性の観点から大きな意味を持つかもしれません。無法国家や敵対国などにAIを奪われないようにする観点からです。
また、例えばGPT-4のようなものを使って危険なものを作り出す方法を誰かが見つけ出さないようにすることもできます。なぜなら、特定のタスク向けに構築された、より小さな交換可能なドローンをリリースしているからです。確かに、そのモデルはずっと安全に見えます。
いずれにせよ、あなたの考えを聞かせてください。私の名前はウェス・ロスです。ここまで見ていただき、ありがとうございました。

この記事が気に入ったらサポートをしてみませんか?