OpenAIが新秘密技術『Strawberry』をリーク - これがQ*なのか?!?!
今日の動画へようこそ。私たちは、OpenAIの最新プロジェクト、コードネーム『ストロベリー』について掘り下げていきます。これは、私たちが知っているAIを革新すると約束されているものです。情報源と内部文書によると、ストロベリーはAIの推論能力を向上させ、自律的にインターネットを操作し、深い研究を行うことを可能にすることを目指しています。詳細は厳重に管理されていますが、この革新により、AIは現在のモデルではできない方法で先を見越して計画を立て、複雑な問題を解決できるようになるかもしれません。このブレークスルーがAIの未来にとって何を意味するのか、そしてオンライン検索から科学的発見まで、あらゆるものをどのように変えるかを探っていきますので、お楽しみに。
独占:OpenAIが新しい推論技術を「ストロベリー」というコードネームで開発中
ChatGPTメーカーのOpenAIは、「ストロベリー」と呼ばれるプロジェクトで、人工知能モデルに対する新しいアプローチに取り組んでいます。これは、この事柄に精通している人物とロイターが確認した内部文書によるものです。これまで報告されていなかったこのプロジェクトの詳細は、Microsoftが後押しするこのスタートアップが、提供するタイプのモデルが高度な推論能力を提供できることを示すレースの中で明らかになりました。
ロイターが確認した最近のOpenAIの内部文書のコピーによると、OpenAI内のチームがストロベリーに取り組んでいます。ロイターは文書の正確な日付を確認できませんでしたが、その文書にはOpenAIがどのようにストロベリーを使って研究を行う計画かが詳細に記されています。情報源はこの計画をロイターに「進行中の作業」と説明しました。
ニュース機関は、ストロベリーが一般に公開されるまでどれくらい近いのか、ストロベリーがどのように機能するのかを確立することはできませんでした。それはOpenAI内でさえ厳重に管理された秘密だと、その人物は述べました。
文書によると、このプロジェクトはストロベリーモデルを使用し、同社のAIが単に質問に答えを生成するだけでなく、十分に先を見越して計画を立て、自律的にインターネットを操作し、OpenAIが「深い研究」と呼ぶものを確実に行えるようにすることを目指しています。情報源によると、これは今日までのAIモデルでは実現できなかったことです。
ストロベリーとこの記事で報告された詳細について尋ねられた12人以上のAI研究者へのインタビューによると、OpenAIの広報担当者は声明で次のように述べました。「私たちは、AIモデルが私たちのように世界を見て理解することを望んでいます。新しいAI機能の研究を続けることは業界で一般的な慣行であり、これらのシステムが時間とともに推論能力を向上させるという共通の信念があります」。広報担当者はストロベリーに関する質問には直接答えませんでした。
ストロベリープロジェクトは以前、Qスターとして知られていました。ロイターは昨年、これがすでに社内でブレークスルーとみなされていたと報告しました。2つの情報源は、今年初めにQスターについて、OpenAIのスタッフが彼らに説明したのは、今日の商業的に利用可能なモデルでは手の届かない難しい科学や数学の質問を解決できる「見事なデモ」だったと述べました。
火曜日の社内全体会議で、OpenAIは新しい人間のような推論スキルを持つと主張する研究プロジェクトのデモを行いました。これはBloombergによるものです。OpenAIの広報担当者はこの会議を確認しましたが、内容の詳細については明らかにしませんでした。ロイターはデモで示されたプロジェクトがストロベリーだったかどうかを判断できませんでした。
OpenAIは、この革新がAIモデルの推論能力を劇的に向上させることを望んでいます。この事柄に精通している人物は、ストロベリーには非常に大規模なデータセットで事前訓練された後、AIモデルを処理する特殊な方法が含まれていると付け加えました。
ロイターがインタビューした研究者たちは、推論がAIにとって人間レベルあるいは超人間レベルの知能を達成するための鍵であると言います。大規模言語モデルはすでに人間よりもはるかに速くテキストを要約し、優雅な文章を作成できますが、この技術は、論理的な誤謬を認識したり、三目並べを計画したりするような、人間には直感的に見える常識的な問題に直面すると、しばしば短所を露呈します。モデルがこのような種類の問題に遭遇すると、しばしば偽の情報を生成してしまいます。
ロイターがインタビューしたAI研究者たちは一般的に、AIの文脈における推論には、AIが先を見越して計画を立て、物理的世界がどのように機能するかを反映し、複雑な多段階の問題を確実に解決することを可能にするモデルの形成が含まれると同意しています。AIモデルにおける推論の改善は、大きな科学的発見から新しいソフトウェアアプリケーションの計画と構築まで、モデルがあらゆることを行う能力を解き放つ鍵であると見なされています。
OpenAIのサム・アルトマンは今年初め、AIにおける最も重要な進歩の分野は推論能力に関するものになるだろうと述べました。同様に、GoogleやMetaやMicrosoftなどの他の企業も、AIモデルの推論を改善するためのさまざまな技術を実験しています。AIの研究を行うほとんどの学術研究所も同様です。
しかし、研究者たちは、大規模言語モデルがアイデアと長期的な計画を予測の仕方に組み込むことができるかどうかについては意見が分かれています。例えば、現代AIのパイオニアの一人であるMetaのヤン・ルカンは、大規模言語モデルは人間のような推論が可能ではないとしばしば述べています。
この事柄に精通している情報源によると、ストロベリーはこれらの課題を克服するためのOpenAIの計画の重要な要素です。ロイターが確認した文書には、ストロベリーが何を可能にすることを目指しているかは記述されていますが、どのようにそれを行うかについては記述されていません。
最近数ヶ月間、同社は開発者や他の外部関係者に対して、はるかに高度な推論能力を持つ技術のリリースに向けて動いていることを私的に示唆してきました。これは、同社の説明を聞いた4人の人物によるものです。彼らは私的な事項について話す権限がないため、匿名を条件に話しました。
情報源の1人によると、ストロベリーには、OpenAIの生成AIモデルを事後訓練する特殊な方法が含まれています。つまり、すでに大量の一般化されたデータで訓練された後、ベースモデルを適応させて特定の方法でパフォーマンスを磨くのです。モデル開発の事後訓練段階には、今日ほぼすべての言語モデルで使用されている微調整のような方法が含まれます。これには多くの種類があり、例えば人間がモデルの応答に基づいてフィードバックを与えたり、良い答えと悪い答えの例を示したりすることなどがあります。
この事柄に精通している情報源の1人によると、ストロベリーには、2022年にスタンフォードで開発された「自己教育型推論者」または STaRと呼ばれる手法との類似点があります。STaRは、モデルが自身の訓練データを反復的に作成することで、より高い知能レベルに自己ブートストラップすることを可能にし、理論的には言語モデルを人間レベルの知能を超えるレベルに引き上げることができます。
その創始者の一人であるスタンフォード大学のノア・グッドマン教授はロイターに次のように語りました。「これは興奮させられると同時に恐ろしいことだと思います。物事がこの方向に進み続けるなら、人間として真剣に考えるべきことがいくつかあります」。グッドマンはOpenAIとは関係がなく、ストロベリーについても詳しくありません。
OpenAIがストロベリーを目指している能力の中には、文書によると「長期的な視野を持つタスクの実行」があります。これは、モデルが先を見越して計画を立て、長期にわたって一連の行動を実行する必要がある複雑なタスクを指します、と最初の情報源は説明しました。
そのために、OpenAIは同社が「深い研究データセット」と呼ぶものでモデルを訓練し、評価していると、OpenAIの内部文書によると述べられています。ロイターはそのデータセットの内容や、「長期」がどれくらいの期間を意味するのかを判断することはできませんでした。
文書と情報源の1人によると、OpenAIは特に、これらの能力を使用して、自律的にウェブを閲覧し、その発見に基づいて行動を取ることができるコンピューター使用エージェント(CUA)の支援を受けて研究を行うことをモデルに望んでいます。
OpenAIはまた、ソフトウェアやマシンラーニングエンジニアの仕事を行う能力をテストする計画もあります。
以上が、今日の動画で得られた情報のすべてです。もっと興味がある方は、ぜひチャンネル登録、いいね、シェアをお忘れなく。次回の動画でお会いしましょう。それではまた。
この記事が気に入ったらサポートをしてみませんか?