AI分野で最も神秘的な人物の一人、イリヤ・サツキヴァーは、OpenAIやGPT-4の開発に大きく貢献し、サム・アルトマンやイーロン・マスクからも高く評価されています。昨年11月に起きたOpenAIのクーデターでは重要な役割を果たし、常に注目の的となっています。最近、彼は、AGI(汎用人工知能)ではなく、ASI(超知能)を開発するために新しい会社を設立していたのです。その名もSSI。SSIの目標は、革命的なブレークスルーを通じて安全な超知能を開発することです。SSIはアメリカの企業で、パロアルトとテルアビブに拠点を構え、トップ技術者を集めています。共同創設者には、エンジニア兼投資家のダニエル・グロスと、スタンフォード大学出身のダニエル・レヴィがいます。イリヤは、OpenAIやGoogle、Anthropicといったライバル企業が直面する外部のプレッシャーから解放された環境で、安全な超知能の開発に集中する意向です。彼のビジョンは、リベラル民主主義の原則に基づくAIを作り上げることです。彼が目指すシステムは、現在の対話型AIを超えて、より汎用的で拡張性のある能力を持つものです。彼の目標がどれほど現実的かはまだ未知数ですが、彼の決意とビジョンはAI分野に新たな展望をもたらしています。
公開日:2024年6月20日
※動画を再生してから読むのがオススメです。
私たちは確かに、独自の目標を持つ完全に自律した存在を創造することができるでしょう。
特に、これらの存在が人間よりもはるかに賢くなるにつれて、これらの存在の目標が私たちの目標と一致することが非常に重要になります。
これはAIの分野で最も神秘的な人物の一人です。
イリヤ・サツキヴァー、またはスーツキヴァー、どちらでも発音していただいて構いませんが、彼はおそらくOpenAIやGPT-4の開発に最も貢献した人物の一人であり、サム・アルトマンやイーロン・マスクなどからそのAI分野での才能を称賛されています。
昨年11月に起きたOpenAI理事会のクーデターで決定的な役割を果たした人物の一人であり、何故か常にOpenAIのオフィスで「AGI」という言葉を唱えるなど、ミームの中心となっています。
イリヤは何を見たのでしょうか?
彼が見つけた開発は何で、それが彼や取締役会を驚かせ、OpenAIを遅らせる可能性のある急進的な行動を取らせたのでしょうか。
しかし、これらの質問の中で最も緊急なのは、イリヤはどこにいるのかということです。
サム・アルトマンはこの質問を何度もされてきました。
イリヤは箱の中にいるのでしょうか?
ジェンセン・ファンによってお届けされました。
イリヤは地下の核施設にいますか?
秘密の地下壕?
さて、今私たちは知っています。
イリヤは忙しく働いていましたが、AGIではなく、人工知能ではありません。それは古いニュースです。
彼はASI、人工超知能を構築しています。
しかし、彼はそれをSSI、安全な超知能と呼んでいます。すべての頭字語についてお詫び申し上げます。
彼はそれが現在の最も重要な技術的問題であると言っています。
彼は世界初の一直線のSSI研究所を建設しています。
一直線のSSI研究所は重要だと言っていますので、後で戻ってきます。
最初から始めましょう。
こちらが、イリヤ・サツキヴァーです。
彼は新しい会社を立ち上げると言っています。
私たちは安全な超知能と、一つの焦点、一つの目標、一つの製品に向けて直線的に進んでいきます。
私たちは、小さな優秀なチームによって生み出される革命的な突破を通じてそれを実現します。
一緒に参加してください。
「クラックされた」という言葉を使う場合は、いいねをしてください、紳士。
その会社はSSIにあり、安全な超知能です。
これを見ていると、イーロンがどこかで裏で魔法を使ったのかと思ってしまいます。
最近、そのようなハンドルをどうやって手に入れるのですか?
イーロン・マスクは何度も述べているように、イリヤに対する彼の尊敬の念がいかに大きいかを忘れないでください。
彼は最初にOpenAIチームにイリヤを勧誘した人物でした。
これが彼らのウェブサイト、SSI.incです。
彼らは超知能が手の届くところにあると言っています。
最近注目している方は、多くの人々がAIのディープラーニングなどが壁にぶつかっていると提案していることです。
進捗が遅くなっています。
大規模言語モデルはAGIへの道ではなく、ましてや超知能体のようなものでもありません。
約1年前の素晴らしいビデオがあり、イリヤ・サツキヴァーが長々と語っている。近い将来、多くの人々がAIの冬が訪れると考えるだろうと。
彼はなぜそれが起こらないか、なぜ進歩が急速に進むことになるかを説明しています。
ここで彼は、超知能体が手の届くところにあり、安全な超知能体を構築することが現在の最も重要な技術的課題であると述べています。私も確かに同意します。
私たちは、安全な超知能を目指すたった1つの製品を持つ世界初のストレートショットSSIラボを立ち上げました。
それはSafe Superintelligence, Inc.と呼ばれています。
彼らは「安全」という言葉をよく使います。
OpenAIでの彼らの歴史がその一部に責任があるかもしれません。
SSIは私たちの使命であり、私たちの名前であり、私たちの全製品ロードマップです。それは私たちの唯一の焦点です。
私たちのチーム、投資家、ビジネスモデルはすべてSSIを達成するために一致しています。
私たちは安全性と能力を革新的なエンジニアリングと科学的なブレークスルーを通じて解決すべき技術的な問題として一緒に取り組んでいます。
私たちは安全性が常に最優先されるようにしながら、能力をできるだけ速く向上させる計画を立てています。
このようにして、私たちは平和にスケールすることができます。
私たちの唯一の焦点は、管理のオーバーヘッドや製品サイクルによる逸脱はありません。
私たちのビジネスモデルは、安全性、セキュリティ、進歩がすべて短期的な商業的圧力から隔離されています。
私たちは、パロアルトとテルアビブにオフィスを持つアメリカの企業であり、深いルーツとトップの技術的才能を採用する能力を持っています。
イリヤはロシア生まれですが、彼の人生の過程で、パロアルトやサンフランシスコのベイエリア、カリフォルニア、そしてテルアビブやイスラエルに多くのルーツを築いてきました。
私たちは、SSIに焦点を当て、他の何も考えない世界最高のエンジニアと研究者からなるスリムで優れたチームを結成しています。
「Cracked」は、おそらくゲーム用語として始まり、誰かが何かに狂気的に優れていることを意味しています。
そして今、しばしば技術の分野で、例えば、非常に優れた、集中力があり、知識豊富で、非常に能力がある開発者やエンジニアを表現するために使われています。
もしそれがあなたなら、私たちはあなたの人生の仕事をする機会を提供し、私たちの時代の最も重要な技術的な課題を解決する手助けをします。
今がその時です、私たちと3人の共同創業者、イリヤ、ダニエル・グロス、ダニエル・レヴィに参加してください。
こちらはダニエル・グロスです。
個人的にはこの人についてあまり詳しくは知りませんが、エンジニアで投資家であり、2013年にAppleによって買収された検索エンジンQの共同創業者であり、AppleでAIと検索プロジェクトを担当し、Instacart、Coinbase、GitHubなどのかなり大きなスタートアップに投資しています。
彼はYA Combinatorのパートナーであり、そのAIプログラムを立ち上げたようです。
ダニエル・レヴィは、以前はOpenAIで働いていた第3の共同創業者で、スタンフォード大学で博士号を取得し、Google BrainやFacebookでも働いていました。
様々な犯罪テレビシリーズが本当に好きなようですね。
The Wire、Sopranos、たくさんのSopranos、The Wire、そしてBillionsのようです。
ブルームバーグにはアシュリー・バンスによる記事があります。
アシュリー・バンスは、2015年に出版されたイーロン・マスクの伝記の裏にいる人物です。
興味深いことに、共同創業者の一人であるダニエル・グロスは、アシュリー・バンスによると、イリヤ・サツキヴァーと共にスーパーインテリジェンスを構築しているということが印象的であり、同時に、ジョン・カーマックのAIの取り組みを支援しているようです。私はそれをかなり追っています。
もちろん、ジョン・カーマックは非常に興味深い人物であり、90年代のDoomのオリジナル開発者であり、それ以来、自らAGIを開発するためのクエストに乗り出しています。
アシュリーは、イリヤ・サツキヴァーに彼の新しいベンチャー、セーフ・スーパーインテリジェンス社についてインタビューしており、イリヤは、OpenAI、Google、Anthropicなどのライバルが直面する多くの邪魔を受けずに彼の仕事を続けようとしています。
これは私にとって目立つ点であり、この会社は特別であり、その最初の製品はセーフ・スーパーインテリジェンスであり、それまで他の何もしないでしょう。
セーフ・スーパーインテリジェンスが実現するまで、デモも製品リリースも何もありません。
大規模で複雑な製品に対処しなければならない外部の圧力から完全に遮断され、競争の激しい競争に巻き込まれることもありません。
イリヤは、このプロジェクトを支援している人や調達した資金の額を明かしていません。
おそらくダニエル・グロスが何かしら投資していると仮定していますが、確証はなく、その点についての確認はありません。
AIの安全性が具体的に何を意味するのかについて少し話しています。
イリヤはこれについて少し曖昧ですが、AIシステムに組み込まれた技術革新を通じて安全性が確保されると提案しています。それは、技術に即座に適用されるガードレールとは異なります。
安全とは、信頼と安全という意味ではなく、原子力安全のような安全を指します。
信頼と安全に関するこの小さな引用は興味深いです。OpenAIの原則を見ると、彼らは信頼と安全の先駆者でありたいと述べています。
これは、OpenAIに対するちょっとした挑発のようなもののようです。
共同創業者は2人います。
一人は投資家であり、元アップル社の従業員です。
AIリードのダニエル・グロスは、Keen Technologiesを含む数々の注目の高いAIスタートアップを支援しています。
その名前がどこから来たか知っている人は何人いるか興味があります。
ヒント、それはジョン・カーマックのAGIの取り組みです。
Keen Technologies、KeenAGI.com。
コメントで教えてください。Keenが何を指すかわかる方。
ヒントをあげます。
それは、ダニエル・グロスと他の共同創業者、レヴィで、イリヤと一緒にOpenAIで大規模なAIモデルのトレーニングに強い評判を築いています。
彼は、私のビジョンがまさにイリヤのものと同じだと言っています。
小さな、スリムで、一丸となって安全な超知能を目指す唯一の目標に焦点を合わせたチーム。
ここでは、SutskiverとGrossの両方がイスラエルで育ったと言及されています。
イリヤは、サム・アルトマンとの関係が良好であり、サムはこの新しい事業について大まかな概要を知っているが、具体的なことは何も知らないと言っています。
OpenAIのクーデター以降、OpenAIを去ってからのこの全体的な経験は、非常に非常に奇妙なものだったと彼は言っています。
彼らは、SSI(Super Safe Intelligence)に資金を投入している投資家たちが、途中で利益を生むヒット商品を作る希望なしに投資していることを指摘しています。
彼らがSSIをまっすぐな道と言うとき、これを意味しています。
急な金銭的な利益を狙ったリリースや、定期購読モデル、APIなどはありません。
一直線に進むことが生死を分かつ状況のように思えます。
彼らは、そのような知性、超知性が達成可能かどうか、また企業がそれを構築する方法について、歴史上合意がないと言っています。
これは非常に、非常に真実です。
合意はありません。
私たちはAGIについても合意が得られていませんし、大規模言語モデルが推論する能力を持っているかどうかさえ、改善する能力や、トレーニングデータの範囲外の推測をする能力を持っているかについても合意がありません。
この宇宙で伝説的な存在であるイリヤが、かなり大胆な発言をしているという事実。
彼は、超知能に到達していると言っています。
それは手の届くところにあります。
1兆ドル規模の上場企業と提携する必要はありません。
製品をリリースする必要はありません。
小さな、スリムなチームが必要です。
これは非常に、非常に野心的に聞こえます。
イリヤは、AIを安全にする方法は、それが善の力となるために、いくつかの重要な価値観の上で運営されるべきだと言っています。
過去100年間に非常に成功してきた、自由、民主主義、自由のような自由主義民主主義を支える価値観。
現在のシステムでは、彼は話しかけると会話ができて、それで終わりです。
彼が追求したいシステムは、より汎用性があり、能力が広がるものです。
巨大なスーパーデータセンターについて話していますが、それは自律的に技術を開発しています。
それは狂っている、そうでしょう?
私たちが貢献したいのは、その安全性です。
この全体の状況についてどう思いますか?
まず、イリヤの目標であるスーパーインテリジェンスを、資金が大量にあるわけではない小さなチームで、かつかなり迅速に構築するというのは、どれほど現実的でしょうか?
確かに、彼らはあなたのリリースに製品がないと言っていますが、ASIに到達するまでですよね?
彼らは将来数十年を考えているわけではありません。
それはむしろ近い将来または中期のことのようです。
また、以前、2015年ごろにXKCDコミックがありました。このアイデアを的確に表現していたと思いますね。
もし他の企業や他の基準、他の方法があるような状況がある場合、必ず何かしらのエンジニアが「いや、それは違う」と言うことがあります。
私ならもっと良くできる。
すべてを正しく行う1つの企業や基準、ツールを作ることができます。
みんなが興奮し、みんなが同意します。
次のステップは、さて、今はもう1つの企業や基準、またはツールがすべてを統一することになっている、そうですよね?
この場合、OpenAIがあり、それからAnthropicがあり、彼らから分かれたのは、より安全なAGIを構築したかったからですよね?
イーロン・マスクとxAIも出てきて、いいえ、私たちはより安全なAGIを構築したいと言いました。
この発表、ですので、また別の企業が安全なAGIを構築しているが、今度はASIスーパーインテリジェンスです。
私は確かに、いくつかの皮肉な人々が言うかもしれませんが、これは期待の膨張に過ぎないと。
資金を得るために注目を集めるためには、ますます大きなことや少し狂ったことを言わなければなりません。
OpenAIがAGIを開発していると言っているとき、あなたの会社がAGIを開発していると言っても、それはあまり注目されません。
しかし、ASIを開発していると言っているなら、それはまったく別の話です。
一方、イリヤはそういったゲームをするタイプの人間でもなさそうで、適当に言うこともありません。
彼は非常に真剣で、非常に集中しており、非常に誠実で、この技術が間もなく到来し、正しく取り組むことが非常に重要だと確信しているようです。
コメントでどう思われるか教えてください。
待って見ますし、この会社からもっとニュースが出ることを願っています。
彼らが発表するものがもっと増えることを願っています。
イリヤは魅力的な人物であり、彼についてもっと知りたいし、彼がどのように考え、何に取り組んでいるかも知りたいです。
これから楽しい時がやってきます。
それが言えたところで、私はウェス・ロスです。ご視聴ありがとうございます。