見出し画像

速報:イリヤ・サツケバーの驚くべき新しいミッション!『超知性は手の届くところにある!』

完全に自律的な存在を作り出すことができるようになるでしょう。これらの存在は自分自身の目標を持ち、特に人間よりもはるかに賢くなるにつれて、これらの存在の目標が私たちの目標と一致することが非常に重要になります。
イリヤ・サツケバーは、AIの分野で最も謎めいた人物の一人です。彼はおそらくOpenAIとGPT-4の開発に最も大きく貢献した人物の一人であり、サム・アルトマン、イーロン・マスクなどから、AIの分野での才能を称賛されています。昨年11月に起こったOpenAIの取締役会クーデターの決定的な人物の一人であり、OpenAIのオフィスで「AGIを感じろ」と叫んでいたようなミームの中心人物でもあります。
イリヤが何を見たのか、どのような開発を発見したのか、彼と取締役会を驚かせ、OpenAIの速度を遅らせ、安全性に焦点を当てるために何らかの抜本的な行動を取らせたのでしょうか。しかし、これらの質問以上に差し迫っているのは、イリヤがどこにいるのかということです。
サムは何度もこの質問を受けています。イリヤはジェンセン・ハングが届けた箱の中にいるのでしょうか。イリヤは地下の核施設や秘密のバンカーにいるのでしょうか。
さて、今ではイリヤがAGI(汎用人工知能)ではなく、ASI(人工超知能)を構築していたことがわかりました。AGIは古いニュースです。彼はそれをSSI(安全な超知能)と呼んでいます。頭文字が多くて申し訳ありません。彼は、それが私たちの時代の最も重要な技術的問題だと言っています。
そこで、彼は世界初のストレートショットSSIラボを建設しているのです。ストレートショットSSIラボについては後で説明します。
まず最初に、イリヤ・サツケバーの言葉から始めましょう。「私は新しい会社を立ち上げます。私たちは安全な超知能を追求し、一直線に、一つの焦点、一つの目標、一つの製品を目指します。私たちは少数の優秀なチームによる画期的なブレークスルーを通じてそれを実現します。私たちに参加してください」と。「優秀な」という言葉を使ったことに対して、いいねをお願いします。
この会社はSSI(安全な超知能)と名付けられています。これを見ていて、イーロン・マスクが背後で何かしたのだろうかと思いました。今日、このようなハンドルをどうやって手に入れるのでしょうか。
イーロン・マスクは何度も、イリヤに対して大きな尊敬の念を抱いていると語っています。彼は当初、イリヤをOpenAIチームに勧誘するのを助けた人物でした。
これが彼らのウェブサイト、ssi.inです。そこには「超知能は手の届くところにある」と書かれています。
最近注目されているように、多くの人がAI、ディープラーニングなどは壁にぶつかっており、進歩が遅くなっていると示唆しています。LLMはAGIへの道筋ではなく、超知能へはなおさらのことです。
約1年前の素晴らしいビデオがあります。そこでイリヤ・サツケバーは、今後数年間、多くの人がAIの冬が来ると考えるだろうと長々と語っています。そして、彼はそれが起こらない理由、進歩が急速に加速し続ける理由を説明しています。
そして、ここで彼は超知能が手の届くところにあり、安全な超知能を構築することが私たちの時代の最も重要な技術的問題だと言っています。私は確かにそれに同意します。
彼らは、一つの目標と一つの製品を持つ世界初のストレートショットSSIラボを立ち上げました。それは安全な超知能です。Safe Super Intelligence Inc.と名付けられています。
彼らは「安全」という言葉をよく使います。OpenAIでの彼らの経歴がそれに関係しているのでしょう。
SSIは私たちのミッション、私たちの名前、そして私たちの製品ロードマップ全体です。それが私たちの唯一の焦点だからです。
私たちのチーム、投資家、ビジネスモデルは全て、SSIを達成するために連携しています。
私たちは、革新的なエンジニアリングと科学的ブレークスルーを通じて解決すべき技術的問題として、安全性と能力をタンデムで、一緒にアプローチします。
私たちは、安全性を常に先行させながら、可能な限り早く能力を向上させる計画です。このようにして、私たちは平和に拡大することができます。
私たちの単一の焦点は、管理の煩雑さや製品サイクルによる気晴らしがないことを意味します。そして、私たちのビジネスモデルは、安全性、セキュリティ、進歩が短期的な商業的圧力から隔離されていることを意味します。
私たちはパロアルトとテルアビブにオフィスを持つアメリカの会社です。そこでは、深いつながりと、最高の技術人材を採用する能力を持っています。
確かに、イリヤはロシアで生まれましたが、人生の過程で、カリフォルニア州のサンフランシスコ湾岸地域のパロアルトと、イスラエルのテルアビブの両方に多くのつながりを築きました。
私たちは、SSIにのみ専念する世界最高のエンジニアと研究者の少数精鋭チームを結成しています。
「優秀な」という言葉は、もともとはゲーム用語で、何かが異常に上手な人を意味していましたが、今ではテクノロジー業界でも、例えば、信じられないほど優れた、集中力のある、知識豊富な、信じられないほど有能な開発者やエンジニアを表現するのによく使われます。
もしそれがあなたなら、私たちは、あなたの人生の仕事をする機会を提供し、私たちの時代の最も重要な技術的課題の解決を助けることができます。今がその時です。私たちに参加してください。
3人の共同創設者は、イリヤ・サツケバー、ダニエル・グロス、ダニエル・レビです。
ダニエル・グロスについては、私は個人的にあまり知りません。彼はエンジニアで投資家のようです。2013年にAppleに買収された検索エンジンQ&Aの共同創設者で、AppleでAIと検索のプロジェクトを運営し、Instacart、Coinbase、GitHubなどのかなり大きなスタートアップに投資しているようです。Y Combinatorのパートナーを務め、そのAIプログラムを立ち上げたようです。
ダニエル・レビは3人目の共同創設者で、以前はOpenAIに在籍し、スタンフォード大学で博士号を取得し、Google BrainとFacebookで働いていました。ザ・ワイヤー、ソプラノズ、ビリオンズなど、様々な犯罪ドラマシリーズが大好きなようです。
ブルームバーグ誌に、アシュリー・バンスの記事があります。アシュリー・バンスは、2015年のイーロン・マスクの伝記を書いた人物です。興味深いことに、共同創設者の一人であるダニエル・グロスは、アシュリー・バンスによると、イリヤ・サツケバーと一緒に超知能を構築する一方で、ジョン・カーマックのAI活動も支援しているそうです。私はジョン・カーマックについてかなり注目しています。
ジョン・カーマックはもちろん、90年代の「Doom」、そう、あの「Doom」の原作者であり、信じられないほど興味深い人物です。それ以来、彼は自身のAGI開発に取り組んでいます。
アシュリー・バンスは、イリヤ・サツケバーの新しいベンチャー、Safe Super Intelligence Inc.についてインタビューしています。そこでイリヤは、OpenAI、Google、Anthropicなどのライバルが直面している多くの障害なしに、自分の仕事を続けようとしています。
この会社の特別な点は、最初の製品が安全な超知能であり、それまでは他の何もしないことです。デモもなければ、製品リリースもなければ、何もありません。安全な超知能になるまでは。
大規模で複雑な製品を扱わなければならないという外部からのプレッシャーや、競争の激しいレースに巻き込まれることから、完全に隔離されるでしょう。
イリヤは、これを支援している人物や調達した金額については言及していません。おそらくダニエル・グロスが投資しているのだと思いますが、確認はされていません。
彼らは、AIの安全性が正確に何を意味するのかについて少し話しています。これについてはやや曖昧ですが、安全性はその場しのぎでテクノロジーに適用される防護柵ではなく、AIシステムに組み込まれたエンジニアリング上のブレークスルーを通じて行われることを示唆しています。
「安全」とは、「信頼と安全」という意味ではなく、「原子力の安全」のような意味での安全を指します。
「信頼と安全」に関するこの小さな引用は興味深いものです。OpenAIの原則を見ると、「信頼と安全のパイオニアになりたい」と言っています。これは、OpenAIに対する一種の「shots fired(挑発)」のようなものだと思います。
そして、共同創設者の一人は、投資家で元Apple社のAIリーダーであるダニエル・グロスで、Keen Technologiesを含む多くの有名なAIスタートアップを支援しています。Keen Technologiesという名前の由来を知っている人がどれだけいるか気になります。もう一度ヒントを出しますが、それはジョン・カーマックのAGIの取り組み、Keen ai.comのことです。Keenが何を指すのか、コメントで教えてください。ヒントをあげましょう。
もう一人の共同創設者はダニエル・レビで、OpenAIでイリヤと一緒に働きながら、大規模なAIモデルのトレーニングで高い評価を得ています。彼は「私のビジョンはイリヤと全く同じで、安全な超知能という単一の目標に全員が集中する、小さくて効率的な精鋭チームです」と言っています。
ここでは、SSIとグロスの両方がイスラエルで育ったことが指摘されています。イリヤは、サム・アルトマンとの関係は良好で、サム・アルトマンはこの新しいベンチャーについて大まかには知っているが、具体的なことは何も知らないと言っています。
また、OpenAIクーデター以来の経験は、非常に奇妙な経験だったと言っています。
彼らは、SSI(Super Safe Intelligence)に資金を投資している投資家は、途中で収益性の高いヒット商品を生み出すことを期待せずに投資していると指摘しています。これが、ストレートショットSSIと言う意味です。クイックキャッシュグラブのリリース、サブスクリプションモデル、APIなどはありません。ストレートショットは、一種の「Do or Die(成功するか死ぬかの二者択一)」のシナリオのようです。
彼らは、このような超知能が達成可能かどうか、また企業がそれをどのように構築するかについて、歴史上コンセンサスはないと言っています。これは全くその通りです。AGIについてのコンセンサスさえありませんし、LMSに推論する能力があるのか、改善する能力があるのか、トレーニングデータの範囲を超えた推測をする能力があるのかについてさえ、コンセンサスはありません。
このような伝説的な人物であるイリヤが、かなり大胆な発言をしているということは、注目に値します。彼は、「我々は超知能に到達しつつある。それは手の届くところにある。巨大な公開企業と提携する必要はない。製品をリリースする必要もない。小さくて効率的なチームさえあればいい」と言っています。
これは全て非常に野心的に聞こえます。イリヤは、AIを安全にし、善のための力にするには、過去100年間に自由民主主義の基盤となってきた自由、民主主義、自由などの価値観の上で運用されるべきだと言っています。
現在のシステムでは、あなたはそれと話をし、会話をして、それで終わりです。彼が追求したいシステムは、より汎用的で、能力の面で拡張性があります。
自律的に技術を開発する巨大なスーパーデータセンターの話をしているのです。それは狂気じゃないですか?私たちが貢献したいのは、そのような安全性なのです。
でも、この状況全体についてどう思いますか?まず第一に、少人数のチームで、それほど多くの資金を必要とせず、しかもかなり短期間で超知能を構築するというイリヤの目標は、どれほど現実的なのでしょうか。
彼らがASIに到達するまでは、製品もリリースもないと言っているのですから、遠い将来のことを考えているわけではなさそうです。むしろ、より近い、あるいは中期的なことのようです。
また、2015年頃のXKCDの漫画で、この考えを的確に表現していました。他の企業や他のベンチマークや他のやり方がある状況で、常にエンジニアが「いや、それは間違っている。私はもっと上手くできる。全てを網羅する一つの会社やベンチマークやツールを作ることができる」と言うのです。
みんな興奮し、みんな同意します。そして次のステップは、「さて、今度は全てを統一することになっている、もう一つの会社やベンチマークやツールがある」というものです。
この場合、OpenAIがあり、そこからAnthropicが分かれたのは、より安全なAGIを構築したかったからです。そして、イーロン・マスクとxAIも登場し、「いや、我々がより安全なAGIを構築する」と言いました。
そして今回の発表です。安全なAGIを構築するもう一つの企業があるのですが、今度はASI、つまり超知能です。
皮肉屋な人なら、「これは期待のインフレに過ぎない。注目を集めるために、資金を得るために、ますます大きく、クレイジーなことを言わなければならない」と言うかもしれません。
OpenAIがAGIを開発していると言っていて、あなたがAGIを開発していると言う企業があっても、それほど注目を集めません。しかし、ASIを開発していると言えば、それは全く別の話です。
一方で、イリヤはそのようなゲームをしたり、軽々しく物事を言ったりするようなタイプの人物には見えません。彼はとても真面目で、集中力があり、正直な人物のように見えます。そして、このテクノロジーがすぐにやってくること、そしてそれを正しく理解することが信じられないほど重要であることを確信しているようです。
でも、皆さんの意見をコメントで聞かせてください。待って見ましょう。うまくいけば、この会社からもっとニュースが出てくるでしょう。うまくいけば、彼らが発表するものがもっとあるでしょう。
イリヤは魅力的な人物であり、私は彼について、彼がどのように考え、何に取り組んでいるのかをもっと知りたいと思います。
これからエキサイティングな時代が待っていますね。
以上です。私はWes Rothです。ご視聴ありがとうございました。

この記事が気に入ったらサポートをしてみませんか?