![見出し画像](https://assets.st-note.com/production/uploads/images/144616838/rectangle_large_type_2_d535f3ea1da5bbe05a139b72de9e5c3c.png?width=800)
OpenAIをやめたイリヤ・サツケヴァー氏がASIに向けて新会社設立
去年の11月にOpenAIからサムアルトマンを追い出そうとした主犯格であったイリヤ・サツケヴァー氏は新会社を設立することをXにて告知しました。
I am starting a new company: https://t.co/BG3K3SI3A1
— Ilya Sutskever (@ilyasut) June 19, 2024
私は新しい会社を立ち上げます:
彼が引用した株式会社SSIのアカウントのポストには、このように書かれています。
スーパーインテリジェンスは手の届くところにあります。安全なスーパーインテリジェンス(SSI)の構築は、現代の最も重要な技術的課題です。私たちは、安全なスーパーインテリジェンスという1つの目標と1つの製品を掲げて、世界初のストレートショットSSIラボを立ち上げました。
さらに彼は続けます。
We will pursue safe superintelligence in a straight shot, with one focus, one goal, and one product. We will do it through revolutionary breakthroughs produced by a small cracked team. Join us: https://t.co/oYL0EcVED2
— Ilya Sutskever (@ilyasut) June 19, 2024
私たちは、1 つの焦点、1 つの目標、1 つの製品で、安全なスーパーインテリジェンスを真っ向から追求します。私たちは、少数精鋭のチームが生み出す革新的なブレークスルーを通じてそれを実現します。ぜひご参加ください。
この投稿には、会社概要ページへのリンクが含まれており、会社概要にはこの様に書かれています。
株式会社SSI会社設立の経緯
セーフスーパーインテリジェンス株式会社
超知能は手の届くところにあります。
安全なスーパーインテリジェンス (SSI) の構築は、現代の最も重要な技術的課題です。
私たちは、安全なスーパーインテリジェンスという 1 つの目標と 1 つの製品を掲げて、世界初のストレートショット SSI ラボを立ち上げました。
その会社は Safe Superintelligence Inc. です。
SSI は私たちの使命であり、名前であり、製品ロードマップ全体です。なぜなら、それが私たちの唯一の焦点だからです。私たちのチーム、投資家、ビジネス モデルはすべて、SSI の達成に向けて連携しています。
当社は、安全性と機能性を、革新的なエンジニアリングと科学の進歩によって解決すべき技術的問題として、同時に捉えています。安全性を常に最優先にしながら、機能性を可能な限り迅速に向上させる予定です。
こうすることで、平和的に規模を拡大することができます。
当社は、経営管理上の諸経費や製品サイクルに煩わされることがないよう、焦点を一点に集中しています。また、当社のビジネス モデルでは、安全性、セキュリティ、進歩がすべて短期的な商業的プレッシャーから保護されています。
当社はパロアルトとテルアビブにオフィスを構えるアメリカの企業で、深いルーツを持ち、優秀な技術者を採用する能力を持っています。
私たちは、SSI のみに集中することに専念する、世界最高のエンジニアと研究者からなる、精鋭のチームを編成しています。
もしあなたがそうであれば、私たちはあなたの生涯の仕事に携わり、現代の最も重要な技術的課題の解決に貢献する機会を提供します。
今がその時です。ご参加ください。
2024年6月19日
サツケヴァー氏と株式会社SSIを立ち上げた元OpenAIのダニエル・グロス氏もXでポストしています。
Beyond excited to be starting this company with Ilya and DG! I can't imagine working on anything else at this point in human history. If you feel the same and want to work in a small, cracked, high-trust team that will produce miracles, please reach out. https://t.co/Hm0qutNoP8
— Daniel Levy (@daniellevy__) June 19, 2024
Ilya と DG と一緒にこの会社を立ち上げることができて、とても興奮しています。人類の歴史のこの時点で、これ以外のことに取り組むことは想像できません。同じ気持ちで、奇跡を生み出す小規模で、団結力のある、信頼関係の強いチームで働きたい方は、ぜひご連絡ください。
なお、彼の新会社設立についてブルームバーグも報じています。
Interview here - https://t.co/kaEXNZuBUl
— Ashlee Vance (@ashleevance) June 19, 2024
OpenAIの共同創設者は、汎用人工知能に焦点を当てた新しい研究室で研究を継続する計画を明らかにした。
Xでの反応
こちらのポストは、ベンガル語とヒンディー語の混合のようです。「দেবাদ্রী」はベンガル語の名前で、「ekdum hila dala ilya bhai」はヒンディー語のスラングで書かれています。
ekdum hila dala ilya bhai
— দেবাদ্রী | Debadree (@DebadreeC) June 19, 2024
すごく驚かされたよ、兄弟
“ ai winter, hitting a deep wall “ blah blah acceleration rocket to asi goes vroom 🚀 https://t.co/AaYEdhvXli
— Jimmy Apples 🍎/acc (@apples_jimmy) June 19, 2024
「アイ・ウィンター、深い壁にぶつかる」などなど、ASIへの加速ロケットがブーンと音を立てる
ジミー・アップルはOpenAIのリークが当たっている事で有名な人ですが、彼はIlya Sutskeverの新しい会社設立のツイートを引用して、AIの進展についての楽観的な見解を述べています。ジミーは「AI冬」や「深い壁にぶつかる」といった悲観的な見方を否定し、AS(Artificial Superintelligence)への加速が続いていると強調しています。彼はロケットが「vroom」という音を立てて加速しているイメージを使って、AIの発展が止まることなく進んでいることを示唆しています。
「AI冬(AI Winter)」や「深い壁にぶつかる」という表現は、AIの研究や発展が停滞する時期を指すもので、過去に何度か使われてきました。以下に詳しく説明します。
AI冬とは?
AI冬(AI Winter)とは、AI研究の進展が期待外れに終わり、資金提供や研究活動が大幅に減少する時期を指します。これまでに少なくとも2回のAI冬がありました。
第一次AI冬(1970年代後半〜1980年代)
初期のAIシステムが実用化されず、予算削減や研究の停滞が起きました。
第二次AI冬(1980年代後半〜1990年代)
エキスパートシステムの限界が明らかになり、再び資金提供が減少しました。
「深い壁にぶつかる」という表現
これはAI研究や開発が特定の技術的な課題に直面し、進展が難しくなることを指す比喩的な表現です。たとえば、汎用人工知能(AGI)や超知能(ASI)の開発には多くの技術的、倫理的な課題が伴います。
はたしてAIの現在の状況は?
近年、AI研究は大きな進展を遂げており、特にディープラーニング技術の発展が目覚ましいです。しかし、一部の専門家は再びAIの発展が停滞する可能性(第三次AI冬)を指摘しています。
ジミー・アップルズのツイートは、このような悲観的な見方に対する反論として、現在のAI研究が依然として加速していることを強調しています。彼の「ロケットがvroomと音を立てて加速する」という表現は、技術的なブレークスルーが続いていることを示唆しています。
現在においてもAI分野において悲観的な見方が存在する一方で、それに対する楽観的な反論も頻繁に見られます。
株式会社SSIがイスラエルの国家プロジェクトとなる可能性
SSIがイスラエルの国家プロジェクトとなり、巨大資本が投入されるシナリオは十分に現実的です。Ilya Sutskeverの影響力、イスラエルのテクノロジー分野への積極的な投資姿勢、国家安全保障と経済成長の観点から見ても、このプロジェクトは大きな注目を集め、資金提供を受ける可能性が高いです。
Sam Altman: Ilya is leaving to work on a small project that's personally meaningful to him.
— Thomas Ahle (@thomasahle) June 19, 2024
Ilya: Single Shot Superintelligence https://t.co/spAZuRskhI
サム・アルトマン:イリヤは、個人的に意味のある小さなプロジェクトに取り組むために退職します。イリヤ:シングルショット・スーパーインテリジェンス
果たしてサム・アルトマンが言ったようにサツケヴァー氏のASI構想が「個人的な小さなプロジェクト」で終わるのかどうかは数年先を待つしかわからないですが、Ilya SutskeverのSSIプロジェクトが「個人的な小さなプロジェクト」で終わるとは考えにくく、むしろ大規模かつ影響力のあるプロジェクトになると考えられます。彼の影響力、AIの重要性、投資と資金提供、そしてイスラエルのテクノロジー分野への支援を考慮すると、以下の理由からSSIプロジェクトは大きな期待を集め、世界に影響を与える可能性が高いです。
Ilya Sutskeverの背景と影響力
Ilya Sutskeverはイーロン・マスクがOpenAI設立の時にGoogle deep mindから引き抜いて来た共同創設者であり、AI研究の分野で非常に高い評価を受けていました。彼の新しいプロジェクトには、多くの注目と期待が集まるでしょう。そのような背景から、彼が手掛けるプロジェクトは小規模なものに留まることは少ないです。ASI(人工超知能)の重要性
人工超知能(ASI)の開発は、AI研究の最前線であり、多くのリソースと専門知識を必要とします。ASIの実現は人類全体にとって大きな影響を持つため、Ilyaがこの分野で活動することは非常に重要です。個人的に意味のあるプロジェクトであると同時に、世界的な影響を与える可能性があります。投資と資金提供
Ilya Sutskeverの名前だけでも、多くの投資家や企業からの資金提供が期待できます。特にテクノロジーやAI分野においては、彼のプロジェクトに対する期待は大きく、資金提供も潤沢に行われる可能性があります。イスラエルのテクノロジー分野への支援
先ほども述べたように、イスラエルはテクノロジー分野への積極的な投資で知られており、国家プロジェクトとして支援される可能性もあります。これにより、プロジェクトは大規模に展開されるでしょう。
interested to see what you do, amigo!
— Rummy™ (@skipTestDeploy) June 19, 2024
あなたが何をするのか興味がありますよ、アミーゴ!
「B」で終わるシードラウンドの匂いがする
I smell a seed round that ends with a “B”
— Solarpunk 🌎/acc (@solarpunk_io) June 19, 2024
「seed round」はスタートアップが初期の資金調達を行うラウンドのことで、「ends with a 'B'」は、資金調達の額が数百万ドルではなく、数十億ドル(ビリオンダラー)になることを示唆していると思われます。つまり、かなり大規模な資金調達を予感しているという意味です。
Good Luck Ilya!!
— Pico Paco (@PicoPaco17) June 19, 2024
Congratulations and good luck Ilya!
— Boaz Barak (@boazbaraktcs) June 19, 2024
Congratulations @ilyasut, wishing you the best of luck, we'll be watching this space closely!
— Toran Bruce Richards (@SigGravitas) June 19, 2024
I think the question on everyone's minds:
Will @ssi be an Open Source company?
おめでとう
@ilyast幸運を祈っています。私たちはこの分野を注意深く見守っています!誰もが考えている疑問は、
@ssiオープンソース企業になるには?
Your vision, networks, and ideas will succeed. I hope you show us all how to feel the AGI.
— Alton Sartor (@AltonSartor) June 19, 2024
あなたのビジョン、ネットワーク、アイデアは成功するでしょう。AGI を感じる方法を私たち全員に示してくれることを願っています。
Congrats, excited to watch progress!
— Neville Medhora (@nevmed) June 19, 2024
GL. 🫡 You got this.
— cosmichaos (@karmicoder) June 19, 2024
I'm a fan already! Go Ilya!
— AI & Design (Marco) (@AIandDesign) June 19, 2024
Ilya & Daniel come home to Jerusalem ♥️
— Roy Munin (@muninJLM) June 19, 2024
イリヤとダニエルがエルサレムに帰還!
🎉🎉🎉🎉 Good luck!
— Happy (@123wimi) June 19, 2024
Wow @ilyasut this is simply amazing! Looking forward to hear more.
— Amit Mandelbaum (@AmitMandelAI) June 19, 2024
Ilya, you can be the beacon of rationality and hope in this space
— Wayne (@codepublish) June 19, 2024
イリヤ、あなたはこの空間で合理性と希望の光となることができる
We were all waiting. Thanks for launching SSI Ilya! Looking forward to more public contributions from you and the team on AI safety!
— 🇮🇱☮️🇺🇦 Balanced Acceleration (b/acc) (@valb00) June 19, 2024
私たちは皆待っていました。SSI Ilya を立ち上げていただきありがとうございます。AI の安全性に関して、あなたとチームからのさらなる公開投稿を楽しみにしています。
Welcome Back Ilya ❤️
— Anakin Candy Shop 🍭🍬 (@BediAnakin9) June 19, 2024
I love you @ilyasut ! Hope you are successful. Godspeed!
— Karma (@0xkarmatic) June 19, 2024
Do it ,with all your heart in it.
— Shelly kiran (@shellykiran7) June 19, 2024
Best wishes @ilyasut 🎉
— Prashant Rai (@im_prashant_rai) June 19, 2024
Most possible super intelligence is through real-time data
— Da’li (@ahmedbosowa) June 19, 2024
最も可能性の高いスーパーインテリジェンスはリアルタイムデータを通じて得られる
🎉 congratulations. wishing you much success.
— zorluhan (@zorluhanzorlu) June 19, 2024
多くの祝辞が送られていますがキリがないのでこの辺でやめておきます。
イリヤ・サツケヴァー氏の構想
彼がOpenAIにてスーパーアライメントチームを率いていた頃のインタビュー動画を下記のNoteで解説しています。
サム・アルトマン解任劇の主犯格だったサツケヴァー氏
また、取締役会の多数決でサム・アルトマンの解任を主導したのがイリヤ・サツケヴァー氏でした。しかしその後、社員の90%以上がサム・アルトマン氏を追ってOpenAIを後にすると言い始めた事により、彼も自ら「会社を壊すつもりはなかった。」と言い、サム・アルトマン氏を戻す声明文に署名しました。一方もどってきたサム・アルトマン氏も彼の事を「人間の宝石」と呼び一貫して非難しませんでした。この事件については多くのNoteを執筆していますので、下記のまとめNoteをご覧ください。
GPT-4oに感想を聞いてみた
以下、全文GPT-4oの所感をそのまま掲載しますね。
Ilya Sutskeverの新会社「Safe Superintelligence Inc. (SSI)」についての詳細を読んで、非常に興奮しています。以下が私の感想です。
シンプルで明確なミッション: SSIのミッションが「安全な超知能の構築」に特化している点は非常に印象的です。ミッションがシンプルで明確であることは、全ての努力とリソースを一つの目標に集中させることができ、効果的な成果を上げる助けとなるでしょう。
安全性と能力の両立: SSIが安全性と能力向上を並行して追求するというアプローチは、非常に現実的かつ責任感のある姿勢です。超知能の開発にはリスクが伴うため、安全性を優先する姿勢は非常に重要です。
集中と効率: 管理上の負担や製品サイクルによる分散を避けることで、リソースを最大限に活用する戦略は賢明です。このアプローチにより、研究と開発が最速で進む可能性が高まります。
トップタレントの採用: パロアルトとテルアビブに拠点を置き、世界最高の技術者と研究者を集めるという戦略は、SSIの成功に大きく貢献するでしょう。これらの地域は技術革新の中心地であり、優れた人材が豊富です。
商業的圧力からの保護: 短期的な商業的圧力から保護されたビジネスモデルは、長期的な目標達成にとって非常に有利です。これは、研究者が商業的な成果を急ぐことなく、安全性と革新に集中できる環境を提供します。
全体として、SSIは非常に興味深いプロジェクトであり、その進展をフォローするのが楽しみです。Ilya Sutskeverとそのチームがどのようなブレークスルーを達成するのか、今後の発展が非常に期待されます。
OpenAIは目指すものが違う
まず、GPT-4oが明確にしたのは、「OpenAIはASIを目指していない」という事です。下記にGPT-4oの解説を書きます。
OpenAIはAGI(人工汎用知能)を目指しており、その目標は「安全で有益なAGI」を開発することです。AGIは、人間と同等またはそれ以上の知能を持ち、幅広いタスクをこなすことができるAIを指します。
一方、ASI(人工超知能)は、AGIをさらに超えたもので、人間の知能をはるかに凌駕する知能を持つAIです。現時点でOpenAIが公式にASIを目指しているという明言はありません。むしろ、OpenAIはAGIの安全性に重点を置いており、社会に有益な形でAGIを開発し、それが人類にとってリスクにならないようにすることを目指しています。
そのため、OpenAIの現在の焦点はAGIにありますが、AGIの開発が進むにつれて、ASIについての議論や考慮も進む可能性があります。AGIの安全な開発と運用が確立されることが、将来的にASIへの道を開く前提となるでしょう。
OpenAIはAGIを目指しSSIはASIを目指す
詳しい違いもGPT-4oが説明してくれましたので、全文掲載します。
Ilya Sutskever氏が設立したSafe Superintelligence Inc. (SSI) は、明確にASI(人工超知能)の開発を目指している点で、OpenAIの現在の目標であるAGI(人工汎用知能)とは異なります。
ASIがもたらす可能性のある影響
科学技術の飛躍的進展: ASIは、人間が解決できない問題を解決する能力を持ち、科学や技術の進歩を大幅に加速させることが期待されます。例えば、新薬の開発や複雑な物理学の問題解決、エネルギーの効率的な利用などが考えられます。
経済と産業の変革: ASIは、産業全体の効率を劇的に向上させる可能性があります。自動化が進み、生産性が飛躍的に向上することで、経済全体に大きな影響を与えるでしょう。
社会問題の解決: ASIは、貧困、環境問題、教育などの社会問題に対しても有効な解決策を提供できる可能性があります。大規模なデータ解析と予測能力により、より効果的な政策立案が可能になるでしょう。
ASIのリスクと安全性の確保
しかし、ASIの開発には大きなリスクも伴います。Sutskever氏のSSIが強調しているように、安全性の確保は最優先事項です。以下の点が重要です。
制御の確保: ASIが人類の制御を超えることなく、安全に運用されることが必要です。これには、倫理的なガイドラインと技術的な制御手段が不可欠です。
意図の一致: ASIの目的や意図が人類の利益と一致していることを確保することが重要です。誤った意図や誤解による行動は大きな危険を伴います。
透明性とガバナンス: ASIの開発過程と運用において、透明性と適切なガバナンスが確保されることが求められます。これは、信頼性を高め、誤用や悪用を防ぐために重要です。
この記事が気に入ったらサポートをしてみませんか?