見出し画像

イリヤ・サツケヴァー氏:「山に登る時間です」10億ドルを資金調達

元、OpenAIの主任開発者で、創業メンバーの一人であったイリヤ・サツケヴァー氏は今年5月15日にOpenAIを離れてSSIというスタートアップを立ち上げていましたが、進捗があったようで、このようにポストしています。

山: 特定しました。登る時間です

イリヤ・サツケヴァー

彼は、ポストで、詳細はロイターの「Exclusive: OpenAI co-founder Sutskever's new safety-focused AI startup SSI raises $1 billion」という記事を見るようにいっています。

では、記事の全文を翻訳したのち解説していきます。

独占記事:OpenAI共同創設者スツケヴァーの新しい安全性重視のAIスタートアップSSI、10億ドルを調達

著:Kenrick Cai、Krystal Hu、Anna Tong
2024年9月4日 午後10:45(日本時間) 更新:1時間前

サンフランシスコ/ニューヨーク - Safe Superintelligence(SSI)は、OpenAIの元主任科学者イリヤ・サツケヴァーによって新たに共同設立され、安全な人工知能システムの開発を目的とするスタートアップです。(注01)同社は人間の能力をはるかに超えるシステムを開発するために10億ドルを調達したと、幹部たちはロイターに語りました。

現在、SSIには10人の従業員が在籍しており、資金は計算能力の取得とトップ人材の採用に使用される予定です。カリフォルニア州パロアルトとイスラエルのテルアビブに分かれて、高度に信頼できる研究者とエンジニアの小規模なチームを構築することに焦点を当てています。

同社は評価額については明らかにしませんでしたが、関係者によると50億ドルと評価されています。(注02)この資金調達は、いまだに一部の投資家が基礎的なAI研究に焦点を当てた卓越した才能に対して大規模な投資を行っていることを示しています。これに対し、多くのスタートアップ創業者が採算性のない状態が続いているため大手テクノロジー企業へ移っている現状では、AI企業への投資は減少傾向にあります。

投資家は大手ベンチャーキャピタル

投資家には、Andreessen Horowitz、Sequoia Capital、DST Global、SV Angelといった大手ベンチャーキャピタル(注03)が含まれており、Nat Friedmanが運営する投資パートナーシップNFDGと、SSIのCEOダニエル・グロスも参加しています。

「私たちのミッションを理解し、尊重し、支援してくれる投資家に囲まれることが重要です。私たちのミッションは、安全な超知能への一直線の道を作ることであり、特に市場に出す前に数年間の研究開発を行うことです」とグロスはインタビューで述べました。

サツケヴァーは主任科学者、レヴィは主科学者であり、グロスは計算能力と資金調達を担当しています。

新たな山

サツケヴァーは、「今まで取り組んでいたものとは少し違う山を見つけた」と述べ、新しいベンチャーが合理的であると説明しました。
昨年、彼はOpenAIの非営利親会社の理事会に所属しており、「コミュニケーションの断絶」によりOpenAIのCEOであるサム・アルトマンの解任を決議する側にいました。(注04)

数日以内に彼は決定を覆し、OpenAIの従業員のほぼ全員とともにアルトマンの復職と理事会の辞任を求める手紙に署名しました。しかし、この一連の出来事で彼のOpenAI内での役割は縮小し、彼は理事会から外され、5月に会社を去りました。(注05)

サツケヴァーの退任後、会社はAIが人間の知性を超える日を見越して、人間の価値観に沿ったAIを確保するために活動していた彼の「Superalignment」チームを解散しました。(注06)

SSIは通常の営利構造を採用

OpenAIのAI安全性のために設計された非正統的な企業構造とは異なり、SSIは通常の営利構造を採用しています。

SSIは現在、文化に合う人材の採用に非常に力を入れています。グロスによると、候補者が「良い性格」を持っているかどうかを確認するのに時間をかけており、資格や経験に過度に依存せず、並外れた能力を持つ人を探しています。

「シーンや話題性には興味を持たず、仕事自体に興味を持つ人を見つけるとわくわくします」と彼は付け加えました。

どの企業と提携するかは未定

SSIは、クラウドプロバイダーやチップメーカーと提携して計算能力の資金調達を行う予定ですが、どの企業と提携するかはまだ決まっていません。AIスタートアップは、インフラニーズを満たすために、MicrosoftやNvidiaのような企業と協力することがよくあります。

サツケヴァーは、AIモデルの性能が膨大な計算能力によって向上するとする「スケーリング仮説」(注07)の早期提唱者でした。このアイデアとその実行は、チップ、データセンター、エネルギーへのAI投資の波を引き起こし、ChatGPTのような生成AIの進展を支える土台を作りました。

サツケヴァーは、彼の以前の雇用主とは異なる方法でスケーリングに取り組むつもりであると述べましたが、詳細は共有しませんでした。

「みんながただ『スケーリング仮説』と言うだけです。みんなは、何をスケーリングしているのかを尋ねるのを忘れています」と彼は言いました。

「ある人々は非常に長時間働くことができ、ただ同じ道を早く進むだけです。それは私たちのスタイルではありません。でも、何か違うことをすれば、特別なことができる可能性があります。」

記事解説

注01:サツケヴァー氏のスタートアップSSIについて

ASI(スーパーインテリジェンス)の開発のみを目的としたスタートアップです。設立当初は完全なる研究機関で商用を目的としていないと明記されていましたが、今は「当社は、経営管理上の諸経費や製品サイクルに煩わされることがないよう、焦点を一点に集中しています。また、当社のビジネス モデルでは、安全性、セキュリティ、進歩がすべて短期的な商業的プレッシャーから保護されています」と変わってきており、商業活動も視野に入れているようです。詳しくは下記のページをご覧ください。

また、設立の経緯は下記のNoteに詳しく解説してありますので合わせてご覧ください。

注02:SSIの評価額

50億ドルの評価額は、OpenAIやAnthropicの設立当初の価値と比較しても非常に高い数字です。以下にそれぞれの比較を示します。

  1. OpenAI
    OpenAIは2015年に設立されましたが、当初は非営利団体としてスタートしたため、明確な評価額が設定されていませんでした。しかし、OpenAIが2019年に営利部門「OpenAI LP」を設立した際には、Microsoftから10億ドルの投資を受けました。2023年1月にMicrosoftがOpenAIに対してさらに数十億ドル規模の投資を行った際に、OpenAIの評価額が290億ドルを超えたと報じられました。現在評価額1000億円を目指して更なる資金調達を狙っています。

  2. Anthropic
    Anthropicは2021年に設立され、初期段階で約10億ドルの評価額が報告されています。その後、AIセーフティに特化した企業として注目され、2023年には評価額が40億ドル以上に達していると言われています。

  3. SSI (Safe Superintelligence)
    今回のSSIの設立当初の評価額が50億ドルというのは、これらと比べても非常に高く、特に設立からわずか3ヶ月での資金調達額や評価額は、投資家からの信頼が大きいことを示しています。特にAIの安全性に焦点を当てているため、現在の市場で非常に重要視されている分野であることが評価に影響していると考えられます。

注03:SSIに投資する大手ベンダーの他の投資先は?

SSIに投資するAndreessen Horowitz、Sequoia Capital、DST Global、SV Angelが他のAIベンダーに投資しているかどうかの情報です:

  1. Andreessen Horowitz (a16z)
    Andreessen Horowitzは非常に積極的にAI企業に投資しています。2023年には、オープンソースの大規模言語モデルを開発するMistral AIに約4億1500万ドルの資金を投じました。さらに、OpenAIにも初期から投資しており、他にもAIを活用したヘルスケアやバイオサイエンス分野のスタートアップに多くの資金を提供しています。また、AIを使ったコンテンツ生成スタートアップにも資金を注いでおり、Ideogramに1650万ドルのシード資金を投入しました​。

  2. Sequoia Capital
    Sequoia CapitalもAI企業に広く投資しています。例えば、AIセーフティに特化したスタートアップAnthropicに初期から資金を提供し、その他にも多くのAI関連企業に投資してきました。特に、生成AIや大規模言語モデルを扱う企業に注目しています。

  3. DST Global
    DST Globalもテクノロジー分野における投資を積極的に行っており、特にAI関連スタートアップへの投資でも知られています。ただし、具体的な企業名に関しては、情報が限定的です。今後の動きにも注目が集まっています。

  4. SV Angel
    SV Angelは初期投資家として数多くのテクノロジースタートアップに投資しており、AI分野でも活動を続けています。これまでに様々なAIベースの技術スタートアップを支援してきました。

注04:OpenAIのクーデター主犯格としてのサツケヴァー氏

去年11月に方向性の違いによりサツケヴァー氏が、アルトマン氏とは話し合いもなく取締役会と企てたクーデーターが失敗に終わったことは記憶に新しいです。そのクーデターはアルトマン事変とか、アルトマン・サーガとも呼ばれており、下記のNoteに詳しく解説していますので、合わせてご覧ください。

注05:OpenAIを去る事になったサツケヴァー氏

サム・アルトマンは自らを更迭しようとしたサツケヴァー氏を「人間の宝石」と呼び、OpenAIに留まる事を許していましたが、サツケヴァー氏の率いていたスーパーアライメントチームは事実上機能していなかったようです。本人の意思で今年5月にOpenAIをさった時の様子は、下記のNoteに詳しく解説していますので合わせてご覧ください。

注06:スーパーアライメントチームにかけられたスパイ容疑

アルトマン事変以降、機能していなかったと言われているスーパーアライメントチームのメンバーはのちにスパイ容疑をかけられOpenAIを離れています。その時の様子は下記のNoteに詳しく解説していますので合わせてご覧ください。

注07:サツケヴァー氏が早期提唱したスケーリング仮説とは

「スケーリング仮説(Scaling Hypothesis)」とは、AIモデル、特にディープラーニングモデルにおいて、計算能力(コンピューティングリソース)を大幅に増加させれば、それに伴ってモデルの性能が向上するという理論です。この仮説は、より大きなデータセットやより複雑なモデルを使用することで、AIシステムが人間のような知能に近づく、あるいはそれを超える結果を得られるという考え方に基づいています。

ディープラーニングが進化する中で、より多くの計算資源を投入することで、ニューラルネットワークのパフォーマンスが向上することが確認されてきました。この考え方は、2010年代以降、OpenAIやGoogle DeepMindといった企業が大規模なAIプロジェクトを推進する際に採用され、モデルを大規模化することで、自然言語処理や画像認識といったタスクにおいて劇的な性能向上が見られました。

具体例は以下の通りです:

  • GPTシリーズ: OpenAIのGPTモデルは、まさにこのスケーリング仮説の成功例です。より多くのデータと計算リソースを投入することで、GPT-3やGPT-4のような高度な言語モデルが生まれ、非常に高い精度で文章生成や質問応答ができるようになりました。

  • コンピューティングパワーの増加: この仮説を支えるのは、GPUやTPUなどの専用ハードウェアの進化と、それを支えるデータセンターの拡張です。AIモデルが大きくなるほど、計算時間やコストも飛躍的に増加しますが、それに伴い性能も飛躍的に向上します。

批判と課題:

  • エネルギー消費: スケーリングによって膨大なエネルギーとリソースが必要になるため、環境やコストの問題が指摘されています。

  • 限界: モデルを無限に大きくすれば無限に性能が向上するわけではなく、ある段階で性能向上が鈍化する可能性もあります。また、より大規模なモデルを作ることが全ての問題を解決するわけではなく、特定の課題には異なるアプローチが必要とされることもあります。


この記事が気に入ったらサポートをしてみませんか?