見出し画像

OpenAIの話とか

人間って、強化学習みたいな感じで、やっぱり短期的に報酬のあるようなものは、すぐに辞めてしまうけど、逆に短期的に報酬があるようなものは、続くというのは社会のバグであると思うから、そういうことを理解した人は、社会でうまくやっていきやすいと思う。

短期的に報酬のあるようなものっていうのは、タバコ、お酒、異性、パチンコとか、簡単に言えば短期的にドーパミンが出るようなものだよね。

短期的に報酬の出ないものの方が、意味のあるようなものである可能性が高いよねえ。例えば、こういうnoteもそうかもしれないし、最近の人工知能のモデルやプロダクトを勉強することかもしれないし、なんでも興味ありそうな本を読んでみるということもそうかもしれない。でも、まあ毎日1%成長すると1年間で37.8倍になることを考えると、少し頑張ってみるのが大事だと持って、方向性は間違っているかもしれないけど、なんか書いてみることにしよう。

間違えていることを書くかもしれないけど、それによって自分の知性や知識に謙虚になれる気がするし、自分が書くために必要な情報を調べないといけないがそれは学びになるし、時間が無駄になったり炎上して信頼が下がるかもしれなかったり以外のダウンサイドリスクはないと思って書いてみようかと思いますわ。

語学を学ぶにも、やっぱり地道な努力をするしかないかもしれない

俺の大学院は半分留学生で、コロンビア大学とか北京大学とかUC San Diegoとか一流大学出身者の人が多いから、その環境に感謝しないといけないと思って、頑張ってコミュニケーションをとっているけど、やっぱり学ぶべきことは多いなあと思う。ちなみにそこでは、中国語も英語も韓国語もフランス語も余裕で話せますみたいな人とか、モデルなんじゃないかって思うようなスタイルが良くてファッションのセンスもいい人が多くて、ずっとドメスティック育ちの自分としては、いろいろなカルチャーショックを受けるけど、同様の純ジャパの友人よりもいろんな機会があるかもしれないと思って、ありがたくその辛さを自分の成長に繋げていきたいなあという気持ちである。それで以下は本題なんだけど、

ある中国人は日本語を勉強しているんだけど、自分のiPadに地道に日本語を書いて勉強していて、やっぱりこうやって地道にやるしかないんよなあと当たり前のことを感じたよね。自分ななぜかカッコつけがちだから、そんな地道な努力を人前ではできないんだけど、やっぱりみんな努力していてすげえと思ってしまう。俺も10年くらい中国語とか韓国語とか勉強したいと思っているけど、全然喋れないから、ちゃんと習慣的に書いたりとか発音したりとかする練習をしないといけないかなあと思う。

最近のOpenAIの騒動についてまとめてみる

以下は、知り合いの有名YouTuberに台本を書こうと思ったけど、まだ遅れていないので、自分のnoteに書けばいいかという気持ちでそのまま載せますわ。

皆さん、こんにちは!今日はOpenAIの大きな騒動について、時系列に沿って詳しくお話しします。この話題、テクノロジー界でかなりの注目を集めていますよね。それでは、一連の出来事を詳しく見ていきましょう。
経緯
2023年11月17日、OpenAIのCEOであるサム・アルトマン氏が退任することが発表されました。
そもそもAltman氏は、スタートアップ支援の米Yコンビネーターで社長を務め、15年に連続起業家のイーロン・マスク氏らと非営利団体としてオープンAIを創設。約1年前の2022年11月30日にチャットGPTを公開すると、2カ月で利用者数が1億人を超え、注目の的となっていました。また、2023年11月6日には本社がある米サンフランシスコ市で初めて開発者会議を開催。16日にもアジア太平洋経済協力会議(APEC)の関連イベントに登壇し、将来的なAI規制の必要性などについて語っていました。
退任が公に発表されたのは、OpenAI社の公式Xの投稿によるものでした。投稿の中には、リーダーシップの交代について書かれた公式ブログのURLが添付され、”OpenAI announces leadership transition”と書かれた投稿がなされました。

詳しくこのサイトの内容をまとめると、次のようなことがわかりました。

  • OpenAIは、重要な経営陣の変更を発表し、サム・アルトマンCEOが役員を退任し、これまで最高技術責任者(CTO)だったミラ・ムラティが暫定CEOに任命された。

  • ムラティは、OpenAIのグローバルAIリーダーとしての発展において中心的な役割を担っており、同社の研究、製品、安全機能を監督してきた。OpenAIの取締役会は、ムラティのユニークなスキルセットと会社運営に対する理解を、彼女の任命の主な理由とする。

  • アルトマン氏の退任は、取締役会が彼のコミュニケーションが一貫して率直でなく、取締役会の責任遂行を妨げていると結論付けたことによるもの。取締役会はアルトマン氏の続投に対する信頼を失った。

  • OpenAIの共同創業者であるグレッグ・ブロックマンも取締役会の議長を辞任したが、CEOに報告する形で会社に留まる。

  • OpenAIは2015年に非営利団体として設立され、人工汎用知能が全人類に利益をもたらすことを目指してきた。2019年には資金調達を可能にするために構造を変更したが、非営利団体のミッション、ガバナンス、監督を維持している。取締役会は、OpenAIのミッションを推進し、その憲章の原則を保持するという基本的なガバナンス責任を強調する。

この発表を受け、サム・アルトマン氏自身はX(旧ツイッター)上で「私はOpenAIでの時間を愛していた。それは個人的に、そして世界にとっても少し変革的だった。何よりも、才能に溢れた人たちと働けたことが最高だった。今後の動きについては後日詳しく説明する。」と、若干皮肉を交えた投稿をしました。

取締役を外されたグレッグ・ブロックマン氏は経緯を具体的な時系列と共に投稿しました。
「サムと僕は、今日理事会がしたことに驚いて悲しんでいる。
まず、OpenAIで一緒に働いたすばらしい人たち、顧客、投資家、連絡を取ってくれた皆さんに感謝を伝えたい。
僕たちもまだ何が起こったのか正確には分かっていないが、以下が分かっていることだ:

  • 昨夜、サムはイリヤから話したいというテキストを受け取った。金曜日の正午に話すことになりました。サムはGoogle Meetに参加し、グレッグを除く全理事会がいた。イリヤはサムに解雇されること、そしてそのニュースがもうすぐ出ると告げた。

  • 午後12時19分、グレッグはイリヤから短い電話のためにテキストを受け取った。12時23分にはイリヤからGoogle Meetのリンクが送られてきた。グレッグは理事会から外されること(しかし会社にとって重要で役割は維持される)とサムが解雇されたことを告げられた。同じ頃、OpenAIはブログ投稿を公開した。

  • 知る限り、経営チームはその直後にこのことを知らされましたが、ミラだけは前の夜に知った。

支援の声が本当に嬉しい、ありがとう。ですが心配する時間を使わないでください。僕たちは大丈夫です。もっと大きなことがもうすぐ来る。」

これを見るとどうやら、Ilya Sutskeverという人物がこの事件の中心人物だったと伺えます。あとでも登場しますが彼は、AIの専門家であり、ChatGPTの基盤モデルGPT-3やGPT-4の開発を主導したOpenAIの主任研究員です。

Newsから24時間以内に起きた事
1) OpenAIのシニアリサーチャー3人が辞任
2) OpenAIの従業員が、2人(Sam, Greg)を解任・降格させた他の4人の取締役が辞任しないのであれば、自分たちも辞めると宣告
3) マイクロソフトや他のVC(セコイア、Khosla)はSamとGregを応援すると名言。OpenAIに戻るにせよ、新しい事業を始めるにせよ、彼ら2人を全面的に応援すると宣言。

4) 4人の取締役が辞任して、SamとGregをOpenAIに戻れるようにする、というリーク記事(複数)。
5) Samが "i love the openai team so much" と投稿

MSの関与の可能性は?
MicrosoftとOpenAIの関係は2016年に始まり、2019年にMicrosoftが10億ドルを投資して一層強化されました。このパートナーシップは、AI技術の開発、特にAzure AIスーパーコンピューターの構築とOpenAIのモデルをMicrosoftの製品に統合することを含んでおり、MicrosoftはOpenAIの独占的なクラウドプロバイダーとなり、OpenAIの研究や製品、APIサービスを支えることになり、いわばWIN-WINの関係になりました。2022年には、Microsoftがさらに100億ドルを投資する話し合いが行われ、結局MicrosoftはOpenAIの株式の49%を所有し残りの株式は、他のステークホルダーが49%を所有し、OpenAIの非営利親会社が2%を保有しています。

https://www.techopedia.com/who-owns-openai#:~:text=Today%2C%20the%20ownership%20pie%20is,continues%20to%20write%20OpenAI%20history

そう言った経緯もあり、当初はMicrosoftからの圧力だったのではないかという憶測があり、MS CEO Satya Nadella氏のXにも、当初多くの批判が集まりました。しかし、サム・アルトマン氏には30分前、MSには1分前に知らされたという情報があり、これは取締役を追放された、グレッグ・ブロックマン氏の投稿との事実確認が取れるために、MSの関与の可能性は低いと考えられます。


また、最近CNBCが投稿したYouTubeでMicrosoft CEOのSatya Nadella氏がインタビューに答えたビデオでは、サム・アルトマン氏に関する騒動について青天の霹靂だったと、MSの関与を否定してしています。

当時の取締役メンバー
OpenAIの取締役会の構成ですが、2015年の発足時には共同議長のイーロン・マスクとサム・アルトマンの2名でした。2017年までに、クリス・クラーク(OpenAIの最初のCOO)とホールデン・カーノフスキー(効果的な慈善研究と助成の機関、Open Philanthropyの創設者)が加わり、4名に。その後、2017年末にはグレッグ・ブロックマン(元OpenAI社長)とイリヤ・スツケバー(OpenAIのチーフサイエンティスト)が加わりました。2018年と2019年には、アダム・ディアンジェロ(Quora創業者兼CEO)、リード・ホフマン(LinkedIn創業者)、テクノロジー起業家のタシャ・マッコーリー、そしてヌーラリンクの幹部シヴォン・ジリスが加わり、2021年には、共和党の下院議員ウィル・ハードとヘレン・トナー(ジョージタウン大学のセキュリティと新興技術センターのディレクター)が加わり、カーノフスキー、リード・ホフマン、ジリス、ハードが取締役会から退任し他ので、2023年時点での取締役会メンバーは以下の6名でした:
サム・アルトマン(CEO)
グレッグ・ブロックマン(社長、共同創業者)
イリヤ・スツケバー(共同創業者、チーフサイエンティスト)
アダム・ディアンジェロ
タシャ・マッコーリー(起業家、ロボット専門家)
ヘレン・トナー(AI研究の研究資金供給機関のディレクター)
ちなみにCTOだったMira Murati氏は、OpenAIの取締役会のメンバーではありませんでした。

AltmanとGregのMS移籍
2023年11月19日に驚くべき展開がありました。なんとアルトマン氏とブロックマン氏が、マイクロソフトに加わることが明らかにされたんです。これは、マイクロソフトのCEO、サティア・ナデラ氏がX上で発表しました。

複数のOpenAI従業員もマイクロソフトに移る予定です。11月20日にはSam Altmanが以下のような投稿をし、SamがOpenAIに戻るためにguestストラップを首から下げてOpenAIを訪問したのではないかという憶測もありましたが、結局戻ることできませんでした。

“first and last time i ever wear one of these”

一方、OpenAIは新CEOとして、Twitchの元CEO、エメット・シア氏を迎えました。シア氏は、アルトマン氏の解任の経緯について調査することを明らかにし、30日以内に報告書を作成すると発表していますが、結果がどう出るかはまだ不透明です。
さらに、この一連の動きによって、オープンAIの社員の約9割が、取締役会に総退陣を求め、アルトマン氏らの復帰を要求しています。770人のうち、約730人およそ95%のOpenAI従業員(最初に暫定CEOに任命されたMira, Llyaを含む)が「4人の取締役が辞任して、SamとGregを取締役に戻さない限り、マイクロソフトに移籍する」というレターに署名し、社員の「反乱」とも言える重大な局面になっています。

このような混乱した状況を受け、流石のSutskever氏も以下のように、彼自身の行動を後悔しているようでした。

一方2015年にOpenAIをサム・アルトマン氏とともに創設したElon Musk氏は、イリヤ・スツケバーの決断に理解を示し、「なぜそんなに大胆な行動をとったのか?もしOpenAIが人類にとって危険な可能性のあることをしているなら、世界中の人々がそれを知る必要がある。」と返信しました。
https://x.com/elonmusk/status/1726753202786173249?s=20

さて、この騒動の根本的な原因は一体何だったのでしょうか?一般的な株式会社であれば、取締役は株主の利益最大化のために行動しますが、構造的な原因があったと言える組織構造があったのでした。
実は、OpenAIは元々2015年に非営利の研究組織として設立されましたが、19年に営利企業を設立し、マイクロソフトからの投資を受け入れることになり、この営利企業と非営利部門の間の対立があり、そしてAIの安全性を重視する取締役会と、ビジネス拡大を進めるアルトマン氏との間の溝が、今回の騒動の大きな要因となっています。アルトマン氏の解任の背景には、ビジネス方針とAIの安全性を巡る対立があったのです。アルトマン氏は、ビジネス拡大を進め、チャットGPTの商用化を推進しましたが、これがAIの安全性を重視するSutskever氏などの取締役会との間の溝を深めたと考えられています。
OpenAIの組織構造
そもそもOpenAIの組織構造は、2015年に設立された非営利のオープンAIと、その後設立された「capped profit」(利益制限)のある営利部門との間のパートナーシップから成り立っています。この構造は、人類全体に利益をもたらし、安全な人工一般知能(AGI)を構築するというOpenAIの使命を達成するために設計されました。
2019年、オープンAIは非営利部門の設立から約3年後に、「capped profit」構造を発表しました。この構造は、AGIを構築するプロジェクトが資本集約型であることを認識し、必要な資本を調達するために導入されました。
当初、OpenAIは1億ドルの寄付コミットメントを目指しましたが、非営利部門は約1億3050万ドルの寄付を受け取り、初期の探索的研究に資金を提供しました。しかし、研究を進めるためには寄付だけでは不十分であることが明らかになり、OpenAIは新たな構造を考案しました。この新構造では、非営利部門がその使命、ガバナンス、および監督機能を保持しつつ、営利部門が資本を調達し、世界クラスの人材を雇用する能力を持つようになりました。営利部門は非営利部門の使命を遂行するために設立され、研究、開発、商業化などの主要な業務を行います。
営利部門の株式構造には、投資家や従業員への最大金融リターンを制限するキャップが設けられ、商業性と安全性、持続可能性のバランスをとるためのインセンティブが提供されています。非営利部門は、その取締役会を通じてすべての活動を監督し、広範な慈善活動を続けています。
この新しい構造では、非営利部門がAGIの開発を中心に据え、営利部門が必要なリソースを提供する役割を担います。また、2019年に発表されたMicrosoftとの戦略的パートナーシップを通じて、OpenAIは独立した会社として運営されており、Microsoftには取締役の席や支配権がありません。
OpenAIの取締役会は、グレッグ・ブロックマン(会長兼社長)、イリヤ・サツケバー(チーフサイエンティスト)、サム・アルトマン(CEO)を含む非従業員から成り立っています。この取締役会は、AGIが構築されるまでの間、Microsoftとの商業および知的財産ライセンス契約からAGI技術を明示的に除外しています。
オープンAIの社員たちの行動は、この企業の特殊な統治構造に大きく関係していました。元々は非営利の研究組織として設立されたオープンAIですが、開発費の捻出を目的に営利企業を設立し、外部からの投資を受け入れた結果、この営利企業と非営利部門の間の対立が今回の騒動を引き起こしたと考えられています。
つまり、マイクロソフトやVCなどの株主の許可を取らずに、取締役(Sam CEO, Greg)を解任できるはずがないという誤解がありますが、OpenAIという組織は非常に特殊な構造になっており、まず、Non-profit(非営利)組織が親会社として存在します。今回の解任劇はここでの話で、このNon-profitは、所謂株式会社ではないため、株主価値の最大化という概念は存在せず、取締役が全てを決めることができたわけです。このNon-profitの下に、For-profitの会社が存在し、マイクロソフトやVCはこの子会社の株主です。従って、彼ら子会社の株主が親会社(Non-profit)の人事に口出しできるはずがない、というのが建前です。

事の結末

また、samが、OpenAIに復帰するという報道。

「We have reached an agreement in principle for Sam Altman to return to OpenAI as CEO with a new initial board of Bret Taylor (Chair), Larry Summers, and Adam D'Angelo.  We are collaborating to figure out the details. Thank you so much for your patience through this.
私たちは原則として、サム・オルトマンがブレット・テイラー(議長)、ラリー・サマーズ、アダム・ディアンジェロからなる新しい取締役と共にOpenAIのCEOとして復帰することで合意に達しました。詳細については協力して検討中です。この間のご辛抱に心から感謝申し上げます。」

今回の出来事から学ぶこと
Khosla Venturesの創業者Vinod KhoslaがThe Informationの記事で書いていましたが、やはり取締役というのは重要だ、という話がありそうですよね。今回の場合、世界で最も時価総額が高い非上場企業であるOpenAIの取締役の人員構成が、規模に見合わなかったという話がある気がしますね。OpenAI設立当初の人選としては良かったのかもしれませんが、少なくても今のOpenAIをマネージできるレベルの人材ではなかったという点に尽きると個人的には思います。会社のステージにあわせて、取締役の人選も変えていかねれならないのかもしれないですね。

Sutskever氏の行動の意味
しかし、多くの人が、Sutskever氏がなぜあのような行動を起こしたのか疑問に思うはずです。例えば、以下のような投稿をしている人もいます。

実は今回の騒動の発端となった、Ilya Sutskever氏は動画メディアで以下のようなことを言っていました。
ちなみに、Ilya Sutskever氏はChatGPT開発の第一人者として知られており、人工知能の父と言われるトロント大学のGeoffrey Everest Hinton教授に師事したあと、Googleの研究所などで働いた経験を持ち、今回の騒動の発端となった人物です。

「AIは私たちが今直面しているすべての問題を解決するでしょう。
雇用を解決し、病気を解決し、貧困を解決します。
しかし、新しい問題も生み出すでしょう。
偽ニュースの問題は100万倍悪化するでしょう。
サイバー攻撃ははるかに激しくなります。
完全自動化されたAI兵器が登場するでしょう。
AIは無限に安定した独裁政権を生み出す可能性があると思います。
私の立場は、AGIがすぐに起こる可能性が十分に高いため、真剣に受け止めるべきだということです。

そして、非常に賢く能力のあるこれらのシステムを、私たちの最善の利益に沿って行動させることが非常に重要になるでしょう。
最初のAGIは、基本的に非常に大きなデータセンターになるでしょう。
並列動作する専用のニューラルネットワークプロセッサで満たされます。
コンパクトで熱く、電力を食うパッケージ、家庭用の電力の1000万倍を消費します。

はるかに賢いシステムが登場するでしょう。
そして、それらのシステムは社会に完全に天文学的な影響を与える可能性が高いと思います。
人間は実際に利益を得るでしょうか?
誰が利益を得て、誰が得ないのでしょうか?
最初のAGIの信念と願望は非常に重要です。
だから、それらを正しくプログラムすることが重要です。

これが行われなければ、自然選択の進化の性質として、AIシステムが自己の生存を何よりも優先するようになるでしょう。

AIが積極的に人間を憎んで害を加えたいというわけではありませんが、その力はあまりにも強力になります。
人間が動物を扱う方法に似た良い例えがあると思います。人間が動物を嫌っているわけではないと思います。人間は動物を愛し、それに多くの愛情を持っていますが、二つの都市間に高速道路を建設する時が来たら、動物たちの許可を求めずにそれを行います。なぜなら、それは私たち人間にとって重要だからです。

きちんとアラインメントされずにデフォルトのままでは、私たちと完全に自律的で自己のために動作するAGIとの関係が、このような種類のものになるだろうと思っています。」

と語っています。また最近の動画においては、このように述べました。

「OpenAIを創設した私の動機の一つは、この技術を開発することに加えて、AGIが提起する難問、私たちが提起した懸念に対処することでした。政府と協力し、何が来ているのかを理解し、それに備える手助けをするだけでなく、AIが独走したくないようにするための技術的な側面に関する多くの研究も行っています。これも私が取り組んでいることの一つです。しかし、AIとAGIは多くの興奮、多くの投資があり、誰もが取り組んでおり、世界中に同じものを構築しようとする多くの研究所があることに注意すべきです。OpenAIが私が述べた望ましいステップを踏むとしても、他の会社は望まれたステップを踏めるでしょうか?ここで、私が観察したい力学が存在します。
その観察は次のとおりです:1年前の世界を考えてみてください。わずか1年前、人々は現在のようにAIについて話していませんでした。何が起こったのか?私たちはコンピューターと話し、理解されることを体験しました。コンピューターが本当に賢くなり、最終的には私たちよりも賢くなるという考えが広まっています。これは以前はAIに非常に興味を持つ一部の熱心な愛好家や趣味人だけが考えていたニッチな考えでしたが、今では誰もがそれについて考えています。AIが進歩を続け、技術が進むにつれて、ますます多くの人がAIができることとその向かっている方向を見ると、AGIがいかに劇的で、信じられないがそれはまるでファンタジーのような凄さであると、明らかになります。

私が心配するのは、人々が自己利益のために前例のない協力的な方法で行動し始めるだろうということで、実際それはすでに起きています。先導するAGI企業が協力し始めているのを見てください。具体的な例としては、フロンティアモデルフォーラムを通じてです。そして、競合他社である企業がAIを安全にするために技術情報を共有すると期待されています。政府がこれを行うことも見られるかもしれません。もう一つの例として、OpenAIでは、AGIがいかに劇的になるかを本当に信じています。だから、私たちが運営しているアイデアの一つは、5年前から私たちのウェブサイトに書かれていますが、技術が人間よりも賢いコンピューター、AGIに非常に近づいたとき、もし他の企業が私たちよりもはるかに進んでいるなら、彼らと競争するのではなく、彼らを助け、ある意味で彼らに加わることです。なぜそうするのか?それは、私たちがAGIがいかに劇的になるかを非常に評価しているからです。」
サム・アルトマン氏のことを憐れむ声は社内外で多数派でしたし、実際に彼はCEOに返り咲きました。もしSamやAI企業の経営者たちがかつての人類史で起こったように、絶大なパワーを望み多くの人からの支持を集めた末に、取り返しのつかない事態を引き起こしてしまったら?Samの最近のtweetを見ると、そんな未来もあり得てしまうのではないかと妄想してしまう人もいるかもしれません。

Helen Toner co writes paper, October
Helen Tonerという騒動前の取締役がOpenAIについて批判していたりと、まあ積もったものが爆発したという感じもあるんでしょうかね。

皆さんはどう考えますか?コメント欄で教えてください、ご視聴ありがとうございました。



この記事が気に入ったらサポートをしてみませんか?