OpenAIの元取締役ヘレン・トナーは、サム・アルトマンがCEOを解任された際の出来事を暴露し、アルトマンがY Combinatorから解雇されたことやChatGPTのリリースについて取締役会に知らされていなかったことを主張しました。しかし、OpenAIの取締役会とY Combinatorのポール・グレアムは、これを否定しています。一方、トナーが関わるEffective Altruism(EA)は、AIのリスクを強調し、AI開発を制限すべきだと主張しています。彼らは過激な思想を持ち、AIの即時停止を求めていますが、専門家はこの主張に疑問を呈しています。EAの影響力が拡大する中、AIの安全性と規制のバランスが重要だとされています。
公開日:2024年6月1日
※動画を再生してから読むのがオススメです。
大きなAIのニュースがありました。
OpenAIの元取締役が、サム・アルトマンの解任時に実際に起こったことについて公に語り始めました。
私たちは数日前にそれを取り上げました。
彼女の名前はヘレン・トナーです。
しかし今日は、OpenAIの反応と、彼女の主張の一部が真実であるかどうかについて意見を述べるその他の人々からの意見も得られます。
それを見てみましょう。
しかし、それをする前に、エリーザー・ユドコウスキーの30秒のクリップを聞いて、彼が言っていることに同意しますか?
彼がAIをどのように規制すべきだと考えていることに同意しますか?
今日聞く内容に対するあなたの感じ方は、彼が言っていることに同意するかどうかに大きく左右されます。
この種の研究開発を法律で禁止すべきですか?
基本的に、私はすべてのGPUを追跡し、すべてのAI、すべてのトレーニングテクノロジーが監視され、監督され、ライセンスされたデータセンターにのみ集まるための国際的な取り決めを持つべきだと考えています。そして、GPT-4よりも強力なトレーニングランを許可しないようにします。
その推論の全体的なラインは、規制することが超知能からあなたを守るわけではないということです。
それはむしろ、後で人々が考えを変えることを望んでいる、おそらく誰もが死なないような大規模な災害の後に。
あなたは超知能と取り組むためにオフスイッチを押すのが好きではありません。
超知能は、あなたがすでに死んでいるときにオフスイッチを押す必要があることをあなたに知らせません。
AGIは一度だけやってきます。
購読してください。
ヘレン・トナーが出てきて、サム・アルトマンが解雇されたOpenAIの騒動中に何が起こったか暴露します。
多くの人々が関与して、状況を管理し、今後OpenAIを運営するのは誰かを考える必要がありました。
私には明らかなことの一つは、この件を追っているコミュニティ、あなた、私、他の誰も、実際に何が起こったのか、誰が悪いのか、誰が責任を負うべきなのか、誰が真実を言っているのか、誰が正直であるのかについて非常に分かれているということです。
ヘレン・トナーのインタビューでの大きな爆弾発言の種類は以下の通りでした。
多くの人々が引用している最も大きなものは、TwitterでChatGPTについて知ったという事実です。
彼女が使用した言葉は、ChatGPTについての情報が隠されていたことを指摘するためのものでした。これはAI技術の大きな新しいブレークスルーでした。
また、彼女は、サムが欺瞞的で混沌とした行動の歴史があると述べました。
おそらく彼女は誰かの言葉を引用していたかもしれませんが、彼女は彼がY Combinatorから解雇されたと述べていました。
彼は元のスタートアップであるLoopedから解雇され、また、サムはOpenAIスタートアップファンドを所有していることを取締役会に報告していなかったとも述べていました。
私たちはすでにそのインタビューを取り上げていますが、その後、実際に起こっていることについてさらに多くの発言がありました。
一部の人々は、これらの主張に対して返答する機会がありました。
今日は、それを見てみましょう。
残念ながら、多くの人々が、これが何種類かの部族的なものになりつつあるように思えますね。
赤チーム、青チームがあり、自分が勝つと思う人々を応援しているだけです。
ここで正しいアプローチなのかどうかはわかりません。
最初に出会うよりも、ここにはかなりのグレーゾーンがあると気づくでしょう。
しかし、見てみましょう。
まず、こちらがOpenAIの取締役会です。
現在の取締役会がヘレン・トナーの主張に対して反応しています。
トナーさんとマッコーリーさんがOpenAIで起きた出来事について述べた主張を受け入れていないと述べています。
サム・アルトマンの解雇後にキックされた2人の取締役がいました。
彼らは、アルトマン氏の強制辞任に至る出来事についての外部レビューを依頼した最初のステップを踏んだと述べています。
これは事実です。
彼らは、彼らがそれを呼ぶように、一流の法律事務所を雇った。
私たちは、これが起こったときにこれをカバーしました、ウィルマーヘイル。
彼らがその調査を主導した。
彼らは、OpenAIの前の取締役会のメンバー、ミス・トナーやミス・マコーリー、前の取締役会のOpenAIエグゼクティブアドバイザー、その他関係者を含む数十のインタビューを行い、30万以上の文書をレビューし、さまざまな企業行動を評価しました。
トナーとマッコーリーの両名が、その調査に十分な意見を提供しました。
そこで、AIの安全性に関する懸念がアルトマンの交代を必要とするものであるという考えを否定し、法的会社が、前の取締役会の決定が製品の安全性やセキュリティ、開発のペース、OpenAIの財務状況、投資家、顧客、ビジネスパートナーへの声明に関する懸念から生じたものではないと結論づけました。
彼らは、トナーが前進する代わりに、ウィルマーヘイル主導の調査で徹底的に検証された問題を繰り返し検討し続けていることを遺憾に思っています。
トナーは、報道で主張を続けていますが、今ではおそらく覚えにくいかもしれませんが、OpenAIは2022年11月にChadGPTをリリースしました。これは、会話の設定でどれだけモデルが有用かを学ぶための研究プロジェクトでした。
それは、当時すでに8か月以上利用可能だった既存のAIモデルであるGPT-3.5をベースに構築されました。
この技術が利用可能であったということを理解することは重要です。
誰もがそれについて知っていました。
例えば、Jarvis AIというような企業がありました。たしかそう呼ばれていたと思います。
彼らは名前をJasper AIに変更したと思いますが、基本的にはSEO最適化された記事を書くためのものでした。
彼らは長い間、GPT-3.5を利用していました。
OpenAIのYouTubeチャンネルを見ると、これは2年前のことです。
これは2021年8月10日のことでした。
それは2年前以上のように思えます。
これは、イリヤ・サツキヴァーとグレッグがここで発表しているOpenAIコーデックスであり、すでに前後のようなチャットアプリケーションに似ています。
しかし、これはコーディング用です。
これはコーデックスであり、人々を参加させ、APIを使用し、自分のニーズに合わせて使用するよう招待しています。
新しくリリースされたものは実際には何もなかったです。
ChatGPTはちょっとしたデモでした。
誰もそれが今のように大ヒットするとは思っていませんでした。
すでに存在していた技術を取り入れたもので、多くの人が認識していることを願っています。
取締役会にいる場合、会社が何に取り組んでいるかを認識していたことを願っています。
それをただチャット形式にパッケージ化して、研究目的で公開しました。
再び大ヒットしました。
誰もが史上最も急成長するアプリになるとは思っていなかったと思います。
それが起こることを予測することが可能だったと思いますか?
イーロン・マスクがそれが怖いほど優れていると投稿していたのを覚えています。
それが私が最初に試してみるきっかけになったと思います。
彼女がTwitterでChatGPTを知ったと言っていたが、それが具体的に何を意味するのかはよくわかりません。
会社で何が起こっているかに注意を払っていなかったのか、それとも、すべての技術が利用可能だったため、彼女はただ気づかなかったのかもしれません。
それらは一般に利用可能でした。
プレイグラウンドがありました。
APIがありました。
変わったのはユーザーインターフェースだけでした。
そのユーザーインターフェースは誰にでも合致しました。
それは何が可能かを誰もが目にすることができるようにしました。
彼女が真実を言っていると思います。
それを人々が再投稿している理由は、それが非常に怖いと聞こえるからです。彼女はこの製品がリリースされたことを知らなかったように、すでにリリースされていたということです。
それはただ異なるUIが実装されたものでした。
私はそれが公平なことだと思います。なぜなら、再び、遊び場であるウェブページはすでに利用可能だったからです。
APIはすでに利用可能でした。
それは私にとって疑わしい主張に思える彼女が述べた第一のポイントです。
それは実際にはそんなに感動的に聞こえるように作られているかもしれません。
私は確信が持てませんが、何かが少し怪しいと感じます。
しかし、続けましょう。
彼女はまた、サム・アルトマンがY Combinatorからその欺瞞的で混沌とした行動のために解雇されたと言いました。
昨日、たくさんの新聞がポール・グレアムがサム・アルトマンをY Combinatorから解雇したという彼らの記事を掲載しました。
サム・アルトマンにとって若きテックグルーのメンター的存在であったグレアムは、イギリスからサンフランシスコに飛んで、彼の弟子を解雇するために個人的にやってきました。
こちらがワシントン・ポストです。
アルトマンの極端な過去は、彼を解雇する理由を開示するボードの目を開かせることを示唆しています。
それはグレアムがイギリスからサンフランシスコに飛んで、彼の弟子を解雇したという同じことを述べています。
彼はサム・アルトマンを解雇しました。
続ける前に、これらの新聞が言っていることがそれですか、同意できますか?
これが、もし誰かに要約しなければならない場合に与えられる印象ですか、それはここに書かれていることの正確な要約になりますか?
そう思います。
ここにその問題があります。
ポール・グレアムは今日、実際に何が起こったかについてコメントしました。
彼は、「Y Combinatorがサムを解雇したという話を聞くのに飽きた」と言った。
実際に何年もの間起こっていたことがこちらです。
彼はYCとOpenAIの両方を運営していましたが、OpenAIが営利子会社を持つことと、サムがCEOになることを発表したとき、私たちは、具体的にはジェシカが、もし彼がOpenAIに専念するつもりなら、YCを運営する別の人を見つけるべきだと彼に伝えました。
彼は同意しました。
もし彼がOpenAIのCEOを別の人に見つけると言ったら、YCに100%集中できると言ったら、私たちはそれでも大丈夫でした。
私たちは彼が片方を選ぶために去ることを望んでいませんでした。
コメントで何人かの人が、それが解雇ということだろう、と言おうとしていますが、それは同じことです。
それは同じことです。
ポールは、「いいえ、彼が残ってOpenAIを運営する別の人を見つけたら幸せだったでしょう」と答えます。
読めないのですか?
もし人が会社を運営し続けることに問題がないなら、問題は単に分散した焦点や利益相反を避けたいということであるなら、あなたは、「ねえ、ここに100%いるか、そこに100%いるか」と言っているのです。
彼らが会社を100%運営することに問題がないなら、それは解雇とは違います。
それは、ワシントンポストが言うように、彼をクビにすることとは違います。
それをどのように表現するつもりですか?
ここではそうはなりませんでした。
再び、私にとっては、みんながヘレン・トナーから買い取った別の嘘のように思えます。
昨日取り上げたように、ここで問題となっているのは、彼女が何らかの関係を持っている組織の中には、明確にメンバーに話すべきポイントがあるということです。
実際に私たちが信じていることがこちらです。
一方では、もう一方では、私たちが一般の人々に向けた話すポイントがこちらです。
Nathan Lansによるポストがあり、ポール・グレアムがサム・アレンがY Combinatorから解雇されたという話は真実ではないと言っています。
私は、サムについて悪いことを想像している人が多いケースがあると思いますが、それはおそらく真実ではない可能性があります。
私はサムに会ったことはありませんが、彼についてはいつも素晴らしいことしか聞いたことがありません。
ほとんどの人が、彼が会った中で最も親切で知的な人の1人だと言っています。OpenAIで起こっている多くのことの前に、サム・アルトマンについてはいつも良いことしか聞かなかったでしょう。
しかし、私個人としては、これらのハイチャージ人物の中には、いわゆる「親切ではない」人もいても驚かないと思います。
これらの目標に本気で取り組むためには、少しキラー気質である必要があると思います。
スティーブ・ジョブズを見てください。
彼の伝記が発売され、彼がどんな人だったかを知り始めたとき。
以前から噂はありましたが、彼はあまりいい人ではなかったです。
人々はいつも彼を本当に愛していたわけではありませんでした。
実際、彼と密接に働いた一部の人々は、後で彼と一緒に働くのが好きではなかったと言いましたが、その時は彼らが自分自身からより多くを引き出し、より多くを達成したと振り返っています。
出力は、彼らがどれだけ押されたかによって、はるかに優れていました。
イーロン・マスクも同じですよね?
彼について最近出版された本は、悪魔モードと呼ばれる、特定のプロジェクトを進めるために彼が陥る怒りについて語っています。
ビル・ゲイツもいい人ではありませんでした。
私たちはいつも、すべての可能性に逆らって多くを達成するこれらのハイチャージ人物が、超スーパーな人ではないと驚いています。
エレン・デジェネレス、彼女がスタッフに対して最高の人ではないかもしれないという話が出たときを覚えていますか?人々は驚きましたが、彼女はとても上手に踊ります。
彼女はいつも小さな幸せなダンスをします。
彼女が悪い人であるはずがありませんよね?
これらすべては、必ずしもサム・アルトマンを擁護しているわけではないと言うつもりであり、彼が聖人であり、それに反対する人が悪者であるとは言っていません。サム・アルトマンが好きでないし、彼が事を運営する方法に異議を唱えても構いません。
このビデオの目的は、それをあなたに思いとどまらせることではありません。
言いたいのは、特に特定の動機を持って押し通したい人々が言うことにはすべて鵜呑みにしないでほしいということです。
実際に自分の動機を言うと、人々を説得するのは難しいかもしれませんね。
その辺りについては、もう少し話し合いましょう。
こちらがリック・バートンです。
この人物は私には馴染みがありません。
これはあくまで一つの意見として受け取ってください。
しかし、彼はヘレン・トナーに反対して発言した人物です。「私はヘレン・トナーと同じコミュニティに住んでいました」と言っています。
彼女がどんな人物かをお話ししましょう。
ヘレンは学問界が提供する最悪のものです。
彼女は意見が行動よりも重要だと考えています。
彼女が中国についてのお世辞を書いている間、サム・アルトマンは働いていました。
彼女はOpenAIの理事会に運良く入り、クーデターを起こしました。
ヘレン・トナーは価値を破壊しました。
彼女は何も価値あるものを生み出していません。
彼女は公開討論に対して開かれていません。
彼女は自分の消えゆく声を使ってサムを傷つけようとしています。
ヘレンは最初の日から理事会が何をするかを完全に誤解していました。
それはしたがって四半期ごとの監督とCEOに対するチェックとしての行動です。
彼女は決してサムにフィードバックを与えませんでした。
彼女はただ彼を解雇しようとしました。
これは、有能な取締役会が行うことではありません。
彼らは問題に取り組みます。
再び、インタビューで話しているように、彼らはサムが解雇について聞いた場合、何らかの情報を得た場合、どうやってそれに対抗しようとするだろうと仮定しています。
彼らはわざとそう設定しました。彼がそれについて何の知識も持たないように。
彼らは彼に警告しませんでした。
彼らは彼と話しませんでした。
私が見る限り、彼らは問題を解決しようとすることは決してありませんでした。
もう一度、もし取締役会が四半期ごとの監督のためにあるなら、そうですね、彼らはおそらく彼女にUIの変更ごとやアプリのリリースごとに報告していないでしょう。
彼女はGPT-3.5やそれより前のGPT-3について知っていたに違いありません。なぜなら、それはChatGPTのリリースの8〜10ヶ月前にありました。それは再びUIの変更でした。
今は私たちにとって大きく見えるかもしれませんが、その技術はすべてそこにありました。
公開されたラッパーだけが予想以上に人気がありました。
EA(Effective Altruist)の背景を持つ人々が心配されている理由の1つは、たとえば、NISTの多くの人々がEA AI研究者の予想される任命に反乱するだろうということです。
その理由は、これらの組織が持っている信念の多くは、おそらくあなたと私が共有している信念ではないということです。
彼らが信じていることは、世界の集合的な取り組みを出し抜くAI超知能を構築するのは数か月または数年先だけだということですね。
私たちは、AI超知能を持つ可能性が数か月先にあるかもしれません。
それはどういう意味ですか?
エリザ・ユドコフスキーによると、悪性AIを止めるには核武装した国々の間で戦争が必要であれば、それは支払う価値のある代償でしょう。
その考え方に賛成ですか?
例えば、AIを無期限に停止し、進歩を停止し、誰もAIの研究や作業を行えないようにGPUをすべて制御しようとするべきでしょうか?
他の国々を監視して、彼らがそれを行っていないことを確認するべきでしょうか?
もしそうなら、核戦争は彼らを停止させるための選択肢であり、AIの開発を防ぐための手段となる可能性がある。
その声明に同意しますか?
ところで、これは私が持ってきたpolitical.comです。
それは続いています。
AI黙示録の利益は、テック関連の資金の大量流入と、数十億ドルの暗号資金によって押し上げられています。そして、効果的な利他主義の原因の主要な資金提供者であるオープン・フィランソロピーを通じて、その多くが流れています。
「ワシントンの1人のバイオセキュリティ研究者は、それは壮大な浸透だと言っていますね。」
多くのEAの人々、この運動のメンバーは、だいたい白人で、典型的には男性で、しばしば特権のある背景から来ています。
彼女の多くの仲間と同様、コネルはEAをカルトだと呼んでいますね?
サム・ベックマン・フリードは、ある人々が言うように、その一部である、そうでしょう?
彼は、顧客から最大で100億を盗んだとして有罪判決を受けています。
彼らは文字通り、世界を救っていると信じています。
それが彼らの使命です。
これらの効果的な利他主義者は、本当にAI安全について言っていることを信じています。
数ヶ月または数年以内に、今すぐその進行を止めなければ、人類の絶滅を引き起こす可能性があるという考え。
これがそのすべての問題です。
これは、もっと多くの人々が理解してほしいと思うことであり、彼ら自身をAI安全の一部であると呼んでいることです。
「彼らは、AIの終末論者、AI黙示録ターミネーター2と言う代わりに、AIが私たち全員をペーパークリップに変えると言っているんですよ。」
彼らは、ワシントンの多くの長年のAIおよびバイオセキュリティ研究者が言うように、彼らの存在しないAIへの懸念を裏付ける証拠がはるかに多いと言います。
ほとんどの人が、いつか存在的リスクが現れる可能性を認めていますが、それまでにはほとんど証拠がないと言っています。
何か証拠はありますか?
しかし、彼らは、将来のAIがバイオテクノロジーと組み合わせてもそのような破壊を引き起こす証拠はほとんどないと言っています。
ここでのポイントは、ターミネーターロボットが通りを行進するよりも、私たちにははるかに緊急の懸念があるということです。
はい、私たちはそれに気をつける必要があります。
はい、我々は、ローグAIのリスクなどを無視していないことを確認する必要があります。
しかし、AIがさまざまなソフトウェア、さまざまなビジネス、さまざまな政府機関に導入されるにつれて、その使用方法について非常に緊急で非常に現実的な懸念があります。
これらの終末論的なシナリオは、その議論をゆがめています。
それらは、私たちを実際に重要な問題から遠ざけています。
車や自動車の安全性など、車両の安全性を規制しようとしていると想像してみてください。シートベルト、十分なライトやクランプルゾーンなど、自動車の安全機能を確認すること。
しかし、実際には、車の安全性を定義したのは、車は危険だからすべての車を永遠になくさなければならないという信念を持っているという他のグループがワシントンを徐々に支配していました。
通常の理にかなった人々が車をより安全にするよう努めている一方で、他の人々は車をより安全にしたいと言っていますが、実際の目標は、いつか車が立ち上がって誰もを殺すという信念を持っているため、実際にはそれらをすべてなくしたいと考えています。
おそらく、そのような人々に規制を行わせたくないでしょう。
ここに、MozillaフェローでありバークレーのAI研究者であるデボラ・ラジの例があります。彼女の研究は、AIがマージナライズされたコミュニティに害を及ぼす方法に焦点を当てています。
しかし、それは、大規模言語モデル(大規模言語モデル)のようなChatGPTが生物兵器の開発を加速させる可能性があると示唆したオープン・フィランソロピーによって資金提供された研究者によって完全に影を落とされました。
ラジは言っています、まあ、もし少しオンラインで調べてみれば、Googleでそのような情報を見つけることができます。
努力すれば大規模言語モデルにその情報を吐き出させることができるという事実は、それについて特別なことは何もないということです。
しかし、彼女の研究は、AI終末論的なシナリオに懸念を抱いているこれらの他の研究者が持っている資金を持っていないため、置き去りにされています。
EAsがそのメッセージを国の首都のあらゆる角にもたらす中、専門家たちは、テクノロジーによってもたらされる存続の危険に焦点を当てることで、多くの組織を横断して研究者たちを駆り立て、より確かな経験的根拠を持つ他の問題を排除することに警告しています。
AIセーフティと呼ばれることはしたくないと、別の研究者が言っています。
その言葉は今や汚れてしまっています。
彼らはシステムセーフティやシステムエンジニアなど、異なる呼び方をしたいと考えていますね。
今AIセーフティと言うと、本当に証拠があまりないことについて心配するカルトのような組織に結びつけられてしまうかもしれません。
ちなみに、Anthropicの創設者たちは以前、EAの一部だと考えていたようです。
彼らは、その運動から距離を置こうとしているようですね。
こちらは、ハーバード大学の認知科学者であるSteven Pinkerが、EAの移行について述べていて、アフリカでの命を救うことから、再び、それが彼らが世界や人類のために善を行おうと始めたところである、貧困を減らし、苦しみを減らすなど。
アフリカでの命を救うことから、AIが私たちをペーパークリップに変えるかどうかを心配する脳天才に支払うことになったのは、使命の逸脱ではないかもしれませんが、魅力的な取引ではないでしょうか。
EAの中心的な考え方は依然として妥当であり、その慈善団体のいくつかは称賛に値します。
私は、その運動が自らの進むべき方向を取り戻すことを願っています。
こちらは、Yalan Kunが述べているように、AIドゥーマリズムは一種の黙示録的なカルトです。
なぜ、その最も熱心な支持者たちは、科学のために離れた超宗教的な家族から来るのでしょうか?
この考えを信じる一部の人々にとって大きな懸念は、彼らがAIの進化を規制する権限を持つことが許されると、彼らの目標は私たちの多くが話しているような常識的な規制を作ることではなく、誰が何を構築しているかを見る手段、報告要件、安全限界、安全テスト、レッドチームの取り組みなどがある。
彼らは、常識的な規制を望んでいると言っています。
それが彼らがあなたに伝えていることです。
しかし、彼らは密室で何を言っているのでしょうか?
こちらは、Future of Life Instituteの共同創設者であり、最大の危険リスク億万長者の一人であるJan Tallinnです。
規制介入の計画がここにあります。
彼の将来に対する希望は次のとおりです。
私は、政府は確かに何かを違法にすることができると思います。
ハードウェアを禁止することができます。
ある能力レベルを超えるグラフィックカードの製造を禁止することもできます。
突然、文明としてははるかに長い滑走路ができます。
データセンターで実行されているコードを監視する必要がある領域に入りますか?
ソフトウェアを規制することは、ハードウェアよりもはるかに難しいです。
彼らが続けるのをもっと遅くさせると、監視がますます浸透しなければならなくなります。
私の将来の焦点は、規制的介入と、立法者を教育しようとすることと、ロビイストを雇って世界をより安全にしようとすることになります。
再び、彼らはこれに数十億ドルを持っていることを念頭に置いてください。
数十億ドル。
彼らは、私たちが規制と考える方法ではなく、あらゆる種類のトレーニングランに対する世界的な禁止について話しています。
聞いてみてください。
AI分野の不快な秘密は、AIは構築されるのではなく、育てられるということです。
フロントエンドモデルを構築する方法は、コードの2ページを取り、数万のグラフィックカードに入れて数ヶ月間動かすことです。
フードを開けて、どんな生き物が出てきて、この生き物で何ができるかを見ることになります。
業界を規制し、事後に何が起こるかに対処する能力、さまざまな責任制約などに対処する能力は、その後に何が起こるかに適用されます。
この生き物がある程度制御された後、それが微調整され、人間のフィードバックからの強化学習などが行われ、製品化された後、これらの問題にどのように対処するかが他の産業の能力が必要なところです。
しかし、トレーニングラン中にシステムが逃げ出さないようにする方法はありますか?
これは、この種にとって完全に新しい問題です。
訓練ランを禁止するなど、他のアプローチに取り組む必要があります。
もう一つ忘れていたことは、ヘレン・トナーが言ったことです。すべての従業員がサム・アルトマンを支持した理由は、皆がOpenAIにとどまり、サム・アルトマンと一緒にいたいという心の絵文字をツイートした手紙に署名したからです。明らかに彼は誰もが心理的に虐待していたにもかかわらず。
ヘレン・トナーは、彼らがそれをした唯一の理由は、OpenAIが彼女のリーダーシップ下で破壊されることを恐れていたからであり、彼女がやろうとしていたことをした場合、それは真実ではないと言いました。
それは決して破壊されることはなかったでしょう。
それは議題には上がっていませんでした。
しかし、問題は、全体が明るみに出る間、彼女が言っていたことではないということです。
彼女は、会社の破壊が取締役会の使命と一致する可能性があると言っていました。
彼女は、AnthropicがOpenAIを吸収するか、破壊することを試みていました。これはおそらく、再び多くの価値を破壊し、多くの人々や彼らの努力、ビジネスにおける彼らの株式を破壊するでしょう。
また、OpenAIの研究者が情報を漏洩したために解雇されたことを思い出してください。少なくとも1人はその有効な利他主義運動と関係があった。
その長文についてお詫び申し上げます。
ある程度その内容は前に取り上げたことがあるとは思いますが、他の人たちがこの話題を取り上げているのを見ると、他の人たちやYouTuberたちがAIについて話しているのを見ると、個人的には彼女の言っていることをただ鵜呑みにしている人が多いようで少し心配しています。
もし彼女が何か証拠を持っているなら、それを聞くのは喜んでいます。具体的なものがあれば、それを見て、これは正しいように見えると言えるものがあれば、喜んで聞きます。
これまでのところ、サム・アルトマンを悪く描こうとする試みのように見えますが、再度言いますが、それは問題ありません。
私はサムを擁護するためにここにいるわけではありません。
あなたは彼を好きかもしれませんね。
他の誰かがAIで成功することを好むかもしれません。
たぶんイーロン・マスク、あるいはGoogle、あるいはAnthropic、または私たちの多く、私を含めて、オープンソースを信じています。
私たちはオープンソースAIが重要な技術であると考えています。明らかにいくつかのリスクも伴いますが、多くのメリットもあります。
例えば、サイバーセキュリティ技術の一部をオープンソース化したり、少なくとも人々が集まってサイバーセキュリティについて学んだことを共有することは、皆のために役立ち、もし全ての企業が自分たちの知識を秘密にしていたら、皆がより露出し、より脆弱になるだろう。なぜなら、彼らはオープンソースで知識を共有していないからだ。
皆が知識に貢献することができ、潜在的に脆弱性などを防ぐのに役立つ可能性があります。
しかし、これらの企業に対するあなたの意見がどうであれ、重要なのは、あなたが聞いている声の一部が、すべてを閉鎖したがっている少数派の人々から来ているということを理解することです。グローバルな監視を望んでいる人々、GPUの監視、チップの進化を制限し、無期限に一時停止ボタンを押すことを望んでいる人々、そして、核兵器を持つ他の国々を攻撃しようとしている可能性さえあります。
二つの核大国がAIの開発を防ぐために戦っている。
あなたはどう思いますか、それはちょっと狂っているように思えませんか?
私たちは、持っている核兵器で何度でも地球を破壊できることを知っています。
数回の悪い決定があれば、誰もがいなくなってしまいます。
それに賭ける覚悟はあるが、AIが開発されないようにするためだ。
私はこれはあまり合理的な視点ではないと思います。
これは非常に狂信的です。
これはVitalik Buterinのブログからです。
彼はこれらの事業に10億ドル近くを寄付しました。
彼はイーサリアムの裏方であり、非常に裕禄になり、いくつかのドージコインまたはいくつかのドギーコインを購入し、それが非常にうまくいったときに急上昇したので、「さあ、これらの人たちに10億円投げよう」と決めました。
彼の文章を基にすると、彼はそれについて言及しているようですが、彼が必ずしもそれに賛同しているとは思いません。
彼はそのAIドゥーマーの考え方の一部ではありません。
ここでは、彼が見ている世界をある程度説明しています。
ここでの彼の最初のイメージは、反技術的な視点ですね。
もし前に進むなら、未来は暗くて怖い、悪いものです。
技術の進歩は悪く、安全は過去のものです。
つまり、前方にはディストピアがあり、安全は過去にあります。
私たちは進歩を止める必要があります。
技術やAIなどを解除する必要があります。
背後には危険があり、前方にはユートピアがあるという加速主義者の考えがあります。
アイデアは、技術の進歩が世界や人類の改善に役立つというものです。
もし解除しないと、背後には危険があります。
EAは、この種の反技術的な視点、少なくとも反AI的な視点を採用しているように思います。
加速主義者は、全速力で前進すると言っています。
行きましょう。
彼の見解では、背後には危険があると表現しています。
進まなければなりません。
しかし、前進する複数の道があります。
いくつかは良いもので、いくつかは悪いもので、非常に理にかなっていると思います。
と言っても、私の全体的なポイントは、OpenAIが良いか悪いかという観点からだけでこの問題に取り組まないでください。
サム・アルトマンは良い人ですか、悪い人ですか?
AIの安全性を確保すべきですか?
ほとんどの人がAIが安全に展開されるべきだと同意していると思います。
起こりうる悪いことはたくさんあります。
私たちはアプローチする方法に非常に注意を払う必要があります。
核爆弾の開発中、誰かが爆発が大気全体の連鎖反応を引き起こす可能性があると提案し、基本的に世界中が火事になり、全滅する可能性があると言いました。
それが調査を引き起こしました。
人々がそれを調査しました。
彼らはそれが起こる可能性がどれくらいあるかを調べようとします。
彼らはその潜在的なXリスクを論理的に考えます。
その質問を研究し、解決策を見つけ出したのは、その分野における専門知識を持ち、教育や訓練を受けた賢明な人々でした。
それが適切なやり方です。
私たちは、新しい車、新しい薬、新しい電子機器、新しい子供のおもちゃを導入する際も同じことをします。
それらを生産する方法には法律や規制があります。
それは非常に理にかなっています。
ここには誰もそれに反対していません。
もし地球上で他国に核攻撃を始める必要があると確信している人々がいるなら、もし彼らがAIを開発しているなら、トレーニングランを禁止するためにすべてのハードウェア、すべてのGPU、すべてのソフトウェアを監視すべきだと考えているなら、それが起こらないようにするためにグローバルな監視システムを作るべきだと思います。
おそらく、たぶん、私たちはそれらの人々に世界を統治し規制させるべきではないという私の考えに賛成していただけるといいのですが、そうでしょうか?
それは、それほど狂ったことではありません。
ご賛同いただけるといいのですが。
と言うことで、私の名前はウェス・ロップです。ご視聴ありがとうございました。