AIの安全性に関する懸念が高まっている現在、多くの人々がAGI(人工汎用知能)の登場を予測し、そのリスクについて議論しています。OpenAIの元従業員や現従業員、そして他のAIリーダーたちが署名した公開書簡が「righttowarn.ai」に掲載されており、これはAI技術の利点とともに、それが引き起こす可能性のある深刻なリスクについて述べています。この書簡には、AIが既存の不平等をさらに強化し、操作や誤情報の拡散などのリスクをもたらすことへの懸念が記されています。また、AIシステムの制御が失われた場合には人類の絶滅につながる可能性があるとも警告しています。これらのリスクに対処するためには、科学コミュニティ、政策立案者、そして一般市民のガイダンスが必要であると強調しています。一方、OpenAIの元従業員であるレオポルド・アッシェンブレンナーやダニエル・ココタジロもAI安全性についての懸念を表明しています。アッシェンブレンナーは、今後数年間でAGIが登場し、それが国家安全保障や地政学的な対立を引き起こす可能性があると警告しています。彼は、AI研究を自動化するAGIシステムが出現することで、研究の進展が急速に加速し、人間レベルを超えた超知能に至ると予測しています。ココタジロも、OpenAIが安全性研究に十分な投資を行わないことを批判しており、企業が自身の利益のために安全性を軽視していると述べています。
公開日:2024年6月8日
※動画を再生してから読むのがオススメです。
彼は、この10年の終わりまでに私たちはAGI(人工汎用知能)を手にするだろうと言っています。
最近は、AIの安全性が誰もが気にしているようです。
OpenAIは元従業員との非中傷条項を基本的に解消したため、より多くの人々が出てきて、自分たちがどれだけ心配しているかについて話しています。
それが今日話すことです。
まず、righttowarn.aiにあるこの書簡を確認したいと思います。
これは、複数のOpenAIの現在の従業員や元従業員、他のAIリーダーが署名したオープンレターで、AIの状態とAIの安全性について話しています。
私たちは、フロンティアAI企業の現在の従業員や元従業員であり、AI技術が人類に前例のない利益をもたらす可能性を信じています。
また、これらの技術が引き起こす深刻なリスクを理解しています。
これらのリスクは、既存の不平等のさらなる定着から操作や誤情報までさまざまです。
これら2つが私が最も心配していることです。
自律型AIシステムの制御を失うこと、それが人類の絶滅につながる可能性があります。
非常に、非常に恐ろしいですが、私はそれが起こるとは信じていません。
それが私の根本的な信念です。
AI企業自体がこれらのリスクを認めており、世界中の政府や他のAI専門家も同様です。
彼らは、企業、政府、AI専門家がAIのリスクについて話した時点を実際に指摘している参照文献をたくさん提供しています。
私たちは、これらのリスクが科学コミュニティ、政策立案者、および一般市民からの十分な指導によって適切に緩和されることを期待しています。
ただし、AI企業には効果的な監督を回避するための強力な財務的インセンティブがあります。
それが今日私たちが見ている実際の状況です。
イリヤを含む多くの人々、OpenAIのAIスーパーアライメントの責任者であるヤンを含む多くの人々は、企業がAIの品質向上や他の製品化を最適化しているのではなく、AIの安全性を最適化していると言っています。
私たちは、企業の統治の特注構造だけではこれを変えるのに十分ではないと考えています。
AI企業は、自社システムの能力や限界、保護対策の適切さ、さまざまな被害のリスクレベルについて、重要な非公開情報を持っています。
しかしながら、彼らは現在、この情報の一部を政府と共有する義務が弱く、市民社会とはまったく共有する義務がありません。
オープンソースのAIコミュニティで非常に前向きで積極的であるべきもう1つの理由は、すべてが公開されている場合、私たちはそれについて話すことができるからです。
私たちはそれを調査することができます。
一緒に詳細に突っ込むことができます。
それは、はるかに強固なAIインフラを可能にします。
私たちは、彼らが全員が自発的にそれを共有することに頼ることはできないと考えています。
その手紙は、OpenAIや他の先駆的なAI企業が設けたいくつかの機密保持契約についても言及しています。
これらの企業に対する効果的な政府の監督がない限り、また、規制網を持たないと政府の監督が難しいのは、政府内でAIについてAI企業自身よりもよく知っている人がいるからです。
政府は、AI企業に意思決定を通知するように働きかけるでしょう。
AI企業は、インセンティブが働く仕組みであるため、新興AI企業が競争するのをできるだけ困難にするように動機づけされています。
現在の従業員や元従業員は、彼らを一般市民に対して責任を負わせることができる数少ない人々の中にいます。
しかし、広範な機密保持契約により、私たちは懸念を表明することができません。これらの懸念に対処しようとしているかもしれない企業に対してのみです。
通常の告発者保護は不十分です。なぜなら、それらは違法行為に焦点を当てており、私たちが懸念しているリスクの多くはまだ規制されていないからです。
それは興味深い概念です。
これらのものはいずれも違法ではありません。
したがって、これらは告発者の地位の対象外ですが、これがすべて非常に新しいものであるため、実際に違法であるべきかどうかは誰もわかりません。
私たちの中には、業界全体でそのような事例の歴史を考えると、さまざまな形の報復を理由に恐れる人もいます。
したがって、私たちは先進的なAI企業にこれらの原則を守るよう求めます。つまり、企業がリスクに関連する懸念に対する中傷や批判を禁止する契約を締結または執行しないこと、また、リスクに関連する批判に報復して任意の経済的利益を妨げないことです。
OpenAIに対する直接的な声明です。
これは、従業員が会社を去る際にOpenAIの文書に記載されていた内容そのままです。
しかし、最近彼らはそれら全てを免除すると言っていました。
彼らは改善していますが、この手紙は本当に業界全体に直接的に対処しています。
会社を去った後に、AIに関連した会社のリスクプロファイルについて何か言いたい場合、それをすることができるべきです。
同意します、それをすることができるべきです。
明らかに、彼らは取引秘密を共有することはできません。
それは非常に理にかなっています、なぜならこれらの取引秘密は非常に価値があり、彼らは別の会社に行く可能性があるからです、たとえそれがどうせ起こることだとしても。
しかし、会社のリスク関連活動を批判することができないという事実は私には理解できません。
次に、会社が現在および元従業員がリスクに関連する懸念を会社の取締役会、規制当局、関連する経験を持つ適切な独立組織に匿名で提起できるプロセスを支援すること。
それは素晴らしいです。
しかし、企業がそれに同意するかどうかはわかりません。
基本的には、彼らにとって自分たちを害すると見なすものにリソースを投資するよう求めていることです。
私はそれに同意しません、ところで。
しかし、それを行う意志があるかどうかは別の問題です。
私は、ナンバーワンがおそらくより可能性が高いと思います。
次に、会社が技術に関連するリスクについて現在および元従業員が公に、会社の取締役会、規制当局、または関連する経験を持つ適切な独立組織に提起できるよう、批判の文化を支援し、取引秘密や他の知的財産権益が適切に保護される限り。
これは良いですが、私には非常に曖昧に思えます。
これを実際に測定または強制する方法はありません。
たとえ彼らが「はい、許可します」と言ったとしても、文化は依然として誰かがOpenAIのAIの安全性を批判するということができます。
各従業員、マネージャー、取締役会、取締役の潜在意識の中では、この人物が裏で何かしら会社に害を及ぼす行動をしたことをまだ知っているだろうし、その人に対して否定的に考えるだろう。
原則としては同意するが、私の考えではかなり弱い点だと思う。
次に最後に、会社は他の手続きが失敗した後、現在および元従業員がリスクに関連する機密情報を公に共有しても報復しないことを受け入れる。
続けて、リスクに関連する懸念を報告するためのあらゆる取り組みは、不必要に機密情報を公開しないようにするべきだと受け入れる。
したがって、適切なプロセスが会社の取締役会、規制当局、関連する専門機関に匿名で懸念を提起するために存在する場合、そのようなプロセスを通じて懸念が初めに提起されるべきだと受け入れる。
ただし、そのようなプロセスが存在しない限り、現在および元従業員は懸念を公に報告する自由を保持すべきだと受け入れる。
これらのほとんどは私には全く同じように聞こえる。
原則としては同意する。
これらの企業をどのようにしてこれに同意させるかはよくわからない。
唯一、かなり明確で明白で簡単なのは、会社がリスクに関連する懸念に対する中傷を禁止する契約に入ることやその契約を履行することをしないことだ。
その点は明らかだ。
企業はそうすべきだ。
それは実際には企業には何もコストがかからない。
企業が取る必要がある安全への取り組みのレベルがあるが、それは良いことだ。
署名した人々がいる。
ジェイコブ・ヒルトン、以前はOpenAI。
私が認識する名前の1つだ。
ウィリアム・サンダース、私が認識する、以前はOpenAI、およびいくつかの元および現在のOpenAI匿名従業員。
また、ここで見るように、カナダのコンピューターサイエンティストであり、人工ニューラルネットワークに関する研究で最も知られているヤシュア・ベンジオもいる。
AI研究分野で非常に著名だ。
私たちは、AIの教父としても知られるイギリスとカナダのコンピュータサイエンティストであるJeffrey Hintonと、別のイギリスのコンピュータサイエンティストであるStuart Russellを持っています。
これらは、この話題について話すのに非常に精通し、経験豊富な人々です。
それは6月4日に出たもので、録音時点では昨日でした。
私たちは、レオポルド・アッシェンブレナーを持っています。彼は、Dwarkeshのポッドキャストでインタビューを受け、兆ドルのクラスター、AGIのスケーリング、CCPのスパイ活動、OpenAIを離れてAGI投資会社を立ち上げること、中東にクラスターを外部委託する危険性などについて話しています。
こちらが彼のLinkedInプロフィールです。
コロンビア大学の卒業生で、OpenAIで約1年半働いていました。
彼はAIの安全性の懸念から辞めました。
実際、AI、AGI、AIの安全性などについてかなり詳細な論文を書いています。
私はこれからいくつか触れます。
過去1年間、話題はサンフランシスコに移り、革新の発祥地である今、話題は100億ドルから1兆ドルのコンピュートクラスターに移りました。
半年ごとに、ゼロが追加されています。
彼は今、スケーリングについて話しています。
この10年の終わりまでに、アメリカの電力生産は、ペンシルベニア州のシェールフィールドからネバダ州の太陽光発電所まで、何十パーセントも成長するでしょう。
何億ものGPUが鳴り響くでしょう。
AGIレースが始まりました。
彼は2025年、2026年までに、これらの機械が多くの大学卒業生を凌駕するだろうと言っています。
この10年の終わりまでに、彼らはあなたや私よりも賢くなるでしょう。私たちは超知能を持つことになります。
彼は、この10年の終わりまでに、私たちがAGIを持つことになると言っています。
その過程で、半世紀ぶりに見られない国家安全保障部隊が解放されるでしょう。
間もなく、私たちが取り組むプロジェクトになるでしょう。
もし運が良ければ、私たちはCCPとの全面戦争になるかもしれません。
それは中国政府のことです。
もし運が悪ければ、全面戦争になるかもしれません。
彼はCCPと彼らがUSAI研究所をスパイ活動していることに非常に関心を持っているようです。
CCPはUS企業に対してスパイ活動を行っていることで知られています。
彼の懸念は無根ではないと思います。
ここで彼は、NVIDIAのアナリストたちは2024年がピークに近いと考えていると述べています。
メインストリームの専門家たちは、次の単語を予測するだけだという意図的な盲目性に固執しています。
それが現在のトランスフォーマーの動作方法です。
彼らは煽りや業界の通常業務しか見ていません。
せいぜい、彼らは別のインターネット規模の技術変革を考えています。
間もなく、世界は目を覚ますでしょう。
しかし、今のところ、おそらく数百人の人々が、ほとんどがサンフランシスコにいて、状況認識を持っているAI研究所にいます。
基本的には、何が来るかを認識していることです。
もしこのビデオを見ているなら、おそらくあなたもアイデアを持っているでしょう。
私は彼の非常に深い論文の要約に触れるだけです。
しかし、あなたにはそれを詳しく読むことをお勧めします。
それはsituational-awareness.aiで見つけることができます。
ここでは、AIの非常に、非常に賢い人がどう考えているかを見てみましょう。
GPT-4からAGIまで、OOMsを数えています、桁数の差。
2027年までにAGIが実現する可能性は非常に高いです。
四年間で、GPT-2からGPT-4への進化により、幼稚園児から賢い高校生の能力を身につけました。
コンピューターでのトレンドラインの追跡、年間0.4桁のアルゴリズムの効率、チャットボットからエージェントへの利益を取り戻す。
2027年までに、もう1つの幼児から高校生サイズの質的な飛躍を期待すべきです。
ここでは、異なるテストに対するパフォーマンスの向上が見られます。
私たちが見ているように、1998年当時はこれらのわずかな増加には長い時間がかかりました。
しかし、突然、2010年代末から特に過去数年間に加速し始め、基本的に垂直線を描く、膨大な増加が見られます。
彼はAGIから超知能へと、知能爆発について述べています。
AIの進歩は人間のレベルで止まらないでしょう。
何億ものAGIがAI研究を自動化し、アルゴリズムのプロセスを10年分を1年未満に圧縮する可能性があります。
私たちは急速に人間レベルからはるかに超人的なAIシステムに移行するでしょう。
超知能の力と危険は劇的であろう。
彼は、AGIを超えて、AI研究を自ら行い、その研究の成果を複利化し、持っている知能を複利化する可能性がある、数百または数千の超知能システムが登場するだろうと述べています。
彼は、1兆ドルのクラスターへの競争について話し続けます。
サム・アルトマンが自ら7兆ドルを調達してクラスターを作るという噂があることは知っています。
最も驚くべきテクノキャピタルの加速が始まりました。
AI収益が急速に成長するにつれ、この10年の終わりまでに多額の資金がGPU、データセンター、電力の整備に投入されるでしょう。
工業動員、米国の電力生産を数十パーセント増やすことも含めて、激しいものになるでしょう。
研究所をロックダウンし、AGIのセキュリティを確保してください。
国内の主要なAI研究所は、セキュリティを二の次にしています。
現在、彼らは基本的にAGIの重要な秘密を中国共産党に手渡しており、国家主体の脅威に対するAGIの秘密と重みを守ることは膨大な努力が必要であり、私たちは正しい方向に進んでいない。
これを読んで、理解しているなら、彼はクローズドソースを信じていると思います。
彼は重みをロックしたいと思っています。
彼はそれらを公開で共有したくないと思っています。
彼はそれらがあまりにも貴重であり、危険すぎると考えています。
次に、スーパーアライメントです。
私たちよりもはるかに賢いAIシステムを信頼してコントロールすることは未解決の技術的問題です。
それは解決可能な問題ですが、それは非常に希望に満ちています。
彼はそれが解決可能だと考えています。
急速な知性爆発中に簡単に事態が狂ってしまう可能性がありますが、それは今起こっていることです。
これを管理することは非常に緊張感を持って行われるでしょう。
失敗は簡単に壊滅的になる可能性があります。
彼は間違いなくAIドゥーマーのカテゴリーに属していますが、私たちがそれを達成できると希望を持っています。
ただし、現在の進行方向ではありません。
これらのセクションの残りをスキップして、OpenAIを辞めた別の人物に進みたいと思います。
これはダニエル・ココタジロです。
私が正しく発音していることを願っています。
彼はOpenAIを辞任しました。
彼はちょうど6月4日にこれを投稿しました。
これはOpenAIが元従業員全員を誹謗中傷条項から解放すると発表した後です。
読みましょう。
こちらがツイートです。
4月、私はOpenAIを辞職しました。会社が責任を持って人間よりも賢いAIシステムを構築しようとする際に、会社が適切に行動するとは自信が持てなくなったからです。
私は、システムがよりスケーラブルになるにつれて、安全性の研究にもっと多くの投資をすると期待して参加しました。
しかし、OpenAIはこの方向転換を行いませんでした。
これを理解した人々が辞職し始めました。
私は最初でも最後でもありませんでした。
もう一人は、スーパーアライメントの責任者であるJanです。
彼は明言しています。「私は約束された、20%の計算リソースをスーパーアライメント研究に割り当てると思っていましたが、それは与えられませんでした。」
私が去る際、会社から非難を避けるための契約書に署名するよう求められました。私たちはすでにそのことを知っています。
契約書やOpenAIとのやり取りからはっきりと分かりました。拒否すれば60日以内に私の株式報酬を失うことになると。
ここにいくつかの文書やメールが見えますが、実際に私はこのことについてビデオを作りました。
第五部、妻と私はよく考え、将来自由に意見を述べることが株式よりも重要だと決断しました。
私は、その方針が倫理的でないと考えたため、OpenAIに署名できないと伝えました。
彼らは私の決定を受け入れ、別れました。
彼らがそれをしてくれたのは本当に親切です。
基本的には支払う必要はありませんでした。
しかし、彼らはまたその署名を得ることもできませんでした。
しかし、この時点では、それは重要ではないと思います。
彼は依然として、私は信じています、彼の株式報酬を受け取るべきです。
次に、OpenAIのような研究所が構築しているシステムは、莫大な利益をもたらす能力を持っています。
しかし、慎重でなければ、それらは短期間では不安定になり、長期的には壊滅的になる可能性があります。
これらのシステムは普通のソフトウェアではありません。
それらは膨大な量のデータから学習する人工ニューラルネットです。
解釈可能性、整合性、制御に関する急速に成長している科学文献があります。
しかし、これらの分野はまだ幼稚な段階にあります。
以前のビデオで、解釈可能性についてのビデオを作ると言いましたが、それは私が魅力的だと思うものです。
Anthropic AIが解釈可能性に関する論文を発表し、それが可能であることを始めて見始めていることを述べました。
基本的に、AIが従来のようにブラックボックスであるということです。
アルゴリズムはブラックボックスです。
入力を行うと何かが起こり、出力が得られます。
私たちができることは、そのブラックボックスの中を見て、なぜこの入力がこの出力につながったのかを理解することです。
AIシステム内のどのノードがそのプロセスの一部として活性化されたのかを見ることができます。
現在、それについては良い理解がありません。
次に、これらのシステムがどのように機能し、より賢くなり、おそらくあらゆる分野で人間を超える知能を持ち続けるかについて、私たちが理解していないことがたくさんあります。
一方、この技術に対する監督はほとんどないか、まったくないです。
代わりに、それらを構築している企業が自己規制することを頼りにしていますが、利益動機や技術への興奮が彼らを急いで物事を壊す方向に押し進めています。
もしその声明に馴染みがない場合、「急いで進み、物事を壊す」というのは、Facebookの非常に初期の時代からどこにでも貼られていたものです。
その内部のモットーは、「速く動いて、物事を壊す」というものでした。
しかし、それはもはや機能していません。
実際、多くの産業ではそれは機能しません。
例えば、医療業界です。
速く動いて物事を壊したくないですね。
さもないと、Theranosのような状況になります。彼らは速く動いて物事を壊し、人々の命を危険にさらしました。
研究者を沈黙させ、報復を恐れさせることは、現在、一般市民に警告を発する立場にいるわれわれにとって危険です。
同意します。OpenAIがこれらの方針を変更することを約束していることに賞賛します。
彼らがこれらの威圧的な手法に長い間従事し、公衆の圧力の下でしかコース修正しなかったことは懸念されます。
なぜ誰もがコース修正するのでしょうか、特に企業が?
それは、あなたが捕まったからです。
また、これらの方針に署名したリーダーがそれについて知らなかったと主張することも懸念されます。
それは驚きです。
これらの危険の最前線に立つ一般市民には、これよりも良いことをしなければなりません。
合理的な考え方は、AGIがすぐに実現するかどうかについて異論があるかもしれませんが、準備にあまりにも少ないリソースを投入するのは愚かです。
彼は、このビデオの冒頭でちょうどレビューしたright to warn.aiについて話を続けます。
エロン・マスクは、彼の素晴らしい一つの感嘆符の返信をします。
次に、situationalawareness.aiに戻りたいと思います。
覚えておいてください、これは元OpenAIの従業員であるLeopoldです。
彼はここに本当に興味深いチャートを持っています。
左側にAGIといくつかの異なる安全カテゴリーがあります。そして、AGIを超えたスーパーインテリジェンスがあります。ですので、必要なのは整列技術です。
私たちはAGI、RLHF、人間のフィードバックを通じた強化学習などを知っています。
しかし、スーパーインテリジェンスに関しては、私たちがまだ知らない画期的で質的に異なる技術的解決策が必要です。
AGIに失敗した場合、何が起こるのでしょうか?
リスクは低いです。
スーパーインテリジェンスに失敗した場合、何が起こるのでしょうか?
壊滅的です。
アーキテクチャとアルゴリズム。
現行システムの馴染み深い派生物で、かなり穏やかな安全性を持っています。
スーパーインテリジェンスに関しては、前の世代によって設計された異質なアーキテクチャで、超スマートなAIシステムです。
AIがAIを設計し、AIを設計し、私たちにとって非常に異質な状態になるまで、基本的に何が起こっているのかわからなくなります。
実際、私は異なる文脈で似たようなことについて話しています。それはプログラミングです。
私は、10年後には開発者はもう必要ないと信じています。
その理由はいくつかあります。
そのうちの1つは、今日のコードは、人間がプログラミングが本当に下手だからそのように見える必要があるということです。
それはそのように見える必要があります。
できるだけ自然言語に似せる必要があります。
しかし、将来、AIがすべてのコードを書いていて、最終的には大規模言語モデルがエンドデバイス上で直接計算するようになると、突然、それは全く自然言語のように見える必要はありません。
実際、それは単なる記号であるか、私たちが想像できないものであるかもしれません。
考えることがたくさんありますが、基本的には同じことです。
AIがシステムを設計している場合、これまで見たことのないものに見えるかもしれず、私たちが見ているものを理解できないかもしれません。
バックドロップワールドは普通で、スーパーインテリジェンスワールドはクレイジーですね。
最後に、AGIを理解する能力は、システムが何をしているか、どのように機能しているか、それらが整合しているかどうかを理解できます。
まだそこには至っていません。
彼は将来のことを話していると思います。
スーパーインテリジェンスに関しては、何が起こっているのかを理解する能力がなく、システムが整合しているかどうか、悪意がないかどうか、システムが何をしているかを理解する能力がありません。
私たちは完全にAIシステムを信頼するしかありません。
非常に少ない時間で正しい決定をするための移行が1年未満で行われます。
私の考えでは、彼のタイムラインは非常に短いように思えますが、あなたはどう思いますか?
コメントで教えてください。
しかし、私は同意します。私たちは、もはやフードの下で何が起こっているかを理解する能力を持たなくなる時点に到達すると思います。
その時点で、私たちは単にAIを信頼する必要があり、それは私にとって良くないように思えます。
私は常に信頼する必要があると思いますが、検証する必要があります。
今日は状況認識からこれだけをカバーします。
しかし、ここにあるすべてのセクションについて完全なビデオを見たい場合は、教えてください。
時々かなり複雑で、これらのポイントには多くの要素があります。
コメントで教えてください。
私は本当に深く掘り下げて、たくさんのメモを取り、私が理解しているように伝えようとします。
このビデオを楽しんでいただけたら、いいねや購読を考えていただけると嬉しいです。次のビデオでお会いしましょう。