見出し画像

【OpenAI共同創業者が語る】AIの暴走を抑制するための計画

OpenAIのチーフサイエンティスト、イリヤ・スツケヴァーが率いるスーパーアライメントチームは、AIモデルがより賢くなるにつれて、その振る舞いを導く方法について考案しています。


ChatGPTのデビュー

OpenAI は、たとえ AI がその作成者よりもかなり賢くなったとしても、全人類に利益をもたらす人工知能を構築するという約束に基づいて設立されました。昨年の ChatGPT のデビュー以来、そして最近の同社のガバナンス危機の間、その商業的野心はより顕著になってきました。現在、同社は、将来のスーパースマート AI の解明に取り組んでいる新しい研究グループが成果を上げ始めていると述べています。

「AGI は非常に急速に近づいています」と、7 月に設立されたスーパーアライメント研究チームに携わる OpenAI の研究者、レオポルド・アッシェンブレナー氏は言います。 「私たちは超人的なモデルを目にすることになるでしょう。彼らは膨大な能力を持ち、非常に危険なものになる可能性があります。そしてそれを制御する方法はまだありません。」 OpenAIは、利用可能なコンピューティング能力の5分の1をスーパーアライメントプロジェクトに捧げると発表した。

より賢いAIモデルへの対策


OpenAIが本日発表した研究論文では、劣等なAIモデルの賢さを低下させることなく、より賢いAIモデルの動作を誘導する方法をテストすることを目的とした実験の結果を宣伝している。関連するテクノロジーは人間の柔軟性を超えるには程遠いものの、このシナリオは、人間が自分たちよりも賢い AI システムと連携しなければならない将来に備えて設計されました。

OpenAI の研究者らは、ChatGPT の背後にある大規模な言語モデルである GPT-4 などのシステムを、より有用で害が少なくなるように調整するために使用される、監視と呼ばれるプロセスを調査しました。現在、これには人間が AI システムにどの回答が良いか悪いかに関するフィードバックを与えることが含まれています。 AI の進歩に伴い、研究者たちは時間を節約するためにこのプロセスを自動化する方法を模索していますが、それは AI がより強力になるにつれて人間が有用なフィードバックを提供することが不可能になるかもしれないと考えるためでもあります。

GPT-4 を教えるために 2019 年に初めてリリースされた OpenAI の GPT-2 テキスト ジェネレーターを使用した制御実験では、最新のシステムの能力が低下し、劣ったシステムと同様になりました。研究者らは、これを解決するための 2 つのアイデアをテストしました。
1 つは、段階ごとに失われるパフォーマンスを減らすために、段階的に大きなモデルをトレーニングすることです。もう 1 つは、チームが GPT-4 にアルゴリズムの微調整を加えたもので、通常よりもパフォーマンスを低下させることなく、より強力なモデルがより弱いモデルのガイダンスに従うことができるようにしました。これはより効果的でしたが、研究者らはこれらの方法がより強力なモデルが完全に動作することを保証するものではないことを認めており、これはさらなる研究の出発点であると述べています。

「OpenAI が超人的な AI の制御の問題に積極的に取り組んでいるのを見るのは素晴らしいことです」と、AI リスクの管理に特化したサンフランシスコの非営利団体、Center for AI Safety のディレクター、ダン ヘンドリックス氏は言います。 「この課題に対処するには、長年にわたる献身的な努力が必要です。」

Superalignment Team: スーパーインテリジェンスチーム


『WIRED』の取材に応じたアシェンブレナー氏と、スーパーインテリジェンスチームの他の2人のメンバー、コリン・バーンズ氏とパベル・イズマイロフ氏は、潜在的な超人AIを飼いならすための重要な第一歩であると考えていることに励まされていると述べた。 「6 年生は大学の数学専攻者ほど数学の知識がありませんが、それでも自分が達成したいことを大学生に伝えることができます」とイズマイロフ氏は言います。 「それが私たちがここで達成しようとしていることのようなものです。」

スーパーインテリジェンスグループは、OpenAI の共同創設者で主席科学者であるイリヤ・サツケヴァー氏が共同で率いています。彼は先月 CEO のサム・アルトマン氏の解任に投票した後、撤回し、復帰しなければ辞任すると脅迫した取締役会メンバーの 1 人でもあります。 Sutskever 氏は本日発表された論文の共著者ですが、OpenAI は同氏をプロジェクトについての議論に参加させることを拒否しました。

アルトマン氏が先月、取締役会の大半を辞任する合意に基づきOpenAIに復帰した後、同社におけるサツケヴァー氏の将来は不透明に見えた。

「イリヤにはとても感謝しています」とアシェンブレナーは言う。 「彼はこのプロジェクトにおいて大きなモチベーションと原動力となってくれました。」

AI アラインメント


OpenAI の研究者たちは、今日の AI テクノロジーを使用して、将来の AI システムを制御するのに役立つ可能性のあるテクニックをテストしようとする最初の人物ではありません。企業や大学の研究室でのこれまでの研究と同様、慎重に計画された実験で機能したアイデアが将来実用になるかどうかを知ることは不可能です。研究者らは、より弱い AI モデルをより強力な AI モデルにトレーニングさせる機能について、「スーパーアライメントというより広範な問題に対する重要な構成要素」として完成させようとしていると説明しています。

いわゆる AI アラインメントの実験では、制御システムがどの程度信頼できるかについても疑問が生じます。新しい OpenAI 技術の核心は、より強力な AI システムが、より弱いシステムからのどのようなガイダンスを無視してもよいかを自ら決定することに依存しており、これにより、将来的に危険な動作をすることを防ぐ情報をシステムが排除する可能性があります。このようなシステムが役立つためには、位置合わせに関する保証を提供する進歩が必要です。 「最終的には非常に高度な信頼が必要になります」と OpenAI チームの 3 人目のメンバーである Burns 氏は言います。

AI の安全性を研究するカリフォルニア大学バークレー校のスチュアート・ラッセル教授は、強力ではない AI モデルを使用してより強力な AI モデルを制御するというアイデアは以前からあったと述べています。同氏はまた、AIに動作を教えるために現在存在する方法が今後の方向性を示すかどうかは不透明だとも述べている。なぜなら、これらの方法では現在のモデルを確実に動作させることができていないからである。

AIとの共存


OpenAI は、より高度な AI の制御に向けた第一歩を宣伝していますが、外部の支援を求めることにも熱心です。同社は本日、影響力のある投資家でGoogleの元最高経営責任者(CEO)であるエリック・シュミット氏と提携し、弱者から強者への監視、高度なモデルの解釈可能性などのテーマでさらなる進歩を考案する外部の研究者に1000万ドルの助成金を提供すると発表した。 、および制限を破るように設計されたプロンプトに対してモデルを強化します。新しい論文に関わった研究者らによると、OpenAIは来年、スーパーアライメントに関するカンファレンスも開催する予定だという。

OpenAI の共同創設者であり、スーパーインテリジェンスチームの共同リーダーである Sutskever 氏は、同社の最も重要な技術的作業の多くを主導しており、AI がより強力になるにつれて、AI をどのように制御するかについて懸念を強めている著名な AI 人物の 1 人です。将来の AI テクノロジーをどのように制御するかという問題は、主に ChatGPT のおかげで、今年新たな注目を集めています。サツケバー氏は、ディープ ニューラル ネットワークの先駆者であるジェフリー ヒントンの下で博士号取得のために学びました。ヒントン氏は、一部のタスクにおいて AI が人間のレベルに近づいていると思われるペースについて警告するため、今年 5 月に Google を退職しました。

この記事が気に入ったらサポートをしてみませんか?