OpenAI社長、「チームが何年も話し合ってきたものを構築する時が来た」とポスト
本日のOpenAI社長の、グレッグ・ブロックマンのポストは「チームが何年も話してきたことを実現する時がやっと来て、それが好きすぎる」というものでした。
OpenAI「チームが何年も話し合ってきたもの」とは?
OpenAIのミッションは、安全で利益をもたらす人工汎用知能(AGI)を開発することにあります。彼らは、AGIが人類に大きな利益をもたらすことができると同時に、適切に管理されなければリスクも伴うという認識のもと、安全な技術開発に注力しています。グレッグ・ブロックマンの発言が指し示している「何年も話し合ってきたもの」とは、まさにAGIまたはそれに関連する重要な技術的進展の可能性が高いです。
チームが長年あたためてきたものとはAGIを想像するリポストが続きました。以下、「AGIきたこれ?」的なリポストを掲載します。
OpenAIのAGI開発ロードマップ
約一年前にサム・アルトマンが公式ブログにてAGI開発のロードマップを書いていますので、それを解説していきます。要約の後に、解説を書きます。
AGIの計算要求
概要:人工汎用知能(AGI)の創造は膨大な計算能力を要求します。これは、どの組織がAGI開発に取り組んでいるかを世界が知るための重要な指標となります。
AGI(人工汎用知能)の開発に取り組んでいると公に明言している組織は複数存在します。ただし、これらの組織が具体的にどの段階にあるか、またはOpenAIと同じように進展しているかは、公開されている情報に基づくものです。以下は、AGIの開発に関心を持ち、研究を行っていることを公言しているいくつかの主要な組織です:
DeepMind: Google傘下のDeepMindは、AGIを実現することを究極の目標として掲げています。DeepMindは、AlphaGoやその他の先進的なAIシステムを開発しており、これらの技術を通じてAGIに近づくことを目指しています。
Microsoft: Microsoft自体が直接AGIの開発を公に宣言しているわけではありませんが、OpenAIへの大規模な投資とパートナーシップを通じて、AGI研究の推進に関与しています。
Facebook AI Research (FAIR): Facebook(現Meta Platforms)の研究部門であるFAIRは、AI技術の進展に大きく貢献しており、長期的な目標としてAGIの問題にも取り組んでいることを示唆しています。
Anthropic: OpenAIの共同創設者の一人であるDario Amodeiによって設立されたAnthropicは、人類にとって安全で理解しやすいAIの開発に焦点を当てています。Anthropicは、AGIの開発に向けたアプローチを探求しています。
AGIの目指す未来
概要:AGIが人類を力づけ、宇宙で最大限に繁栄させること、その利益、アクセス、ガバナンスが広く公平に共有されることを目指します。また、大きなリスクをうまく乗り越えることが重要視されています。
OpenAIは、人工汎用知能(AGI)の開発に焦点を当てた研究機関であり、その主な目標はAGIが人類全体に利益をもたらすようにすることです。OpenAIの公開されているミッションやプロジェクトは、直接的な宇宙開発やイーロン・マスクの火星移住計画のような宇宙的なプロジェクトに投資しているわけではありません。
OpenAIが言及している「宇宙で最大限に繁栄するよう支援する」という表現は、AGIが人類の潜在能力を最大限に引き出し、科学的発見や技術進歩を加速することで、長期的な未来における人類の可能性を広げるという意味で使われています。これは、AGIが経済、医療、教育など、地球上での人類の課題を解決するのに役立つだけでなく、将来的には人類が宇宙を探索し、そこで繁栄するための技術的な基盤を提供する可能性があることを示唆しています。
技術展開の段階的アプローチ
概要:「一発で正しくする」シナリオを避けるため、より弱いバージョンの技術を段階的に展開することが求められます。これにより、社会は強力なAIの進化に徐々に適応できるようになります。
徐々に適応することで、人々、政策立案者、機関は何が起こっているのかを理解し、新しいシステムの利点と欠点を個人的に体験する時間を持つことができます。これにより、経済や社会システムを適応させ、必要な規制を設置するための準備が整います。また、社会とAIが共進化し、低リスクの状態で何を望むかを人々が集団的に見極めることができるようになります。
蒸気機関の発明者であるトマス・ニューコメンや、電気を開発・普及させた科学者たちは、現代のAI技術者が直面しているような、技術が社会に与える影響や進歩の速度について深く考慮する状況とは異なっていました。その時代には、技術革新が社会に広がる速度は遅く、新技術の影響を社会が吸収し適応するための時間がより長くありました。情報伝達の手段が限られていたため、新しい技術やその利用法が広範囲にわたり迅速に共有されることはなく、変化は徐々に行われました。
一方で、インターネットの登場と普及は、情報の伝達速度を劇的に加速させ、技術革新の影響が社会全体に急速に広がるようになりました。これにより、新しい技術やその応用がもたらすポジティブな効果だけでなく、潜在的なリスクや課題に対する認識も高まりました。特に、AI技術のように複雑で影響が広範に及ぶ分野では、その開発と導入にあたっては、社会的、倫理的な影響を慎重に考慮し、広い範囲のステークホルダーとの対話を重視することが求められています。
移行の段階的プロセス
概要:徐々にAGIへの移行を行うことで、人々や政策立案者が何が起こっているのかを理解し、システムの利点と欠点を体験する時間が与えられます。これは、社会とAIが共進化し、人々が集団で望むことを見極めるのに役立ちます。
強力なAIが世界の進歩の速度を大幅に加速させると予想される中で、より強力なシステムを次々と作り出す過程で徐々に適応していくアプローチは、社会に急激な変化を強いることなく、人々、政策立案者、そして機関が新しい技術の利点と潜在的なデメリットを理解し、経済や規制の適応を行うための時間を提供します。これは、社会の破綻を防ぎ、新しい技術の導入がもたらす可能性のある混乱を最小限に抑えるための戦略として重要です。
また、訴訟相手や一般の人々、政策立案者、他のステークホルダーへの傾聴や対話の重要性も強調されます。技術の進展に伴う影響を理解し、適切な対策やガイドラインを設定するには、広範なステークホルダーの意見や懸念を丁寧に聞き、それに基づいて行動することが不可欠です。このプロセスは、技術開発者と社会との間の信頼を築き、より良い共存のための基盤を形成します。
ニューヨークタイムズから起こされた訴訟については下記のNoteに詳しくまとめていますので合わせてご覧ください。
世界的な対話の重要性
概要:AGIに関する複雑な決定に備えるためには、世界の機関が追加の能力と経験を持つ必要があります。これらのシステムの統治方法、生み出される利益の公平な分配、アクセスの公平な共有についての世界的な会話が期待されています。
Sam Altmanの2023年の世界ツアーは、AIに関する規制についてヨーロッパの規制当局と会合するためのものであり、OpenAIの技術やその将来の展望についてユーザーや開発者との対話を深めることを目的としていました。このツアーでは、AIの進化に対する社会の理解を深め、AI技術の安全な開発と利用に関する公共の基準や規制の枠組みについて議論する機会を提供しました。
特にヨーロッパでは、EU AI法の草案に対するOpenAIの立場や、将来のAIシステムに関する独立したレビューや基準に関する議論がありました。AltmanはEU AI法の現行草案が過剰規制であるとの見解を示し、修正が行われることを期待しているとコメントしています。また、ツアーでは、OpenAIの技術がもたらす可能性についての理解を深め、AIの利用が社会に与える影響について議論することが目的でした。
Altmanは16都市を訪問し、OpenAIのユーザーや開発者、AIに興味を持つ人々との間で意見交換を行いました。このツアーは、AI技術の利用に関する政策立案者や社会全体との対話を促進し、OpenAIが直面している技術的、倫理的な課題に対する広範な意見を収集する機会を提供しました。
サム・アルトマンの世界行脚の様子は、下記のNoteに詳しく解説していますので合わせてご覧ください。
独立した監査とレビュー
概要:新しいシステムをリリースする前に独立した監査を受けること、そして将来のシステムのトレーニングを開始する前に独立したレビューを受けることが重要です。これは、新しいモデルを作成するために使用される計算の成長率を制限することに合意することを含みます。
サム・アルトマンが提案した「独立した監査」に関する2024年の進展は、AIシステムのガバナンスと監視の領域で顕著な発展を見せています。Communications of the ACMによると、独立したAIシステムの監査は、全世界の情報技術とコンピューティングの分野に大きな影響を及ぼす段階にあります。この取り組みは、IEEEの「Ethically Aligned Design」やEUの倫理ガイドライン作業グループなど、グローバルなコミュニティガイドラインに基づいて実施されており、監査および保証会社がAIとオートメーションを使用する企業のコンプライアンスを評価する能力を構築しています。
また、Nature Machine Intelligenceの記事では、独立した監査が信頼できる、安全で、信頼性の高いAIシステムを実現するための実用的なアプローチとして提案されています。独立した監査モデルは、財務監査および会計モデルに基づいており、年次の内部評価と監査を企業内に組み込むことで、裁判所や政府機関が金融セクターと同様に監査を制度化し、法律によって要件を拡大できるようにすることを目指しています。
Maryland大学のInstitute for Systems Researchによると、独立した監査は、AIがもたらす高プロファイルな事故や問題が増える中、これらのシステムと公共の信頼を確保するために重要です。リスク評価の実施、高忠実度データで失敗の文脈を捉える監査トレイルの設計、さまざまな運用環境と法的管轄区域での安全要件の遵守を強制することが、このアプローチの3つの柱です。
公共の基準の設定
概要:AGI取り組みがトレーニングランを停止すべき時、モデルがリリースに適しているかを判断すべき時、製品使用からモデルを引き上げるべき時に関する公共の基準が重要です。また、特定の規模以上のトレーニングランについては、主要な世界政府が洞察を持つことが必要です。
先日はダボス会議にも出席してAIのについての協議に参加したサム・アルトマンですが5月には影の世界政府との異名をもつビルダーバーグ会議にも呼ばれています。
ダボス会議でのAIに関する議論で、サム・アルトマンはAIの未来がエネルギーの革新に依存すると述べ、特に気候に優しいエネルギー源、例えば核融合や安価な太陽光発電とその貯蔵技術がAI発展の鍵となると強調しました。彼は、AIが期待以上に多大な電力を消費することになるため、この分野における革新が不可欠だとの見解を示しました。
一方で、スタンフォード大学のHAI (Human-Centered Artificial Intelligence Institute) からの洞察によると、ダボス会議でのAIに関する議論は、技術の巨大な影響、特に労働の性質、ビジネス戦略、生産性への影響に焦点を当てました。AIに関する議論は、実験から実装へと移行していることが強調され、AIの現実的かつ即時のリスクに対する十分な焦点が当てられていないことが指摘されています。
これらの情報から、サム・アルトマンや他の参加者がAIに関する重要な議題について議論し、さまざまなステークホルダーとの対話を通じて認識と理解を深めようとしていることは明らかです。
ただしAGIを誰しも望んでいるわけではない
日本でも全く関心のない人が多いように、アメリカ人の63%有権者が規制がAIの超知能を積極的に防ぐべきだと言っています。そのことは下記のnoteで詳しく書きましたので合わせてご覧ください。
この記事が気に入ったらサポートをしてみませんか?