見出し画像

AI、人類絶滅リスク: Center for AI Safety(CAIS)の警告

AI技術の進歩は、人類の生活を大いに便利にし、可能性を広げてきました。しかし、一部の専門家たちは、この技術が全人類の絶滅リスクをもたらす可能性を指摘しています。Center for AI Safety(CAIS)などの組織は、この問題についての議論を広めるために活動しています。

Center for AI Safety(CAIS)とは?

CAISはサンフランシスコに拠点を置く研究とフィールドビルディングの非営利団体で、AIの社会規模のリスクを軽減することをミッションとしています。AIが世界に深い影響を与える可能性がある一方で、AIの安全に関する基本的な問題はまだ解決されていません。そのため、CAISはAI安全研究を行い、AI安全研究者のフィールドを構築し、安全基準の推進に取り組んでいます。

ちょっとここで、この.aiと言うドメインについて触れておくと、".ai" は実際にはカリブ海の英領アンギラ(Anguilla)の国別コードトップレベルドメイン(CCTLD)です。ただし、AI(Artificial Intelligence、人工知能)の頭文字でもあるため、AI関連の企業や組織がこのドメインを利用することが増えています。www.safe.aiと言うドメインを持つCenter for AI Safetyは、その名前を取得するための手続きを経ています。

AIのリーダーたちの警告

2023年5月30日に、CAISはAIのリーダーたちからの一文の声明を発表しました。この声明はOpenAIやDeepMindのエグゼクティブ、チューリング賞受賞者、その他のAI研究者によって署名されており、彼らの一生の仕事が人類全体を消滅させる可能性があると警告しています。声明の内容は次のとおりです。「AIからの絶滅のリスクを緩和することは、パンデミックや核戦争など他の社会規模のリスクと並ぶグローバルな優先事項であるべきです」。

CAISの声明文の内容

CAISの声明文は、"Mitigating the risk of extinction from AI should be a global priority alongside other societal-scale risks such as pandemics and nuclear war"と述べています。つまり、「AIによる絶滅のリスクを軽減することは、パンデミックや核戦争などの他の社会規模のリスクと並んで、全球的な優先事項であるべきだ」と主張しています。

この声明は、OpenAIのCEOであるSam Altmanや、DeepMindのCEOであるDemis Hassabis、そしてTuring賞受賞者のGeoffery HintonとYoshua Bengioなど、AI研究の重要なリーダーたちによって署名されました。また、UC Berkeley、Stanford、MITの教授たちもこの声明に署名しています。

声明の内容は短く、AIが具体的に何を指すのか、また、絶滅のリスクをどのように軽減するかについては明確には述べられていません。その代わりに、AIのリスクについて警告することを重視し、AIのリスクが我々を不意に襲わないようにするために、ガードレールを設置し、制度を設けることを主張しています。

AIのリスクに対する反応

かし、AIのリスクに対する警告には、様々な反応があります。声明が発表された後、機械学習の研究科学者であるDr. Sasha Luccioniは、新たなCAISの声明を手品のように見なしました。彼女は、「まず、AIの存在論的リスクを、パンデミックや気候変動のような非常に具体的なリスクと同じくらい信憑性があると見なすことで、公衆の信頼を得ている」と述べました。また、「これはまた、公衆の注意を一つの事項(未来のリスク)に引きつけることで、他の事項(具体的な現在のリスク、例えばバイアス、法的問題、同意)について考えないようにする誤導である」とも指摘しています。

AIリスクに関する過去の議論

過去にはAIのリスクについて多くの議論が行われてきました。その中でもNick Bostromの著書"Superintelligence"は、この問題についての深い洞察を提供しています。彼の著書では、AIのリスクはそれがスポンティニアスに悪意のある意識を持つことからではなく、人間が目標を指定したより知的な最適化プロセスを展開する際の予測不能性と可能な不可逆性から生じる可能性があると指摘しています。

何を具体的にAIと指すのか?

この声明の特筆すべき点は、その短さと、何を具体的に"AI"と定義しているのか、また絶滅のリスクをどのように緩和すべきかについて明確に述べていないことです。

サム・アルトマン氏のブログからは、"AI"が未来に開発されうるAGI(人工汎用知能)を指していると解釈できます。OpenAIはAGIの開発が進むにつれて、セキュリティ上の理由から透明性が制限される可能性があると認識しており、その技術の誤用を防ぐために厳格な安全対策を導入し、他の研究と開発の進行を密接に監視しています。さらに、AGIが社会全体の利益に反するような使用が懸念される場合や、他のプロジェクトが安全で価値観に一致したAGIを開発する可能性がある場合、OpenAIは競争よりも協力を選ぶことを約束しています。

サム・アルトマン氏のブログをまとめた記事はこちら↓


この記事が気に入ったらサポートをしてみませんか?