見出し画像

d/acc: 加速主義vs利他主義の先にある「”暖かみのある”テクノロジー加速主義」

注:今回のテーマの'd/acc'は、本来Defensive, Decentralise, Democracy, Differentialなどの頭文字であるDとAccelerationのことだとVitalik Buterinは提唱しています。直訳すると、「防御的、分散的、民主的、差別化された(テクノロジー)加速主義」のようになります。
彼の文章を読んで、それぞれの"D"の意味するところの根本にあるのは、人間より圧倒的に優れた人工知能が登場したとしても生身の人間の自由と主体性が発揮される社会が理想であるという思想、そして未来の世代も含めた全人類への思いやりと希望を持った思想であると感じて、あえて「”暖かみのある”テクノロジー加速主義』と表現させてもらいました。

OpenAI騒動から火がついた、テクノロジー業界における「効果的加速主義(e/acc)」 vs 「効果的利他主義(EA)」の対立構造。
そこへ、両者の意見も取り込みながら技術進歩のリスクを意識して人類の歩みを前に進めるための「暖かみのあるテクノロジー加速主義」ともいえるような概念をイーサリアム創設者のVitalik Buterinが発表しました。

AIに限らずテクノロジー全般の未来に重要な思想だと思ったのですが、論文並みの文章量で、友人にすら気軽に勧めにくい・・と思ったので、自分のメモも兼ねて要約しました。途中の各論などはかなり省いているのでご了承ください。

・原文 「私のテクノ楽観主義」

要約

・過去100年の間、テクノロジーの恩恵は概して非常にポジティブなものだった


戦争や、内紛、疫病などがありつつも、食糧、衛生、医療技術の進歩により人間の寿命は歴史的に貧しい国であっても飛躍的に伸びている

・決して「テクノロジーが全てを良くする」わけではないが、その解決には人間の意志と行動が鍵になる

テクノロジーが全てを向上させてきたわけではない。技術進歩の弊害の代表例には環境破壊がある。
それでも、人類は自らの意志と行動を変えることで少しずつ状況を改善してきた。 例えばロンドンの大気汚染は19世紀末が最悪だった。酸性雨やオゾン層破壊も徐々に改善しているデータがある。

・AIのリスク1:人類存亡の危機

2022年に行われた調査だと、機械学習の研究者たちは平均して、AIによる人類存亡の危機の可能性は5~10%あると考えている。
Vitalik自身は〜10%くらいの確率で考えていて、極端な話ではあるが注意を払っておくべきだと考える。

人々の発言からそれぞれの立ち位置を視覚化した図:

・AIのリスク2:人工超知能と人類が共存できても、我々が主体的に能力を発揮できない未来

仮に人類に対して非常に友好的な人工超知能が現れたとしても、何をするにも彼らが人間よりも優れてしまい、人間はAIにとってのペットのような存在になってしまう可能性が高い。

AIが人智を超えると、相対的に人間の存在は我々が今思う「ペット」レベルになる可能性がある

・AIのリスク3:物理的制約のない強力な全体主義の可能性

デジタル世界で自動化されるAIの情報収集能力は、全体主義的な政府の権力をこれまで以上に広範囲に強化させる。
OpenAIが500人ほどのチームで1億人を優に超える人々へサービス提供できたように、AIを用いた少数の管理者によるデジタル監視体制は容易に構築可能になる。

・e/acc(効果的加速主義)の問題点

e/accは、テクノロジーの恩恵を信奉し、それを少しでも早く起こそうとする考え方。しかしそこには、テクノロジーあるいは権力の中心にいるものを信頼せざるを得ないことによる大きなリスクがある。

・EA(効果的利他主義)の問題点

EAは、e/accのリスクをバランスよく回避しながら社会への貢献とインパクトを最大化しようという、OpenAIの非営利組織が営利組織を支配するというガバナンススキームの土台にもなった。しかし、直近の騒動で構造的な問題があることも露見。


・”d/acc”の提唱

効果的加速主義と効果的利他主義どちらのリスクも防ぎながら、中央集権的な解決手段ではなく民主的な未来を維持するための思想哲学が”d/acc”

D=defense(防御的), decentralization(分散的), democracy(民主的) and differential(差分化された)などのDと、Acceleration(加速主義)

・テクノロジーには攻撃的なものと防御的なものがある

ある種の技術は、他者を攻撃することを可能にし、またその脅威によって他者の攻撃性をより高めさせる(例:軍事ロケットなど) 一方、人々が自分自身を守ること(場合によっては企業や政府に頼らずも)を可能にする守りの技術もある

・防衛的なテクノロジーの種類

基本的にテクノロジーは、アトムの世界と、ビットの世界(デジタル、仮想)に分けられる。 アトムの世界にはマクロとミクロ(バイオ)があり、ビットの世界はサイバーと情報(世論のようなイメージ)の両面がある

左:アトムの世界 右:ビットの世界

・アトム世界の物理的な防衛テクノロジー

核戦争が起きた際の最も大きな被害は食糧・インフラ危機からくると予測されている。簡単な機材でどこでもインターネットにアクセスできるStarlinkや、非常時でも機能する国際的なサプライチェーン技術が重要。

イスラエルのアイアンドームなどの防空システムもここに入る。

・アトム世界の防衛的なミクロ(バイオ)テクノロジー

コロナ以上の疫病は今後も起こりうる。大気汚染レベルの感知、パンデミック感知技術、ワクチン関連技術、それらへのオープンソース開発支援など

@CryptoRelief_などクリプトを通したさまざまな支援もすでにある

・ビット世界におけるサイバースペースの防衛的なテクノロジー

中央集権化されたソフトウェアに頼らざるを得ない今の世界はリスクが高い。
ブロックチェーンやゼロ知識証明などの暗号技術は、オンライン世界における人類の自由とプライバシーを確保する手段になりうる。よりオープンで安全で自由なインターネットのために。

・ビット世界における情報に対する防衛的なテクノロジー

フェイクニュースやデマ拡散、フィッシング詐欺等に対する、ユーザーによる分散型のソリューション。プラットフォーム側が独断的に善悪を決められないものが好ましい。
たとえば、Xで実装されているコミュニティノート機能はその理想的な例。


・それらを踏まえて、人工超知能の未来は?

AIの安全性を心配する人々の間で提案されているものには「多国籍AGIコンソーシアム」のようなトップダウンで規制をかけるべきという案もある。
しかしこれには技術の独占をきらう大衆の反発が予想されるし、中央集権的な全体主義に人々が永久にロックインされる可能性がある。

・多神教的なAI?

上記に反対する人の主なアプローチとして、多神教的なAI(polytheistic AI)ーー多くの人々や企業がそれぞれのAIを開発することで、AIがどんなに進化しても私たちはAIの均衡を保つことができるのではないか、という理論もある。

・イーサリアムからの学び

ただ、Vitalikがイーサリアムエコシステムから学んだのは、多神教的な均衡を保つのは非常に難しいということと、多くの市場は放っておくと自然と独占されていく方向に流れるということ。
仮に一つの超人工知能が頭抜けし、一人歩きし始めると、人間にそれを止める術はなくなる。

・人間の認知とAIの統合が理想?

別の方向性としては、AIを人間から切り離して考えるのではなく人間の認知を強化するものとして考えるものがある。
よく使われるようになったAIイラストツールはその初歩的な例。
しかし、人間の脳とAIの意思疎通を更にスムーズにしようとすると、より直接的な統合が必要になる。

そうすると次の自然なステップは、脳の電気信号や血流の変化を直接計測し、文字の打ち込みなどなく直接AIと繋がるようになるブレインコンピュータインターフェース(BCI)がある。
さらには、脳そのものを生物的物理的に改良するとか、最終的には意識をコンピュータにアップロードするというところまで行き着く。

人間がAIのペットではなく、主体性を持った存在である未来を望むなら、AIと人間の知覚の統合はもっともな選択肢であるように感じる。
しかし、この方向性は不可逆の進化であり、権力者が私たち一般人よりも圧倒的優位に立つ危険性も高いため、私企業がその中心にいるのではなくオープンソース開発運動が中心となるべき。

・AIと人間の認知の統合は、より安全なAIアライメントになるのではないか

AIを人間から独立したものとして切り離さないことで、AIの意思決定の各段階で人間のフィードバックに関与させることができ、AIが人類の価値観と全くそぐわないことを勝手にやってしまう可能性を減らすことができる。

・21世紀を生きる人類の挑戦

人間は欠点も多くあるが、「善」であろうと努力し、そのために自らの意志と行動を変えていける種である。
技術進歩を加速させることは大事。しかしいったい何のために加速して向かっているのか?と常に問い続けるべき。
21世紀は極めて重要な世紀であり、今後数千年を生きる人類の運命を決定するときになるかもしれない。
人類の自由と主体性を保つ未来のために、壮大な集団的努力を。

人類はどん底から生き延びてきた

この記事が気に入ったらサポートをしてみませんか?