見出し画像

AIの未来を守る:マンハッタン計画の再来

この逆説的な興味深い記事があったので解説していきます。
このオピニオンリーダーはAI開発をマンハッタン計画になぞらえたのは
前回引用したサム・アルトマン氏のAI開発がマンハッタン計画になりうる懸念を示した事を受けた物とおもいます。

下記の記事参照↓

ワシントン、テックCEOたちを緊急招集

人工知能に対する懸念が、突然ワシントンを席巻しています: ホワイトハウスはハイテク企業のCEOを集め、新しいAIプラットフォームの安全性について圧力をかけ、議会は破壊的で危険な新技術を規制する方法を模索しています。

マンハッタン計画という成功の先例

マンハッタン計画は、20世紀で最も野心的な技術事業でした。ピーク時には、12万9000人が米国とカナダの各拠点でこのプロジェクトに取り組みました。彼らは、国家の安全保障に関わる重要な問題でありながら、誰も解決できるとは思っていなかった、「原子力を利用して兵器を製造する方法」を解決しようとしていたのです。

新たな挑戦:AIのマンハッタン計画

それから約80年後、当初のマンハッタン計画の規模と緊急性に匹敵する政府研究プロジェクトの必要性が生じています。ある意味では、想像を絶する破壊への扉を開いた最初のマンハッタン計画とは正反対の目標で。今回は、想像を絶する破壊を防ぐだけでなく、予測困難な破壊を防ぐことも目標にしなければならないのです。

AIの父、警鐘を鳴らす

今日のAIモデルの基礎を築いた科学者たちでさえ、警鐘を鳴らしており、最近では、「AIのゴッドファーザー」ことジェフリー・ヒントン氏自身が、AIが人類にもたらすリスクに注意を喚起するため、グーグルの職を辞しました。

AI問題:先送り不可

政府は、研究が比較的安全に進むようにすることもできます。そして、専門家が知識を共有するための中央接続を提供することもできます。
このような大規模な公的努力の代替案として、AI問題で缶詰になることを試みても、それは無理でしょう。

AI安全性:待つことなかれ

今現在の唯一の真剣な提案は、新しいAI開発の「一時停止」ですが、多くの技術懐疑派でさえ、それは非現実的だと見ています。それは逆効果になる可能性さえあります。
強力なAIシステムがどのように不正を働くかについての理解は未熟ですが、継続的なテスト、特に大規模なモデルのテストを通じて、大きく改善する可能性があります。
そのため、安全な環境でAIの故障モードを実験するためには、エアギャップのあるデータセンターが不可欠となります。これには、モデルを限界まで追い込んで、欺瞞や権力追求など、潜在的に危険な創発行動を探ることも含まれます。

以下の記事を参照しました↓

G7広島サミットは5月19日~21日に開催されます。
AI戦略会議が開かれ議題にAIのルール作りも話される模様です。
過去にマンハッタン計画の実験場となり広島で約14万人、長崎で約7万4千人が亡くなったその爆心地でサミットが開かれますが、広島はAIのための新生マンハッタン計画の本拠地となる事を目指して欲しいです。つまり、新生マンハッタン計画は、想像を絶する破壊を防ぐだけでなく、予測困難な破壊を防ぐことも目標にしなければならないのです。

筆者感想


この記事が気に入ったらサポートをしてみませんか?