見出し画像

AIと実存的リスクに関する議論における3つの重要な誤解。


ジャック・ケリー(Jack Kelly)

Physicians for Social Responsibilityの研究員で、AIガバナンスとAIとその他の実存的リスクとの関わりに焦点を当てて、彼は最近、ハーバード大学(Harvard University)を卒業し、公共政策を専門とする政治学の学士号と経済学の副専攻を取得したジャック・ケリー(Jack Kelly)は、地球最後の日までの残り時間を概念的に示す「世界終末時計」を発表している米国科学誌「ブレティン・オブ・ジ・アトミック・サイエンティスツ(Bulletin of the Atomic Scientists)」で2024年07月15日に、AI(artificial intelligence/人工知能) の巨大なチャンスと混乱に適応することは、この世代の決定的な課題の1つとなるでしょう。成功するには、明確な優先順位と潜在的な落とし穴に対する健全な認識が必要です。AI による絶滅のリスクを軽減することは、世界的な優先事項であるべきでしょうか? 多くの主要なAI専門家が公にそう述べています。その中には、3人の「AI のゴッドファーザー」のうちの2人、ヨシュア・ベンジオ(Yoshua Bengio)とジェフリー・ヒントン(Geoffrey Hinton)も含まれています。この重大な主張は、当然のことながら、一般の人々と、3人目の「ゴッドファーザー」であるヤン・ルカン(Yann LeCun)を含む他のAI専門家の両方から懐疑的な見方を引き起こしました。

専門家の間でAIのリスクの正確な性質に関する意見の相違がある一方で、一般の人々の懸念は大幅に高まっています。近年、これまで以上に高性能なAIモデルが猛烈なペースでリリースされています。たとえば、OpenAIのChatGPT-5はすでに開発中で、今年後半にリリースされる可能性があります。

調査機関Rethink Prioritiesが2023年に実施したオンライン世論調査では、米国の成人の59%がAIによる絶滅リスクの緩和を優先することに賛成し、26%が反対していると推定された。国民の大多数がAIを懸念している一方で、AIの安全性と規制の重要性については懐疑的な見方が根強い。

ここから先は

4,821字

人工知能と量子コンピュータの最新情報を時間軸と共に書き込んでいきます。

この記事が気に入ったらサポートをしてみませんか?