見出し画像

【OpenAI・GoogleDeepMind現・元従業員「AIリスク」を警告】サイバー脅威と政策に関する重要ニュース

こんにちは。S2W NOTE編集です。
今回の記事では、グローバルニュースを中心にサイバー脅威や関連の政策に関して重要なニュースを抜粋してお届けします。

以下、韓国『聯合ニュース』2024年6月5日付の記事を翻訳・編集した内容になります。

13人の共同声明…「危険性に関する内部告発者の保護」を要求

ChatGPT開発会社OpenAIとGoogleDeepMindの現・前従業員が4日(現地時間)AIの危険性について警告しました。
彼らは、AIの危険性について懸念点を共有できるように、内部告発者に対する保護措置を確立するよう主張しています。

共同声明を出した13人は、「AI技術が人類に前例のない恩恵を提供できる可能性を信じる」としながらも「私たちは、このような技術によって引き起こされる深刻な危険性を知っている」と明らかにしました。

共同声明にはOpenAIの現従業員4人と元従業員7人、GoogleDeepMindの現・元従業員の各1名が名前を上げました。

彼らは「このようなリスクは既存の不平等を深化させることから、操作や誤った情報、潜在的に人間の絶滅を招く自律的なAIシステムの制御喪失まで様々で、世界各国の政府や他のAI専門家、AI企業自体もこれを認めている」と話しています。
それとともに「私たちはこのようなリスクを適切に緩和できることを希望する。AI企業は、利益を追求するために適切な管理監督ができず、企業内部の規制システムだけでは問題を解決できない」と指摘しました。
また「AI企業は様々な種類のリスクレベルに対する膨大な非公開情報を保有しているが、こうした情報の一部を政府、社会に共有する義務はなく、自発的に共有するとは思えない」とも述べました。

彼らは「こうした企業に対する政府の効果的な監督がない限り、現職や元従業員らは一般市民に責任を感じる少数派に過ぎない。彼らは同時に所属企業との広範な機密保持契約で懸念を表明することができない」と主張しました。
また、「一般的な内部告発者の保護は違法行為にあたり、私たちの一部は業界全般にわたってこのような(内部告発)事例の歴史を考慮すると、あらゆる形での報復を恐れている」と強調しました。

このような懸念に対して、企業のリスク関連の問題提起などに対する誹謗や批判を禁止する契約締結の禁止、独立機関にリスク関連の懸念事項を提起できる匿名手続きを設け、リスクの関連情報を公開する現職または元従業員に対する報復の禁止などを促しました。