見出し画像

イーロン・マスクがAIラボにブレーキをかける公開書簡に署名。

TIMEの記事の記事全文の邦訳です。
https://time.com/6266679/musk-ai-open-letter/

イーロン・マスクを含む技術界の大物数百人が署名した公開書簡が、世界有数の人工知能研究所に対し、最近のAIの進歩が "社会と人類に重大なリスクをもたらす "として、新しい超強力システムの訓練を6ヶ月間休止するよう促していることがわかりました。

この書簡は、これまでで最も強力なAIシステムであるOpenAIのGPT-4の一般公開からわずか2週間後のことで、研究者はAGI(人間の認知能力を超える人工一般知能)がいつ到来するかという予想を切り下げることになった。多くの専門家は、AIの軍拡競争が過熱する中、人類は大惨事へと夢見がちになっているのではないかと懸念しています。

「先進的なAIは、地球上の生命の歴史に大きな変化をもたらす可能性があり、相応の配慮と資源を投入して計画・管理されるべきです」と、書簡は述べています。「残念ながら、このレベルの計画と管理は行われていません。ここ数カ月、AI研究所は、誰も(その作成者でさえも)理解できず、予測できず、確実に制御できない、これまで以上に強力なデジタルマインドを開発し展開するための制御不能な競争に陥っています」。

署名者リストには、マスクの他に、アップル共同創業者のスティーブ・ウォズニアック、サピエンス著者のユヴァル・ノア・ハラリ、機械学習における複数のブレークスルーを担当したAIの最も著名な学者など、1,000人以上の名前が記載されています。火曜日の時点で、OpenAIの従業員はこの書簡に署名していません。ただし、CEOのSam Altmanの名前は、署名者のリストから一時的に表示された後に消えました。また、子会社のAI研究所DeepMindの3人を含む少なくとも4人のGoogle社員、Stability AIのCEOであるEmad Mostaque氏、Center for Humane Technologyの執行役員であるTristan Harris氏もリストに掲載されている。TIMEは、すべての署名が本物であることを確認することができませんでした。

"Contemporary AI systems are now becoming human-competitive at general tasks "と、Future of Life Instituteのウェブサイトに掲載された書簡には書かれています。「私たちは自問自答しなければならない: 私たちは、機械にプロパガンダや真実でない情報を流させるべきでしょうか?充実した仕事も含めて、すべての仕事を自動化すべきなのか?私たちは、やがて私たちよりも数が多く、賢く、時代遅れで、私たちに取って代わるかもしれない非人間的な精神を開発すべきなのか?私たちは、文明のコントロールを失うリスクを冒すべきなのでしょうか?そのような決定を、選挙で選ばれたわけでもない技術指導者に委ねてはならない。"

書簡は、すべてのAI研究所に対し、安全性研究を継続するために提案された6ヶ月の一時停止を利用することに同意するよう求めています。「AI研究所と独立した専門家は、この休止期間を利用して、高度なAIの設計と開発に関する一連の共有安全プロトコルを共同で開発・実施すべきであり、独立した外部の専門家によって厳格に監査・監督されるべきである」と述べています。"これらのプロトコルは、それを遵守するシステムが合理的な疑いを超えて安全であることを保証する必要があります。" この書簡の背後にいる人々は、AI開発全般を一時停止することを求めているのではなく、むしろ "創発的な能力を持つ、これまで以上に大きな予測不可能なブラックボックスモデルへの危険な競争から一歩退くこと "を求めていると記しています。

公開書簡の署名者であり、書籍『Rebooting AI』の著者であるゲイリー・マーカスは、TIMEに対し、発言する責任を感じて自分の名前を加えたと語った。"短期的、長期的に深刻なリスクがあり、企業のAI責任は、人類が最も必要としている時に、ファッションを失ってしまったようだ "と彼は言った。"多くのリスクを抱えた未知の領域へ、これほど早く失策することは、あまり良い方法とは思えません。もし(企業が)こうしたリスクを十分に真剣に受け止めようとしないのであれば、私たち残りの者が声を上げることが重要です。"

AI安全性スタートアップSaferAIのCEOであるSimeon Camposは、この書簡に署名した理由について、そのシステムの発明者でさえ、その仕組みが正確にわからず、何ができるのかもわからず、その行動に制限を設ける方法もわからないのに、システムのリスクを管理することは不可能であるとTIMEに語っています。「私たちは今、何をしているのでしょうか?とカンポス氏は言います。"私たちは、このようなシステムを前例のないレベルの能力まで拡大し、社会に変革的な影響を与える競争を全速力で行っています。私たちは、社会が適応できるようにこれらのシステムの開発を減速させ、設計上安全で形式的に検証可能な代替AGIアーキテクチャを加速させる必要があります。"

オープンレターは希望的観測で締めくくられています。"社会は、社会に壊滅的な影響を与える可能性のある他の技術について、(以前)一時停止をしたことがあります。私たちは、ここでそうすることができます。準備不足のまま秋に突入するのではなく、長いAIの夏を楽しみましょう。

この記事が気に入ったらサポートをしてみませんか?