見出し画像

OpenAIのAI危険対策チームトップが「限界に達し」退社 「安全確保が後回しになっている」


概要

米OpenAIのSuperalignmentチームのトップ、ヤン・ライケ氏が5月17日(現地時間)、退社を発表しました。退社の理由として、幹部チームとの中核的優先事項についての意見の相違と、限界に達したことを挙げています。


Superalignmentチームとは?

Superalignmentチームは、OpenAIが昨年結成したもので、人間よりもはるかに賢いAI「Superintelligence(超知能)」の制御を目指しています。このチームは、ヤン・ライケ氏と共同創業者でチーフサイエンティストのイリヤ・サツケバー氏によって率いられてきました。サツケバー氏も5月14日に退社を発表しています。

退社の背景

ライケ氏は、「超知能の構築は本質的に危険な取り組み」であり、OpenAIが「安全性よりも輝かしい製品の開発を優先している」と警鐘を鳴らしています。彼はまた、OpenAIが人類全体に対して大きな責任を持っていると強調しています。

OpenAIのリスク軽減策

OpenAIは昨年2月に、AGI(Artificial General Intelligence;汎用人工知能)を「一般的に人間より賢いAIシステム」として定義し、そのリスク軽減策について説明しました。Superalignmentチームの結成は、その一環として行われました。

ライケ氏のメッセージ

ライケ氏はOpenAIに対し、「AGIの重要さを実感し、AGIにふさわしい厳粛な態度で臨むよう」訴えました。また、「私も世界中も、あなたたちを信頼しています」というメッセージを残しています。

サム・アルトマンCEOの反応

ライケ氏の退社発表の数時間後、サム・アルトマンCEOは「ライケ氏が去るのは非常に残念だ。彼の言う通り、やるべきことはまだたくさんある。数日中により長いポストでそれについて説明する」とコメントしています。

まとめ

ヤン・ライケ氏の退社は、AI研究とその安全性に関する深刻な課題を浮き彫りにしています。これからもAI技術の進展とともに、そのリスクと向き合うための取り組みが求められます。

参考文献


この記事が気に入ったらサポートをしてみませんか?