OpenAIのAI危険対策チームトップが退社
ソルト(@saltygelicita)です。
OpenAIのAI危険対策チームトップのライケ氏が退社。
人間よりもはるかに賢いAI「Superintelligence」(超知能)の制御を目指して昨年結成されたSuperalignmentチームの共同トップだった。
共同創業者でチーフサイエンティストのイリヤ・サツケバー氏も14日に退社。
ライケ氏はOpenAIに対し、「AGIの重要さを実感してください。AGIにふさわしい厳粛な態度で臨んでください」「私も世界中も、あなた