人気の記事一覧
思考メモ:なぜ日本ではAIのexistential riskに挑もうと思う研究者が現れにくいのか(逆に海外ではなぜ現れるのか)
存亡リスクに対する「守護AI」の必要性と達成すべき2つの条件
OpenAI公式 2024年の世界的な選挙に対するOpenAIの取り組み(訳)
AIは人類の息の根を止めるかも? というホラー話(マジな話です)
AIアライメントの第一人者が「このままだと人類はほぼ100%AIに滅ぼされる」と言っている件について ー道具的目標収束と直交仮説
将来、人間は自分よりはるかに賢いAIシステムを監督する必要があるだろう
Eliezer Yudkowsky: AIの危険性と人類文明の終焉 | Lex Fridman Podcast和訳
「(AIの) Alignment / Governance」の訳語「馴致善道」がDiscordで考案されるまでの流れ
Eliezer Yudkowsky: AIの危険性と人類文明の終焉 | Lex Fridman Podcastまとめ
キャリアレビュー:人工知能の安全性に取り組む研究者
AIのタイムライン ─ 提案されている論証と「専門家」の立ち位置
モダンな深層学習でAIアライメントが困難になるかもしれないわけ