人気の記事一覧

今後、AIアライメントがすごく重要になる

¥300
6か月前

AIアライメント/AIセーフティの4つの問題領域

4か月前

「科学×AI」から考えるAIアライメントの難しさ

6か月前

思考メモ:なぜ日本ではAIのexistential riskに挑もうと思う研究者が現れにくいのか(逆に海外ではなぜ現れるのか)

7か月前

非ヒト動物へのAIアライメント?

存亡リスクに対する「守護AI」の必要性と達成すべき2つの条件

5か月前

長期主義とエヴァ/セカイ系

6か月前

超知能AIが人類を滅ぼす…?

5か月前

OpenAI公式 2024年の世界的な選挙に対するOpenAIの取り組み(訳)

9か月前

アライメント・生きる意味のことについて

11か月前

効果的利他主義とは何か

AIは人類の息の根を止めるかも? というホラー話(マジな話です)

¥300
1年前

AIアライメントの第一人者が「このままだと人類はほぼ100%AIに滅ぼされる」と言っている件について ー道具的目標収束と直交仮説

1年前

将来、人間は自分よりはるかに賢いAIシステムを監督する必要があるだろう

10か月前

Eliezer Yudkowsky: AIの危険性と人類文明の終焉 | Lex Fridman Podcast和訳

1年前

Eliezer Yudkowsky: AIの危険性と人類文明の終焉 | Lex Fridman Podcastまとめ

1年前

10年後、世界はSFになると思う。

2年前

ハルシネーションの源泉

Elith AI Radio #8 🏛Safe SuperIntelligence 社が目指す安全な人工超知能 前編:AIアライメントとは👀

とあるコンテストに応募し、佳作となるまで

4か月前

AIアライメント問題について

AI関連の破局を防ぐ [分析結果]

キャリアレビュー:人工知能の安全性に取り組む研究者

AIのタイムライン ─ 提案されている論証と「専門家」の立ち位置

モダンな深層学習でAIアライメントが困難になるかもしれないわけ

人類に対するAIの脅威を真剣に受け取るべき理由

「(AIの) Alignment / Governance」の訳語「馴致善道」がDiscordで考案されるまでの流れ