見出し画像

書記の読書記録#1126『強化学習アルゴリズム入門: 「平均」からはじめる基礎と応用』

曽我部 東馬『強化学習アルゴリズム入門: 「平均」からはじめる基礎と応用』のレビュー


レビュー

強化学習の核となるアルゴリズムを手計算で追う入門書。


もくじ

第1章 平均から学ぶ強化学習の基本概念
 1.0 はじめに
 1.1 平均と期待値
  1.1.1 平均
  1.1.2 期待値
  1.1.3 期待値と平均の関係
 1.2 平均と価値
 1.3 平均とマルコフ性
  1.3.1 平均の計算式とその変形
  1.3.2 逐次平均表現とMP
 1.4 平均によるベルマン方程式の導出
  1.4.1 平均表現と価値関数の導入
  1.4.2 決定型Bellman方程式の導出
  1.4.3 確率型Bellman方程式の導出
 1.5 平均によるモンテカルロ学習手法の導出
  1.5.1 総報酬関数Gt+1の導入
  1.5.2 総報酬GtとVtの比較
  1.5.3 総報酬Gtの平均による価値関数vSt
 1.6 平均によるTD法の導出
  1.6.1 TD(0)法の計算式の導出
  1.6.2 TD(n)法の計算式の導出

第2章 各アルゴリズムの特徴と応用
 2.0 はじめに
 2.1 方策π(a | S)
  2.1.1 多腕バンディット問題
  2.1.2 ε-Greedy方策
  2.1.3 UCB-1方策
  2.1.4 Bayes sampling方策
 2.2 動的計画法
  2.2.1 ε-Greedy(ε=1)反復方策
  2.2.2 ε-Greedy(ε=0)方策反復法(On-Policy)
  2.2.3 ε-Greedy(ε=0)価値反復法(Off-Policy)
 2.3 モンテカルロ法
  2.3.1 固定開始点モンテカルロ法
 2.4 TD(0)法
  2.4.1 方策反復方策からSARSA法の導出
  2.4.2 TD(0)-SARSA法
  2.4.3 価値反復方策からTD(0)-Q学習法の導出
  2.4.4 完全Off-Policy のTD(0)-Q学習法
  2.4.5 部分Off-Policy のTD(0)-Q学習法
  2.4.6 Q学習法とSARSA法の比較

第3章 関数近似手法
 3.0 はじめに
 3.1 関数近似の基本概念
 3.2 関数近似モデルを用いたV(St)の表現
 3.3 機械学習による価値関数の回帰
  3.3.1 誤差関数からわかる回帰と分類
  3.3.2 誤差関数の設計と確率勾配降下法
  3.3.3 強化学習における回帰解析の仕組み
 3.4 モンテカルロ法を応用した価値関数回帰
 3.5 Td(0)-SARSA法を適用した行動状態価値関数の回帰
 3.6 Td(0)-Q法を応用した行動状態価値関数の回帰

第4章 深層強化学習の原理と手法
 4.1 TD-Q学習におけるNNによる行動価値関数回帰
 4.2 DQNによる行動状態価値関数近似
 4.3 確率方策勾配法
  4.3.1 モンテカルロ離散方策勾配法
  4.3.2 ベースラインモンテカルロ離散方策勾配法
  4.3.3 離散型Actor-Critic法
  4.3.4 連続型Actor-Critic法
 4.4 決定型方策勾配法
  4.4.1 DDPG
  4.4.2 ハイブリッドDDPG
 4.5 TRPO/PPO法
  4.5.1 EMアルゴリズム
  4.5.2 信頼領域(trust region)と自然勾配
  4.5.3 信頼領域方策勾配法TRPO
 4.6 アルファ碁ゼロ学習法
  4.6.1 アルファ碁ゼロの学習誤差関数
  4.6.2 アルファ碁ゼロの学習方策π
 4.7 まとめと展開


本記事のもくじはこちら:


学習に必要な本を買います。一覧→ https://www.amazon.co.jp/hz/wishlist/ls/1XI8RCAQIKR94?ref_=wl_share