いしかわ こうや

割とメモ帳替わりに使ってます

いしかわ こうや

割とメモ帳替わりに使ってます

最近の記事

2月成果報告

- 英語学習英語学習単体でやる事はあまりなかった。 リスニングと多読精読辺りは今後やっていきたい。 家に英語耳とTOEIC公式リスニング集があるのでそこらへんでリスニングは強化したい。 多読はラダー本、精読はなんかいい参考書を探す予定。 - 情報系基礎知識の学習これは完全に頓挫。頓挫衛門。(出典:東海オンエア) 東海オンエアに最近またハマってる。 CPUの創り方を最初に読んだが、これは面白かった。まだ1週しかよんでないけどもう一回読んだらかなり理解が進みそう。かなり

    • 2月目標

      月の目標と立ててそれをどれだけ達成できるかメモ - 英語学習ここは通年の目標になりそう。 とりあえず、論文読みや教科書で補う - 情報系基礎知識の学習ここで紹介されてる本が良さそうなのでここら辺から - 強化学習の勉強Sutton本を地道に読んでいく - 研究今月に論文提出があるので。

      • Cryptocurrency Portfolio Management with Deep Reinforcement Learning

        タイトル 『Cryptocurrency Portfolio Management with Deep Reinforcement Learning』(IntelliSys 2017) 著者 Zhengyao Jiang, Jinjun Liang 概要 強化学習を用いた仮想通貨におけるポートフォリオ最適化の論文。 本論文では方策勾配法のアルゴリズムを用いている(ポートフォリオ最適化の場合アクションは連続である事が多い為)

        • Never Give Up: Learning Directed Exploration Strategies

          タイトル 『Never Give Up: Learning Directed Exploration Strategies』(ICLR 2020) (URL: https://openreview.net/forum?id=Sye57xStvB) 著者 『Adrià Puigdomènech Badia, Pablo Sprechmann, Alex Vitvitskyi, Daniel Guo, Bilal Piot, Steven Kapturowski, Olivie

          Portfolio Management using Reinforcement Learning

          タイトル 『Portfolio Management using Reinforcement Learning』(2016) (URL:http://cs229.stanford.edu/proj2016/report/JinElSaawy-PortfolioManagementusingReinforcementLearning-report.pdf) 著者 O Jin, H El-Saawy 概要 深層強化学習(DQN)を使ってポートフォリオ最適化をした論文。 DQN

          Portfolio Management using Reinforcement Learning

          Stabilizing Transformers for Reinforcement Learning Emilio

          タイトル 『Stabilizing Transformers for Reinforcement Learning Emilio』(ICML 2020) (URL:https://arxiv.org/abs/1910.06764) 著者 Emilio Parisotto, H. Francis Song, Jack W. Rae, Razvan Pascanu, Caglar Gulcehre, Siddhant M. Jayakumar, Max Jaderberg,

          Stabilizing Transformers for Reinforcement Learning Emilio

          Agent57: Outperforming the Atari Human Benchmark

          タイトル 『Agent57: Outperforming the Atari Human Benchmark』(ICML 2020)(URL:https://arxiv.org/abs/2003.13350) 著者 Adrià Puigdomènech Badia, Bilal Piot, Steven Kapturowski, Pablo Sprechmann, Alex Vitvitskyi, Daniel Guo, Charles Blundell 概要 57種類す

          Agent57: Outperforming the Atari Human Benchmark

          RECURRENT EXPERIENCE REPLAY IN DISTRIBUTED REINFORCEMENT LEARNING

          タイトル 『RECURRENT EXPERIENCE REPLAY IN DISTRIBUTED REINFORCEMENT LEARNING』(ICLR 2019)(URL:https://openreview.net/forum?id=r1lyTjAqYX) 著者 Steven Kapturowski, Georg Ostrovski, John Quan, R´emi Munos, Will Dabney 概要 これまでの分散学習や優先度付き経験再生を元にRNNベ

          RECURRENT EXPERIENCE REPLAY IN DISTRIBUTED REINFORCEMENT LEARNING

          Deep Direct Reinforcement Learning for Financial Signal Representation and Trading

          タイトル 『Deep Direct Reinforcement Learning for Financial Signal Representation and Trading』 (IEEE TRANSACTIONS ON NEURAL NETWORKS AND LEARNING SYSTEMS, VOL. 28, NO. 3, MARCH 2017)(論文元) 著者 Yue Deng, Feng Bao, Youyong Kong, Zhiquan Ren, Qiong

          Deep Direct Reinforcement Learning for Financial Signal Representation and Trading

          DISTRIBUTED PRIORITIZED EXPERIENCE REPLAY

          タイトル 『DISTRIBUTED PRIORITIZED EXPERIENCE REPLAY』(ICLR 2018) (URL: https://openreview.net/forum?id=H1Dy---0Z) 著者 Dan Horgan, John Quan, David Budden, Gabriel Barth-Maron, Matteo Hessel, Hado van Hasselt, David Silver 概要 分散学習を利用する事で学習時間の短縮、

          DISTRIBUTED PRIORITIZED EXPERIENCE REPLAY

          Massively Parallel Methods for Deep Reinforcement Learning

          タイトル 『Massively Parallel Methods for Deep Reinforcement Learning』(ICML 2015) (URL:https://arxiv.org/abs/1507.04296) 著者 Arun Nair, Praveen Srinivasan, Sam Blackwell, Cagdas Alcicek, Rory Fearon, Alessandro De Maria, Vedavyas Panneershelvam

          Massively Parallel Methods for Deep Reinforcement Learning

          Rainbow: Combining Improvements in Deep Reinforcement Learning

          タイトル 『Rainbow: Combining Improvements in Deep Reinforcement Learning』 (AAAI2018) (URL:https://arxiv.org/abs/1710.02298) 著者 Matteo Hessel, Joseph Modayil, Hado van Hasselt, Tom Schaul, Georg Ostrovski, Will Dabney, Dan Horgan, Bilal Piot, M

          Rainbow: Combining Improvements in Deep Reinforcement Learning

          Dueling Network Architectures for Deep Reinforcement Learning

          タイトル 『Dueling Network Architectures for Deep Reinforcement Learning』 (ICML 2016) (URL:http://proceedings.mlr.press/v48/wangf16.html) 著者 Ziyu Wang, Tom Schaul, Matteo Hessel, Hado Hasselt, Marc Lanctot, Nando Freitas 概要 CNN, LSTM, AEなどの従来の

          Dueling Network Architectures for Deep Reinforcement Learning

          Computational Learning Techniques for Intraday FX Trading Using Popular Technical Indicators

          タイトル 『Computational Learning Techniques for Intraday FX Trading Using Popular Technical Indicators』(IEEE TRANSACTIONS ON NEURAL NETWORKS, VOL. 12, NO. 4, JULY 2001) (URL:https://ieeexplore.ieee.org/abstract/document/935088) 著者 M. A. H. Dem

          Computational Learning Techniques for Intraday FX Trading Using Popular Technical Indicators

          PRIORITIZED EXPERIENCE REPLAY

          タイトル 『PRIORITIZED EXPERIENCE REPLAY』(ICRL 2016) (URL: https://arxiv.org/abs/1511.05952) 著者 Tom Schaul, John Quan, Ioannis Antonoglou, David Silver 概要 従来の経験再生はリプレイメモリからランダムにサンプリングしてくるだけだったが、サンプリングの仕方に優先度をつける事(prioritized experience replay)

          PRIORITIZED EXPERIENCE REPLAY

          Deep Reinforcement Learning with Double Q-learning

          タイトル 『Deep Reinforcement Learning with Double Q-learning』(AAAI 2016) (URL:https://arxiv.org/abs/1509.06461) 著者 Hado van Hasselt, Arthur Guez, David Silver 概要 DQNとDouble Q-learningを組み合わせた"Double DQN"という手法に関する論文。 Q-learningには価値関数の過大評価をしてしまう

          Deep Reinforcement Learning with Double Q-learning