最近の記事
深層学習:ニューラルネットワークにおけるコスト関数最小化法 Classical Momentum,NAG,Sutskever NAG
勾配降下法は、コスト関数$${J({\bm w})}$$の勾配にのみ注目しているため、局所的最小値に取り込まれやすい。このため、確率勾配降下法などで、重みを大きく振らしているが、この振動のためにコスト関数の形状によって収束に時間がかかることがある。 これを克服するために、勾配だけでなく、重みの変化割合(速度)に応じた情報も入れて更新するのが、モーメンタム法である。 以下、重みの更新時を$${t}$$とし、$${t}$$から$${t+1}$$での重みの更新を $${{\bm
ファイナンス機械学習:機械学習によるアセットアロケーション アウトオブサンプルのモンテカルロシミュレーション HRP,IVP,CLA
インサンプルでパフォーマンスの高いものが、アウトオブサンプルで同じパフォーマンスを示すとは限らない。 モンテカルロ法を使い、CLAの最小分散ポートフォリオ、リスクパリティのIVP、そしてHRPポートフォリオのアウトオブサンプルにおけるパフォーマンスを比較する。 平均ゼロで10%の標準偏差の正規リターンを、$${520 \times 10}$$作成する。520の観測値個数は日次ベースで2年に相当する。 現実の価格はジャンプがあることから、生成データにランダムなショックと相