- 運営しているクリエイター
#出力層サイズ
深層学習2dayレポート
[内容]
今回は、ニューラルネットワークでのいくつかの注意点と、代表的なアルゴリズムの考え方を学ぶ。
Section1:勾配消失問題
【解説】
勾配消失問題とは、下位層に誤差逆伝搬法が進んでいく時に勾配がなだらかになり、更新がほとんど変わらない、最適化にならず収束しない現象のことである。
※横が学習回数、縦がtraining と test の正解率。本来は右のように学習を重ねれば正解率が上
[内容]
今回は、ニューラルネットワークでのいくつかの注意点と、代表的なアルゴリズムの考え方を学ぶ。
Section1:勾配消失問題
【解説】
勾配消失問題とは、下位層に誤差逆伝搬法が進んでいく時に勾配がなだらかになり、更新がほとんど変わらない、最適化にならず収束しない現象のことである。
※横が学習回数、縦がtraining と test の正解率。本来は右のように学習を重ねれば正解率が上