![見出し画像](https://assets.st-note.com/production/uploads/images/70371439/rectangle_large_type_2_24aa07ae3fbafa2289487e5124c9a274.png?width=800)
E資格【ラビット・チャレンジ】107日目/E資格の為の「 Deep Learning – Adaptive Computation and Machine Learning series」の14章Autoencodersの種類と式。
E資格の黒本で学習していると自己符号化器がでてきた。
PCAみたいな、次元削減用の道具であるみたいだけれど
問題は1問しか出てこなかった。
ただポイントに「多多出てきます」とか「よく出題されるので」と書いてあった。つまり、必ず1問くらい出てくるよという事なのだと思うのでまとめてみます。
尚、この記録自体が「自分の知識の定着を出来るだけ加速させる」に基づいたものであって、なんというか、知識を雪だるまころがしに例えるなら、その核づくりみたいなイメージです。
40歳過ぎちゃうとなかなか「核」小さな種も、記憶に残らない事が多く、まずは正しいらしい小さなことを記憶し、今後の学習の中で再度であった時ちゃんと「たしかあの時の知識」と感じ知識の吸収を促進させる。
忘れていても探すものを検討をつける。たとえば、この本に書いてあったような?とか。。。
再度あった時に。「初めて知った、、、」となりまた同じことを探さないようにするためと言うのが目的となっています。
では
「 Deep Learning – Adaptive Computation and Machine Learning series」の14章Autoencodersの種類と式。
まず、無料版はこちら。
英語ですが、翻訳すればなんとなく雰囲気がわかります
入力より次元が少ない時、不完全符号化器とも呼ばれる。
最小化:
以降は正則化オートエンコーダー
スパース オートエンコーダー
最小化:
最小化:
最小化:
この場合は、
このように正規化された自己符号器は、合計AutoEncoder、またはCAEと呼ばれます。 このアプローチは、雑音除去自己審査員、マニホールド学習、そして確率的モデリングへの理論的な接続を有する。 CAEはMoredetailで説明されています
あと、最尤法以外のスコア、評価方法が有るらしいけれどよくわからないけれど式がある。
この記事が気に入ったらサポートをしてみませんか?