PyTorch (2) - AUTOGRAD Tutorial

autograd tutorial の補足。  vector-Jacobian productの中身がよくわからないので、書き出してみる。

[11]  この y.data.norm() は単純にtensor y のユークリッドノルムなので、二乗和のsqrtをとる(Ref.)。

画像1

[16] normを確認。
[13] while loopは y=2x, y=4x, ... と続き、最後はy=512xなので、y=[512*0.6196, 512*-1.6261, 512*-0.9298]=[317.2352, -832.5632, -476.0576]となる。
gradient(勾配)は、でd(y)/dx=d(512x)/dx at vで以下となる。

画像2


この記事が気に入ったらサポートをしてみませんか?