オプティマイザーおよび loss.backward() 関連関数

ここに画像の説明を挿入します

optimizer.zero_grad() # 勾配のクリア (テンソルの勾配が蓄積されないように、最初に勾配をクリアする必要があります) loss.backward()は optimizer.step()
の導出に使用されます。
勾配降下法アルゴリズムの導関数を使用してパラメーターを更新します。

上記の一連の手順は変更できません

おすすめ

転載: blog.csdn.net/qq_45560230/article/details/132822819