optimizer.zero_grad() # 勾配のクリア (テンソルの勾配が蓄積されないように、最初に勾配をクリアする必要があります) loss.backward()は optimizer.step()
の導出に使用されます。
勾配降下法アルゴリズムの導関数を使用してパラメーターを更新します。
上記の一連の手順は変更できません
optimizer.zero_grad() # 勾配のクリア (テンソルの勾配が蓄積されないように、最初に勾配をクリアする必要があります) loss.backward()は optimizer.step()
の導出に使用されます。
勾配降下法アルゴリズムの導関数を使用してパラメーターを更新します。
上記の一連の手順は変更できません