新しいナレッジ ポイントを確認するためのディープ ラーニング

1. x*y は要素ごとの乗算で、アダマール積とも呼ばれます x**y も

2. cat dim=0 行を積み重ねます。さらに多くの行があり、dim=1 列はさらに多くの列を積み上げます。

3.print(z.sum())#すべての値の合計が最終的に値になる print(z.numel())#すべての値の数 

        z.mean() の完全な平均は z.sum()/z.numl() に等しい

4. 行列パラダイム 行列はベクトルに引き込まれ、長さ f long を計算します

5. 行列転置 A=AT

6. sum () パラメータ keepdims=True を失わないように、合計は次元を失います

7.A.cumsum 累積和が面白い

8. 内積 torch.dot は要素ごとに乗算され、最終的に追加されてスカラーが返されます

9.torch.mv

10. torch の 1 つの次元は行ベクトルでなければならず、列ベクトルは行列でなければなりません

11. 部分導関数が微分可能でない場合、この時点での導関数は左と右の範囲の間にある

12.<x,w> x と w の内積

13.

x=たいまつ.オレンジ(4)

y1 = 2 * torch.dot(x, x)#y1 は、x をそれ自体で乗算してから 2 を乗算したスカラーです 28

y2=x * x #y2 はそれ自体で乗算され、ベクトル [0,1,4,9]

ベクトルの各要素に対して。非線形なので、合計後の非線形偏導関数は他の要素を無視するのと同じですか? したがって、backward はスカラーとしても使用できます

14. 印刷パラメーター end = '\r' を指定すると印刷されず、Enter キーを 1 回押す必要があります. これは、Linux の機能 '\r' が wi​​n10 とは異なるためです. 

15. 計算グラフから切り離します。ここで、と同じ値をy持つ新しい変数を返すために切り離すことができますが、計算グラフでの計算方法に関する情報は破棄します。つまり、勾配は を逆流することはありませuyyux

u = y.detach() グラデーションがなくなった

 だからあるでしょう

 16. Python 制御フローの勾配計算がわかりません

おすすめ

転載: blog.csdn.net/qq_36632604/article/details/129970146