기록을 위해 건너 뛰세요
행렬 곱셈 (x * w1)
# numpy
h = x.dot(w1)
# torch
h = x.mm(w1)
0보다 큰 것은 예약되고 0보다 작은 것은 0으로 설정되어 활성화 함수 ReLU의 효과를 얻습니다.
# numpy
h_relu = np.maximum(h, 0)
# torch
h_relu = h.clamp(min=0)
빼기 후 각 요소의 제곱의 합인 두 배열을 뺍니다.
# numpy
loss = np.square(y_pred - y).sum()
# torch
loss = (y_pred - y).pow(2).sum().item()
토치도 가져와야합니다..item()
행렬의 전치 취하기
# numpy
grad_w2 = h_relu.T.dot(grad_y_pred)
# torch
grad_w2 = h_relu.t().mm(grad_y_pred)
토치 사용.t()
배열 복사
# numpy
grad_h = grad_h_relu.copy()
# torch
grad_h = grad_h_relu.clone()