numpy 및 torch의 일부 매트릭스 연산 명령문

기록을 위해 건너 뛰세요

행렬 곱셈 (x * w1)

# numpy
h = x.dot(w1)

# torch
h = x.mm(w1)

0보다 큰 것은 예약되고 0보다 작은 것은 0으로 설정되어 활성화 함수 ReLU의 효과를 얻습니다.

# numpy
h_relu = np.maximum(h, 0)

# torch
h_relu = h.clamp(min=0)

빼기 후 각 요소의 제곱의 합인 두 배열을 뺍니다.

# numpy
loss = np.square(y_pred - y).sum()

# torch
loss = (y_pred - y).pow(2).sum().item()

토치도 가져와야합니다..item()

행렬의 전치 취하기

# numpy
grad_w2 = h_relu.T.dot(grad_y_pred)

# torch
grad_w2 = h_relu.t().mm(grad_y_pred)

토치 사용.t()

배열 복사

# numpy
grad_h = grad_h_relu.copy()

# torch
grad_h = grad_h_relu.clone()

추천

출처blog.csdn.net/weixin_41529093/article/details/112996356