次の図に示す単純な単層パーセプトロンモデルの
すべての入力のための左入力層、
、上付き文字0は層0(すなわち、入力層)を表し、添え字は、0〜N N + 1個の要素を発現しました。中間重量について
、
、上位階層のノード番号を表し
次の層のノード数を表します。密接にそれぞれの和を追いました
、および
機能。Eを比較T(ターゲット)の出力値、エラーまたは損失の背後を表します
我々は単層パーセプトロン勾配式について推論次
まず、定義します 、どこの追加 値の確立が結果の単調さを変更しないので、問題ありませんが、便宜上、ここではプラスがあるだろう、スワップオフセットパラメータ導出2を容易にすることです
KaTeXパースエラー:いいえ、そのような環境:8位の整列*:\ {ALIGN *}始める\ FRAC {\ nabl ...
因为
従って
KaTeX解析エラー:このような環境:
ALIGN * 8位に:\ {ALIGN *}(O ^ 1_0 - t)を開始... \ 、したがって
結果から分かります 重量に 勾配のみ出力ノード そして、入力ノード について
import torch
import torch.nn.functional as F
x = torch.randn(1, 10) # dim=2,len=10, x为[1,10]的tensor
w = torch.randn(1, 10, requires_grad=True) # w为[1,10]的tensor
o = torch.sigmoid(x@w.t()) # o为[1,1]的tensor
# [1,10]*[1,10]T => [1,10]*[10,1] => [1,1]
print("o:",o)
loss = F.mse_loss(input=o, target=torch.ones(1, 1))
# 将shapa为[1,1]的计算结果与全为1的[1,1]矩阵进行mse计算
print('loss:', loss)
print('loss shape:', loss.shape) # 得到的loss为标量
loss.backward()
print('w.grad:', w.grad)