人工神经网络的几何意义

分有无隐藏层两种情况讨论,并且点到点的变换式用y = Sigma(wx)来表示(取消常数项+b):

无隐藏层:假设输入层有2个节点,输出层有1个节点。 此时有2条权重连线w1和w2, 这2个参数决定了一条直线的解析式,故此神经网络的几何意义就是代表一条直线。

有隐藏层:假设输入节点有2个,隐藏层有2个节点,输出层1个节点。此时从输入层到隐藏层有4个权重参数,它们可以用1个2*2矩阵来表示,此矩阵的几何意义就是代表一个变换。它可以是恒等变换,也可以是平移变换等等。例如w1,w2,w3,w4分别为1,0,1,0时,代表恒等变换。 此时输入层2个节点参数代表一个点。此神经网络的几何意义就是一个点经过一个几何变换后改变位置成为新的点(隐藏层),最后再有一个直线分隔。

猜你喜欢

转载自www.cnblogs.com/happylrui/p/11921382.html