对分类神经网络的理解

传统的分类算法,是认为设计特征提取方式,然后使用支持向量机进行分类。

那么如果按照这个思路,在全连接之前,算不算训练一个核函数使数据映射到一个线性可分的空间内,然后再运用全连接,分类向量,如果这样想的话,核函数是低维空间向高维空间的一种映射,那么原始数据的维度低在哪,映射后的空间的维数高在那?最后的线性函数构造为什么还有激活函数这种非线性元素,还有池化层的作用是什么,为什么没有池化层网络的训练效果会大打折扣,在残差网络里池化层的运用都是在降维的时候,池化层对函数的构造那么重要吗?到底是什么效果。?而且前面对神经网络的理解方式怎么套用不到残差网络上,残差网络几乎没有全连接层,那么从空间映射角度,又应该怎么解释那?自映射吗?怎么解释?损失函数的输入是什么?每类网络的损失函数演变是什么情况

猜你喜欢

转载自blog.csdn.net/haoyu_does/article/details/84036508