1、神经网络与深度学习

逻辑回归损失函数

逻辑回归的梯度下降

m个样本

向量化

激活函数tanh比sigmoid好的点:tanh均值为0,不用像sigmoid一样做数据中心化

激活函数的导数

猜你喜欢

转载自blog.csdn.net/qq_34514046/article/details/82080919
今日推荐