【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.4)

【吴恩达深度学习笔记-改善深层神经网络】——第一周深度学习的实用层面(1.4)

1.4 正则化
正则化用来解决神经网络过度拟合数据(即高方差)的问题,正则化的作用原理:

1.在逻辑回归中的正则化
在这里插入图片描述

用逻辑回归来实现,求成本函数的最小值,成本函数中的参数包括一些训练数据和不同数据中个体预测的损失,w和b是逻辑回归的两个参数,其中w是一个多维度的参数矢量,b是一个实数,在逻辑回归中添加正则化就是加入一个参数入(正则化参数),w欧几里得范数的平方等于wj(j从1到nx)平方的和,此方法称为L2正则化,同样还有一个L1范数,无论分母是m还是2m,都是一个比例常量。L1正则化会使模型变得稀疏,但不意味着可压缩就能降低存储内存。入正则化参数通常使用验证集(交叉验证)来配置这个参数。

2.在神经网络中实现正则化
在这里插入图片描述
神经网络中的成本函数等于损失总和乘以训练数据m的总和,正则项为入/2m乘以参数矩阵w的总和,w表示一个矩阵中所有元素平方和(Frobenius 范数),L2正则化参数有时被称为权重衰减。

正则化还是懂得还不是很彻底,望大神指点!!!

猜你喜欢

转载自blog.csdn.net/laozaoxiaowanzi/article/details/106219736