深度学习(一)——回归问题,梯度下降

深度学习基础:不断回归得到最优解
梯度下降:利用高中的求导,一步一步逼近最优解
思想

  • 变量:x
  • 每次求导∂x
  • 利用x2 = x1 -步长 * ∂x,一步步利用∂x诱导走向最优解

最优解怎么求?
要求的式子形如:y= w * x + b (w、b待求)
定义:loss = ∑(w * x + b - y )**2 ——loss叫误差函数
方法:用模拟的数据和y的和的平方,使loss减小到最优,即得到w、b的最优解

回归
回归就是对连续的变量(1、2、3…算连续)进行训练,达到可以预测的目的

  • 线性回归
  • 逻辑回归:给自变量加了压缩函数
发布了22 篇原创文章 · 获赞 4 · 访问量 3114

猜你喜欢

转载自blog.csdn.net/weixin_43633568/article/details/104468695