西瓜书机器学习笔记(第三课):线性模型

线性模型的基本形式

  • 向量表现形式:y=w’x+b
  • 目标:求均方误差最小的w和b

线性回归

  • 线性回归问题的闭合解
  • 线性回归的矩阵表示

对数几率回归

  • 将线性模型稍作变化: ln(y) = w’t+b
  • 如果我们把ln函数抽象为一种广义的函数(联系函数g()),就可以得到广义线性模型:g(y)=w’t+b
  • 寻找单调可微分的函数来实现二分类任务,这样可以使得计算结果从0和1的离散跳跃问题编程连续的问题,使得计算结果更加精细
  • 最理想的函数是阶跃函数:预测值大于零就是正例,小于零就是反例,临界时随意
  • 但是阶跃函数不连续,所以我们需要找到近似来替代
  • 对数几率函数:y=sigmoid(x)=1/(1/1+e^-z);z=w’x+b
  • ln(y/(1-y))=w’x+b 其中y/(1-y)成为几率,也就是正例概率/反例概率的相对值,也就是ln(p(y=1|x,b)/p(y=0|x,b)=w’x+b
  • 给定数据集,可以使用最大似然函数进行估计

线性判别分析

主要原理是通过直线的投影来进行监督降维的分类,原则是同类的样例尽可能的接近,而不同类的样例尽可能的疏远。需要用到数学中的拉格朗日乘子法和奇异值分解的方法。

多分类学习

可以把多分类的问题转换成二分类的问题,包括OvO、OvR、MvM等;也可以通过编码矩阵来解,包括二元码、三元码等。

类别不平衡问题

不同类别的样例数量差别很大的时候,小类往往更重要,我们可以通过正样例/负样例的比例来代替原来的1作为阈值。也可以采用过采样、欠采样、阈值移动等方法来进行处理。

发布了273 篇原创文章 · 获赞 40 · 访问量 3万+

猜你喜欢

转载自blog.csdn.net/weixin_41855010/article/details/104915829
今日推荐