2020春秋招聘 人工智能方向 各大厂面试常见题整理二(附答案)(阿里腾讯华为字节)

SVM的损失函数

hinge loss。 l o s s = m a x ( 0 , 1 y ^ f ( x ) ) loss = max(0,1-\hat{y}*f(x))

逻辑回归不能解决什么问题

逻辑回归虽然用到了sigmoid函数,看起来是非线性的,但是其实还是一个线性分类器。所以解决问题的时候要求自变量和因变量之间存在线性关系。

LR损失函数是什么,LR的梯度是如何表示的

  • LR是logistic regression
  • 损失函数是cross entropy
  • L o s s = i = 1 n ( ( y ^ i ) l n ( σ ( z i ) ) + ( 1 y ^ i ) l n ( 1 σ ( z i ) ) ) Loss=-\sum^{n}_{i=1}{((\hat{y}_i)*ln(\sigma(z_i))+(1-\hat{y}_i)*ln(1-\sigma(z_i)))}
  • 梯度就求个导数就行了,结果和Linear regression的均方差的梯度完全一样!第一次算到这里的时候才真正意识到,回归问题的均方差就是分类问题的交叉熵。
    在这里插入图片描述

LR为什么用log损失而不是均方误差损失(最小二乘)

算一下就知道原因了,梯度会在不该等于0的时候等于0
在这里插入图片描述

L1范数会产生什么问题

L1范数是向量中各元素绝对值的和。倾向于让特征权重为0,实现稀疏;
在这里插入图片描述

L2范数会产生什么问题

L2范数是向量中各个元素的平方和的平方根。虽然也会减小特征权重的值,但是并不会为0,而是保持在一个比较小的数值。L2可以缓解特征之间的多重共线性。

为什么不用L0

L0是非零参数的个数,不可导,会变成NP难题。可以使用L1来代替。

发布了90 篇原创文章 · 获赞 20 · 访问量 10万+

猜你喜欢

转载自blog.csdn.net/qq_34107425/article/details/105695329
今日推荐