《人工智能工程师》逻辑回归 LogisticRegression

在逻辑回归里,不去拟合样本分布,而是确定决策边界。

sigmoid函数

sig = 1.0/(1 + np.exp(-x))

为什么需要这个函数?这个函数有个特点,当x<0时,0<y<0.5;x=0时,y=0.5;x>0时,1>y>0.5。那么,假设我想对数据做二分类,

首先从数据讲起。

1.数据是m行n列的数据(xij, i=1..m, j=1..n),那么,样本1是向量X1 =(x11,x12,x13...x1n),样本二是X2=(x21,x22...x2n)。向量一般是列向量,所以样本X可以表示为X=(X1,X2...Xn).T。样本X1每个小x需要一个参数θ,使得该θ能与X1点乘,所得E1为方程的值y1;每个样本X的小x都需要和θ点乘,θ的维度应该是1*n;最终获得Y的列向量 Y =(Y1,Y2,Y3...Yn).T。那么,可以得到一个参数θ,使得正样本的X.T.dotθ>0.5,负样本的X.T.dotθ<0.5。有什么用呢?

2.把Y向量带入sigmoid函数,就可得到每个样本的取值,取值均在0~1之间,这样,就可以和label作对比了。(有点问题)

损失函数

如何去评判分类的好或者不好呢?




猜你喜欢

转载自blog.csdn.net/gaoyishu91/article/details/80114815
今日推荐