深入解析逻辑回归(Logistic Regression)原理

逻辑回归原理

逻辑回归是基于线性回归的算法,但是它的输出是经过sigmoid函数处理后的概率值,用于表示样本属于某一类别的概率。逻辑回归的目标是找到一条最佳拟合曲线,使得输入特征与目标变量之间的拟合误差最小化。

逻辑回归的核心思想是使用逻辑函数(也称为sigmoid函数)将线性方程的输出映射到[0, 1]的概率范围内。逻辑函数的数学表达式为:

sigmoid(z) = 1 / (1 + e^(-z))

其中,z表示线性方程的输出。

逻辑回归的线性方程可以表示为:

z = b0 + b1*x1 + b2*x2 + ... + bn*xn

其中,b0, b1, b2, ..., bn是模型的系数,x1, x2, ..., xn是输入特征。

通过逻辑函数处理后,线性方程的输出将被映射到[0, 1]的范围内,表示样本属于某一类别的概率。一般地,当概率大于等于阈值(通常为0.5)时,样本被分类为正类;当概率小于阈值时,样本被分类为负类。

逻辑回归代码实例

import numpy as np
from sklearn.linear_model import LogisticRegression

# 构造输入特征和目标变量
X = np.array([[1], [2], [3], [4], [5]])
y = np.array([0, 0, 1, 1, 1])

# 创建逻辑回归模型对象
model = LogisticRegression()

# 训练模型
model.fit(X, y)

# 输出模型参数
print("系数:", model.coef_)
print("截距:", model.intercept_)

# 预测新样本
new_samples = np.array([[6], [7]])
predictions = model.predict(new_samples)
print("预测结果:", predictions)

代码中,首先构造了一个简单的数据集,其中X是输入特征,y是对应的目标变量。然后,创建了一个逻辑回归模型对象,并使用fit方法对模型进行训练。最后输出模型的参数(系数和截距),并使用训练好的模型进行新样本的预测。

猜你喜欢

转载自blog.csdn.net/weixin_43749805/article/details/131310700