数据预处理 | 使用 Filter Wrapper Embedded 实现特征工程中的特征选择

目录

1 Filter

  1.1 移除低方差特征(Removing features with low variance)

  1.2 单变量特征选择 (Univariate feature selection)

    1.2.1 卡方检验 (Chi2)

    1.2.2 Pearson 相关系数 (Pearson Correlation)

2 Wrapper

  2.1 递归特征消除 (Recursive Feature Elimination)

3 Embedding

  3.1 使用 SelectFromModel 选择特征 (Feature selection using SelectFromModel)

1 Filter 

1.1 移除低方差特征 (Removing features with low variance)

  即去掉那些取值变化小的特征

  当特征值都是离散型变量的时候这种方法才能用,如果是连续型变量,就需要将连续变量离散化之后才能用。

# Variance 偏差  Threshold阈值
from sklearn.feature_selection import VarianceThreshold
X = [[0, 0, 1], [0, 1, 0], [1, 0, 0], [0, 1, 1], [0, 1, 0], [0, 1, 1]]
sel = VarianceThreshold(threshold=(.8*(1-.8)))
sel.fit_transform(X)

 可见,移除了 特征值为 0 的概率达到了 5/6 的第一列。

1.2 单变量特征选择 (Univariate feature selection)

  原理是分别单独的计算每个变量的某个统计指标,根据该指标来判断哪些变量重要,剔除那些不重要的变量

  对于分类问题 (y离散),可采用:

    •   卡方检验

  对于回归问题 (y连续),可采用:

    •   皮尔森相关系数 余弦值cos(只考虑了方向)

    •   f_regression,

    •   mutual_info_regression

    •   最大信息系数

 

1.2.1 卡方检验 (Chi2)

  检验定性自变量对定性因变量的相关性。如 对样本进行一次卡方检验来选择最佳的两项特征:

from sklearn.datasets import load_iris  # 鸢尾花数据集

# 用于特征选择的包
from sklearn.feature_selection import SelectKBest  # 训练的套路
from sklearn.feature_selection import chi2  

iris = load_iris()
x, y = iris.data, iris.target

# 参数解释:chi2 使用卡方检验,k=2 留下两个特征
x_new = SelectKBest(chi2,k=2).fit_transform(x,y)

 4 个特征只剩 2 个

1.2.2 Pearson 相关系数 (Pearson Correlation)

  该方法衡量的是变量之间的线性相关性,结果的取值区间为[-1,1],-1表示完全的负相关,+1表示完全的正相关,0表示没有线性相关。

  使用Pearson相关系数主要是为了看特征之间的相关性,而不是和因变量之间的

  pearsonr(x, y)的输入为特征矩阵目标向量,能够同时计算 相关系数 和 p-value (显著性水平那个p值).

import numpy as np
from scipy.stats import pearsonr  # sciPy 科学python哈哈,stats:统计学
np.random.seed(0)  # 设置生成随机数的种子
size = 300
x = np.random.normal(0,1,size=size)  # 生成标准正态分布的300个数

# Lower noise
pearsonr(x, x + np.random.normal(0,1,size))

# Higher noise
pearsonr(x, x + np.random.normal(1,10,size))

当噪音比较小的时候,相关性很强,p-value很低。

2. Wrapper

2.1 递归特征消除 (Recursive Feature Elimination)

  递归消除特征法使用一个基模型来进行多轮训练,每轮训练后,移除若干权值系数的特征,再基于新的特征集进行下一轮训练。

  对特征含有权重的预测模型(例如,线性模型对应参数coefficients),RFE (即 一个训练的套路) 通过递归减少考察的特征集规模来选择特征。首先,预测模型在原始特征上训练,每个特征指定一个权重。之后,那些拥有最小绝对值权重的特征被踢出特征集。如此往复递归,直至剩余的特征数量达到所需的特征数量。

from sklearn.feature_selection import RFE
from sklearn.ensemble import RandomForestClassifier
from sklearn.datasets import load_iris

# 建立一个决策树模型
rf = RandomForestClassifier()
# 加载鸢尾花数据
iris=load_iris()
x, y=iris.data,iris.target

# 创建RFE 递归消除特征
# estimator 传入RFE使用到的模型,n_features_to_select 最终剩下几个特征
rfe = RFE(estimator=rf, n_features_to_select=3)
x_rfe = rfe.fit_transform(x,y)
x_rfe.shape

3 Embedded

3.1 基于L1的特征选择 (L1-based feature selection)

  很难指定最终剩几个特征,剩多少算多少哈哈

  使用L1范数作为惩罚项的线性模型(Linear models)会得到稀疏解:大部分特征对应的系数为0。当你希望减少特征的维度以用于其它分类器时,可以通过 feature_selection.SelectFromModel 来选择不为0的系数。

  常用于此目的的稀疏预测模型有 linear_model.Lasso(回归), linear_model.LogisticRegression 和 svm.LinearSVC(分类)

from sklearn.feature_selection import SelectFromModel  # 训练套路
from sklearn.svm import LinearSVC  # 模型

# penalty 惩罚项,逻辑回归中也有。一般都是默认 l2范数,这里【必须改成 l1】
lsvc = LinearSVC(C=1, penalty='l1', dual=False).fit(x,y)

# 进行特征选择,很难预测最后剩几个特征
model = SelectFromModel(lsvc, prefit=True) 
x_embed = model.transform(x)

本文只用于学习

猜你喜欢

转载自www.cnblogs.com/ykit/p/12441077.html