机器学习数据中类别变量(categorical variable)的处理方法

类别变量(categorical variable):只有有限个值得变量,如性别就是一个类别变量,类似于这种。

如果不对这些变量做预处理,训练出来的模型可能是错误的。
主要有三种方法来处理这个变量。
如何从数据中找到类别变量?
我们可以对每一列检查它的数据类型,某列的数据类型为”object",表明该列有文本(也可能是其他的,但对我们的目标来说不重要),某列是数据是文本,则该列表示类别变量。
代码如下:

# 获得类别变量的列名,存放在列表中
s = (X_train.dtypes == 'object')
object_cols = list(s[s].index)  

1.直接删除类别变量。

这种方法最简单,如果类别变量不包含有用的信息的话,直接删除。

drop_X_train = X_train.select_dtypes(exclude=['object'])#测试数据也要做相同的操作

2.标签编码(Label Encoding)

类别变量可能的值有顺序,将每个可能值分配给不同的整数。如,从不(0)<很少(1)<经常(2)<每天(3)。我们将这种有顺序的类别变量称为序数变量(ordinal variable )

Scikit-Learning有一个LabelEncoder类,可以用来获取标签编码。我们对分类变量进行循环,并将标签编码器分别应用于每一列。

在此步前通常要查看类别变量在有没有某些值只在验证集出现,如果有的话,直接使用下面这个类来做标签编码会抛出一个错误。因为这些值只在验证集出现。LabelEncoder不会给他们指派整数值。可以编写一个自定义标签编码器来处理类别变量中的新类别。最简单的方法是删除有问题的分类变量。
下面这段代码将有问题的列保存到Python列表‘bad_Label_cols’中。同样,可以安全地进行标签编码的列存储在‘good_Label_cols’中。并将bad_Label_cols的列删除。

object_cols = [col for col in X_train.columns if X_train[col].dtype == "object"]

# Columns that can be safely label encoded
good_label_cols = [col for col in object_cols if 
                   set(X_train[col]) == set(X_valid[col])]
        
# Problematic columns that will be dropped from the dataset
bad_label_cols = list(set(object_cols)-set(good_label_cols))
label_X_train = X_train.drop(bad_label_cols, axis=1)
label_X_valid = X_valid.drop(bad_label_cols, axis=1)

下面代码为进行标签编码(变量名与上段代码不同)

from sklearn.preprocessing import LabelEncoder

# Make copy to avoid changing original data 
label_X_train = X_train.copy()
label_X_valid = X_valid.copy()

# Apply label encoder to each column with categorical data
label_encoder = LabelEncoder()
for col in object_cols:
    label_X_train[col] = label_encoder.fit_transform(X_train[col])#fit先获得col列中可能值个数
    label_X_valid[col] = label_encoder.transform(X_valid[col])# inverse_transform 还可以实现反向编码
上面的代码单元格中,对于每一列(类别变量),我们随机地将每个可能值分配给不同的整数。这是一种比提供自定义标签更简单的通用方法;但是,如果我们为所有序数变量提供更好的信息标签,那么性能将得到进一步的提高。

3.独热编码(One-Hot Encoding)

独热编码:创建新列,指示每个可能值的存在或不存在。例:一个类别变量是颜色,包含三个可能值:红色、黄色、蓝色。独热编码即在原始数据集上新建三列分别指示这三种颜色,如果某一条数据该类别变量是“红色”,则在指示红色的列对应这条数据的位置处放一个1。
与标签编码不同,独热编码不假定类别的顺序,即类别变量的每个可能值没有明显的排序。我们吧这种没有内在排名的类别变量称为名义变量(nominal variables)”
如果类别变量的可能值有非常多(超过15个),独热编码就不能有很好效果。
Scikit-Learning有一个OneHotEncoder类,有许多参数。可参考这篇博客scikit-learn 中 OneHotEncoder 解析

在进行独热编码时,用下面的代码先看下每个类别变量的可能值有多少个。

# Get number of unique entries in each column with categorical data
object_nunique = list(map(lambda col: X_train[col].nunique(), object_cols))
d = dict(zip(object_cols, object_nunique))

# Print number of unique entries by column, in ascending order
sorted(d.items(), key=lambda x: x[1])

第一行代码参考这个链接就懂了link
zip(): 函数用于将可迭代的对象作为参数,将对象中对应的元素打包成一个个元组,然后返回由这些元组组成的对象,用list()可转换成列表。如果各个迭代器的元素个数不一致,则返回列表长度与最短的对象相同,利用 * 号操作符,可以将元组解压为列表。
**dict() **函数用于创建一个字典。
对大型的数据集,独热编码会极大的扩大数据集,因此我们通常只对可能值较少的类别变量做独热编码,可能值多的我们做标签编码或者直接删除。代码如下:

# Columns that will be one-hot encoded
low_cardinality_cols = [col for col in object_cols if X_train[col].nunique() < 10]

# Columns that will be dropped from the dataset
high_cardinality_cols = list(set(object_cols)-set(low_cardinality_cols))

进行独热编码

from sklearn.preprocessing import OneHotEncoder

# Apply one-hot encoder to each column with categorical data
OH_encoder = OneHotEncoder(handle_unknown='ignore', sparse=False)
OH_cols_train = pd.DataFrame(OH_encoder.fit_transform(X_train[object_cols]))
OH_cols_valid = pd.DataFrame(OH_enco der.transform(X_valid[object_cols]))

# One-hot encoding removed index; put it back
OH_cols_train.index = X_train.index    #.index是行索引,.column是列索引
OH_cols_valid.index = X_valid.index   #X_valid.index返回行索引列表

# Remove categorical columns (will replace with one-hot encoding)
num_X_train = X_train.drop(object_cols, axis=1)
num_X_valid = X_valid.drop(object_cols, axis=1)

# Add one-hot encoded columns to numerical features
OH_X_train = pd.concat([num_X_train, OH_cols_train], axis=1)
OH_X_valid = pd.concat([num_X_valid, OH_cols_valid], axis=1)
发布了15 篇原创文章 · 获赞 6 · 访问量 3276

猜你喜欢

转载自blog.csdn.net/supreme_1/article/details/104333969
今日推荐