scikit-learn 新增功能:标签编码、决策树缺失值处理 等众多新特性

 作者:Coggle

简介

scikit-learn 1.3

本次更新增加了许多错误修复和改进,并引入了一些重要的新功能。要查看所有更改的详尽列表,请参阅发布说明。

https://scikit-learn.org/stable/whats_new/v1.3.html#changes-1-3

使用pip安装最新版本:

pip install --upgrade scikit-learn

或者使用conda:

conda install -c conda-forge scikit-learn

特性1:元数据路由

https://scikit-learn.org/stable/auto_examples/miscellaneous/plot_metadata_routing.html

新的元数据路由方式如sample_weight,该方式会影响到像pipeline.Pipelinemodel_selection.GridSearchCV这样的元估计器如何路由元数据。

尽管此功能的基础设施已经包含在此版本中,但相关工作仍在进行中,并非所有的元估计器都支持此新功能。您可以在元数据路由用户指南中了解更多关于此功能的信息。

特性2:HDBSCAN: hierarchical density-based clustering

https://scikit-learn.org/stable/modules/generated/sklearn.cluster.HDBSCAN.html

HDBSCAN通过同时在多个epsilon值上执行修改版本的cluster.DBSCANcluster.HDBSCAN可以找到具有不同密度的聚类,使其比cluster.DBSCAN更具鲁棒性,对于参数选择更加稳健。

import numpy as np
from sklearn.cluster import HDBSCAN
from sklearn.datasets import load_digits
from sklearn.metrics import v_measure_score

X, true_labels = load_digits(return_X_y=True)
print(f"数字的数量:{len(np.unique(true_labels))}")

hdbscan = HDBSCAN(min_cluster_size=15).fit(X)
非噪声标签 = hdbscan.labels_[hdbscan.labels_ != -1]
print(f"找到的聚类数:{len(np.unique(非噪声标签))}")

print(v_measure_score(true_labels[hdbscan.labels_ != -1], 非噪声标签))

特性3:TargetEncoder

https://scikit-learn.org/stable/modules/generated/sklearn.preprocessing.TargetEncoder.html

preprocessing.TargetEncoder非常适用于具有高基数的分类特征。它根据属于该类别的观测的平均目标值的缩小估计来对类别进行编码。

import numpy as np
from sklearn.preprocessing import TargetEncoder

X = np.array([["cat"] * 30 + ["dog"] * 20 + ["snake"] * 38], dtype=object).T
y = [90.3] * 30 + [20.4] * 20 + [21.2] * 38

enc = TargetEncoder(random_state=0)
X_trans = enc.fit_transform(X, y)

enc.encodings_

特性4:决策树支持缺失值

现在tree.DecisionTreeClassifiertree.DecisionTreeRegressor类支持缺失值。对于非缺失数据的每个可能阈值,划分器将评估将所有缺失值分配给左节点或右节点的划分。

import numpy as np
from sklearn.tree import DecisionTreeClassifier

X = np.array([0, 1, 6, np.nan]).reshape(-1, 1)
y = [0, 0, 1, 1]

tree = DecisionTreeClassifier(random_state=0).fit(X, y)
tree.predict(X)

特性5:Validation Curve

https://scikit-learn.org/stable/modules/generated/sklearn.model_selection.ValidationCurveDisplay.html

现在可以使用from_estimator来创建一个ValidationCurveDisplay实例来可视化验证曲线。

from sklearn.datasets import make_classification
from sklearn.linear_model import LogisticRegression
from sklearn.model_selection import ValidationCurveDisplay

X, y = make_classification(1000, 10, random_state=0)

_ = ValidationCurveDisplay.from_estimator(
    LogisticRegression(),
    X,
    y,
    param_name="C",
    param_range=np.geomspace(1e-5, 1e3, num=9),
    score_type="both",
    score_name="Accuracy",
)

特性6:Gamma loss

通过loss="gamma"参数,ensemble.HistGradientBoostingRegressor类支持使用Gamma偏差损失函数。该损失函数适用于具有右偏分布的严格正值目标建模。

import numpy as np
from sklearn.model_selection import cross_val_score
from sklearn.datasets import make_low_rank_matrix
from sklearn.ensemble import HistGradientBoostingRegressor

n_samples, n_features = 500, 10
rng = np.random.RandomState(0)
X = make_low_rank_matrix(n_samples, n_features, random_state=rng)
coef = rng.uniform(low=-10, high=20, size=n_features)
y = rng.gamma(shape=2, scale=np.exp(X @ coef) / 2)
gbdt = HistGradientBoostingRegressor(loss="gamma")
cross_val_score(gbdt, X, y).mean()

特性7:长尾类别聚合

preprocessing.OrdinalEncoder现在与preprocessing.OneHotEncoder类似,支持将不常见的类别聚合为每个特征的单个输出。启用聚合不常见类别的参数包括min_frequencymax_categories

from sklearn.preprocessing import OrdinalEncoder
import numpy as np

X = np.array(
    [["dog"] * 5 + ["cat"] * 20 + ["rabbit"] * 10 + ["snake"] * 3], dtype=object
).T
enc = OrdinalEncoder(min_frequency=6).fit(X)
enc.infrequent_categories_

推荐阅读:

我的2022届互联网校招分享

我的2021总结

浅谈算法岗和开发岗的区别

互联网校招研发薪资汇总

2022届互联网求职现状,金9银10快变成铜9铁10!!

公众号:AI蜗牛车

保持谦逊、保持自律、保持进步

fd92587b3fb26b42a0a0cc5eb26d719f.jpeg

发送【蜗牛】获取一份《手把手AI项目》(AI蜗牛车著)

发送【1222】获取一份不错的leetcode刷题笔记

发送【AI四大名著】获取四本经典AI电子书

猜你喜欢

转载自blog.csdn.net/qq_33431368/article/details/132463413
今日推荐