機械学習_決定木とランダムフォレスト

1つ、決定木

1.1ディシジョンツリー分割の基礎

情報獲得

情報エントロピー:

ここに画像の説明を挿入

情報獲得

トレーニングデータセットDに対する特徴Aの情報ゲインg(D、A)は、与えられた条件下でのセットDの情報エントロピーH(D)とDの情報条件付きエントロピーH(D | A)の差として定義されます。機能Aの。
ここに画像の説明を挿入

計算:

ここに画像の説明を挿入

1.2ディシジョンツリー推定器の使用

"""
决策树对泰坦尼克号进行预测生死
:return: None
"""
# 获取数据
titan = pd.read_csv("http://biostat.mc.vanderbilt.edu/wiki/pub/Main/DataSets/titanic.txt")

# 处理数据,找出特征值和目标值
x = titan[['pclass', 'age', 'sex']]
y = titan['survived']
print(x)

# 缺失值处理
x['age'].fillna(x['age'].mean(), inplace=True)

# 分割数据集到训练集合测试集
x_train, x_test, y_train, y_test = train_test_split(x, y, test_size=0.25)

 # 因为原数据类型太杂了,有字符串啥的,处理成字典类型
dict = DictVectorizer(sparse=False)
x_train = dict.fit_transform(x_train.to_dict(orient="records"))
print(dict.get_feature_names())
x_test = dict.transform(x_test.to_dict(orient="records"))
print(x_train)

#用决策树进行预测
dec = DecisionTreeClassifier()
dec.fit(x_train, y_train)

# 预测准确率
print("预测的准确率:", dec.score(x_test, y_test))

# 导出决策树的结构
export_graphviz(dec, out_file="./decision_tree.dot", feature_names=['年龄', 'pclass=1st', 'pclass=2nd', 'pclass=3rd', '女性', '男性'])

1.3デシジョンツリーの長所と短所

ここに画像の説明を挿入

第二に、ランダムフォレスト

2.1ラン​​ダムフォレストコンテンツ

原理

機械学習では、ランダムフォレストは複数の決定木を含む分類器であり、出力カテゴリは個々のツリーによって出力されるカテゴリのモードによって決定されます。同じトレーニング番号を使用して複数の独立した分類モデルを構築し、投票を通じて多数派に従う少数派の原則に基づいて最終的な分類決定を行います。たとえば、5本の木をトレーニングし、そのうち4本がTrueで、1本がFalseの場合、最終結果はTrueになります。

使用する

Nを使用してトレーニングケース(サンプル)の数を表し、Mを使用して特徴の数を表します。
入力特徴番号mは、決定木のノードの決定結果を決定するために使用されます。ここで、mはMよりはるかに小さい必要があります。
N個のトレーニングユースケース(サンプル)から、N回の置換サンプリングでサンプルを取得してトレーニングセット(つまり、ブートストラップサンプリング)を形成し、選択されていないユースケース(サンプル)を使用して予測を行い、エラーを評価します。
各ノードについて、m個の特徴がランダムに選択され、決定木の各ノードの決定はこれらの特徴に基づいて決定されます。これらのm個の特性に従って、最適な分割方法を計算します。

2.2ランダムフォレストパラメータとハイパーパラメータ

class sklearn.ensemble.RandomForestClassifier(n_estimators=10, criterion=’gini’,
 max_depth=None, bootstrap=True, random_state=None)

随机森林分类器

n_estimators:integer,optional(default = 10) 森林里的树木数量

criteria:string,可选(default =“gini”)分割特征的测量方法

max_depth:integer或None,可选(默认=无)树的最大深度 

bootstrap:boolean,optional(default = True)是否在构建树时使用放回抽样 

2.3ランダムフォレストとグリッド検索の使用

# 随机森林进行预测 (超参数调优)
rf = RandomForestClassifier()
param = {
    
    "n_estimators": [120, 200, 300, 500, 800, 1200], "max_depth": [5, 8, 15, 25, 30]}

# 网格搜索与交叉验证
gc = GridSearchCV(rf, param_grid=param, cv=2)
gc.fit(x_train, y_train)
print("准确率:", gc.score(x_test, y_test))
print("查看选择的参数模型:", gc.best_params_)

2.4利点

在当前所有算法中,具有极好的准确率
能够有效地运行在大数据集上
能够处理具有高维特征的输入样本,而且不需要降维
能够评估各个特征在分类问题上的重要性
对于缺省值问题也能够获得很好得结果

おすすめ

転載: blog.csdn.net/tjjyqing/article/details/114044163