輸入XGBとしてxgboost 輸入のNPとしてnumpyの 輸入PDとしてパンダ から sklearn.model_selectionの輸入train_test_split 場合 __name__ == 「__main__ 」: iris_feature_E = 「がく片な長さ」、「がく片の幅」、「花びらの長さ」、「花びらの幅」 iris_feature = " 萼片の長さ「」がく片の幅」、" 花弁の長さ"、" 花弁の幅" iris_class = " アイリス-setosa "、" アイリス・ベルシカラー"、" アイリス-virginicaの" データ = pd.read_csv(" iris.data "、ヘッダ= なし) iris_types =データ[4 ] .unique() のための I型に列挙(iris_types): data.set_value(データ[ 4] ==種類、4 、I) 、X、Y = np.split(data.values、(4) 、軸= 1 ) x_train、x_test、y_train、y_test = train_test_split(X、Y、test_size = 0.7、random_state = 1 ) data_train = xgb.DMatrix(x_train、ラベル= y_train) data_test = xgb.DMatrix(x_test、ラベル= y_test) ウォッチリスト = [( data_test、' 評価')、(data_train、' 列車' )] PARAM = { ' MAX_DEPTH ':3 ' ETA ':1、' 無音':1、' 目標':' マルチ:ソフトマックス'、' num_class ':3 } BST = xgb.train(PARAM、data_train、num_boost_round = 10、試用版= ウォッチリスト) y_hat = bst.predict(data_test) 結果 = y_test.reshape(1、-1)== y_hat プリント(' 精度:\トン"、フロート(np.sum(結果))/ lenは(y_hat))
MLの研究では、虹彩データセットの予測を分類するためにXGBoostノート
おすすめ
転載: www.cnblogs.com/JetpropelledSnake/p/12080972.html
おすすめ
ランキング