PCA
PCAは、主に低次元の高緯度へのデータ削減、特徴マップのために使用され、特に、線形代数を学ぶことができます。
ここでは、PCA sklearn使用しています。
sklearn.decomposition インポートPCA X- = np.array([ - 1、-1 ,. 1、-3]、[-2、-1 ,. 1、-3]、[-3、-2 ,. 1、-3 ]、[1 ,. 1 ,. 1、-3]、[2 ,. 1 ,. 1、-3]、[3、2、-1、-3 ]) PCAは、 PCA(= n_componentsを= 4 ) pca.fit(X- ) プリント(pca.explained_variance_ratio_) #の成分割合の 印刷(pca.explained_variance_) #の成分は値 PCAは、 PCA(n_components = 1)= #の原稿が4次元、今一次元に低減さ XX = pca.fit_transform(X-) プリント( XX)
結果:
【0.94789175 0.04522847 0.00687978 0] [ 8.21506183 0.39198011 0.05962472 0] [ -1.42149543 ] [ -2.2448796 ] [ -3.60382274 ] [ 1.29639085 ] [ 2.11977502 ] [ 3.85403189]
実際には、データの直接の表情を見つけることができます。例えば、それは、0の最後の次元の比率を変更していない、その結果に少しだけ寸法変化率が小さいので、ほとんど効果が持続し、時に次元削減を削除することができます。
KNN
いわゆるK最近傍、最近傍のKはその意味が各サンプルはその最も近い隣人を表現するためにkを使用できるということです。
k最近傍アルゴリズムの核となるアイデアは、k近傍サンプルの特徴空間におけるサンプルの大部分は、カテゴリに属している場合は、サンプルもこの範疇に入ることで、カテゴリ上のサンプルの特性を有しています。
次のようにプロセスは以下のとおりです。
- そして、サンプルデータを分類するデータの距離を計算します。
- その最小距離データを分類するようにK個のサンプルを選択します。
- サンプルのほとんどでKサンプルを分類した統計が属しています。
- この分類では、データの適切なカテゴリに分類されます。
クラシファイア= KNeighborsClassifier(アルゴリズム= ' 自動車'、leaf_size = 30、メトリック= ' ミンコフスキー' 、 metric_params =なし、n_jobs = 1、N_NEIGHBORS = 10、p = 2 、 重み = ' 均一')
スーパーのパラメータは、それを自分で試してみる必要があります。
他の
sklearn.neighbors インポートKNeighborsClassifierを から sklearn.linear_modelのインポートロジスティック回帰 から sklearn.ensemble インポートRandomForestClassifier から sklearn.tree インポートDecisionTreeClassifier から sklearn.svm インポートSVC から sklearn.naive_bayes インポートGaussianNBを から sklearnのインポートメトリック (random_state = 0)#0.78クラシファイア=ロジスティック回帰 #classifier = KNeighborsClassifier(アルゴリズム= ' kd_tree '、N_NEIGHBORS = 5、メトリック= ' ミンコフスキー'、p = 2、重み= ' 均一') #0.839 #classifier = SVC(カーネル= ' リニア'、random_state = 0) #0.81 #classifier = SVC(カーネル= ' RBF '、random_state = 0) #0.77 #classifier = GaussianNB() #0.77 #classifier = DecisionTreeClassifier(基準= ' エントロピー'、random_state = 0) #0.64 #classifier = RandomForestClassifier(n_estimators = 10、基準=' エントロピー'、random_state = 0) #0.83 classifier.fit(X_stard、Y_stard) YY_pred = classifier.predict(X_pred) result_NMI = metrics.normalized_mutual_info_score(YY_pred、Y_pred) プリント(" result_NMI:"、result_NMI) #3,1、ミンコフスキー3,1、マンハッタン
参考リンク:
1. https://blog.csdn.net/puredreammer/article/details/52255025
2. https://www.makcyun.top/2019/06/15/Machine_learning08.html