PACとKNN

PCA

PCAは、主に低次元の高緯度へのデータ削減、特徴マップのために使用され、特に、線形代数を学ぶことができます。

ここでは、PCA sklearn使用しています。

sklearn.decomposition インポートPCA 

X- = np.array([ - 1、-1 ,. 1、-3]、[-2、-1 ,. 1、-3]、[-3、-2 ,. 1、-3 ]、[1 ,. 1 ,. 1、-3]、[2 ,. 1 ,. 1、-3]、[3、2、-1、-3 ])
PCAは、 PCA(= n_componentsを= 4 
pca.fit(X- )
プリント(pca.explained_variance_ratio_) 成分割合の
印刷(pca.explained_variance_)    成分は値

PCAは、 PCA(n_components = 1)=    #の原稿が4次元、今一次元に低減さ 
XX = pca.fit_transform(X-)
 プリント( XX)

結果:

【0.94789175 0.04522847 0.00687978 0] 
[ 8.21506183 0.39198011 0.05962472 0] 
[ -1.42149543 ] 
 [ -2.2448796 ] 
 [ -3.60382274 ] 
 [ 1.29639085 ] 
 [ 2.11977502 ] 
 [ 3.85403189]

実際には、データの直接の表情を見つけることができます。例えば、それは、0の最後の次元の比率を変更していない、その結果に少しだけ寸法変化率が小さいので、ほとんど効果が持続し、時に次元削減を削除することができます。

KNN

いわゆるK最近傍、最近傍のKはその意味が各サンプルはその最も近い隣人を表現するためにkを使用できるということです。
k最近傍アルゴリズムの核となるアイデアは、k近傍サンプルの特徴空間におけるサンプルの大部分は、カテゴリに属している場合は、サンプルもこの範疇に入ることで、カテゴリ上のサンプルの特性を有しています。
次のようにプロセスは以下のとおりです。
  1. そして、サンプルデータを分類するデータの距離を計算します。
  2. その最小距離データを分類するようにK個のサンプルを選択します。
  3. サンプルのほとんどでKサンプルを分類した統計が属しています。
  4. この分類では、データの適切なカテゴリに分類されます。
クラシファイア= KNeighborsClassifier(アルゴリズム= ' 自動車'、leaf_size = 30、メトリック= ' ミンコフスキー' 
            metric_params =なし、n_jobs = 1、N_NEIGHBORS = 10、p = 2 
            重み = ' 均一'

スーパーのパラメータは、それを自分で試してみる必要があります。

他の

sklearn.neighbors インポートKNeighborsClassifierを
 から sklearn.linear_modelのインポートロジスティック回帰
 から sklearn.ensemble インポートRandomForestClassifier
 から sklearn.tree インポートDecisionTreeClassifier
 から sklearn.svm インポートSVC
 から sklearn.naive_bayes インポートGaussianNBを
 から sklearnのインポートメトリック

(random_state = 0)#0.78クラシファイア=ロジスティック回帰 
#classifier = KNeighborsClassifier(アルゴリズム= ' kd_tree '、N_NEIGHBORS = 5、メトリック= ' ミンコフスキー'、p = 2、重み= ' 均一'0.839 
#classifier = SVC(カーネル= ' リニア'、random_state = 0)  0.81 
#classifier = SVC(カーネル= ' RBF '、random_state = 0)  0.77 
#classifier = GaussianNB()   0.77 
#classifier = DecisionTreeClassifier(基準= ' エントロピー'、random_state = 0)  0.64 
#classifier = RandomForestClassifier(n_estimators = 10、基準=' エントロピー'、random_state = 0)  0.83 
classifier.fit(X_stard、Y_stard)
YY_pred = classifier.predict(X_pred)
result_NMI = metrics.normalized_mutual_info_score(YY_pred、Y_pred)
 プリント" result_NMI:"、result_NMI)  3,1、ミンコフスキー3,1、マンハッタン

 

 

参考リンク:

1.  https://blog.csdn.net/puredreammer/article/details/52255025

2.  https://www.makcyun.top/2019/06/15/Machine_learning08.html

 

おすすめ

転載: www.cnblogs.com/lfri/p/11773286.html