記事ディレクトリ
1. データの前処理
1.1 インジケーターを区別する属性
- ポジティブな指標
- マイナスの指標
- 中間指標
- 間隔インジケーター
1.2 ポジティブな指標
1.2.1 ネガティブな指標
ネガティブ指標のポジティブ法は、指標反転法とも呼ばれ、比較や分析を容易にするために、元々ネガティブな状況を反映する指標をポジティブな状況を反映する指標に変換することを指します。この手法は、評価指標、市場調査、データ分析などの分野で広く使用されています。
具体的には、ネガティブ指標のポジティブな方法は次のステップに分けることができます。
-
転送するインジケーターを決定する
-
負の指標にどのような正の化が必要かを決定します。一般的な方法には、逆数、対数、絶対値などが含まれます。
-
インデックス転送の計算式は転送方法によって異なります。
-
正規化されたインジケーターを正規化して比較しやすくします。
以下に、マイナスの指標をプラスにする方法を紹介します。
負のインジケーター データのセットの場合:
y 1 、y 2 、...、yn y_{1}、y_{2}、...、y_{n}y1、y2、... 、yん
取り出し最大値:
ymax = max { y 1 , y 2 , . 。。, yn } y_{max}=\max\left \{ y_{1},y_{2},...,y_{n} \right \}yマックス_=最大{
y1、y2、... 、yん次に
、この値を使用してyi y_{i}y私は:
yi : = ymax − yi y_{i}:=y_{max}-y_{i}y私は:=yマックス_−y私は
1.2.2 中間指標
中間指標とは、指標の値が小さすぎても大きすぎてもよくないことを意味します。特定の値を取ることが最善です。たとえば、水域の最適な pH 値は 7 です。以下に、中間インジケーターの転送方法を紹介します。
一連の中間インジケーター データの場合:
y 1 、y 2 、...、yn y_{1},y_{2},...,y_{n}y1、y2、... 、yん
まず最適な値を作成します:
ybest y_{best}yそうです_
次に、このデータ セット内の各データと最適値の間の距離を計算し、最大値を取得します。
M = max { ∣ y 1 − ybest ∣ , ∣ y 2 − ybest ∣ , . 。。, ∣ yn − ybest ∣ } M=\max\left \{ \left | y_{1} -y_{best}\right |, \left | y_{2} -y_{最高}\right | , ... , \左 | y_{n} -y_{best}\right | \右 \}M=最大{ ∣ y1−yそうです_∣、∣ y2−yそうです_∣、... 、∣ yん−yそうです_∣ }
次に、この値を使用してyi y_{i}を 1 つずつ更新しますy私は:
yi : = 1 − ∣ yi − ybest ∣ M y_{i}:=1-\frac{ \left | y_{i} -y_{best}\right | {M}y私は:=1−M∣ y私は−yそうです_∣
1.2.3 間隔インジケーター
インターバル型の指標は、指標値が特定の範囲内に最もよく収まることを意味します。たとえば、人の体温は3 6 ∘ C 36^{\circ}Cです。3 6∘ Cから3 7 ∘ C 37^{\circ}C3 7○Cが最適です。以下に、間隔インジケーターの転送方法を紹介します。
一連の間隔インジケーター データの場合:
y 1 、y 2 、...、yn y_{1}、y_{2}、...、y_{n}y1、y2、... 、yん
まず最適な間隔を作成します:
( a , b ) \left( a,b \right)( 、_b )
このデータセットの最大値と最小値を取得します:
ymax = max { y 1 , y 2 , . . . , yn } , ymin = min { y 1 , y 2 , . . . , yn } y_{ max}=\max\left \{ y_{1},y_{2},...,y_{n} \right \} , y_{min}=\min\left \{ y_{1} ,y_{ 2},...,y_{n} \right \}yマックス_=最大{
y1、y2、... 、yん}、y分=分{
y1、y2、... 、yん}
次に、値MMを計算します。M:
M = max { a − ymin , ymax − b } M=\max\left \{ a-y_{min},y_{max}-b \right \}M=最大{
_−y分、yマックス_−b }
次に、次の式を使用してyi y_{i}を 1 つずつ更新しますy私は:
yi : = { 1 − a − yia − ymin , ymin ≤ yi < a 1 , a ≤ yi ≤ b 1 − yi − bymax − b , b < yi ≤ ymax y_{i}:= \left\{\begin {行列} 1-\frac{a-y_{i}}{a-y_{min}},y_{min} \le y_{i} < a \\ 1,a \le y_{i} \le b \\ 1-\frac{y_{i}-b}{y_{max}-b},b < y_{i} \le y_{max} \end{matrix}\right。y私は:=⎩
⎨
⎧1−〜と_分〜と_私は、y分≤y私は<ある1 、ある≤y私は≤b1−yマックス_− by私は− b、b<y私は≤yマックス_
次のラダー図を使用する方がより直感的です。
1.3 標準化
1.3.1 Z スコアの正規化
サンプルXXの場合Xのすべての機能
X 正規化 = ( X − μ ) σ X_{正規化} = \frac{(X - \mu)}{\sigma}バツまたは悪意がある_ _ _=p( X−メートル)。
その中で、μ \muμはこの特徴の平均値、σ \sigmaσは特徴の標準偏差です。
1.3.2 最小値と最大値の正規化
サンプルXXの場合Xのすべての機能
X 正規化 = ( X − X min ) ( X max − X min ) X_{正規化} = \frac{(X - X_{min})}{(X_{max} - X_{min})}バツまたは悪意がある_ _ _=( Xマックス_−バツ分)( X−バツ分)
其中, X m i n X_{min} バツ分特徴の最小値X max X_{max}バツマックス_はこの機能の最大値です。
1.3.3 堅牢な標準化
サンプルXXの場合Xのすべての機能
X 正規化 = ( X − 中央値 ) IQR / 2 X_{正規化} = \frac{(X - 中央値)}{IQR/2}バツまたは悪意がある_ _ _=I QR /2( X−中央値) _ _
ここで、中央値は特性の中央値、IQR は四分位範囲 (つまり、上位四分位数と下位四分位数の差) です。
1.3.4 正規化
サンプルXXの場合Xのすべての機能
X 正規化 = X ∑ i = 1 nxi 2 X_{正規化} = \frac{X}{\sqrt{\sum_{i=1}^{n}x_i^2}}バツまたは悪意がある_ _ _=∑i = 1んバツ私2×
その中で、nnはサンプルの特徴の数です。
2. ファジィ評価法(主観的)(非推奨)
- 指標が与えられていない評価問題に最適
3.分析階層プロセス (主観的) (非推奨)
- 指標が与えられていない評価問題に最適
4.PCA主成分分析法(目的)
主成分分析は、データの最大分散を保存するために元のデータを新しい低次元空間に投影する、一般的に使用される教師なし次元削減手法です。適切な数の主成分を選択することで、データ内の最も重要な情報を取得し、元のデータの次元を削減できます。
4.1 手順
-
データ転送と標準化: ppがあると仮定します。サンプル データX = ( x 1 , x 2 , . . , xn ) (p次元バツ=( ×1、バツ2、... 、バツん)、各次元のデータ平均は 0、標準偏差は 1 です。このステップの目的は、次元間の次元の影響を除去することです。
xj ′ = xj − x ˉ σ j ( j = 1 , 2 , . . . , p ) \boldsymbol{x}_j' = \frac{\boldsymbol{x}_j-\bar{\boldsymbol{x}}} {\sigma_j} (j=1,2,...,p)バツj「=pjバツj−バツˉ( j=1 、2 、... 、p )
ここで、x ˉ \bar{\boldsymbol{x}}バツˉ はすべてのサンプル データの平均です、σ j \sigma_jpjジェイですj次元の標準偏差。 -
共分散行列の計算: 標準化されたデータの共分散行列を計算します。共分散行列は、異なる特徴間の相関関係を表します。
公式:
Σ = 1 n − 1 ( X − X ˉ ) T ( X − X ˉ ) \Sigma = \frac{1}{n-1}(X-\bar{X})^T(X-\bar {バツ})S=n−11( X−バツˉ )T (X−バツˉ )
ここで、Σ \SigmaΣは共分散行列XXXは標準化されたデータ行列X ˉ \bar{X}バツˉは各特徴の平均、nnnはサンプルサイズです。 -
固有値と固有ベクトルを計算する: 共分散行列に対して固有値分解を実行して、固有値と対応する固有ベクトルを取得します。特徴ベクトルは、新しい特徴空間内のデータの方向を表します。
-
主成分の選択: 固有値のサイズに従って固有ベクトルを並べ替え、上位 k 個の固有ベクトルを主成分として選択します。これらの主成分に対応する固有値はより大きく、より多くの元のデータ情報が含まれます。
-
投影の計算: 元のデータを選択した主成分に投影して、次元削減されたデータを取得します。
公式:Y = X std WY = X_{\text{std}}WY=バツ標準W
其中, Y Y Yは次元削減されたデータ行列、X std X_{\text{std}}バツ標準は標準化されたデータ行列、WWWは、最初の k 個の固有ベクトルで構成される射影行列です。 -
オプション: データを再構築します: 次元削減されたデータと射影行列に基づいて、逆変換を通じてデータを元の空間に再マッピングできます。
公式:X 再構成 = YWT X_{\text{再構成}} = YW^Tバツ再建された=W _その中で
、X は X_{\text{reconstructed}} を再構築しましたバツ再建されたは再構成されたデータ行列です。
4.2 実装
>>> import numpy as np
>>> from sklearn.decomposition import PCA
# 输入待降维数据 (5 * 6) 矩阵,6个维度,5个样本值
>>> A = np.array([[84,65,61,72,79,81],[64,77,77,76,55,70],[65,67,63,49,57,67],[74,80,69,75,63,74],[84,74,70,80,74,82]])
>>> print(A)
[[84 65 61 72 79 81]
[64 77 77 76 55 70]
[65 67 63 49 57 67]
[74 80 69 75 63 74]
[84 74 70 80 74 82]]
# 直接使用PCA进行降维
>>> pca = PCA(n_components=2) #降到 2 维
>>> pca.fit(A)
PCA(n_components=2)
>>> pca.transform(A) # 降维后的结果
array([[-16.14860528, -12.48396235],
[ 10.61676743, 15.67317428],
[ 23.40212697, -13.607117 ],
[ -0.43966353, 7.77054621],
[-17.43062559, 2.64735885]])
>>> pca.explained_variance_ratio_ # 降维后的各主成分的方差值占总方差值的比例,即方差贡献率
array([0.63506778, 0.339022 ])
>>> pca.explained_variance_ # 降维后的各主成分的方差值
array([306.29319053, 163.51030959])
5. トプシス法(目的)
Topsis の包括的な評価手法は、さまざまな複雑な評価および意思決定のシナリオに適した多次元の意思決定分析手法です。より分かりやすく説明するために、各ステップを詳しく説明します。
まず、評価計画では、複数の評価指標を同時に考慮する必要があります。これらの指標は矛盾していたり、重みが異なる場合があります。これらの指標は、特定の数学モデルを通じて標準化され、相対的な重要性に応じて重み付けされる必要があります。Topsis メソッドは、このフレームワークに基づいており、次の計算方法を使用して、各指標の各ソリューションの総合スコアを求めます。
5.1 転送
詳細については 1.2 を参照してください
5.2 標準化
一般的には 1.3.4 の正規化方法が使用されます。
n個の解(エンティティ)があり、それぞれの解にはm個の異なる評価指標があり、異なる評価指標の間で総合評価が行われるとする。各プラン i の j インデックスについて、その標準化された値 v(i,j) は、次の計算によって取得できます。
vij = xij ∑ i = 1 nxij 2 v_{ij} = \frac{x_{ij}}{\sqrt{\sum_{i=1}^n{x^2_{ij}}}}vイジ=∑i = 1んバツij2バツイジ
ここで、xij x_{ij}バツイジi番目の計画のj番目の指標の元のデータを示します。標準化により、異なる次元のデータ範囲が 0 から 1 の間に統一され、データの大きさの影響が排除されます。
5.3 正および負の理想解の計算
- 転送が行われない場合:
価格、収入などの利益指標の場合は最大化する必要があり、費用、負債などのコスト指標の場合は最小化する必要があります。指定された n 個のソリューション内の各指標の最大値と最小値は個別に計算できます。j 番目の指標の正の理想解がvj + v^{+}_{j}であるとします。vj+、負の理想解はvj − v^{-}_{j}です。vj−。具体的な計算方法は以下の通りです。
利益指標の場合:
vj + = max { vij ∣ i = 1 , 2 , ⋯ , n } v^{+}_{j} = \max{\{v_{ij}| i = 1, 2, \cdots, n\}}vj+=最大{ vイジ∣私=1 、2 、⋯、n }
vj − = min { vij ∣ i = 1 , 2 , ⋯ , n } v^{-}_{j} = \min{\{v_{ij}| i = 1, 2, \cdots, n\}}vj−=分{ vイジ∣私=1 、2 、⋯、n }
コスト指標の場合:
vj + = min { vij ∣ i = 1 , 2 , ⋯ , n } v^{+}_{j} = \min{\{v_{ij}| i = 1, 2, \cdots, n\}}vj+=分{ vイジ∣私=1 、2 、⋯、n }
vj − = max { vij ∣ i = 1 , 2 , ⋯ , n } v^{-}_{j} = \max{\{v_{ij}| i = 1, 2, \cdots, n\}}vj−=最大{ vイジ∣私=1 、2 、⋯、n }
- 正規化した場合:
各列ベクトルの最大値を取得します。
5.4 各解と正および負の理想解の間の距離を計算する
正規化後、各解と正および負の理想解の間の距離を計算できます。i 番目の解と理想解の間の距離がSi + S_{i}^{+}であるとします。S私+、負の理想解までの距離はS i − S_{i}^{-}です。S私−。
S i + = ∑ j = 1 m ( vij − vj + ) 2 S^{+}_{i} = \sqrt{\sum_{j=1}^m{(v_{ij}-v^{+}) _{j})}^{2}}S私+=j = 1∑メートル( vイジ−vj+)2
S i − = ∑ j = 1 m ( vij − vj − ) 2 S^{-}_{i} = \sqrt{\sum_{j=1}^m{(v_{ij}-v^{-} _{j})}^{2}}S私−=j = 1∑メートル( vイジ−vj−)2
その中で、mmmはインジケーターの次元の数です。S i + S^{+}_{i}S私+表現スキームiiiと理想解の間の距離S i − S^{-}_{i}S私−表現スキームiiiと負の理想解との距離。値が小さいほど理想解に近いため、正および負の理想解の範囲は[0, 1] [0, 1][ 0 ,1 ]を検査指標の基礎としています。
5.5 総合スコアの計算
最終的な総合スコアsi s_is私はこれは、次のように各メトリックを重み付けすることで取得できます。
si = S i − S i + + S i − s_{i} = \frac{S^{-}_{i}}{S_{i}^{+}+S_{i}^{-}}s私は=S私++S私−S私−
其中, S i + S_{i}^{+} S私+ii代目を代表するi 個の解と理想解のS i − S_{i}^{-}S私−ii代目を代表するi 個の解と負の理想解の間の距離。総合スコアsi s_is私は評価指標の加重平均とみなすことができます。総合スコアが高いほどiiであることを意味します。iソリューションの方が優れています。
このメソッドを使用して意思決定を行う方法を示す例を次に示します。たとえば、企業は複数の指標を考慮して最適な機械学習プラットフォームを選択したいと考えています。評価指標には、機能スコア (サイズ、さまざまなモデル タイプの精度など)、サービス品質スコア (使いやすさ、応答時間、データ プライバシーなど)、価格スコアなどが含まれます。機械学習プラットフォームの候補が 3 つあると仮定し、評価指標を次の表に示します。
候補プラットフォーム | 機能スコア (0 ~ 1) | サービス品質スコア (0 ~ 1) | 価格スコア (0 - 1) |
---|---|---|---|
プラットフォームA | 0.8 | 0.6 | 0.7 |
Bホーム | 0.6 | 0.8 | 0.6 |
Cプラットフォーム | 0.7 | 0.5 | 0.8 |
Topsis メソッドを使用して、各プラットフォームのスコアを計算します。
各評価指標を標準化し、それぞれの標準化指標を満たす正負の理想解を計算し、各プラットフォームから理想解までの距離を計算します。
候補プラットフォーム | 特徴スコア | サービス品質スコア | 価格スコア | 理想的な解決策 | 負の理想的な解決策 | 理想的な解決策までの距離 | 負の理想解までの距離 | 総合評価 |
---|---|---|---|---|---|---|---|---|
プラットフォームA | 0.8 | 0.6 | 0.7 | 0.8 | 0.5 | 0.2236 | 0.3606 | 0.3825 |
Bホーム | 0.6 | 0.8 | 0.6 | 0.8 | 0.5 | 0.2828 | 0.2828 | 0.5000 |
Cプラットフォーム | 0.7 | 0.5 | 0.8 | 0.8 | 0.5 | 0.2449 | 0.3317 | 0.4255 |
計算の結果、プラットフォーム B の総合スコアが最も高いため、このプラットフォームは機械学習の最初の選択肢として推奨できます。
6.グレー相関解析手法(目的)
グレー相関分析は、一般的に使用される多要素の包括的な評価方法であり、異なるオブジェクトと特定の参照オブジェクトの間の相関を判断するために使用できます。この基準オブジェクトを理想的な完全なオブジェクトとして設定すると、グレー相関分析手法により、さまざまなオブジェクトの長所と短所を分析できます。
具体的な実装手順は次のとおりです。
6.1 データの収集
各行が因子(評価対象)、各列が評価指標に対応する評価指標マトリックスを構築します。評価指標には定量的指標と定性的(定性的)指標がありますが、指標の具体的な意味は同じである必要があります。評価指標行列をXXとするX、ここでxij x_{ij}バツイジii代目を代表するiをjjに因数分解しますjインジケーターの値。
まず例として、中核企業のサプライヤー候補の指標評価に関するデータを挙げてみましょう。
評価指標 | オブジェクト 1 | オブジェクト 2 | オブジェクト 3 | オブジェクト 4 | オブジェクト 5 | オブジェクト6 |
---|---|---|---|---|---|---|
製品の品質 | 0.83 | 0.90 | 0.99 | 0.92 | 0.87 | 0.95 |
商品価格(元) | 326 | 295 | 340 | 287 | 310 | 303 |
地理的位置 (km) | 21 | 38 | 25 | 19 | 27 | 10 |
アフターサービス(時間) | 3.2 | 2.4 | 2.2 | 2.0 | 0.9 | 1.7 |
技術レベル | 0.20 | 0.25 | 0.12 | 0.33 | 0.20 | 0.09 |
経済的利益 | 0.15 | 0.20 | 0.14 | 0.09 | 0.15 | 0.17 |
供給能力(個) | 250 | 180 | 300 | 200 | 150 | 175 |
市場への影響力 | 0.23 | 0.15 | 0.27 | 0.30 | 0.18 | 0.26 |
配送状況 | 0.87 | 0.95 | 0.99 | 0.89 | 0.82 | 0.95 |
6.2 参照オブジェクトの転送と標準化および確立
評価指標行列をフォワード化して標準化し、各指標を同一次元の評価指標値に変換します。標準化方法としては、一般に Min-max 標準化が採用されます。詳細については、1.2 および 1.3 を参照してください。
上の例では、製品価格、地理的位置、アフターサービスがマイナスの指標となり、その他はプラスの指標となります。前処理されたデータは次のとおりです。
評価指標 | オブジェクト 1 | オブジェクト 2 | オブジェクト 3 | オブジェクト 4 | オブジェクト 5 | オブジェクト6 |
---|---|---|---|---|---|---|
指標1 | 0 | 0.4375 | 1 | 0.5625 | 0.25 | 0.75 |
指標2 | 0.2642 | 0.8491 | 0 | 1 | 0.566 | 0.6981 |
指標3 | 0.6071 | 0 | 0.4643 | 0.6786 | 0.3929 | 1 |
指標4 | 0 | 0.3478 | 0.4348 | 0.5217 | 1 | 0.6522 |
指標5 | 0.4583 | 0.6667 | 0.125 | 1 | 0.4583 | 0 |
指標6 | 0.5455 | 1 | 0.4545 | 0 | 0.5455 | 0.7273 |
指標7 | 0.6667 | 0.2 | 1 | 0.3333 | 0 | 0.1667 |
指標8 | 0.5333 | 0 | 0.8 | 1 | 0.2 | 0.7333 |
指標9 | 0.2941 | 0.7647 | 1 | 0.4118 | 0 | 0.7059 |
次のように参照オブジェクトを作成します。
評価指標 | オブジェクト 1 | オブジェクト 2 | オブジェクト 3 | オブジェクト 4 | オブジェクト 5 | オブジェクト6 | 参照オブジェクト |
---|---|---|---|---|---|---|---|
指標1 | 0 | 0.4375 | 1 | 0.5625 | 0.25 | 0.75 | 1 |
指標2 | 0.2642 | 0.8491 | 0 | 1 | 0.566 | 0.6981 | 1 |
指標3 | 0.6071 | 0 | 0.4643 | 0.6786 | 0.3929 | 1 | 1 |
指標4 | 0 | 0.3478 | 0.4348 | 0.5217 | 1 | 0.6522 | 1 |
指標5 | 0.4583 | 0.6667 | 0.125 | 1 | 0.4583 | 0 | 1 |
指標6 | 0.5455 | 1 | 0.4545 | 0 | 0.5455 | 0.7273 | 1 |
指標7 | 0.6667 | 0.2 | 1 | 0.3333 | 0 | 0.1667 | 1 |
指標8 | 0.5333 | 0 | 0.8 | 1 | 0.2 | 0.7333 | 1 |
指標9 | 0.2941 | 0.7647 | 1 | 0.4118 | 0 | 0.7059 | 1 |
ここでフォワード処理と Min-max 正規化が行われるため、ここでの参照オブジェクトの各種指標は各行の最大値を取るだけで済みます。
6.3 重みを決定する
各指標に対応する重みを決定します。ただし、当面はインジケーターマトリックスの各行に重み付けは行われません。これらの重みは、分析階層プロセスを使用して決定できます。
ω = [ ω 1 , ω 2 , . . , ω n ] , ∑ i = 1 n ω i = 1 \omega =\left [ \omega _{1} ,\omega _{2} ,..., \omega _{n}\right ] ,\sum_{i=1}^{n} \omega _{i}=1おお=[ああ1、おお2、... 、おおん】、i = 1∑んおお私は=1これらの
重みは、グレー相関度を計算するときに使用されます。
6.4 グレー相関係数の計算
私たちはxi x_{i}を覚えていますバツ私はオブジェクトiiの場合i,参考对象为 x 0 x_{0} x0。 x i x_{i} xi与 x 0 x_{0} x0都有m个指标,我们需要求出它们在第k个指标上的关联系数。关联系数越大,代表这个实际对象越贴近于参考对象。对于n个实际对象,m个指标, x i ( j ) x_{i}(j) xi(j)表示实际对象i的第j个指标的值,那么, x i x_{i} xi与 x 0 x_{0} x0在第k个指标上的关联系数的计算公式如下:
ξ i ( k ) = min 1 ≤ s ≤ n min 1 ≤ t ≤ m ∣ x 0 ( t ) − x s ( t ) ∣ + ρ max 1 ≤ s ≤ n max 1 ≤ t ≤ m ∣ x 0 ( t ) − x s ( t ) ∣ ∣ x 0 ( k ) − x i ( k ) ∣ + ρ max 1 ≤ s ≤ n max 1 ≤ t ≤ m ∣ x 0 ( t ) − x s ( t ) ∣ \xi _{i}(k)=\frac{ \min_{1\le s \le n} \min_{1\le t \le m} \left | x_{0}(t)-x_{s}(t) \right | \\ +\rho \max_{1\le s \le n} \max_{1\le t \le m} \left | x_{0}(t)-x_{s}(t) \right | }{ \left | x_{0}(k)-x_{i}(k) \right | \\ +\rho \max_{1\le s \le n} \max_{1\le t \le m} \left | x_{0}(t)-x_{s}(t) \right | } ξi(k)=∣x0(k)−xi(k)∣+ρmax1≤s≤nmax1≤t≤m∣x0(t)−xs(t)∣min1≤s≤nmin1≤t≤m∣x0(t)−xs(t)∣+ρmax1≤s≤nmax1≤t≤m∣x0(t)−xs(t)∣
其中, min 1 ≤ s ≤ n min 1 ≤ t ≤ m ∣ x 0 ( t ) − x s ( t ) ∣ \min_{1\le s \le n} \min_{1\le t \le m} \left | x_{0}(t)-x_{s}(t) \right | min1≤s≤nmin1≤t≤m∣x0(t)−xs(t)∣称为两极最小差, max 1 ≤ s ≤ n max 1 ≤ t ≤ m ∣ x 0 ( t ) − x s ( t ) ∣ \max_{1\le s \le n} \max_{1\le t \le m} \left | x_{0}(t)-x_{s}(t) \right | max1≤s≤nmax1≤t≤m∣x0(t)−xs( t ) ∣ は2 レベルの最大差ρ \rhoと呼ばれます。ρは分解能係数と呼ばれます。
2段階最小差分および2段階最大差分の算出処理は、指標行列の各値と基準対象とを比較する処理である。分解能係数ρ \rhoρが大きいほど、解像度は高くなります。ρ\rhoρが小さいほど、解像度は小さくなります
上の例では、2 つのレベル間の最小差は 0、2 つのレベル間の最大差は 1 であると計算できます。これは、Min-Max 正規化方法を使用しているためです。
6.5 グレー加重相関を計算して並べ替える
グレーの重み付き相関は、各オブジェクトの最終スコアであり、次の式を使用して計算されます。
ri = ∑ k = 1 nwi ξ i ( k ) r_{i}=\sum_{k=1}^{n}w_{i}\xi _{i}(k)r私は=k = 1∑んw私はバツ私は( k )
其中, r i r_{i} r私は評価対象のオブジェクトのスコアを示します ( wi w_{i})w私はは 6.3 で決定された重みです。
最後に各評価対象のスコアに応じて並べ替えており、スコアが高いほど各指標との関連性が高いことを意味します。