[Umfassende Bewertungsmethode] Gemeinsame umfassende Bewertungsmethoden und ihre Umsetzung


1. Datenvorverarbeitung

1.1 Attribute, die Indikatoren unterscheiden

  1. positiver Indikator
  2. negativer Indikator
  3. Zwischenindikatoren
  4. Intervallanzeige

1.2 Positive Indikatoren

1.2.1 Negative Indikatoren

Die positive Methode negativer Indikatoren, auch Indikatorenumkehrmethode genannt, bezieht sich auf die Umwandlung von Indikatoren, die ursprünglich negative Situationen widerspiegeln, in Indikatoren, die positive Situationen widerspiegeln, um den Vergleich und die Analyse zu erleichtern. Diese Methode wird häufig in Bewertungsindikatoren, Marktforschung, Datenanalyse und anderen Bereichen eingesetzt.

Konkret kann die positive Methode der negativen Indikatoren in die folgenden Schritte unterteilt werden:

  1. Bestimmen Sie die weiterzuleitenden Indikatoren

  2. Bestimmen Sie, welche Art von Positivierung für negative Indikatoren erforderlich ist. Zu den gängigen Methoden gehören reziproke, logarithmische, absolute Werte usw.

  3. Die Berechnungsformel für Weiterleitungsindikatoren hängt von verschiedenen Weiterleitungsmethoden ab.

  4. Normalisieren Sie die weitergeleiteten Indikatoren, um sie besser vergleichbar zu machen

Im Folgenden wird eine Methode zur Positivierung negativer Indikatoren vorgestellt.

Für einen Satz negativer Indikatordaten:
y 1 , y 2 , . . . , yn y_{1},y_{2},...,y_{n}j1,j2,... ,jn
取出最大值:
ymax = max ⁡ { y 1 , y 2 , . . . , yn } y_{max}=\max\left \{ y_{1},y_{2},...,y_{n} \right \}jma x=max{ y1,j2,... ,jn}
Verwenden Sie dann diesen Wert, umyi y_{i}jich:
yi : = ymax − yi y_{i}:=y_{max}-y_{i}jich:=jma xjich

1.2.2 Zwischenindikatoren

Der Zwischenindex bedeutet, dass der Wert des Index nicht zu klein oder zu groß sein sollte, und es ist am besten, einen bestimmten Wert anzunehmen, beispielsweise beträgt der pH-Wert des Gewässers vorzugsweise 7. Im Folgenden wird eine positive Methode für Zwischenindikatoren vorgestellt:

Für einen Satz von Zwischenindikatordaten:
y 1 , y 2 , . . . , yn y_{1},y_{2},...,y_{n}j1,j2,... ,jn
Ermitteln Sie zunächst einen optimalen Wert:
ybest y_{best}jb es t
Berechnen Sie dann den Abstand zwischen den einzelnen Daten in diesem Datensatz und dem optimalen Wert und nehmen Sie den größten Wert:

M = max ⁡ { ∣ y 1 − ybest ∣ , ∣ y 2 − ybest ∣ , . . . , ∣ yn − ybest ∣ } M=\max\left \{ \left | y_{1} -y_{best}\right |, \left | y_{2} -y_{best}\right | , ... , \left | y_{n} -y_{best}\right | \Rechts \}M=max{ y1jb es t,y2jb es t,... ,ynjb es t }

Verwenden Sie dann diesen Wert, um yi y_{i} einzeln zu aktualisierenjich:
yi : = 1 − ∣ yi − ybest ∣ M y_{i}:=1-\frac{ \left | y_{i} -y_{best}\right | }{ M }jich:=1Myichjb es t

1.2.3 Intervallanzeige

Intervallindikatoren bedeuten, dass der Indikatorwert innerhalb eines bestimmten Bereichs am besten liegt. Beispielsweise liegt die Körpertemperatur einer Person bei 3 6 ∘ C 36^{\circ}C3 6 Czu3 7 ∘ C 37^{\circ}C3 7∘C istam besten. Im Folgenden wird eine Weiterleitungsmethode für Intervallindikatoren vorgestellt:

Für einen Satz von Intervallindikatordaten:
y 1 , y 2 , . . . , yn y_{1},y_{2},...,y_{n}j1,j2,... ,jn
Erstelle zunächst ein optimales Intervall:
( a , b ) \left( a,b \right)( ein ,b )
Ermitteln Sie die Maximal- und Minimalwerte dieses Datensatzes:
ymax = max ⁡ { y 1 , y 2 , . . . , yn } , ymin = min ⁡ { y 1 , y 2 , . . . , yn } y_{ max}=\max\left \{ y_{1},y_{2},...,y_{n} \right \} , y_{min}=\min\left \{ y_{1} ,y_{ 2},...,y_{n} \right \}jma x=max{ y1,j2,... ,jn},jmin=Mindest{ y1,j2,... ,jn}

Berechnen Sie dann einen Wert MMM :
M = max ⁡ { a − ymin , ymax − b } M=\max\left \{ a-y_{min},y_{max}-b \right \}M=max{ ajmin,jma xb }

Verwenden Sie dann die folgende Formel, um yi y_{i} einzeln zu aktualisierenjich:
yi : = { 1 − a − yia − ymin , ymin ≤ yi < a 1 , a ≤ yi ≤ b 1 − yi − bymax − b , b < yi ≤ ymax y_{i}:= \left\{\begin {Matrix} 1-\frac{a-y_{i}}{a-y_{min}},y_{min} \le y_{i} < a \\ 1,a \le y_{i} \le b \\ 1-\frac{y_{i}-b}{y_{max}-b},b < y_{i} \le y_{max} \end{matrix}\right.jich:= 1a ymina yich,jminjich<A1 ,AjichB1jma xbjich b,B<jichjma x
Intuitiver ist es, das folgende Kontaktplandiagramm zu verwenden:
Fügen Sie hier eine Bildbeschreibung ein

1.3 Standardisierung

1.3.1 Z-Score-Normalisierung

Für Probe XXJede Funktion in X :

X normalisiert = ( X − μ ) σ X_{normalisiert} = \frac{(X - \mu)}{\sigma}Xn or mal l i ze d=P( Xm ).

Darunter μ \muμ ist der Mittelwert des Merkmalsσ \sigmaσ ist die Standardabweichung des Merkmals.

1.3.2 Min-Max-Normalisierung

Für Probe XXJede Funktion in X :

X normalisiert = ( X − X min ) ( X max − X min ) X_{normalisiert} = \frac{(X - X_{min})}{(X_{max} - X_{min})}Xn or mal l i ze d=( Xma xXmin)( XXmin)

Darunter X min X_{min}Xminist der Mindestwert des Merkmals, X max X_{max}Xma xist der Maximalwert dieser Funktion.

1.3.3 Robuste Standardisierung

Für Probe XXJede Funktion in X :

X normalisiert = ( X − Median ) IQR / 2 X_{normalisiert} = \frac{(X - Median)}{IQR/2}Xn or mal l i ze d=Ich QR /2( Xm e d ian ).

Dabei ist Median der Median für das Merkmal und IQR der Interquartilbereich (d. h. die Differenz zwischen dem oberen und dem unteren Quartil).

1.3.4 Normalisierung

Für Probe XXJede Funktion in X :

X normalisiert = X ∑ i = 1 nxi 2 X_{normalisiert} = \frac{X}{\sqrt{\sum_{i=1}^{n}x_i^2}}Xn or mal l i ze d=ich = 1nXich2 X

Unter ihnen, nn ist die Anzahl der Merkmale der Stichprobe.

2. Fuzzy-Bewertungsmethode (subjektiv) (nicht empfohlen)

  • Geeignet für Bewertungsprobleme ohne vorgegebene Indikatoren

3. Analytischer Hierarchieprozess (subjektiv) (nicht empfohlen)

  • Geeignet für Bewertungsprobleme ohne vorgegebene Indikatoren

4. PCA-Hauptkomponentenanalysemethode (objektiv)

Die Hauptkomponentenanalyse ist eine häufig verwendete unbeaufsichtigte Dimensionsreduktionstechnik, die die Originaldaten in einen neuen niedrigdimensionalen Raum projiziert, um die maximale Varianz der Daten zu bewahren. Durch die Auswahl einer angemessenen Anzahl von Hauptkomponenten können wir die wichtigsten Informationen in den Daten erfassen und die Dimensionalität der Originaldaten reduzieren.

4.1 Schritte

  1. Datenweiterleitung und Standardisierung: Angenommen, wir haben ppBeispieldatenX = ( x 1 , x 2 , . . . , xn ) in p- DimensionX=( x1,X2,... ,Xn) , der Datenmittelwert jeder Dimension beträgt 0 und die Standardabweichung beträgt 1. Der Zweck dieses Schritts besteht darin, den Dimensionseinfluss zwischen Dimensionen zu beseitigen.
    xj ′ = xj − x ˉ σ j ( j = 1 , 2 , . . . , p ) \boldsymbol{x}_j' = \frac{\boldsymbol{x}_j-\bar{\boldsymbol{x}}} {\sigma_j} (j=1,2,...,p)XJ'=PjXjXˉ( j=1 ,2 ,... ,p )
    wobeix ˉ \bar{\boldsymbol{x}}Xˉ ist der Mittelwert aller Stichprobendaten,σ j \sigma_jPjEs ist jjDie Standardabweichung der j- Dimension.

  2. Kovarianzmatrix berechnen: Berechnen Sie die Kovarianzmatrix der standardisierten Daten. Die Kovarianzmatrix beschreibt die Korrelation zwischen verschiedenen Merkmalen.

    公式:
    Σ = 1 n − 1 ( X − X ˉ ) T ( X − X ˉ ) \Sigma = \frac{1}{n-1}(X-\bar{X})^T(X-\bar {X})S=N11( XXˉ )T (XXˉ )
    , wobeiΣ \SigmaΣ ist die KovarianzmatrixXXX ist die standardisierte Datenmatrix,X ˉ \bar{X}Xˉ ist der Mittelwert jedes Merkmals,nnn ist die Stichprobengröße.

  3. Berechnen Sie Eigenwerte und Eigenvektoren: Führen Sie eine Eigenwertzerlegung für die Kovarianzmatrix durch, um Eigenwerte und entsprechende Eigenvektoren zu erhalten. Der Merkmalsvektor repräsentiert die Richtung der Daten im neuen Merkmalsraum.

  4. Hauptkomponenten auswählen: Sortieren Sie die Eigenvektoren nach der Größe ihrer Eigenwerte und wählen Sie die obersten k Eigenvektoren als Hauptkomponenten aus. Die diesen Hauptkomponenten entsprechenden Eigenwerte sind größer und enthalten mehr Originaldateninformationen.

  5. Projektion berechnen: Projizieren Sie die Originaldaten auf die ausgewählten Hauptkomponenten, um die dimensionsreduzierten Daten zu erhalten.

    Bedeutung: Y = X std WY = X_{\text{std}}WY=XstdW
    -Teil,YYY ist die dimensionsreduzierte Datenmatrix,X std X_{\text{std}}Xstdist die standardisierte Datenmatrix WWW ist die Projektionsmatrix, die aus den ersten k Eigenvektoren besteht.

  6. Optional: Rekonstruieren Sie die Daten: Basierend auf den dimensional reduzierten Daten und der Projektionsmatrix können die Daten durch inverse Transformation wieder in den ursprünglichen Raum abgebildet werden.

    公式: X rekonstruiert = YWT X_{\text{rekonstruiert}} = YW^TXrekonstruiert=Das WT
    其中,X rekonstruiert X_{\text{rekonstruiert}}Xrekonstruiertist die rekonstruierte Datenmatrix.

4.2 Umsetzung

>>> import numpy as np
>>> from sklearn.decomposition import PCA

# 输入待降维数据 (5 * 6) 矩阵,6个维度,5个样本值
>>> A = np.array([[84,65,61,72,79,81],[64,77,77,76,55,70],[65,67,63,49,57,67],[74,80,69,75,63,74],[84,74,70,80,74,82]])
>>> print(A)
[[84 65 61 72 79 81]
 [64 77 77 76 55 70]
 [65 67 63 49 57 67]
 [74 80 69 75 63 74]
 [84 74 70 80 74 82]]
 
# 直接使用PCA进行降维
>>> pca = PCA(n_components=2) #降到 2 维
>>> pca.fit(A)
PCA(n_components=2)
>>> pca.transform(A) # 降维后的结果
array([[-16.14860528, -12.48396235],
       [ 10.61676743,  15.67317428],
       [ 23.40212697, -13.607117  ],
       [ -0.43966353,   7.77054621],
       [-17.43062559,   2.64735885]])
>>> pca.explained_variance_ratio_ # 降维后的各主成分的方差值占总方差值的比例,即方差贡献率
array([0.63506778, 0.339022  ])
>>> pca.explained_variance_ # 降维后的各主成分的方差值
array([306.29319053, 163.51030959])

5. Topsis-Methode (Ziel)

Die umfassende Bewertungsmethode Topsis ist eine mehrdimensionale Entscheidungsanalysemethode, die für eine Vielzahl komplexer Bewertungs- und Entscheidungsszenarien geeignet ist. Um es klarer zu erklären, werde ich jeden Schritt detaillierter erläutern.

Zunächst muss der Bewertungsplan mehrere Bewertungsindikatoren gleichzeitig berücksichtigen. Diese Indikatoren können widersprüchlich sein oder unterschiedliche Gewichte haben. Sie müssen durch ein bestimmtes mathematisches Modell standardisiert und entsprechend ihrer relativen Bedeutung gewichtet werden. Die Topsis-Methode basiert auf diesem Framework und verwendet die folgende Berechnungsmethode, um die umfassende Bewertung jeder Lösung für jeden Indikator zu ermitteln.

5.1 Weiterleitung

Einzelheiten finden Sie unter 1.2

5.2 Standardisierung

Im Allgemeinen wird die Normalisierungsmethode von 1.3.4 verwendet.

Angenommen, es gibt n Lösungen (oder Entitäten), jede Lösung hat m unterschiedliche Bewertungsindikatoren und eine umfassende Bewertung wird unter verschiedenen Bewertungsindikatoren durchgeführt. Für den j-Index jedes Plans i kann sein standardisierter Wert v(i,j) durch die folgende Berechnung ermittelt werden:

vij = xij ∑ i = 1 nxij 2 v_{ij} = \frac{x_{ij}}{\sqrt{\sum_{i=1}^n{x^2_{ij}}}}vij=ich = 1nXij2 Xij

wobei xij x_{ij}XijZeigt die Originaldaten des j-ten Indikators des i-ten Plans an. Durch die Standardisierung wird der Datenbereich unterschiedlicher Dimensionen auf Werte zwischen 0 und 1 vereinheitlicht und der Einfluss von Datengrößen eliminiert.

5.3 Berechnen Sie positive und negative Ideallösungen

  • Wenn keine Weiterleitung erfolgt:

Für Nutzenindikatoren wie Preis, Einkommen usw. müssen sie maximiert werden, während sie für Kostenindikatoren wie Kosten, Verbindlichkeiten usw. minimiert werden müssen. Die Maximal- und Minimalwerte jedes Indikators in den angegebenen n Lösungen können separat berechnet werden. Angenommen, die positive ideale Lösung des j-ten Indikators ist vj + v^{+}_{j}vJ+, die negative ideale Lösung ist vj − v^{-}_{j}vJ. Die spezifische Berechnungsmethode ist wie folgt:

Für Nutzenindikatoren:

vj + = max ⁡ { vij ∣ i = 1 , 2 , ⋯ , n } v^{+}_{j} = \max{\{v_{ij}| i = 1, 2, \cdots, n\}}vJ+=max{ vijich=1 ,2 ,,n }

vj − = min ⁡ { vij ∣ i = 1 , 2 , ⋯ , n } v^{-}_{j} = \min{\{v_{ij}| i = 1, 2, \cdots, n\}}vJ=Mindest{ vijich=1 ,2 ,,n }

Für Kostenindikatoren:

vj + = min ⁡ { vij ∣ i = 1 , 2 , ⋯ , n } v^{+}_{j} = \min{\{v_{ij}| i = 1, 2, \cdots, n\}}vJ+=Mindest{ vijich=1 ,2 ,,n }

vj − = max ⁡ { vij ∣ i = 1 , 2 , ⋯ , n } v^{-}_{j} = \max{\{v_{ij}| i = 1, 2, \cdots, n\}}vJ=max{ vijich=1 ,2 ,,n }

  • Wenn die Weiterleitung erfolgt ist:

Nehmen Sie einfach den Maximalwert jedes Spaltenvektors.

5.4 Berechnen Sie den Abstand zwischen jeder Lösung und den positiven und negativen idealen Lösungen

Nach der Normalisierung kann der Abstand zwischen jeder Lösung und den positiven und negativen Ideallösungen berechnet werden. Angenommen, der Abstand zwischen der i-ten Lösung und der idealen Lösung beträgt Si + S_{i}^{+}Sich+, der Abstand zur negativen Ideallösung ist Si − S_{i}^{-}Sich

S i + = ∑ j = 1 m ( vij − vj + ) 2 S^{+}_{i} = \sqrt{\sum_{j=1}^m{(v_{ij}-v^{+} _{j})}^{2}}Sich+=j = 1m( VijvJ+)2

S i − = ∑ j = 1 m ( vij − vj − ) 2 S^{-}_{i} = \sqrt{\sum_{j=1}^m{(v_{ij}-v^{-} _{j})}^{2}}Sich=j = 1m( VijvJ)2

Unter ihnen mmm ist die Anzahl der Indikatordimensionen. S i + S^{+}_{i}Sich+Darstellungsschema iiDer Abstand zwischen i und der idealen Lösung, S i − S^{-}_{i}SichDarstellungsschema iiDer Abstand zwischen i und der negativen Ideallösung. Je kleiner der Wert, desto näher liegt er an der Ideallösung. Daher kann der Bereich positiver und negativer Ideallösungen auf[0, 1] [0, 1][ 0 ,1 ] als Grundlage für Inspektionsindikatoren.

5.5 Berechnung der zusammengesetzten Punktzahl

Die abschließende umfassende Partitur ist si s_iSichDies kann durch Gewichtung jeder Metrik wie folgt ermittelt werden:

si = S i − S i + + S i − s_{i} = \frac{S^{-}_{i}}{S_{i}^{+}+S_{i}^{-}}Sich=Sich++SichSich

Darunter S i + S_{i}^{+}Sich+Zeigt das ii anDer Abstand zwischen i Lösungen und der idealen Lösung,S i − S_{i}^{-}SichZeigt das ii anDer Abstand zwischen i- Lösungen und der negativen Ideallösung. Umfangreiche Partitursi s_iSichEr kann als gewichteter Durchschnitt der Bewertungsindikatoren angesehen werden. Wenn die Gesamtpunktzahl höher ist, bedeutet dies, dass iiDie i -Lösungen sind besser.

Hier ist ein Beispiel dafür, wie diese Methode zur Entscheidungsfindung genutzt werden kann. Beispielsweise möchte ein Unternehmen unter Berücksichtigung mehrerer Metriken die am besten geeignete Plattform für maschinelles Lernen auswählen. Zu ihren Bewertungsindikatoren gehören Funktionsbewertungen (wie Größe, Genauigkeit verschiedener Modelltypen usw.), Servicequalitätsbewertungen (einschließlich Benutzerfreundlichkeit, Reaktionszeit, Datenschutz usw.), Preisbewertungen usw. Wir gehen davon aus, dass es drei mögliche Plattformen für maschinelles Lernen gibt. Die Bewertungsindikatoren sind in der folgenden Tabelle aufgeführt:

Kandidatenplattform Feature-Score (0–1) Servicequalitätsbewertung (0 - 1) Preisbewertung (0 - 1)
Gleis A 0,8 0,6 0,7
Plattform B 0,6 0,8 0,6
Plattform C 0,7 0,5 0,8

Verwenden Sie die Topsis-Methode, um die Punktzahl für jede Plattform zu berechnen:

Standardisieren Sie jeden Bewertungsindex, berechnen Sie die positiven und negativen idealen Lösungen, die jeden standardisierten Index erfüllen, und berechnen Sie den Abstand zwischen jeder Plattform und der idealen Lösung:

Kandidatenplattform Feature-Score Bewertung der Servicequalität Preisbewertung positive Ideallösung negative Ideallösung Abstand zur positiven Ideallösung Abstand zur negativen idealen Lösung Gesamtbewertungen
Gleis A 0,8 0,6 0,7 0,8 0,5 0,2236 0,3606 0,3825
Plattform B 0,6 0,8 0,6 0,8 0,5 0,2828 0,2828 0,5000
Plattform C 0,7 0,5 0,8 0,8 0,5 0,2449 0,3317 0,4255

Laut Berechnung weist Plattform B die höchste Gesamtpunktzahl auf, sodass diese Plattform als bevorzugte Option für maschinelles Lernen empfohlen werden kann.

6. Methode der Graukorrelationsanalyse (objektiv)

Die graue relationale Analyse ist eine häufig verwendete umfassende Bewertungsmethode mit mehreren Faktoren, mit der der Beziehungsgrad zwischen verschiedenen Objekten und einem Referenzobjekt bestimmt werden kann. Wenn wir dieses Referenzobjekt als ideales perfektes Objekt festlegen, kann die Graukorrelationsanalysemethode die Vor- und Nachteile verschiedener Objekte analysieren.

Die spezifischen Implementierungsschritte sind wie folgt:

6.1 Datenerhebung

Erstellen Sie eine Bewertungsindexmatrix, in der jede Zeile einem Faktor (Bewertungsobjekt) und jede Spalte einem Bewertungsindex entspricht. Bewertungsindikatoren können quantitative Indikatoren oder qualitative (qualitative) Indikatoren sein, die spezifische Bedeutung der Indikatoren muss jedoch dieselbe sein. Die Bewertungsindexmatrix sei XXX , wobeixij x_{ij}XijZeigt das ii anIch berücksichtigejjDer Wert von j Indikatoren.

Lassen Sie uns zunächst ein Beispiel geben, Daten zur Indikatorenbewertung der Kandidatenlieferanten eines Kernunternehmens:

Bewertungsindex Objekt 1 Objekt 2 Objekt 3 Objekt 4 Objekt 5 Objekt 6
Produktqualität 0,83 0,90 0,99 0,92 0,87 0,95
Produktpreis (Yuan) 326 295 340 287 310 303
Geografischer Standort (km) 21 38 25 19 27 10
Kundendienst (Stunden) 3.2 2.4 2.2 2,0 0,9 1.7
technisches Niveau 0,20 0,25 0,12 0,33 0,20 0,09
Wirtschaftliche Vorteile 0,15 0,20 0,14 0,09 0,15 0,17
Lieferkapazität (Stück) 250 180 300 200 150 175
Markteinfluss 0,23 0,15 0,27 0,30 0,18 0,26
Lieferstatus 0,87 0,95 0,99 0,89 0,82 0,95

6.2 Weitergabe und Standardisierung sowie Festlegung von Referenzobjekten

Die Bewertungsindexmatrix wird weitergeleitet und standardisiert, und jeder Index wird in einen Bewertungsindexwert unter derselben Dimension umgewandelt. Die Standardisierungsmethode verwendet im Allgemeinen die Min-Max-Standardisierung. Einzelheiten siehe 1.2 und 1.3.

Im obigen Beispiel sind Produktpreis, geografischer Standort und Kundendienst negative Indikatoren , während andere positive Indikatoren sind. Die vorverarbeiteten Daten lauten wie folgt:

Bewertungsindex Objekt 1 Objekt 2 Objekt 3 Objekt 4 Objekt 5 Objekt 6
Indikator 1 0 0,4375 1 0,5625 0,25 0,75
Indikator 2 0,2642 0,8491 0 1 0,566 0,6981
Indikator 3 0,6071 0 0,4643 0,6786 0,3929 1
Indikator 4 0 0,3478 0,4348 0,5217 1 0,6522
Indikator 5 0,4583 0,6667 0,125 1 0,4583 0
Indikator 6 0,5455 1 0,4545 0 0,5455 0,7273
Indikator 7 0,6667 0,2 1 0,3333 0 0,1667
Indikator 8 0,5333 0 0,8 1 0,2 0,7333
Indikator 9 0,2941 0,7647 1 0,4118 0 0,7059

Erstellen Sie ein Referenzobjekt wie folgt:

Bewertungsindex Objekt 1 Objekt 2 Objekt 3 Objekt 4 Objekt 5 Objekt 6 Referenzobjekt
Indikator 1 0 0,4375 1 0,5625 0,25 0,75 1
Indikator 2 0,2642 0,8491 0 1 0,566 0,6981 1
Indikator 3 0,6071 0 0,4643 0,6786 0,3929 1 1
Indikator 4 0 0,3478 0,4348 0,5217 1 0,6522 1
Indikator 5 0,4583 0,6667 0,125 1 0,4583 0 1
Indikator 6 0,5455 1 0,4545 0 0,5455 0,7273 1
Indikator 7 0,6667 0,2 1 0,3333 0 0,1667 1
Indikator 8 0,5333 0 0,8 1 0,2 0,7333 1
Indikator 9 0,2941 0,7647 1 0,4118 0 0,7059 1

Da hier die Vorwärtsverarbeitung und die Min-Max-Standardisierung durchgeführt werden, muss hier nur der Maximalwert für jede Zeile der Indikatoren des Referenzobjekts genommen werden.

6.3 Gewichte ermitteln

Bestimmen Sie das Gewicht, das jedem Indikator entspricht. Allerdings wird vorerst nicht jede Zeile der Indikatormatrix gewichtet . Diese Gewichte können mithilfe des analytischen Hierarchieprozesses ermittelt werden.
ω = [ ω 1 , ω 2 , . . . , ω n ] , ∑ i = 1 n ω i = 1 \omega =\left [ \omega _{1} ,\omega _{2} ,..., \omega _{n}\right ] ,\sum_{i=1}^{n} \omega _{i}=1Oh=[ Oh1,Oh2,... ,Ohn],ich = 1nOhich=1Diese
Gewichte werden bei der Berechnung des Graukorrelationsgrads verwendet.

6.4 Berechnen Sie den Graukorrelationskoeffizienten

Wir erinnern uns an xi x_{i}Xichfür Objekt IIi,参考对象为 x 0 x_{0} x0 x i x_{i} xi x 0 x_{0} x0都有m个指标,我们需要求出它们在第k个指标上的关联系数。关联系数越大,代表这个实际对象越贴近于参考对象。对于n个实际对象,m个指标, x i ( j ) x_{i}(j) xi(j)表示实际对象i的第j个指标的值,那么, x i x_{i} xi x 0 x_{0} x0在第k个指标上的关联系数的计算公式如下:
ξ i ( k ) = min ⁡ 1 ≤ s ≤ n min ⁡ 1 ≤ t ≤ m ∣ x 0 ( t ) − x s ( t ) ∣ + ρ max ⁡ 1 ≤ s ≤ n max ⁡ 1 ≤ t ≤ m ∣ x 0 ( t ) − x s ( t ) ∣ ∣ x 0 ( k ) − x i ( k ) ∣ + ρ max ⁡ 1 ≤ s ≤ n max ⁡ 1 ≤ t ≤ m ∣ x 0 ( t ) − x s ( t ) ∣ \xi _{i}(k)=\frac{ \min_{1\le s \le n} \min_{1\le t \le m} \left | x_{0}(t)-x_{s}(t) \right | \\ +\rho \max_{1\le s \le n} \max_{1\le t \le m} \left | x_{0}(t)-x_{s}(t) \right | }{ \left | x_{0}(k)-x_{i}(k) \right | \\ +\rho \max_{1\le s \le n} \max_{1\le t \le m} \left | x_{0}(t)-x_{s}(t) \right | } ξi(k)=x0(k)xi(k)+ρmax1snmax1tmx0(t)xs(t)min1snmin1tmx0(t)xs(t)+ρmax1snmax1tmx0(t)xs(t)

其中, min ⁡ 1 ≤ s ≤ n min ⁡ 1 ≤ t ≤ m ∣ x 0 ( t ) − x s ( t ) ∣ \min_{1\le s \le n} \min_{1\le t \le m} \left | x_{0}(t)-x_{s}(t) \right | min1snmin1tmx0(t)xs(t)称为两极最小差 max ⁡ 1 ≤ s ≤ n max ⁡ 1 ≤ t ≤ m ∣ x 0 ( t ) − x s ( t ) ∣ \max_{1\le s \le n} \max_{1\le t \le m} \left | x_{0}(t)-x_{s}(t) \right | max1snmax1tmx0(t)xs( t ) heißtdie zweistufige maximale Differenz,ρ \rhoρ wird Auflösungskoeffizientgenannt.

Der Berechnungsprozess der zweistufigen minimalen Differenz und der zweistufigen maximalen Differenz ist der Prozess des Vergleichs jedes Werts der Indikatormatrix mit dem Referenzobjekt. Auflösungskoeffizient ρ \rhoJe größer ρ , desto größer die Auflösung;ρ \rhoJe kleiner ρ , desto kleiner die Auflösung

Im obigen Beispiel können wir berechnen, dass die minimale Differenz zwischen den beiden Ebenen 0 und die maximale Differenz zwischen den beiden Ebenen 1 beträgt. Dies ist auf die Verwendung der Min-Max-Normalisierungsmethode zurückzuführen.

6.5 Berechnen Sie die graugewichtete Korrelation und Sortierung

Die grau gewichtete Korrelation ist die Endbewertung jedes Objekts , die anhand der folgenden Formel berechnet wird:

ri = ∑ k = 1 nwi ξ i ( k ) r_{i}=\sum_{k=1}^{n}w_{i}\xi _{i}(k)Rich=k = 1nwichXich( k )

Darunter ri r_{i}RichStellt die Bewertung des zu bewertenden Objekts dar, wi w_{i}wichist das in 6.3 ermittelte Gewicht.

Abschließend werden sie nach der Punktzahl jedes Bewertungsobjekts sortiert. Je höher die Punktzahl, desto enger ist die Beziehung zu jedem Indikator und desto besser.

Supongo que te gusta

Origin blog.csdn.net/qq_50791664/article/details/131378979
Recomendado
Clasificación