[10] estimador de máxima probabilidad de la naturaleza

[10] estimador de máxima probabilidad de la naturaleza

( Teorema 1 ) está provisto \ (X-_ {(I)} (i = 1, ..., n-) \ SIM n_P (\ MU, \ Sigma), (n-> P) \) , entonces ( \ (\ MU, \ Sigma \) ) 'S MLE ES:

\ [\ Hat {\ mu} = \ overline {X} = \ frac1n \ sum_ {i = 1} ^ nX _ {(i)} \\ \ hat \ Sigma = \ frac1nA = \ frac1n \ sum_ {i = 1} ^ n (X _ {(i)} - \ overline {X}) (X _ {(i)} - \ overline {X})' \]

( Teorema 2 ) Si \ (\ overline {X}, A \) son \ (P \) miembros población normal \ (n_P (\ mu, \ Sigma) \) del vector de media de la muestra, y la muestra de la matriz de diferencia, a continuación:

  1. \ (\ overline {X} \ sim n_P (\ mu, \ frac1n \ Sigma) \) ;
  2. \ (A ^ = D \ sum_. 1 = {T} ^ {}. 1-n-Z_tZ_t '\) , en la que, \ (Z_1, ...,. 1-n-Z_} {\) de forma independiente con \ (n_P (0, \ Sigma) \) de distribución;
  3. \ (\ Overline {X}, A \) independientes uno de otro;
  4. \ (P \ {A> 0 \} = 1 \ leftrightarrow n> p \) .

Discutir cuando \ (A \) es una matriz definida positiva;

  • Un dólar a varias conclusiones:

Si \ (x_1, ... X_n \) IID \ (N (\ mu, \ sigma ^ 2) \) :

  1. \ (\ overline {X} \ sim N (\ mu, \ frac {\ sigma ^ 2} {n}) \) ;
  2. \ (\ frac {\ sum_ {i-1} ^ n (X_i- \ overline {X}) ^ 2} {\ sigma ^ 2} \ sim \ chi ^ 2 (n-1) \) ;
  3. \ (\ Overline {X} \ ) y \ (s ^ 2 = \ frac1 {n-1} \ sum_ {i = 1} ^ n (X- \ overline {X}) ^ 2 \) de forma independiente;

prueba:

Set \ (\ Gamma \) de \ (n- \) Orden matriz ortogonal (diferente línea de productos es 0, 1 volumen de los pares), tiene la siguiente forma:

\ [\ Gamma = \ left [\ begin {array} {ccc} \ gamma_ {11} & \ dots & \ gamma_ {1n} \\ \ vdots && \ vdots \\ \ gamma _ {(n-1), 1} y \ los puntos y la \ gamma _ {(n-1), n} \\ \ frac1 {\ sqrt {n}} y \ dots & \ frac1 {\ sqrt {n}} \ end {array} \ right] = (\ gamma_ {ij} ) _ {n \ n veces} \]

Para \ (X- \) lineal transformación \ (Z = \ Gamma X \ ) a saber:

\ [Z = \ left [\ begin {array} {c} Z_1 '\\ \ vdots \\ Z_n' \ end {array} \ right] = \ Gamma \ left [\ begin {array} {c} X _ {( 1)} '\\ \ vdots \\ X _ {(n)}' \ end {array} \ right] = \ Gamma X \]

entonces:

\ [\ Begin {align} Z '= y X' \ Gamma '\\\\ (Z_1, ..., Z_n) = Y (X _ {(1)}, ..., X _ {(n)}) \ gamma '\\ z_T = (X _ {(1)}, ..., X _ {(n)}) y \ left [\ begin {array} {c} \ gamma_ {t1} \\ \ vdots \\ \ gamma_ {tn} \ end {array} \ right], (t = 1, ..., n) \ end {align} \]

\ (Z_T \) de \ (P \) vector aleatorio dimensional, y una \ (P \) dimensión VD normal \ (X-_ {(. 1)} '..., X-_ {(n-)}' \) de una combinación lineal, de modo \ (z_T \) es \ (P \) dimensional vector aleatoria normal . y:

\ [E (z_T) = E (\ sum_ {i = 1} ^ nr_ {ti} X _ {(i)}) = \ sum_ {i = 1} ^ nr_ {ti} E (X _ {(i)}) = \ mu \ sum_ {i = 1} ^ nr_ {ti} = \ begin {casos} \ mu \ cdot (\ frac1 {\ sqrt {n}} \ sum_ {i = 1} ^ nr_ {ti}) \ cdot \ sqrt {n} & = 0 & 当 \, t \ NEQ n \, 时, \\ \ mu \ cdot n \ frac1 {\ sqrt {n}} y = \ sqrt {n} \ mu & 当 \, t = n \, 时 \\ \ end {casos} \]

\ [\ Begin {align} Cov (Z _ {\ alpha}, Z _ {\ beta}) = & E [(Z _ {\ alpha} -E (Z_ \ alpha)) (Z _ {\ beta} -E (Z _ {\ beta})) '] = \ sum_ {i = 1} ^ n (r _ {\ alpha i} r _ {\ beta i}) \ Sigma = \ begin {casos} O & \ alpha \ neq \ beta, \\ \ Sigma y \ alpha = \ beta \ end {casos} \ end {align} \]

  • \ (\ overline {X} \ sim n_P (\ mu, \ frac1n \ Sigma) \) ;

\ (Z_n = \ frac1 {\ sqrt {n}} \ sum _ {\ alpha = 1} ^ nX _ {(\ alpha)} = \ sqrt {n} \ overline {X} \ sim n_P (\ mu \ sqrt {n },\Sigma)\)

  • \ (A ^ = D \ sum_. 1 = {T} ^ {}. 1-n-Z_tZ_t '\) , en la que, \ (Z_1, ...,. 1-n-Z_} {\) de forma independiente con \ (n_P (0, \ Sigma) \) de distribución;

\ (\ Sum _ {\ alpha = 1} ^ nZ_ \ alpha Z_ \ alpha '= (Z_1, ..., Z_n) \ left (\ begin {array} {c} Z_1' \\\ vdots \\ Z_ {n } '\ end {array} \ right) = Z'Z = X' \ Gamma '\ cdot \ Gamma X = \ sum _ {\ alpha = 1} ^ NX_ \ alpha X_ \ alpha' \)

Por lo tanto:

\ [\ Sum _ {\ alpha = 1} ^ {n-1} Z_ \ alpha Z_ \ alpha '= \ sum _ {\ alpha = 1} ^ NX_ \ alpha X_ \ alfa'-Z_ {n} Z_ {n}' = \ sum _ {\ alpha = 1} ^ NX_ \ alpha X_ \ alfa'-n \ overline {X} \ overline {X} '= A \]

  • \ (\ Overline {X}, A \) independientes uno de otro;

\ [A = g (\ sum_ {t = 1} ^ {n-1} Z_tZ_t ') \\ \ overline {X} = f (Z_n) \]

Y \ (Z_I, z_j \) independientemente uno de otro ( \ (I \ NEQ J \) ), entonces \ (A, \ overline {X } \) también es independiente de la otra.

  • \ (P \ {A> 0 \} = 1 \ leftrightarrow n> p \) .

\ (B = (Z_1, ...,. 1-n-Z_ {}) \) , denotado \ (A = BB '\) , ya que \ (A = BB' \) , \ (P \ Times (. 1-n- ) \) matriz, aparentemente \ (rango (A) = rango (B) \) , cuando el \ (A \) cuando matriz definida positiva, \ (rango (A) = P \) , por lo que \ (rango (B) = P \) , por lo que \ ((n--. 1) \ GEQ P \) , es decir, \ (n-> P \) .

(No sesgo)

\ [E (\ overline {X}) = \ left (\ begin {array} {c} \ frac1n \ sum_ {i = 1} ^ nE (x_ {i1}) \\ \ vdots \\ \ frac1n \ sum_ { i = 1} ^ nE (x_ {ip}) \\ \ end {array} \ right) = \ left (\ begin {array} {c} \ mu_1 \\\ vdots \\\ mu_p \ end {array} \ derecho) = \ mu \]

\ [E (A) = E \ left (\ sum_ {i = 1} ^ {n-1} Z_iZ_i '\ right) = \ sum_ {i = 1} ^ {n-1} E (Z_iZ_i') = \ sum_ {i = 1} ^ {n-1} D (Z_I) = (n-1) \ Sigma \ neq \ Sigma \]

Por lo tanto, \ (\ hat {\ Sigma} = \ frac1nA \) no es \ (\ Sigma \) de estimación objetiva, debe modificarse para: \ (S = \ {n-1} frac1-A. \) .

Supongo que te gusta

Origin www.cnblogs.com/rrrrraulista/p/12546064.html
Recomendado
Clasificación