Notas de dinámica estadística (1) Transformación de señales aleatorias en sistemas dinámicos en el dominio del tiempo (para uso personal)

1. Representación de la calidad del trabajo del sistema y algunos conceptos estadísticos.

Sea la entrada de un sistema dinámico u ( t ) u(t)u ( t ) , la salida esx (t) x(t)x ( t ) , entonces el error dinámico ese ( t ) = u ( t ) − x ( t ) e(t) = u(t) - x(t)mi ( t )=tu ( t )x ( t ) . Cuando se ingresau (t) u(t)Cuando u ( t ) es una señal aleatoria, e ( t ) e(t)e ( t ) es el error aleatorio.

Generalmente, bajo la acción de señales de entrada aleatorias, la calidad de funcionamiento del sistema se puede expresar mediante el error cuadrático medio aleatorio:
e 2 ‾ ( t ) = lim ⁡ T → ∞ 1 2 T ∫ − TT e 2 ( t ) dt (1 ) \overline{e^2} (t) = \lim _{T \rightarrow \infty} \frac{1}{2T} \int_{-T} ^T e^2 (t) {\rm d } t\etiqueta{1}mi2( t )=T lím2T_ _1−T _tmi2 (t)dt( 1 )

A continuación, se introducen algunos conceptos básicos de estadística.
(1) Función de distribución de probabilidad F ( x ) F(x)F ( x ) . La función de distribución de probabilidad se refiere a la variable aleatoriaXX.X no excede un cierto valorxxx (即X < x X < xX<x ):
F ( x ) = P ( X < x ) F(x) = P (X < x)F ( x )=P ( X<x ) (2)Función de distribución de densidad de probabilidadf ( x ) f(x)f ( x ) . Puede entenderse simple y aproximadamente como "variable aleatoriaXXX es igual a algún valorxxLa probabilidad de x ", o matemáticamente entendida como "la función de distribución de probabilidadF ( x ) F(x)F ( x )的导数”即可:
f ( x ) = d F ( x ) dx = lim ⁡ Δ → 0 P ( x ≤ X ≤ x + Δ x ) Δ x = lim ⁡ Δ → 0 F ( x + Δ x ) − F ( x ) Δ xf(x) = \frac{ {\rm d} F(x)}{ {\rm d} x} = \lim_{\Delta \rightarrow 0} \frac{ P \ left( x \leq X \leq x + \Delta x\right)}{\Delta x} = \lim_{\Delta \rightarrow 0} \frac{F \left( x + \Delta x \right) - F( x)}{\Deltax}f ( x )=d xdF (x)_=Δ 0límΔx_ _PAG( xXX+Δ x )=Δ 0límΔx_ _F( x+Δ x )F ( x )Esto lleva a
F ( x ) = ∫ ∞ xf ( x ) dx F(x) = \int _\infty ^xf(x) {\rm d} xF ( x )=xf ( x ) d x variable aleatoriaXXLa expectativa matemática de X
: x ~ = M [ X ] = ∫ − ∞ ∞ xf ( x ) dx \tilde x = M \left[ X \right] = \int _{-\infty} ^\infty xf(x ) {\rm d} xX~=METRO[ X ]=x f ( x ) d x variable aleatoriaXXmmde Xm – 阶矩:
x ~ m = ∫ − ∞ ∞ xmf ( x ) dx \tilde x^m = \int _{-\infty} ^\infty x^mf(x) {\rm d} xX~metro=Xm f(x)dxvariable aleatoriaXXmmde Xm – 阶中心矩:
M [ ( X − x ~ ) m ] = ∫ − ∞ ∞ ( X − x ~ ) mf ( x ) dx M \left[ \left( X - \tilde x \right)^m \ derecha] = \int _{-\infty} ^\infty \left( X - \tilde x \right)^mf(x) {\rm d} xMETRO[ ( XX~ )m ]=( XX~ )metrof ( x ) d x varianza (de hecho, momento central de segundo orden):
M [ ( X − x ~ ) 2 ] = ∫ − ∞ ∞ ( X − x ~ ) 2 f ( x ) dx M \left[ \ left( X - \tilde x \right)^2 \right] = \int _{-\infty} ^\infty \left( X - \tilde x \right)^2 f(x) {\rm d} xMETRO[ ( XX~ )2 ]=( XX~ )2f ( x ) d x Al considerar el tiempo, la media de la muestra se puede equiparar a la expectativa matemática:
mx ( t ) = x ~ ( t ) = M [ X ( t ) ] = ∫ − ∞ ∞ xf ( x , t ) dx , D x ( t ) = D [ X ( t ) ] = ∫ − ∞ ∞ [ X ( t ) − mx ( t ) ] 2 f ( x , t ) dx m_x (t) = \tilde x( t) = M \left[ X(t) \right] = \int _{-\infty} ^\infty xf(x, t) {\rm d} x, \\ D_x (t) = D \left[ X(t ) \right] = \int _{-\infty} ^\infty \left[ X(t) - m_x (t) \right]^2 f(x, t) {\rm d} xmetrox( t )=X~ (t)=METRO[ X ( t ) ]=x f ( x ,t ) d x ,Dx( t )=D[ X ( t ) ]=[ X ( t )metrox( t ) ]2f ( x ,t ) d x y para diferentes tiempost 1 , t 2 t_1, t_2t1,t2Para el proceso aleatorio de , también podemos tener expectativas matemáticas:
M [ X ( t 1 ) X ( t 2 ) ] = ∫ − ∞ ∞ ∫ − ∞ ∞ x 1 x 2 f ( x 1 , t 1 , x 2 , t 2 ) dx 1 dx 2 = R ( t 1 , t 2 ) M \left[ X\left( t_1 \right) X\left( t_2 \right) \right] = \int_{-\infty} ^\infty \ int_{-\infty} ^\infty x_1 x_2 f \left( x_1, t_1, x_2, t_2 \right) {\rm d} x_1 {\rm d} x_2 = R \left( t_1, t_2 \right)METRO[ X( t1)X( t2) ]=X1X2F( x1,t1,X2,t2)d x1d x2=R( t1,t2) se llamafunción de correlación. La función de correlación caracterizala conexión de variables aleatorias entre diferentes momentos.

Para una variable aleatoria xxx , su función de correlación en diferentes momentosR x ( t 1 , t 2 ) R_x \left( t_1, t_2 \right)Rx( t1,t2) llamadoxxFunción de autocorrelaciónde x . Y para dos variables aleatorias diferentesx, yx,yx ,y , la función de correlación R en diferentes momentosR xy ( t 1 , t 2 ) R_{xy} \left( t_1, t_2 \right)Rxy _( t1,t2) se llamafunción de correlación cruzada. Obviamente, cuandot 2 = t 1 + τ t_2 = t_1 + \taut2=t1+Cuando τ , la función de autocorrelación también se puede expresar como
R (τ) = M [ X ( t 1 ) X ( t 1 + τ ) ] = ∫ − ∞ ∞ dx 1 ∫ − ∞ ∞ x 1 x 2 f ( x 1 , x 2 , τ ) dx 2 R (\tau) = M \left[ X\left( t_1 \right) X\left( t_1 + \tau \right) \right] = \int_{-\infty} ^\ infty {\rm d} x_1 \int_{-\infty} ^\infty x_1 x_2 f \left( x_1, x_2, \tau \right) {\rm d} x_2R ( τ )=METRO[ X( t1)X( t1+) ] _=d x1X1X2F( x1,X2,t )d x2

2. Ergodicidad versátil

Para un proceso estáticamente determinado con ergodicidad, se cumple la siguiente fórmula:
x ~ = x ˉ , x 1 x 2 ~ = x 1 x 2 ‾ \tilde x = \bar x, \quad \widetilde{x_1 x_2} = \ overline{ x_1 x_2}X~=Xˉ ,X1X2 =X1X2Al mismo tiempo, debido a la ergodicidad de varios estados, el valor medio de la variable aleatoria no cambiará debido al período de muestreo:
x ˉ = lim ⁡ T → ∞ 1 2 T ∫ − TT x ( t ) dt = lim ⁡ T → ∞ 1 T ∫ 0 T x ( t ) dt \bar x = \lim _{T \rightarrow \infty} \frac{1}{2T} \int_{-T} ^T x (t) {\ rm d} t = \lim _{T \rightarrow \infty} \frac{1}{T} \int_{0} ^T x (t) {\rm d} tXˉ=T lím2T_ _1−T _tx ( t ) dt _=T límt10tx ( t ) d t entonces la función de autocorrelación es
R ( τ ) = x 1 x 2 ‾ = lim ⁡ T → ∞ 1 T ∫ 0 T x ( t ) x ( t + τ ) dt R (\tau) = \ overline{x_1 x_2} = \lim _{T \rightarrow \infty} \frac{1}{T} \int _0 ^T x(t) x(t + \tau) {\rm d} tR ( τ )=X1X2=T límt10tx ( t ) x ( t+τ ) dt _

3. Propiedades de las funciones de correlación

Algunas propiedades de la función de correlación se dan a continuación:
R xy ( τ ) = R yx ( − τ ) ; R_{xy} (\tau) = R_{yx} (-\tau);Rxy _( t )=Ryx _( ) ; _ R yx (τ) = lim ⁡ T → ∞ 1 2 T ∫ − TT y (t) x (t + τ) dt; R_{yx} (\tau) = \lim _{T \rightarrow \infty} \frac{1}{2T} \int _{-T} ^T y(t) x(t + \tau) {\rm d}t;Ryx _( t )=T lím2T_ _1−T _ty ( t ) x ( t+τ ) d t ; R yx ( − τ ) = lim ⁡ T → ∞ 1 2 T ∫ − TT y ( t ) x ( t − τ ) dt R_{yx} (-\tau) = \lim _{T \rightarrow \infty} \ frac{1}{2T} \int _{-T} ^T y(t) x(t - \tau) {\rm d} tRyx _( τ )=T lím2T_ _1−T _ty ( t ) x ( tτ ) d t y si se establecet 1 = t − τ t_1 = t - \taut1=tτ
R yx ( − τ ) = lim ⁡ T → ∞ 1 2 T ∫ − TT y ( t 1 + τ ) x ( t 1 ) dt = R xy ( τ ) R_{yx} (-\tau) = \ lim _{T \rightarrow \infty} \frac{1}{2T} \int _{-T} ^T y(t_1 + \tau) x(t_1) {\rm d} t = R_{xy} (\ tau)Ryx _( τ )=T lím2T_ _1−T _ty ( t1+t ) x ( t1) d t=Rxy _( τ )τ = 0 \tau=0t=0时:
R x ( 0 ) = M [ X 2 ( t ) ] = x 2 ‾ = D x R_x (0) = M \left[ X^2 (t) \right] = \overline{x^2} = D_xRx( 0 )=METRO[ X2 (t)]=X2=Dxτ → ∞ \tau \rightarrow \inftyt时:
R x ( τ → ∞ ) = ( x ~ ) 2 = ( x ˉ ) 2 R_x ( \tau \rightarrow \infty ) = \left( \tilde x \right) ^2 = \left( \bar x \derecha) ^2Rx( t)=(X~ )2=(Xˉ )2 En particular, la función de correlación del ruido blanco es:
R x ( τ ) = N 2 δ ( τ ) R_x (\tau) = N^2 \delta (\tau)Rx( t )=norte2 re(t)

4. Enfoque experimental para determinar la función de correlación.

Para un sistema ergódico estáticamente determinado, su función de correlación:
R x ( τ ) = X ( t ) X ( t + τ ) ‾ = lim ⁡ T → ∞ 1 T ∫ 0 T x ( t ) x ( t + τ ) dt R_x(\tau) = \overline{X(t) X(t + \tau)} = \lim_{T \rightarrow \infty} \frac{1}{T} \int_0 ^T x(t) x( t + \tau) {\rm d} tRx( t )=X ( t ) X ( t+t )=T límt10tx ( t ) x ( t+τ ) d t su valor estimado es
R ^ x ( τ ) = 1 T ∫ 0 T x ( t ) x ( t − τ ) dt \hat R_x (\tau) = \frac{1}{T} \int_0 ^ T x(t) x(t - \tau) {\rm d} tR^x( t )=t10tx ( t ) x ( tτ ) d t En la práctica, para que el valor estimado sea lo más preciso posible, el tiempo experimentalTTT el mayor tiempo posible.

5. Propiedades de señales aleatorias estáticamente determinadas a través de sistemas dinámicos lineales

Supongamos una señal aleatoria u ( t ) u(t)u ( t ) , y su función de correlación esR u ( τ ) R_u (\tau)Rtu( τ ) , luego pasa a través de la señal de pulsoK ( t ) K(t)Sistema K ( t ) , la salida sigue siendo una señal aleatoria:
x ( t ) = ∫ − ∞ ∞ K ( λ ) u ( t − λ ) d λ = K ( λ ) ∗ u ( λ ) (2) x( t) = \int_{-\infty} ^\infty K(\lambda) u(t - \lambda) {\rm d} \lambda = K(\lambda) * u( \lambda) \tag{2 }x ( t )=K ( λ ) u ( tl ) dl _=K ( λ )tu ( λ )( 2 ) es la convolución de los dos.
salida de parxxx求数学期望:
M [ x ( t ) ] = ∫ − ∞ ∞ K ( λ ) M [ u ( t − λ ) ] d λ M \left[ x(t) \right] = \int _{-\ infty} ^\infty K(\lambda) M \left[ u(t - \lambda) \right] {\rm d} \lambdaMETRO[ x ( t ) ]=K ( λ ) METRO[ tu ( tl ) ]d λmientras que ent + τ t+\taut+τ tiempo:
x ( t + τ ) = ∫ − ∞ ∞ K ( η ) u ( t + τ − η ) d η x(t + \tau) = \int_{-\infty} ^\infty K(\eta ) u(t + \tau - \eta) {\rm d} \etax ( t+t )=K ( η ) u ( t+tη ) d η puede calcularxxFunción de correlación x
: R x ( τ ) = M [ x ( t ) x ( t + τ ) ] = M [ ∫ − ∞ ∞ K ( λ ) u ( t − λ ) d λ ∫ − ∞ ∞ K ( η ) u ( t + τ − η ) d η ] = ∫ − ∞ ∞ K ( λ ) d λ ∫ − ∞ ∞ M [ u ( t − λ ) u ( t + τ − η ) ] K ( η ) d η \ comenzar{alineado} R_x (\tau) &= M \left[ x(t) x(t + \tau) \right] \\ &= M \left[ \int_{-\infty} ^\infty K( \ lambda) u(t - \lambda) {\rm d} \lambda \int_{-\infty} ^\infty K(\eta) u(t + \tau - \eta) {\rm d} \eta \ right ] \\ &= \int_{-\infty} ^\infty K(\lambda) {\rm d} \lambda \int_{-\infty} ^\infty M \left[ u(t - \lambda) u ( t + \tau - \eta) \right] K(\eta) {\rm d} \eta \end{aligned}Rx( t )=METRO[ x ( t ) x ( t+) ] _=METRO[ K ( λ ) u ( tl ) dl _K ( η ) u ( t+th ) d h ]=K ( λ ) re λMETRO[ tu ( tλ ) u ( t+th ) ]K ( η ) re ηt ′ = t − λ t' = t - \lambdat=tλ,则
M [ u ( t ′ ) u ( t ′ + λ + τ − η ) ] = R u ( τ + λ − η ) M \left[ u(t') u(t' + \lambda+ \tau - \eta) \right] = R_u (\tau + \lambda - \eta)METRO[ tu ( t )u(t+yo+th ) ]=Rtu( t+yoη )代入上式有
R x ( τ ) = ∫ − ∞ ∞ K ( λ ) d λ ∫ − ∞ ∞ R u ( τ + λ − η ) K ( η ) d η (3) R_x (\tau) = \int_{-\infty} ^\infty K(\lambda) {\rm d} \lambda \int_{-\infty} ^\infty R_u (\tau + \lambda - \eta) K(\eta) {\ rm d} \eta \tag{3}Rx( t )=K ( λ ) re λRtu( t+yoh ) K ( h ) d h( 3 ) Además,xxx sumauuu的互相关函数为(用到式(2)):
R xu ( τ ) = M [ x ( t ) u ( t − τ ) ] = M { [ ∫ − ∞ ∞ K ( λ ) u ( t − λ ) d λ ] u ( t − τ ) } = ∫ − ∞ ∞ K ( λ ) M [ u ( t − τ ) u ( t − λ ) ] d λ \begin{aligned} R_{xu} (\tau ) &= M \left[ x(t) u(t - \tau ) \right] \\ &= M \left\{ \left[ \int_{-\infty} ^\infty K(\lambda) u( t - \lambda) {\rm d} \lambda \right] u(t - \tau) \right\} \\ &= \int_{-\infty} ^\infty K(\lambda) M \left[ u (t - \tau) u(t - \lambda) \right] {\rm d} \lambda \end{alineado}Rxu( t )=METRO[ x ( t ) u ( t)) ] _=METRO{ [ K ( λ ) u ( tl ) d l ]tu ( t) } _=K ( λ ) METRO[ tu ( tt ) u ( tl ) ]re λt − τ = t ′ t - \tau = t'tt=t ,en el caso de
R xu ( τ ) = ∫ − ∞ ∞ K ( λ ) M [ u ( t ′ ) u ( t ′ + τ − λ ) ] d λ R_{xu} (\tau) = \int_ {-\infty} ^\infty K(\lambda) M \left[ u(t') u(t' + \tau - \lambda) \right] {\rm d} \lambdaRxu( t )=K ( λ ) METRO[ tu ( t )u(t+tl ) ]d λ又由于M [ u ( t ′ ) u ( t ′ + τ − λ ) ] = R u ( τ − λ ) M \left[ u(t') u(t' + \tau - \lambda) \ derecha] = R_u (\tau - \lambda)METRO[ tu ( t )u(t+tl ) ]=Rtu( tλ ),代入上式有
R xu ( τ ) = ∫ − ∞ ∞ K ( λ ) R u ( τ − λ ) d λ (4) R_{xu} (\tau) = \int_{-\infty} ^ \infty K(\lambda) R_u (\tau - \lambda) {\rm d} \lambda \tag{4}Rxu( t )=K ( λ ) Rtu( tl ) dl _( 4 ) En la situación real, cuandoλ < 0 \lambda < 0yo<0K ( λ ) ≡ 0 K(\lambda) \equivK ( λ )0,故式(3)(4) también se puede escribir como
R x ( τ ) = ∫ 0 ∞ K ( λ ) d λ ∫ 0 ∞ R u ( τ + λ − η ) K ( η ) d η (3 ) R_x (\tau) = \int_0 ^\infty K(\lambda) {\rm d} \lambda \int_0 ^\infty R_u (\tau + \lambda - \eta) K(\eta) {\rm d} \eta\tag{3}Rx( t )=0K ( λ ) re λ0Rtu( t+yoh ) K ( h ) d h( 3 ) R xu ( τ ) = ∫ 0 ∞ K ( λ ) R u ( τ − λ ) d λ (4) R_{xu} (\tau) = \int_0 ^\infty K(\lambda) R_u (\ tau - \lambda) {\rm d} \lambda \tag{4}Rxu( t )=0K ( λ ) Rtu( tl ) dl _( 4 )

6. Cálculo del error cuadrático medio de la salida del sistema.

Como se mencionó anteriormente, cuando τ = 0 \tau=0t=0时:
R x ( 0 ) = M [ X 2 ( t ) ] = x 2 ‾ = D x R_x (0) = M \left[ X^2 (t) \right] = \overline{x^2} = D_xRx( 0 )=METRO[ X2 (t)]=X2=Dx即语电影方差。上式即(用到式(4)):
R x ( 0 ) = R x ( τ ) ∣ τ = 0 = ∫ 0 ∞ K ( λ ) d λ ∫ 0 ∞ R u ( τ + λ − η ) K ( η ) d η ∣ τ = 0 = ∫ 0 ∞ K ( λ ) d λ ∫ 0 ∞ R u ( λ − η ) K ( η ) d η ⏟ R xu ( λ ) = ∫ 0 ∞ K ( λ ) R xu ( λ ) d λ (5) \begin{aligned} R_x (0) &= R_x (\tau) \big\rvert _{\tau = 0} = \int_0 ^\infty K( \ lambda) {\rm d} \lambda \int_0 ^\infty R_u (\tau + \lambda - \eta) K(\eta) {\rm d} \eta \Big\rvert _{\tau = 0} \ \ &= \int_0 ^\infty K(\lambda) {\rm d} \lambda \underbrace{\int_0 ^\infty R_u ( \lambda - \eta) K(\eta) {\rm d} \eta}_ { R_{xu} (\lambda)} \\ &= \int_0 ^\infty K(\lambda) R_{xu} (\lambda) {\rm d} \lambda \tag{5} \end{aligned}Rx( 0 )=Rx( t ) τ = 0=0K ( λ ) re λ0Rtu( t+yoh ) K ( h ) d h τ = 0=0K ( λ ) re λRxu( yo ) 0Rtu( yoη ) K ( η ) re η=0K ( λ ) Rxu( λ ) re λ( 5 ) mensajeD
x = x 2 ‾ = ∫ 0 ∞ K ( λ ) R xu ( λ ) d λ (6) D_x = \overline{x^2} = \int_0 ^\infty K(\lambda) R_{ xu } (\lambda) {\rm d} \lambda \tag{6}Dx=X2=0K ( λ ) Rxu( l ) dl _( 6 )

Supongo que te gusta

Origin blog.csdn.net/weixin_58399148/article/details/132432993
Recomendado
Clasificación