Bases du signal (formules)

1. Processus harmonique

Le processus harmonique peut être décrit comme suit :

x(n)=\sum_{i=1}^N A_icos(\omega_in+\theta_i),\quad i=1,2,\cdots,n

A_iLa somme dans la formule ci-dessus \omega_iest une constante, \theta_iqui est une variable aléatoire indépendante les unes des autres et obéissant à une distribution uniforme. Sa densité de probabilité est définie comme suit :

P(\theta_i)=\frac{1}{2\pi}\quad -\pi<\theta_i\leq \pi

La moyenne est définie comme suit :

E[x(n)]=\int_{-\infty}^\infty x(n)p(\theta_i)d\theta_i

Une simplification supplémentaire peut être obtenue :

E[x(n)]=\sum_{i=1}^N A_i\int_{-\pi}^\pi cos(\omega_in+\theta_i)\frac{1}{2\pi}d\theta_i=0

Un processus harmonique est un processus stationnaire de moyenne nulle, qui peut s'expliquer par sa fonction d'autocorrélation comme suit :

La variance des harmoniques peut être calculée comme suit :

\sigma^2_x=r_{xx}(0)=\sum_{i=1}^N \frac{A_i^2}{2}

Le spectre de puissance des harmoniques peut être obtenu comme suit :

 

2. Séquence de bruit blanc

2.1 Bruit blanc

Si les variables aléatoires de la séquence de signaux aléatoires x(n) ne sont pas corrélées deux à deux, la séquence est appelée séquence de bruit blanc, comme suit :

Si dans la définition, \sigma_{x_n}^2est une constante, alors la séquence de bruit blanc est stationnaire, comme suit :

cov(x_n,x_m)=\sigma^2\delta_{nm}

Si la moyenne est égale à m_x=0, alors la séquence de bruit blanc stationnaire a les propriétés suivantes :

r_{xx}(m)=\sigma^2\delta(m),\quad P_{xx}(e^{j\omega})=\sigma^2

2.2 Bruit blanc à bande limitée

Le bruit blanc est un signal idéal, qui n’existe pas dans la réalité. En ingénierie, tant que le spectre de puissance du signal est fondamentalement constant dans une bande de fréquences limitée et que la bande passante est supérieure à la bande passante du système, on parle de bruit blanc fini. A ce stade, vous pouvez obtenir :

P_{xx}(e^{j\omega})=\sigma^2 \quad |\omega|\leq W

r_{xx}(m)=\sigma^2\frac{sin Wm}{\pi m}

Si le bruit blanc est passe-bande, alors la fréquence centrale est à \pm \omega_0la bande passante B, et on peut obtenir :

P_{xx}(e^{j\omega})=\sigma^2 \quad \omega_0-\frac{B}{2}\leq |\omega|\leq \omega_0+\frac{B}{2}

Selon le théorème de déplacement de fréquence de la transformée de Fourier, la fonction de corrélation peut être obtenue comme suit :

r_{xx}(m)=2\sigma^2\frac{sin\frac{Bm}{2}}{\pi m}cos\omega_0m

 

3. Signal aléatoire normal gaussien

Définissez X et M comme suit :

X=[x_1,x_2,\cdots,x_N]\quad M=[m_1,m_2,\cdots,m_N]

Alors la fonction de densité de probabilité conjointe à N dimensions du signal aléatoire normal x(n) est :

P(x_1,x_2,\cdots,x_N)=\frac{1}{\sqrt{2\pi}|var X|^{\frac{1}{2}}}e^{[-\frac{1 }{2}(XM)^T(varX)^{-1}(XM)]}

varX dans la formule ci-dessus est la matrice de variance à N dimensions de X.

Un processus gaussien stationnaire avec une fonction d'autocorrélation exponentielle est appelé processus de Gauss-Markov.

La fonction d'autocorrélation d'un signal Gauss-Markov est définie comme suit :

R_X(m)=\sigma^2e^{-\beta|m|}

La fonction de densité spectrale d'un signal Gaussien-Markov est définie comme :

P_{xx}(e^{j\omega})=\frac{2\sigma^2\beta}{\omega^2+\beta^2}

4. Système stable et système causal

4.1 Stabilisation du système

Un système dans lequel des entrées limitées doivent conduire à des sorties limitées est appelé un système stable.

Absolument intégrable pour les systèmes continus :

\int_{-\infty}^\infty |h(t)|dt<\infty

Absolument sommable pour les systèmes discrets :

\sum_{k=-\infty}^\infty|h(t)|<\infty

4.2 Systèmes causals

La sortie doit être appelée le système causal après l'entrée, qui s'entend comme :

h(t)=0,\pour tout t<0

et avoir:

5. Fonctions d'autocorrélation et d'autocovariance

Utilisez \ peutpour représenter le décalage horaire, comme suit :

\numéro=t_1-t_2

La définition de la fonction d’autocorrélation peut être obtenue :

R_{xx}(\tau)=E\lbrace x(t)x^*(t-\tau)\rbrace

La fonction d'autocovariance peut être obtenue :

C_{xx}(\tau)=E\lbrace [x(t)-\mu_x][x(t-\tau)-\mu_x]^*\rbrace

La relation entre les deux peut être exprimée comme suit :

C_{xx}(\année)=R_{xx}(\année)-|\mu_x|^2

Pour les variables de moyenne nulle, les deux sont identiques, comme suit :

C_{xx}(\année)=R_{xx}(\année)

La symétrie est satisfaite :

Quatre valeurs limites :

Maximum associé :

 

 

Je suppose que tu aimes

Origine blog.csdn.net/forest_LL/article/details/124788948
conseillé
Classement