Todas las estadísticas Capítulo 2

Estadísticas (2) Variables aleatorias

Historial de actualizaciones fecha contenido
1 2023-9-19 Corrección: Ejemplo 2.46F_X(x)=1-e^{-x}
2 2023-9-25 Corrección: la función no tiene solución y debería ser una función ilimitada

Contenido de este capítulo

  1. introducción
  2. Funciones de distribución y funciones de probabilidad
  3. Algunas variables aleatorias discretas importantes (Variables aleatorias discretas)
  4. Algunas variables aleatorias continuas importantes (Variables aleatorias continuas)
  5.  Distribuciones bivariadas
  6. Distribuciones marginales
  7. variable aleatoria independiente
  8. Distribuciones condicionales
  9. Distribuciones multivariadas y distribuciones simultáneas independientes (IID)
  10. Dos distribuciones multidimensionales importantes
  11. Transformación de variables aleatorias
  12. Transformación de múltiples variables aleatorias

Algunos de los términos clave no transmiten el significado, por lo que los términos clave se organizan de la siguiente manera:

1. Funciones de distribución: Funciones de distribución
2. Funciones de probabilidad:
3. Variables aleatorias discretas:
4. Variables aleatorias continuas:
5. Distribución bidimensional : Distribuciones Bivariadas
6. Distribución marginal: Distribuciones Marginales
7. Distribución condicional: Distribuciones Condicionales
8. Distribución multidimensional: Distribuciones Multivariadas

9. Función de distribución acumulativa: función de distribución acumulativa

10. normalizado: normalizado

11. Función de probabilidad:Función de probabilidad

12. Función de masa de probabilidad:Función de masa de probabilidad

13. Función de densidad de probabilidad:Función de densidad de probabilidad

14. continuo: continuo

15. Función cuantil: función cuantil

16. primer cuartil: primer cuartil

17. segundo cuartil: segundo cuartil

18. tercer cuartil: tercer cuartil

19. Mediana:mediana

20. Distribución de probabilidad igual: igual en distribución

21. Distribución de masa puntual: Distribución de masa puntual

22. Distribución uniforme discreta: Distribución uniforme discreta

23. Distribución Bernuolli: Distribución Bernuolli

24. Distribución Binomial: Distribución Binomial

25. Distribución geométrica: Distribución geométrica

26. Distribución de Poisson: Distribución de posesión 

27. Distribución normal: Distribución normal

28. Distribución Gaussiana: Distribución Gaussiana

29. Distribución normal estándar: Distribución normal estándar

30. Distribución exponencial: Distribución exponencial

31. Distribución Gamma: Distribución Gamma

32. Distribución Beta: Distribución Beta

33. Distribución Cauchy: Distribución Cauchy

34. Distribuciones marginales: Distribuciones marginales

35. Función de masa marginal:función de masa marginal

36. Función de densidad marginal:función de densidad marginal

37. Función de masa de probabilidad condicional: Función de masa de probabilidad condicional

38. Función de densidad de probabilidad condicional: Función de densidad de probabilidad condicional

40. Vector aleatorio: vector aleatorio

41. Distribución multinomial: Distribución multinomial

42. Distribución normal multivariada o distribución normal multidimensional: Normal Multivariada

2.1 Introducción

Las estadísticas y la minería de datos se ocupan de los datos, entonces, ¿cómo conectamos el espacio muestral (muestra) y los eventos (eventos) con los datos? Esta conexión la proporcionan las variables aleatorias (variables aleatorias).

2.1 Definición de variables aleatorias

Una variable aleatoria es una aplicación, expresada como  X: \Omega \rightarrow \mathbb{R}, de que para cada resultado ω, hay un número real asignado a X(ω).

En ciertas etapas de los cursos de probabilidad, rara vez mencionamos el espacio muestral (espacio muestral), sino que usamos directamente variables aleatorias (variables aleatorias), pero debe tener en cuenta que el espacio muestral (espacio muestral) realmente existe e implica Detrás del azar. variables.

2.2 Ejemplo

Lanza una moneda diez veces, sea X(ω) el número de caras en la secuencia ω, por ejemplo, ω=HHTHHTHHTT, entonces X(ω)=6.

2.3 Ejemplo

Sea \Omega =\izquierda \{ (x,y);  x^{2} + y^{2} \leqslant 1\right \}un círculo unitario y elija un punto aleatorio en Ω (describiremos esta idea con mayor precisión más adelante), generalmente en el formato ω = (x, y). Entonces, algunos ejemplos de variables aleatorias son: X(ω) = x, Y(ω) = y,Z(ω) = x+y oW(\omega )=\sqrt{x^{2}+y^{2}}

Dada una variable aleatoria X y un subconjunto A de números reales, defina X^{-1}(A)=\left \{ \omega \in \Omega : X(\omega) \in A \right \}y sea

\mathbb{P}(X\in A) = \mathbb{P}(X^{-1}(A))=\mathbb{P}(\left \{ \omega \in \Omega; X(\omega ) \en A \right \})

\mathbb{P}(X=x)=\mathbb{P}(X^{-1}(A))=\mathbb{P}(\left \{\omega \in \Omega;X(\omega) =x\derecha \})

Nota: X es una variable aleatoria, x es el valor específico de la variable aleatoria X

2.4 Ejemplo

Lanza una moneda dos veces y sea X el número de caras, entonces P(X=0)=P({TT})=1/4, P(X=1)=P({HT,TH})= 1/ 2, P (X = 2) = P ({HH}) = 1/4, las variables aleatorias y su distribución se pueden resumir de la siguiente manera:

Vaya P({ω}) X(ω)
TT

1/4

0
TH 1/4 1
HT 1/4 1
S.S 1/4 2

X P(X=x)
0 1/4
1 1/2
2 1/2

2.2 Funciones de distribución y funciones de probabilidad

Dada una variable aleatoria X, definimos su función de distribución acumulativa o funciones de distribución de la siguiente manera:

2.5 Definición de CDF

La función de distribución acumulativa, o CDF, F_{x}:\mathbb{R}\rightarrow [0,1]se define como

F_{X}(x)=P(X\leqslant x)

Más adelante veremos que el CDF efectivamente contiene toda la información sobre la variable aleatoria. A veces usamos Fen su lugar F_ {x}.

2.6 Ejemplo

 Lanza una moneda dos veces, sea X el número de caras, entonces \mathbb{P}(X=0)=\frac{1}{4},\mathbb{P}(X=1)=\frac{1}{2},\mathbb{P}(X=2) =\frac{1}{4}la función de distribución es:

F_X(x)=\left\{\begin{matrix} 0 & ,x<0\\ \frac{1}{4} & ,0\leqslant x < 1\\ \frac{3}{4} & , 1 \leqslant x < 2\\ 1 & ,x \geqslant 2 \end{matrix}\right.

El gráfico de función correspondiente es el siguiente:

Aunque este ejemplo es muy simple, estúdielo detenidamente porque las propiedades del CDF pueden resultar confusas.

Tenga en cuenta que esta función es continua por la derecha y no decreciente. Aunque x solo toma 0, 1 y 2, está definida para todos los números reales. ¿Entiendes por qué FX(1.4)=.75?

El siguiente teorema muestra que CDF determina completamente la distribución de variables aleatorias.

2.7 Teorema

Supongamos que X tiene una función de distribución acumulativa (CDF) F, e Y tiene una función de distribución acumulativa (CDF) G. Si para todo x, se satisface F(x)=G(x) , entonces para todo A, entonces\mathbb{P}(X\en A) = \mathbb{P}(Y \en A) 

Nota del traductor: el teorema anterior puede considerarse como una CDF que determina la distribución de probabilidad

2.8 Teorema

F es un mapeo en [0,1]. Si y solo si F satisface las tres condiciones siguientes, F es la función de distribución acumulativa de una cierta probabilidad P.

  1. F no es creciente: x1<x2, entonces F(x1) <= F(x2)
  2. F ha sido normalizado: \lim_{x\rightarrow -\infty }F(x)=0,\lim_{x\rightarrow \infty }F(x)=1
  3. F es continua por la derecha: para todo x, F(x)=F(x^{+}), dondeF(x^+)=\lim_{\begin{matrix} y\to x\\ y\geq x \end{matrix}}F(y)

probar:

Suponiendo que F es una CDF, demostremos que el tercer punto es verdadero.

        Sea x un número real;

        y1,y1,... es una secuencia de números reales que satisface y1>y2>...y \lim_iy_i=x .

        Entonces,A_i=(-\infty,y_i],A=(-\infty,x]

        Entonces obtenemos, A= \bigcap_{i=1}^{\infty}Ai,A1\suplemento A2\suplemento A3 ...

        entonces,\lim_iP(A_i)=P(\bigcap_iA_i)

        entonces,F(x)=P(A)=P(\bigcap_iA_i)=\lim_iP(A_i)=\lim_iF(y_i)=F(x^+)

        Certificado completado

El primer punto es similar al segundo punto.

Para probar la otra dirección, es decir, si F satisface el primer, segundo y tercer punto, demostrando que F es la CDF de una cierta probabilidad P, es necesario utilizar herramientas más profundas en el campo del análisis.

2.9 Definición de función de probabilidad o función de masa de probabilidad

 Si la variable aleatoria X tiene valores finitos y es discreta, entonces la función de probabilidad o función de masa de probabilidad de X se define como:

f_X(x)=P(X=x).

Por lo tanto, para todos x\en Rexiste f_X(x) \geq 0y \suma_si(x_i)=1, a veces simplemente usamos Fen su lugar f_X.

La relación entre CDF y f_Xes:

F_X(x)= P(X\leq x) = \sum_{x_i\leq x}f_X(xi)

2.10 Ejemplo

La función de probabilidad del ejemplo 2.6 es

f_X(x)=\left\{\begin{matrix} 1/4 & x=0 \\ 1/2 & x=1\\ 1/4& x=2 \\ 0 & en caso contrario \end{matrix}\right .

Vea abajo

 

2.11 Definición de función de densidad de probabilidad

f_X(x)Para una f_X(x)\geq 0variable aleatoria continua\int_{-\infty}^{\infty}f_X(x)=1a \leq b,\mathbb{P}(a < x <b)=\int_a^bf_X(x)dxf_X(x)

Por lo tanto, podemos obtener F_X(x) = \int_{-\infty}^xf_X(x)dxla suma , que es diferenciable f_X(x)={F}'_X(x)en todos los puntos x .F_X

A veces usamos \intf(x)dxo \intfpara expresar\int_{-\infty}^\infty f(x)dx

2.12 Ejemplo

Sea la función de densidad de probabilidad PDF de la variable aleatoria X la siguiente

f_X(x)=\left\{\begin{matrix} 1 & para 0 \leq x \leq 1 \\ 0 & en caso contrario \end{matrix}\right.

Obviamente, f_X(x)\geq 0 y  \intf_X(x)dx=1... Entonces la variable aleatoria con este tipo de PDF se llama distribución uniforme (0,1). El concepto de distribución uniforme (0,1) significa que se selecciona un punto al azar en el intervalo [0,1].

Entonces CDF es:

F_X(x)=\left\{\begin{matrix} 0 & x <0 \\ x & 0 \leq x \leq 1\\ 1 & x > 1 \end{matrix}\right.

Como se muestra abajo:

2.13 Ejemplo 

 Si la variable aleatoria X tiene el siguiente PDF:

f(x)=\left\{\begin{matrix} 0 & para x < 0\\ \frac{1}{(1+x)^2} & en caso contrario \end{matrix}\right.

Porque \intf(x)dx=1este es un PDF que satisface la definición.

Advertencia: las variables aleatorias continuas pueden causar confusión.

\mathbb{P}(X=x)=0En primer lugar, cabe f(x)señalar \mathbb{P}(X=x)que si

En segundo lugar, tenga en cuenta que PDF puede ser mayor que 1 (esto es diferente de la función de masa de probabilidad), por ejemplo:

f(x)=\left\{\begin{matrix} 5 & x \in [0,1/5]\\ 0 & en caso contrario \end{matrix}\right.Se puede obtener f(x) = 0y \int f(x)dx =1, por lo tanto, es un PDF que satisface la definición, pero puede ser f (x) = 5 en algunos intervalos. De hecho, el PDF puede ser ilimitado, por ejemplo:, se puede obtener y por lo tanto, también es un PDF que satisface la f(x)=\left\{\begin{matrix} \frac{2}{3}x^{-\frac{1}{3}} & 0 < x < 1\\ 0 & en caso contrario \end{matrix }\bien.definición \int f(x)dx =1de PDF, pero es una función ilimitada.

2.14 Ejemplo

Supongamos  f(x)=\left\{\begin{matrix} 0 & x < 0 \\ \frac{1}{(1+x)} y en caso contrario \end{matrix}\right.que este no es un PDF porque:

\int f(x)dx=\int_0^\infty dx/(1+x)=\int_1^\infty du/u = log(\infty) = \infty

2.15 Lema

Supongamos que F es la CDF de la variable aleatoria X, entonces:

  1. \mathbb{P}(X=x)=F(x)-F(x^-),donde F(x^-)=\lim_{y \to x}F(y)
  2. \mathbb{P}(x < X \leq y) =F(y) -F(x)
  3.  \mathbb{P}(X > x) = 1-F(x)
  4. Si X es continua, entoncesF(b)-F(a)= \mathbb{P}(a < X < b) = \mathbb{P}(a \leq X < b)=\mathbb{P}(a < X \leq b) =\mathbb{p}(a \leq X \leq b) 

 Esto es útil para definir la función inversa (o función cuantil) de una CDF.

2.16 Definición de la función inversa o función cuantil de CDF

Supongamos que X es una variable aleatoria con una función de distribución acumulativa F. Entonces la función inversa o función cuantil de CDF se define como:

F^{-1}(q)=inf\left \{ x:F(x) > q \right \}, entre ellos q \en [0,1],

Si F es estrictamente creciente y continua, entonces F^{-1}(q)existe un número real único x tal queF(x)=q

Lo llamaremos F^{-1}(1/4): primer cuartil; F^{-1}(1/2)lo llamaremos mediana o segundo cuartil; lo llamaremos F^{-1}(3/4)tercer cuartil

Dos variables aleatorias X e Y, que tienen la misma distribución, se pueden escribir como X \overset{\text{d}}{=} Y. Si para todo x existe F_X(x)=F_Y(x), esto no significa que X e Y sean iguales. Sólo significa que X e Y tienen el mismo estado de probabilidad. Por ejemplo, sea \mathbb{P}(X=1)=\mathbb{P}(X=-1)=1/2Y=-X, entonces obtenemos \mathbb{P}(Y=1)=\mathbb{P}(Y=-1)=1/2, entonces X \overset{d}{=} Y, pero X e Y no son iguales. De hecho\mathbb{P}(X=Y)=0

2.3 Algunas variables aleatorias discretas importantes

X\simFX\simFUna la función de distribución de probabilidad que representa la variable aleatoria.advertencia sobre la notación:

Distribución de masa puntual: si la probabilidad satisface las siguientes condiciones, entonces la variable aleatoria X tiene una distribución de masa puntual en a, escrita como X\sim\delta_a,:

\mathbb{P}(X=a)=1,

Entonces F(x)=\left\{\begin{matrix} 0 & x < a\\ 1 & x \geq a \end{matrix}\right. , la función de masa de probabilidad es

f(x)=\left\{\begin{matrix} 1 & x = a\\ 0 & en caso contrario \end{matrix}\right.

Distribución uniforme discreta: suponga que k>1 es un número entero y suponga que X tiene la siguiente función de masa de probabilidad:

f(x)=\left\{\begin{matrix} 1/k & x=1,2,...k\\ 0 y en caso contrario \end{matrix}\right.

Entonces decimos que X tiene una distribución uniforme en {1,...k}

Distribución Bernuolli: Sea X el lanzamiento de una moneda, entonces P (X = 1) = p, P (X = 0) = 1-p, donde p está entre [0,1], se dice que X tiene un Bernoulli Distribución (Distribución de Bernoulli), escrita como X\sim Bernoulli(p)Entonces su función de probabilidadf(x)=P^x(1-p)^{1-x},x \in \left \{ 0,1 \right \}

Distribución Binomial (Distribución Binomial) : Supongamos que la probabilidad de que la moneda caiga en cara es p.  0 \leq p \leq 1Lanza la moneda n veces, sea X el número de caras, asumiendo que cada lanzamiento es independiente, sea f(x)=\mathbb{P}(X=x)su función de masa, luego se expande. como sigue:

f(x)=\left\{\begin{matrix} \binom{n}{x}p^x(1-p)^{nx} & x=0,...n\\ 0 & en caso contrario \end {matriz}\derecha.

Una variable aleatoria con tal función de masa se llama variable aleatoria binomial y se escribe X\sim Binomial(n,p). Si X_1\sim Binomio(n_1,p), X_2 \sim Binomio(n_2,p), entoncesX_1 + X_2 \sim Binomial(x_1+x_2,p)

Advertencia : Aprovechemos esta oportunidad para evitar confusiones. X representa una variable aleatoria y x representa el valor específico de la variable aleatoria; n y p son parámetros, es decir, números reales fijos. El parámetro p suele ser desconocido y debe obtenerse de los datosEste es también el contenido de la inferencia estadística.En la mayoría de los modelos estadísticos, existen variables aleatorias y parámetros, así que no los confunda.

Distribución geométrica : si X tiene la siguiente función de probabilidad, entonces la variable aleatoria X obedece a la distribución geométrica con parámetro p, escrita como X \sim Geom(p):

\mathbb{P}(X=k)=p(1-p)^{k-1},k \geq

Qué podemos conseguir:

\sum_{k=1}^{\infty}P(X=k)= p\sum_{k=1}^{\infty}(1-p)^k=\frac{p}{1-(1 -p)}=1

Piensa en X como el número de veces que se necesitan para obtener las primeras caras al lanzar una moneda.

Distribución de Possión : Si la función de masa de probabilidad es la siguiente, entonces la variable aleatoria X obedece a la distribución de Poisson con parámetro λ X\sim Poisson(\lambda).

f(x)=e^{- \lambda } \frac{\lambda ^ x}{x!}, x \geq 0

Aviso:

\sum_{x=0}^{\infty}f(x)=e^{-\lambda}\sum_{x=0}^{\infty}\frac{\lambda^x}{x!}=e ^{-\lambda}e^{\lambda}=1

X_1 \sim Poisson(\lambda_1),X_2 \sim Poisson(\lambda_2)La distribución de Poisson se utiliza a menudo como modelo para eventos raros, como la atenuación de la radiación y los accidentes de tráfico.X_1+X_2 \sim Poisson(\lambda_1+\lambda_2)

Advertencia : Definimos una variable aleatoria como: un mapeo del espacio muestral Ω al número real R, pero no mencionamos el espacio muestral en la distribución anterior. Como mencionamos anteriormente, el espacio muestral a menudo "desaparece", pero todavía existe detrás de escena.Construyamos explícitamente una variable aleatoria de Bernoulli, sea Ω=[0,1], y definamos P para satisfacer P([a,b])=ba, donde 0 < = a <= b < = 1. Tome p como valor fijo en [0,1] y defina:

X(\omega )=\left\{\begin{matrix} 1 & \omega \leq p\\ 0 & \omega > p \end{matrix}\right.

Entonces, P(X=1)=P(ω<=p)=P([0,p])=p y P(X=0)=1-p. Por lo tanto, X obedece a la distribución de Bernoulli, escrita X\sim Bernoulli(p). No se hace para todas las distribuciones anteriores. De hecho, tratamos la variable aleatoria como un número aleatorio, pero formalmente es un mapeo definido en el espacio muestral.

2.4 Algunas variables aleatorias continuas importantes

Distribución uniforme : si X tiene la siguiente función de densidad de probabilidad, entonces X satisface la distribución uniforme, escrita como X \sim Uniforme (a,b):

f(x)=\left\{\begin{matrix} \frac{1}{ba} & x \in [a,b]\\ 0 & en caso contrario \end{matrix}\right.

Cuando a<b, la función de distribución es:

F(x)=\left\{\begin{matrix} 0 & x < a\\ \frac{xa}{ba} & x \in [a,b]\\ 1 & x>b \end{matrix} \bien.

Distribución normal (gaussiana) (distribución normal o distribución gaussiana) : si la función de densidad de probabilidad satisface lo siguiente, entonces X satisface la distribución normal (distribución normal) de los parámetros μ y σ

f(x)=\frac{1}{\sigma \sqrt{2\pi}} exp\left \{ -\frac{1}{2\sigma^2}(x-\mu )^2 \right \ }

Aquí, μ es un número real R, σ > 0.

El parámetro μ es el centro (o media) de la distribución, y σ es la dispersión (o desviación estándar) de la distribución (la media y la desviación estándar se definirán en el próximo capítulo). La distribución normal juega un papel importante en teoría de probabilidad y estadística. El papel de. Muchos fenómenos en la naturaleza también se aproximan a la distribución normal. Más adelante aprenderemos el Teorema del límite central (Teorema del límite central), que muestra que la distribución de la suma de variables aleatorias se puede aproximar. por la distribución normal.

Si μ = 0, σ = 1, se llama distribución normal estándar. Tradicionalmente, la variable aleatoria normal estándar se representa por Z, y su PDF y CDF se representan por suma. La imagen PDF es la \fi (z)siguiente \Phi (z):

A continuación se dan algunas conclusiones útiles:

  1. Si X\sim N(\mu,\sigma^2)entoncesZ=(X-\mu)/\sigma \sim N(0,1)
  2. Si Z\simN(0,1)entoncesX=\mu+\sigma Z \sim N(\mu,\sigma ^2)
  3. Si X_i \sim N(\mu_i,\sigma_i^2),i=1,...n son independientes, entonces\overset{n}{\underset{i=1}\sum}X_i \sim N\left ( \overset{n}{\underset{i=1}\sum}\mu_i,\overset{n}{\underset {i=1}\sum}\sigma_i^2\derecha)

Se puede empujar de 1 a afuera:

P(a < x < b) =P(\frac{a-\mu}{\sigma} < Z < \frac{b-\mu}{\sigma}) = \Phi (\frac{b-\mu }{\sigma}) - \Phi(\frac{a-\mu}{\sigma})

Por lo tanto, siempre que podamos calcular la CDF de la normal estándar, podemos calcular cualquier probabilidad. Todos los paquetes estadísticos pueden calcular la suma. La \Cara)mayoría \Fi^{-1}(q)de los libros de texto de estadística, incluido este, tienen una \Cara)tabla de valores .

2.17 Ejemplo

Asume X\simN(3,5)y busca.La \mathbb{P}(X>1)solución es:

\mathbb{P}(X>1) \\= 1- \mathbb{P}(X<1) \\= 1 - \mathbb{P}(Z<\frac{1-3}{\sqrt{5 }})\\=1-\Phi(-0,8944)\\=0,81

Ahora bien q=\Phi^{-1}(0,2), esto significa que necesitamos encontrar q para satisfacer P(X<q)=0.2. La solución es la siguiente:

0.2=P(X < q)\\=P(Z<\frac{q-\mu}{\sigma}) \\=\Phi(\frac{q-\mu}{\sigma})

De la tabla estándar, \Phi(-0,8416)=0,2por lo tanto, -0.8416=\frac{1-\mu}{\sigma}=\frac{q-3}{\sqrt{5}}obtenemos q=1.1181

Distribución exponencial : si la función de densidad de probabilidad satisface lo siguiente, entonces X satisface la distribución exponencial (Distribución exponencial) con el parámetro β, escrito como:X \sim Exp(\beta)

f(x)=\frac{1}{\beta}e^{-\frac{x}{\beta}},x>0,\beta > 0

La distribución exponencial se utiliza para modelar el ciclo de vida de los componentes electrónicos, así como el tiempo de espera entre eventos raros.

Distribución gamma : Para α>0, la función gamma se define como: \Gamma(\alpha)=\int_0^\infty y^{\alpha-1} e^y dySi la función de densidad de probabilidad satisface lo siguiente, entonces se dice que X satisface la distribución gamma con los parámetros α y β, escritos como:X\sim Gamma(\alfa,\beta)

f(x)=\frac{1}{\beta^\alpha \Gamma(\alpha)}x^{\alpha - 1}e^{-x/\beta},\alpha > 0,\beta > 0

La distribución exponencial es la distribución gamma (1, β). Si se X_i\sim Gamma(\alpha_i,\beta)distribuye independientemente, entonces satisface\sum_{i=1}^nX_i \sim Gamma(\sum_{i=1}^n \alpha_i,\beta)

Distribución Beta : Si f(x) satisface las siguientes condiciones, entonces X satisface la distribución beta con los parámetros α>0 y β>0, escritos como X \sim Beta(\alfa,\beta):

f(x)=\frac{\Gamma(\alpha+\beta)}{\Gamma(\alpha)\Gamma(\beta)}x^{\alpha-1}(1-x)^{\beta-1 },0 < x <1

t y Distribución de Cauchy (t y Distribución de Cauchy) : Si f(x) satisface las siguientes condiciones, entonces se dice que X satisface la distribución t con grado de libertad v, escrito como X \sim t_v:

f(x)=\frac{\Gamma(\frac{v+1}{2})}{\Gamma(\frac{v}{2})}\frac{1}{​{(1+\frac {x^2}{v})}^{(v+1)/2}}

La distribución t es similar a la distribución normal, pero tiene colas más gruesas, de hecho, la distribución normal corresponde a la distribución t con grados de libertad v=∞. La distribución de Cauchy corresponde a la distribución t con v=1. Densidad de probabilidad función para:

f(x)=\frac{1}{\pi(1+x^2)}

 Para determinar que se trata de una función de densidad, alinear sus integrales da:

\int_{-\infty}^\infty f(x) dx\\= \frac{1}{\pi}\int \frac{dx}{1+x^2} \\= \frac{1}{ \pi}\int \frac{dtan^{-1}x}{dx}\\=\frac{1}{\pi}[tan^{-1}(\infty)-tan^{-1}( -\infty)]\\=\frac{1}{\pi}[\frac{\pi}{2}-(-\frac{\pi}{2})]=1

\chi^2 distribución (distribución chi-cuadrado): Si f(x) satisface lo siguiente, entonces X es una distribución chi-cuadrado (distribución χ^2) con p grados de libertad, escrita como:X\sim\chi_p^2

f(x)=\frac{1}{\Gamma(p/2)2^{p/2}}x^{(p/2)-1}e^{-x/2},x>0

 Si Z1, Z2,...Zp son variables aleatorias normales estándar independientes, entonces tenemos\sum_{i=1}^p Z_i^2 \sim \chi_p^2

2.5 Distribuciones bivariadas

Dado un conjunto de variables aleatorias discretas X e Y, defina la función de masa conjunta como: , f(x,y)=\mathbb{P}(X=x \ y\ Y = y)de ahora en adelante se escribirá \mathbb{P}(X=x \ y \ Y=y)como \mathbb{P}=(X=x,Y=y). Cuando se requiera una fórmula más compleja, se escribirá f_ {x, y}directamente comoF

2.18 Ejemplo

Hay dos distribuciones bidimensionales de variables aleatorias X e Y, y sus valores son 0 o 1.

Y=0 Y=1
X=0 1/9 2/9 1/3
x=1 2/9 4/9 2/3
1/3 2/3

Por lo tanto, f(1,1)=P(X=1,Y=1)=4/9

2.19 Definición PDF de variables aleatorias bidimensionales

En el caso continuo, si se cumplen las siguientes tres condiciones, se dice que la función f(x,y) es la PDF de la variable (X,Y)

  1. Para todos (x,y), hayf(x,y)\geq 0
  2. \int_{-\infty}^\infty\int_{-\infty}^\infty f(x,y)dx dy = 1y
  3. Para cualquier conjunto Un \subconjunto \mathbb{R} \times \mathbb{R}, existe\mathbb{P}((X,Y) \subconjunto A)=\int\int_A f(x,y)dxdy

En los casos discretos y continuos, definimos la CDF conjunta comoF_{X,Y}(x,y)=P(X\leq x,Y\leq y)

2.20 Ejemplo

Suponiendo que (X, Y) es uniforme dentro del cuadrado unitario, entonces existe:

f(x,y)=\left\{\begin{matrix} 1 & 0 \leq x \leq 1, 0\leq y \leq 1\\ 0 & en caso contrario \end{matrix}\right.

求P(X<1/2,Y<1/2).

El evento A={X<1/2,Y<1/2} corresponde a un subconjunto del cuadrado unitario. En este caso integra f sobre este subconjunto. Encuentra que el área de A es 1/4. Entonces P(X<1/2,Y<1/2)=1/4

2.21 Ejemplo

Supongamos que (X,Y) tiene la siguiente función de densidad de probabilidad:

f(x,y)=\left\{\begin{matrix} x+y & 0 \leq x \leq 1, 0 \leq y \leq 1, \\ 0 & en caso contrario \end{matrix}\right.

Entonces obtenemos:

\int_0^1 \int_0^1(x+y)dxdy\\\\=\int_0^1[\int_0^1xdx]dy+\int_0^1[\int_0^1ydx]dy\\\\=\int_0^1 \frac{1}{2}dy+\int_0^1ydy\\\\=\frac{1}{2}+\frac{1}{2}=1

En este momento, se puede demostrar que f (x, y) es PDF

2.22 Ejemplo

Si la distribución se define sobre un área no rectangular, entonces el cálculo es un poco más complicado. Aquí hay un ejemplo, citado en DeGroot y Schervish (2002). Supongamos que (X, Y) tiene la siguiente función de densidad:

f(x,y)=\left\{\begin{matrix} cx^2y & x^2 \leq y \leq 1 \\ 0& en caso contrario \end{matrix}\right.

Tenga en cuenta que -1 \leq x \leq 1ahora encontremos el valor de c.

La clave aquí es prestar atención al rango de la integral: elegimos una variable, como x, y la dejamos cambiar dentro de su rango de valores. Luego, para cada valor fijo de x, dejamos que y varíe dentro de su rango, es decir, x^2 ≤ y ≤ 1. Si miras la imagen de abajo puede que te ayude

Por lo   1 \\\\=\int\int f(x,y)dxdy = c \int_{-1}^1\int_{x^2}^1x^2ydydx\\\\=c\int_{-1} ^1x^2[\int_{x^2}^1ydy]dx\\\\=c\int_{-1}^1x^2\frac{​{1-x^4}}{2}dx\\ \\=\frac{4c}{21} tanto c=21/4

Ahora calculemos P(X>=Y), el conjunto correspondiente es: A={(x,y);0<=x<=1,x^2<=y<=x} Por lo tanto

\mathbb{P}(X\geq Y)=\frac{21}{4}\int_0^1\int_{x^2}^xydydx\\\\=\frac{21}{4}\int_0^1x ^2[\int_{x^2}^xydy]dx\\\\=\frac{21}{4}\int_0^1x^2\frac{x^2-x^4}{2}dx\\ \\=\frac{3}{20}

2.6 Distribuciones marginales

2.23 Definición

Si (X, Y) satisface la distribución conjunta y su función de masa es f_ {x, y}entonces la función de masa marginal para x se define como:

f_X(x)=P(X=x)=\underset{y}\sum P(X=x,Y=y)=\underset{y}\sum f(x,y)

La función de masa marginal para y se define como:

f_Y(y)=P(Y=y)=\underset{x}\sum P(X=x,Y=y)=\underset{x}\sum f(x,y) 

2.24 Ejemplo 

Si f_ {x, y}lo da la siguiente tabla, para la distribución marginal de X, es la suma de las filas, y para la distribución marginal de Y, es la suma de las columnas.

Y=0 Y=1
X=0 1/10 2/10 3/10
x=1 3/10 4/10 7/10
4/10 6/10

Disponible  f_X(0)=3/10,f_X(1)=7/10

2.25 Definición

Para variables aleatorias continuas, la función de densidad marginal se define como:

f_X(x)=\int f(x,y)dy , f_Y(y)=\int f(x,y)dx

Entonces la función de distribución marginal correspondiente se F_X(x) y F_Y(y) expresa por

2.26 Ejemplo

Supongamos f_{X,Y}(x,y)=e^{-(x+y)}\ \ \ x,y\geq0, entoncesf_X(x)=e^{-x}\int_0^\infty e^{-y}dy = e^{-x}

2.27 Ejemplo

Si: f(x,y)=\left\{\begin{matrix} x+y & 0 \leq x \leq 1,0 \leq y \leq 1\\ 0 & en caso contrario \end{matrix}\right.entonces podemos obtener

f_Y(y)=\int_0^1(x+y)dx=\int_0^1 xdx+\int_0^1ydx=\frac{1}{2}+y

2.28 Ejemplo

Sea (X,Y) la siguiente función de densidad

f(x,y)=\left\{\begin{matrix} \frac{21}{4}x^2y & x^2 \leq y \leq 1\\ 0 & en caso contrario \end{matrix}\right.

Por tanto, se puede obtener

f_X(x)=\int f(x,y)dy = \frac{21}{4}x^2\int_{x^2}^1ydy=\frac{21}{8}x^2(1- x^4) 

2.7 Variable aleatoria independiente

2.29 Definición

Hay dos variables aleatorias X e Y. Si para todo A y B existe \mathbb{P}(X \en A,Y \en B)=\mathbb{P}(X \en A)\mathbb{P}(Y \en B), entonces decimos que X e Y son independientes. Escribiendo X \coprod Y. De lo contrario, entonces se dice que X e Y están relacionados, escribiendo, de la siguiente manera (imagen)

En principio, para comprobar si X e Y son independientes, necesitamos comprobar todos los subconjuntos A y B según la fórmula de la definición, pero afortunadamente podemos utilizar las siguientes conclusiones, aunque estas conclusiones se basan en una representación continua de variables aleatorias. , pero también se aplica a variables aleatorias discretas

2.30 Teorema

Supongamos que X e Y tienen una PDF conjunta  f_ {x, y}si y sólo si f_{X,Y}(x,y)=f_X(x)f_Y(y)se cumple para todos los x e y, entoncesX \coprod Y

2.31 Ejemplo

Supongamos que X e Y tienen la siguiente distribución

Y=0 Y=1
X=0 1/4 1/4 1/2
x=1 1/4 1/4 1/2
1/2 1/2 1

Entonces f_X(0)=f_X(1)=1/2, f_Y(0)=f_Y(1)=1/2y.X e Y son independientes porque f_X(0)f_Y(0)=f(0,0), f_X(0)f_Y(1)=f(0,1), f_X(1)f_Y(0)=f(1,0), f_X(1)f_Y(1)=f(1,1).

Si X e Y tienen la siguiente distribución

Y=0 Y=1
X=0 1/2 0 1/2
x=1 0 1/2 1/2
1/2 1/2 1

Entonces X e Y no son independientes, porque f_X(0)f_Y(1)=1/4perof(0,1)=0

2.32 Ejemplo 

Supongamos que X e Y son independientes y tienen la misma función de densidad, como sigue:

f(x)=\left\{\begin{matrix} 2x & 0 \leq x \leq 1\\ 0 & en caso contrario \end{matrix}\right..

Encontrémoslo \mathbb{P}(X+Y \leq 1)... Usando independencia, la función de densidad conjunta es:

f(x,y)=f_X(x)f_Y(y)=\left\{\begin{matrix} 4xy & 0 \leq x \leq 1, 0\leq y\leq 1\\ 0 & ,de lo contrario \end {matriz}\derecha. 

tengo que:\mathbb{P}(X+Y \leq 1)\\\\=\int\int_{x+y \leq 1}f(x,y)dxdy\\\\=4 \int_0^1x[\int_0 ^{1-x}ydy]dx\\\\=4\int_0^1x\frac{(1-x)^2}{2}dx\\\\=\frac{1}{6}

Las siguientes conclusiones ayudan a verificar la independencia 

2.33 Teorema

Suponiendo que el rango de X e Y es un rectángulo (posiblemente ilimitado), si para las funciones g y h (no necesariamente funciones de densidad de probabilidad), se cumple, entonces X e Y son independientes f(x,y)=g(x)h(y).

2.34 Ejemplo

Sean X e Y las siguientes funciones de densidad:

f(x,y)=\left\{\begin{matrix} 2e^{-(x+2y)} & ,x> 0,y>0 \\ 0 & ,de lo contrario \end{matrix}\right.

El rango de X e Y es un rectángulo (0,\infty)\veces (0,\infty). También puedes escribir f(x,y) como f(x,y)=g(x)h(y). Entre ellos, g(x)=2e^{-x}, h(y)=e^{-2y}.soX \coprod Y

2.8 Distribución condicional

Si X e Y son discretos, entonces podemos calcular la distribución condicional de X en el caso Y = y. Específicamente \mathbb{P}(X=x|Y=y)=P(X=x,Y=y)/\mathbb{P}(Y=y), esto nos lleva a definir la función de masa de probabilidad condicional de la siguiente manera

2.35 Definición de función de masa de probabilidad condicional

Si, f_Y(y) > 0la función de masa de probabilidad condicional se define de la siguiente manera:

f_{X|Y}(x|y)=P(X=x|Y=y)=\frac{P(X=x,Y=y)}{P(Y=y)}=\frac{f_ {X,Y}(x,y)}{f_Y(y)}

Para distribuciones continuas utilizamos la misma definición. La diferencia en la explicación es: en el caso discreto, la función de masa de probabilidad condicional es la probabilidad condicional. f_{X|Y}(x|y)=P(X=x|Y=y)En el caso continuo, la probabilidad debe obtenerse por integración.

2.36 Definición de función de densidad de probabilidad condicional

Para variables aleatorias continuas, la función de densidad de probabilidad condicional se define de la siguiente manera: Si f_Y(y)>0,

f_{X|Y}(x|y)=\frac{f_{X,Y}(x,y)}{f_Y(y)}

 Entonces, la probabilidad es:

P(X\in A | Y = y) = \int_A f_{X|Y}(x|y)dx

2.37 Ejemplo

Supongamos que X e Y tienen una distribución uniforme conjunta en el cuadrado unitario. Por lo tanto, 0 \leq x \leq 1a continuación , f_{X|Y}(x|y)=1. es 0 en otros lugares. Dado Y=y, X es una distribución uniforme (0,1). Podemos escribir:X|Y=y \sim Uniforme(0,1)

De la definición de densidad condicional: f_{X,Y}(x,y)=f_{X|Y}(x|y)f_Y(y)=f_{Y|X}(y|x)f_X(x)Esto es muy útil en algunos casos, como en el ejemplo 2.39.

2.38 Ejemplo

Supongamos: f(x,y)=\left\{\begin{matrix} x+y & 0 \leq x \leq 1 , 0 \leq y \leq 1\\ 0 & en caso contrario \end{matrix}\right..buscar\mathbb{P}(X<1/4|Y=1/3)

En el ejemplo 2.27 se puede obtener, f_Y(y)=y+(1/2)por lo tanto:

f_{X|Y}(x|y)=\frac{f_{X,Y}(x,y)}{f_Y(y)}=\frac{x+y}{y+\frac{1}{2 }}

entonces, 

\mathbb{P}(X<\frac{1}{4}|Y=\frac{1}{3})\\\\=\int_0^{1/4}f_{X|Y}(x| \frac{1}{3})dx\\\\=\int_0^{1/4}\frac{x+\frac{1}{3}}{\frac{1}{3}+\frac{1 }{2}}dx\\\\=\frac{\frac{1}{32}+\frac{1}{12}}{\frac{1}{3}+\frac{1}{2} }\\\\=\frac{11}{80} 

2.39 Ejemplo

Si X obedece X\sim Uniforme(0,1)... Después de obtener el valor de X, el Y resultante obedece Y|X=x \sim Uniforme(x,1)... Entonces, ¿cuál es la función de distribución marginal de Y?

Primero, f_X(x)=\left\{\begin{matrix} 1 & ,0\leq x \leq 1\\ 0 & ,de lo contrario \end{matrix}\right.y f_{Y|X}(y|x)=\left\{\begin{matrix} \frac{1}{1-x} & , 0 < x< y< 1\\ 0 & ,de lo contrario \end{matrix }\bien.por lo tanto tenemos

f_{X,Y}(x,y)=f_{Y|X}(y|x)f_X(x)=\left\{\begin{matrix} \frac{1}{1-x} & ,0 <x<y<1\\ o & ,de lo contrario \end{matrix}\right.

Entonces la función de densidad de aristas de Y es:

f_Y(y)=\int_0^y f_{X,Y}(x,y)dx=\int_0^y \frac{dx}{1-x}dx = - \int_1^{1-y}\frac{ du}{u}=-log(1-y),en0 <y<1

2.40 Ejemplo

Piense en la función de densidad del ejemplo 2.28 y encuentre f_{Y|X}(y|x).

Cuando x^2 \leq y \leq 1_ f_X(x)=(21/8)x^2(1-x^4)_ x^2 \leq y \leq 1_

f_{Y|X}(y|x)=\frac{f(x,y)}{f_X{x}}=\frac{(21/4)x^2y}{(21/8)x^2 (1-x^4)}=\frac{2y}{1-x^4}

Pregunta ahora\mathbb{P}(Y\geq 3/4 |X = 1/2)=\int_{3/4}^1f(y|1/2)dy=\int_{3/4}^1\frac{ 32y}{5}día=\frac{7}{15}

2.9 Distribuciones multivariadas e IID

f(x_1,x_2,x_3.....x_n)Sea X = (X1 , X2...Xn), donde X1,

Si para cada A1, A2,...An, hay \mathbb{P}(X_1 \en A_1,X_2 \en A2....X_n \en A_n)= \overset{n}{\underset{i=1}{\prod}}\mathbb{P}(X_i \en A_i), entonces X1, X2...Xn son independientes. f(x_1,x_2,...x_n)=\overset{n}{\underset{i=1}{\prod }}f_{X_i}(x_i)Simplemente pasa la verificación.

2.41 Definición de IID

Si X1, X2,...Xn son independientes entre sí y tienen la misma función de distribución acumulativa (CDF) F, decimos que X1, X2, X_1,...X_n\simF...

Si la función de densidad de F es f, también se puede escribir X_1,..X_n\simf. También llamamos a X1,...Xn n muestras aleatorias de tamaño n de F.

Gran parte de la teoría y la práctica estadística se basan en datos de observación distribuidos de forma independiente e idéntica (IID), y veremos esto en detalle cuando analicemos la estadística.

2.10 Dos distribuciones multidimensionales importantes

Multinomial (distribución multinomial) : la versión multidimensional de la distribución binomial se llama distribución multidimensional. Considere extraer 1 bola pequeña de una caja que contiene k colores diferentes. Estas bolas pequeñas están marcadas: "color1, color2... colork". p=(p1,...pk), donde pj>=0, y \sum_{j=1}^kp_j=1sea pj la probabilidad de que el color de la bola extraída sea j. Dibuje n veces (muestreo independiente con reemplazo) y sea X=(X1,X2 ..Xk) donde Xj representa el número de veces que aparece el color j, por lo que n=\sum_{j=1}^kX_jen este momento decimos X \sim Multnomial(n,p)que

f(x)=\binom{n}{x_1...x_k}p_1^{x_1}....p_k^{x_k}

 en,\binom{n}{x_1...x_k}=\frac{n!}{x_1!...x_k!}

2.42 Lema

Si X \sim Multinomial(n,p), entre ellos, X=(X1,X2..Xk), p=(p1,p2...pk).La distribución marginal de

Normal multivariada (distribución normal multidimensional o distribución normal multivariada): La distribución normal unidimensional tiene dos parámetros, μ y σ. En la versión multidimensional, μ es un vector y σ es una matriz Σ.

ahora ordene

Z=\begin{pmatrix} Z_1\\ \vdots \\ Z_k \end{pmatrix}

Entre ellos, Z_1...Z_k\simN(0,1)y son independientes entre sí, entonces la función de densidad de Z es:

f(z)=\overset{k}{\underset{i}{\prod }}f(z_i)=\frac{1}{(2\pi)^{k/2}}exp\left \{ - \frac{1}{2} \overset{k}{\underset{i}{\sum}} z_j^2\right \}\\\\=\frac{1}{(2\pi)^{k /2}}exp\left \{ -\frac{1}{2}z^Tz \right \} 

Decimos que Z se ajusta a la distribución normal multivariada estándar, escrita como: Z\simN(0,I), donde 0 representa un vector con k 0 elementos. La I mayúscula representa la k\veces kmatriz identidad.

De manera más general, si el vector X tiene la siguiente función de densidad, entonces X es un vector multidimensional distribuido normalmente, denotado como:X \sim N(\mu,\Sigma)

f(x;\mu,\Sigma)=\frac{1}{(2\pi)^{k/2}|(\Sigma)|^{1/2}}exp\left \{ -\frac{ 1}{2} (x-\mu)^T \Sigma^{-1}(x-\mu)\right \}

Que |\Sigma|representa el determinante de Σ. μ es un vector de longitud k. Σ es una k\veces kmatriz definida positiva simétrica. Si μ = 0, Σ = I, se convierte en una distribución normal multidimensional estándar.

Debido a que Σ es una matriz definida positiva, simétrica, existe una matriz \Sigma^{1/2}—llamada raíz cuadrada de Σ— que satisface las siguientes propiedades:

  1. \Sigma^{1/2}También simétrico
  2. \Sigma=\Sigma^{1/2}\Sigma^{1/2}
  3. \Sigma^{1/2}\Sigma^{-1/2}=\Sigma^{-1/2}\Sigma^{1/2}=I,en\Sigma^{-1/2}=(\Sigma^{1/2})^{-1}

2.43 Teorema

Si Z\simN(0,I)y X=\mu+\Sigma^{1/2}Z, entonces X\sim N(\mu,\Sigma)a la inversa, si X \sim N(\mu,\Sigma)entonces\Sigma^{-1/2}(X-\mu) \sim N(0,I)

Suponiendo que el vector normal aleatorio X se divide en X = (Xa, Xb), entonces μ se puede escribir como μ = (μa, μb) y Σ se puede escribir como\Sigma=\begin{pmatrix} \Sigma_{aa} & \Sigma_{ab}\\ \Sigma_{ba} & \Sigma_{bb} \end{pmatrix}

2.44 Teorema

Supongamos X \sim N(\mu,\Sigma)entonces

  1. La distribución marginal de Xa satisface:X_a \sim N(\mu_a,\Sigma_{aa})
  2. La distribución condicional de Xb bajo la condición de Xa=xa es:X_b|X_a=x_a \sim N(\mu_b+\Sigma_{ba}\Sigma_{aa}^{-1}(x_a-\mu_a),\Sigma_{bb}-\Sigma_{ba}\Sigma_{aa}^ {-1}\Sigma_{ab})
  3. Si a es un vector, entoncesa^TX \sim N(a^T\mu,a^T\Sigma a)
  4. V=(X-\mu)^T\Sigma^{-1}(X-\mu) \sim \chi _k^2

2.11 Transformación de variables aleatorias

Supongamos que X es una variable aleatoria cuyo CDF es y PDF es. Sea una F_Xfunción de Laf_XY=r(X)Y=X^2Y=e^XY=r(X)

f_Y(y)=\mathbb{P}(Y=y)=\mathbb{P}(r(X)=y)=\mathbb{P}(\left \{ x;r(x)=y \right \})\\\\=\mathbb{P}(X \en r^{-1}(y))

2.45 Ejemplo

Si P(X=-1)=P(X=1)=1/4, P(X=0)=1/2. Sea Y=X^2. Entonces P(Y=0)=P(X= 0)=1/2,P(Y=1)=P(X=1)+P(X=-1)=1/2. Como sigue:

X f_X(x)
-1 1/4
0 1/2
1 1/4
y f_Y(y)
0 1/2
1 1/2

Y tiene menos valores que X porque la conversión no es uno a uno.

Para situaciones continuas, es más complicado, aquí están los siguientes tres pasos para encontrarf_Y

  1. Para cada y, encuentre el conjuntoA_y=\left \{ x;r(x) \leq y \right \}
  2. Luego busque el CDF:

 F_Y(y)=P(Y\leq y)=P(r(X) \leq y)=P(\left \{ x;r(x) \leq y \right \})\\\\=\ int_{A_y}f_X(x)dx

    3. PDF es el derivado de CDF:f_Y(y)={F_Y}'(y)

2.46 Ejemplo 

Sea f_X(x)=e^{-x}x>0. Por lo tanto F_X(x)=\int_0^x f_X(s)ds= 1- e^{-x}. Supongamos Y=r(X)=logX. Entonces A_y=\left \{ x:x \leq e^y \right \}entonces

F_Y(y)=P(Y \leq y)=P(logX \leq y)=P(X \leq e^y)=F_x(e^y)=1-e^{-{e^y}}

por lo tantof_Y(y)=e^ye^{-e^y},y \in \mathbb{R}

2.47 Ejemplo 

Supongamos X \sim Uniform(-1,3)que Y=X^2la función de densidad de PDF.X es:

f_X(x)=\left\{\begin{matrix} 1/4 & , -1 < x< 3\\ 0 & ,otherwise \end{matrix}\right.

Y solo puede tomar valores entre (0,9), considere dos situaciones: la primera, 0<y<1; la segunda, 1<= y < 9.

Para el primer caso, A_y=[-\sqrt{y},\sqrt{y}].F_Y(y)=\int_{A_y}f_X(x)dx=(1/2)\sqrt{y}

Para el segundo caso, A_y=[-1,\sqrt{y}],F_Y(y)=\int_{A_y}f_X(x)dx=(1/4)(\sqrt{y}+1)

Tomando la derivada de F obtenemos:

f_Y(y)=\left\{\begin{matrix} \frac{1}{4\sqrt{y}} &, 0 < y< 1\\ \frac{1}{8\sqrt{y}} & , 1<y<9\\ 0 & ,otherwise \end{matrix}\right.

Cuando r aumenta o disminuye estrictamente monótonamente, entonces r tiene su función inversa, s=r^{-1}en este caso la función de densidad se puede expresar como:

f_Y(y)=f_X(s(y))|\frac{ds(y)}{dy}| 

2.12 Transformación de múltiples variables aleatorias 

En algunos casos, estamos interesados ​​en transformaciones de múltiples variables aleatorias. Por ejemplo, si a X e Y se les dan variables aleatorias, podríamos conocer la distribución de X/Y, X+Y, max{X,Y}. Sea Z= Sea r(X,Y) la función que nos interesa. Entonces f_Z(z)los pasos para encontrarla son similares a los anteriores:

  1. Para cada z, encuentre el conjuntoA_z=\left \{ (x,y) :r(x,y) \leq z\right \}
  2. Encuentra el CDF:

F_Z(z)=P(Z \leq z)=P(r(X,Y) \leq z)=P(\left \{ (x,y):r(x,y) \leq z \right \})\\\\=\int\int_{A_z}f_{X,Y}(x,y)dxdy

    3. Luego deriva su derivada;f_Z(z)={F_Z}'(z)

2.48 Ejemplo

Supongamos X_1,X_1 \sim Unifrom(0,1)que y son independientes. Encuentre Y=X_1+X_2la función de densidad.

La función de densidad conjunta de (X1,X2) es:

f(x_1,x_2)=\left\{\begin{matrix} 1 &\ 0 \leq x \leq 1,0 \leq y \leq 1\\ 0 & otherwise \end{matrix}\right.

Ordene r(x_1,x_2)=x_1+x_2, obtenga:

F_Y(y)=P(Y \leq y)=P(r(X_1,X_2) \leq y)=P(\left \{ (x_1,x_2);r(x_1,x_2) \leq y \right \}) \\\\=\int\int_{A_y}f(x_1,x_2)dx_1dx_2

Ahora viene lo difícil: encontrarlo A_y.

Primero supongamos 0 < y \leq 1que A_yes un triángulo rodeado por (0,0), (y,0), (0,y), como se muestra a continuación.

En este caso, \int\int_{A_y}f(x_1,x_2)dx_1dx_2el área del triángulo esy^2/2

Supongamos nuevamente 1 < y< 2, entonces A_yson todas las áreas excepto el triángulo rodeado por (1, y - 1), (1, 1), (y - 1,1). El área de esta parte es. Por lo 1-(2-y)^2/2tanto

F_Y(y)=\left\{\begin{matrix} 0 & ,y <0\\ \frac{y^2}{2} & , 0 \leq y < 1\\ 1- \frac{(2-y)^2}{2} & ,1 \leq y < 2\\ 1 & ,y \geq 2 \end{matrix}\right.

Derivarlo y obtener PDF

f_Y(y)=\left\{\begin{matrix} y &,0 \leq y \leq 1 \\ 2-y & ,1 \leq y \leq 2\\ 0 & ,otherwise \end{matrix}\right.

Fin de este capítulo

Sin traducir: Apéndice, tarea

                 

             

Supongo que te gusta

Origin blog.csdn.net/xiaowanbiao123/article/details/132867050
Recomendado
Clasificación