Estadísticas (2) Variables aleatorias
Historial de actualizaciones | fecha | contenido |
1 | 2023-9-19 | Corrección: Ejemplo 2.46 |
2 | 2023-9-25 | Corrección: la función no tiene solución y debería ser una función ilimitada |
Contenido de este capítulo
- introducción
- Funciones de distribución y funciones de probabilidad
- Algunas variables aleatorias discretas importantes (Variables aleatorias discretas)
- Algunas variables aleatorias continuas importantes (Variables aleatorias continuas)
- Distribuciones bivariadas
- Distribuciones marginales
- variable aleatoria independiente
- Distribuciones condicionales
- Distribuciones multivariadas y distribuciones simultáneas independientes (IID)
- Dos distribuciones multidimensionales importantes
- Transformación de variables aleatorias
- Transformación de múltiples variables aleatorias
Algunos de los términos clave no transmiten el significado, por lo que los términos clave se organizan de la siguiente manera:
1. Funciones de distribución: Funciones de distribución
2. Funciones de probabilidad:
3. Variables aleatorias discretas:
4. Variables aleatorias continuas:
5. Distribución bidimensional : Distribuciones Bivariadas
6. Distribución marginal: Distribuciones Marginales
7. Distribución condicional: Distribuciones Condicionales
8. Distribución multidimensional: Distribuciones Multivariadas9. Función de distribución acumulativa: función de distribución acumulativa
10. normalizado: normalizado
11. Función de probabilidad:Función de probabilidad
12. Función de masa de probabilidad:Función de masa de probabilidad
13. Función de densidad de probabilidad:Función de densidad de probabilidad
14. continuo: continuo
15. Función cuantil: función cuantil
16. primer cuartil: primer cuartil
17. segundo cuartil: segundo cuartil
18. tercer cuartil: tercer cuartil
19. Mediana:mediana
20. Distribución de probabilidad igual: igual en distribución
21. Distribución de masa puntual: Distribución de masa puntual
22. Distribución uniforme discreta: Distribución uniforme discreta
23. Distribución Bernuolli: Distribución Bernuolli
24. Distribución Binomial: Distribución Binomial
25. Distribución geométrica: Distribución geométrica
26. Distribución de Poisson: Distribución de posesión
27. Distribución normal: Distribución normal
28. Distribución Gaussiana: Distribución Gaussiana
29. Distribución normal estándar: Distribución normal estándar
30. Distribución exponencial: Distribución exponencial
31. Distribución Gamma: Distribución Gamma
32. Distribución Beta: Distribución Beta
33. Distribución Cauchy: Distribución Cauchy
34. Distribuciones marginales: Distribuciones marginales
35. Función de masa marginal:función de masa marginal
36. Función de densidad marginal:función de densidad marginal
37. Función de masa de probabilidad condicional: Función de masa de probabilidad condicional
38. Función de densidad de probabilidad condicional: Función de densidad de probabilidad condicional
40. Vector aleatorio: vector aleatorio
41. Distribución multinomial: Distribución multinomial
42. Distribución normal multivariada o distribución normal multidimensional: Normal Multivariada
2.1 Introducción
Las estadísticas y la minería de datos se ocupan de los datos, entonces, ¿cómo conectamos el espacio muestral (muestra) y los eventos (eventos) con los datos? Esta conexión la proporcionan las variables aleatorias (variables aleatorias).
2.1 Definición de variables aleatorias
Una variable aleatoria es una aplicación, expresada como , de que para cada resultado ω, hay un número real asignado a X(ω).
En ciertas etapas de los cursos de probabilidad, rara vez mencionamos el espacio muestral (espacio muestral), sino que usamos directamente variables aleatorias (variables aleatorias), pero debe tener en cuenta que el espacio muestral (espacio muestral) realmente existe e implica Detrás del azar. variables.
2.2 Ejemplo
Lanza una moneda diez veces, sea X(ω) el número de caras en la secuencia ω, por ejemplo, ω=HHTHHTHHTT, entonces X(ω)=6.
2.3 Ejemplo
Sea un círculo unitario y elija un punto aleatorio en Ω (describiremos esta idea con mayor precisión más adelante), generalmente en el formato ω = (x, y). Entonces, algunos ejemplos de variables aleatorias son: X(ω) = x, Y(ω) = y,Z(ω) = x+y o
Dada una variable aleatoria X y un subconjunto A de números reales, defina y sea
Nota: X es una variable aleatoria, x es el valor específico de la variable aleatoria X
2.4 Ejemplo
Lanza una moneda dos veces y sea X el número de caras, entonces P(X=0)=P({TT})=1/4, P(X=1)=P({HT,TH})= 1/ 2, P (X = 2) = P ({HH}) = 1/4, las variables aleatorias y su distribución se pueden resumir de la siguiente manera:
Vaya | P({ω}) | X(ω) |
TT | 1/4 |
0 |
TH | 1/4 | 1 |
HT | 1/4 | 1 |
S.S | 1/4 | 2 |
X | P(X=x) |
0 | 1/4 |
1 | 1/2 |
2 | 1/2 |
2.2 Funciones de distribución y funciones de probabilidad
Dada una variable aleatoria X, definimos su función de distribución acumulativa o funciones de distribución de la siguiente manera:
2.5 Definición de CDF
La función de distribución acumulativa, o CDF, se define como
Más adelante veremos que el CDF efectivamente contiene toda la información sobre la variable aleatoria. A veces usamos en su lugar .
2.6 Ejemplo
Lanza una moneda dos veces, sea X el número de caras, entonces la función de distribución es:
El gráfico de función correspondiente es el siguiente:
Aunque este ejemplo es muy simple, estúdielo detenidamente porque las propiedades del CDF pueden resultar confusas.
Tenga en cuenta que esta función es continua por la derecha y no decreciente. Aunque x solo toma 0, 1 y 2, está definida para todos los números reales. ¿Entiendes por qué ?
El siguiente teorema muestra que CDF determina completamente la distribución de variables aleatorias.
2.7 Teorema
Supongamos que X tiene una función de distribución acumulativa (CDF) F, e Y tiene una función de distribución acumulativa (CDF) G. Si para todo x, se satisface , entonces para todo A, entonces
Nota del traductor: el teorema anterior puede considerarse como una CDF que determina la distribución de probabilidad
2.8 Teorema
F es un mapeo en [0,1]. Si y solo si F satisface las tres condiciones siguientes, F es la función de distribución acumulativa de una cierta probabilidad P.
- F no es creciente: x1<x2, entonces F(x1) <= F(x2)
- F ha sido normalizado: ,
- F es continua por la derecha: para todo x, , donde
probar:
Suponiendo que F es una CDF, demostremos que el tercer punto es verdadero.
Sea x un número real;
y1,y1,... es una secuencia de números reales que satisface y1>y2>...y .
Entonces,
Entonces obtenemos, ,
entonces,
entonces,
Certificado completado
El primer punto es similar al segundo punto.
Para probar la otra dirección, es decir, si F satisface el primer, segundo y tercer punto, demostrando que F es la CDF de una cierta probabilidad P, es necesario utilizar herramientas más profundas en el campo del análisis.
2.9 Definición de función de probabilidad o función de masa de probabilidad
Si la variable aleatoria X tiene valores finitos y es discreta, entonces la función de probabilidad o función de masa de probabilidad de X se define como:
.
Por lo tanto, para todos existe y , a veces simplemente usamos en su lugar .
La relación entre CDF y es:
2.10 Ejemplo
La función de probabilidad del ejemplo 2.6 es
Vea abajo
2.11 Definición de función de densidad de probabilidad
Para una variable aleatoria continua
Por lo tanto, podemos obtener la suma , que es diferenciable en todos los puntos x .
A veces usamos o para expresar
2.12 Ejemplo
Sea la función de densidad de probabilidad PDF de la variable aleatoria X la siguiente
Obviamente, y ... Entonces la variable aleatoria con este tipo de PDF se llama distribución uniforme (0,1). El concepto de distribución uniforme (0,1) significa que se selecciona un punto al azar en el intervalo [0,1].
Entonces CDF es:
Como se muestra abajo:
2.13 Ejemplo
Si la variable aleatoria X tiene el siguiente PDF:
Porque este es un PDF que satisface la definición.
Advertencia: las variables aleatorias continuas pueden causar confusión.
En primer lugar, cabe señalar que si
En segundo lugar, tenga en cuenta que PDF puede ser mayor que 1 (esto es diferente de la función de masa de probabilidad), por ejemplo:
Se puede obtener y , por lo tanto, es un PDF que satisface la definición, pero puede ser f (x) = 5 en algunos intervalos. De hecho, el PDF puede ser ilimitado, por ejemplo:, se puede obtener y por lo tanto, también es un PDF que satisface la definición de PDF, pero es una función ilimitada.
2.14 Ejemplo
Supongamos que este no es un PDF porque:
2.15 Lema
Supongamos que F es la CDF de la variable aleatoria X, entonces:
- Si X es continua, entonces
Esto es útil para definir la función inversa (o función cuantil) de una CDF.
2.16 Definición de la función inversa o función cuantil de CDF
Supongamos que X es una variable aleatoria con una función de distribución acumulativa F. Entonces la función inversa o función cuantil de CDF se define como:
, entre ellos ,
Si F es estrictamente creciente y continua, entonces existe un número real único x tal que
Lo llamaremos : primer cuartil; lo llamaremos mediana o segundo cuartil; lo llamaremos tercer cuartil
Dos variables aleatorias X e Y, que tienen la misma distribución, se pueden escribir como . Si para todo x existe , esto no significa que X e Y sean iguales. Sólo significa que X e Y tienen el mismo estado de probabilidad. Por ejemplo, sea Y=-X, entonces obtenemos , entonces , pero X e Y no son iguales. De hecho
2.3 Algunas variables aleatorias discretas importantes
Una la función de distribución de probabilidad que representa la variable aleatoria.advertencia sobre la notación:
Distribución de masa puntual: si la probabilidad satisface las siguientes condiciones, entonces la variable aleatoria X tiene una distribución de masa puntual en a, escrita como ,:
,
Entonces , la función de masa de probabilidad es
Distribución uniforme discreta: suponga que k>1 es un número entero y suponga que X tiene la siguiente función de masa de probabilidad:
Entonces decimos que X tiene una distribución uniforme en {1,...k}
Distribución Bernuolli: Sea X el lanzamiento de una moneda, entonces P (X = 1) = p, P (X = 0) = 1-p, donde p está entre [0,1], se dice que X tiene un Bernoulli Distribución (Distribución de Bernoulli), escrita como Entonces su función de probabilidad
Distribución Binomial (Distribución Binomial) : Supongamos que la probabilidad de que la moneda caiga en cara es p. Lanza la moneda n veces, sea X el número de caras, asumiendo que cada lanzamiento es independiente, sea su función de masa, luego se expande. como sigue:
Una variable aleatoria con tal función de masa se llama variable aleatoria binomial y se escribe . Si , entonces
Advertencia : Aprovechemos esta oportunidad para evitar confusiones. X representa una variable aleatoria y x representa el valor específico de la variable aleatoria; n y p son parámetros, es decir, números reales fijos. El parámetro p suele ser desconocido y debe obtenerse de los datosEste es también el contenido de la inferencia estadística.En la mayoría de los modelos estadísticos, existen variables aleatorias y parámetros, así que no los confunda.
Distribución geométrica : si X tiene la siguiente función de probabilidad, entonces la variable aleatoria X obedece a la distribución geométrica con parámetro p, escrita como :
Qué podemos conseguir:
Piensa en X como el número de veces que se necesitan para obtener las primeras caras al lanzar una moneda.
Distribución de Possión : Si la función de masa de probabilidad es la siguiente, entonces la variable aleatoria X obedece a la distribución de Poisson con parámetro λ .
Aviso:
La distribución de Poisson se utiliza a menudo como modelo para eventos raros, como la atenuación de la radiación y los accidentes de tráfico.
Advertencia : Definimos una variable aleatoria como: un mapeo del espacio muestral Ω al número real R, pero no mencionamos el espacio muestral en la distribución anterior. Como mencionamos anteriormente, el espacio muestral a menudo "desaparece", pero todavía existe detrás de escena.Construyamos explícitamente una variable aleatoria de Bernoulli, sea Ω=[0,1], y definamos P para satisfacer P([a,b])=ba, donde 0 < = a <= b < = 1. Tome p como valor fijo en [0,1] y defina:
Entonces, P(X=1)=P(ω<=p)=P([0,p])=p y P(X=0)=1-p. Por lo tanto, X obedece a la distribución de Bernoulli, escrita . No se hace para todas las distribuciones anteriores. De hecho, tratamos la variable aleatoria como un número aleatorio, pero formalmente es un mapeo definido en el espacio muestral.
2.4 Algunas variables aleatorias continuas importantes
Distribución uniforme : si X tiene la siguiente función de densidad de probabilidad, entonces X satisface la distribución uniforme, escrita como :
Cuando a<b, la función de distribución es:
Distribución normal (gaussiana) (distribución normal o distribución gaussiana) : si la función de densidad de probabilidad satisface lo siguiente, entonces X satisface la distribución normal (distribución normal) de los parámetros μ y σ
Aquí, μ es un número real R, σ > 0.
El parámetro μ es el centro (o media) de la distribución, y σ es la dispersión (o desviación estándar) de la distribución (la media y la desviación estándar se definirán en el próximo capítulo). La distribución normal juega un papel importante en teoría de probabilidad y estadística. El papel de. Muchos fenómenos en la naturaleza también se aproximan a la distribución normal. Más adelante aprenderemos el Teorema del límite central (Teorema del límite central), que muestra que la distribución de la suma de variables aleatorias se puede aproximar. por la distribución normal.
Si μ = 0, σ = 1, se llama distribución normal estándar. Tradicionalmente, la variable aleatoria normal estándar se representa por Z, y su PDF y CDF se representan por suma. La imagen PDF es la siguiente :
A continuación se dan algunas conclusiones útiles:
- Si entonces
- Si entonces
- Si ,i=1,...n son independientes, entonces
Se puede empujar de 1 a afuera:
Por lo tanto, siempre que podamos calcular la CDF de la normal estándar, podemos calcular cualquier probabilidad. Todos los paquetes estadísticos pueden calcular la suma. La mayoría de los libros de texto de estadística, incluido este, tienen una tabla de valores .
2.17 Ejemplo
Asume y busca.La solución es:
Ahora bien , esto significa que necesitamos encontrar q para satisfacer P(X<q)=0.2. La solución es la siguiente:
De la tabla estándar, por lo tanto, obtenemos q=1.1181
Distribución exponencial : si la función de densidad de probabilidad satisface lo siguiente, entonces X satisface la distribución exponencial (Distribución exponencial) con el parámetro β, escrito como:
La distribución exponencial se utiliza para modelar el ciclo de vida de los componentes electrónicos, así como el tiempo de espera entre eventos raros.
Distribución gamma : Para α>0, la función gamma se define como: Si la función de densidad de probabilidad satisface lo siguiente, entonces se dice que X satisface la distribución gamma con los parámetros α y β, escritos como:
La distribución exponencial es la distribución gamma (1, β). Si se distribuye independientemente, entonces satisface
Distribución Beta : Si f(x) satisface las siguientes condiciones, entonces X satisface la distribución beta con los parámetros α>0 y β>0, escritos como :
t y Distribución de Cauchy (t y Distribución de Cauchy) : Si f(x) satisface las siguientes condiciones, entonces se dice que X satisface la distribución t con grado de libertad v, escrito como :
La distribución t es similar a la distribución normal, pero tiene colas más gruesas, de hecho, la distribución normal corresponde a la distribución t con grados de libertad v=∞. La distribución de Cauchy corresponde a la distribución t con v=1. Densidad de probabilidad función para:
Para determinar que se trata de una función de densidad, alinear sus integrales da:
distribución (distribución chi-cuadrado): Si f(x) satisface lo siguiente, entonces X es una distribución chi-cuadrado (distribución χ^2) con p grados de libertad, escrita como:
Si Z1, Z2,...Zp son variables aleatorias normales estándar independientes, entonces tenemos
2.5 Distribuciones bivariadas
Dado un conjunto de variables aleatorias discretas X e Y, defina la función de masa conjunta como: , de ahora en adelante se escribirá como . Cuando se requiera una fórmula más compleja, se escribirá directamente como
2.18 Ejemplo
Hay dos distribuciones bidimensionales de variables aleatorias X e Y, y sus valores son 0 o 1.
Y=0 | Y=1 | ||
X=0 | 1/9 | 2/9 | 1/3 |
x=1 | 2/9 | 4/9 | 2/3 |
1/3 | 2/3 |
Por lo tanto, f(1,1)=P(X=1,Y=1)=4/9
2.19 Definición PDF de variables aleatorias bidimensionales
En el caso continuo, si se cumplen las siguientes tres condiciones, se dice que la función f(x,y) es la PDF de la variable (X,Y)
- Para todos , hay
- y
- Para cualquier conjunto , existe
En los casos discretos y continuos, definimos la CDF conjunta como
2.20 Ejemplo
Suponiendo que (X, Y) es uniforme dentro del cuadrado unitario, entonces existe:
求P(X<1/2,Y<1/2).
El evento A={X<1/2,Y<1/2} corresponde a un subconjunto del cuadrado unitario. En este caso integra f sobre este subconjunto. Encuentra que el área de A es 1/4. Entonces P(X<1/2,Y<1/2)=1/4
2.21 Ejemplo
Supongamos que (X,Y) tiene la siguiente función de densidad de probabilidad:
Entonces obtenemos:
En este momento, se puede demostrar que f (x, y) es PDF
2.22 Ejemplo
Si la distribución se define sobre un área no rectangular, entonces el cálculo es un poco más complicado. Aquí hay un ejemplo, citado en DeGroot y Schervish (2002). Supongamos que (X, Y) tiene la siguiente función de densidad:
Tenga en cuenta que ahora encontremos el valor de c.
La clave aquí es prestar atención al rango de la integral: elegimos una variable, como x, y la dejamos cambiar dentro de su rango de valores. Luego, para cada valor fijo de x, dejamos que y varíe dentro de su rango, es decir, x^2 ≤ y ≤ 1. Si miras la imagen de abajo puede que te ayude
Por lo tanto c=21/4
Ahora calculemos P(X>=Y), el conjunto correspondiente es: A={(x,y);0<=x<=1,x^2<=y<=x} Por lo tanto
2.6 Distribuciones marginales
2.23 Definición
Si (X, Y) satisface la distribución conjunta y su función de masa es entonces la función de masa marginal para x se define como:
La función de masa marginal para y se define como:
2.24 Ejemplo
Si lo da la siguiente tabla, para la distribución marginal de X, es la suma de las filas, y para la distribución marginal de Y, es la suma de las columnas.
Y=0 | Y=1 | ||
X=0 | 1/10 | 2/10 | 3/10 |
x=1 | 3/10 | 4/10 | 7/10 |
4/10 | 6/10 |
Disponible ,
2.25 Definición
Para variables aleatorias continuas, la función de densidad marginal se define como:
Entonces la función de distribución marginal correspondiente se expresa por
2.26 Ejemplo
Supongamos , entonces
2.27 Ejemplo
Si: entonces podemos obtener
2.28 Ejemplo
Sea (X,Y) la siguiente función de densidad
Por tanto, se puede obtener
2.7 Variable aleatoria independiente
2.29 Definición
Hay dos variables aleatorias X e Y. Si para todo A y B existe , entonces decimos que X e Y son independientes. Escribiendo . De lo contrario, entonces se dice que X e Y están relacionados, escribiendo, de la siguiente manera (imagen)
En principio, para comprobar si X e Y son independientes, necesitamos comprobar todos los subconjuntos A y B según la fórmula de la definición, pero afortunadamente podemos utilizar las siguientes conclusiones, aunque estas conclusiones se basan en una representación continua de variables aleatorias. , pero también se aplica a variables aleatorias discretas
2.30 Teorema
Supongamos que X e Y tienen una PDF conjunta si y sólo si se cumple para todos los x e y, entonces
2.31 Ejemplo
Supongamos que X e Y tienen la siguiente distribución
Y=0 | Y=1 | ||
X=0 | 1/4 | 1/4 | 1/2 |
x=1 | 1/4 | 1/4 | 1/2 |
1/2 | 1/2 | 1 |
Entonces , y.X e Y son independientes porque , , , .
Si X e Y tienen la siguiente distribución
Y=0 | Y=1 | ||
X=0 | 1/2 | 0 | 1/2 |
x=1 | 0 | 1/2 | 1/2 |
1/2 | 1/2 | 1 |
Entonces X e Y no son independientes, porque pero
2.32 Ejemplo
Supongamos que X e Y son independientes y tienen la misma función de densidad, como sigue:
.
Encontrémoslo ... Usando independencia, la función de densidad conjunta es:
tengo que:
Las siguientes conclusiones ayudan a verificar la independencia
2.33 Teorema
Suponiendo que el rango de X e Y es un rectángulo (posiblemente ilimitado), si para las funciones g y h (no necesariamente funciones de densidad de probabilidad), se cumple, entonces X e Y son independientes .
2.34 Ejemplo
Sean X e Y las siguientes funciones de densidad:
El rango de X e Y es un rectángulo . También puedes escribir f(x,y) como f(x,y)=g(x)h(y). Entre ellos, , .so
2.8 Distribución condicional
Si X e Y son discretos, entonces podemos calcular la distribución condicional de X en el caso Y = y. Específicamente , esto nos lleva a definir la función de masa de probabilidad condicional de la siguiente manera
2.35 Definición de función de masa de probabilidad condicional
Si, la función de masa de probabilidad condicional se define de la siguiente manera:
Para distribuciones continuas utilizamos la misma definición. La diferencia en la explicación es: en el caso discreto, la función de masa de probabilidad condicional es la probabilidad condicional. En el caso continuo, la probabilidad debe obtenerse por integración.
2.36 Definición de función de densidad de probabilidad condicional
Para variables aleatorias continuas, la función de densidad de probabilidad condicional se define de la siguiente manera: Si ,
Entonces, la probabilidad es:
2.37 Ejemplo
Supongamos que X e Y tienen una distribución uniforme conjunta en el cuadrado unitario. Por lo tanto, a continuación , . es 0 en otros lugares. Dado Y=y, X es una distribución uniforme (0,1). Podemos escribir:
De la definición de densidad condicional: Esto es muy útil en algunos casos, como en el ejemplo 2.39.
2.38 Ejemplo
Supongamos: .buscar
En el ejemplo 2.27 se puede obtener, por lo tanto:
entonces,
2.39 Ejemplo
Si X obedece ... Después de obtener el valor de X, el Y resultante obedece ... Entonces, ¿cuál es la función de distribución marginal de Y?
Primero, y por lo tanto tenemos
Entonces la función de densidad de aristas de Y es:
,en
2.40 Ejemplo
Piense en la función de densidad del ejemplo 2.28 y encuentre .
Cuando _ _ _
Pregunta ahora
2.9 Distribuciones multivariadas e IID
Sea X = (X1 , X2...Xn), donde X1,
Si para cada A1, A2,...An, hay , entonces X1, X2...Xn son independientes. Simplemente pasa la verificación.
2.41 Definición de IID
Si X1, X2,...Xn son independientes entre sí y tienen la misma función de distribución acumulativa (CDF) F, decimos que X1, X2, ...
Si la función de densidad de F es f, también se puede escribir . También llamamos a X1,...Xn n muestras aleatorias de tamaño n de F.
Gran parte de la teoría y la práctica estadística se basan en datos de observación distribuidos de forma independiente e idéntica (IID), y veremos esto en detalle cuando analicemos la estadística.
2.10 Dos distribuciones multidimensionales importantes
Multinomial (distribución multinomial) : la versión multidimensional de la distribución binomial se llama distribución multidimensional. Considere extraer 1 bola pequeña de una caja que contiene k colores diferentes. Estas bolas pequeñas están marcadas: "color1, color2... colork". p=(p1,...pk), donde pj>=0, y sea pj la probabilidad de que el color de la bola extraída sea j. Dibuje n veces (muestreo independiente con reemplazo) y sea X=(X1,X2 ..Xk) donde Xj representa el número de veces que aparece el color j, por lo que en este momento decimos que
en,
2.42 Lema
Si , entre ellos, X=(X1,X2..Xk), p=(p1,p2...pk).La distribución marginal de
Normal multivariada (distribución normal multidimensional o distribución normal multivariada): La distribución normal unidimensional tiene dos parámetros, μ y σ. En la versión multidimensional, μ es un vector y σ es una matriz Σ.
ahora ordene
Entre ellos, y son independientes entre sí, entonces la función de densidad de Z es:
Decimos que Z se ajusta a la distribución normal multivariada estándar, escrita como: , donde 0 representa un vector con k 0 elementos. La I mayúscula representa la matriz identidad.
De manera más general, si el vector X tiene la siguiente función de densidad, entonces X es un vector multidimensional distribuido normalmente, denotado como:
Que representa el determinante de Σ. μ es un vector de longitud k. Σ es una matriz definida positiva simétrica. Si μ = 0, Σ = I, se convierte en una distribución normal multidimensional estándar.
Debido a que Σ es una matriz definida positiva, simétrica, existe una matriz —llamada raíz cuadrada de Σ— que satisface las siguientes propiedades:
- También simétrico
- ,en
2.43 Teorema
Si y , entonces a la inversa, si entonces
Suponiendo que el vector normal aleatorio X se divide en X = (Xa, Xb), entonces μ se puede escribir como μ = (μa, μb) y Σ se puede escribir como
2.44 Teorema
Supongamos entonces
- La distribución marginal de Xa satisface:
- La distribución condicional de Xb bajo la condición de Xa=xa es:
- Si a es un vector, entonces
2.11 Transformación de variables aleatorias
Supongamos que X es una variable aleatoria cuyo CDF es y PDF es. Sea una función de La
2.45 Ejemplo
Si P(X=-1)=P(X=1)=1/4, P(X=0)=1/2. Sea Y=X^2. Entonces P(Y=0)=P(X= 0)=1/2,P(Y=1)=P(X=1)+P(X=-1)=1/2. Como sigue:
X | |
-1 | 1/4 |
0 | 1/2 |
1 | 1/4 |
y | |
0 | 1/2 |
1 | 1/2 |
Y tiene menos valores que X porque la conversión no es uno a uno.
Para situaciones continuas, es más complicado, aquí están los siguientes tres pasos para encontrar
- Para cada y, encuentre el conjunto
- Luego busque el CDF:
3. PDF es el derivado de CDF:
2.46 Ejemplo
Sea x>0. Por lo tanto . Supongamos . Entonces entonces
por lo tanto
2.47 Ejemplo
Supongamos que la función de densidad de PDF.X es:
Y solo puede tomar valores entre (0,9), considere dos situaciones: la primera, 0<y<1; la segunda, 1<= y < 9.
Para el primer caso, .
Para el segundo caso, ,
Tomando la derivada de F obtenemos:
Cuando r aumenta o disminuye estrictamente monótonamente, entonces r tiene su función inversa, en este caso la función de densidad se puede expresar como:
2.12 Transformación de múltiples variables aleatorias
En algunos casos, estamos interesados en transformaciones de múltiples variables aleatorias. Por ejemplo, si a X e Y se les dan variables aleatorias, podríamos conocer la distribución de X/Y, X+Y, max{X,Y}. Sea Z= Sea r(X,Y) la función que nos interesa. Entonces los pasos para encontrarla son similares a los anteriores:
- Para cada z, encuentre el conjunto
- Encuentra el CDF:
3. Luego deriva su derivada;
2.48 Ejemplo
Supongamos que y son independientes. Encuentre la función de densidad.
La función de densidad conjunta de (X1,X2) es:
Ordene , obtenga:
Ahora viene lo difícil: encontrarlo .
Primero supongamos que es un triángulo rodeado por (0,0), (y,0), (0,y), como se muestra a continuación.
En este caso, el área del triángulo es
Supongamos nuevamente , entonces son todas las áreas excepto el triángulo rodeado por (1, y - 1), (1, 1), (y - 1,1). El área de esta parte es. Por lo tanto
Derivarlo y obtener PDF
Fin de este capítulo
Sin traducir: Apéndice, tarea