Title | Ejercicios Vectores aleatorios |
---|---|
Author | Nacho Rosas |
Course | Estadística y Procesos Estocásticos |
Institution | Universidad Politécnica de Madrid |
Pages | 19 |
File Size | 316 KB |
File Type | |
Total Downloads | 371 |
Total Views | 659 |
Ejercicios de Vectores aleatorios resueltos Curso 1. Considera el experimento que consiste en extraer dos bolas con reemplazamiento de una urna que contiene tres bolas blancas y dos y las variables aleatorias discretas: ( 0 si la primera bola es blanca 1 si la primera bola es roja ( Y 0 si la segund...
Ejercicios de Vectores aleatorios resueltos Curso 2019-2020 1. Considera el experimento que consiste en extraer dos bolas con reemplazamiento de una urna que contiene tres bolas blancas y dos rojas; y las variables aleatorias discretas: ( 0 si la primera bola es blanca X= 1 si la primera bola es roja Y =
(
0 si la segunda bola es blanca 1 si la segunda bola es roja
Se pide: a) Distribuci´on de probabilidad de (X, Y ) b) Distribuciones marginales c) P (X ≤ 0, Y ≤ 0), P (X ≤ 0, Y ≤ 1), 1 1 d ) P −1 < X ≤ 1, − < Y < . 2 2
P (X ≤ 2, Y ≤ 3).
Soluci´ on.(a) La funci´on de probabilidad conjunta de (X, Y ) es: X\Y
0
0
(3/5)
1
6/25
1 2
6/25 (2/5)2
(b) P (X = 0) = 3/5 P (X = 1) = 10/25 P (Y = 0) = 3/5 P (Y = 1) = 10/25 (c) P (X ≤ 0, Y ≤ 0) = 9/25 P (X ≤ 0, Y ≤ 1) = 15/25 P (X ≤ 2, Y ≤ 3) = 1 (d) 3 5
2. Se realizan 3 extracciones sin reemplazamiento en una urna con 3 bolas blancas y 2 negras. Sea X la variable aleatoria que designa el n´ umero de bolas blancas obtenidas e sea Y la variable aleatoria que expresa el n´ umero de bolas negras extra´ıdas antes de obtener la primera blanca. a) Describe el espacio muestral asociado a este experimento y calcula la probabilidad de cada suceso elemental. b) Halla la funci´on de probabilidad conjunta de la variable aleatoria (X, Y ). c) Calcula P (X = Y ) y P (Y ≥ X/2). d ) Calcula las distribuciones marginales. Soluci´ on.a) El espacio muestral es, Ω = {bbb, bbn, bnb, bnn, nnb, nbn, nbb}
donde en cada terna se indica el color de la bola extra´ıda en primer, segundo y tercer lugar. P (bbb) = (3/5) · (2/4) · (1/3) = 1/10, P (bbn) = (3/5) · (2/4) · (2/3) = 1/5
P (bnb) = (3/5) · (2/4) · (2/3) = 1/5, P (bnn) = (3/5) · (2/4) · (1/3) = 1/10 P (nnb) = (2/5) · (1/4) · (3/3) = 1/10, P (nbn) = (2/5) · (3/4) · (1/3) = 1/10 P (nbb) = (2/5) · (3/4) · (2/3) = 1/5 b) P (X = 1, Y = 0) = P (bnn) = 1/10, P (X = 2, Y = 0) = P (bbn) + P (bnb) = 2/5 P (X = 3, Y = 0) = P (bbb) = 1/10, P (X = 1, Y = 1) = P (nbn) = 1/10 P (X = 2, Y = 1) = P (nbb) = 1/5, P (X = 3, Y = 1) = 0 P (X = 1, Y = 2) = P (nnb) = 1/10, P (X = 2, Y = 2) = 0 P (X = 3, Y = 2) = 0 c) P (X = Y ) =
3 X
P (X = i, Y = i) = P (X = 1, Y = 1) = 1/10
i=1
P (Y ≥ X/2) =
j=2 X j=1
P (X = 1, Y = j) +
j=2 X
P (X = 2, Y = j) + P (X = 3, Y = 2) = 2/5
j=1
d) P (X = 1) = 3/10, P (X = 2) = 3/5, P (X = 3) = 1/10
P (Y = 0) = 3/5, P (Y = 1) = 3/10, P (Y = 2) = 1/10
3. La variable aleatoria bidimensional (X, Y ) toma los valores (i, j), con i = 0, 1, 2 y j = −1, 1. Se sabe que P (X = 0) = 1/6, P (X = 1) = 2/3 y P (X = 2) = 1/6 y que Y toma los valores −1 y 1 con probabilidad 1/2 cada uno. Adem´as es P (X = 1, Y = 1) = 1/2. Determina la funci´on de probabilidad conjunta de (X, Y ) Soluci´ on.-
❍
❍
❍❍ X ❍ ❍
0
1
2
P(Y=j)
-1 1
a d
b 1/2
c e
1/2 1/2
P(X=i)
1/6
2/3
1/6
Y
debe ser a + b + c = 1/2, d + e = 0, a + d = 1/6, b + 1/2 = 2/3, c + e = 1/6 Pero a, b, c, d, e ∈ [0, 1], luego d = e = 0, b = 1/6, a = c = 1/6
4. Se lanza un dado y se consideran las variables aleatorias X = “doble del resultado del dado” 1 Y = 2
si el resultado del dado es impar si el resultado del dado es par
a) Halla la funci´on de probabilidad conjunta de (X, Y ).
b) Calcula la probabilidad de Y sea par si X es menor o igual que 8. Soluci´ on.a)
b) P (Y = 2/X ≤ 8) = 2 2 1 = 6 = = 4 4 2 6
Y \X 1
2
4 0
6
12
1 6
8 0
10
1 6
0
2
0
1 6
0
1 6
1 6
0
1 6
P (X ≤ 8, Y = 2) P (X = 8, Y = 2) + P (X = 4, Y = 2) = = P (X ≤ 8) P (X ≤ 8)
5. Dada la variable aleatoria (X, Y ) con funci´on de densidad: x
si 1 < x < 2, −1 < y < 1
3
f (x, y) = 0
Calcula:
en el resto
a) Las funciones de densidad marginales de X y de Y. ¿ Qu´e distribuci´on sigue Y?. X2 b) P Y > . 2 Soluci´ on.a) fX (x) =
Z 0
fY (y) =
Z
1
−1
1
2
2x x dy = 3 3
1 x dx = 3 2
0
si 1 < x < 2 en otro caso si − 1 < y < 1 en otro caso
Y ∼ U (−1, 1) Z √2 Z 1 Z √2 x x3 X2 x − dx = 1/24 dx 2 dy = b) P Y > = x 3 6 3 2 1 1 2
6. Sea (X, Y ) una variable aleatoria con funci´on de densidad conjunta ( 1 si 0 < x < 2, 0 < y < x 2 f (x, y) = 0 en el resto a) ¿Cu´ anto vale la funci´ on de densidad marginal de X en x = 1? b) Calcula P (2Y < X ). Soluci´ on.1
1 1 dy = . 2 2 0 Z 2 Z x/2 1 1 dydx = . b) P (2Y < X) = 2 2 0 0
a) fX (1) =
Z
7. Sea (X, Y ) una v.a. bidimensional con funci´on de densidad ( k si 0 < y < x < 1 f (x, y) = 0 en el resto Se pide: a) Halla k para que f (x, y) sea funci´on de densidad.
b) Las funciones de densidad marginales. ¿Son X e Y independientes? c) Halla las funciones de distribuci´on marginales. Soluci´ on.(a) k=2 (b) fX (x) =
(
2x
si
0
en el resto
fY (y) =
(
2(1 − y) 0
x ∈ (0, 1)
si en el resto
y ∈ (0, 1)
No son independientes X e Y. (c) x 1)
√ (X + Y ) ∼ N (1, 3), entonces, si Z ∼ N (0, 1),
P (X + Y ≤ 5) = P (Z ≤ 2.31) = FZ (2.31) ≃ 0.98956 X ∼ N (−1, 1), entonces, si Z ∼ N (0, 1), P (X > 1) = P (Z > 2) = 1 − FZ (2) ≃ 0.02275 luego, P (X + Y ≤ 5, X > 1) ≃ 0.02251 c) P (X ≤ t, X + Y ≤ t) = P (X ≤ t) · P (X + Y ≤ t) X +Y −1 t−1 √ = P (Z ≤ t + 1)P ≤ √ 3 3 t−1 √ = FZ (t + 1) · FZ 3
13. Cada una de las variables aleatorias X e Y siguen una distribuci´ on normal de media 1 y desviaci´ on 1 t´ıpica 1, con distribuci´on conjunta normal bidimensional, siendo el coeficiente de correlaci´on ρ = 2 . Se pide: a) La funci´on de densidad de la variable aleatoria bidimensional (U, V ) siendo U = 2X − 7Y + 8 V = X + 2Y − 1 b) P (2Y > X + 2). Soluci´ on.-
a) El vector de medias y la matriz de covarianzas de (X, Y ) son: E[X]! E[Y ]
=
! 1 , 1
Por ser U V
Var(X) Cov(X, Y ) Cov(X, Y ) Var(Y )]
!
2 −7 1 2
=
!
X Y
!
8 + −1
!
=
11 2
! 12 1
!
la variable aleatoria bidimensional (U, V ) tiene distribuci´ on normal con vector de medias 2 −7 1 2
!
1 1
!
8 + −1
!
1
1 2
!
2
1 2
1
!
=
3 2
!
y matriz de covarianzas M=
2 −7 1 2
! 1
=
−7 2
39 − 272 7 − 27 2
!
|M | = 363/4 M −1
4 = 363
7 27/2 27/2 39
!
Entonces la funci´on de densidad de la variable aleatoria bidimensional (U, V ) es f (¯ u) =
1
1
(2π )(|M |)
1 2
e− 2 ((¯u−¯µ)
)
t M −1 (¯ u−¯ µ)
b) Por ser (X, Y ) normal bidimensional, la variable aleatoria T = 2Y − X − 2 tiene distribuci´on normal de media:
E[T ] = 2E [Y ] − E [X] − 2 = −1 y varianza: Var(T ) = 4 Var(Y ) + Var(X) − 4 Cov(X, Y ) = 3 Por tanto: P (T > 0) = P
T +1 1 √ >√ 3 3
=P
1 T ablas Z>√ = 1 − φ(0.58) ≃ 0.28 3
siendo Z ∼ N (0, 1)
14. Un sistema de comunicaci´ on utiliza dos canales de transmisi´on diferentes para llevar una informaci´ on binaria, de ceros y unos. El cero se env´ıa por medio de una tensi´ on − V, y el uno por medio de una tensi´on +V.
Suponemos iguales la probabilidades de emisi´on de ceros y unos. Ambos canales distorsionan la se˜ nal emitida , S, por medio de ruidos aditivos, que pueden ser modelizados por variables aleatorias gaussianas N1 , N2 , ambas de media 0 y varianza σ 2 .
✲
canal 1L N1 ❄
• R1
S L
canal 2
N2 ✻
• R2
El receptor recibe, pues, un par de v.a (R1 , R2 ) donde, R1 = S + N1 R2 = S + N2 Las variables aleatorias S, N1 , N2 son conjuntamente independientes. A la vista de los valores recibidos del par (R1 , R2 ), el receptor decide que se ha enviado un 1 si R1 + R2 > 0 y que se ha enviado un 0 si R1 + R2 < 0. a) ¿Qu´e distribuci´ on sigue (R1 , R2 ) cuando se env´ıa un 0? ¿Son independientes R1 y R2 cuando se env´ıa un 0? b) ¿Qu´e distribuci´ on sigue (R1 , R2 ) cuando se env´ıa un 1? ¿Son independientes R1 y R2 cuando se env´ıa un 1? c) Calcula la probabilidad de error del receptor en la detecci´ on de un s´ımbolo. d ) Compara esta probabilidad de error con la que existir´ıa si hubiese un u ´ nico canal de transmisi´on y la regla de decisi´on equivalente. Soluci´ on.a) Por ser N1 e N2 independientes, la funci´ on de densidad conjunta ser´ a: y2 x2 − − 1 1 2 e 2σ 2 e 2σ · √ f(N1 ,N2 ) (x, y) =fN1 (x) · fN2 (y) = √ 2πσ 2πσ 1 = 2πσ 2
1 − x y 2 e
1 σ2
0
0 1 σ2
x y
Por lo que (N1 , N2 ) sigue una distribuci´on normal bidimensional de vector de medias µ y matriz de covarianzas M , siendo,
µ=
M= Cuando se env´ıa un 0,
0 0
!
σ2 0 0 σ2
!
R1 = −V + N1 R2 = −V + N2 R1 R2
!
=
−V −V
!
Luego, (R1 , R2 ) sigue una distribuci´on normal M ′ , siendo, ! −V 1 ′ + µ = −V 0 ! 1 0 σ2 0 M′ = 0 1 0 σ2
1 0 0 1
+
!
N1 N2
!
de vector de medias µ′ y matriz de covarianzas 0 1 !
!
0 0
!
1 0 0 1
=
!
−V −V
!
σ2 0 0 σ2
=
!
Por tanto, cuando se env´ıa un 0, R1 y R2 son independientes. b) Cuando se env´ıa un 1, R1 = V + N1 R2 = V + N2 R1 R2
!
=
V V
!
+
1 0 0 1
!
N1 N2
!
Luego, (R1 , R2 ) sigue una distribuci´on normal de vector de medias µ′′ y matriz de covarianzas M ′′, siendo, ! ! ! ! V 1 0 0 V ′′ µ = + = V 0 1 0 V ! ! ! ! 1 0 1 0 σ2 0 σ2 0 ′′ = M = 0 1 0 σ2 0 1 0 σ2 Por tanto, cuando se env´ıa un 1, R1 y R2 son independientes. c) Sea E0 el suceso “se env´ıa un 0”. Sea E1 el suceso “se env´ıa un 1”. Sea D0 el suceso “el receptor decide que se ha enviado un 0”. Sea D1 el suceso “el receptor decide que se ha enviado un 1”. P (error) = P (D1 ∩ E0 ) + P (D0 ∩ E1 ) = P (D1 /E0 )P (E0 ) + P (D0 /E1 )P (E1 ) 1 = (P (R1 + R2 > 0/E0 ) + P (R1 + R2 < 0/E1 )) 2 1 = (P (−2V + N1 + N2 > 0) + P (2V + N1 + N2 < 0)) 2 1 = (P (N1 + N2 > 2V ) + P (N1 + N2 < −2V )) 2 Pero
√ N1 + N2 ∼ N (0, 2σ)
Luego, P (error) = P siendo Z ∼ N (0, 1)
√ ! 2V Z> σ
d ) Si el sistema de transmisi´on consta de un u ´ nico canal:
✲
S
N L
❄
• R =S +N
Cuando se env´ıa un 0, R ∼ N (−V, σ )
Cuando se env´ıa un 1, R ∼ N (V, σ )
La regla de decisi´on es,
Si R > 0 se decide que se ha enviado un 1. Si R < 0 se decide que se ha enviado un 0. P (error) = P (D1 ∩ E0 ) + P (D0 ∩ E1 ) = P (D1 /E0 )P (E0 ) + P (D0 /E1 )P (E1 ) 1 = (P (R > 0/E0 ) + P (R < 0/E1 )) 2 1 = (P (−V + N > 0) + P (V + N < 0)) 2 1 = (P (N > V ) + P (N < −V )) 2 Luego,
V P (error) = P Z > σ
siendo Z ∼ N (0, 1).
Asi pues con un canal, V p1 = P (error) = P Z > σ y con dos canales,
p2 = P (error) = P
! √ 2V Z> σ
La probabilidad de error es mayor cuando s´olo hay un canal de transmisi´ on. Si quisi´eramos conservar la probabilidad de error deber´ıamos multiplicar la tensi´on con que se env´ıan los d´ıgitos √ por 2.
15. Consideremos el sistema de transmisi´on siguiente
La se˜ nal emitida, S, puede tomar los valores equiprobables 1 y -1. N1 , N2 son dos ruidos, v.a. normales, ambas de media 0 y varianza σ 2 . S, N1 , N2 son mutuamente independientes. a) ¿Qu´e distribuci´ on sigue la v.a. bidimensional (N1 , N2 )? Calcula Cov(N1 , N2 ) y E(N1 · N2 ). El receptor observa el par de valores (r1 , r2 ) de la v.a. (R1 , R2 ), donde R1 = S + N1 R2 = N1 + N2 b) Determina la distribuci´on que sigue la v.a. bidimensional (R1 , R2 ) cuando S = 1 y la v.a. bidimensional (R1 , R2 ) cuando S = −1 ¿Cu´ anto vale Cov(R1 , R2 ) cuando S = 1? ¿Cu´ anto vale ρ(R1 , R2 ) cuando S = 1 ¿Son independientes R1 y R2 cuando S = 1? A la vista del par recibido de (R1 , R2 ), el receptor decide que se ha enviado un 1 si 2R1 − R2 > 0 y que se ha enviado un -1 si 2R1 − R2 < 0 (c) Halla la probabilidad de error del sistema y comp´aralo con la probabilidad de error de un sistema con un u ´ nico canal y ruido N ∼ N (0, σ ). Soluci´ on.a) Por ser N1 e N2 independientes, la funci´ on de densidad conjunta ser´ a: y2 x2 − 1 f(N1 ,N2 ) (x, y) =fN1 (x) · fN2 (y) = √ e 2σ 2 e 2σ 2 · √ 2πσ 2πσ 1
1 = 2πσ 2
1 − x y 2 e
−
1 σ2
0
0 1 σ2
x y
Por lo que (N1 , N2 ) sigue una distribuci´on normal de vector de medias µ y matriz de covarianzas M , siendo 0 0
µ=
M=
!
σ2 0 0 σ2
Luego, Cov(N1 , N2 ) = 0 E (N1 · N2 ) = Cov(N1 , N2 ) + E (N1 ) · E(N2 ) = 0
!
b) Cuando S = 1, R1 = 1 + N1 R2 = N1 + N2 R1 R2
!
1 0
=
!
+
1 0 1 1
!
!
N1 N2
Luego, (R1 , R2 ) sigue una distribuci´on normal de vector de medias µ′ y matriz de covarianzas M ′ , con ! ! ! ! 1 1 0 0 1 ′ + = µ = 0 1 1 0 0 ′
M =
1 0 1 1
!
σ2 0 0 σ2
R1 R2
!
−1 0
!
1 1 0 1
!
1 0 1 1
!
σ2 σ2 σ 2 2σ 2
=
!
Cuando S = −1,
R1 = −1 + N1 R2 = N1 + N2
=
!
+
N1 N2
!
Luego, (R1 , R2 ) sigue una distribuci´on normal de vector de medias µ′′ y matriz de covarianzas M ′′, con µ′′ =
′′
M =
−1 0
1 0 1 1
!
!
+
1 0 1 1 !
σ2 0 0 σ2
Cuando S = 1, Cov(R1 , R2 ) = σ 2 , ρ(R1 , R2 ) =
!
0 0
!
1 1 0 1
!
!
=
−1 0
=
σ2 σ2 σ 2 2σ 2
!
√ 2/2 y por tanto R1 y R2 no son independientes.
c) Sea D1 el suceso “el receptor decide que se ha enviado 1”. Sea D−1 el suceso “el receptor decide que se ha enviado −1”. P (error) = P (D−1 ∩ (S = 1)) + P (D1 ∩ (S = −1)) = P (D−1 /S = 1)P (S = 1) + P (D1 /S = −1)P (S = −1) 1 = (P (D−1 /S = 1) + P (D1 /S = −1)) 2 1 = (P (2R1 − R2 < 0/S = 1) + P (2R1 − R2 > 0/S = −1)) 2 1 = (P (2 + N1 − N2 < 0) + P (−2 + N1 − N2 > 0)) 2 Pero
√ N1 − N2 ∼ N (0, 2σ)
Entonces P (error) = P (N1 − N2 > 2) = P Con un u ´ nico canal,
√ ! 2 , con Z ∼ N (0, 1). Z> σ
Si se env´ıa -1, se recibe R = −1 + N
si se env´ıa 1, se recibe R = 1 + N con N ∼ N (0, σ ).
Entonces, haciendo V = 1 en el ejercicio anterior tenemos, 1 . P (error) = P Z > σ
As´ı pues la probabilidad de error con un u ´ nico canal es mayor que la que hemos obtenido con los dos canales. Pero, ¿cu´ al es la clave de la mejora que supone a˜ nadir un canal ruidoso al sistema?. Lo que ocurre es que, al estar correlacionadas las salidas de los dos canales, lo recibido por el segundo canal (R2 ) nos da informaci´on sobre el ruido (N1 ) que acompa˜ na a la se˜ nal u ´ til en el primer canal.
16. Sean X1 , X2 , . . . , X144 variables aleatorias independientes id´enticamente distribuidas, con media E(Xi ) = 2 y varianza V ar(Xi ) = 4. Calcular un valor aproximado de P (X1 + X2 + . . . + X144 > 144) utilizando el Teorema Central del L´ımite. Soluci´ on.E(X1 + X2 + . . . + X144 ) = 2 · 144 V ar(X1 + X2 + . . . + X144 ) = 4 · 144. X1 + X2 + . . . + X144 sigue aproximadamente una distribuci´on Normal, de media 288 y desviaci´on t´ıpica 24. P (X1 + X2 + . . . + X144 > 144) = P (Z >
144−288 ) 24
= P (Z > −6) = 1 − FZ (−6) ≃ 1
17. Sean X1 , X2 , . . . , X625 variables aleatorias independientes id´enticamente distribuidas, con funci´ on de densidad
f (x) =
(
3(1 − x)2 si x ∈ [0, 1] 0 en otro caso
Usa el Teorema central del l´ımite para calcular aproximadamente P (X1 + X2 + . . . + X625 < 170). Soluci´ on.Z 1 3x(1 − x)2 dx = 1/4 E(Xi ) = 0 Z 2 2 V ar(Xi ) = E(X ) − (E(Xi )) =
1 0
3x2 (1 − x)2 dx −
1 = 3/80 16
E(X1 + X2 + . . . + X625 ) = 625/4
V ar(X1 + X2 + . . . + X625 ) = 625 · 3/80 = 375/16. X1 + X2 + . . . + X625 sigue aproximadamente una distribuci´ on Normal, de media 625/4 y desviaci´ on √ t´ıpica 375/4. 170 − 625 4 ) ≈ FZ (2.8402) ≃ 0.9977 P (X1 + X2 + . . . + X625 < 170) = P (Z < √ 375/4
18. Sean X1 , X2 , . . . , X100 variables aleatorias independientes e id´enticamente distribuidas con media 75 y varianza 225. Utiliza el Teorema Central del L´ımite para calcular un valor aproximado de la probabilidad de que la media aritm´etica de esas 100 variables difiera de la esperanza com´ un a todas ellas en menos de 4 unidades. Soluci´ on.Para una secuencia X1 , X2 , . . . , X100 de variables aleatorias independientes e id´enticamente distribuidas con E[Xi ] = 75 y V [Xi ] = 225 ∀i ∈ {1, 2, . . . 100} el Teorema Central del L´ımite afirma que Z100 =
X1 + . . . + X100 − 100 · 75 √ √ 225 · 100
sigue, aproximadamente, una distribuci´on normal de media 0 y varianza 1, o equivalentemente X1 + . . . + X100 tiene, aproximadamente una distribuci´ on normal de media 100 · 75 y desviaci´on t´ıpica √ √ 100 · 225. ¯ − 75 < 4) = ¯ = X1 + . . . X100 entonces, P (| X ¯ − 75| < 4) = P (−4 < X Si X 100 X1 + . . . X100 X1 + . . . X100 − 100 · 75 = P −4 ...