Ejercicios Vectores aleatorios PDF

Title Ejercicios Vectores aleatorios
Author Nacho Rosas
Course Estadística y Procesos Estocásticos
Institution Universidad Politécnica de Madrid
Pages 19
File Size 316 KB
File Type PDF
Total Downloads 371
Total Views 659

Summary

Ejercicios de Vectores aleatorios resueltos Curso 1. Considera el experimento que consiste en extraer dos bolas con reemplazamiento de una urna que contiene tres bolas blancas y dos y las variables aleatorias discretas: ( 0 si la primera bola es blanca 1 si la primera bola es roja ( Y 0 si la segund...


Description

Ejercicios de Vectores aleatorios resueltos Curso 2019-2020 1. Considera el experimento que consiste en extraer dos bolas con reemplazamiento de una urna que contiene tres bolas blancas y dos rojas; y las variables aleatorias discretas: ( 0 si la primera bola es blanca X= 1 si la primera bola es roja Y =

(

0 si la segunda bola es blanca 1 si la segunda bola es roja

Se pide: a) Distribuci´on de probabilidad de (X, Y ) b) Distribuciones marginales c) P (X ≤ 0, Y ≤ 0), P (X ≤ 0, Y ≤ 1),   1 1 d ) P −1 < X ≤ 1, − < Y < . 2 2

P (X ≤ 2, Y ≤ 3).

Soluci´ on.(a) La funci´on de probabilidad conjunta de (X, Y ) es: X\Y

0

0

(3/5)

1

6/25

1 2

6/25 (2/5)2

(b) P (X = 0) = 3/5 P (X = 1) = 10/25 P (Y = 0) = 3/5 P (Y = 1) = 10/25 (c) P (X ≤ 0, Y ≤ 0) = 9/25 P (X ≤ 0, Y ≤ 1) = 15/25 P (X ≤ 2, Y ≤ 3) = 1 (d) 3 5

2. Se realizan 3 extracciones sin reemplazamiento en una urna con 3 bolas blancas y 2 negras. Sea X la variable aleatoria que designa el n´ umero de bolas blancas obtenidas e sea Y la variable aleatoria que expresa el n´ umero de bolas negras extra´ıdas antes de obtener la primera blanca. a) Describe el espacio muestral asociado a este experimento y calcula la probabilidad de cada suceso elemental. b) Halla la funci´on de probabilidad conjunta de la variable aleatoria (X, Y ). c) Calcula P (X = Y ) y P (Y ≥ X/2). d ) Calcula las distribuciones marginales. Soluci´ on.a) El espacio muestral es, Ω = {bbb, bbn, bnb, bnn, nnb, nbn, nbb}

donde en cada terna se indica el color de la bola extra´ıda en primer, segundo y tercer lugar. P (bbb) = (3/5) · (2/4) · (1/3) = 1/10, P (bbn) = (3/5) · (2/4) · (2/3) = 1/5

P (bnb) = (3/5) · (2/4) · (2/3) = 1/5, P (bnn) = (3/5) · (2/4) · (1/3) = 1/10 P (nnb) = (2/5) · (1/4) · (3/3) = 1/10, P (nbn) = (2/5) · (3/4) · (1/3) = 1/10 P (nbb) = (2/5) · (3/4) · (2/3) = 1/5 b) P (X = 1, Y = 0) = P (bnn) = 1/10, P (X = 2, Y = 0) = P (bbn) + P (bnb) = 2/5 P (X = 3, Y = 0) = P (bbb) = 1/10, P (X = 1, Y = 1) = P (nbn) = 1/10 P (X = 2, Y = 1) = P (nbb) = 1/5, P (X = 3, Y = 1) = 0 P (X = 1, Y = 2) = P (nnb) = 1/10, P (X = 2, Y = 2) = 0 P (X = 3, Y = 2) = 0 c) P (X = Y ) =

3 X

P (X = i, Y = i) = P (X = 1, Y = 1) = 1/10

i=1

P (Y ≥ X/2) =

j=2 X j=1

P (X = 1, Y = j) +

j=2 X

P (X = 2, Y = j) + P (X = 3, Y = 2) = 2/5

j=1

d) P (X = 1) = 3/10, P (X = 2) = 3/5, P (X = 3) = 1/10

P (Y = 0) = 3/5, P (Y = 1) = 3/10, P (Y = 2) = 1/10

3. La variable aleatoria bidimensional (X, Y ) toma los valores (i, j), con i = 0, 1, 2 y j = −1, 1. Se sabe que P (X = 0) = 1/6, P (X = 1) = 2/3 y P (X = 2) = 1/6 y que Y toma los valores −1 y 1 con probabilidad 1/2 cada uno. Adem´as es P (X = 1, Y = 1) = 1/2. Determina la funci´on de probabilidad conjunta de (X, Y ) Soluci´ on.-





❍❍ X ❍ ❍

0

1

2

P(Y=j)

-1 1

a d

b 1/2

c e

1/2 1/2

P(X=i)

1/6

2/3

1/6

Y

debe ser a + b + c = 1/2, d + e = 0, a + d = 1/6, b + 1/2 = 2/3, c + e = 1/6 Pero a, b, c, d, e ∈ [0, 1], luego d = e = 0, b = 1/6, a = c = 1/6

4. Se lanza un dado y se consideran las variables aleatorias X = “doble del resultado del dado”  1 Y = 2

si el resultado del dado es impar si el resultado del dado es par

a) Halla la funci´on de probabilidad conjunta de (X, Y ).

b) Calcula la probabilidad de Y sea par si X es menor o igual que 8. Soluci´ on.a)

b) P (Y = 2/X ≤ 8) = 2 2 1 = 6 = = 4 4 2 6

Y \X 1

2

4 0

6

12

1 6

8 0

10

1 6

0

2

0

1 6

0

1 6

1 6

0

1 6

P (X ≤ 8, Y = 2) P (X = 8, Y = 2) + P (X = 4, Y = 2) = = P (X ≤ 8) P (X ≤ 8)

5. Dada la variable aleatoria (X, Y ) con funci´on de densidad:  x

si 1 < x < 2, −1 < y < 1

3

f (x, y) = 0

Calcula:

en el resto

a) Las funciones de densidad marginales de X y de Y. ¿ Qu´e distribuci´on sigue Y?.   X2 b) P Y > . 2 Soluci´ on.a) fX (x) =

Z    0

fY (y) =

Z  

1

−1

1

2

2x x dy = 3 3

1 x dx = 3 2

 0

si 1 < x < 2 en otro caso si − 1 < y < 1 en otro caso

Y ∼ U (−1, 1)    Z √2 Z 1 Z √2  x x3 X2 x − dx = 1/24 dx 2 dy = b) P Y > = x 3 6 3 2 1 1 2

6. Sea (X, Y ) una variable aleatoria con funci´on de densidad conjunta ( 1 si 0 < x < 2, 0 < y < x 2 f (x, y) = 0 en el resto a) ¿Cu´ anto vale la funci´ on de densidad marginal de X en x = 1? b) Calcula P (2Y < X ). Soluci´ on.1

1 1 dy = . 2 2 0 Z 2 Z x/2 1 1 dydx = . b) P (2Y < X) = 2 2 0 0

a) fX (1) =

Z

7. Sea (X, Y ) una v.a. bidimensional con funci´on de densidad ( k si 0 < y < x < 1 f (x, y) = 0 en el resto Se pide: a) Halla k para que f (x, y) sea funci´on de densidad.

b) Las funciones de densidad marginales. ¿Son X e Y independientes? c) Halla las funciones de distribuci´on marginales. Soluci´ on.(a) k=2 (b) fX (x) =

(

2x

si

0

en el resto

fY (y) =

(

2(1 − y) 0

x ∈ (0, 1)

si en el resto

y ∈ (0, 1)

No son independientes X e Y. (c)  x 1)

√ (X + Y ) ∼ N (1, 3), entonces, si Z ∼ N (0, 1),

P (X + Y ≤ 5) = P (Z ≤ 2.31) = FZ (2.31) ≃ 0.98956 X ∼ N (−1, 1), entonces, si Z ∼ N (0, 1), P (X > 1) = P (Z > 2) = 1 − FZ (2) ≃ 0.02275 luego, P (X + Y ≤ 5, X > 1) ≃ 0.02251 c) P (X ≤ t, X + Y ≤ t) = P (X ≤ t) · P (X + Y ≤ t)   X +Y −1 t−1 √ = P (Z ≤ t + 1)P ≤ √ 3 3   t−1 √ = FZ (t + 1) · FZ 3

13. Cada una de las variables aleatorias X e Y siguen una distribuci´ on normal de media 1 y desviaci´ on 1 t´ıpica 1, con distribuci´on conjunta normal bidimensional, siendo el coeficiente de correlaci´on ρ = 2 . Se pide: a) La funci´on de densidad de la variable aleatoria bidimensional (U, V ) siendo U = 2X − 7Y + 8 V = X + 2Y − 1 b) P (2Y > X + 2). Soluci´ on.-

a) El vector de medias y la matriz de covarianzas de (X, Y ) son: E[X]! E[Y ]

=

! 1 , 1

Por ser U V

Var(X) Cov(X, Y ) Cov(X, Y ) Var(Y )]

!

2 −7 1 2

=

!

X Y

!

8 + −1

!

=

11 2

! 12 1

!

la variable aleatoria bidimensional (U, V ) tiene distribuci´ on normal con vector de medias 2 −7 1 2

!

1 1

!

8 + −1

!

1

1 2

!

2

1 2

1

!

=

3 2

!

y matriz de covarianzas M=

2 −7 1 2

! 1

=

−7 2

39 − 272 7 − 27 2

!

|M | = 363/4 M −1

4 = 363

7 27/2 27/2 39

!

Entonces la funci´on de densidad de la variable aleatoria bidimensional (U, V ) es f (¯ u) =

1

1

(2π )(|M |)

1 2

e− 2 ((¯u−¯µ)

)

t M −1 (¯ u−¯ µ)

b) Por ser (X, Y ) normal bidimensional, la variable aleatoria T = 2Y − X − 2 tiene distribuci´on normal de media:

E[T ] = 2E [Y ] − E [X] − 2 = −1 y varianza: Var(T ) = 4 Var(Y ) + Var(X) − 4 Cov(X, Y ) = 3 Por tanto: P (T > 0) = P



T +1 1 √ >√ 3 3



=P

  1 T ablas Z>√ = 1 − φ(0.58) ≃ 0.28 3

siendo Z ∼ N (0, 1)

14. Un sistema de comunicaci´ on utiliza dos canales de transmisi´on diferentes para llevar una informaci´ on binaria, de ceros y unos. El cero se env´ıa por medio de una tensi´ on − V, y el uno por medio de una tensi´on +V.

Suponemos iguales la probabilidades de emisi´on de ceros y unos. Ambos canales distorsionan la se˜ nal emitida , S, por medio de ruidos aditivos, que pueden ser modelizados por variables aleatorias gaussianas N1 , N2 , ambas de media 0 y varianza σ 2 .



canal 1L N1 ❄

• R1

S L

canal 2

N2 ✻

• R2

El receptor recibe, pues, un par de v.a (R1 , R2 ) donde, R1 = S + N1 R2 = S + N2 Las variables aleatorias S, N1 , N2 son conjuntamente independientes. A la vista de los valores recibidos del par (R1 , R2 ), el receptor decide que se ha enviado un 1 si R1 + R2 > 0 y que se ha enviado un 0 si R1 + R2 < 0. a) ¿Qu´e distribuci´ on sigue (R1 , R2 ) cuando se env´ıa un 0? ¿Son independientes R1 y R2 cuando se env´ıa un 0? b) ¿Qu´e distribuci´ on sigue (R1 , R2 ) cuando se env´ıa un 1? ¿Son independientes R1 y R2 cuando se env´ıa un 1? c) Calcula la probabilidad de error del receptor en la detecci´ on de un s´ımbolo. d ) Compara esta probabilidad de error con la que existir´ıa si hubiese un u ´ nico canal de transmisi´on y la regla de decisi´on equivalente. Soluci´ on.a) Por ser N1 e N2 independientes, la funci´ on de densidad conjunta ser´ a: y2 x2 − − 1 1 2 e 2σ 2 e 2σ · √ f(N1 ,N2 ) (x, y) =fN1 (x) · fN2 (y) = √ 2πσ 2πσ 1 = 2πσ 2



1  −  x y 2 e

  1  σ2 

0

0 1 σ2

  

x y

  

Por lo que (N1 , N2 ) sigue una distribuci´on normal bidimensional de vector de medias µ y matriz de covarianzas M , siendo,

µ=

M= Cuando se env´ıa un 0,

0 0

!

σ2 0 0 σ2

!

R1 = −V + N1 R2 = −V + N2 R1 R2

!

=

−V −V

!

Luego, (R1 , R2 ) sigue una distribuci´on normal M ′ , siendo, ! −V 1 ′ + µ = −V 0 ! 1 0 σ2 0 M′ = 0 1 0 σ2

1 0 0 1

+

!

N1 N2

!

de vector de medias µ′ y matriz de covarianzas 0 1 !

!

0 0

!

1 0 0 1

=

!

−V −V

!

σ2 0 0 σ2

=

!

Por tanto, cuando se env´ıa un 0, R1 y R2 son independientes. b) Cuando se env´ıa un 1, R1 = V + N1 R2 = V + N2 R1 R2

!

=

V V

!

+

1 0 0 1

!

N1 N2

!

Luego, (R1 , R2 ) sigue una distribuci´on normal de vector de medias µ′′ y matriz de covarianzas M ′′, siendo, ! ! ! ! V 1 0 0 V ′′ µ = + = V 0 1 0 V ! ! ! ! 1 0 1 0 σ2 0 σ2 0 ′′ = M = 0 1 0 σ2 0 1 0 σ2 Por tanto, cuando se env´ıa un 1, R1 y R2 son independientes. c) Sea E0 el suceso “se env´ıa un 0”. Sea E1 el suceso “se env´ıa un 1”. Sea D0 el suceso “el receptor decide que se ha enviado un 0”. Sea D1 el suceso “el receptor decide que se ha enviado un 1”. P (error) = P (D1 ∩ E0 ) + P (D0 ∩ E1 ) = P (D1 /E0 )P (E0 ) + P (D0 /E1 )P (E1 ) 1 = (P (R1 + R2 > 0/E0 ) + P (R1 + R2 < 0/E1 )) 2 1 = (P (−2V + N1 + N2 > 0) + P (2V + N1 + N2 < 0)) 2 1 = (P (N1 + N2 > 2V ) + P (N1 + N2 < −2V )) 2 Pero

√ N1 + N2 ∼ N (0, 2σ)

Luego, P (error) = P siendo Z ∼ N (0, 1)

√ ! 2V Z> σ

d ) Si el sistema de transmisi´on consta de un u ´ nico canal:



S

N L



• R =S +N

Cuando se env´ıa un 0, R ∼ N (−V, σ )

Cuando se env´ıa un 1, R ∼ N (V, σ )

La regla de decisi´on es,

Si R > 0 se decide que se ha enviado un 1. Si R < 0 se decide que se ha enviado un 0. P (error) = P (D1 ∩ E0 ) + P (D0 ∩ E1 ) = P (D1 /E0 )P (E0 ) + P (D0 /E1 )P (E1 ) 1 = (P (R > 0/E0 ) + P (R < 0/E1 )) 2 1 = (P (−V + N > 0) + P (V + N < 0)) 2 1 = (P (N > V ) + P (N < −V )) 2 Luego,

  V P (error) = P Z > σ

siendo Z ∼ N (0, 1).

Asi pues con un canal,   V p1 = P (error) = P Z > σ y con dos canales,

p2 = P (error) = P

! √ 2V Z> σ

La probabilidad de error es mayor cuando s´olo hay un canal de transmisi´ on. Si quisi´eramos conservar la probabilidad de error deber´ıamos multiplicar la tensi´on con que se env´ıan los d´ıgitos √ por 2.

15. Consideremos el sistema de transmisi´on siguiente

La se˜ nal emitida, S, puede tomar los valores equiprobables 1 y -1. N1 , N2 son dos ruidos, v.a. normales, ambas de media 0 y varianza σ 2 . S, N1 , N2 son mutuamente independientes. a) ¿Qu´e distribuci´ on sigue la v.a. bidimensional (N1 , N2 )? Calcula Cov(N1 , N2 ) y E(N1 · N2 ). El receptor observa el par de valores (r1 , r2 ) de la v.a. (R1 , R2 ), donde R1 = S + N1 R2 = N1 + N2 b) Determina la distribuci´on que sigue la v.a. bidimensional (R1 , R2 ) cuando S = 1 y la v.a. bidimensional (R1 , R2 ) cuando S = −1 ¿Cu´ anto vale Cov(R1 , R2 ) cuando S = 1? ¿Cu´ anto vale ρ(R1 , R2 ) cuando S = 1 ¿Son independientes R1 y R2 cuando S = 1? A la vista del par recibido de (R1 , R2 ), el receptor decide que se ha enviado un 1 si 2R1 − R2 > 0 y que se ha enviado un -1 si 2R1 − R2 < 0 (c) Halla la probabilidad de error del sistema y comp´aralo con la probabilidad de error de un sistema con un u ´ nico canal y ruido N ∼ N (0, σ ). Soluci´ on.a) Por ser N1 e N2 independientes, la funci´ on de densidad conjunta ser´ a: y2 x2 − 1 f(N1 ,N2 ) (x, y) =fN1 (x) · fN2 (y) = √ e 2σ 2 e 2σ 2 · √ 2πσ 2πσ 1

1 = 2πσ 2



1  −  x y 2 e



 1   σ2 

0

0 1 σ2

  

x y

  

Por lo que (N1 , N2 ) sigue una distribuci´on normal de vector de medias µ y matriz de covarianzas M , siendo 0 0

µ=

M=

!

σ2 0 0 σ2

Luego, Cov(N1 , N2 ) = 0 E (N1 · N2 ) = Cov(N1 , N2 ) + E (N1 ) · E(N2 ) = 0

!

b) Cuando S = 1, R1 = 1 + N1 R2 = N1 + N2 R1 R2

!

1 0

=

!

+

1 0 1 1

!

!

N1 N2

Luego, (R1 , R2 ) sigue una distribuci´on normal de vector de medias µ′ y matriz de covarianzas M ′ , con ! ! ! ! 1 1 0 0 1 ′ + = µ = 0 1 1 0 0 ′

M =

1 0 1 1

!

σ2 0 0 σ2

R1 R2

!

−1 0

!

1 1 0 1

!

1 0 1 1

!

σ2 σ2 σ 2 2σ 2

=

!

Cuando S = −1,

R1 = −1 + N1 R2 = N1 + N2

=

!

+

N1 N2

!

Luego, (R1 , R2 ) sigue una distribuci´on normal de vector de medias µ′′ y matriz de covarianzas M ′′, con µ′′ =

′′

M =

−1 0

1 0 1 1

!

!

+

1 0 1 1 !

σ2 0 0 σ2

Cuando S = 1, Cov(R1 , R2 ) = σ 2 , ρ(R1 , R2 ) =

!

0 0

!

1 1 0 1

!

!

=

−1 0

=

σ2 σ2 σ 2 2σ 2

!

√ 2/2 y por tanto R1 y R2 no son independientes.

c) Sea D1 el suceso “el receptor decide que se ha enviado 1”. Sea D−1 el suceso “el receptor decide que se ha enviado −1”. P (error) = P (D−1 ∩ (S = 1)) + P (D1 ∩ (S = −1)) = P (D−1 /S = 1)P (S = 1) + P (D1 /S = −1)P (S = −1) 1 = (P (D−1 /S = 1) + P (D1 /S = −1)) 2 1 = (P (2R1 − R2 < 0/S = 1) + P (2R1 − R2 > 0/S = −1)) 2 1 = (P (2 + N1 − N2 < 0) + P (−2 + N1 − N2 > 0)) 2 Pero

√ N1 − N2 ∼ N (0, 2σ)

Entonces P (error) = P (N1 − N2 > 2) = P Con un u ´ nico canal,

√ ! 2 , con Z ∼ N (0, 1). Z> σ

Si se env´ıa -1, se recibe R = −1 + N

si se env´ıa 1, se recibe R = 1 + N con N ∼ N (0, σ ).

Entonces, haciendo V = 1 en el ejercicio anterior tenemos,   1 . P (error) = P Z > σ

As´ı pues la probabilidad de error con un u ´ nico canal es mayor que la que hemos obtenido con los dos canales. Pero, ¿cu´ al es la clave de la mejora que supone a˜ nadir un canal ruidoso al sistema?. Lo que ocurre es que, al estar correlacionadas las salidas de los dos canales, lo recibido por el segundo canal (R2 ) nos da informaci´on sobre el ruido (N1 ) que acompa˜ na a la se˜ nal u ´ til en el primer canal.

16. Sean X1 , X2 , . . . , X144 variables aleatorias independientes id´enticamente distribuidas, con media E(Xi ) = 2 y varianza V ar(Xi ) = 4. Calcular un valor aproximado de P (X1 + X2 + . . . + X144 > 144) utilizando el Teorema Central del L´ımite. Soluci´ on.E(X1 + X2 + . . . + X144 ) = 2 · 144 V ar(X1 + X2 + . . . + X144 ) = 4 · 144. X1 + X2 + . . . + X144 sigue aproximadamente una distribuci´on Normal, de media 288 y desviaci´on t´ıpica 24. P (X1 + X2 + . . . + X144 > 144) = P (Z >

144−288 ) 24

= P (Z > −6) = 1 − FZ (−6) ≃ 1

17. Sean X1 , X2 , . . . , X625 variables aleatorias independientes id´enticamente distribuidas, con funci´ on de densidad

f (x) =

(

3(1 − x)2 si x ∈ [0, 1] 0 en otro caso

Usa el Teorema central del l´ımite para calcular aproximadamente P (X1 + X2 + . . . + X625 < 170). Soluci´ on.Z 1 3x(1 − x)2 dx = 1/4 E(Xi ) = 0 Z 2 2 V ar(Xi ) = E(X ) − (E(Xi )) =

1 0

3x2 (1 − x)2 dx −

1 = 3/80 16

E(X1 + X2 + . . . + X625 ) = 625/4

V ar(X1 + X2 + . . . + X625 ) = 625 · 3/80 = 375/16. X1 + X2 + . . . + X625 sigue aproximadamente una distribuci´ on Normal, de media 625/4 y desviaci´ on √ t´ıpica 375/4. 170 − 625 4 ) ≈ FZ (2.8402) ≃ 0.9977 P (X1 + X2 + . . . + X625 < 170) = P (Z < √ 375/4

18. Sean X1 , X2 , . . . , X100 variables aleatorias independientes e id´enticamente distribuidas con media 75 y varianza 225. Utiliza el Teorema Central del L´ımite para calcular un valor aproximado de la probabilidad de que la media aritm´etica de esas 100 variables difiera de la esperanza com´ un a todas ellas en menos de 4 unidades. Soluci´ on.Para una secuencia X1 , X2 , . . . , X100 de variables aleatorias independientes e id´enticamente distribuidas con E[Xi ] = 75 y V [Xi ] = 225 ∀i ∈ {1, 2, . . . 100} el Teorema Central del L´ımite afirma que Z100 =

X1 + . . . + X100 − 100 · 75 √ √ 225 · 100

sigue, aproximadamente, una distribuci´on normal de media 0 y varianza 1, o equivalentemente X1 + . . . + X100 tiene, aproximadamente una distribuci´ on normal de media 100 · 75 y desviaci´on t´ıpica √ √ 100 · 225. ¯ − 75 < 4) = ¯ = X1 + . . . X100 entonces, P (| X ¯ − 75| < 4) = P (−4 < X Si X 100     X1 + . . . X100 X1 + . . . X100 − 100 · 75 = P −4 ...


Similar Free PDFs