Wektory-losowe - Wykład wektory losowe. PDF

Title Wektory-losowe - Wykład wektory losowe.
Course Statystyka i rachunek prawdopodobieństwa
Institution Politechnika Lódzka
Pages 38
File Size 710.4 KB
File Type PDF
Total Downloads 2
Total Views 183

Summary

Wykład wektory losowe....


Description

Wersja: 14.01.2020 Notatki zostały sporządzone na podstawie J. Jakubowski, R. Sztencel Rachunek prawdopodobienstwa dla prawie każdego, paragrafy 4.5, 5.1, 5.2. 5.4. 6.1, 6.2

Wielowymiarowe zmienne losowe Niech (Ω, F , P) będzie przestrzenią probabilistyczną. Niech N ∈ N będzie ustaloną liczbą naturalną.

Kowariancja i współczynnik korelacji Rozpoczniemy od wprowadzenia podstawowego pojęcia opisującego związek między zmiennymi losowymi. Definicja 1. Niech X, Y : Ω → R będą całkowalnymi zmiennymi losowymi spełniającymi warunek E [XY ] < +∞. Wielkość Cov(X, Y ) := E[(X − EX )(Y − EY )] nazywamy kowariancją (ang. covariance) zmiennych losowych X i Y . Podamy teraz inny, równoważny sposób obliczania kowariancji zmiennych losowych. Stwierdzenie 2. Niech X, Y : Ω → R będą całkowalnymi zmiennymi losowymi spełniającymi warunek E [XY ] < +∞. Wtedy Cov(X, Y ) = E[XY ] − E[X]E[Y ]. Zajmiemy się teraz przypadkiem szczególnym, gdy współczynnik korelacji wynosi zero.

1

Definicja 3. Niech X, Y : Ω → R będą całkowalnymi zmiennymi losowymi spełniającymi warunek E [XY ] < +∞. Jeżeli Cov(X, Y ) = 0, to zmienne losowe nazywamy nieskorelowanymi (ang. uncorrelated random variables). Teraz zajmiemy się oszacowaniem kowariancji. Stwierdzenie 4. Niech X, Y : Ω → R będą zmiennymi losowymi całkowalnymi z kwadratem1 . Wtedy E [XY ] < +∞ oraz | Cov(X, Y )| ≤

p

Var(X) Var(Y ).

Równość zachodzi wtedy i tylko wtedy, gdy zmienne losowe X i Y są związane z prawdopodobieństwem 1 zależnością liniową, tzn. istnieje taka stała c ∈ R, że aX + bY = c dla pewnych stałych a, b spełniających warunek a2 + b2 > 0. Przypominamy, że równość zmiennych losowych rozumiemy z dokładnością do zbiorów miary zero. Wprowadzimy teraz pojęcie współczynnika korelacji. Definicja 5. Jeżeli zmienne losowe X, Y : Ω → R są całkowalne z kwadratem oraz Var(X) > 0 i Var(Y ) > 0, to liczbę ρ(X, Y ) = p

Cov(X, Y ) Var(X) Var(Y )

nazywamy współczynnikiem korelacji zmiennych losowych X i Y (ang. correlation coefficient). Stwierdzenie 6. Niech zmienne losowe X, Y : Ω → R będą całkowalne z kwadratem oraz Var(X) > 0 i Var(Y ) > 0. Wtedy 1

Przypomnijmy, że zmienna losowa X jest całkowalna z kwadratem, jeżeli Z X 2 dP < ∞. Ω

2

(i) ρ(X, Y ) ∈ [−1, 1]. (ii) Cov(X, Y ) = Cov(Y, X). (iii) Współczynnik korelacji przyjmuje wartość ±1 wtedy i tylko wtedy, gdy istnieje zależność liniowa między zmiennymi losowymi. Podamy teraz wzór na obliczenie wariancji sumy zmiennych losowych. Twierdzenie 7. Jeżeli zmienne losowe X1 , . . . , Xn określone na przestrzeni probabilistycznej (Ω, F , P) mają skończoną wariancję, to Var(X1 + · · · + Xn ) =

n X

Var(Xi ) + 2

X

Cov(Xi , Xj ).

1≤i Y ) oraz wyznaczyć dystrybuantę zmiennej losowej X . 11

Rozwiązanie Zauważmy, że C ≥ 0, bo f ≥ 0. Niech   D := (x, y) ∈ R2 : x > 0, y > 0, x2 + y 2 < 1 .

Sprawdzamy warunek normujący: 1=C

ZZ D



Z 1 Z1−x2 xy dxdy = C xy dxdy 0

0

Z1 Z 1  2 y=√1−x2 C y dx = x(1 − x2 )dx =C x 2 2 y=0 0 0   Z1 Z1 C C =  xdx − x3 dx  = . 2 8 0

0

Stąd C = 8. Zauważmy, że

P(X = Y ) = P((X, Y ) ∈ {(x, y) : x = y}) ZZ f (x, y)dxdy = 0 = {(x,y):x=y}

bo ℓ2 ({(x, y ) : x = y}) = 0.

Uzasadnienie bez odwoływania się do miary Lebesgue’a:   Z+∞ Z y ZZ  f (x, y)dx dy f (x, y)dxdy = y

−∞

{(x,y):x=y}

Z+∞

0 dy = 0

=

−∞

P(X > Y ) = P((X, Y ) ∈ {(x, y) : x > y}) ZZ f (x, y )dxdy = {(x,y):x>y}

=

ZZ

{(x,y):x>y,x>0,y>0,x2 +y 2 y,x>0,y>0,x2 +y2 1000) =

 1 1 − e−1000λ . 10

Teraz rozważymy przykład pokazujący, że znajomość rozkładów brzegowych nie jest wystarczająca do opisu rozkładu łącznego wektora.   Przykład 29. Niech ε ∈ 0, 14 i niech rozkład wektora losowego X = (X, Y ) będzie zadany w następujący sposób: Y

Y =0

X

Y =1

X=0

1 8



0

X=1

1 4

−ε 3 8

Y =2

3 8

−ε

1 2

1 4

ε

1 2

1 4

3 8

1

Rozkład łączny zależy od ε, natomiast rozkłady brzegowe nie zależą od ε. 14

Podamy teraz formalną definicję dwuwymiarowego wektora losowego. Definicja 30. Funkcję FX : R2 → [0, 1] nazywamy dystrybuantą dwuwymiarowego wektora losowego X = (X, Y ) (ang. joint cumulative distribution function), jeżeli FX (x, y) = P(X ≤ x, Y ≤ y) = µX ((−∞, x] × (−∞, y ]) ,

x, y ∈ R.

Twierdzenie 31 (Własności dystrybuanty rozkładu dwuwymiarowego wektora losowego). Niech X: Ω → R2 będzie dowolnym wektorem losowym o składowych X i Y , tzn. X = (X, Y ) i niech FX : R2 → [0, 1] będzie dystrybuantą dwuwymiarowego wektora losowego X. Wtedy 1. dla dowolnych x, y ∈ R zachodzi (i) FX (x, y ) → 0, gdy min(x, y ) → −∞

(ii)

tzn. przynajmniej jedna ze zmiennych x lub y zmierza do −∞. FX (x, y ) → 0, gdy min(x, y ) → +∞

tzn. obie zmienne x i y zmierzają do +∞.

2. (prawostronna ciągłość) dla dowolnych x, y ∈ R zachodzi FX (x, y) = lim lim FX (x + h1 , y + h2 ). h1 ↓0 h2 ↓0

Stwierdzenie 32. Jeżeli rozkład wektora losowego jest absolutnie ciągły, to gęstość wektora losowego można obliczyć według następującego wzoru: f (x, y) =

∂2 F (x, y), ∂x∂y

ℓ2 − p.w.

Odwrotnie, jeżeli f : R2 → [0, ∞) jest gęstością dwuwymiarowego wektora losowego, to Zx Zy f (u, v)dudv. F (x, y) = −∞−∞

Przykład 33. Dwuwymiarowy wektor losowy X = (X, Y ) ma gęstość 1 f (x, y) = 1(0,1)(x)1(0,4x) (y), 2

x, y ∈ R.

Wyznaczyć dystrybuantę rozkładu łącznego wektora X. 15

Dystrybuanta jest postaci  0,     0,    2    12 xy − y4 , F (x, y) = x2 ,   0,    2    1 − (1 − y) ,  1,

dla x ∈ (−∞, 0], y ∈ R; dla x ∈ (0, 1], y ∈ (−∞, 0]; dla x ∈ (0, 1], y ∈ (0, 4x]; dla x ∈ (0, 1], y ∈ (4x, +∞); dla x ∈ (1, +∞), y ∈ (−∞, 0]; dla x ∈ (1, +∞), y ∈ (0, 4]; dla x ∈ (1, +∞), y ∈ (4, +∞).

Parametry rozkładów Podamy teraz odpowiedniki wartości oczekiwanej i wariancji w przypadku wektorów losowych. Definicja 34. Niech X = (X1 , . . . , XN ) : Ω → RN będzie N -wymiarowym wektorem losowym. Załóżmy, że dla każdego i = 1, . . . , N zmienna losowa Xi ma skończoną wartość oczekiwaną. Wartością oczekiwaną (ang. expectation) wektora X nazywamy wektor EX = (EX1 , . . . , EXN ). Definicja 35. Niech X = (X1 , . . . , XN ) : Ω → RN będzie N -wymiarowym wektorem losowym. Załóżmy, że dla każdego i = 1, . . . , N zmienna losowa Xi ma skończoną wariancję. Macierzą kowariancji wektora X (ang. covariance matrix of a random vector X) nazywamy macierz QX = [Cov(Xi , Xj )]i,j =1,...,N . Twierdzenie 36 (Własności macierzy kowariancji). Niech X = (X1 , . . . , XN ) : Ω → RN będzie N -wymiarowym wektorem losowym. Załóżmy, że dla każdego i = 1, . . . , N zmienna losowa Xi ma skończoną wariancję. Niech QX = [cij ]i,j =1,...,N , gdzie cij = Cov(Xi , Xj ). Wtedy (i) macierz kowariancji jest symetryczna, tzn. [cij ]i,j=1,...,N = [cj i ]i,j =1,...,N ,

16

(ii) macierz kowariancji jest nieujemnie określona, tzn. dla dowolnego ciągu liczb rzeczywistych t1 , . . . , tN zachodzi warunek: N N X X i=1 j=1

ti tj cij ≥ 0.

Twierdzenie 37. Niech X: Ω → R2 będzie dowolnym wektorem losowym o składowych X i Y , tzn. X = (X, Y ) i niech h : R2 → R będzie funkcją borelowską. Załóżmy, że E[h(X, Y )] < +∞. (i) Jeżeli X ma rozkład ciągły z gęstością f , to ZZ h(x, y )f (x, y )dxdy. E[h(X, Y )] = R2

(ii) Jeżeli X ma rozkład dyskretny, to X X E[h(X, Y )] = h(x, y)P(X = xi , Y = yi ), xi ∈SX yi ∈SY

gdzie SX oraz SY są nośnikami zmiennych losowych odpowiednio X i Y. Przykład 38. Załóżmy, że wektor losowy X = (X, Y ) ma rozkład Y

X

Y =0

Y =1

X=1

1 6

1 3

1 2

X=2

1 4

1 4

1 2

5 12

7 12

17

Obliczyć E[X + Y + XY 2 ]. Zauważmy, że do obliczenia E[XY 2 ] potrzebny jest łączny rozkład wektora X = (X, Y ). Mamy E[X + Y + XY 2 ] = E[X] + E[Y ] + E[XY 2 ] 1 7 5 1 +0· = 1· +2· +1· 2 2 12 12 1 1 + 1 · 12 · + 2 · 12 · 3 4 35 2 1 2 1 +1·0 · +2·0 · = 12 6 4

Niezależne zmienne losowe Przypominamy, że symbol X ∈ B oznacza zdarzenie X −1 (B). Definicja 39. Zmienne losowe X1 , . . . , XN : Ω → R nazywamy niezależnymi (ang. independent random variables), jeżeli dla dowolnych zbiorów borelowskich B1 , . . . , BN ∈ B(R) zachodzi równość P(X1 ∈ B1 , . . . , XN ∈ BN ) = P(X1 ∈ B1 ) · . . . · P(XN ∈ BN ). Rozkład łączny niezależnych zmiennych jest jednoznacznie wyznaczony przez rozkłady brzegowe, tj. przez rozkłady zmiennych losowych X1 , . . . , XN . Jeżeli zmienne losowe Xi mają taki sam typ rozkładu, to można podać proste charakteryzacje niezależności zmiennych losowych. Załóżmy, że zmienne X1 , . . . , XN mają rozkłady dyskretne i niech SXi oznacza zbiór punktów skokowych rozkładu µXi . Twierdzenie 40. Zmienne losowe X1 , . . . , XN o rozkładach dyskretnych są niezależne wtedy i tylko wtedy, gdy dla każdego ciągu x1 , . . . , xN liczb spełniających warunek xi ∈ SXi dla i = 1, . . . , N zachodzi warunek P(X1 = x1 , . . . , XN = xN ) = P(X1 = x1 ) · . . . · P(XN = xN ). Przykład 41. Rzucamy dwa razy kostką. Niech Xi dla i = 1, 2 oznacza wynik i-tego rzutu. Wtedy X1 i X2 są niezależne. Niech oraz

Ω = {(i, j) : i, j ∈ {1, 2, 3, 4, 5, 6}} X1 ((i, j )) = i,

X2 ((i, j )) = j. 18

Wtedy P(X1 = i, X2 = j) = P({(i, j )}) =

1 1 1 = · = P(X1 = i)P(X2 = j). 36 6 6

Zatem zmienne losowe X1 oraz X2 są niezależne. Przykład 42. Rozważmy schemat N prób Bernoulliego. Wtedy Ω = {(ω1 , . . . , ωN ) : ωi ∈ {0, 1} , i = 1, . . . , N } . Niech dalej Xi (ω) = ωi będzie wynikiem i-tego doświadczenia. Zmienne losowe X1 , . . . , XN są niezależne. Istotnie, niech ai ∈ SXi = {0, 1} dla i = 1, . . . , N . Wtedy P(X1 = a1 , . . . , XN = aN ) = P((a1 , . . . , aN )) =p =

PN

i=1

N Y

ai

PN

(1 − p)N −

i=1

ai

P(Xi = ai ).

i=1

Przejdziemy teraz do przypadku zmiennych losowych absolutnie ciągłych. Twierdzenie 43. Niech X1 , . . . , XN będą zmiennymi losowymi o rozkładach absolutnie ciągłych z gęstościami odpowiednio g1 , . . . , gN . Zmienne X1 , . . . , XN są niezależne wtedy i tylko wtedy, gdy łączny rozkład µ(X1 ,...,XN ) jest rozkładem absolutnie ciągłym z gęstością g (x1 , . . . , xN ) = g (x1 ) . . . g(xN ),

x1 , . . . , xN ∈ R.

Przykład 44. Niech   ∆ = (x, y) ∈ R2 : 0 ≤ x ≤ y ≤ 1 .

Załóżmy, że wektor losowy X = (X, Y ) ma rozkład jednostajny na ∆. Wtedy zmienne losowe X i Y nie są niezależne. Rozwiązanie Gęstość rozkładu wektora losowego X = (X, Y ) jest dana wzorem f (x, y ) = 2 · 1∆ (x, y ), x, y ∈ R. 19

Wyznaczymy gęstości brzegowe. Dla x, y ∈ (0, 1) mamy Z+∞

f (x, y)dy =

Z1

2dy = 2(1 − x),

f (x, y)dx =

Zy

2dx = 2y.

x

−∞

Z+∞

0

−∞

Zmienne losowe X i Y nie są niezależne, bo f (x, y ) 6= 4(1 − x)y

dla x, y ∈ (0, 1). Wystarczy przyjąć x = y = 21.

Przykład 45. Niech zmienne losowe X i Y mają rozkłady jednostajne na przedziałach odpowiednio [a, b] i [c, d] z gęstościami odpowiednio g i h. Zmienne losowe X i Y są niezależne wtedy i tylko wtedy, gdy wektor losowy X = (X, Y ) ma rozkład jednostajny na prostokącie [a, b] × [c, d]. Wystarczy zauważyć, że 1 1 1 1[a,b] (x) 1[c,d] (y) = g(x)h(y) = 1[a,b]×[c,d] (x, y) b−a d−c (b − a)(d − c) oraz skorzystać z twierdzenia 43. Przykład 46. Niech X1 , . . . , XN będą niezależnymi zmiennymi losowymi. Wyznaczyć rozkłady zmiennych losowych Y = max(X1 , . . . , XN ), Z = min(X1 , . . . , XN ).

Rozwiązanie Wyznaczymy dystrybuanty zmiennych losowych Y i Z. Ustalmy x ∈ R. Mamy FY (x) = P(Y ≤ x) = P(max(X1 , . . . , XN ) ≤ x) = P(X1 ≤ x, . . . , XN ≤ x) = P(X1 ≤ x) · . . . · P(XN ≤ x)

= FX1 (x) · . . . · FXN (x), FZ (x) = P(Z ≤ x) = 1 − P(Z > x) = 1 − P(min(X1 , . . . , XN ) > x) = 1 − P(X1 > x) · . . . · P(XN > x) = 1−

N Y

i=1

(1 − FXi (x)). 20

Jeżeli dodatkowo założymy, że wszystkie Xi mają rozkłady jednostajne na [0, 1], to  dla x < 0,  0 N x dla 0 ≤ x < 1, FY (x) =  1 dla x > 1,  dla x < 0,  0 N 1 − (1 − x) dla 0 ≤ x < 1, FZ (x) =  1 dla x > 1. Twierdzenie 47. Załóżmy, że zmienne losowe X1,1 X1,2 X2,1 X2,2 ··· ··· Xn,1 Xn,2

. . . X1,k1 . . . X2,k2 ··· ··· . . . Xn,kn

są niezależne. Niech ϕj : Rkj → R będą takimi funkcjami, że Yj = ϕj (Xj,1 , . . . , Xj,kj ),

j = 1, 2, . . . , n

są zmiennymi losowymi. Wtedy zmienne losowe Y1 , . . . , Yn są niezależne. Z powyższego twierdzenia wynika, że jeżeli zmienne losowe X, Y, Z, T są niezależne, to np. zmienne losowe X + 5Y oraz Z + 2T są niezależne. Twierdzenie 48. Jeżeli X1 , . . . , XN są niezależnymi zmiennymi losowymi o skończonej wartości oczekiwanej, to istnieje wartość oczekiwana zmiennej losowej X1 . . . XN oraz E [X1 . . . XN ] = E[X1 ] · . . . · E[XN ]. Z powyższego twierdzenia wynika, że niezależne zmienne losowe są nieskorelowane. Twierdzenie 49. Jeżeli X1 , . . . , XN są niezależnymi zmiennymi losowymi o skończonej wariancji, to istnieje wariancja sumy oraz " N # N X X Var [Xi ] . Var Xi = i=1

i=1

21

Przykład 50. Obliczmy wariancję liczby sukcesów Sn w n próbach Bernoulliego. Niech Xi oznacza wynik i-tej próby Bernoulliego. Wtedy X1 , . . . , Xn są niezależne oraz n X Sn = Xi . i=1

Zatem

Var [Sn ] = Var

"

n X i=1

#

Xi =

n X i=1

Var [Xi ] = np(1 − p).

Zajmiemy się teraz rozkładem sumy niezależnych zmiennych losowych. Nazywamy go splotem rozkładów. Jeżeli X i Y są niezależnymi zmiennymi losowymi o rozkładach dyskretnych, to X P(X = s1 , Y = s2 ) P(X + Y = s) = {s1 ,s2 :s1 +s2 =s}

=

X

P(X = s1 )P(Y = s2 ).

{s1 ,s2 :s1 +s2 =s}

Przykład 51. Jeżeli X i Y są niezależnymi zmiennymi losowymi o rozkładzie Poissona z parametrami odpowiednio λ i µ, tzn. X ∼ Pois(λ) i Y ∼ Pois(µ) to X + Y ∼ Pois(λ + µ). Zauważmy, że suma X + Y przyjmuje wartości całkowite nieujemne. Zatem P(X + Y = n) =

n X k=0 n

= = =

P(X = k, Y = n − k) =

X λk µn−k −µ e−λ e k! (n − k)! k=0

n X k=0

n n! e−(λ+µ) X λk µn−k n! k !(n − k )! k=0

e−(λ+µ) (λ + µ)n . n!

22

P(X = k)P(Y = n − k)

Twierdzenie 52. Rozkład niezależnych zmiennych losowych o rozkładach absolutnie ciągłych jest zmienną absolutnie ciągłą o gęstości Z+∞ (g1 ∗ g2 )(z) = g1 (z − y )g2 (y )dy. −∞

Przykład 53. Suma niezależnych zmiennych losowych o rozkładzie normalnym jest zmienną losową o rozkładzie normalnym. Niezależność a nieskorelowanie Załóżmy, że wektor losowy X = (X, Y ) ma rozkład X

Y

X=0

X=1

Y = −1

0

1 4

1 4

Y =0

1 2

0

1 2

Y =1

0

1 4

1 4

1 2

1 2

Wtedy oraz

E[Y ] = (−1) ·

1 1 1 +0· +1· = 0 4 4 2

1 1 1 E[XY ] = (−1) · 1 · + 02 · + 12 · = 0. 4 4 2 Zatem E[XY ] = E[X]E[Y ]. Ale P(X = 1, Y = −1) =

1 1 1 6= · = P(X = 1)P(Y = −1). 4 2 4 23

Rozkłady warunkowe Niech (Ω, F, P) będzie przestrzenią probabilistyczną i niech X = (X, Y ) będzie wektorem losowym na (Ω, F, P). Interesować nas będą rozkłady zmiennej losowej X pod warunkiem, że wiemy coś o zmiennej losowej Y . Innymi słowy, chcemy opisać P(X ∈ A|Y = y) dla pewnego zbioru borelowskiego A oraz y ∈ R.

Rozważmy sytuację, że wektor X = (X, Y ) ma rozkład dyskretny oraz ustalmy taki y ∈ R, że P(Y = y) > 0. Wtedy P P(X = xi , Y = y) P(X ∈ A, Y = y) {i:xi∈A} = P(X ∈ A|Y = y) = . P(Y = y) P(Y = y) W ten sposób określiliśmy rozkład warunkowy zmiennej losowej X (ang. conditional distribution) dla każdego punktu skokowego zmiennej losowej Y . Przykład 54. Załóżmy, że wektor X = (X, Y ) ma następujący rozkład: Y

X

Y =0

Y =1

Y =2

X=0

1 4

1 4

0

1 2

X=1

0

1 4

1 4

1 2

1 4

1 2

1 4

1

Wtedy rozkład X pod warunkiem zdarzenia {Y = 0} ma postać: P(X = 0|Y = 0) =

P(X = 0, Y = 0) = P(Y = 0)

P(X = 1|Y = 0) = 0. 24

1 4 1 4

= 1,

Rozkład X pod warunkiem zdarzenia {Y = 1} ma postać: P(X = 0, Y = 1) = P(X = 0|Y = 1) = P(Y = 1) P(X = 1|Y = 1) =

P(X = 1, Y = 1) = P(Y = 1)

1 4 1 2 1 4 1 2

1 = , 2 1 = . 2

Analogicznie wyznaczamy rozkład X pod warunkiem {Y = 2}.

Możemy także obliczyć prawdopodobieństwo warunkowe, gdy znana jest wartość zmiennej losowej X, np. X = 1. Wtedy P(Y = 0, X = 1) = 0, P(X = 1) P(Y = 1, X = 1) 14 1 P(Y = 1|X = 1) = = 1 = , P(X = 1) 2 2

P(Y = 0|X = 1) =

P(Y = 2|X = 1) =

P(Y = 2, X = 1) = P(X = 1)

1 4 1 2

1 = . 2

Rozkład warunkowy zmiennej losowej Y pod warunkiem {X = 0} można odczytać z tabeli rozkładu łącznego w następujący sposób: wybieramy wiersz odpowiadający zdarzeniu {X = 0} tj.   1 1 0 , 4 4 a następnie odpowiednio go normujemy przez sumę wiersza, tzn. przez 12 :   1 1 0 . 2 2 Załóżmy, że wektor X = (X, Y ) ma rozkład absolutnie ciągły. Wtedy dla dowolnego y ∈ R zachodzi P(Y = y) = 0, więc nie możemy zastosować metody wprowadzonej dla rozkładu dyskretnego. Definicja 55. Załóżmy, że wektor X = (X, Y ) ma rozkład absolutnie ciągły o łącznej gęstości f . Gęstością rozkładu warunkowego X pod warunkiem Y = y (ang. conditional density of X given Y = y) nazywamy funkcję fX|Y (·|y) : R → [0, ∞) daną wzorem ( f (x,y) , jeśli fY (y) > 0, fY (y) fX|Y (x|y) = g(x), jeśli fY (y) = 0, 25

gdzie fY (y) =

Z∞

f (x, y )dx

−∞

jest gęstością rozkładu brzegowego Y , a g dowolną ustaloną gęstością. Gęstość rozkładu warunkowego Y pod warunkiem X = x definiujemy analogicznie: ( f (x,y) , jeśli fX (x) > 0, fX (x) fY |X (y|x) = g(y), jeśli fX (x) = 0. Stwierdzenie 56. Funkcja fX|Y (·|y) : R → [0, ∞) jest gęstością. Rzeczywiście, jeżeli fY (y) > 0, to Z∞

fX|Y (x|y)dx =

−∞

Z∞

−∞

fY (y) f (x, y) dx = = 1. fY (y) fY (y)

Jeżeli fY (y) = 0, to Z∞

fX|Y (x|y)dx =

−∞

Z∞

g(x)dx = 1.

−∞

Zatem dla dowolnego zbioru borelowskiego A zachodzi Z P(X ∈ A|Y = y) = fX|Y (x|y)dx. A

Zauważmy, że definicja gęstości może być uzasadniona za pomocą następującego przejścia granicznego. Załóżmy, że gęstość brzegowa fY : R → [0, +∞) jest funkcją ciągłą. Ustalmy y ∈ R i załóżmy, że fY (y) > 0. Wtedy dla dowolnego ε > 0 zdarzenie {ω ∈ Ω : Y (ω) ∈ (y, y + ε)} ma dodatnie prawdopodobieństwo. Ustalmy x ∈ R. Mamy P(X ≤ x|Y ∈ (y, y + ε)) = =

P(X ≤ x, Y ∈ (y, y + ε)) P(Y ∈ (y, y + ε))

F (x, y + ε) − F (x, y) = FY (y + ε) − FY (y) 26

F (x,y+ε)−F (x,y) ε FY (y+ε)−FY (y) ε

Przechodząc z...


Similar Free PDFs