Slides - Calcolo delle probabilità - Distribuzione Ipergeometrica PDF

Title Slides - Calcolo delle probabilità - Distribuzione Ipergeometrica
Course Calcolo delle probabilità
Institution Università degli Studi di Palermo
Pages 7
File Size 133.1 KB
File Type PDF
Total Downloads 4
Total Views 139

Summary

Slides del corso...


Description

Distribuzione Ipergeometrica.

Estrazioni senza restituzione da un’urna di composizione nota. Si effettuano n estrazioni senza restituzione da un’urna contenente N palline, di cui pN bianche e qN nere (pN + qN = N ). Ovviamente deve essere n  N . Indichiamo con Ei l’evento Pn ”l’i-esima pallina estratta `e bianca”, i = 1, . . . , n, e con X = i=1 |Ei | il numero aleatorio di palline bianche estratte nelle n estrazioni. Si pu` o facilmente verificare che il numero aleatorio X ha il seguente codominio

max{0, n  qN }  X  min{pN, n} .

Valutiamo P (Ei), per i = 1, . . . , n. P (E1) = pN N = p. P (E2) = P (E2 ^ Ω) = P (E2 ^ (E1 _ E c1 )) = = P (E2|E1)P (E1) + P (E2|E 1c )P (E1c) = pN q = p. = pN1 N1 p + N1 G. Sanfilippo - CdP - - - pag.

185

Con il calcolo combinatorio, calcolando il rapporto fra casi favorevoli e casi possibili, si ha

P (E2) =

(N  1)pN = p. N (N  1)

Osserviamo inoltre che E1, E2 non sono stocasticamente indipendenti, infatti

P (E2|E1) =

pN  1 N 1

6= P (E2) = p .

In generale, sempre utilizzando il calcolo combinatorio, si ha

P (Ei) =

(N  1)(N  2) · · · (N  i + 1)pN N (N  1) · · · (N  i + 1)

= p.

In altro modo, immaginando di fare N estrazioni, le pN palline bianche  N  verranno estratte in uno dei sottoinsiemi di pN prove fra le N e ce ne sono pN . Quelli favorevoli  N1   N1  rappresenta, in relazione alle : 1 corrisponde all’i-ma prova ed pN1 sono 1 · pN1 rimanenti N  1 prove, i sottoinsiemi possibili di pN  1 prove in cui vengono estratte le rimanenti pN  1 palline bianche. prova i-esima

P (Ei) =

 N1  z}|{ 1 · pN1 = p. N pN

G. Sanfilippo - CdP - - - pag.

186

Pertanto gli eventi E1, E 2, . . . , En sono equiprobabili (ma non sono stocasticamente indipendenti). Sia 0  h  n, considerando il costituente c

c

E1E2 · · · EhEh+1 · · · E n , si ha14

P (E1E2 · · · EhE ch+1 · · · Enc ) =

DpN,hDqN,nh DN,n

=

=

pN (pN 1)(pN 2)···(pN (h1))qN (qN 1)···(qN (nh)+1) N (N 1)(N2)···(N (h1))(Nh)···(Nn+1)

=

(pN)!(NpN )!(Nn)! (pNh)!(NpN n+h)!N!

(Nn)! (pNh)!(NpN n+h)! N! (pN)!(NpN )!

=

=

Nn ) (pNh = . N (pN )

Tale risultato dipende solo dagli indici h, n, quindi per ogni scelta degli h successi si ottiene  Nn  c h+1

P (Ei1 Ei2 · · · Eih Ei

Indicando con Ah,n il generico costituente

pNh

c

· · · E in ) =  N  . pN

c h+1

Ei1 Ei2 · · · Eih E i

c

· · · E in ,

14http://www.math.uah.edu/stat/urn/MultiHypergeometric.html

G. Sanfilippo - CdP - - - pag.

187

favorevole all’evento (X = h)= ’esattamente h palline bianche sono estratte nelle n estrazioni’, si ha W (X = h) = ( {i ,i ,...,in } Ah,n) , 1 2

dove l’unione `e fatta rispetto (X = h). In def initiva si ha

a

tutti

P (X = h) =

n 

gli

h

n Nn  h

pNh

N

costituenti

favorevoli

.

ad

(49)

pN

Suppondendo di effettuare estrazioni in blocco si giunge ad una formula, equivalente alla precedente, che si pu` o memorizzare pi` u facilmente

P (X = h) =

pN  qN  nh

h

N

.

(50)

n

La distribuzione di X si chiama distribuzione Ipergeometrica di parametri N, n, p e si indica con X ⇠ H(N, n, p) . Esempio 45 (Ipergeometrica) Consideriamo 15 estrazioni senza restituzione da un’urna contenente 12 palline bianche e 8 palline nere. Si ha N = 20,

pN = 12,

qN = 8,

n = 15,

p = 53, G. Sanfilippo - CdP - - - pag.

188

max{0, n  qN } = max{0, 7} = 7 , min{pN, n} = min{12, 15} = 12 , X 2 {7, 8, 9, 10, 11, 12} ,

X ⇠ H(20, 15, 3/5) .

Fissato ad esempio h = 8 si ha

P (X = 8) =

pN  qN  nh

h

N  n

128  7 8 = 20 . 15

Previsione e Varianza15 . Poich`e gli eventi Ei sono equiprobabili di probabilit` a p si ha, come per la distribuzione binomiale,

E(X) =

E(|E1| + |E2| + · · P · + |En|) = Pn n = i=1 E(|Ei|) = i=1 p(Ei ) = np .

La varianza, salvo casi banali, risulta pi` u piccola rispetto a quella della distribuzione binomiale perch`e Cov(|Ei|, |Ej |) 6= 0. Infatti Cov(|Ei|, |Ej |) = P (EiEj )  P (Ei)P (Ej ) = pq 2 = pN1 N1 p  p =  N1 . 15Le nozioni di varianza e covarianza, se non sono state gi`a definite, verranno definite in seguito

G. Sanfilippo - CdP - - - pag.

189

Quindi

V ar(X) = V ar(|E1| + |E2| + · · · + |En |) = n X X = Cov(|Ei|, |Ej |) = V ar(|Ei|) + 2 i=1

i...


Similar Free PDFs