Title | Tema-3. Variables aleatorias discretas |
---|---|
Author | Ángel Liñero Pérez |
Course | Teoría de la Probabilidad I |
Institution | Universidad de Sevilla |
Pages | 5 |
File Size | 167.2 KB |
File Type | |
Total Downloads | 95 |
Total Views | 132 |
Conjunto de apuntes del manual y explicaciones del profesor....
Tema 3: Variables aleatorias discretas. 1. Definición de variable aleatoria. Es la función que asocia a cada elemento del espacio muestral, un número.
ᘯ = { ⊡ , ⚁ , ⚂.. ⚅ } ⊡=1 ⚁ = 2.. 2. Tipos de variables aleatorias. -
Variables aleatorias discretas: Toma un número de valores finito. Corresponden a experimentos en los que se se cuenta el número de veces que ha ocurrido un suceso. Ej. Número de hijos de una pareja.
-
Variables aleatorias continuas: Puede tomar cualquier valor en un intervalo. Ej. Peso de una persona.
3. Función de probabilidad (de cuantía o de masa) de una variable discreta. Una variables aleatoria discreta se define a través de una función de probabilidad P(x), que es la función que indica las probabilidades de cada posible valor: P( X =
x i ) = pi
Ejemplo: En un dado; P( X = 1) = ⅙ P(X=2)=⅙… -
Propiedades: 1) 0
≤ P( X =
xi ) ≤ 1
❑
2)
❑ ∑ ❑
3) P( X
P( X =
¿
xi ) = 1
x i ) = 1 - P( X
≤
xi )
4. Función de distribución de una variable discreta (Probabilidad acumulada). Está definida en cada punto
xi
un valor menor o igual que
xi :
como la probabilidad de que la variable aleatoria X, tome
F( x i ) = P( X
≤
xi )
-
Propiedades:
lim ¿ F(x) = 0.
1)
x →−∞
2)
lim ¿ F(x) = 1. x→∞
3) F(x) es creciente (no decreciente), ya que va acumulando probabilidades. 4) P( a < X ≤ b) = P( X ≤ b) - P( X ≤ a) = F(b) - F(a). 5. Esperanza (Valor esperado). ❑
E(x) = -
❑ ∑ ❑
· P(X =
xi
xi )
Propiedades: 1) E(k) = k
donde k es constante.
2) E(k · x) = k · E(x) donde k es constante. 3) E( x + y) = E(x) + E(y). ⤷ Propiedad de linealidad: E(a·X + b·Y) = a · E(x) + b · E(y).
6. Varianza. Sirve para ver cómo se distribuyen las variables. Ej. Si
= 5, puede ser {5, 5}, {10, 0}...
x
Var(x) = E( x ¿− [ E(x ) ]❑ 2
2
Nota: Para calcular E( x 2 ¿ : ❑
2 E(x ) =
F ❑ xi ∑ ❑
· P(X =
xi )
• La raíz cuadrada de la varianza se denomina desviación típica: dt =
-
√ Var (x)
Propiedades: 1) Var(k) = 0. 2) Var(k)
≥ 0.
3) Var (k · x) =
k 2 · Var(x).
4) Var (x + y) = Var(x) + Var(y)
→ si y sólo si x e y son independientes.
7. Distribución de Bernoulli. Sólo toma 2 valores de la variables aleatoria. Ej Moneda (cara, cruz) X ~ Bernoulli (p)
p= Probabilidad de éxito (x=1)
x ∈ {0,1}
P( X =
Éxito
→ P(X = 1) =
Fracaso
x i ) = pxi · (1 - p) ❑1− xi
pxi .
→ P (X = 0) = (1 - p) = q.
E(x) = p. Var(x) = p(1 - p).
√p · q
Dt(x) =
8. Distribución Binomial. Repetir n veces una Bernoulli, hasta el éxito. X ~ B( n, p)
n = número de veces que se repite.
x ∈ {0,1, 2.. n}
p = probabilidad de éxito.
P(X =
xi ¿
=
n! x i ! · (n− x i )! ·
1 - p) ❑n−x pxi · ¿
i
E(x) = n · p Var(x) = n · p · (1 - p) 9. Distribución de Poisson. Aproximar una binomial cuando n es grande (+100) y p s muy pequeña (- 0,05). En un experimento donde la aparición de sucesos puntuales sobre un soporte continuo, por ejemplo llegadas de aviones a un aeropuerto o pedidos de una empresa; vemos que los sucesos son: 1) Estables, que produce a largo plazo un número medio de sucesos constantes por unidad de observación (tiempo, espacio, área..) 2) Aparecen aleatoriamente de forma independiente, es decir, conocer el número de sucesos en un intervalo no ayuda a predecir el número de sucesos en el siguiente. X ~ Poisson (λ)
λ = media (ej. media de fallos por hora, metro cuadrado...).
x ∈ {0,1..} −λ
P(X = E(x) = Var(x) =
λ
λ
xi ) = e · λ xi !
xi
10. Distribución Geométrica. ¿Cuántas veces repito el experimento hasta el primer éxito? X ~ Geométrica (p)
X = número de fracasos antes de llegar al primer éxito.
x ∈ {0,1, 2..} P(X = E(x) =
x i ) = (1 - p) ❑x · p
1−p p
Var (x) =
1−p p2
11. Distribución Hipergeométrica. Es equivalente a la binomial pero cuando el muestreo se hace sin reemplazamiento. N = total de bolas. k = número de bolas rojas. (k = propiedad en la que estamos interesados). N - k = número de bolas blancas. Sacamos “n” bolas sin reemplazamiento.
X ~ HiperG (N, k, n)
P(X =
E(x) = n · Var(x) = n ·
xi ) =
(N−k)! k! · x i ! ·(k − x i)! (n− x i) ! · ( N − k − n+ xi )! N! n ! · (N −n)!
k N k · N
N −k N −n · N −1 N...