Unidad Nº III distribucion de probabilidades PDF

Title Unidad Nº III distribucion de probabilidades
Course Estadística
Institution Universidad Nacional de San Juan
Pages 24
File Size 494 KB
File Type PDF
Total Downloads 83
Total Views 111

Summary

resumenes de clases y libros...


Description

ESTADISTICA Y PROBABILIDADES UNIDAD III DISTRIBUCION DE PROBABILIDADES PARA VARIABLES ALEATORIAS DISCRETAS

3.1. DISTRIBUCIONES DE PROBABILIDADES

Con frecuencia el interés recae en resumir con un número el resultado de un experimento aleatorio. En mucho de los ejemplos de experimentos aleatorios considerados hasta el momento, el espacio muestral solo es una descripción de los posibles resultados. En algunos casos las descripciones de los resultados son suficientes, pero en otros es útil asociar un número con cada resultado del espacio muestral.

Ya que el resultado de un experimento aleatorio no se conoce con anticipación, habrá incertidumbre sobre el resultado del mismo y esta incertidumbre puede cuantificarse en términos de probabilidad y cada resultado del experimento aleatorio puede asociarsea la variable. Por lo tanto, la variable que toma valores numéricos por el resultado de un experimento aleatorio se denomina variable aleatoria.

Las variables aleatorias se denotan con letras mayúsculas, tal como X, y con letras minúsculas x, los diferentes valores que ella toma.

Se puede resumir lo dicho de forma que una variable aleatoria es una función que asigna un número real a cada resultado en el espacio muestral de un experimento aleatorio. Cuando la variable aleatoria no es un número, debemos fijar un criterio o regla para darle un valor numérico. Por ejemplo, un componente producido en un proceso industrial puede clasificarse como defectuoso o no defectuoso y podemos asignar el valor 1 a la primera posibilidad y 0 a la segunda.

Es importante distinguir entre variables aleatorias discretas y continuas.

Una variable aleatoria discreta es aquella que puede asumir una cantidad numerables de valores, es decir es una variable aleatoria con un rango finito o infinito numerable.

Por ejemplo: 1. Infracciones diarias cometidas por los vehículos. 2. Nro. de inasistencia de los obreros de la empresa. 3. Cantidad de hijos por familias de un barrio. 4. Cantidad de tornillos producidos. 2

Una variable aleatoria continua es aquella que puede asumir una cantidad innumerable de valores dentro de un intercalo.

Por ejemplo: 1. Peso de las personas. 2. Sueldos de los empleados. 3. Velocidad de un auto. 4. Tiempo en cumplir una tarea.

Para las variables aleatorias continuas, no es posible asignar probabilidades a cada valor concreto, por ejemplo la probabilidad de que la temperatura ambiente máxima sea de 20,35 ºC es 0 ya que esa cifra no se alcanzará exactamente pero las probabilidades pueden determinarse por intervalos y asignar una probabilidad al evento la máxima temperatura ambiente estará entre 20 ºC y 21 ºC. 3.2.

DISTRIBUCION

DE

PROBABILIDADES

PARA

VARIABLES

ALEATORIAS DISCRETAS

Una distribución de probabilidades es una representación de todos los posibles resultados de un experimento aleatorio con las probabilidades de cada uno de ellos. Esta representación puede ser algebraica, mediante una formula, gráfica o tabular.

Supongamos que X es una variable aleatoria discreta y que x es uno de sus posibles valores. La probabilidad de que la variable aleatoria X tome el valor x se representa como: P(X = x)

Para las variables aleatorias discretas un procedimiento consiste en confeccionar una lista con la probabilidad de cada uno de los posibles resultados.

La función de probabilidad P(X = x) de una variable aleatoria discreta X representa la probabilidad de que X tome el valor x, como función de x: P(xi) = P(X = x)

3

Donde la función se evalúa en todos los posibles valores de x.

La función de probabilidad toma valores distintos de 0 solo en los puntos discretos x, por lo tanto también se conoce con el nombre de función de masa de probabilidad.

La función de probabilidad de una variable aleatoria discreta X, satisface las propiedades siguientes: 1. P(xi) ≥ 0 para cada valor de x. 2. ∑ P(xi) = 1

La propiedad 1 explica que la probabilidad no puede ser negativa y la propiedad 2 se obtiene del hecho de que todos los posibles resultados x son mutuamente excluyentes y colectivamente exhaustivos, por lo tanto la suma de sus probabilidades debe ser la unidad.

Ejemplo 1. Supongamos que una empresa que se dedica a las ventas de autos; durante los últimos 300 días de ventas, las ventas muestran que en 54 días no se vendieron autos, en 117 se vendió 1 auto, en 72 días se vendieron 2 autos, en 42 se vendieron 3 autos, en 12 días se vendieron 4 autos y en 3 días se vendieron 5 autos. Supongamos además, que el experimento consiste en seleccionar un día de operaciones de ventas y definimos la variable aleatoria de interés como X = número de automóviles vendidos en un día.

La distribución de probabilidad de esta variable aleatoria será: X 0 1 2 3 4 5 Total

fi 54 117 72 42 12 3 300

P(X) 0,18 0,39 0,24 0,14 0,04 0,01 1

Una ventaja importante de definir una variable aleatoria y su distribución de probabilidad es que una vez conocida esa distribución es fácil determinar la probabilidad de varios eventos que pueden interesar a quien toma decisiones. Así,

4

consultando la tabla se observa que la cantidad más probable de autos que se venden en 1 día es del 39 %.

Al asignar una función de probabilidad para cualquier variable discreta, se deben satisfacer las dos propiedades: 1. P(xi) ≥ 0 para cada valor de x. 2. ∑ P(xi) = 1

Gráficamente, la distribución de probabilidad de ventas de autos será:

La función de probabilidad acumulada, simbolizada con F(x), de una variable aleatoria X representa la probabilidad de que X no tome un valor superior a x, es decir: F(x)  P(X  x)   P(x) X x

Donde la notación indica que la suma es sobre todos los posibles de X que son menores o iguales a al valor x y el resultado de la sumatoria es consecuencia del hecho de que el evento X ≤ x es la unión de los eventos mutuamente excluyente para cada valor de X menor o igual que x, y la probabilidad de la unión es la suma de las probabilidades de esos eventos elementales.

Ejemplo 2. Cuál es la probabilidad de vender menos de 2 automóviles. P(X 1) P(x 0)  P(x 1) 0,18 0,39 0,57  57%

5

3.3. ESPERANZA Y VARIANCIA DE VARIABLES ALEATORIAS DISCRETAS

El valor esperado o media de una variable aleatoria es una medida de la tendencia central de esa variable. La ecuación matemática del valor esperado de una variable aleatoria discreta x es: E(x)     x P(x)

Es un promedio ponderado de todos los resultados posibles, donde las ponderaciones, son las probabilidades asociadas con cada uno de los resultados. X 0 1 2 3 4 5 Total

fi 54 117 72 42 12 3 300

P(x) 0,18 0,39 0,24 0,14 0,04 0,01 1

X . P(x) 0 0,39 0,48 0,42 0,16 0,05 1,5

E(x)   x P(x) 1,5 autos

La empresa puede esperar, a la larga, la venta de un promedio de 1,5 automóviles por día.

Si suponemos que la operación durante un mes equivale a 30 días, podemos usar el valor esperado para anticipar que las ventas mensuales promedio son 45 automóviles.

La esperanza de la diferencia de una variable aleatoria discreta con la media al cuadrado se denomina varianza y nos dará una idea de variación de los valores de la variable aleatoria respecto a su valor esperado o media. La ecuación matemática de la variancia será: 

2





 E (x -  ) 2  (x -  ) 2 P(x)

Desarrollando el cuadrado de un binomio se tiene

6



2

 (x2 - 2 x    2 ) P(x)

 2  x2 P(x) - 2   x P(x)   2

 P(x)

 x P(x)    P(x) 1  2  x P(x) - 2   2

2

2

Finalmente se llega a la ecuación alternativa: 2 2  2  x P(x) - 

Recordemos que la variancia nos da un valor en unidades de medida de la variable al cuadrado y por ello es muy difícil explicar, por lo tanto calculamos la desviación estándar:

σ  Varianza La desviación estándar se mide en las mismas unidades de medidas que la variable aleatoria en estudio

Siguiendo con el ejemplo de la empresa de ventas de automóviles, el cálculo de la variancia y desvío estándar será: 

2

 x2 P(x) -  2  3,50  1,502 1,25 autos2

σ  Varianza  1,25 1,118 autos 3.4. DISTRIBUCION DE PROBABILIDAD BINOMIAL

Entre las distribuciones de probabilidad discretas, este es el modelo más simple, se lo llama también distribución de Bernoulli y se refiere a un experimento aleatorio con dos resultados posible.

Se trata de una población dicotomizada, es decir de una población cuyos individuos se pueden dividir en dos clases según tengan o no una cierta característica. Los individuos que tienen la característica A forman la clase A y los que no la tienen forman la clase no A, por ejemplo, pieza defectuosa y no defectuosa; paciente enferme o sano; encendido o apagado; varón o mujer.

7

Se realiza un experimento aleatorio consistente en elegir al azar, un individuo de esa población y observar si pertenece o no a la clase A. Cada individuo de la población constituye un evento simple del espacio muestral S. La variable aleatoria es del tipo discreto y puede tomar solo dos valores posibles los cuales son mutuamente excluyentes y colectivamente exhaustivos y se llamarán éxitos y fracasos, por lo tanto:

Si el individuo observado es A, X = X (S) = 1 Si el individuo observado es no A, X = X (F) = 0 Probabilidad de éxito P(x = 1) = p Probabilidad de fracaso P(x = 0) = 1 - p

Cabe señalar que el valor de p se determina según los enfoques que hemos visto. Si se trata de la tirada de una moneda nos basamos en el enfoque clásico y decimos que p = ½.

Por lo general, la probabilidad p estará dada por la proporción de individuos que tienen la característica A en la población o por las frecuencias relativas de un número suficientemente grande de experimento.

Una generalización importante de esta distribución consiste en considerar el caso de un experimento aleatorio con dos resultados básicos posibles que se repite varias veces. La probabilidad de éxito en cada repetición es p y se realizan n ensayos independientes, por lo que el resultado de un ensayo no influye en el resultado de cualquier otro. El número x de éxitos en las n repeticiones puede ser cualquier número entre 0 y n y el interés es la probabilidad de obtener exactamente x éxitos en n repeticiones.

Primero, el resultado de las n repeticiones es una secuencia de n resultados, en donde cada uno debe ser éxito (S) o fracaso (F). Por lo tanto, una secuencia con x éxitos y (n x) fracasos es: S, S,…, S x veces

F, F,…, F (n – x) veces

Es decir en las primeras repeticiones el resultado es éxito mientras que en las restantes el resultado es fracaso. La probabilidad de éxito en cada repetición es p y la probabilidad de fracaso es (1 – p). Como las n repeticiones son independientes, la 8

probabilidad de cualquier secuencia de resultados es, por independencia estadística, igual al producto de las probabilidades de los resultados individuales. Así, la probabilidad de observar la secuencia es: p * p * …* p x veces

(1 – p) * (1 – p) * …* (1 – p) (n – x) veces

Por lo tanto la probabilidad de observar una secuencia concreta que contenga x éxitos y (n – x) fracasos es: P p x (1 - p) n - x

Como toda distribución de probabilidad, es necesario determinar la medida de tendencia central y su variabilidad. La media de la distribución de Bernoulli es: E(x)    x . P(x)

  (0)(1 - p)  (1)(p)  p

La varianza de la distribución de Bernoulli es: 

2

E (x -  ) 2





2



 (x - )

2



2

(0 - p) (1 - p)  (1 - p)2 (p)



2

p (1 - p)

P(x)

2

El interés radica en determinar la probabilidad de obtener exactamente x éxitos sin tener en cuenta el orden de los resultados. Por lo tanto son varias las secuencias en las que se pueden obtener x éxitos intercalados con (n – x) fracasos y la cantidad de secuencias de este tipo es en número de combinaciones de n elementos tomados de x en x, en donde estas secuencias son mutuamente excluyentes ya que no pueden ocurrir dos de ellas en forma simultanea.

Por lo tanto, la cantidad de x éxitos que se obtienen en n repeticiones pude ocurrir de n

Cx maneras mutuamente excluyentes, cada una con probabilidad px (1 – p)n – x. Por el

teorema de la suma, la probabilidad buscada es la suma de la probabilidaes individuales, es decir: P(X x) 

n! px (1 - p)n - x x! (n - x)!

9

Propiedades o características 1. La muestra se compone de un número fijo n de observaciones. Las n observaciones pueden obtener mediante dos métodos de muestreo, a partir de una población infinita sin reemplazo o a partir de una población finita con reemplazo. 2. Cada observación se puede clasificar en una de dos categorías mutuamente excluyentes y colectivamente exhaustivas denominados éxitos y fracasos. 3. La probabilidad de que una observación se clasifique como éxito, p, es constante entre una observación y otra, por lo tanto, la probabilidad de que una observación sea clasificada como fracaso, (1-p), es constante en todas las observaciones. 4. El resultado éxito o fracaso de cualquier observación es independiente del resultado de cualquier otra observación.

Dentro de las características de la distribución de probabilidad binomial es importante además de saber su función de probabilidad, es necesario conocer su forma y cual es su medida de centralización y su variabilidad.

Una distribución binomial puede ser simétrica o asimétrica. Siempre que p = 0,50 independiente de que n sea grande o pequeño la distribución será simétrica. Cuando p es diferente de 0,50 la distribución binomial será sesgada.

Si p > 0,50 será asimétrica a izquierda. Si p < 0,50 será asimétrica a derecha. Si se hace la grafica para determinar la forma veremos que para una probabilidad de p diferente de 0,5 a medida que crece n la distribución se torna más simétrica, tendiendo hacia una distribución normal a pesar de que p no sea tan cercano a 0,5 pero si alejado de 0 o de 1. En la práctica, si n es mayor a 30 observaciones irá tornandose simétrica para valores de 0,1 < p < 0,5.

La media de la distribución binomial está determinada por la probabilidad del éxito multiplicada por la cantidad n de observaciones: E(x)  n p

10

La variancia será igual al producto de la cantidad n de observaciones por la probabilidad de éxito y la de fracaso: 

2

n p (1 - p)

El desvío estándar estará dado por la raíz cuadrada de la variancia:   n p (1 - p)

Ejemplo 3. Supongamos que un vendedor de seguro visita a 10 familias seleccionadas al azar. El resultado asociado con cada visita se clasifica como un éxito si la familia compra una póliza de seguro, y como un fracaso si la familia no lo hace. De acuerdo con su experiencia, el vendedor sabe que la probabilidad de que una familia seleccionada al azar compre una póliza de seguro es de 0,10.

Se comprueba que: 1. El experimento consiste en 10 observaciones, idénticos y cada experimento implica llegar a una familia. 2. En cada intento son posibles dos resultados, la familia compra una póliza, éxito o la familia no la compra, fracaso, ambas mutuamente excluyentes y colectivamente exhaustivas. 3. Las probabilidades de una compra y de una no compra son iguales para cada intento de venta. 4. Los intentos son independientes unos de otros ya que las familias se seleccionan en forma aleatoria. En vista de que se cumplen las cuatro propiedades, este es un experimento binomial. La variable aleatoria de interés X es la cantidad de ventas obtenidas al visitar a 10 familias. En este caso podemos asumir que la variable aleatoria X puede asumir los valores xi desde n = 0 hasta n = 10.

Determinar la probabilidad de que se den exactamente 4 ventas. n! px (1 - p)n - x x! (n - x)! 10! p4 (1 - p)10 - 4 0,012  1% P(X 4)  4! (10 - 4)! P(X 4) 

11

Aplicando la función de probabilidad acumulada a la distribución binomial, se puede determinar la probabilidad de que se de menos de 2 ventas. F(x) P(X x)   P(x) X x

P(X  2)  P(X 1)  P(X  0)  P(X 1)  0,3487  0,3874 0,7361  74%

Determinar la probabilidad que se de 3 o más ventas. P(X 3) 1  P(X 2) 1  P(X 0)  P(X 1)  P(X 2) P(X 3)  1 0,3487 0,3874  0,1937  0,9298  93%

3.5. DISTRIBUCION GEOMÉTRICA Y BINOMIAL NEGATIVA

Distribución geométrica Se considera una serie de pruebas de Bernoulli, independiente una prueba de otra con una probabilidad constante p de éxitos en cada ensayo. Sin embargo, en lugar de tener un número fijo de ensayos, ahora estos se realizan hasta que se obtiene el primer éxito.

Sea la variable aleatoria X, el número de ensayos realizados hasta obtener el primer éxito. Entonces X tiene una distribución geométrica con parámetro p y probabilidad: P(X) p (1 - p)x -1

La distribución adquiere el nombre de geométrica debido a que las probabilidades disminuyen en una progresión geométrica. La media y la variancia de una variable aleatoria que sigue una distribución geométrica

Una progresión geométrica es una secuencia en la que el elemento se obtiene multiplicando el elemento anterior por una constante denominada razón o factor de la progresión. Se suele reservar el término progresión cuando la secuencia tiene una cantidad finita de términos mientras que se usa sucesión cuando hay una cantidad infinita de términos, si bien, esta distinción no es estricta. Así, 5, 15, 45, 135, 405…, es una progresión geométrica con razón igual a 3, porque cada elemento es el triple del anterior. Se puede obtener el valor de un elemento arbitrario de la secuencia mediante la expresión: an = a1 r(n – 1), siendo an el término en cuestión, a1el primer término y r, la razón.

será:

E(x)  

 2 1 -

1 p

p p2

Ejemplo 4. Se sabe que en cierto proceso de fabricación, en promedio, uno de cada 100 artículos esta defectuoso. Determinar la probabilidad de que el quinto artículo que se inspecciona sea el primer defectuoso que se encuentra.

Al usar la distribución geométrica con x = 5 y p = 0,01, tenemos:

12

P(X 5) p (1 - p) x - 1 0,01 (1 - 0,01) 5 - 1 0,0096  0,96%

Ejemplo 5. En tiempo ocupado un conmutador telefónico está muy cerca de su capacidad, por lo que los usuarios tienen dificultad al hacer sus llamadas. Puede ser de interés conocer el número de intentos necesarios a fin de conseguir un enlace telefónico. Suponga que p = 0,05 es la probabilidad de conseguir un enlace durante el tiempo ocupado. Interesa conocer la probabilidad de que se necesiten cinco intentos para una llamada exitosa. P(X x)  p (1 - p) x - 1 P(X 5) 0,05 (1 - 0,05)5 - 1  0,041 4,10%

Distribución binomial negativa Esta distribución puede considerarse como una extensión o ampliación de la distribución geométrica. La distribución binomial negativa es un modelo adecuado para tratar aquellos procesos en los que se repite un determinado ensayo o prueba hasta conseguir un número determinado de resultados favorables. Es por tanto de gran utilidad para aquellos muestreos que procedan de esta manera. Si el número de resultados favorables buscados fuera 1 ...


Similar Free PDFs