Resumen - Estadística probabilistica, descriptiva y de muestreo PDF

Title Resumen - Estadística probabilistica, descriptiva y de muestreo
Course Estadística
Institution Universidad Nacional de Mar del Plata
Pages 71
File Size 2.4 MB
File Type PDF
Total Downloads 78
Total Views 164

Summary

Estadística probabilistica, descriptiva y de muestreo...


Description

Resumen de Estadística correspondiente a la cursada regular del segundo cuatrimestre del 2019 Unidad 1: Probabilidad Es una herramienta cuantitativa (es decir, que utiliza números) que permite trabajar en un contexto de riesgo, azar o incertidumbre.

Conceptos relativos a la probabilidad 

Azar: No tengo certeza sobre lo que va a suceder. El resultado toma cualquier forma aleatoria.



Experimento: Proceso que se repite homogéneamente, pero puede dar distintos resultados.



Suceso: Resultado del experimento. a) Simple: le pongo una condición. b) Compuesto: le pongo dos o más condiciones. c) Necesario: inevitable que no suceda. d) Mutuamente excluyentes: resultados que no pueden suceder simultáneamente. e) Concomitante: resultados que pueden darse simultáneamente. f) Independientes: el cumplimiento de la condición no altera la probabilidad de que se cumpla la otra. Experimentos con reposición. g) Dependiente: el acontecimiento de un suceso altera la probabilidad del siguiente experimento. Experimentos sin reposición.

Enfoques probabilísticos 

Clásico: Siglo XVIII. La Place.

P(A) =

𝐶𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠

𝐶𝑎𝑠𝑜𝑠 𝑖𝑔𝑢𝑎𝑙𝑚𝑒𝑛𝑡𝑒 𝑝𝑜𝑠𝑖𝑏𝑙𝑒𝑠

Todos los elementos tienen la misma probabilidad de ser elegidos. Ejemplo: tirar una moneda y obtener cara.



Empírico: Siglo XX. Von Mises. 𝑃(𝐴) =

𝐶𝑎𝑠𝑜𝑠 𝑓𝑎𝑣𝑜𝑟𝑎𝑏𝑙𝑒𝑠 𝐶𝑎𝑛𝑡𝑖𝑑𝑎𝑑 𝑑𝑒 𝑒𝑥𝑝𝑒𝑟𝑖𝑚𝑒𝑛𝑡𝑜𝑠

Ejemplo: registros deportivos, probabilidad de que se caiga un avión, etc.



Subjetivo: Keynes. Se calcula de acuerdo a una percepción o experiencia.

Sabatini, Franco. Resumen de Estadística de la cursada regular del 2019. Página1 Universidad Nacional de Mar del Plata. Facultad de Ciencias Económicas y Sociales.

Espacio muestral Es una representación de todas las posibilidades que tenemos como resultado de un experimento. 

Enumeración.



Árbol de decisión: La suma de cada columna debe dar 1. Por ejemplo: rama de combinaciones al tirar una moneda y un dado junto con sus respectivas probabilidades.



Tabla de contigencia: DNI / Apellidos Par (B) Impar (β) Total



Consonante (A) 15 (AB) 21 (Aβ) 36

Vocal (α) 5 (αB) 2 (αβ) 7

Total 20 23 43

Diagrama de Venn

Probabilidad condicional Impongo una condición al suceso favorable para que reduzca los casos posibles. Por ejemplo: Probabilidad de encontrar un DNI par, dado que el apellido es consonante.

=

P(PAR/CONSONANTE) = 15/36

P(B/A) =

𝑃(𝐴𝐵) 𝑃(𝐴)

(𝐴𝐵) (𝐴)

Probabilidad compuesta Para que el suceso sea favorable tiene que cumplir con dos o más condiciones simultáneamente. Hace uso de la letra “y”. Es multiplicativo.

P (PAR y CONSONANTE) = 15/43 La probabilidad compuesta se calcula de diferente manera según los sucesos en cuestión sean dependientes o independientes probabilísticamente. Es decir, si ocurre alguno de ellos, ¿modificará la probabilidad de ocurrencia del otro? En el caso de sucesos independientes: P(B/A) = P (B); es decir, no importa el suceso de A, la probabilidad de B no se ve alterada. Por ende, la probabilidad compuesta para sucesos independientes se calcula de la siguiente forma:

P (A y B) = P(A) . P(B) Distinto es el caso de sucesos dependientes, donde el suceso de A afecta la probabilidad de ocurrencia de B. La misma se calcula de la siguiente forma:

P (A y B) = P(A) . P(B/A)

Sabatini, Franco. Resumen de Estadística de la cursada regular del 2019. Página2 Universidad Nacional de Mar del Plata. Facultad de Ciencias Económicas y Sociales.

Probabilidad total El suceso es favorable si al menos se cumple una condición. Hace uso de la letra “o”. Es aditiva (suma probabilidades)

P (A o B) = P(A) + P (B) – P(AB)



Sucesos concomitantes: A y B pueden ocurrir simultáneamente y hay una probabilidad asociada a ello.



Sucesos mutuamente excluyentes: A y B no pueden ocurrir simultáneamente¸ por ende, la probabilidad de ocurrencia de este suceso es nula. P(AB) = 0

Teorema de Bayes Proviene de los árboles de decisión. Se trata de una combinación de la probabilidad condicional con la compuesta y la total. Por ejemplo: ¿Cuál es la probabilidad de encontrar un alumno que cursó con Martín Gnecco dado que promocionó? P (MG / P) Primero debo tener en cuenta el cálculo de una probabilidad simple (Casos favorables / Casos posibles) Luego planteo la fórmula del teorema de Bayes y la aplico al caso particular en función de los datos que tenga a disposición.

P(B/A) =

𝑃(𝐴) . 𝑃(𝐵 𝑑𝑎𝑑𝑜 𝐴) 𝑃(𝐵)

Promocionó (0,3) XX C.F.yP Aprobó (0,6)

Martín Gnecco (0,6)

Desaprobó (0,1)

Cursada de Estadística: 1

Mariano Morettini (0,4)

Promocionó (0,1) X C.P. Aprobó (0,4) Desaprobó (0,5)

𝑃(𝑀𝐺 𝑑𝑎𝑑𝑜 𝑃) =

𝑃(𝑀𝐺 ) . 𝑃(𝑀𝐺 𝑑𝑎𝑑𝑜 𝑃) 𝑃(𝑀𝐺). 𝑃(𝑀𝐺 𝑑𝑎𝑑𝑜 𝑃) + 𝑃(𝑀𝑀) . 𝑃(𝑀𝑀 𝑑𝑎𝑑𝑜 𝑃) Y

0,6 . 0,3 0,6 . 0,3 + 0,4 . 1

o

Y

Sabatini, Franco. Resumen de Estadística de la cursada regular del 2019. Página3 Universidad Nacional de Mar del Plata. Facultad de Ciencias Económicas y Sociales.

Unidad 2: Variable aleatoria Es un atributo que puede obtener distintos valores / etiquetas lingüísticas. Es aleatoria porque se le puede otorgar una probabilidad de ocurrencia. 

Categóricas o cualitativas: Son etiquetas lingüísticas (palabras) a) Nominales: No puedo establecer orden entre distintas variables. Por ejemplo: nacionalidad. b) Ordinales: Puedo establecer un orden. Por ejemplo: años de educación.



Cuantitativas: Numéricas. a) Discretas: Cantidad de personas en una casa. No puede dividirse. b) Continuas: Puedo encontrar un valor entre dos cualesquiera. Por ejemplo: si tardo entre 7 y 10 minutos, 8 es válido. Dinero.

Ejemplo: Definir variable aleatoria puntos al arrojar un dado homogéneo y simétrico. Al definirla, debemos indicar el valor que puede tomar la variable y en la otra columna le asigno la probabilidad. Xi 1 2 3 4 5 6

Pi

Pi 1/6 1/6 1/6 1/6 1/6 1/6 ∑=1

Pa 1/6 2/6 3/6 4/6 5/6 1 (siempre suma 1)

Pa

Sabatini, Franco. Resumen de Estadística de la cursada regular del 2019. Página4 Universidad Nacional de Mar del Plata. Facultad de Ciencias Económicas y Sociales.

Medidas características de la variable aleatoria Para calcularlas debemos utilizar momentos. Estos pueden ser:

𝑚

𝑠 .𝑃𝑖 1) Absolutos: ∑ variables. 𝑠= Trabajan directamente con todos los valores de las𝑋𝑖 La esperanza matemática es igual al momento absoluto de orden uno. Esta última es una medida de posición. Es decir, me permite ubicarme en términos gráficos respecto de la función. En el caso del dado: 1.1/6 + 2.1/6 … = 3,5. 3,5 puntos es el promedio que espero a priori, al arrojar el dado luego de muchos experimentos.

Características y propiedades de la Esperanza matemática:

𝑬(𝑿)

1) Es un promedio a priori: es un cálculo que se realiza antes de realizar el experimento, es decir, si lo repito muchas veces. 2) No tiene por qué ser un valor que tome la variable. 3) Siempre es un valor que está entre el mínimo y el máximo que toma la variable aleatoria.

𝑋𝑚𝑖𝑛 ≤ 𝐸(𝑋) ≤ 𝑋𝑚𝑎𝑥

4) En su cálculo intervienen todos los valores que pueden obtener las variables aleatorias y sus probabilidades asociadas. 5) La esperanza matemática de una constante es igual a la constante.

𝐸(𝐾) = 𝐾

6) La esperanza matemática de una variable más una constante, es igual a la esperanza de la variable más la constante.

𝐸(𝑋 + 𝐾) = 𝐸 (𝑋) + 𝐾

7) La esperanza matemática de la suma de dos variables, es igual a la esperanza matemática de la primera variable más la esperanza matemática de la segunda variable.

𝐸(𝑋 + 𝑌 ) = 𝐸(𝑋) + 𝐸(𝑌)

8) La esperanza matemática del producto entre dos variables, es igual al producto de las esperanzas de las respectivas variables.

𝐸(𝑋. 𝑌 ) = 𝐸 (𝑋). 𝐸 (𝑌) ↔ 𝑆𝑖 𝑋 𝑒 𝑌 𝑠𝑜𝑛 𝑠𝑢𝑐𝑒𝑠𝑜𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠

9) A la esperanza matemática también se la conoce como la apuesta equitativa. Es decir, es lo que gano por jugar muchas veces. Es lo que al menos me debería cobrar el casino como “derecho de jugar” o “entrada”. 10) Los desvíos (x) son iguales a las diferencias entre cada uno de los valores de la variable y la esperanza matemática.

𝑥 = 𝑋𝑖 − 𝐸(𝑋)

Sabatini, Franco. Resumen de Estadística de la cursada regular del 2019. Página5 Universidad Nacional de Mar del Plata. Facultad de Ciencias Económicas y Sociales.

11) El desvío va a ser más pequeño cuando el valor de la variable se acerca a la esperanza matemática.

lim

𝑋𝑖 →𝐸(𝑋)

𝑥=0

12) La esperanza matemática de los desvíos es igual a cero.

𝐸(𝑥) = 0

Momentos relativos / centrados

𝜇𝑠 = ∑ 𝑥𝑖 𝑠 . 𝑃𝑖

A diferencia de los momentos absolutos, los relativos trabajan directamente con todos los valores de los desvíos.

Varianza Es una medida típica de dispersión. Conceptualmente no tiene interpretación, si queremos hacerlo, debemos tomar la raíz cuadrada de ella y así obtener el desvío standard. Esta última representa, como promedio a priori, la variabilidad de los datos con respecto a la esperanza matemática. La varianza es el momento centrado de orden dos. Se denota como: 𝜎 2 (𝑋)

El desvío standard o dispersión, es igual a la raíz cuadrada de la varianza:

𝜎(𝑋) = √∑ 𝑥𝑖 2 . 𝑃𝑖

Propiedades de la varianza 1) La varianza es igual a la diferencia entre el momento absoluto de orden dos y el uno al cuadrado (esperanza matemática).

𝜎 2 (𝑋) = 𝜇2 = 𝑚2 − [𝐸(𝑋)]2

2) La varianza de una constante es igual a cero, es decir, no hay valores alejados.

𝜎 2 (𝐾) = 0

3) La varianza de una variable más una constante es igual a la varianza de la variable.

𝜎 2 (𝑋 + 𝐾) = 𝜎 2 (𝑋)

4) La varianza de una constante por una variable es igual a la constante al cuadrado por la varianza.

𝜎 2 (𝐾. 𝑋) = 𝐾 2 . 𝜎 2 (𝑋) Sabatini, Franco. Resumen de Estadística de la cursada regular del 2019. Página6 Universidad Nacional de Mar del Plata. Facultad de Ciencias Económicas y Sociales.

5) La varianza de la suma de dos variables es igual a la suma entre la varianza de la primera variable más la de la segunda.

𝜎 2 (𝑋 + 𝑌 ) = 𝜎 2 (𝑋) + 𝜎 2 (𝑌) ↔ 𝑆𝑖 𝑋𝑒 𝑌 𝑠𝑜𝑛 𝑠𝑢𝑐𝑒𝑠𝑜𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠

6) La varianza de la resta entre dos variables es igual a la suma de la primera varianza más la segunda.

𝜎 2 (𝑋 − 𝑌 ) = 𝜎 2 (𝑋) + 𝜎 2 (𝑌 ) ↔ 𝑆𝑖 𝑋 𝑒 𝑌 𝑠𝑜𝑛 𝑠𝑢𝑐𝑒𝑠𝑜𝑠 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠

𝜎(𝑋) 𝐸(𝑋)

Coeficiente de variabilidad

𝐶𝑉 =



Indica qué proporción de la esperanza representa el desvío standard.



¿Qué tan variable es la variable aleatoria?

  

𝐶𝑉 < 0,3 → 𝑉𝑎𝑟𝑖𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑏𝑎𝑗𝑎

0,3 < 𝐶𝑉 < 0,7 → 𝑉𝑎𝑟𝑖𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑚𝑜𝑑𝑒𝑟𝑎𝑑𝑎

0.7 < 𝐶𝑉 < 1,3 → 𝑉𝑎𝑟𝑖𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑎𝑙𝑡𝑎

Medidas de forma de una distribución

∑ 𝑥𝑖 3 . 𝑃𝑖 𝜇3 𝐴𝑆 = = [𝜎(𝑋)]3 [𝜎(𝑋)]3

1) Asimetría: Es el momento centrado de orden tres dividido el desvío standard al cubo.

AS < 0

AS = 0

AS > 0



En la primera curva los desvíos se encuentran a la izquierda (valores menos probables).



En la segunda curva los valores más probables se encuentran en el centro (distribución normal simétrica con forma de campana, curva de distribución de Gauss).



En la tercera curva los desvíos se encuentran a la derecha.

Sabatini, Franco. Resumen de Estadística de la cursada regular del 2019. Página7 Universidad Nacional de Mar del Plata. Facultad de Ciencias Económicas y Sociales.

2) Kurtosis: Es el momento centrado de orden cuatro dividido el desvío standard elevado a la cuarta, disminuido tres unidades.

𝐾=

K0

Teorema de Tchebysheff Es una desigualdad que establece que la probabilidad de que cualquier variable aleatoria X (valor de abscisas) se encuentre dentro de un intervalo simétrico (“t” veces el desvío standard, respecto de la esperanza) es al menos de 1 – 1/𝑡 2







1 𝑃 [𝐸(𝑋) − 𝑡. 𝜎(𝑋) ≤ 𝑋𝑖 ≤ 𝐸(𝑋) + 𝑡. 𝜎(𝑋)] = 1 − 2 𝑡

El valor central (gráfico) corresponde a la esperanza. Si me pidieran obtenerlo, es decir, si fuera mi incógnita; debería sumar ambos extremos del intervalo y dividirlo por dos.

Una vez hecho el paso anterior, puedo determinar cuánto vale el segmento “𝑡. 𝜎(𝑋)". Es la diferencia simétrica hacia ambos lados respecto de la esperanza.

Si ya tengo “t”, paso dividiendo y despejo 𝜎(𝑋).



Es aplicable a cualquier tipo de distribución.



Aplicable a variables discretas y continuas.



Especialmente útil en distribuciones asimétricas.

Sabatini, Franco. Resumen de Estadística de la cursada regular del 2019. Página8 Universidad Nacional de Mar del Plata. Facultad de Ciencias Económicas y Sociales.



Sólo aplicable para intervalos simétricos respecto de E(X).



Sólo aplicable cuando el intervalo se forma sumándole/restándole “t” veces un desvío standard.



Sólo aporta informaciones para valores de “t” mayores o iguales a 1.

Estandarización de variables aleatorias 

Es un coeficiente que me permite hacer comparables valores de distintas variables aleatorias.



Me indica a cuántos desvíos standard hacia la izquierda/derecha me encuentro respecto de la esperanza. Qué tan alejado estoy del promedio (desempeño relativo o ponderado)



A la variable estandarizada se la denomina “Z”.



Ejemplo: Quiero saber en qué universidad es más difícil obtener un promedio alto. Para ello, tomo mi promedio, y lo estandarizo junto con los datos de los respectivos promedios (esperanza) y desvío standard de cada universidad. De esas universidades, la variable Z que me dé más chica, significa que no estoy muy alejado de la esperanza, lo cual significa que ahí me fue bastante mal (comparado con el otro).

𝑍=



𝑋𝑖 − 𝐸(𝑋) 𝜎(𝑋)

La variable estandarizada tiene: E(Z) = 0; 𝜎(𝑍) = 1

Sabatini, Franco. Resumen de Estadística de la cursada regular del 2019. Página9 Universidad Nacional de Mar del Plata. Facultad de Ciencias Económicas y Sociales.

Unidad 3: Distribuciones probabilísticas básicas Cuando las variables aleatorias, experimentos y sucesos cumplen con ciertos requisitos, podemos encuadrarlos dentro de una distribución y simplificar el cálculo.

Distribución binomial: características y requisitos 

Variable aleatoria discreta (números naturales, no divisible).



Variable dicotómica: puede tomar sólo dos valores. Éxito o fracaso. Es o no es, no hay más alternativas. Por ejemplo, si me solicitan la probabilidad de obtener cara cuando arrojo una moneda dos veces, en ese experimento hay sólo dos sucesos posibles: obtener cara (éxito) o ceca (fracaso).



Se obtiene realizando el experimento dos o más veces.



La probabilidad de éxito o fracaso es constante. Es decir, son sucesos independientes, con reposición.



Los sucesos son mutuamente excluyentes (no puedo obtener cara y ceca simultáneamente).



P (éxito) = p



P (fracaso) = q = 1 – p



p: probabilidad de éxito.



q: probabilidad de fracaso.



S: cantidad de éxitos que deseo obtener.



n: repeticiones del experimento.

𝑃(𝑆) =

𝑛! . 𝑝 𝑆 . 𝑞 𝑛−𝑆 (𝑛 − 𝑆)! 𝑆!

Ejemplo: Se arroja un dado cinco veces. Se desea obtener la probabilidad de obtener tres veces 6 puntos. 1) ¿Cumple los requisitos? a) Variable aleatoria discreta: los números del dado son naturales. b) Dicotómica: obtengo 6 puntos (éxito), obtengo cualquier otro puntaje distinto (fracaso) c) La probabilidad de éxito es constante e igual a 1/6. La probabilidad de fracaso es constante e igual a 5/6. d) Son sucesos independientes. Obtener un puntaje en el primer intento, no condiciona la probabilidad de éxito en el siguiente. e) Son sucesos mutuamente excluyentes: no puedo sacar un 6 y un no 6.

2) Calculo la probabilidad utilizando la fórmula descripta: P(S=3) con cinco intentos y las respectivas probabilidades de éxito y fracaso.

Sabatini, Franco. Resumen de Estadística de la cursada regular del 2019. Página10 Universidad Nacional de Mar del Plata. Facultad de Ciencias Económicas y Sociales.

3) 𝐸(𝑆) = 𝑛. 𝑝

4) 𝜎 2 (𝑋) = √𝑛. 𝑝. 𝑞 5) 𝜎(𝑋) = 𝑛. 𝑝. 𝑞

𝐸(𝑋) − 𝑞 ≤ 𝑆𝑜 ≤ 𝐸(𝑋) + 𝑞 Valor más probable (So)

1

Probabilidad máxima

𝑃(𝑆𝑜) =

√2. 𝜋. 𝑛. 𝑝. 𝑞

Distribución de Poisson  

Caso límite de la distribución binomial. Cumple todas las características de la misma antes mencionada. Número de experimentos tiende a infinito. Probabilidad de éxito tiende a cero. (𝑛 → ∞; 𝑝 → 0)



Ley de sucesos raros.



Probabilidad de éxito por lo general menor a 0,1.



λ = E(S)

  

λ = 𝜎 2 (𝑋)

𝑒 −𝜆 . 𝜆𝑆 𝑃(𝑆) = 𝑆!

√𝜆 = 𝜎(𝑋)

Lambda y S tienen que estar expresados en la misma unidad de tiempo. Por ejemplo: si el enunciado me dice que en promedio hay un choque cada treinta días (esperanza/lambda), pero la consigna me solicita calcular la probabilidad de que haya dos choques en seis meses, debo multiplicar lambda por seis; y con ello, calcular la probabilidad con un S = 2. P(S=2).

Sabatini, Fra Universidad

da regular del 2019. Página11 iencias Económicas y Sociales.

Distribución multinomial Es una generalización de la distribución binomial. Cumple todas las características de la antes mencionada, excepto que la variable aleatoria ya no es dicotómica, sino policotómica (la probabilidad de éxito varía según el grupo, pero es constante en todos los casos). Se desea obtener la probabilidad de “éxitos conjuntos” en cada grupo en particular.

 

 

𝐸(𝑋) = 𝑛. 𝑝

𝜎(𝑋) = 𝑛. 𝑝. 𝑞

𝑃(𝑆𝑛 ) =

∑ 𝑆𝑖 = 𝑛

∑ 𝑃𝑖 = 1

𝑛! 𝑝1𝑆1 … 𝑝𝑛𝑆𝑛 𝑆1! … 𝑆𝑛 !

Principio de estabilidad de frecuencias A medida que la cantidad de experimentos crece (n tiende a infinito). La frecuencia relativa (fi = S/n; probabilidad empírica) se va a ir acercando cada vez más a la probabilidad clásica.

Distribución hipergeométrica Es una generalización de la binomial, es decir, cumple con todas sus características. Excepto que, la probabilidad de éxito/fracaso es variable y los sucesos son dependientes. 

Aparece una población total N. De ella se desprende Np (parte de la población que cumple con los requisitos de éxito) y Nq (parte de la población que se considera como no éxito).



N = Np + Nq



Tener en cuenta que tanto N, Np y Nq son números naturales.



𝐸(𝑋) = 𝑛.

𝑆 𝑛−𝑆 𝐶𝑁𝑞 𝐶𝑁𝑝. 𝑃(𝑆) = 𝐶𝑁𝑛


Similar Free PDFs