FÓRMULAS PROBABILIDAD Y ESTADÍSTICA PDF

Title FÓRMULAS PROBABILIDAD Y ESTADÍSTICA
Author Hugo Villanueva
Course Análisis de Datos Económicos
Institution Universitat de les Illes Balears
Pages 13
File Size 528.6 KB
File Type PDF
Total Downloads 77
Total Views 149

Summary

Recopilación de las fórmulas necesarias para aprobar la asignatura ....


Description

Análisis de datos económicos: Formulas relevantes

Febrero 2018

Esta resumen de formulas incluye un gran parte de formulas usadas durante el curso. Nota importante: No es la hoja de formulas que vamos a adjuntar el examen. Media aritmética n

Frecuencias unitarias;

x  x  ...  xn   i 1 x 1 2 n n

En el caso contrario;

x

xi

k x1n1  x 2n 2  ...  xk nk xn  i i n i1 n

Comentario: Normalmente usamos la notación que i 1,2,..., n en el sumatorio, pero aquí hemos usado k para indicar el último valor; Es para tener claro que no es lo mismo como el tamaño de la muestra (n) en la formula. No obstante, abajo usamos i 1,2,..., n y el último valor en la sumatorio no tiene que ser lo mismo como el tamaño de la muestra.

xi'  xi k

Cambio de origen;

x ' x k

Cambio de escala; x i' x i k x i'' 

xi k

x ' x k 1 x ''  x k

Media geométrica n

G N x1n 1  x2n 2  xnnn N

x

ni i

n n n 1/N ( x1 1  x 2 2 x n n )

i 1

n

log G log N  xini  i 1

 n  1 1 log   x nii   N  i 1  N

n

 log x

ni i



i 1

1 n  (log x i )n i N i 1

Media armónica H

N 1 1 1 n 1  n 2  ...  n n x1 x2 xn



N 1 ni  i1 x i n

Mediana Número impar de observaciones (n): Número par de observaciones (n):

Me x n 1     2 

x n   x n Me 

  1 2 

  2 

2

En distribuciones agrupadas en intervalos: Busca el valor que ocupa el lugar N / 2 , es decir, identifica el intervalo que contiene la mediana y calcula una aproximación de la mediana;

Me Li  1

 N   N i 1   2  ci  ni      

Moda La moda es el valor que tiene la frecuencia más alta. En distribuciones agrupadas en intervalos debemos identificar el intervalo que contiene la moda y después calcular una aproximación. ni 1    ci a) intervalos de la misma amplitud; Mo L i 1     ni  1  ni 1  

 di 1 b) intervalos de distinta amplitud; Mo L i 1    d i 1  d i1

  c   i

Medidas de posición no centrales; Cuantiles b) Para distribuciones agrupadas en intervalos

Q r / k L i 1

  r  N  N i  1  k   ci    ni    

Varianza de la población n

x n

2 i i

n

n   ( x i   ) i N i1 2

2

 2  i1

N

 x2 n

n

 m2 a2  a 2

2 1

Nota:

 xn

i i

a1 

i 1

N

x

,

a2 

x n 2 i

i

i1

N

Un cambio de origen en la variable no afecta a la varianza; 2 2 Si Yi  X i  k entonces,  y  x porque k es una constante y var(k ) 0 . Un cambio de escala de la variable afecta a la varianza; 2 2 2 Si Yi  X i k entonces,  y  k  x y  y  k  x .

I

La media después de una fusión de grupos es; xT   f i xi i 1

  n f  donde 1  I 1   ni  i1

    y hay I grupos.   I

I

i 1

i 1

2 2 2 La varianza después de una fusión de grupos es;  T  f i i   fi ( xi  xT )

 n2    n1   x1   xT   ( n  n )  x2   1 2   (n1 n2 )    n2   2  n1  2  n2  n1  ( x2  xT ) 2  (x 1  x T ) 2     2     1    T2          (n1  n 2 )   (n1  n 2 )   (n1  n 2 )   (n 1  n 2 ) 

Ejemplo con dos grupos:

Varianza de la muestra n

 (x

s 2  i1

i

 x )2 n i

n 1

   n  2 s    n  1   

n

x

2 i

ni

i 1

n

  2   x   

Desviación típica o estándar (de una muestra) s  s2 

n

 (x  i

i 1

x )2

ni n 1

Tipificación zi 

xi  x 

zi es la posición relativa de observación i , es decir, cuantas desviaciones típicas por encima de la media o por debajo de la media (si el signo es negativo). Si realizamos el cálculo para todas las observaciones i 1,..., n hemos estandardizado la variable; la media es 0 y la desviación típica es 1.

Medidas de dispersión relativas

C 3  C1 C 3  C1

Recorrido semi-intercuartílico;

Rs 

Coeficiente de variación de Pearson;

CV 

 x

Coeficiente de asimetría de Pearson AP 

x  Mo 

o alternativamente:

AP 

3 ( x  Me) 

Coeficiente de asimetría de R.A. Fisher n

 (x

 x )3

i

ni N

m g 1  33  i1 3/ 2   n 2 ni    ( x i  x) N    i1 m3 a3  3a2 a1  2 a31

Índice de Gini IG 

2 k  xi fi Fˆi  1 x i 1

IG 2 1

k

 p

i

i 1 f f Fˆ i   f j  i  Fi  1  i 2 2 j1

2 IG  cov( x, Fˆ ) x

 pi  1  qi  q i  1 

i1

Si tenemos el porcentaje de renta total para cada grupo i 1,..., k , en lugar de x i , podemos calcular: k

IG  2 u i Fˆi  1 i 1

Distribución normal 1 ( x ) 2

 1 f (x )  e 2  2

2

Coeficiente de Asociación Chi-Cuadrado (χ2)

I

J

   2

n

i1 j1

Coeficiente “C” de contingencia de Karl Pearson C

2 2  n

límite _ máximo  1 

1 min(I ,J )

ij

 e ij  2 e ij

Donde I es número de filas y J número de columnas en la tabla de contingencia. Covarianza de la población      

 n   ( xi  x ) ( yi  y )ni  xy   i 1  N  

 xy m11 a11  a10 a01 n

xyn i

 xy  i 1

i

i

N

 xy

Covarianza de una muestra

s xy

   n     n  1   

n

x

i

yi ni

i1

n

   xy    

Coeficiente de correlación lineal   xy rxy    x y 

  s xy       sx sy    

Regresión lineal y a  bx  u

 b  xy 2  x

a y  b x

  s xy   2   sx

Varianza residual (VR) de una población

 u2

 n ˆ )2 n i   (yi  y  i1  N  

           

 ni  i1   N   n

u

2 i

Varianza residual (VR) de una muestra

s

2 u

     

n

  ˆ) 2 ni    y   n      n  k  n k    

 (y i 1

i

n

 ni    n  

u i 1

2 i

  

yˆ0 a  bx0

Coeficiente de determinación de una población a) con sólo una variable explicativa:   xy   xy  R bb' xy   x2  y2    x y 2

2

 2   rxy  

b) fórmula más general:

VR VE u2 Y2  u2  R2 R 1  2   2 1  2 VT VT Y Y u 2

2 2 2 Donde varianza explicada es VE  R  Y   u . (El subíndice R se refiere a regresión, ¡NO residual!).

Coeficiente de determinación de una muestra (Coeficiente de determinación ajustada)

2

R 2adj 1

su s 2Y

 n 2    ui n i   n  i 1     n  n K       1  n 2    yi n i   n   i1  y2    n  n  1     

 n 1 2 2 Radj 1   (1 R )  n k 

Nota: en este contexto k se refiere al número de parámetros del modelo de regresión.

Momento rs con respecto origen

Momento rs con respecto al las medias

Probabilidad condicionada P( A1 A2 ) 

P ( A1  A2 ) P (A 2 )

Ley de probabilidad total (LPT) P (D )  P (H 1  D )  P (H 2  D )  ...  P( H1 ) P( D H1 )  P (H 2 ) P (D H 2 )  ...

El Teorema de Bayes P( H i D) 

P ( H i ) P ( D Hi ) P( H 1) P( D H 1)  P( H 2 ) P( D H 2 )  ...

Variable aleatoria discreta x

F ( x )  P ( X  x )  p ( x ) 0

x2

 P[ x1  X  x2 ]  p x( x) x1

 P (X  x) 1 - F(x)

Variable aleatoria continua x

F ( x)  P( X  x)  f ( x) dx  

x

 P [x 1 X x 2 ]   f x (x )dx F (x 2 )  F ( x 1) x 2

1



F (x )  f ( x) x

Valor esperado a) discreto

E ( X )  xi f ( x i )

b) continuo

E( X )  xi f ( x)dx

i 



Varianza a) discreto  2 Var ( X )  E(( X   ) 2 )  ( xi   ) 2 f ( xi ) i

b) continuo 

( xi   )2 f ( x )dx  2 Var ( X ) E (( X  ) 2 )   

Desviación estándar   Var ( X )

Distribución Bernoulli p ( x )  p x (1  p ) 1 x

x 0, 1

Bernoulli, esperanza y varianza 1

E[ X ]    x P( X  x) 0 P( X 0)  1P( X 1)  p x0

1

Var (X ) E [ X 2 ]  (E [ X ]) 2  x 2 P ( X x )  p 2 x 0

 0 P( X  0)  1 P( X 1)  p2  p  p2  p(1 p) 2

2

Distribución Binomial

 n f ( x)   p x (1  p ) (n  x )  x

f (x ) = probabilidad de x éxitos en n intentos.  n n!    x x n ! (  x)!  

p = probabilidad de éxito en un intento. (1  p ) = probabilidad de fracaso en un intento. Distribución Binomial, esperanza y varianza E[ X ]  np Var [ X ]  2  np(1  p )

Distribución Poisson e   y P(Y y)  f ( y | )  y!

y 0, 1, 2,...,

Distribución Poisson, esperanza y varianza Var (Y )  

E (Y )  

Función de densidad de distribución Normal

Distribución Chi-cuadrado Y  X12  X 22  ...  Xn2 ~  n2 2 2 2 Donde X 1 , X 2 , ..., X n son variables aleatorios independientes y X i  N (0,1) y n son los grados de libertad.

E (Y ) n

Var (Y ) 2n

Distribución t student tn 

z 1 2 n n

Distribución F de Fisher-Snedecor

Fn1 ,n2 

n21 / n1  2n2 / n2

Muestreo sin reemplazamiento 2 N  n   n  N 1

E (x ) 

Var ( x) 

E (R) 

Var (R ) 

 (1   )  N  n    n  N 1

Teorema Central de Límite Aproximar la distribución Binomial con la distribución Normal. x  np np (1  p )

~ N(0,1)

 x  0,5  np   p ( X x )     np (1  p )     x  0,5  np   p ( X  x )    np(1  p)   

Aproximar la distribución Poisson con la distribución Normal. 



Pi (1)   (1)

i 1





x  ~ N(0,1) 

 y  0,5     p (Y  y )      y  0,5     p (Y  y )    

Aproximar la distribución Chi-cuadrado con la distribución Normal. Z

 n2  n ~ N(0,1) 2n

 y n p (Y  y )    2n 

Varianza muestral es una variable aleatoria con distribución chi-cuadrado y n  1 grados de libertad;

 n2 1 

( n  1) s 2 2

El cociente da las varianzas muestral es una variable aleatoria con distribución F nA  1, n B  1 con n A  1 y nB  1 grados de libertad Fn A  1,n B  1 

s 2A s 2B

Elegir tamaño de muestra para estudiar la proporción poblacional a) sin reemplazamiento n1 n2  1 (n1 / N )

b) con reemplazamiento 2

Z  n1  1  / 2   (1   )  c 

Elegir tamaño de muestra para estudiar la media poblacional a) sin reemplazamiento n2 

n1 1 (n1 / N )

b) con reemplazamiento 2

 Z n1  1  / 2   2  c 

Las fórmulas requieren tamaño de muestra, grandes.

n , y el tamaño de la población,

Estimación puntual Parámeter Media (  )

Estimator Media muestral

N

xn i

x  i1

n

i

N ,

2 Varianza ( )

n

Varianza muestral

Sˆ 2  Proporción ( )

 (x

i

 x ) 2n i

i 1

Proporción muestral

R  ˆp 

n 1 n1 n...


Similar Free PDFs