Teoria de inferencia PDF

Title Teoria de inferencia
Author Barbara Ms
Course Inferencia Estadística
Institution Universidad de Castilla La Mancha
Pages 3
File Size 95.9 KB
File Type PDF
Total Downloads 99
Total Views 151

Summary

teoria inferencia estadística...


Description

μ=media σ= desviacióntípica Variables aleatorias continuas (conjunto): la probabilidad siempre será 0. Se reparte en infinitos puntos. Varios intervalos. Variables aleatorias discretas (un punto): toman valores en puntos concretos, las variables se dan en puntos concretos. La binomial (si lanzamos la moneda 5 veces, la probabilidad ½) Función de cuantía.

0 ¿ Probabilidad acumulada: x ¿ ¿ F¿ Función generatriz: se utiliza para calcular los momentos potenciales (no la vamos a utilizar) 1. Distribución normal 1.2.N ( μ , σ ¿

Y =μ+σ X Cambios de origen sobre mu ( sumamos o restamos una constante a todos los valores ) Cambios de escala sobre desv. típica (multiplicamos todos los valores de una variable)

A la media o la esperanza le afectan todos los cambios.

X con E ( x )=0 y V ( x )=1 Y =2+3 x E ( Y )=2+3 E ( x )=2 Los cambios de origen no afectan a la varianza (la dispersión no cambia). Mu desaparece. La constante o cambio de origen desaparece. Con el cambio de escala, si afectan a la varianza elevándola al cuadrado.

V (Y ) = V(2+3x) =

32 V ( x )=9 ( 1) =9 → σ ( Y ) =± √ 9=± 3

Para tipificar restamos la esperanza y dividimos entre la desviación típica. Tiene propiedad reproductiva o aditiva pueden combinarse mediante la llamada combinación lineal. La varianza de la suma es igual a la suma de las varianzas solo cuando sean estadísticamente independientes, si esto no ocurre necesitamos la covarianza. La varianza no puede ser negativa.

X 1→ N (5,3 ) X 2 → ( 3,4 )siendo estadísticamenteindep . Y = X 1+ X 2 E ( Y ) = ( X 1+ X 2 ) =E ( X 1 ) + E ( X 2 ) =5+3=8 V (Y )=V ( X 1+ X 2)=V ( X 1)+ V ( X 2 )=9+16 =25 σ =± √ 25 =5 W = X 1−X 2 E ( W ) = ( X 1− X 2 ) =E ( X 1 )−E ( X 2 )=5 −3=2

V (W ) =V ( X 1− X 2 ) =V ( X 1 )+V ( X 2 )= 9+16= 25 σ=± √ 25=5 Y -> N (8,5)

W -> N (2,5)

V =2+2 X 1−3 X 2 E (V )=( 2+2 X 1−3 X 2 )=2+2 E ( X 1 )−3 E ( X 2) =2+25−9 =3 2 V (V )=σ (V )=V ( 2+2 X 1−3 X 2 ) =4 V ( X 1 )+9 V ( X 2) =4 · 9+ 9· 16=36+144 =180 σ ( V )=± √ 180

LAS VARIANZAS NUNCA SE RESTAN, SIEMPRE SE SUMAN (dado que se encuentran al cuadrado) Distribución simétrica: estar por debajo de un valor negativo implica lo mismo que estar por encima de un valor positivo. Si pide estar por debajo de un valor positivo necesitamos buscar ese número y restarle ese número a 1. Si pide estar por encima de un valor negativo, buscamos ese número y se lo restamos a 1. Intervalos: si ambos extremos son positivos (resta de ambas probabilidades) Si ambos extremos son negativos aplicamos la simetría; cambiamos de posición los valores por tanto cambia su valor, volvemos al ejemplo anterior (resta de ambas probabilidades) Si un extremo es positivo y el otro es negativo: se resta el número que es negativo, es decir, aquel que es positivo queda en primer lugar y se resta aquel negativo calculando el valor intermedio. Se restan ambos a 1. ¿Qué es tipificar? Pasar de X a Z.

Z=

X−μ σ

Ejercicio: N (6,3; 2,5) a) Probabilidad de que un alumno suspenda b) Número probable de alumnos que obtendrá sobresaliente en un grupo de 100 c) Nota mínima que se necesita para aprobar si suspende un 20% a) b)

5−6,3 < =P ( Z ←0,52)=P ( Z >0,52 )=0,3015 ( X−μ σ 2,5 ) P (X ≥ 9 )=P( X−μ ≥ 9−6,3 )=P (Z ≥ 1,08 ) =0,140 2,5 σ P (X B(n=100, p=0,2) La Poisson: cuando landa es suficientemente grande puede aproximarse por la normal. Esperanza es landa, y la desviación típica es la raíz de landa. Ejemplo: 1º A través de la Poisson 19

P (X ≥ 20 ) =1−P ( X...


Similar Free PDFs