TEMA 2. Características de una variable aleatoria (Apuntes de Clase) PDF

Title TEMA 2. Características de una variable aleatoria (Apuntes de Clase)
Author Valme López
Course Estadística Avanzada
Institution Universidad de Sevilla
Pages 16
File Size 660 KB
File Type PDF
Total Downloads 64
Total Views 144

Summary

TEMA 2. Características de una variable aleatoria. Apuntes de Clase dictados por el profesor Jose Antonio Camúñez...


Description

Tema 2. Característica de una variable aleatoria 1. Esperanza matemática Ej: Número de caras que se puede obtener al lanzar una moneda dos veces X 0 1 2

P[X=xi] 0,25 0,5 0,25 1 Media (µX) de la variable aleatoria: suma de los valores de x multiplicados por sus probabilidades. µ=∑

2

𝑥=0

𝑥 𝑃[𝑋 = 𝑥] = E[X]

E[X] es la esperanza de x que significa que si yo realizo el experimento, qué valor espero que salga. Ej: E[X]= 0 0,25 + 1 0,5 + 2 0,25 = 1 Ojo test. Definición de la media o de la esperanza: µ=∑ 𝑥 𝑃[𝑋 = 𝑥] = E[X] 𝑥

¿La esperanza de una variable aleatoria siempre existe? No siempre. Si la variable aleatoria discreta toma un número finito de valores, esa media/esperanza siempre existe; pero si la variable aleatoria tiene un número infinito numerable puede que exista o puede que no. VARIABLE CONTINUA La media o esperanza de x si x fuese una variable aleatoria se calcula mediante una suma en el continuo (integrar) y en lugar de por la probabilidad se multiplica por la densidad: ∞

µ= E[X] =∫−∞ 𝑥 𝑓(𝑥) dx

¿Existe siempre en la continua su esperanza o media? No siempre, ya que esa integral no siempre es convergente. Para que exista la integral tiene que ser convergente

Ejemplo:

Media o esperanza: 2



2

3

3

3

3

µ= E[X] =∫−∞ 𝑥 𝑓(𝑥) dx = ∫ 𝑥 (− 4 𝑥 2 + 𝑥) dx = ∫ (− 4 𝑥 3 + 𝑥 2 ) 𝑑x = 2 2

3 2 − 4 ∫0 (𝑥 3 ) 𝑑x

3

2 + 2 ∫0 (𝑥 2 ) 𝑑x

0

3 𝑥4

2

3 𝑥3

2

0

= − [ 4 ] + [ 3 ] = -3+4 = 1 4 2 0

0

Por tanto, el valor medio es 1 Ejemplo: Suponemos que tenemos dos jugadores A y B. A apuesta 1€ y B apuesta b€ en un juego de lanzar un dado. Si al lanzarlo una vez me sale un 6, el dinero que hay en la mesa se lo lleva A, pero si al lanzarlo no me sale un 6, el dinero se lo lleva B. ¿Cuánto debe ser b para que sea un juego justo, es decir, donde la esperanza de la ganancia de cada jugador es 0? X = ganancia de A X B -1

P[X=x] 1/6 5/6 1 E(x) = b x 1/6 + (-1)(5/6) = b/6 – 5/6 = (b-5)/6 = 0 b-5 = 0 b=5 Aquel que arriesga más es el que menos dinero pone y aquel que arriesga menos es el que más dinero pone. La esperanza se iguala a 0 porque la esperanza de ganancia de cada jugador es 0 En resumen: E[X]=∑ 𝑥 𝑥 𝑃[𝑋 = 𝑥] ∞

E[X] =∫−∞ 𝑥 𝑓(𝑥) dx

Si la variable es discreta con un número finito numerable o es continua, puede que exista o puede que no exista. Pero si es un número finito (discreta) siempre existe.

Valor esperado de una transformación Tenemos una variable discreta X=P[X=x] o una variable continua X=𝑓𝑥 (𝑥) Podríamos hacer una transformación de la variable en Y = g(X), siendo la transformación una variable aleatoria. •

Variable discreta

Si X es discreta, Y será discreta. Podríamos calcular también la esperanza de Y E[Y]=∑ 𝑦 𝑦 𝑃[𝑌 = 𝑦]

Para calcular esta esperanza hubiera sido necesario tener creada la función de probabilidad de Y Pero a partir de la función de probabilidad inicial también podemos calcular la esperanza de la transformada y no necesitaría haber creado la función de probabilidad de Y: E[Y]= E[g(x)]=∑𝑥 𝑔(𝑥) 𝑃[𝑋 = 𝑥]

Ejemplo: número de caras al lanzar dos monedas X 0 1 2

P[X=x] ¼ ½ ¼ 1 Calculamos la media: 2

µ= E[X] =∑𝑥=0 𝑥 𝑃[𝑋 = 𝑥] = o

1

4

1

1

+12+2 =1 4

Si yo realizase el experimento yo espero que salga una cara. Ahora realizo la transformación de la variable en: Y= 𝑋 2

La nueva variable Y es una variable discreta Y 0 2 =0 1 2 =1 22 = 4

P[Y=y] ¼ ½ ¼ 1

2

µ= E[Y] =∑𝑥=0 𝑦 𝑃[𝑌 = 𝑦] = o

1

4

1

1

+ 1 2 + 2 4 = 3/2

¿Podría haber calculado la media de Y sin construir la función de probabilidad? Sí 2

1

1

1 E[𝑋 2 ] =∑ 𝑥=0 𝑥 2 𝑃[𝑋 = 𝑥] = 02 4 + 12 2 + 22 4 = 3/2



Caso continuo

Tenemos una variable X continua con su función de densidad 𝑓𝑥 (𝑥). A la variable continua la transformamos en Y=g(x). Esa transformación puede ser a una variable discreta o a una variable continua. Supondremos que la transformación será continua. Si Y se transforma en una continua tendremos la función de densidad de y 𝑓𝑦 (𝑦). Podemos calcular la esperanza de Y: ∞

µ= E[Y] =∫

−∞

𝑦 𝑓𝑦 (𝑦) dy

¿Pero podemos calcular la esperanza sin construir la función de densidad de Y? Sí ∞

µ= E[Y] = E[g(x)]=∫−∞ 𝑔(𝑥)𝑓𝑥 (𝑥)dx

Momentos respecto al origen de la variable X Tanto en variable discreta como en variable continua podemos construir la esperanza de X elevada a cualquier número. A esas esperanzas les llamamos momentos respecto al origen de la variable X y serán: 𝛼1 =µ= E[X]

𝛼2 =µ= E[𝑋 2 ]

𝛼3 =µ= E[𝑋 3 ]

𝛼4 =µ= E[𝑋 4 ]

… Esos momentos no siempre existen, pero si existe un momento de un determinado orden existen los momentos de orden inferior. Por ejemplo, si existe el momento de orden 3 (𝛼3 ) también existen seguro 𝛼1 𝑦 𝛼2, pero no podemos garantizar que existan de orden superior. Los momentos los utilizamos para caracterizar una variable aleatoria, de tal manera que dos variables son tanto o más parecidas cuantos más momentos coincidan. Por ejemplo, dos variables que tengan tres momentos iguales son muy parecidas entre sí.

Varianza y desviación típica El año pasado dimos la varianza de una variable estadística que era:

Luego a nivel práctico la calculábamos: 𝑛

𝑆 2 = ∑ 𝑖 𝑥𝑖2 𝑓𝑖 − 𝑥 2 La varianza era una medida de dispersión de la variable estadística. En variable aleatoria tenemos diferentes valores con diferentes probabilidades. La varianza de una variable aleatoria la designaremos como 𝜎 2 •

Varianza para una variable aleatoria discreta:

𝜎 2 = ∑ 𝑥(𝑥 − µ)2 𝑃[𝑋 = 𝑥] 𝜎 2 = ∑ 𝑥 x2 𝑃[𝑋 = 𝑥 ] − µ2

La varianza no siempre existe, ya que estamos trabajando con un número infinito de datos. La varianza siempre va a ser mayor o igual que 0 y mientras más grande sea, más dispersión existe. Si la varianza es igual a 0 la variable aleatoria solo toma un valor con probabilidad 1 y a esta se le llama variable degenerada. Se expresa en unidades de la variable al cuadrado. Vemos que la varianza se puede escribir como una transformada de X: 𝜎 2 = ∑ (𝑥 − µ)2 𝑃[𝑋 = 𝑥] = E[(𝑥 − µ)2 ] = E[(𝑥 − 𝐸(𝑋))2 ] 𝑥

𝜎 2 = ∑ 𝑥 x2 𝑃[𝑋 = 𝑥 ] − µ2 = E[X2 ] − µ2 = E(X2 )- (𝐸(𝑋))2

Por tanto, la varianza es la esperanza del cuadrado menos el cuadrado de la esperanza. En 𝜎 2 = 0: E[𝑋 2 ] =(𝐸(𝑋))2

𝜎 2 = E[𝑋 2 ] -(𝐸(𝑋))2

En los demás casos: E[𝑋 2 ] >(𝐸(𝑋)) 2

E[𝑋 2 ] ≥(𝐸(𝑋)) test

2



Varianza para una variable aleatoria continua: ∞

𝜎 2 =∫−∞(𝑥 − µ)2 𝑓(𝑥) dx ∞

𝜎 2 =∫−∞ x2 𝑓(𝑥) dx - µ2

La varianza no siempre existe, ya que estamos trabajando con un número infinito de datos. La varianza siempre va a ser mayor o igual que 0 y mientras más grande sea, más dispersión existe. Si la varianza es igual a 0 la variable aleatoria solo toma un valor con probabilidad 1 y a esta se le llama variable degenerada. Se expresa en unidades de la variable al cuadrado. Vemos que la varianza se puede escribir como una transformada de X: ∞

𝜎 2 =∫−∞(𝑥 − µ)2 𝑓(𝑥) dx = E[(𝑋 − µ)2 ] = E[(𝑋 − 𝐸(𝑋))2 ] ∞

𝜎 2 =∫−∞ x2 𝑓(𝑥) dx - µ2 = E[X2 ] - µ2 = E[X2 ] - (𝐸(𝑋))2

Por tanto, la varianza es la esperanza del cuadrado menos el cuadrado de la esperanza. En 𝜎 2 = 0: E[𝑋 2 ] =(𝐸(𝑋))2

𝜎 2 = E[𝑋 2 ] -(𝐸(𝑋))2

En los demás casos: E[𝑋 2 ] >(𝐸(𝑋))

2

E[𝑋 2 ]≥(𝐸(𝑋))2 test •

Momentos de orden n respecto a la media o momentos centrales

A partir de la definición de la variable podemos definir diferentes momentos de orden n respecto a la media o momentos centrales para caracterizar la variable aleatoria. Si dos variables distintas tienen momentos iguales son muy parecidas entre sí. 𝜎 2 = E[(𝑋 − µ)2 ] = µ2

E[(𝑋 − µ)1 ] = E[X- µ] = µ1

E[(𝑋 − µ)3 ] = µ3

E[(𝑋 − µ)4 ] = µ4 …

µ1 (momento de orden 1 respecto a la media) siempre es 0 para cualquier variable. µ3 sirve para construir el coeficiente de simetría de una variable.

µ4 sirve para construir el coeficiente de curtosis.

Si existe un determinado momento central, existen los momentos centrales de orden inferior. Pero no tengo garantía de que existan los momentos centrales de orden superior. Relación entre la existencia de los momentos centrales y los momentos respecto al origen: Si a mi me dicen que existe µ4 , podemos afirmar que existe µ3 , µ2 y µ1 . Pero además puedo decir que existe 𝛼4 , 𝛼3 , 𝛼2 y 𝛼1 . Es decir, existen los momentos centrales inferiores y también sabemos que existen los momentos respecto al origen iguales o inferiores. Si existe 𝛼4 podemos afirmar que existen 𝛼3 , 𝛼2 y 𝛼1 . Además, podemos afirmar que existe µ4 , µ3 , µ2 y µ1 . Es decir, existen los momentos respecto al origen inferiores y también sabemos que existen los momentos centrales iguales o inferiores. Por tanto tenemos las siguientes relaciones: 𝛼1 = µ1 = E[X]



𝛼2 = E[𝑋 2 ] = ∑𝑥 𝑥 2 𝑃[𝑋 = 𝑥] ó =∫−∞ 𝑥 2 𝑓𝑥 (𝑥) dx ∞

𝛼3 = E[𝑋 3 ] = ∑𝑥 𝑥 3 𝑃[𝑋 = 𝑥] ó = ∫−∞ 𝑥 3 𝑓𝑥 (𝑥) dx ∞

𝛼4 = E[𝑋 4 ] = ∑𝑥 𝑥 4 𝑃[𝑋 = 𝑥] ó = ∫−∞ 𝑥 4 𝑓𝑥 (𝑥) dx

• Propiedades del operador de esperanza matemática 1. E[a]= a. La esperanza de una constante es la propia constante 2. E[a + bX]= a + b E(X): le hago un cambio de origen a y un cambio de escala b, por tanto vemos que los cambios de origen y escala influyen en la esperanza 3. E[a 𝑔1 (𝑋)+b 𝑔2 (X)] = a E[𝑔1 (𝑋)] + b E[𝑔2 (𝑋)]. La esperanza de una suma es la suma de la esperanza y las cantidades que se están multiplicando pueden salir fuera del operador esperanza matemática. 4. E[X+Y] = E[X] + E[Y] si tengo dos variables aleatorias y las sumamos, es como sumarle las esperanzas de cada variable El operador esperanza matemática es un operador lineal (lo vemos en las propiedades 2 y 4). La varianza se mide en unidades al cuadrado •

Desviación típica 𝜎 = +√ 𝜎 2

𝜎≥0

Cuanto más grande sea 𝜎 más separados están los valores del centro, donde el centro es la media, es decir, mientras más grande sea, más dispersión existe. Si la varianza es igual a 0 la variable aleatoria solo toma un valor con probabilidad 1 y a esta se le llama variable degenerada. Se expresa en unidades de la variable.



Cambio de origen y escala en la varianza y la desviación típica

Tenemos una variable X con 𝜎𝑥2 y 𝜎𝑥 . Además, otra variable Y = a + bX con 𝜎𝑦2 y 𝜎𝑦 𝜎𝑦2 = 𝑏 2 𝜎𝑥2

𝜎𝑦 = |𝑏| 𝜎𝑥

El cambio de origen no influye en la varianza y el cambio de escala sí. El cambio de escala sale fuera de la varianza elevado al cuadrado. El cambio de origen no influye en la desviación típica y el cambio de escala sí. El cambio de escala sale fuera de la desviación típica en valor absoluto. EJEMPLO DISCRETA: número de caras al lanzar dos monedas X 0 1 2

P[X=x] ¼ ½ ¼ 1 µ= E[X] = 1 2

1

1

1 E[𝑋 2 ] =∑𝑥=0 𝑋 2 𝑃[𝑋 = 𝑥] = 02 4 + 12 2 + 22 4 = 3/2

𝜎 2 = E[𝑋 2 ] -(𝐸(𝑋))2 = 3/2 -12 =0,5 𝑐𝑎𝑟𝑎𝑠 2 𝜎 = +√0,5= 0,7071 caras

EJEMPLO CONTINUA:

µ= E[X] = 1 hora ∞

2

3

3

3

2

3

2

E[𝑋 ] =∫−∞ 𝑋 𝑓(𝑥) dx = ∫ 𝑥 2 (− 4 𝑥 2 + 2 𝑥) dx = − 4 ∫0 (𝑥 4 ) 𝑑x + 2 ∫0 (𝑥 3 ) 𝑑x = 2

2 3 𝑥5 −4[ 5] 0

2

3 𝑥4

2

+ [ ] = 6/5 4 2

0

0

𝜎 2 = E[𝑋 2 ] -(𝐸(𝑋))2 = 6/5 -12 =0,2 ℎ𝑜𝑟𝑎𝑠2 𝜎 = +√0,2= 0,44 horas



Nueva definición de varianza con los momentos

Podemos hacer una nueva definición de varianza usando los momentos: 𝜎 2 = E[𝑋 2 ] –(𝐸(𝑋)) µ2 = 𝛼2 -𝛼1 2

2

Mediana En variable estadística la mediana era el valor de la variable donde la mitad de los valores estaban por encima y la otra mitad estaba por debajo. En variable aleatoria tendremos la mediana Me o 𝑋0,5; y será el valor donde la mitad de la probabilidad está a su izquierda y la otra mitad de la probabilidad está a su derecha. Mediana de una variable aleatoria: aquel valor de la variable que divide la masa total de la probabilidad en dos partes iguales. Es decir, es el valor que acumula la mitad de la probabilidad. F (𝑋0,5) = 0,5 • Cálculo de la mediana en caso discreto 1. Construimos la función de distribución 2. En la función de distribución buscamos el primer valor de X en el que la F(X) es mayor o igual que 0,5. Ejemplo: X 0 1 2

P[X=x] ¼ ½ ¼ 1

En la función de distribución buscamos el primer valor de X en el que la F(X) es mayor o igual que 0,5.

En este ejemplo vemos que 0,5 se supera en ¾, cuyo primer valor es 1, por tanto Me=1



Cálculo de la mediana en caso continuo

1. Construimos la función de distribución 2. Igualamos la función de distribución a 0,5.

Ejemplo:

F(X) = 0,5 -¼ (𝑥 3 ) + ¾ (𝑥 2 ) = 0,5 -(𝑥 3 ) + 3(𝑥 2 ) = 2

-𝑥 3 + 3𝑥 2 − 2 = 0

𝑥 3 - 3𝑥 2 + 2 = 0

13 + 3 12 − 2 = 1-3+2= 0

Para una ecuación de tercer grado probamos diferentes valores (divisores del término independiente) para ver si se cumple. Ahora nos queda una ecuación de segundo grado: 𝑥 2 – 2x- 2 = 0 X2 = 2,73 X3 = -0,73 De las tres soluciones que he encontrado para encontrar la mediana, las dos últimas están fuera del recorrido de la variable. La mediana y la media tienen que ser valores que estén dentro del recorrido de la variable. Por tanto, la mediana es 1 hora. Es decir, la mitad de los estudiantes dedican menos de 1 hora y la otra mitad dedican más de una hora en estudiar. Si hubiese dos tramos que definen la función de distribución, para comprobar cuál de los 2 es, igualaría los dos tramos a 0,5 sustituyendo el máximo valor de ambos tramos.

Cuantiles El cuantil de orden α con 0≤ α≤1 es cualquier valor 𝑥α que cumpla simultáneamente estas dos condiciones:

• Percentiles donde α son de la forma k/100 para k=1,2,3,....,99. • Deciles donde α son de la forma k/10 para k=1,2,3,....,9. • Cuartiles donde α son de la forma k/4 para k=1,2,3 •

Variable continua

Podemos generalizar el concepto de mediana. Por ejemplo podemos igualar la función de distribución a 0,25 (F(x) = 0,25). Los resultados que nos salieran nos daría a su izquierda un 25% de la probabilidad y a la derecha un 75%. Esto sería el percentil 25 (el que deja a su izquierda un 25%) o primer cuantil. Percentil 20 o 2º decil (aquel que divide el recorrido de 10 en 10). Sería cuando igualáramos F(X) = 0,2. Dejamos a su izquierda el 20% y a la derecha el 80%. Percentil 95. Dejamos a su izquierda el 95% La búsqueda de estos valores significa igualar la función de distribución al valor que me digan. •

Variable discreta

En variable discreta lo que hacemos es buscar en los valores de la función de distribución el primer valor que sea mayor o igual que 0,25 (percentil 25), que sea 0,2 (percentil 20) o que sea 0,95 (percentil 95) Moda, Mo •

Variable discreta

La moda en la variable aleatoria discreta es el valor más probable Ej: X 0 1 2

P[X=x] ¼ = 0,25 ½ = 0,5 ¼ = 0,25 1 Como es el valor más probable, la moda es 1, es decir, lo más probable es que salga el 1.



Variable continua

Para variables aleatorias absolutamente continuas la moda es aquel valor para el que la función de densidad f(x) es máxima, siempre y cuando f(x) sea continua en ese punto. Lo que hacemos es derivar la función de densidad e igualarla a 0. Para comprobar hacemos la segunda derivada de f(x), ya que si la segunda derivada en el punto es negativa ese punto es un máximo, mientras que si la segunda derivada en el punto es positiva ese punto es un mínimo. Si la función de densidad tiene un punto mínimo, este sería el punto antimoda y la moda serían los puntos extremos que encontramos la función de densidad: Ejemplo: Aquí la moda serían los puntos 1 y 4; y el punto antimoda sería 2,5

Si tenemos la función de distribución: Como F´(x)=f(x), la moda está en el punto donde la derivada de la función F es máxima. Por tanto, en la moda F´´(x) valdrá 0 y F tiene un punto de inflexión. Hacemos la segunda derivada de F y la igualamos a 0. Ejemplo: Vamos a calcular el máximo de f(x) = -¼ (𝑥 3 ) + ¾ (𝑥 2 ) Primero derivamos la función: f`(x) = - ¾ 2x + 3/2 = - 3/2 x + 3/2 Una vez derivada la igualamos a 0: f`(x) = 0: - 3/2 x + 3/2 = 0: 3/2 x = 3/2: x = 1 comprobamos haciendo la segunda derivada: f``(x) = -3/2 f``(1) = -3/2...


Similar Free PDFs