Variables aleatorias unidimensionales PDF

Title Variables aleatorias unidimensionales
Course Estadística I
Institution Universidad de Valladolid
Pages 9
File Size 184.2 KB
File Type PDF
Total Downloads 23
Total Views 131

Summary

Download Variables aleatorias unidimensionales PDF


Description

VARIABLES ALEATORIAS UNIDIMENSIONALES: •

Definición de variable aleatoria

Una variable aleatoria es una característica numérica asociada a los resultados de un experimento aleatorio que se puede probabilizar (recoge la distribución esperada). Las variables aleatorias pueden ser: - discretas, toman un número finito o infinito numerable de valores - continuas, toman un número infinito no numerable de valores en un intervalo •

Variables aleatorias discretas

Toman un número finito o infinito numerable de valores separados, {x1, x2,..., xn,...}, que supondremos ordenados de menor a mayor. Su probabilidad se describe mediante la función de distribución y la función de probabilidad. La función de probabilidad proporciona la probabilidad de cada uno de los valores de la variable p (X = xi) para i= 1, 2, 3, 4,... - p (X = xi) ≥ 0 - ∑ p (X = xi) = 1 desde i= 1 hasta ∞ La función de probabilidad siempre toma valores no negativos y la suma de la probabilidad de todos los puntos es igual a uno A partir de la función de probabilidad se obtiene, por suma, la probabilidad de cualquier conjunto de valores: p (X ϵ B) = ∑ p (X = xi) xi ϵ B p (a < X ≤ b) = ∑ p (X = xi) a < xi ≤ b La función de distribución, que para cada punto real x se define como la probabilidad acumulada hasta dicho punto, es la probabilidad de que la variable X tome valores menores o iguales a x FX (x) = p (X ≤ x) = ∑ p (X = xi) xi ≤ x Dado que la probabilidad en las variables discretas sólo reside en unos puntos aislados, la acumulación de probabilidad se produce a saltos, resultando la función de distribución escalonada, con rupturas en los valores que toma la variable. El tamaño del salto de la función de distribución en un punto es igual a la probabilidad en dicho punto, así, la probabilidad en un punto xi se puede obtener restando la función de distribución en ese punto xi y en el anterior xi-1: p (X = xi) = FX (xi) – FX (xi-1) La función de distribución también permite calcular probabilidades de intervalos: p (a < X ≤ b) = FX (b) – FX (a)

1

- 0 ≤ FX (x) ≤ 1 - es monótona creciente (nunca decrece) - lím FX (x) = 1 x→∞ lím FX (x) = 0 x→–∞ - es continua por la derecha Dos variables aleatorias distintas pueden tener la misma función de distribución (son variables aleatorias igualmente distribuidas) •

Variables aleatorias continuas

Toman todos los valores de la recta real o de un intervalo de la misma. Su probabilidad se describe mediante la función de distribución y la función de densidad. La función de distribución es la probabilidad acumulada en cada punto: FX (x) = p (X ≤ x) FX (x) verifica las cuatro propiedades vistas anteriormente, pero, además, es una función continua (por la derecha y por la izquierda) y su derivada existe y es continua salvo, a lo sumo, en un número finito de puntos. Esta derivada es la función de densidad: fX (x) = d FX (x) / dx Como FX es una primitiva de fX, utilizando el teorema fundamental del cálculo, la función de distribución se calcula integrando la función de densidad: FX (x) = p (X ≤ x) = ∫ fX (t) dt para todo x ϵ Ɽ desde – ∞ a x La función de densidad se obtiene a partir de la función de distribución derivando La función de distribución se obtiene a partir de la función de densidad integrando Propiedades de la función de densidad; - fX (x) ≥ 0 - ∫ fX (x) dx = 1 desde – ∞ a ∞ La función de densidad toma siempre valores no negativos (por ser la derivada de una función no decreciente) y la integral en todo el campo de variación de la variable es igual a uno. La función de densidad está siempre por encima del eje de abscisas y el área que hay debajo de la función es igual a uno. La función de distribución es continua y creciente y la acumulación de probabilidad se hace suavemente, sin rupturas. Las zonas de rápido crecimiento de FX (x) se corresponden con valores altos de fX (x) (zonas muy probables), mientras que las de suave crecimiento se corresponden con valores bajos de fX (x) (zonas poco probables). Para calcular probabilidades de intervalos con la función de densidad, se integra dicha función en el 2

intervalo correspondiente (Regla de Barrow): p (a < X ≤ b) = FX (b) – FX (a) = ∫ fX (x) dx de a hasta b El área que hay por debajo de la función fX entre dos puntos a y b es la probabilidad del intervalo (a, b) Dada la cantidad (infinita no numerable) de valores posibles en una variable continua, la probabilidad de un valor concreto es cero (p (X = x) = 0 para todo x). En las variables continuas, como los puntos tienen probabilidad nula, incluir o no los valores extremos de un intervalo no cambia la probabilidad. La función de densidad no es una probabilidad (puede tomar valores superiores a uno), es la densidad de probabilidad de un intervalo infinitesimal alrededor de x (densidad: cociente entre la probabilidad del intervalo y su longitud) •

Transformaciones de una variable aleatoria. Cambio de variable

Cambio de variable en variables discretas: Para obtener la distribución de la nueva variable, se obtiene directamente su función de probabilidad a partir de la función de probabilidad de X. Si Y = g (X), p (Y = yj) = ∑ p (X = xi) xi tal que g (xi) = yj Cambio de variable en variables continuas: Para obtener la distribución de la nueva variable, Y = g (X), se obtiene su función de distribución FY relacionándola con la función de distribución de X, y, derivando FY, obtener la función de densidad fY. •

Características de una variable aleatoria unidimensional

Definimos las principales características de una variable aleatoria en base a su distribución de probabilidad. La media de una variable aleatoria, la esperanza (valor esperado) E (X) = ∑ xi · p (X = xi) si X es discreta xi E (X) = ∫ x · fX (x) dx si X es continua desde – ∞ hasta ∞ Si Y = g (X) es una función de X, su valor esperado E [g (X)] = ∑ g (xi) · p (X = xi) si X es discreta xi E [g (X)] = ∫ g (x) · fX (x) dx si X es continua desde – ∞ hasta ∞ 3

Propiedades de la esperanza: - si a ≤ X ≤ b → a ≤ E (X) ≤ b - si X ≥ 0 → E (X) ≥ 0 - la esperanza de una constante es la propia constante - E [g (X) + h (X)] = E [g (X)] + E [h (X)] la esperanza es - E (a + b · X) = a + b · E (X) lineal - si X es una variable aleatoria simétrica respecto de a → E (X) = a si una variable tiene función de probabilidad o densidad simétrica, en el modelo, a sería la mediana La media debe venir acompañada de otra medida que cuantifique su representatividad. La varianza, Var (X), es la esperanza de las desviaciones cuadráticas de la variable respecto de su media Var (X) = E [(X – E (X))]^2 = ∑ (xi – E (X))^2 · p (X = xi) si X es discreta xi Var (X) = E [(X – E (X))]^2 = ∫ (x – E (X))^2 · fX (x) dx si X es continua desde x = – ∞ hasta ∞ Var (X) = E (X^2) – [E (X)]^2 La raíz cuadrada positiva de la varianza es la desviación típica Propiedades de la varianza: - Var (X) ≥ 0 , anulándose si y sólo si X es constante - Var (a + b · X) = b^2 · Var (X) la varianza no es lineal desviación típica (a + b · X) = |b| · desviación típica (X) la varianza no cambia ante cambios de origen pero varía ante cambios de escala (si b > 1 aumenta la dispersión, si b < 1 disminuye la dispersión) Cuando tipificamos una variable (cuando le restamos su esperanza y dividimos por su desviación), la variable tipificada tiene esperanza nula y varianza igual a uno •

Algunos modelos probabilísticos unidimensionales

Distribuciones tipo en las que encuadramos la mayoría de las variables aleatorias DISTRIBUCIONES TIPO DISCRETAS: - Uniforme discreta Una variable aleatoria X sigue una distribución uniforme discreta de parámetro N si toma N valores distintos, {x1, x2,..., xN}, cada uno de ellos con la misma probabilidad 1/N Esta variable está asociada a experimentos con N posibles resultados igualmente probables función de probabilidad p (X = xi) = 1/N i= 1, 2,..., N momentos para cuando los valores de X son {1, 2,..., N} E (X) = (1 + 2 +...+ N) / N = (N + 1) / 2 4

Var (X) = (N^2 – 1) / 12 - Bernoulli Nos interesa si ha ocurrido o no un suceso A “Éxito” es el suceso de estudio A, y “fracaso” su contrario Ā La variable aleatoria X, número de éxitos al realizar un experimento de Bernoulli, tiene una distribución de parámetro p, donde p es la probabilidad de éxito X → b (p) X = 1 ocurre A p (X = 1) = p 0 ocurre Ā p (X = 0) = 1 – p función de probabilidad p (X = x) = p^x (1 – p)^(1 – x) x= 0, 1 La variable de Bernoulli modeliza si un individuo elegido al azar presenta una característica A: la variable vale 1 si el individuo presenta esta característica y 0 en caso contrario (control de calidad, sondeo, examen test) momentos E (X) = p Var (X) = p (1 – p) - Binomial La variable X, número de éxitos en n (nº fijo) experimentos independientes de Bernoulli con la misma probabilidad de éxito p, sigue una distribución binomial de parámetros n y p, X → B (n, p) (nº bolas blancas obtenidas al hacer n extracciones con reemplazo, sondeo, examen test) función de probabilidad probabilidad de un suceso con x éxitos y (n – x) fracasos p (A.....A Ā.....Ā) = p.....p (1 – p).....(1 – p) = p^x (1 – p)^(n – x) x éxitos n – x fracasos x éxitos n – x fracasos

el número de sucesos con x éxitos y (n – x) fracasos es (n sobre x), y todos tienen la misma probabilidad p (X = x) = (n sobre x) p^x (1 – p)^(n – x) = (n! / (n – x)! x!) p^x (1 – p)^(n – x) x= 0, 1, 2,..., n cuando n toma valores grandes, la función de probabilidad tiene un aspecto simétrico campaniforme momentos E (X) = n p Var (X) = n p (1 – p) - Poisson La variable X, número de veces que ocurre un suceso de manera independiente y aleatoria en un intervalo de tiempo o en un espacio concreto, siendo la probabilidad de ocurrencia del suceso pequeña (suceso “raro”), sigue una distribución de Poisson, X → P (λ) con λ > 0 función de probabilidad p (X = x) = e^(– λ) (λ^x / x!) siendo x= 0, 1, 2,... si λ es grande, forma de campana de Gauss; mucha probabilidad en los valores pequeños 5

momentos E (X) = λ Var (X) = λ La distribución de Poisson es el límite de la binomial si el número de experimentos es muy grande y la probabilidad de éxito muy pequeña, no se necesita conocer n ni p, sólo la esperanza de la variable (n → ∞ , n p = λ) - Geométrica Sucesivos experimentos independientes de Bernoulli con la misma probabilidad de éxito p, hasta que ocurre el primer éxito La variable X, número de fracasos antes del primer éxito, sigue una distribución geométrica de parámetro p, X → G (p) El número de éxitos es fijo e igual a 1, y el número de fracasos y experimentos es aleatorio (nº cruces antes de la primera cara, nº canastas falladas antes de la primera...) función de probabilidad p (X = x) = p (Ā.....Ā A) = (1 – p)...(1 – p) p = (1 – p)^x p = q^x p siendo x= 0, 1, 2,.... x fracasos éxito x fracasos 1–p=q momentos E (X) = q / p Var (X) = q / p^2 propiedades 1. p (X ≥ k) = ∑ p (X = x) = ∑ q^x p = p (q^k / 1 – q) = q^k k=1,2,... desde x = k hasta ∞ desde x = k hasta ∞

2. p (X ≥ m + n| X ≥ m) = (p (X ≥ m + n) / p (X ≥ m)) = (q^(m + n) / q^m) = q^n = p (X ≥ n) propiedad del olvido, como si comenzáramos el experimento de nuevo - Binomial negativa Sucesivos experimentos independientes de Bernoulli con la misma probabilidad de éxito p, hasta que ocurre el r-ésimo éxito La variable X, número de fracasos antes del r-ésimo éxito, sigue una distribución binomial negativa de parámetros r y p, X → BN (r, p) El número de éxitos r es fijo, y el número de fracasos y de experimentos es aleatorio Notar que BN (1, p) = G (p) (nº bolas negras al hacer extracciones con reemplazo antes de la r-ésima bola blanca...) función de probabilidad probabilidad de un suceso con x fracasos antes del r-ésimo éxito p (A.....A Ā.....Ā A) = p.....p (1 – p)...(1 – p) p = (1 – p)^x p^r = q^x p^r r-1 éxitos x fracasos éxito r-1 éxitos x fracasos

el número de sucesos con x fracasos antes del r-ésimo éxito es ((x + r – 1) sobre x), y todos tienen la misma probabilidad p (X = x) = ((x + r – 1) sobre x) (1 – p)^x p^r siendo x= 0, 1, 2,... momentos E (X) = (r q) / p 6

Var (X) = (r q) / p^2 DISTRIBUCIONES TIPO CONTINUAS: - Uniforme continua Una variable aleatoria X sigue una distribución uniforme continua en el intervalo (a, b) si sus valores se distribuyen uniformemente sobre el intervalo (función de densidad constante en él), tal que subintervalos de igual amplitud son igualmente probables La variable corresponde a elegir un punto al azar en el intervalo (a, b), X → U (a, b), con - ∞ < a, b < ∞ Un caso particular es la Uniforme en el intervalo (0, 1), U (0, 1)* función de densidad fX (x) = 1 / (b – a) si a ≤ x ≤ b 0 en el resto probabilidades d p (c < X < d) = ∫ 1 / (b – a) dx = (d – c) / (b – a) x= c función de distribución FX (x) = 0 si x ≤ a (x – a) / (b – a) si a < x < b 1 si x ≥ b momentos E (X) = (b + a) / 2 el punto medio del intervalo Var (X) = (b – a)^2 / 12 mayor longitud de la base, mayor varianza (mayor dispersión) E (X^2) – E(X)^2 propiedad U (0, 1) permite generar números aleatorios entre (0, 1), a partir de los cuales se pueden generar valores de otra variable X con una determinada función de distribución F método de la transformada inversa: X una variable aleatoria continua con función de distribución F estrictamente creciente y continua y F^-1 su función inversa la variable aleatoria U = F (X), cuyos valores están entre 0 y 1, tiene una distribución uniforme U (0, 1) si Y es una variable aleatoria U (0, 1) y transformamos los valores de dicha variable a través de la función F^-1, la variable resultante X= F^-1 (U) es una variable aleatoria cuya función de distribución es F - Normal Variable aleatoria continua X sigue una distribución normal de parámetros μ y σ (– ∞ < μ < ∞, σ > 0) si su función de densidad es fX (x) = (1 / ( σ · √(2∏))) · e^(– (x – μ)^2 / 2σ^2) – ∞ < x < ∞ X → N (μ, σ) La gráfica de las funciones de densidad, campana de Gauss, es simétrica respecto del primer parámetro μ que representa la esperanza, la mediana y la moda, alrededor del parámetro existe una 7

zona de alta probabilidad, descendiendo por igual cuando nos alejamos de μ; el parámetro σ abre o cierra la campana, por lo tanto mide la dispersión (es la desviación típica) momentos E (X) = μ Var (X) = σ^2 la varianza es siempre mayor o igual que cero y no es lineal Un caso particular es la normal estándar o tipificada, con media 0 y desviación típica 1, Z → N (0, 1) propiedades 1. cualquier variable con distribución normal se puede transformar en una normal estándar, restándole su media y dividiéndola por su desviación (tipificándola) (...y viceversa también) X → N (μ, σ) → Z = (X – μ) / σ → N (0, 1) 2. sea Φ la función de distribución de la Normal estándar y su función de densidad simétrica respecto de cero Φ (– z) = p (Z ≤ – z) = p (Z ≥ z) = 1 – p (Z ≤ z) = 1 – Φ (z) la acumulada... 3. propiedad linealidad: cualquier transformación lineal de una variable normal sigue siendo normal X → N (μ, σ) → Y = a + b · X → N (a + b μ, |b|σ) cálculo de probabilidades el cálculo de probabilidades de intervalos con variables normales no puede hacerse integrando la función de densidad (no tiene primitiva) las probabilidades se calculan utilizan las tablas de la Normal estándar o con programas informáticos probabilidad de que el valor de una variable normal difiera de su media en a lo sumo k desviaciones típicas p (|X – μ| ≤ k σ) para k= 1, tipificando y sabiendo que la distribución N (0, 1) es simétrica respecto de cero p (|X – μ| ≤ σ) = p (– σ ≤ X – μ ≤ σ) = p (– 1 ≤ (X – μ) / σ ≤ 1) = p (– 1 ≤ Z ≤ 1) = p (Z ≤ 1) – p (Z < – 1) = = Φ (1) – [1 – Φ (1)] = 2 · Φ (1) – 1 = … Razones del uso de la distribución normal para modelizar variables: - muchas variables presentan un histograma similar a una campana de Gauss - bajo ciertas condiciones, la suma de variables aleatorias sigue una distribución normal - aceptar la hipótesis de normalidad para aplicar muchos procedimientos estadísticos que la exigen - Logarítmico Normal Una variable aleatoria X sigue una distribución logarítmico-normal de parámetros μ y σ si la variable Y = ln (X) → N (μ, σ) X → logN (μ, σ), con – ∞ < μ < ∞ y σ > 0 función de densidad fX (x) = (1 / (x σ √(2∏))) e^(– (lnx – μ)^2 / 2 σ^2) si x > 0 sólo toma valores positivos y su distribución es asimétrica a la derecha (distribución de la renta, cuantía de un siniestro...) momentos E (X) = e^(μ + (σ^2 / 2)) Var (X) = e^(2 μ) (e^(2 σ^2) – e^(σ^2)) - Gamma Una variable aleatoria continua X sigue una distribución gamma de parámetros α y β (α > 0, β > 0) 8

X → ϒ (α, β) si su función de densidad es fX (x) = (1 / (β^α · Γ (α))) · x^(α – 1) e^(– x / β) si x > 0 0 si x ≤ 0 ∞ Γ (α) = ∫ x^(α – 1) e^(– x) dx = (α – 1)! 0 Para modelizar tiempos de duración, de espera, que conllevan deterioro con el tiempo Sólo toma valores positivos y su distribución es asimétrica a la derecha momentos E (X) = α β Var (X) = α β^2 propiedades - cambios de escala: si X → ϒ (α, β), entonces k X → ϒ (α, k β) - la distribución gamma con α = n/2 y β = 2 coincide con la distribución χ^2 con n grados de libertad: ϒ (n/2, 2) = χn ^2 - Exponencial negativa Una variable aleatoria continua X sigue una distribución exponencial negativa de parámetro λ (λ > 0) X → ε (λ) si su función de densidad es fX (x) = λ e^(– λx) si x > 0 0 si x ≤ 0 Es un caso particular de la distribución gamma: ε (λ) = ϒ (1, 1/λ) Los valores más probables son los pequeños y sólo toma valores positivos Para modelizar tiempos de duración, de espera que no conllevan deterioro función de distribución si x > 0 x x x FX (x) = ∫ fX (t) dt = ∫ λ e^(– λt) dt = – e^(– λt) | = 1 – e^(– λx) t= – ∞ t= 0 t= 0 FX (x) = 1 – e^(– λx) si x > 0 0 si x ≤ 0 momentos E (X) = 1/λ Var (X) = 1/λ^2 propiedad del olvido p (X ≥ s + t | X ≥ s) = p (X ≥ t) olvida el tiempo que llevamos ya esperando...

9...


Similar Free PDFs