Tema 3 Variables aleatorias multidimensionales PDF

Title Tema 3 Variables aleatorias multidimensionales
Author Marta Aragón
Course Estadística e Investigación Operativa
Institution Universidad de Sevilla
Pages 5
File Size 130.8 KB
File Type PDF
Total Downloads 74
Total Views 130

Summary

Resumen de clase...


Description

Tema 3: Variables aleatorias multidimensionales 1. VARIABLE ALEATORIA n-DIMENSIONAL Lo normal es querer medir varias variables dentro de un mismo experimento. Una variable aleatoria n-dimensional es aquella compuesta por n variables aleatorias provenientes de un experimento y van todas juntas en un vector. Siendo un experimento aleatorio donde Ω es el conjunto de todos los resultados y ω uno solo, se pueden definir un conjunto de variables aleatorias: X 1 ( ω ) , … , X n ( ω ) y un vector:

X ( ω ) =( X 1 ( ω ) , … , X n ( ω ) ) Las demostraciones se harán en dos variables (bidimensionales) pero se pueden generalizar a n dimensiones. Ahora, para expresarlo en el plano, usaremos los ejes cartesianos para representar en ellos cada una de las variables. Ahora no podremos buscar la probabilidad en un punto, sino que se encontrará en intervalos I→(x∩y) y se tratará de rectángulos donde, cada vez que se ejecute el experimento, ocurrirán tanto la VA x como la VA y a la vez. Teorema Dada una variable aleatoria n-dimensional X, se tiene que cualquier punto de la función n g ( X ) :R R

es una variable aleatoria real, por analogía con una dimensión

2. FUNCIONES DE DISTRIUCIÓN CONJUNTA Y MARGINALES La probabilidad de un punto es NULA. La probabilidad de cada rectángulo es la probabilidad de las intersecciones de los sucesos que definen dicho intervalo, para ello se tendrá que usar la función de distribución conjunta Se define como función de distribución conjunta a la función:

F ( x , y )=P [ X ≤ x ;Y ≤ y ] Con

El ; indica INTERSECCIÓN

X −1 ( (−∞ , x ]) ∩ Y −1( (−∞ , y ] ) P [ X ≤ x ;Y ≤ y ]=P¿

La función de distribución conjunta expresa la probabilidad de que las variables aleatorias X e Y tomen de forma simultánea valores no superiores a x e y. Además verifica:   

0≤F≤1 F es monótona creciente para x e y F es continua por la derecha para x e y Se define como función de distribución marginal a las funciones de distribución de X e Y:

F X ( x) =F ( x , + ∞ ) = lim F (x , y ) y →+∞

FY ( y )=F ( + ∞, y )= lim F (x , y ) x→ + ∞

3. CLASIFICACIÓN DE VARIABLES ALEATORIAS n-DIMENSIONALES 3.1. Variable aleatoria bidimensional discreta Si X e Y son dos VAD, entonces (X, Y) es una variable aleatoria bidimensional discreta. En este caso consideramos que el conjunto numerable de valores que toma X es

{y l }l∈ L(conjunto numerable)

el de Y es

{x k }k ∈ K (conjunto numerable)

,y

. Las funciones de probabilidad asociadas a cada una de ellas

son:

pk = P [ X =x k ]

pl= P [ Y = y l ]

Por lo que podemos definir una función de probabilidad conjunta la cual se asocia con la probabilidad de cada suceso y gráficamente se representaría mediante barras en 3D: pkl =P [ X=x ;Y = y ] →

∑ ∑ p kl=1 ∀x k ∀y l

→ Si tengo la función de distribución conjunta puedo conseguir la función de distribución.

F ( x , y )=∑ ∑ pkl x k ≤ x y l≤ y



Sumar la longitud de las barras que se encuentren en un intervalo para calcular la probabilidad

P [a ≤ X ≤ b ;c ≤ Y ≤ d ]=

∑ ∑

P kl

a ≤ xk ≤ b c ≤ y l ≤d

Podemos saber la probabilidad de x sin tener en cuenta a y, o viceversa, es lo que se denomina función de probabilidad marginal

Pk =P [ X =x k ] =∑ pkl ∀y l

Pl=P [ Y = y l ] =∑ p kl ∀xk

3.2. Variable aleatoria bidimensional continua Debe existir

2 f : R → R sea integrable y no negativa tal que:

x

F ( x , y )=P [ X ≤ x ;Y ≤ y ]= ∫

y

∫ f ( u , v ) dudv

−∞ −∞

Siendo f la función de densidad conjunta de (X,Y); y las funciones de densidad marginales de X e Y: ∞



−∞

−∞

f X ( x )=∫ f ( x , y ) dy f Y ( x )= ∫ f ( x , y ) dx

4. CARACTERÍSTICAS DE LA VARIABLE ALEATORIA n-DIMENSIONAL 4.1. Esperanza de una función de variable aleatoria bidimensional

No existe la media de una variable aleatoria n-dimensional, ni siquiera de una bidimensional, lo que definimos es E[g(x, y)] siendo g(x, y) una variable aleatoria. VAD

E [g (x , y ) ] =

∑ g ( x k , yl) pkl

∀x k , y l

VAC ∞



E [g (x , y )] =∫ ∫ g ( x k , y l) pkl −∞ −∞

Se verifica, además, que:

E [ag ( X ;Y )+bh ( X ;Y ) ] =aE [g (X ;Y ) ] +bE [ h( X ;Y ) ] , con a , b ∈ R



Demostración ∞

∫ g( x , y ) f ( x , y ) dxdy =¿ aE [ g ( x , y) ] +bE[ g ( x, y ) ] −∞ ∞







∫ (ag ( x , y ) +bh( x , y)) f ( x, y ) dxdy=¿ ∫ ∫ g ( x , y ) f ( x , y ) dxdy+ b ∫ ¿ −∞

−∞

−∞ −∞



∫¿ −∞

 

E [ X +Y ]=E [ X ] + E [Y ] Y esto se puede generalizar a n variables aleatorias

Xi n

¿ ∑ i=1 ¿ E¿

4.2. Covarianza Se define la covarianza matemática de una VA (X,Y) como:

(X − E[ X ])(Y − E [Y ]) Cov [ X , Y ]=E ¿

∑ ( x k −E [ X ] )( y l −E [Y VAD  Cov [ X , Y ]=∑ ∀x ∀y k



VAC  Cov [ X , Y ]=∫

]) pkl

l



∫ ( x−E [ X ]) ( y −E [Y ]) f ( x , y ) dxdy

−∞ −∞

Se hace de dos en dos variables y NO se puede extrapolar a n-dimensiones

Si la covarianza sale positiva (correlación positiva) es porque o ambos son positivos (suma también positiva) o ambos son negativos (suma negativa); esto quiere decir que cuando X es grande Y también lo es. En cambio, si sale negativa, X e Y son pequeños y tienen una correlación negativa.

La covarianza se caracteriza por:   

Cov [X, X]= V[X] Cov[X,Y]=Cov [Y,X] Cov [X, Y]=E[XY] –E[X]E[Y] Demostración E [ X ] E[ Y ] =E[ XY ] – E [ X ] E [Y ] ( X −E [ X ] )( Y −E [ Y ] )=E [ XY ] −E[ XE [ X ]] −E[ YE [ X ] ]+ E ¿ Cov [ X , Y ]=E ¿ Siendo: E[ XY ]=∑ x k y l p kl



V[X+Y]=V[X] + V[Y]+2Cov[X,Y] Demostración V [ X+ Y ] =E [ ( ( X+ Y )−E [ X +Y ]) ]=E [ ( X −E [ X ]+Y −E [ Y ] ) ]=E [ ( X−E [ X ] ) ] + E [ (Y −E [ Y ] ) ] +2 2



2

2

De la propiedad anterior sacamos que para n variables aleatorias X V [ ¿¿ i]+2 ∑ Cov [ X i , X j ] i0 f Y( y )

A partir de una pura y una condicionada SIEMPRE puedo calcular la función de probabilidad.

6. INDEPENDENCIA DE VARIABLES ALEATORIAS Sea I 1 , I2 dos intervalos cualesquiera (uno de x y otro de y), son independientes si la intersección se calcula como el producto de las probabilidades:

P( X ( I 1 )∩ Y −1



−1

( I 2 ) )= P (X −1 ( I 1) ) P ( Y −1 ( I 2) )

Para ser independientes deben tener intersección

2



   

Son independientes si y solo si la función de distribución conjunta es el producto de las distribuciones marginales de X e Y.

F ( x , y) =F X ( x) F Y ( y ) , ∀x, y ∈ R Si es VAC f ( x , y ) =f X ( x ) f Y ( y ) , ∀x , y ∈ R La condición FUNDAMENTAL para que sean independientes es que

P [ X=x k /Y = yl] = P[ X = x k ] E [ XY ]=E[ X ] E [ Y ] . Esta propiedad es condición NECESARIA PERO NO SUFICIENTE

de independencia. Solo ocurre si son INDP ya que es una operación no lineal E[ g ( X )h (Y )]=E [ g (X )] E [ h (Y )] Demostración:

h ( y l) pl=¿ E [ g( X )] E [ h(Y )] E[ g ( X )h(Y )]=∑ ∑ g ( x k ) h ( y l) p kl=∑ g (x k ) pk ∑ ¿ ∀x k ∀y l



∀x k

∀yl

Cov(X,Y)=E[XY]-E[X]E[Y]. Cuando la Cov(X,Y)=0 son INDP pero no siempre tienen que serlo....


Similar Free PDFs