Auxiliar 1 Esperanzas Condicionales PDF

Title Auxiliar 1 Esperanzas Condicionales
Author Maximiliano Beltrán
Course Procesos De Markov
Institution Universidad de Chile
Pages 2
File Size 99.8 KB
File Type PDF
Total Downloads 92
Total Views 153

Summary

Ejercicios y resumen de Teoría de Probabilidades y Procesos de Markov...


Description

Universidad de Chile Facultad de Ciencias F´ısicas y Matem´aticas Departamento de Ingenier´ıa Matem´atica MA4401-1 Procesos de Markov 11 de marzo de 2022

Auxiliar 1: Esperanzas Condicionales Profesor: Joaqu´ın Fontbona Auxiliares: Luis Fuentes y Pablo Z´ un ˜ iga En todas las preguntas consideraremos un espacio de probabilidad (Ω, F , P) fijo. P1.

a) Sea (Ci )i∈I una colecci´on de π-sistemas y considere la respectiva colecci´on de σ-´algebras generadas (Fi )i∈I , es decir, Fi = σ(Ci ) para cada i ∈ I. Pruebe que (Fi )i∈I es independiente ssi (Ci )i∈I es independiente, usando el π-λ-teorema: Sean P un π-sistema e I un λ-sistema tales que P ⊆ I, entonces σ(P) ⊆ I . b) Deduzca de lo anterior que un vector aleatorio X = (X1 , . . . , Xd ) tiene coordenadas independientes ssi la funci´on de distribuci´on conjunta de X es igual al producto de las distribuciones marginales.

P2.

a) Sea A = (Ai )i∈I ⊆ F una partici´ on de Ω tal que |I| ≤ |N| y P (Ai ) ∈ (0, 1) para cada i ∈ I . Sea adem´as X una variable aleatoria integrable. Pruebe que X 1A Z i E [X|σ(A)] = XdP, dP-cs. P (Ai ) Ai i∈I

b) Explicite lo obtenido en los siguientes casos particulares: A = {A, Ac }. A = ({Y = n})n∈N donde Y es una variable aleatoria a valores en N. P3. Sean G ⊆ F una sub-σ-´ algebra, X : Ω → E e Y : Ω → F variables aleatorias integrables tales que X es G-medible e Y es independiente de G. El objetivo de esta pregunta es demostrar que     ∀f ∈ BM(E × F ) : 1 E f (X, Y )G = E [f (x, Y )] x=X , dP-cs. Para esto, realice los siguientes pasos:

a) Pruebe que el resultado es cierto para funciones del tipo f (x, y) = f1 (x)f2 (y). b) Pruebe el caso general usando el Teorema de la Clase Mon´ otona Funcional: Sea W un conjunto y B(W ) el espacio vectorial de funciones f : W → R acotadas. Sea H ⊆ B(W ) un espacio vectorial tal que i) H contiene a las constantes y ii) si (fn )n∈N ⊆ H es una sucesi´ on creciente convergente a una funci´ on f acotada, entonces f ∈ H. Por u ´ltimo, sea H0 ⊆ H una clase cerrada para la multiplicaci´ on. Entonces H contiene a {f ∈ B(W ) : f es σ (H0 )-medible},

1

donde σ (H0 ) = σ ({f −1 (A) : A ∈ B(R), f ∈ H0 }). c) Explicite lo obtenido en los casos particulares en que F depende solo de X y solo de Y .    d ) Deduzca de lo obtenido una f´ormula para E F (X, Y )X , con F ∈ BM(E × F ).

BM(E × F ) es el conjunto de funciones medibles acotadas de E × F en R.

1

Resumen Considere (Ω, F , P) un espacio de probabilidad completo, G ⊆ F sub-σ-´algebra. Adem´as considere (E, Σ) un espacio medible y X : Ω → E variable aleatoria.

Propiedad: E [X|G] queda caracterizada por: • E [X|G] ∈ L2 (Ω, G, P). • E [E [X|G] Z] = E [XZ] para toda Z ∈ L2 (Ω, G, P).

Definici´ on: Se define la ley de X como la medida de probabilidad (inducida por P y X ) en (E, Σ) como µ := P◦ X −1 : Σ → [0, 1]. En particular, para A ∈ Σ:

Teorema: Sea X ∈ L1 (Ω, F , P) variable aleatoria y sea G ⊆ F sub-σ-´algebra. Entonces ∃! variable aleatoria Y ∈ L1 (Ω, F , P) tal que:

µ(A) = P(X ∈ A) = P(X −1 (A))

• Y ∈ L1 (Ω, G , P) • E [E [Y |G] Z] L∞ (Ω, G, P).

Notaci´ on: µ = Ley(X) o X ∼ µ. Definici´ on: Sea Y : Ω → R variable aleatoria (funci´on medible con respecto a Ω y B(R) positiva. Denotamos la esperanza de Y como: Z E [Y ] = Y (ω )dP(ω )

=

E [Y Z] , ∀Z



Denotaremos Y = E [X|G]. Proposici´ on: Se cumple que: 1. La funci´on E [·|G] : L1 (Ω, F , P) → L1 (Ω, G, P) es continua.



2. E [E [X|G]] = E [X ] Proposici´ on: Sea X : Ω → E variable aleatoria. Sea f : (E, Σ) → (R, B(R)) funci´ on 1 medible y positiva µ-c.s. (o f ∈ L (E, Σ, µ)) con µ = Ley(X). Entonces E [f (X)] = ⟨µ, f ⟩.

3. X ⊥⊥ G =⇒ E [X|G] = E [X]. 4. X ∈ L1 (Ω, G, P) =⇒ E [X|G] = X 5. W ∈ L∞ (Ω, G, P) =⇒ E [XW |G] = W E [X|G]. 6. Para H ⊆ G ⊆ F sub-σ-´ algebras, se tiene:

Definici´ on: Una familia (Fλ )λ∈Λde subconjuntos de F se dicen independientes si ∀A1 ∈ Fλ1 , . . . , An ∈ Fλn con λi ∈ Λ, los eventos A1 , . . . , An son independientes, es decir: n P(∩i=1 Ai ) = Πni=1 P(Ai )

E [E [X|G] |H] = E [E [X|H] |G] = E [X|H] Proposici´ on: 1. (TCM) Sean Xn ≥ 0 v.a. integrables tales que Xn ↗ X, con X integrable. Entonces E [Xn |G] ↗ E [X|G].

Definici´ on: Sean Xλ : (Ω, F ) → (Eλ , Σλ ) con λ ∈ Λ variables aleatorias. Estas se dicen independientes si (σ(Xλ ))λ∈Λson subσ-´ algebras independientes.

2. (Fatou) Sean Xn , Y integrables tales que Y ≤ Xn . Supongamos X = l´ım inf n Xn integrable. Entonces E [X|G] ≤ l´ım inf n E [Xn |G].

Definici´ on: Sea X ∈ L2 (Ω, F , P), G ⊆ F sub-σ-´algebra. La esperanza condicional de X dado G es la proyecci´on ortogonal de X en L2 (Ω, G , P) ⊆ L2 (Ω, F , P). Se denota E [X|G].

3. (TCD) Sean (Xn )n integrables tales que Xn → X cs y supongamos que existe Y integrable tal que |Xn | ≤ Y . Entonces X es integrable y se tiene ∥E [X|G ] − E [Xn |G ]∥1 → 0.

Observaci´ on: E [X|G] es G-medible.

2...


Similar Free PDFs