ESPERANC ¸ A CONDICIONAL
1. Espac ¸ os Produto Sejam (Ω1 , F1 , µ1 ) e (Ω2 , F2 , µ2 ) dois espa¸cos de medida. Fa¸camos Ω = Ω1 × Ω2 o produto cartesiano, queremos definir sobre Ω uma σ-´algebra e uma medida que coincida com µ1 e µ1 sobre F1 e F2 respectivamente. Comecemos pela σ-´algebra. Defini¸c˜ ao 1.1. Define-se, F, a σ-´algebra produto de F1 por F2 como sendo a menor σ´algebra de elementos de Ω que cont´em os ”rectˆangulos” do tipo F1 ×F2 , ∀F1 ∈ F1 , F2 ∈ F2 . Ou seja, F = σ(E), E = {F1 × F2 ; F1 ∈ F1 , F2 ∈ F2 }. Escreveremos F = F1 × F2 . Para a medida, µ, que vamos definir sobre (Ω, F), comecemos por defini-la para os elementos de F da forma F1 × F2 , F1 ∈ F1 , F2 ∈ F2 como sendo: µ(F1 × F2 ) = µ1 (F1 ) × µ2 (F2 ). Considere-se agora um elemento F de F. Designemos por Fω2 e Fω1 os subconjuntos de Ω1 e Ω2 , definidos por: Fω2 = {ω1 ∈ Ω1 ; (ω1 , ω2 ) ∈ F }, Fω1 = {ω2 ∈ Ω2 ; (ω1 , ω2 ) ∈ F }. A estes conjuntos chamam-se sec¸c˜oes de F . Exercicio 1. Mostre que se F ∈ F ent˜ao Fω2 ∈ F1 e Fω1 ∈ F2 . Indica¸c˜ao: Fixando ω2 ∈ Ω2 e considerando Sω2 = {F ⊆ Ω; Fω2 ∈ F1 }. (1) Mostre que Sω2 cont´em todos os elementos do tipo, F1 × F2 , F1 ∈ F1 , F2 ∈ F2 . 1
2
ESPERANC ¸ A CONDICIONAL
(2) Mostre que Sω2 ´e uma σ-´algebra. Concluindo-se que Sω2 cont´em E e portanto σ(E). Podemos agora definir a medida produto. Defini¸c˜ ao 1.2. Para F ∈ F define-se a medida µ por: µ(F ) = µ1 (Fω2 )dµ2 (ω2 ). Ω2
Observa¸c˜ ao 1.3. Repare-se que no caso de F = F1 × F2 , F1 ∈ F1 , F2 ∈ F2 , esta defini¸c˜ao coincide com o que j´a tinhamos dito, pois, µ1 (Fω2 ) = µ1 (F1 )IF2 (ω2 ), ω2 ∈ Ω2 uma vez que Fω2 = F1 se ω2 ∈ F2 e Fω2 = ∅ se ω2 ∈ / F2 . Donde µ1 (Fω2 )dµ2 (ω2 ) = µ1 (F1 )IF2 (ω2 )dµ2 (ω2 ) = µ1 (F1 )µ2 (F2 ). µ(F ) = Ω2
Ω2
Temos agora um primeiro teorema. Teorema 1.4. Se F ∈ F, ent˜ao as fun¸c˜oes ω2 → µ1 (Fω2 ),
ω1 → µ2 (Fω1 )
s˜ao mensur´aveis relativamente a F2 e F1 , respectivamente, e µ1 (Fω2 )dµ2 (ω2 ) = µ2 (Fω1 )dµ1 (ω1 ). Ω2
Ω1
A demonstra¸c˜ao deste teorema pode ser encontrada em [1], proposi¸c˜ao 8 e teorema 11, pag. 93 e 95. Vamos finalmente enunciar o terema de Fubini. Teorema 1.5. (Teorema de Fubini) Seja f ∈ L1 (Ω1 × Ω2 ) ent˜ao: (1) As fun¸c˜oes ω1 → f (ω1 , ω2 ),
ω2 → f (ω1 , ω2 )
s˜ao elementos de L1 (Ω1 ) e L1 (Ω2 ), respectivamente.
ESPERANC ¸ A CONDICIONAL
(2) As fun¸c˜oes
3
ω1 →
ω2 →
f (ω1 , ω2 )dµ2 (ω2 ),
f (ω1 , ω2 )dµ1 (ω1 )
Ω2
Ω1
s˜ao elementos de L1 (Ω1 ) e L1 (Ω2 ), respectivamente. (3) Ω1
f (ω1 , ω2 )dµ2 (ω2 ) dµ1 (ω1 ) =
Ω2
Ω2
= Ω1 ×Ω2
f (ω1 , ω2 )dµ1 (ω1 ) dµ2 (ω2 ) =
Ω1
f (ω1 , ω2 )d(µ1 × µ2 ).
´ rios 2. Pares aleato Sejam X, Y duas vari´aveis aleat´orias definidas sobre o mesmo espa¸co de probabilidade (Ω, F, P), define-se a sua distribui¸c˜ao de probabilidade conjunta (ou lei) como sendo a medida definida sobre B(R2 ) por: PX,Y (B) = P[(X, Y ) ∈ B], B ⊆ R2 . An´alogamente ao que foi feito para uma vari´avel aleat´oria define-se tamb´em a fun¸c˜ao distribui¸c˜ao de probabilidade do par (X, Y ) por FX,Y (x, y) = P[X ≤ x, Y ≤ y] = P[X −1 (] − ∞, x]) ∩ Y −1 (] − ∞, y])]. Se X fˆor uma vari´avel aleat´oria que toma os valores x0 ≤ . . . ≤ xn ≤ . . . e Y uma outra vari´avel aleat´oria que toma os valores y0 ≤ . . . ≤ ym ≤ . . ., ent˜ao o par (X, Y ) toma os seus valores no conjunto D = {(xi , yj ); P[X = xi , Y = yj ] > 0}. E neste caso podemos escrever, ∀ B ∈ B(R2 ),
PX,Y (B) =
pi,j δ(xi ,yj ) (B),
(i,j)∈N×N
com pi,j = P[X = xi , Y = yj ]ID ((xi , yj )), ∀(i, j) ∈ N × N. E no caso da fun¸c˜ao distribui¸c˜ao de probabilidade, vem pi,j , com E = {(k, l) ∈ N × N; xk ≤ x, yl ≤ y}. FX,Y (x, y) = (i,j)∈E
Para as vari´aveis aleat´orias cont´ınuas, se fˆor possivel escrever, fX,Y (x, y)dλ2 (x, y) = fX,Y (x, y)dλ(x)dλ(y) PX,Y (B) = B
B
4
ESPERANC ¸ A CONDICIONAL
em que λ2 ´e a medida de Lebesgue em R2 , dizemos que fX,Y ´e a densidade conjunta do par (X, Y ). E no caso do integral de Riemann existir podemos escrever ainda, PX,Y (B) = fX,Y (x, y)IB dxdy = fX,Y (x, y)dxdy. R
R
B
Vindo para a fun¸c˜ao distribui¸c˜ao conjunta, x0 FX,Y (x0 , y0 ) = −∞
y0
fX,Y (x, y)dydx.
−∞
A distribui¸c˜ao conjunta determina as distribui¸c˜oes de X e de Y , pois para A ∈ B(R) PX [A] = PX,Y [A × R], PY [A] = PX,Y [R × A], que se designam por distribui¸c˜oes marginais. Exercicio 2. Mostre que se X, Y s˜ao vari´aveis aleat´orias discretas: (1) PX ({xk }) =
∞
pk,j ,
PY ({yk }) =
∞
j=0
pi,k ,
i=0
(2) FX (xk ) =
k ∞
pi,j ,
k ∞
FY (yk ) =
i=0 j=0
pi,j .
j=0 i=0
Exercicio 3. Mostre que se X, Y tem densidade conjunta fX,Y ent˜ao temos: (1)
∞
fX (x) =
fX,Y (x, y)dy,
fY (y) =
−∞
(2)
x0
fX,Y (x, y)dydx,
−∞
fX,Y (x, y)dx, −∞
∞
FX (x0 ) =
∞
−∞
y0
∞
FY (y0 ) =
fX,Y (x, y)dxdy. −∞
−∞
Exercicio 4. Sejam X e Y duas vari´aveis aleat´orias com distribui¸c˜oes de probabilidade PX e PY , respectivamente. Mostre que s˜ao equivalentes as seguintes condi¸c˜oes: (1) X e Y s˜ao independentes, (2) PX,Y = PX PY , (3) FX,Y = FX FY .
ESPERANC ¸ A CONDICIONAL
5
Se X, Y tiverem densidade conjunta ent˜ao qualquer das condi¸c˜oes anteriores ´e equivalente a, fX,Y = fX fY . Exercicio 5. Mostre que se X e Y tˆem densidade conjunta fX,Y , ent˜ao a densidade da vari´avel aleat´oria X + Y ´e
fX+Y (z) = R
fX,Y (x, z − x)dx.
Defini¸c˜ ao 2.1. Define-se a probabilidade condicional de Y ∈ B dado que X ∈ A por: P[Y ∈ B|X ∈ A] =
P[Y ∈ B, X ∈ A] , P[X ∈ A]
desde que P[X ∈ A] > 0. No caso de duas vari´aveis aleat´orias X, Y com densidade de probabilidade fX,Y (x, y), e dados A, B ∈ B(R) teremos, usando o teorema de Fubini, fX,Y (x, y)dλ2 (x, y) = P[Y ∈ B|X ∈ A] = A×B f (x)dλ(x) X A fX,Y (x, y)dxdy f (x, y)dx A X,Y = B A = dy, f (x)dx f (x)dx B A X A X desde que A fX (x)dx = 0. Podemos ent˜ao dizer que a distribui¸c˜ao condicional de Y dado X ∈ A tem densidade,
g(y|X ∈ A) =
f (x, y)dx A X,Y A
fX (x)dx
.
Apesar do caso A = {x0 } n˜ao fazer sentido, por o denominador ser nulo, leva a que se defina a densidade de Y dado X = x0 por g(y|X = x0 ) =
fX,Y (x0 , y) , fX (x0 )
desde que fX (x0 ) > 0. Vindo a probabilidade de Y dado X = x,
P[Y ∈ B|X = x] =
g(y|x)dy, B
e a esperan¸ca condicional, respectiva, E[Y |X = x] =
yg(y|x)dy. R
6
ESPERANC ¸ A CONDICIONAL
Repare-se que a esperan¸ca condicional de Y dado X = x ´e fun¸c˜ao de x, e podemos ent˜ao escrever, para ω ∈ Ω, uma nova vari´avel aleat´oria, E[Y |X](ω) = yg(y|X(ω))dy, R
a esperan¸ca condicional de Y dado X. A sec¸c˜ao que se segue faz parte de um documento relativo a processos estoc´asticos e paragem o´ptima que nos foi gentilmente facultado pelo Prof. Manuel Esqu´ıvel. Por este contributo queremos expressar os nossos sinceros agradecimentos. ˜o e Propriedades da Esperanc 3. Definic ¸a ¸ a Condicional Desenvolvemos estas notas, relativas a` no¸c˜ao de esperan¸ca condicional, a partir da exposi¸c˜ao magistral de David Williams na obra [2], completando-a com alguns exerc´ıcios e desenvolvimentos que ser˜ao convenientemente referenciados por altura da respectiva apresenta¸c˜ao. 3.1. Motiva¸ c˜ ao: o caso finito. Seja (Ω, F, P) um espa¸co de probabilidade e X e Z duas vari´aveis aleat´orias tomando um n´ umero finito de valores i.e.: X(Ω) = {x1 , . . . xm } e Z(Ω) = {z1 , . . . zn } . ´ conhecida a defini¸c˜ao seguinte da probabilidade condicional de um acontecimento dado E um outro acontecimento cuja probabilidade seja n˜ao nula. P[X = xi | Z = zj ] :=
P[{X = xi } ∩ {Z = zj }] . P[Z = zj ]
Dado que esta probabilidade condicional pode interpretar-se como uma nova probabilidade definida sobre o novo espa¸co {Z = zi }, ´e natural definir o valor esperado da vari´avel aleat´oria X, relativamente a esta probabilidade. E[X | Z = zj ] :=
m
xi P[X = xi | Z = zj ] .
i=1
Para tornar a express˜ao anterior independente do ponto zi , pode agora definir-se uma nova vari´avel aleat´oria do seguinte modo.
ESPERANC ¸ A CONDICIONAL
7
Defini¸c˜ ao 3.1. A vari´avel aleat´oria E[X | Z] ´e definida por: E[X | Z] :=
(3.1)
n
E[X | Z = zj ] I{Z=zj } .
j=1
Note-se que esta defini¸c˜ao diz-nos que se para um ω ∈ Ω fixo, se tem Z(ω) = zj para um certo j, ent˜ao verifica-se que: E[X | Z](ω) := E[X | Z = zj ] . A vari´avel aleat´oria assim definida goza de algumas propriedades que passamos a observar detalhadamente. • Considere-se a ´algebra-σ G gerada pela vari´avel aleat´oria Z. Uma consequˆencia do exerc´ıcio 7 ´e que: G = σ(Z) = {
(3.2)
{Z = zj } : J ⊆ {1, . . . , n}} .
j∈J
pelo que se torna claro que a express˜ao (3.1) define uma vari´avel aleat´oria G mensur´avel. • O c´alculo formal seguinte, que seria poss´ıvel justificar desde que as hip´oteses adequadas se encontrassem explicitadas, mostra-nos uma outra propriedade importante verificada pela vari´avel aleat´oria que definimos acima. Para qualquer l ∈ {1, . . . , }: E[X | Z]dP = E[X | Z = zl ] · P[Z = zl ] = {Z=zl }
=
m i=1
=
m
xi
P[{X = xi } ∩ {Z = zl }] · P[Z = zl ] = P[Z = zl ]
xi P[{X = xi } ∩ {Z = zl }] =
i=1
=
XdP . {Z=zl }
Devido a` forma geral dos elementos de G, que ´e poss´ıvel observar na f´ormula (3.2) e, devido a` aditividade do integral relativamente a uma parti¸c˜ao do dom´ınio de
8
(3.3)
ESPERANC ¸ A CONDICIONAL
integra¸c˜ao, temos finalmente que: E[X | Z]dP = ∀G ∈ G G
XdP .
G
• Uma outra propriedade da vari´avel aleat´oria E[X | Z] tem uma interpreta¸c˜ao geom´etrica a` qual ser´a dada esclarecimento complementar na demonstra¸c˜ao do teorema de Kolmogorov. Consideremos L2 (Ω, F, P) o espa¸co das vari´aveis aleat´orias de quadrado integr´avel, isto ´e: 2 2 X dP < +∞ . L (Ω, F, P) := X : Ω → R : Ω
Este espa¸co pode ser munido de uma forma (bilinear) semi-definida positiva, um produto interno, do modo seguinte.
∀X, Y ∈ L (Ω, F, P) X, Y :=
X × Y dP .
2
Ω
Para este produto interno pode definir-se a no¸c˜ao de ortogonalidade semelhante a` no¸c˜ao de ortogonalidade no espa¸co euclideano usual, isto ´e: ∀X, Y ∈ L2 (Ω, F, P) X ⊥ Y ⇔ X, Y = 0 Pode verificar-se que, para G sub´algebra-σ de F, se tem que L2 (Ω, G, P) ´e um subespa¸co fechado de L2 (Ω, F, P) e que E[X | Z] ´e a projec¸c˜ao ortogonal de X ∈ L2 (Ω, F, P) sobre o subespa¸co L2 (Ω, G, P). Sabe-se, veja-se [2][p. 67], que Z ´e a projec¸c˜ao ortogonal de X ∈ L2 (Ω, F, P) sobre L2 (Ω, G, P) se e s´o se: ∀Y ∈ L2 (Ω, G, P) X − Z, Y = 0 . Ora, a segunda propriedade que analis´amos acima e que est´a condensada na f´ormula 3.3, permite-nos dizer que: ∀G ∈ G X − E[X | Z], IG = 0 . Mas, pela linearidade e pela densidade das fun¸c˜oes simples em L2 (Ω, G, P) pode deduzir-se que: ∀Y ∈ L2 (Ω, G, P) X − E[X | Z], Y = 0 , pelo que a conclus˜ao anunciada segue.
ESPERANC ¸ A CONDICIONAL
9
Exercicio 6. Mostre directamente que: X − E[X | Z], E[X | Z] = 0 . Exercicio 7. Seja A = {A1 , A2 , . . . , Ap }, uma parti¸c˜ao de Ω. (1) Mostre que:
σ(A) = {
Ai : I ⊂ {1, 2, . . . , p}} .
i∈I
(2) Seja X uma vari´avel aleat´oria σ(A) mensur´avel. Mostre que X ´e constante sobre os conjuntos Ai para i ∈ {1, 2, . . . , p}. (3) Conclua que para α1 , α2 , . . . , αp ∈ R se tem: X=
p
αi IAi .
i=1
Exercicio 8. Seja (Ω, F, P) um espa¸co de probabilidade e Y uma vari´avel aleat´oria real e integr´avel, definida sobre este espa¸co. (1) Sendo B = {∅, Ω} determine E[Y |B]. (2) Sendo B ∈ F, tal que 0 < P[B] < 1 e B1 = σ({B}) determine E[Y |B1 ]. (3) Sendo X uma vari´avel aleat´oria real tomando, P quase certamente, dois valores x1 ou x2 , determine E[Y |X]. (4) Seja X uma vari´avel aleat´oria tomando, P quase certamente, um n´ umero finito de valores x1 , . . . , xn tal que para i = 1, . . . , n se tenha que P[X = xi ] = 0. Determine E[Y |X]. (5) Suponha que a vari´avel aleat´oria X toma, quase certamente, os seus valores num conjunto numer´avel {xn : n ∈ N} e ainda que ∀n ∈ N P[X = xn ] = 0 . Determine E[Y |X]. 3.2. O caso geral. As duas primeiras propriedades que pud´emos observar, acima, no caso de duas vari´aveis aleat´orias tomando um n´ umero finito de valores foram usadas por
10
ESPERANC ¸ A CONDICIONAL
Kolmogorov1 para definir em condi¸c˜oes muito gerais a no¸c˜ao de esperan¸ca condicional. A terceira propriedade sugere a demonstra¸c˜ao do resultado fazendo apelo a` estrutura geom´etrica de espa¸co de Hilbert das vari´aveis aleat´orias de quadrado integr´avel. Teorema 3.2 (Kolmogorov 1933). Seja (Ω, F, P) um espa¸co de probabilidade, X uma vari´avel aleat´oria integr´avel e G uma sub-sigma-´algebra de F. Ent˜ao: (1) Existe ent˜ao uma vari´avel aleat´oria Y tal que: (a) Y ´e integr´avel, (b) Y ´e mensur´avel relativamente a G,
(3.4)
(c) Y verifica a seguinte propriedade: Y dP = ∀G ∈ G G
XdP .
G
(2) Se Y e Y˜ forem duas vari´aveis aleat´orias verificando as trˆes propriedades da al´ınea 1 acima, ent˜ao Y = Y˜ P q.c. . Em consequˆencia do ponto 1 do teorema de Kolmogorov podemos definir a no¸c˜ao de esperan¸ca condicional no caso geral. Defini¸c˜ ao 3.3. Nas condi¸c˜oes do teorema de Kolmogorov acima qualquer vari´avel aleat´oria que verifique as propriedades do ponto 1 denomina-se uma vers˜ ao da esperan¸ ca condicional de X dada G e representa-se por: E[X | G] . Demonstra¸c˜ao. A prova da existˆencia para uma dada vari´avel aleat´oria X em L2 decorre do teorema que garante a melhor aproxima¸c˜ao para ”subespa¸cos” fechados de L2 . Com efeito, como se verifica que G ⊂ F temos L2 (Ω, G, P) ⊂ L2 (Ω, F, P) podendo mesmo afirmar que, com as reservas feitas quanto a` defini¸c˜ao da adi¸c˜ao nos espa¸cos de fun¸c˜oes 1Andrei
Nikolaevich Kolmogorov, matem´ atico russo (1903–1987) fundamentou a teoria das probabili-
dades axiomatizando-a no quadro da teoria da medida. Segundo Hoffman-Jorgensen [7][vol. I, p. xxxvi] a obra datada de 1933, onde exp˜ oe esta fundamenta¸c˜ao, foi recebida pelos probabilistas seus contemporˆ aneos quase com euforia. Esta obra foi posteriormente traduzida para a l´ıngua inglesa (veja-se [8]).
ESPERANC ¸ A CONDICIONAL
11
integr´aveis, L2 (Ω, G, P) ´e um subespa¸co vectorial de L2 (Ω, F, P). Em consequˆencia, para qualquer elemento X de L2 (Ω, F, P) existe Y no espa¸co L2 (Ω, G, P) tal que: ∀Z ∈ L2 (Ω, G, P) X − Y ⊥ Z . Como para G ∈ G se tem que IG ∈ L2 (Ω, G, P) temos: ∀G ∈ G
< X − Y, IG >= 0
e como as vari´aveis X and Y s˜ao integr´aveis temos, de forma equivalente, XdP = Y dP . ∀G ∈ G G
G
Observando que, por ser Y ∈ L (Ω, G, P) se tem que Y ´e G mensur´avel e ´e integr´avel 2
temos, finalmente, que Y ´e uma vers˜ao da esperan¸ca condicional de X dada G. Para a demonstra¸c˜ao da unicidade e da existˆencia no caso geral pode o leitor referir-se a` obra [2][p.
86].
Exercicio 9. Seja (Ω, F, P) um espa¸co de probabilidade, e Y uma vari´avel aleat´oria definida sobre este espa¸co tomando valores em Rm . Seja agora T uma outra vari´avel aleat´oria sobre o mesmo espa¸co e tomando valores em Rp . Mostre que se Y for mensur´avel relativamente a` sigma-´algebra σ(T ) ent˜ao existe uma aplica¸c˜ao φ de Rp em Rm tal que: Y = φ(T ) . Exercicio 10. Seja (Ω, F, P) um espa¸co de probabilidade, e X uma vari´avel aleat´oria definida sobre este espa¸co tomando valores em Rm . Seja agora T uma outra vari´avel aleat´oria sobre o mesmo espa¸co e tomando valores em Rp . Define-se a esperan¸ca condicional de X dado que T = t como qualquer fun¸c˜ao φ mensur´avel de Rp em R tal que: p ∀B ∈ B(R ) φ(t)dPT (t) = XdP . B
T −1 (B)
onde PT ´e a lei de T . (1) Mostre que a esperan¸ca condicional de X dado que T = t existe se X for integr´avel. (2) Mostre que se Y e Y˜ forem duas esperan¸cas condicionais de X dado que T = t ent˜ao: Y = Y˜ P q.c. .
12
ESPERANC ¸ A CONDICIONAL
(3) Mostre que se verifica: E[X | T ] = φ(T ) se φ(t) = E[X | T = t] . 3.3. Como calcular esperan¸ cas condicionais. Para a determina¸c˜ao das esperan¸cas condicionais num dado caso espec´ıfico podem usar-se como m´etodos, entre outros, os seguintes: • O recurso a` defini¸c˜ao evocada na sec¸c˜ao 3.1 para o caso em que as vari´aveis aleat´orias s˜ao discretas, isto ´e tomam um n´ umero finito ou infinito numer´avel de valores. • O recurso a`s densidades das leis das vari´aveis aleat´orias em presen¸ca. • O recurso a`s propriedades operat´orias das esperan¸cas condicionais. Vamos estudar em detalhe o m´etodo evocado no segundo ponto da lista anterior enquanto que o terceiro m´etodo referido ser´a desenvolvido na sec¸c˜ao 3.4. Relembremos que se X e Z forem vari´aveis aleat´orias admitindo uma lei conjunta com densidade dada pela fun¸c˜ao de duas vari´aveis fX,Z (x, z) ent˜ao X (respectivamente Z) admite como densidade fX (respectivamente fZ ) dada por: fX (x) = fX,Z (x, z)dz respectivamente fZ (z) = fX,Z (x, z)dx . R
R
Observe-se ainda que se, por exemplo, for fX (x0 ) = 0 ent˜ao, dado que fX,Z ´e positiva, se tem que fX,Z (x0 , z) = 0 quase por toda a parte relativamente a` vari´avel z e a` medida de Lebesgue em R. Teorema 3.4. Sejam X e Z, vari´aveis aleat´orias admitindo uma lei conjunta com densidade dada pela fun¸c˜ao de duas vari´aveis fX,Z (x, z). Seja h uma fun¸c˜ao Borel mensur´avel tal que:
E[|h(X)|] =
R
|h(X)|fX (x)dx < +∞ ,
onde fX (x) ´e a densidade da lei marginal da vari´avel X. Ent˜ao se for g a fun¸c˜ao de vari´avel real definida por:
g(z) :=
h(x) R
fX,Z (x, z) I{fZ =0} dx , fZ (z)
tem-se que g(Z) ´e uma vers˜ao de E[h(X) | σ(Z)].
ESPERANC ¸ A CONDICIONAL
13
Demonstra¸c˜ao. Pelas propriedades de defini¸c˜ao da esperan¸ca condicional enunciadas no teorema de Kolmogorov e dado que por defini¸c˜ao se tem que: σ(Z) := Z −1 (B(R)) := {Z −1 (B) : B ∈ B(R)} , para que seja v´alida a condi¸c˜ao do teorema temos que verificar que: g(Z)dP = h(X)dP . ∀B ∈ B(R) Z −1 (B)
Z −1 (B)
Atendendo a que IZ −1 (B) ≡ IB ◦ Z, ´e equivalemte verificar que: g(Z) (IB ◦ Z) dP = h(X) (IB ◦ Z) dP . ∀B ∈ B(R) Z −1 (B)
Ω
Dado que, por hip´otese, as leis das vari´aveis aleat´orias s˜ao-nos dadas pelas respectivas densidades a igualdade entre os integrais pode representar-se de forma equivalente por: g(z) IB (z) fZ (z)dz = h(x) IB (z)fX,Z (x, z) dxdz . ∀B ∈ B(R) R
R
R
Finalmente, observando que se para um dado z0 se tiver fZ (z0 ) = 0 ent˜ao tamb´em para todo o x se verifica que fX,Z (x, z0 ) = 0 salvo num conjunto de medida de Lebesgue nula, podemos usar no integral, sem lhe alterar o valor, a seguinte igualdade: fX,Z (x, z) =
fX,Z (x, z) I{fZ =0} fZ (z) , fZ (z)
Em consequˆencia, podemos representar a igualdade de integrais acima pela igualdade seguinte: ∀B ∈ B(R)
fZ (z)g(z)dz =
B
fZ (z) B
fX,Z (x, z) h(x) I{fZ =0} dx fZ (z) R
dz ,
o que mostra que a representa¸c˜ao para a fun¸c˜ao g, formulada na hip´otese do teorema, ´e suficiente para garantir o resultado anunciado.
Exercicio 11. Sejam X e Y vari´aveis aleat´orias independentes com distribui¸c˜oes de Poisson de parˆametros λ e µ, respectivamente. (1) Verifique que X + Y segue uma distribui¸c˜ao de Poisson de parˆametro λ + µ. (2) Calcule a distribui¸c˜ao de X condicionada por Z = X + Y . (3) Calcule E(X|Z).
14
ESPERANC ¸ A CONDICIONAL
Exercicio 12. Consideremos um vector aleat´orio (X, Y ) cuja distribui¸c˜ao ´e dada pelo quadro seguinte: Y -1 -1 X
0.1
0 0.15
0
1
2
0.15
0
0.1
0
1 0.05 0.05
0.1 0.2 0
0.1
Calcule a distribui¸c˜ao de Y condicionada por X = n, n = −1, 0, 1, E(Y |X) e E(Y ). Exercicio 13. Seja (X, Y ) um vector aleat´orio com densidade fX,Y (x, y). Mostre que se definirmos fY (y) por:
fY (y) :=
fX,Y (x, y) dx R
ent˜ao a vari´avel aleat´oria admitindo como densidade: fX|Y (x|y) =
fX,Y (x, y) I{fY =0} (y) , fY (y)
´e uma vers˜ao da esperan¸ca condicional de X dado Y = y. Exercicio 14. Seja (X, Y ) um vector aleat´orio com densidade
f (x, y) =
2 I[0,+∞[×[0,+∞[ (x, y) , (1 + x + y)3
Calcule E(X|Y ). 3.4. Propriedades operat´ orias das esperan¸ cas condicionais. Nesta sec¸c˜ao apresentamos uma lista das principais propriedades operat´orias da no¸c˜ao de esperan¸ca condicional que tal como j´a referimos s˜ao de grande utilidade no c´alculo espl´icito. Genericamente denotamos por X uma vari´avel aleat´oria integr´avel e por G uma sub-sigma-´algebra de F. Propriedade 1. Se Y for uma vers˜ao de E[X | G] temos que E[Y ] = E[X] o que podemos representar por: E [E[X | G]] = E[X] .
ESPERANC ¸ A CONDICIONAL
15
Demonstra¸c˜ao. Repare-se que pela defini¸c˜ao temos que E[X|G]dP = XdP, G ∈ G, G
G
em particular como Ω ∈ G vem
E[X|G]dP =
E[E[X|G]] =
XdP = E[X].
Ω
Ω
Propriedade 2. Se X for G mensur´avel ent˜ao X ´e uma vers˜ao de E[X | G], o que podemos representar por E[X | G] = X . Demonstra¸c˜ao. Como para Y = X, temos que Y ´e integr´avel, e como XdP ∀G ∈ G, Y dP = G
G
ent˜ao se X fˆor mensur´avel relativamente a G vem que Y ´e mensur´avel relativamente a G e portanto Y verifica as trˆes condi¸c˜oes para que seja uma vers˜ao da esperan¸ca condicional de X dado G.
Propriedade 3. Seja Y1 (respectivamente Y2 ) uma vers˜ao de E[X1 | G] (respectivamente E[X2 | G]). Ent˜ao, para λ e µ n´ umeros reais, temos que λY1 + µY2 ´e uma vers˜ao de E[λX1 + µX2 | G], o que podemos representar por: E[λX1 + µX2 | G] = λE[X1 | G] + µE[X2 | G] . Demonstra¸c˜ao. Temos que ∀G ∈ G, λE[X1 | G] + µE[X2 | G]dP = λ E[X1 | G]dP + µ E[X2 | G]dP = G
G
X1 dP + µ
λ G
G
X2 dP =
G
(λX1 + µX2 )dP, G
o que permite concluir que λE[X1 | G] + µE[X2 | G] ´e uma vers˜ao da esperan¸ca condicional de λX1 + µX2 dado G.
16
ESPERANC ¸ A CONDICIONAL
Propriedade 4. Se X for uma vari´avel aleat´oria n˜ao negativa (isto ´e X ≥ 0) ent˜ao qualquer vers˜ao da esperan¸ca condicional de X dada G, ´e n˜ao negativa isto ´e, com o abuso de nota¸c˜ao convencional: E[X | G] ≥ 0, P − q.c. . Demonstra¸c˜ao. Fa¸camos ∀n ≥ 1, An = {E[X | G] ≤ − n1 }. Ent˜ao temos que An ∈ G e se X ≥ 0 vem
1 E[X | G]dP ≤ − P[An ], n An An o que obriga a que P[An ] = 0, n ≥ 1. Como 0≤
XdP =
{E[X | G] < 0} =
∞
An ,
n=1
vem que P[{E[X | G] < 0}] = 0,
o que prova o pretendido
Propriedade 5 (Convergˆencia Mon´otona). Seja (Xn )n∈N uma sucess˜ao de vari´aveis aleat´orias n˜ao negativas e crescente, quase certamente, para uma outra vari´avel aleat´oria X. Ent˜ao, se para cada n ∈ N se tiver que Yn ´e uma vers˜ao da esperan¸ca condicional de Xn dada G e, se Y for uma vers˜ao da esperan¸ca condicional de X dada G, tem-se que limn→+∞ Yn ↑ Y ou ainda: lim E[Xn | G] ↑ E[X | G], P − q.c. .
n→+∞
´ltimas propriedades Demonstra¸c˜ao. Como Xn ≥ 0 e Xn+1 − Xn ≥ 0 vem pelas duas u que Yn ≥ 0 e Yn+1 − Yn ≥ 0 donde 0 ≤ Yn ↑. Fazendo Y = lim Yn vem pelo teorema da convergˆencia mon´otona de Lebesgue e pelas hip´oteses, que Y dP = lim Yn dP = lim Yn dP = lim Xn dP = lim Xn dP = XdP, ∀G ∈ G, G
G
G
G
G
donde pela unicidade vem que E[X | G] = Y = lim Yn = lim E[Xn | G], P − q.c..
G
Propriedade 6 (Lema de Fatou). Seja (Xn )n∈N uma sucess˜ao de vari´aveis aleat´orias n˜ao negativas, ent˜ao E[lim inf Xn | G] ≤ lim inf E[Xn | G], P − q.c.
ESPERANC ¸ A CONDICIONAL
17
Demonstra¸c˜ao. Fazendo Yk = inf n≥k Xn , ∀k ∈ N teremos que Yk ≤ Xn , ∀n ≥ k vindo pela propriedade (4) que ∀n ≥ k, E[Yk | G] ≤ E[Xn | G], P − q.c. o que implica que E[Yk | G] ≤ inf E[Xn | G], P − q.c. n≥k
Como a desigualdade anterior ´e v´alida para todo o k, teremos ainda lim E[Yk | G] ≤ lim inf E[Xn | G], P − q.c. k
k
n≥k
Aplicando agora a propriedade (5) a` sucess˜ao Yk vir´a, E[lim Yk | G] ≤ lim inf E[Xn | G], P − q.c., k
o que termina a prova.
Propriedade 7 (Convergˆencia Dominada). Seja (Xn )n∈N uma sucess˜ao de vari´aveis aleat´orias convergentes, quase certamente, para uma outra vari´avel aleat´oria X e tais que para V v. a. n˜ao negativa e integr´avel se tenha: ∀n ∈ N |Xn | ≤ V P − q.c. Ent˜ao, se para cada n ∈ N se tiver que Yn ´e uma vers˜ao da esperan¸ca condicional de Xn dada G e, se Y for uma vers˜ao da esperan¸ca condicional de X dada G, tem-se que limn→+∞ Yn = Y ou ainda: lim E[Xn | G] = E[X | G]
n→+∞
Demonstra¸c˜ao. Repare-se que ∀n ∈ N, V − Xn ≥ 0 e V + Xn ≥ 0, donde pela propriedade anterior vem que E[lim inf(V − Xn ) | G] ≤ lim inf E[V − Xn | G] E[lim inf(V + Xn ) | G] ≤ lim inf E[V + Xn | G]. Usando agora o facto de V ser integr´avel juntamente com a linearidade da esperan¸ca condicional, vem E[X | G] ≥ lim sup E[Xn | G] E[X | G] ≤ lim inf E[Xn | G],
18
ESPERANC ¸ A CONDICIONAL
o que permite concluir o pretendido. Propriedade 8. Se Y for uma vari´avel G mensur´avel tal que E[|XY |] < +∞ ent˜ao: E[X · Y | G] = Y · E[X | G] . Demonstra¸c˜ao. Para a prova deste resultado vamos usar o m´etodo geral, e vamos assumir que X ≥ 0 (o caso geral sai pela linearidade e de X = X + − X − ). (1) Para Y = IA com A ∈ G vem que (a) IA E[X | G]dP = E[X | G]dP = XdP = ∀G ∈ G, Y E[X | G]dP = G G G∩A G∩A IA XdP = Y XdP = G
G
sendo (a) justificado pelo facto de G ∩ A ∈ G, e concluindo-se pela unicidade que E[Y X | G] = Y E[X | G]. (2) Para Y = ci IAi , simples n˜ao negativa temos pela linearidade e por (1) IAi E[X | G]dP = IAi XdP = Y XdP. ∀G ∈ G, Y E[X | G]dP = G
G
G
G
(3) Para Y mensur´avel n˜ao negativa sabemos que Y = lim Sn com Sn simples n˜ao negativas, usando o teor. da conv. mon´otona de Lebesgue e (2), vem Y E[X | G]dP = lim Sn E[X | G]dP = lim Sn E[X | G]dP = G G G = lim Sn XdP = lim Sn XdP = Y XdP. G
G
G
(4) Finalmente no caso em que Y ´e integr´avel e E[|Y X|] < ∞, temos que E[(Y X)+ ] < ∞ e E[(Y X)− ] < ∞ e vem por (3) e por X ≥ 0, + Y E[X | G]dP = Y E[X | G]dP − Y − E[X | G]dP = G G G + − Y XdP − Y XdP = Y XdP, = G
G
G
o que termina a demonstra¸c˜ao.
ESPERANC ¸ A CONDICIONAL
19
Propriedade 9 (Tower law). Se G for uma sub-sigma-´algebra de F tal que G ⊂ G ent˜ao:
E E[X | G ] | G = E E[X | G] | G = E[X | G ] . Demonstra¸c˜ao. Pela defini¸c˜ao temos que ∀G ∈G, E[X | G ]dP = G
G
XdP
como G ⊂ G vem que G ∈ G e portanto XdP = G
G
E[X | G]dP.
Como temos agora,
∀G ∈G, G
E[X | G ]dP = G
E[X | G]dP,
conclui-se que
E[X | G ] = E[E[X | G] | G ].
Para a outra igualdade ´e an´alogo. Propriedade 10. Se X ´e independente de G ent˜ao, E[X | G] = E[X]. Demonstra¸c˜ao. Temos que ∀G ∈ G,
XIG dP = E[XIG ]
XdP = G
Ω
como X ´e independente de G e IG ´e G-mensur´avel vem que X e IG s˜ao independentes e por um resultado j´a provado temos que XdP = E[XIG ] = E[X]E[IG ] = E[X]IG dP = E[X]dP, G
Ω
G
o que permite concluir que E[X | G] = E[X].
20
ESPERANC ¸ A CONDICIONAL
Ë&#x153;o 4. Exerc´Ĺcios de Revisa Exercicio 15. Seja (Xn )nâ&#x2C6;&#x2C6;Nâ&#x2C6;&#x2014; uma sucessË&#x153;ao de vari´aveis aleat´orias iid tais que: E[X1 ] = Âľ , V[X1 ] = ν . Seja N uma vari´avel aleat´oria inteira independente das vari´aveis (Xn )nâ&#x2C6;&#x2C6;Nâ&#x2C6;&#x2014; e tal que: E[N ] = Îą , V[N ] = β . Seja ainda: â&#x2C6;&#x20AC;n â&#x2C6;&#x2C6; Nâ&#x2C6;&#x2014; Sn =
n
Xk .
k=1
(1) Mostre que SN ´e uma vari´avel aleat´oria e que: E[SN |N = n] = E[Sn ] . (2) Deduza do resultado precedente expressË&#x153;oes para E[SN ] e para V[SN ]. Exercicio 16. Seja (Xn )nâ&#x2C6;&#x2C6;N uma sucessË&#x153;ao de vari´aveis aleat´orias independentes integr´aveis tal que para qualquer n â&#x2C6;&#x2C6; N se tenha E[Xn ] = Âľn . Seja para cada n â&#x2C6;&#x2C6; N Fn := Ď&#x192;(X1 , . . . , Xn ). Mostre que: (1) para k > n se tem que:
k n k Xj | Fn = Xj + Âľj e que , E j=1
E
k
j=1
Xj | Fn =
j=1
n
j=n+1
Xj
j=1
k
Âľj
.
j=n+1
existem e sË&#x153;ao ďŹ nitas mostre que: (2) Supondo que as variË&#x2020;ancias V[Xn ] =   2 2 n k k E (Xj â&#x2C6;&#x2019; Âľj ) | Fn  = (Xj â&#x2C6;&#x2019; Âľj ) + Ď&#x192;j2 . Ď&#x192;n2 ,
j=1
j=1
j=n+1
Exercicio 17. Seja um vector aleat´orio bidimensional (X, Y ) com fun¸cË&#x153;ao distribui¸cË&#x153;ao FX,Y (x, y). Seja por deďŹ ni¸cË&#x153;ao: H(x|y) := P[X â&#x2030;¤ x|Y = y] ,
ESPERANC ¸ A CONDICIONAL
21
a fun¸c˜ao de distribui¸c˜ao condicional de X dada Y . Mostre que: y H(x|u)FY (du) , FX,Y (x, y) = −∞
onde FY (y) ´e a fun¸c˜ao de distribui¸c˜ao marginal de Y . Exercicio 18. Seja (X, Y ) um vector aleat´orio definido sobre Ω = [0, 1] × [0, 1] com densidade fX,Y (x, y) = x + y. Calcule E[X | Y ], e E[X | X + Y ]. ˆncias Refere 1. [Adam86] M. Adams, V. Guillemin, Measure Theory and Probability, Birkh¨ auser, 1986. 2. [Will91] D. Williams, Probability with Martingales, Cambridge University Press, 1991. 3. [Capi99] M. Capi´ nski, E. Kopp, Measure, Integral and Probability, Springer, 1999. 4. [Brze99] Z. Brze´zniak, T. Zastawniak, Basic Stochastic Processes, Springer, 1999. 5. [Cott80] M. Cottrell, Ch. Duhamel, V. Genon-Catalot, Exercices de probabilit´es, Librairie Belin, 1980. 6. [DaCul70] D. Dacunha-Castelle, D. Revuz, M. Schreiber Recueil de probl`emes de calcul des probabilit´es, Masson, Paris, 1970. 7. [Hoff94] J. Hoffmann-J, Probability with a view towards Statistics, Chapman & Hall, 1994. 8. [Kolm50] A. N. Kolmogorov, Foundations of the theory of Probability, Chelsea Books, 1950.