Page 1

ESPERANC ¸ A CONDICIONAL

1. Espac ¸ os Produto Sejam (Ω1 , F1 , µ1 ) e (Ω2 , F2 , µ2 ) dois espa¸cos de medida. Fa¸camos Ω = Ω1 × Ω2 o produto cartesiano, queremos definir sobre Ω uma σ-´algebra e uma medida que coincida com µ1 e µ1 sobre F1 e F2 respectivamente. Comecemos pela σ-´algebra. Defini¸c˜ ao 1.1. Define-se, F, a σ-´algebra produto de F1 por F2 como sendo a menor σ´algebra de elementos de Ω que cont´em os ”rectˆangulos” do tipo F1 ×F2 , ∀F1 ∈ F1 , F2 ∈ F2 . Ou seja, F = σ(E), E = {F1 × F2 ; F1 ∈ F1 , F2 ∈ F2 }. Escreveremos F = F1 × F2 . Para a medida, µ, que vamos definir sobre (Ω, F), comecemos por defini-la para os elementos de F da forma F1 × F2 , F1 ∈ F1 , F2 ∈ F2 como sendo: µ(F1 × F2 ) = µ1 (F1 ) × µ2 (F2 ). Considere-se agora um elemento F de F. Designemos por Fω2 e Fω1 os subconjuntos de Ω1 e Ω2 , definidos por: Fω2 = {ω1 ∈ Ω1 ; (ω1 , ω2 ) ∈ F }, Fω1 = {ω2 ∈ Ω2 ; (ω1 , ω2 ) ∈ F }. A estes conjuntos chamam-se sec¸c˜oes de F . Exercicio 1. Mostre que se F ∈ F ent˜ao Fω2 ∈ F1 e Fω1 ∈ F2 . Indica¸c˜ao: Fixando ω2 ∈ Ω2 e considerando Sω2 = {F ⊆ Ω; Fω2 ∈ F1 }. (1) Mostre que Sω2 cont´em todos os elementos do tipo, F1 × F2 , F1 ∈ F1 , F2 ∈ F2 . 1


2

ESPERANC ¸ A CONDICIONAL

(2) Mostre que Sω2 ´e uma σ-´algebra. Concluindo-se que Sω2 cont´em E e portanto σ(E). Podemos agora definir a medida produto. Defini¸c˜ ao 1.2. Para F ∈ F define-se a medida µ por:  µ(F ) = µ1 (Fω2 )dµ2 (ω2 ). Ω2

Observa¸c˜ ao 1.3. Repare-se que no caso de F = F1 × F2 , F1 ∈ F1 , F2 ∈ F2 , esta defini¸c˜ao coincide com o que j´a tinhamos dito, pois, µ1 (Fω2 ) = µ1 (F1 )IF2 (ω2 ), ω2 ∈ Ω2 uma vez que Fω2 = F1 se ω2 ∈ F2 e Fω2 = ∅ se ω2 ∈ / F2 . Donde   µ1 (Fω2 )dµ2 (ω2 ) = µ1 (F1 )IF2 (ω2 )dµ2 (ω2 ) = µ1 (F1 )µ2 (F2 ). µ(F ) = Ω2

Ω2

Temos agora um primeiro teorema. Teorema 1.4. Se F ∈ F, ent˜ao as fun¸c˜oes ω2 → µ1 (Fω2 ),

ω1 → µ2 (Fω1 )

s˜ao mensur´aveis relativamente a F2 e F1 , respectivamente, e   µ1 (Fω2 )dµ2 (ω2 ) = µ2 (Fω1 )dµ1 (ω1 ). Ω2

Ω1

A demonstra¸c˜ao deste teorema pode ser encontrada em [1], proposi¸c˜ao 8 e teorema 11, pag. 93 e 95. Vamos finalmente enunciar o terema de Fubini. Teorema 1.5. (Teorema de Fubini) Seja f ∈ L1 (Ω1 × Ω2 ) ent˜ao: (1) As fun¸c˜oes ω1 → f (ω1 , ω2 ),

ω2 → f (ω1 , ω2 )

s˜ao elementos de L1 (Ω1 ) e L1 (Ω2 ), respectivamente.


ESPERANC ¸ A CONDICIONAL

(2) As fun¸c˜oes



3



ω1 →

ω2 →

f (ω1 , ω2 )dµ2 (ω2 ),

f (ω1 , ω2 )dµ1 (ω1 )

Ω2

Ω1

s˜ao elementos de L1 (Ω1 ) e L1 (Ω2 ), respectivamente. (3)  Ω1



  f (ω1 , ω2 )dµ2 (ω2 ) dµ1 (ω1 ) =

Ω2

Ω2

 = Ω1 ×Ω2

 f (ω1 , ω2 )dµ1 (ω1 ) dµ2 (ω2 ) =

 Ω1

f (ω1 , ω2 )d(µ1 × µ2 ).

´ rios 2. Pares aleato Sejam X, Y duas vari´aveis aleat´orias definidas sobre o mesmo espa¸co de probabilidade (Ω, F, P), define-se a sua distribui¸c˜ao de probabilidade conjunta (ou lei) como sendo a medida definida sobre B(R2 ) por: PX,Y (B) = P[(X, Y ) ∈ B], B ⊆ R2 . An´alogamente ao que foi feito para uma vari´avel aleat´oria define-se tamb´em a fun¸c˜ao distribui¸c˜ao de probabilidade do par (X, Y ) por FX,Y (x, y) = P[X ≤ x, Y ≤ y] = P[X −1 (] − ∞, x]) ∩ Y −1 (] − ∞, y])]. Se X fˆor uma vari´avel aleat´oria que toma os valores x0 ≤ . . . ≤ xn ≤ . . . e Y uma outra vari´avel aleat´oria que toma os valores y0 ≤ . . . ≤ ym ≤ . . ., ent˜ao o par (X, Y ) toma os seus valores no conjunto D = {(xi , yj ); P[X = xi , Y = yj ] > 0}. E neste caso podemos escrever, ∀ B ∈ B(R2 ),

PX,Y (B) =



pi,j δ(xi ,yj ) (B),

(i,j)∈N×N

com pi,j = P[X = xi , Y = yj ]ID ((xi , yj )), ∀(i, j) ∈ N × N. E no caso da fun¸c˜ao distribui¸c˜ao de probabilidade, vem  pi,j , com E = {(k, l) ∈ N × N; xk ≤ x, yl ≤ y}. FX,Y (x, y) = (i,j)∈E

Para as vari´aveis aleat´orias cont´ınuas, se fˆor possivel escrever,    fX,Y (x, y)dλ2 (x, y) = fX,Y (x, y)dλ(x)dλ(y) PX,Y (B) = B

B


4

ESPERANC ¸ A CONDICIONAL

em que λ2 ´e a medida de Lebesgue em R2 , dizemos que fX,Y ´e a densidade conjunta do par (X, Y ). E no caso do integral de Riemann existir podemos escrever ainda,     PX,Y (B) = fX,Y (x, y)IB dxdy = fX,Y (x, y)dxdy. R

R

B

Vindo para a fun¸c˜ao distribui¸c˜ao conjunta,  x0  FX,Y (x0 , y0 ) = −∞

y0

fX,Y (x, y)dydx.

−∞

A distribui¸c˜ao conjunta determina as distribui¸c˜oes de X e de Y , pois para A ∈ B(R) PX [A] = PX,Y [A × R], PY [A] = PX,Y [R × A], que se designam por distribui¸c˜oes marginais. Exercicio 2. Mostre que se X, Y s˜ao vari´aveis aleat´orias discretas: (1) PX ({xk }) =

∞ 

pk,j ,

PY ({yk }) =

∞ 

j=0

pi,k ,

i=0

(2) FX (xk ) =

k  ∞ 

pi,j ,

k  ∞ 

FY (yk ) =

i=0 j=0

pi,j .

j=0 i=0

Exercicio 3. Mostre que se X, Y tem densidade conjunta fX,Y ent˜ao temos: (1)





fX (x) =

fX,Y (x, y)dy,

fY (y) =

−∞

(2)



x0



 fX,Y (x, y)dydx,

−∞

fX,Y (x, y)dx, −∞

FX (x0 ) =

−∞

y0



FY (y0 ) =

fX,Y (x, y)dxdy. −∞

−∞

Exercicio 4. Sejam X e Y duas vari´aveis aleat´orias com distribui¸c˜oes de probabilidade PX e PY , respectivamente. Mostre que s˜ao equivalentes as seguintes condi¸c˜oes: (1) X e Y s˜ao independentes, (2) PX,Y = PX PY , (3) FX,Y = FX FY .


ESPERANC ¸ A CONDICIONAL

5

Se X, Y tiverem densidade conjunta ent˜ao qualquer das condi¸c˜oes anteriores ´e equivalente a, fX,Y = fX fY . Exercicio 5. Mostre que se X e Y tˆem densidade conjunta fX,Y , ent˜ao a densidade da vari´avel aleat´oria X + Y ´e

 fX+Y (z) = R

fX,Y (x, z − x)dx.

Defini¸c˜ ao 2.1. Define-se a probabilidade condicional de Y ∈ B dado que X ∈ A por: P[Y ∈ B|X ∈ A] =

P[Y ∈ B, X ∈ A] , P[X ∈ A]

desde que P[X ∈ A] > 0. No caso de duas vari´aveis aleat´orias X, Y com densidade de probabilidade fX,Y (x, y), e dados A, B ∈ B(R) teremos, usando o teorema de Fubini,  fX,Y (x, y)dλ2 (x, y) = P[Y ∈ B|X ∈ A] = A×B f (x)dλ(x) X A     fX,Y (x, y)dxdy f (x, y)dx A X,Y = B A = dy, f (x)dx f (x)dx B A X A X  desde que A fX (x)dx = 0. Podemos ent˜ao dizer que a distribui¸c˜ao condicional de Y dado X ∈ A tem densidade,

 g(y|X ∈ A) =

f (x, y)dx A X,Y A

fX (x)dx

.

Apesar do caso A = {x0 } n˜ao fazer sentido, por o denominador ser nulo, leva a que se defina a densidade de Y dado X = x0 por g(y|X = x0 ) =

fX,Y (x0 , y) , fX (x0 )

desde que fX (x0 ) > 0. Vindo a probabilidade de Y dado X = x,



P[Y ∈ B|X = x] =

g(y|x)dy, B

e a esperan¸ca condicional, respectiva, E[Y |X = x] =

 yg(y|x)dy. R


6

ESPERANC ¸ A CONDICIONAL

Repare-se que a esperan¸ca condicional de Y dado X = x ´e fun¸c˜ao de x, e podemos ent˜ao escrever, para ω ∈ Ω, uma nova vari´avel aleat´oria,  E[Y |X](ω) = yg(y|X(ω))dy, R

a esperan¸ca condicional de Y dado X. A sec¸c˜ao que se segue faz parte de um documento relativo a processos estoc´asticos e paragem o´ptima que nos foi gentilmente facultado pelo Prof. Manuel Esqu´ıvel. Por este contributo queremos expressar os nossos sinceros agradecimentos. ˜o e Propriedades da Esperanc 3. Definic ¸a ¸ a Condicional Desenvolvemos estas notas, relativas a` no¸c˜ao de esperan¸ca condicional, a partir da exposi¸c˜ao magistral de David Williams na obra [2], completando-a com alguns exerc´ıcios e desenvolvimentos que ser˜ao convenientemente referenciados por altura da respectiva apresenta¸c˜ao. 3.1. Motiva¸ c˜ ao: o caso finito. Seja (Ω, F, P) um espa¸co de probabilidade e X e Z duas vari´aveis aleat´orias tomando um n´ umero finito de valores i.e.: X(Ω) = {x1 , . . . xm } e Z(Ω) = {z1 , . . . zn } . ´ conhecida a defini¸c˜ao seguinte da probabilidade condicional de um acontecimento dado E um outro acontecimento cuja probabilidade seja n˜ao nula. P[X = xi | Z = zj ] :=

P[{X = xi } ∩ {Z = zj }] . P[Z = zj ]

Dado que esta probabilidade condicional pode interpretar-se como uma nova probabilidade definida sobre o novo espa¸co {Z = zi }, ´e natural definir o valor esperado da vari´avel aleat´oria X, relativamente a esta probabilidade. E[X | Z = zj ] :=

m 

xi P[X = xi | Z = zj ] .

i=1

Para tornar a express˜ao anterior independente do ponto zi , pode agora definir-se uma nova vari´avel aleat´oria do seguinte modo.


ESPERANC ¸ A CONDICIONAL

7

Defini¸c˜ ao 3.1. A vari´avel aleat´oria E[X | Z] ´e definida por: E[X | Z] :=

(3.1)

n 

E[X | Z = zj ] I{Z=zj } .

j=1

Note-se que esta defini¸c˜ao diz-nos que se para um ω ∈ Ω fixo, se tem Z(ω) = zj para um certo j, ent˜ao verifica-se que: E[X | Z](ω) := E[X | Z = zj ] . A vari´avel aleat´oria assim definida goza de algumas propriedades que passamos a observar detalhadamente. • Considere-se a ´algebra-σ G gerada pela vari´avel aleat´oria Z. Uma consequˆencia do exerc´ıcio 7 ´e que: G = σ(Z) = {

(3.2)



{Z = zj } : J ⊆ {1, . . . , n}} .

j∈J

pelo que se torna claro que a express˜ao (3.1) define uma vari´avel aleat´oria G mensur´avel. • O c´alculo formal seguinte, que seria poss´ıvel justificar desde que as hip´oteses adequadas se encontrassem explicitadas, mostra-nos uma outra propriedade importante verificada pela vari´avel aleat´oria que definimos acima. Para qualquer l ∈ {1, . . . , }:  E[X | Z]dP = E[X | Z = zl ] · P[Z = zl ] = {Z=zl }

=

m  i=1

=

m 

xi

P[{X = xi } ∩ {Z = zl }] · P[Z = zl ] = P[Z = zl ]

xi P[{X = xi } ∩ {Z = zl }] =

i=1

 =

XdP . {Z=zl }

Devido a` forma geral dos elementos de G, que ´e poss´ıvel observar na f´ormula (3.2) e, devido a` aditividade do integral relativamente a uma parti¸c˜ao do dom´ınio de


8

(3.3)

ESPERANC ¸ A CONDICIONAL

integra¸c˜ao, temos finalmente que:   E[X | Z]dP = ∀G ∈ G G

XdP .

G

• Uma outra propriedade da vari´avel aleat´oria E[X | Z] tem uma interpreta¸c˜ao geom´etrica a` qual ser´a dada esclarecimento complementar na demonstra¸c˜ao do teorema de Kolmogorov. Consideremos L2 (Ω, F, P) o espa¸co das vari´aveis aleat´orias de quadrado integr´avel, isto ´e:    2 2 X dP < +∞ . L (Ω, F, P) := X : Ω → R : Ω

Este espa¸co pode ser munido de uma forma (bilinear) semi-definida positiva, um produto interno, do modo seguinte.



∀X, Y ∈ L (Ω, F, P) X, Y :=

X × Y dP .

2

Para este produto interno pode definir-se a no¸c˜ao de ortogonalidade semelhante a` no¸c˜ao de ortogonalidade no espa¸co euclideano usual, isto ´e: ∀X, Y ∈ L2 (Ω, F, P) X ⊥ Y ⇔ X, Y = 0 Pode verificar-se que, para G sub´algebra-σ de F, se tem que L2 (Ω, G, P) ´e um subespa¸co fechado de L2 (Ω, F, P) e que E[X | Z] ´e a projec¸c˜ao ortogonal de X ∈ L2 (Ω, F, P) sobre o subespa¸co L2 (Ω, G, P). Sabe-se, veja-se [2][p. 67], que Z ´e a projec¸c˜ao ortogonal de X ∈ L2 (Ω, F, P) sobre L2 (Ω, G, P) se e s´o se: ∀Y ∈ L2 (Ω, G, P) X − Z, Y = 0 . Ora, a segunda propriedade que analis´amos acima e que est´a condensada na f´ormula 3.3, permite-nos dizer que: ∀G ∈ G X − E[X | Z], IG = 0 . Mas, pela linearidade e pela densidade das fun¸c˜oes simples em L2 (Ω, G, P) pode deduzir-se que: ∀Y ∈ L2 (Ω, G, P) X − E[X | Z], Y = 0 , pelo que a conclus˜ao anunciada segue.


ESPERANC ¸ A CONDICIONAL

9

Exercicio 6. Mostre directamente que: X − E[X | Z], E[X | Z] = 0 . Exercicio 7. Seja A = {A1 , A2 , . . . , Ap }, uma parti¸c˜ao de Ω. (1) Mostre que: 

σ(A) = {

Ai : I ⊂ {1, 2, . . . , p}} .

i∈I

(2) Seja X uma vari´avel aleat´oria σ(A) mensur´avel. Mostre que X ´e constante sobre os conjuntos Ai para i ∈ {1, 2, . . . , p}. (3) Conclua que para α1 , α2 , . . . , αp ∈ R se tem: X=

p 

αi IAi .

i=1

Exercicio 8. Seja (Ω, F, P) um espa¸co de probabilidade e Y uma vari´avel aleat´oria real e integr´avel, definida sobre este espa¸co. (1) Sendo B = {∅, Ω} determine E[Y |B]. (2) Sendo B ∈ F, tal que 0 < P[B] < 1 e B1 = σ({B}) determine E[Y |B1 ]. (3) Sendo X uma vari´avel aleat´oria real tomando, P quase certamente, dois valores x1 ou x2 , determine E[Y |X]. (4) Seja X uma vari´avel aleat´oria tomando, P quase certamente, um n´ umero finito de valores x1 , . . . , xn tal que para i = 1, . . . , n se tenha que P[X = xi ] = 0. Determine E[Y |X]. (5) Suponha que a vari´avel aleat´oria X toma, quase certamente, os seus valores num conjunto numer´avel {xn : n ∈ N} e ainda que ∀n ∈ N P[X = xn ] = 0 . Determine E[Y |X]. 3.2. O caso geral. As duas primeiras propriedades que pud´emos observar, acima, no caso de duas vari´aveis aleat´orias tomando um n´ umero finito de valores foram usadas por


10

ESPERANC ¸ A CONDICIONAL

Kolmogorov1 para definir em condi¸c˜oes muito gerais a no¸c˜ao de esperan¸ca condicional. A terceira propriedade sugere a demonstra¸c˜ao do resultado fazendo apelo a` estrutura geom´etrica de espa¸co de Hilbert das vari´aveis aleat´orias de quadrado integr´avel. Teorema 3.2 (Kolmogorov 1933). Seja (Ω, F, P) um espa¸co de probabilidade, X uma vari´avel aleat´oria integr´avel e G uma sub-sigma-´algebra de F. Ent˜ao: (1) Existe ent˜ao uma vari´avel aleat´oria Y tal que: (a) Y ´e integr´avel, (b) Y ´e mensur´avel relativamente a G,

(3.4)

(c) Y verifica a seguinte propriedade:   Y dP = ∀G ∈ G G

XdP .

G

(2) Se Y e Y˜ forem duas vari´aveis aleat´orias verificando as trˆes propriedades da al´ınea 1 acima, ent˜ao Y = Y˜ P q.c. . Em consequˆencia do ponto 1 do teorema de Kolmogorov podemos definir a no¸c˜ao de esperan¸ca condicional no caso geral. Defini¸c˜ ao 3.3. Nas condi¸c˜oes do teorema de Kolmogorov acima qualquer vari´avel aleat´oria que verifique as propriedades do ponto 1 denomina-se uma vers˜ ao da esperan¸ ca condicional de X dada G e representa-se por: E[X | G] . Demonstra¸c˜ao. A prova da existˆencia para uma dada vari´avel aleat´oria X em L2 decorre do teorema que garante a melhor aproxima¸c˜ao para ”subespa¸cos” fechados de L2 . Com efeito, como se verifica que G ⊂ F temos L2 (Ω, G, P) ⊂ L2 (Ω, F, P) podendo mesmo afirmar que, com as reservas feitas quanto a` defini¸c˜ao da adi¸c˜ao nos espa¸cos de fun¸c˜oes 1Andrei

Nikolaevich Kolmogorov, matem´ atico russo (1903–1987) fundamentou a teoria das probabili-

dades axiomatizando-a no quadro da teoria da medida. Segundo Hoffman-Jorgensen [7][vol. I, p. xxxvi] a obra datada de 1933, onde exp˜ oe esta fundamenta¸c˜ao, foi recebida pelos probabilistas seus contemporˆ aneos quase com euforia. Esta obra foi posteriormente traduzida para a l´ıngua inglesa (veja-se [8]).


ESPERANC ¸ A CONDICIONAL

11

integr´aveis, L2 (Ω, G, P) ´e um subespa¸co vectorial de L2 (Ω, F, P). Em consequˆencia, para qualquer elemento X de L2 (Ω, F, P) existe Y no espa¸co L2 (Ω, G, P) tal que: ∀Z ∈ L2 (Ω, G, P) X − Y ⊥ Z . Como para G ∈ G se tem que IG ∈ L2 (Ω, G, P) temos: ∀G ∈ G

< X − Y, IG >= 0

e como as vari´aveis X and Y s˜ao integr´aveis temos, de forma equivalente,   XdP = Y dP . ∀G ∈ G G

G

Observando que, por ser Y ∈ L (Ω, G, P) se tem que Y ´e G mensur´avel e ´e integr´avel 2

temos, finalmente, que Y ´e uma vers˜ao da esperan¸ca condicional de X dada G. Para a demonstra¸c˜ao da unicidade e da existˆencia no caso geral pode o leitor referir-se a` obra [2][p. 

86].

Exercicio 9. Seja (Ω, F, P) um espa¸co de probabilidade, e Y uma vari´avel aleat´oria definida sobre este espa¸co tomando valores em Rm . Seja agora T uma outra vari´avel aleat´oria sobre o mesmo espa¸co e tomando valores em Rp . Mostre que se Y for mensur´avel relativamente a` sigma-´algebra σ(T ) ent˜ao existe uma aplica¸c˜ao φ de Rp em Rm tal que: Y = φ(T ) . Exercicio 10. Seja (Ω, F, P) um espa¸co de probabilidade, e X uma vari´avel aleat´oria definida sobre este espa¸co tomando valores em Rm . Seja agora T uma outra vari´avel aleat´oria sobre o mesmo espa¸co e tomando valores em Rp . Define-se a esperan¸ca condicional de X dado que T = t como qualquer fun¸c˜ao φ mensur´avel de Rp em R tal que:   p ∀B ∈ B(R ) φ(t)dPT (t) = XdP . B

T −1 (B)

onde PT ´e a lei de T . (1) Mostre que a esperan¸ca condicional de X dado que T = t existe se X for integr´avel. (2) Mostre que se Y e Y˜ forem duas esperan¸cas condicionais de X dado que T = t ent˜ao: Y = Y˜ P q.c. .


12

ESPERANC ¸ A CONDICIONAL

(3) Mostre que se verifica: E[X | T ] = φ(T ) se φ(t) = E[X | T = t] . 3.3. Como calcular esperan¸ cas condicionais. Para a determina¸c˜ao das esperan¸cas condicionais num dado caso espec´ıfico podem usar-se como m´etodos, entre outros, os seguintes: • O recurso a` defini¸c˜ao evocada na sec¸c˜ao 3.1 para o caso em que as vari´aveis aleat´orias s˜ao discretas, isto ´e tomam um n´ umero finito ou infinito numer´avel de valores. • O recurso a`s densidades das leis das vari´aveis aleat´orias em presen¸ca. • O recurso a`s propriedades operat´orias das esperan¸cas condicionais. Vamos estudar em detalhe o m´etodo evocado no segundo ponto da lista anterior enquanto que o terceiro m´etodo referido ser´a desenvolvido na sec¸c˜ao 3.4. Relembremos que se X e Z forem vari´aveis aleat´orias admitindo uma lei conjunta com densidade dada pela fun¸c˜ao de duas vari´aveis fX,Z (x, z) ent˜ao X (respectivamente Z) admite como densidade fX (respectivamente fZ ) dada por:     fX (x) = fX,Z (x, z)dz respectivamente fZ (z) = fX,Z (x, z)dx . R

R

Observe-se ainda que se, por exemplo, for fX (x0 ) = 0 ent˜ao, dado que fX,Z ´e positiva, se tem que fX,Z (x0 , z) = 0 quase por toda a parte relativamente a` vari´avel z e a` medida de Lebesgue em R. Teorema 3.4. Sejam X e Z, vari´aveis aleat´orias admitindo uma lei conjunta com densidade dada pela fun¸c˜ao de duas vari´aveis fX,Z (x, z). Seja h uma fun¸c˜ao Borel mensur´avel tal que:

 E[|h(X)|] =

R

|h(X)|fX (x)dx < +∞ ,

onde fX (x) ´e a densidade da lei marginal da vari´avel X. Ent˜ao se for g a fun¸c˜ao de vari´avel real definida por:

 g(z) :=

h(x) R

fX,Z (x, z) I{fZ =0} dx , fZ (z)

tem-se que g(Z) ´e uma vers˜ao de E[h(X) | σ(Z)].


ESPERANC ¸ A CONDICIONAL

13

Demonstra¸c˜ao. Pelas propriedades de defini¸c˜ao da esperan¸ca condicional enunciadas no teorema de Kolmogorov e dado que por defini¸c˜ao se tem que: σ(Z) := Z −1 (B(R)) := {Z −1 (B) : B ∈ B(R)} , para que seja v´alida a condi¸c˜ao do teorema temos que verificar que:   g(Z)dP = h(X)dP . ∀B ∈ B(R) Z −1 (B)

Z −1 (B)

Atendendo a que IZ −1 (B) ≡ IB ◦ Z, ´e equivalemte verificar que:   g(Z) (IB ◦ Z) dP = h(X) (IB ◦ Z) dP . ∀B ∈ B(R) Z −1 (B)

Dado que, por hip´otese, as leis das vari´aveis aleat´orias s˜ao-nos dadas pelas respectivas densidades a igualdade entre os integrais pode representar-se de forma equivalente por:    g(z) IB (z) fZ (z)dz = h(x) IB (z)fX,Z (x, z) dxdz . ∀B ∈ B(R) R

R

R

Finalmente, observando que se para um dado z0 se tiver fZ (z0 ) = 0 ent˜ao tamb´em para todo o x se verifica que fX,Z (x, z0 ) = 0 salvo num conjunto de medida de Lebesgue nula, podemos usar no integral, sem lhe alterar o valor, a seguinte igualdade: fX,Z (x, z) =

fX,Z (x, z) I{fZ =0} fZ (z) , fZ (z)

Em consequˆencia, podemos representar a igualdade de integrais acima pela igualdade seguinte:  ∀B ∈ B(R)



 fZ (z)g(z)dz =

B

fZ (z) B

fX,Z (x, z) h(x) I{fZ =0} dx fZ (z) R

 dz ,

o que mostra que a representa¸c˜ao para a fun¸c˜ao g, formulada na hip´otese do teorema, ´e suficiente para garantir o resultado anunciado.



Exercicio 11. Sejam X e Y vari´aveis aleat´orias independentes com distribui¸c˜oes de Poisson de parˆametros λ e µ, respectivamente. (1) Verifique que X + Y segue uma distribui¸c˜ao de Poisson de parˆametro λ + µ. (2) Calcule a distribui¸c˜ao de X condicionada por Z = X + Y . (3) Calcule E(X|Z).


14

ESPERANC ¸ A CONDICIONAL

Exercicio 12. Consideremos um vector aleat´orio (X, Y ) cuja distribui¸c˜ao ´e dada pelo quadro seguinte: Y -1 -1 X

0.1

0 0.15

0

1

2

0.15

0

0.1

0

1 0.05 0.05

0.1 0.2 0

0.1

Calcule a distribui¸c˜ao de Y condicionada por X = n, n = −1, 0, 1, E(Y |X) e E(Y ). Exercicio 13. Seja (X, Y ) um vector aleat´orio com densidade fX,Y (x, y). Mostre que se definirmos fY (y) por:

 fY (y) :=

fX,Y (x, y) dx R

ent˜ao a vari´avel aleat´oria admitindo como densidade: fX|Y (x|y) =

fX,Y (x, y) I{fY =0} (y) , fY (y)

´e uma vers˜ao da esperan¸ca condicional de X dado Y = y. Exercicio 14. Seja (X, Y ) um vector aleat´orio com densidade

f (x, y) =

2 I[0,+∞[×[0,+∞[ (x, y) , (1 + x + y)3

Calcule E(X|Y ). 3.4. Propriedades operat´ orias das esperan¸ cas condicionais. Nesta sec¸c˜ao apresentamos uma lista das principais propriedades operat´orias da no¸c˜ao de esperan¸ca condicional que tal como j´a referimos s˜ao de grande utilidade no c´alculo espl´icito. Genericamente denotamos por X uma vari´avel aleat´oria integr´avel e por G uma sub-sigma-´algebra de F. Propriedade 1. Se Y for uma vers˜ao de E[X | G] temos que E[Y ] = E[X] o que podemos representar por: E [E[X | G]] = E[X] .


ESPERANC ¸ A CONDICIONAL

15

Demonstra¸c˜ao. Repare-se que pela defini¸c˜ao temos que   E[X|G]dP = XdP, G ∈ G, G

G

em particular como Ω ∈ G vem 

 E[X|G]dP =

E[E[X|G]] =

XdP = E[X].

 Propriedade 2. Se X for G mensur´avel ent˜ao X ´e uma vers˜ao de E[X | G], o que podemos representar por E[X | G] = X . Demonstra¸c˜ao. Como para Y = X, temos que Y ´e integr´avel, e como   XdP ∀G ∈ G, Y dP = G

G

ent˜ao se X fˆor mensur´avel relativamente a G vem que Y ´e mensur´avel relativamente a G e portanto Y verifica as trˆes condi¸c˜oes para que seja uma vers˜ao da esperan¸ca condicional de X dado G.



Propriedade 3. Seja Y1 (respectivamente Y2 ) uma vers˜ao de E[X1 | G] (respectivamente E[X2 | G]). Ent˜ao, para λ e µ n´ umeros reais, temos que λY1 + µY2 ´e uma vers˜ao de E[λX1 + µX2 | G], o que podemos representar por: E[λX1 + µX2 | G] = λE[X1 | G] + µE[X2 | G] . Demonstra¸c˜ao. Temos que ∀G ∈ G,    λE[X1 | G] + µE[X2 | G]dP = λ E[X1 | G]dP + µ E[X2 | G]dP = G

G



 X1 dP + µ

λ G

G

 X2 dP =

G

(λX1 + µX2 )dP, G

o que permite concluir que λE[X1 | G] + µE[X2 | G] ´e uma vers˜ao da esperan¸ca condicional de λX1 + µX2 dado G.




16

ESPERANC ¸ A CONDICIONAL

Propriedade 4. Se X for uma vari´avel aleat´oria n˜ao negativa (isto ´e X ≥ 0) ent˜ao qualquer vers˜ao da esperan¸ca condicional de X dada G, ´e n˜ao negativa isto ´e, com o abuso de nota¸c˜ao convencional: E[X | G] ≥ 0, P − q.c. . Demonstra¸c˜ao. Fa¸camos ∀n ≥ 1, An = {E[X | G] ≤ − n1 }. Ent˜ao temos que An ∈ G e se X ≥ 0 vem





1 E[X | G]dP ≤ − P[An ], n An An o que obriga a que P[An ] = 0, n ≥ 1. Como 0≤

XdP =

{E[X | G] < 0} =

∞ 

An ,

n=1

vem que P[{E[X | G] < 0}] = 0, 

o que prova o pretendido

Propriedade 5 (Convergˆencia Mon´otona). Seja (Xn )n∈N uma sucess˜ao de vari´aveis aleat´orias n˜ao negativas e crescente, quase certamente, para uma outra vari´avel aleat´oria X. Ent˜ao, se para cada n ∈ N se tiver que Yn ´e uma vers˜ao da esperan¸ca condicional de Xn dada G e, se Y for uma vers˜ao da esperan¸ca condicional de X dada G, tem-se que limn→+∞ Yn ↑ Y ou ainda: lim E[Xn | G] ↑ E[X | G], P − q.c. .

n→+∞

´ltimas propriedades Demonstra¸c˜ao. Como Xn ≥ 0 e Xn+1 − Xn ≥ 0 vem pelas duas u que Yn ≥ 0 e Yn+1 − Yn ≥ 0 donde 0 ≤ Yn ↑. Fazendo Y = lim Yn vem pelo teorema da convergˆencia mon´otona de Lebesgue e pelas hip´oteses, que       Y dP = lim Yn dP = lim Yn dP = lim Xn dP = lim Xn dP = XdP, ∀G ∈ G, G

G

G

G

G

donde pela unicidade vem que E[X | G] = Y = lim Yn = lim E[Xn | G], P − q.c..

G



Propriedade 6 (Lema de Fatou). Seja (Xn )n∈N uma sucess˜ao de vari´aveis aleat´orias n˜ao negativas, ent˜ao E[lim inf Xn | G] ≤ lim inf E[Xn | G], P − q.c.


ESPERANC ¸ A CONDICIONAL

17

Demonstra¸c˜ao. Fazendo Yk = inf n≥k Xn , ∀k ∈ N teremos que Yk ≤ Xn , ∀n ≥ k vindo pela propriedade (4) que ∀n ≥ k, E[Yk | G] ≤ E[Xn | G], P − q.c. o que implica que E[Yk | G] ≤ inf E[Xn | G], P − q.c. n≥k

Como a desigualdade anterior ´e v´alida para todo o k, teremos ainda lim E[Yk | G] ≤ lim inf E[Xn | G], P − q.c. k

k

n≥k

Aplicando agora a propriedade (5) a` sucess˜ao Yk vir´a, E[lim Yk | G] ≤ lim inf E[Xn | G], P − q.c., k



o que termina a prova.

Propriedade 7 (Convergˆencia Dominada). Seja (Xn )n∈N uma sucess˜ao de vari´aveis aleat´orias convergentes, quase certamente, para uma outra vari´avel aleat´oria X e tais que para V v. a. n˜ao negativa e integr´avel se tenha: ∀n ∈ N |Xn | ≤ V P − q.c. Ent˜ao, se para cada n ∈ N se tiver que Yn ´e uma vers˜ao da esperan¸ca condicional de Xn dada G e, se Y for uma vers˜ao da esperan¸ca condicional de X dada G, tem-se que limn→+∞ Yn = Y ou ainda: lim E[Xn | G] = E[X | G]

n→+∞

Demonstra¸c˜ao. Repare-se que ∀n ∈ N, V − Xn ≥ 0 e V + Xn ≥ 0, donde pela propriedade anterior vem que E[lim inf(V − Xn ) | G] ≤ lim inf E[V − Xn | G] E[lim inf(V + Xn ) | G] ≤ lim inf E[V + Xn | G]. Usando agora o facto de V ser integr´avel juntamente com a linearidade da esperan¸ca condicional, vem E[X | G] ≥ lim sup E[Xn | G] E[X | G] ≤ lim inf E[Xn | G],


18

ESPERANC ¸ A CONDICIONAL

o que permite concluir o pretendido.  Propriedade 8. Se Y for uma vari´avel G mensur´avel tal que E[|XY |] < +∞ ent˜ao: E[X · Y | G] = Y · E[X | G] . Demonstra¸c˜ao. Para a prova deste resultado vamos usar o m´etodo geral, e vamos assumir que X ≥ 0 (o caso geral sai pela linearidade e de X = X + − X − ). (1) Para Y = IA com A ∈ G vem que     (a) IA E[X | G]dP = E[X | G]dP = XdP = ∀G ∈ G, Y E[X | G]dP = G G G∩A G∩A   IA XdP = Y XdP = G

G

sendo (a) justificado pelo facto de G ∩ A ∈ G, e concluindo-se pela unicidade que E[Y X | G] = Y E[X | G]. (2) Para Y = ci IAi , simples n˜ao negativa temos pela linearidade e por (1)     IAi E[X | G]dP = IAi XdP = Y XdP. ∀G ∈ G, Y E[X | G]dP = G

G

G

G

(3) Para Y mensur´avel n˜ao negativa sabemos que Y = lim Sn com Sn simples n˜ao negativas, usando o teor. da conv. mon´otona de Lebesgue e (2), vem    Y E[X | G]dP = lim Sn E[X | G]dP = lim Sn E[X | G]dP = G G G    = lim Sn XdP = lim Sn XdP = Y XdP. G

G

G

(4) Finalmente no caso em que Y ´e integr´avel e E[|Y X|] < ∞, temos que E[(Y X)+ ] < ∞ e E[(Y X)− ] < ∞ e vem por (3) e por X ≥ 0,    + Y E[X | G]dP = Y E[X | G]dP − Y − E[X | G]dP = G G G    + − Y XdP − Y XdP = Y XdP, = G

G

G

o que termina a demonstra¸c˜ao. 


ESPERANC ¸ A CONDICIONAL

19





Propriedade 9 (Tower law). Se G for uma sub-sigma-´algebra de F tal que G ⊂ G ent˜ao:

   E E[X | G ] | G = E E[X | G] | G = E[X | G ] . Demonstra¸c˜ao. Pela defini¸c˜ao temos que      ∀G ∈G, E[X | G ]dP = G



G

XdP



como G ⊂ G vem que G ∈ G e portanto   XdP = G

G

E[X | G]dP.

Como temos agora, 









∀G ∈G, G



E[X | G ]dP = G



E[X | G]dP,

conclui-se que 



E[X | G ] = E[E[X | G] | G ]. 

Para a outra igualdade ´e an´alogo. Propriedade 10. Se X ´e independente de G ent˜ao, E[X | G] = E[X]. Demonstra¸c˜ao. Temos que  ∀G ∈ G,

 XIG dP = E[XIG ]

XdP = G

como X ´e independente de G e IG ´e G-mensur´avel vem que X e IG s˜ao independentes e por um resultado j´a provado temos que    XdP = E[XIG ] = E[X]E[IG ] = E[X]IG dP = E[X]dP, G

G

o que permite concluir que E[X | G] = E[X]. 


20

ESPERANC ¸ A CONDICIONAL

Ë&#x153;o 4. Exerc´Ĺcios de Revisa Exercicio 15. Seja (Xn )nâ&#x2C6;&#x2C6;Nâ&#x2C6;&#x2014; uma sucessË&#x153;ao de vari´aveis aleat´orias iid tais que: E[X1 ] = Âľ , V[X1 ] = ν . Seja N uma vari´avel aleat´oria inteira independente das vari´aveis (Xn )nâ&#x2C6;&#x2C6;Nâ&#x2C6;&#x2014; e tal que: E[N ] = Îą , V[N ] = β . Seja ainda: â&#x2C6;&#x20AC;n â&#x2C6;&#x2C6; Nâ&#x2C6;&#x2014; Sn =

n 

Xk .

k=1

(1) Mostre que SN ´e uma vari´avel aleat´oria e que: E[SN |N = n] = E[Sn ] . (2) Deduza do resultado precedente expressË&#x153;oes para E[SN ] e para V[SN ]. Exercicio 16. Seja (Xn )nâ&#x2C6;&#x2C6;N uma sucessË&#x153;ao de vari´aveis aleat´orias independentes integr´aveis tal que para qualquer n â&#x2C6;&#x2C6; N se tenha E[Xn ] = Âľn . Seja para cada n â&#x2C6;&#x2C6; N Fn := Ď&#x192;(X1 , . . . , Xn ). Mostre que: (1) para k > n se tem que:

k n k    Xj | Fn = Xj + Âľj e que , E j=1

E

k 

j=1

Xj | Fn =

j=1

 n 

j=n+1

 Xj

j=1

k 

 Âľj

.

j=n+1

existem e sË&#x153;ao ďŹ nitas mostre que: (2) Supondo que as variË&#x2020;ancias V[Xn ] =   2 2  n k k    E (Xj â&#x2C6;&#x2019; Âľj ) | Fn  = (Xj â&#x2C6;&#x2019; Âľj ) + Ď&#x192;j2 . Ď&#x192;n2 ,

j=1

j=1

j=n+1

Exercicio 17. Seja um vector aleat´orio bidimensional (X, Y ) com fun¸cË&#x153;ao distribui¸cË&#x153;ao FX,Y (x, y). Seja por deďŹ ni¸cË&#x153;ao: H(x|y) := P[X â&#x2030;¤ x|Y = y] ,


ESPERANC ¸ A CONDICIONAL

21

a fun¸c˜ao de distribui¸c˜ao condicional de X dada Y . Mostre que:  y H(x|u)FY (du) , FX,Y (x, y) = −∞

onde FY (y) ´e a fun¸c˜ao de distribui¸c˜ao marginal de Y . Exercicio 18. Seja (X, Y ) um vector aleat´orio definido sobre Ω = [0, 1] × [0, 1] com densidade fX,Y (x, y) = x + y. Calcule E[X | Y ], e E[X | X + Y ]. ˆncias Refere 1. [Adam86] M. Adams, V. Guillemin, Measure Theory and Probability, Birkh¨ auser, 1986. 2. [Will91] D. Williams, Probability with Martingales, Cambridge University Press, 1991. 3. [Capi99] M. Capi´ nski, E. Kopp, Measure, Integral and Probability, Springer, 1999. 4. [Brze99] Z. Brze´zniak, T. Zastawniak, Basic Stochastic Processes, Springer, 1999. 5. [Cott80] M. Cottrell, Ch. Duhamel, V. Genon-Catalot, Exercices de probabilit´es, Librairie Belin, 1980. 6. [DaCul70] D. Dacunha-Castelle, D. Revuz, M. Schreiber Recueil de probl`emes de calcul des probabilit´es, Masson, Paris, 1970. 7. [Hoff94] J. Hoffmann-J, Probability with a view towards Statistics, Chapman & Hall, 1994. 8. [Kolm50] A. N. Kolmogorov, Foundations of the theory of Probability, Chelsea Books, 1950.

fgdrg  

dfgdfgfd fvbfdg dfgdfg sdfsdf ef fgfg