Documente Academic
Documente Profesional
Documente Cultură
i i
i i
i i
Texto da dedicatria
Texto da dedicatria.
i i
i i
i i
Sumrio
Prefcio IX
1 Introduo 1
VII
i i
i i
i i
VIII SUMRIO
Bibliograa 527
i i
i i
i i
Prefcio
O presente texto apresenta uma introduo Teoria dos Processos Estocsti-
cos para alunos que se encontram em algum programa de graduao (ou, no
comeo do mestrado) em Matemtica. O texto foi escrito de tal forma que
(praticamente) no requer que o leitor tenha feito um curso de Probabilidade
para entender o seu contedo.
Observamos que este livro foi escrito visando apenas alunos do Bacharelado
e Mestrado em Matemtica.
O Captulo 1 foi elaborado com a inteno de dar ao leitor uma idia inicial
intuitiva do que um Processo Estocstico. Ele apresenta alguns exemplos
elementares e destaca qual o ponto de vista correto pelo qual se deve encarar
a teoria, e, ainda, quais so algumas das perguntas bsicas em que se est
interessado. Diferentemente dos outros ele tem um carter informal.
O livro est estruturado de tal jeito que possvel seguir duas rotas distintas
na sua leitura.
Para o leitor que deseja um contato preliminar do assunto, sem o conheci-
mento mais profundo de Teoria da Medida, sugerimos a leitura na ordem das
sees apresentadas no ndice do livro.
Para aquele que prefere uma abordagem dos Processos Estocsticos de uma
maneira mais bem formalizada do ponto de vista matemtico, sugerimos que
leia primeiro o Captulo 1, e a seguir, se dirija ao Captulo 5. Aps a leitura
do mesmo, ento volte ao Captulo 2, e a seguir, o Captulo 3 e 4.
No segundo captulo, tratamos de Cadeias de Markov a tempo discreto.
IX
i i
i i
i i
X Prefcio
i i
i i
i i
Prefcio XI
i i
i i
i i
XII Prefcio
Artur O. Lopes
Slvia R. C. Lopes
i i
i i
i i
1
Introduo
Vamos apresentar inicialmente algumas denies preliminares, exibir alguns
exemplos de natureza simples e discutir tambm algumas das idias bsicas
da Teoria da Probabilidade e dos Processos Estocsticos. Certas partes desta
seo tm um carter levemente informal. a nica do livro com tais carac-
tersticas.
O objetivo aqui descrever certos aspectos essenciais do ponto de vista
probabilstico ou estatstico (de se analisar um problema matemtico).
Considere xado um conjunto K . Uma probabilidade P em K uma lei
que associa a cada subconjunto A de K um valor real no negativo P (A) menor
ou igual a um. O valor P (K) se assume ser igual um. Algumas propriedades
mais (Denio 1.2) sero requeridas para P .
Fixado o conjunto K , denotamos por p(K) = {A : A K}, o conjunto
das partes de K .
Infelizmente, em muitos casos interessantes no se pode denir P (com as
tais propriedades que desejamos) em todos os subconjuntos A de K , ou seja
sobre a classe de conjuntos p(K).
Sendo assim, necessrio introduzir a seguinte denio:
i i
i i
i i
2 Introduo Cap. 1
a) o conjunto K pertence a A,
A pertence a A, ento o complemento K A tambm pertence a A,
b) se
nN An tambm est em A.
P (K) = 1,
a)
Como K = K , ento P () = 0.
Chamamos o par (K, A), como denido acima, de espao mensurvel.
Uma vez xada a probabilidade P sobre a -lgebra A chamamos a tripla
(K, A, P ) de espao de probabilidade.
Um exemplo simples aparece quando jogamos um dado: existem seis faces e
intuitivamente sabemos que cada uma tem probabilidade 1/6 de sair. Podemos
modelar tal problema com K = {1, 2, 3, 4, 5, 6}, e P ({i}) = 1/6, onde i K .
i i
i i
i i
i i
i i
i i
4 Introduo Cap. 1
i i
i i
i i
Algumas vezes denotaremos tal P por P , para enfatizar que foi obtida de
P atravs de .
Dado X : (, A, P ) (V, G), diremos que P = PX a probabilidade (em
V ) induzida pela funo mensurvel (varivel aleatria) X e pela probabilidade
P (em ).
i i
i i
i i
6 Introduo Cap. 1
i i
i i
i i
Isto porque qualquer conceito razovel de integral deveria ser linear na funo
a ser integrada.
Suponha que x0 = 0 < x1 < x2 < ... < xn1 < xn . Considere os intervalos
cn = [xk , xk+1 ], k = 0, ..., n 1. Seja agora X = n1
k=0 n Icn , onde k R,
k = 0, ..., n 1. Parece tambm natural que
n1
n1
X dP = k P ([xk , xk+1 ]) = k (xk+1 xk ).
k=0 k=0
Vamos pensar por exemplo que os peixes num grande lago tem comprimento
entre 0 e 1 metro e que a probabilidade do peixe ter comprimento com valor
no intervalo [a, b] b a (a unidade de medida metro). Estes peixes so
pescados e vendidos no mercado. Aps medies de alguns peixes colhidos no
lago e o faturamento da venda dos mesmos ao longo dos meses se chegou a
concluso que
1) os peixes com comprimento no intervalo [0, 1/4] so vendidos a 10 reais,
2) os peixes com comprimento no intervalo (1/4, 3/4] so vendidos a 15
reais,
3) e, os peixes com comprimento no intervalo (3/4, 1] so vendidos a 25
reais.
i i
i i
i i
8 Introduo Cap. 1
i i
i i
i i
i i
i i
i i
10 Introduo Cap. 1
ndices do processo. O conjunto T possui uma ordem e vamos pensar que para
R+ ou ainda T = R.
i i
i i
i i
11
e B por
B = {w : Xs1 = b1 , Xs2 = b2 , ..., Xsm = bm },
ento
A B = {w : Xt1 (w) = a1 , Xt2 (w) = a2 , ..., Xtn (w) = an ,
A = {X2 = 1, X6 = 3, X8 = 4},
e
B = {X1 = 4, X2 = 1, X8 = 3, X9 = 2},
A B = {X1 = 4, X2 = 1, X6 = 3, X8 = 3, X8 = 4, X9 = 2},
ou como
A B = {X2 = 1, X6 = 3, X8 = 4, X1 = 4, X2 = 1, X8 = 3, X9 = 2}.
{X1 = 4, X2 = 1, X6 = 3, X8 = 3, X8 = 4, X9 = 2} = ,
i i
i i
i i
12 Introduo Cap. 1
{X1 = 4, X2 = 1, X6 = 3, X8 = 3, X9 = 2}
{X1 = 4, X2 = 1, X6 = 3, X8 = 4, X9 = 2}.
Note ainda que
{X1 = 4, X2 = 1, X4 = 3}
{X1 = 2, X2 = 1, X4 = 4}.
Prosseguindo com o exemplo da cidade com N = 10.000 habitantes, va-
mos supor que a cada ms se faz uma enquete e cada pessoa informa qual
internet est usando. Vamos estabelecer que se vai realizar enquetes em trs
oportunidades seguidas com intervalo de um ms. Fica assim determinado que
T = {1, 2, 3}, S = {1, 2} e Xt descreve qual provedor uma determinada pessoa
estava utilizando no dia da t-sima enquete, t {1, 2, 3}.
Para simplicar assumimos que em cada ms cada pessoa w utiliza um
e apenas um provedor. Neste caso, natural tomar = {1, 2, ..., N }, e uma
amostra w um habitante da cidade. Neste caso, Xt (w) = wt S , t {1, 2, 3},
descreve o provedor utilizado pelo indivduo (ou amostra) w na enquete t-
sima.
Um elemento poderia ser, por exemplo, = (1, 2, 1) S T . Este
corresponde a indivduos w tais que usavam a internet 1 no ms 1, a internet
2 no ms 2 e a internet 1 no ms 3.
As perguntas que estaremos preliminarmente interessados em analisar en-
volvem por exemplo: qual o valor de
i i
i i
i i
13
P (A B)
P (A | B) = ,
P (B)
a probabilidade de ocorrer A dado que ocorreu B. Isto s faz sentido, claro,
se P (B) = 0.
P (A | B) = P (A),
ou seja, se
P (A B) = P (A) P (B).
i i
i i
i i
14 Introduo Cap. 1
P (X = a , Y = b| Z = c, V = d) P ({ X = a, Y = b} | { Z = c , V = d} ).
P (X = a | Y = b) = P (X = a),
ou seja, se
Como exemplo, considere X a varivel que descreve a face que sai quando
se joga um dado pela primeira vez e Y a varivel que descreve a face que sai
quando jogamos o dado pela segunda vez.
Sejam a, b {1, 2, 3, 4, 5, 6} xados, ento
P (X = a, Y = b) = 1/36 = (1/6)2 .
i i
i i
i i
15
Sendo assim,
P (X = a , Y = b| Z = c, V = d) = P (X = a , Y = b).
P (X1 = x1 , X2 = x2 , ... , Xn = xn ).
Suponha que funes X, Z, V so tais que X, Z independam de V . Ento
P (X = a , Z = c, V = d)
P (X = a | Z = c, V = d) = =
P (Z = c, V = d)
P (X = a , Z = c, V = d) P (V = d)
=
P (V = d) P (Z = c, V = d)
P (V = d)
P (X = a , Z = c | V = d) =
P (Z = c) P (V = d)
1
P (X = a , Z = c) = P (X = a | Z = c) ()
P (Z = c)
i i
i i
i i
16 Introduo Cap. 1
i i
i i
i i
17
i i
i i
i i
18 Introduo Cap. 1
i i
i i
i i
19
Mais explicitamente,
1 2
P (Xt1 = a1 , Xt2 = a2 , ..., Xtn = an ) = ( )k ( )nk ,
3 3
onde k o nmero de valores 1 entre os n valores a1 , a2 , ..., an .
Procedendo da forma acima, agora para conjuntos Ai S , fcil de se
concluir que o processo estocstico associado a jogar o dado sucessivas vezes
(e ver se obtemos X = 1 ou X = 2) um processo independente.
Outra questo: vamos jogar o dado n vezes e denotar por X1 , X2 , ..., Xn os
resultados obtidos sucessivamente em ordem de aparecimento; qual a proba-
bilidade de se obter k vezes Xi = 1 (ou seja, sair a face 1 ou 2 do dado), entre
os i {1, 2, 3.., n}? Ora existem
n!
Cnk =
(n k)! k!
possibilidades de isto ocorrer no universo de 2n ocorrncias de X = 1 ou X = 2,
ou seja dos possveis resultados Xi que se obtem ao jogar o dado n vezes.
Cada uma das ocorrncias tem probabilidade ( 31 )k ( 23 )nk . Aqui estamos
usando a expresso acima que segue da independncia do processo.
Logo a probabilidade que buscamos vale
n! 1 2
( )k ( )nk .
(n k)! k! 3 3
Mais geralmente, se ocorrer no jogo uma probabilidade p de sair X = 1 e
uma probabilidade 1 p de ocorrer X = 2 em uma jogada, a probabilidade de
ocorrer um total de k vezes o X = 1 em n jogadas igual a
n!
pk (1 p)nk .
(n k)! k!
Estamos supondo claro que existe independncia entre as sucessivas jo-
gadas.
i i
i i
i i
20 Introduo Cap. 1
i i
i i
i i
21
i i
i i
i i
22 Introduo Cap. 1
S = {1, 2, 3, 4, 5, 6}3 ,
ou seja,
S3 : {1, 2, 3, 4, 5, 6}3 N.
i i
i i
i i
23
Podemos considerar outros jogos em que dependendo das faces que apare-
cem sucessivamente quando uma moeda lanada quatro vezes seguidas se
ganha uma certa quantia, ou ento um jogo de roleta, etc...
Da mesma forma como antes, se pode calcular a esperana do ganho auferido
em cada um destes diversos jogos. Se tivermos que tomar uma deciso so-
bre qual jogo seria mais lucrativo jogar, a escolha mais sbia seria participar
daquele que tem o maior valor esperado do ganho.
Vamos apresentar mais um exemplo da importncia do clculo do valor
esperado. No caso da venda de passagem da companhia area discutido previ-
amente, assuma que para cada passageiro que exceda os s assentos disponveis
ser necessrio pagar uma diria de hotel (at que saia o prximo vo no dia
seguinte) de 200,00 reais. Qual ser a despesa mdia esperada L(v) oriunda do
procedimento de vender v passagens com v > s para um avio de s lugares?
A resposta
v
L(v) = r(j) (j s) 200, 00.
j=s+1
i i
i i
i i
24 Introduo Cap. 1
Como se pode calcular tal valor? Este tipo de resultado ocorre, por ex-
emplo, para processos independentes e contemplado pela Lei dos Grandes
Nmeros, um dos teoremas mais importantes da Probabilidade (ver seo 2.1
para um enunciado preciso).
i i
i i
i i
25
i i
i i
i i
26 Introduo Cap. 1
o gasto no dia n com hotel para passageiros que no conseguem lugar no voo
(quando Xn > s), ento da LGN segue que
L1 + L2 + ... + Ln
lim = L(v).
n n
Sendo assim, o gasto estimado em 100 dias seria aproximadamente 100 L(v).
Desejamos esclarecer um ponto importante sobre como so em geral intro-
duzidos os modelos na teoria.
Considere T = N, as variveis Xt : S , t N, a probabilidade P , etc...
Como sempre S nito, ou, se innito, ento enumervel. Considere agora
para n xo, uma seqncia tambm xada de tempos ordenados, t1 < t2 <
... < tn T.
Considere uma sequncia A1 , A2 , ..., An S xada. Considere
i i
i i
i i
27
um cilindro.
De outra forma, o conjunto acima descrito por
i i
i i
i i
28 Introduo Cap. 1
i i
i i
i i
29
Por denio,
P (X0 = a0 , X1 = a1 , X2 = a2 , X3 = a3 , ..., Xn = an ) =
P ( {w : X0 = a0 , X1 = a1 , X2 = a2 , X3 = a3 , ..., Xn = an } ) =
a0 Pa0 a1 Pa1 a2 Pa2 a3 .... Pan1 an ,
onde n N, ai {1, 2} e 0 = t0 < 1 < 2 < ... < n.
Ainda, por denio
P (X0 = s) = s ,
para todo s.
Por exemplo, no caso da matriz dois por dois P , e do vetor de probabilidade
, descrito acima, obtemos que
P (X0 = 2, X1 = 1, X2 = 1) =
341 12
2 P2 1 P1 1 = = .
573 105
Armamos que as regras de compatibilidade (a que nos referimos informal-
mente) esto satisfeitas para a P dada, e assim, pelo Teorema de Caratheodori-
Kolmogorov (ver Captulo 5), esta P pode ser considerada sobre uma certa
-lgebra F p() e existe um processo estocstico Xt compatvel com a in-
formao fornecida pela informao inicial dada pelo valor de P nos cilindros.
Todos os conjuntos da forma
esto em F .
O processo Xt , ou seja, a famlia de funes mensurveis (ou, variveis
aleatrias) Xt : = {1, 2}N {1, 2} = S , t T = N, que obtemos tal que
Xt () = wt , se
i i
i i
i i
30 Introduo Cap. 1
e t T = N.
P uma probabilidade sobre = {1, 2}N = S N . Assim, por exemplo,
pois o conjunto
n {X0 = 2, X2 = 2, X4 = 2, ..., X2 n = 2},
i i
i i
i i
31
P (X = s1 |Y = s2 ) P (Y = s2 ),
s2 S2
i i
i i
i i
32 Introduo Cap. 1
Consideramos acima t = 1, n = 1, a1 = s e t1 = 1.
Ainda,
i i
i i
i i
33
1. Mecnica Estatstica
i i
i i
i i
34 Introduo Cap. 1
P (X0 = +, X1 = +, X2 = ).
i i
i i
i i
35
i i
i i
i i
36 Introduo Cap. 1
i i
i i
i i
2
Cadeias de Markov com Tempo
Discreto
S = {s1 , s2 , . . . , sd }.
S = {. . . , n, . . . , 3, 2, 1, 0, 1, 2, 3, . . . , n, . . . } = Z,
37
i i
i i
i i
P = (Pi,j ),
Esta matriz quadrada pode ter innitas colunas (e linhas) se S for innito.
Algumas vezes usaremos a notao P (i, j), ou mesmo, Pi,j , em vez de Pi,j .
i i
i i
i i
P u = u.
Pu = u
i i
i i
i i
tem o sentido de produto de matrizes (no caso uma matriz um por tres mul-
tiplicada por uma matriz trs por trs).
= (1 , 2 , ..., s ),
ou,
= (1 2 ... s ),
i i
i i
i i
i i
i i
i i
utilizada na literatura.
tal que
P (X1 = j | X0 = i) = P (i, j)
chamada de matriz de transio sobre S associada ao processo e desempen-
i i
i i
i i
jS P (X1 = j , X0 = i) P ( jS {X1 = j , X0 = i})
= =
P (X0 = i) P (X0 = i)
P (X0 = i)
= 1
P (X0 = i)
Note que para i xo a unio jS {X1 = j , X0 = i} considerada acima
disjunta.
Sendo assim, conclumos que uma matriz de transio P com entradas
(P (i, j))i,jS tal que satisfaz
P (X1 = j | X0 = i) = P (i, j)
estocstica.
Por exemplo, o caso geral quando S = {1, 2, 3} seria:
P (1, 1) P (1, 2) P (1, 3)
P = P (2, 1) P (2, 2) P (2, 3) =
P (3, 1) P (3, 2) P (3, 3)
P (X1 = 1 | X0 = 1) P (X1 = 2 | X0 = 1) P (X1 = 3 | X0 = 1)
P (X1 = 1 | X0 = 2) P (X1 = 2 | X0 = 2) P (X1 = 3 | X0 = 2)
P (X1 = 1 | X0 = 3) P (X1 = 2 | X0 = 3) P (X1 = 3 | X0 = 3)
i i
i i
i i
0 1 2 3 4 5
0 0 5/5 0 0 0 0
1 1/5 0 4/5 0 0 0
2 0 2/5 0 3/5 0 0
P=
0 0
3 0 3/5 0 2/5
4 0 0 0 4/5 0 1/5
5 0 0 0 0 5/5 0
i i
i i
i i
= (P (X0 = s))sS = (P (X0 = 1), P (X0 = 2), ..., P (X0 = #S)) = (s )sS ,
um exemplo de vetor de probabilidade. Isto porque sS P (X0 = s) =
P (sS {X0 = s}) = P () = 1.
Este ser algumas vezes denotado por 0 = (s0 )sS . O ndice superior
zero vai indicar que estamos em t = 0.
Por exemplo, se S = {1, 2, 3}, ento
P (X1 = a1 , X0 = a0 , ..., Xn = an ) = a1
1
Pa1 ,a0 Pa0 ,a1 ... Pan1 ,an
P (X0 = x0 , X1 = x1 , . . . , Xn = xn )
cam determinadas a partir de P = (P (i, j))i,jS e 0 = (s0 )sS como acima.
O prximo teorema quantica tal armao.
i i
i i
i i
Teorema 2.1.
P (X0 = x0 , X1 = x1 , . . . , Xn = xn ) =
0 (x0 ) P (x0 , x1 ) P (x1 , x2 ) . . . P (xn1 , xn )
Demonstrao: Ora,
P (X0 = x0 , X1 = x1 , . . . , Xn = xn ) =
P (X1 = x1 , X0 = x0 ) P (X2 = x2 , X1 = x1 , X0 = x0 )
P (X0 = x0 ) ...
P (X0 = x0 ) P (X1 = x1 , X0 = x0 )
P (X0 = x0 , . . . , Xn1 = xn1 , Xn = xn )
... =
P (X0 = x0 , . . . , Xn1 = xn1 )
P (X0 = x0 ) P (X1 = x1 |X0 = x0 ) P (X2 = x2 |X0 = x0 , X1 = x1 ) . . .
. . . P (Xn = xn |X0 = x0 , ...., Xn1 = xn1 ) =
P (X0 = x0 ) P (X1 = x1 |X0 = x0 ) P (X2 = x2 |X1 = x1 )...
...P (Xn = xn |Xn1 = xn1 ) =
0 (x0 ) P (x0 , x1 ) P (x1 , x2 )...P (xn1 , xn )
i i
i i
i i
Note que
P (X0 = 2, X1 = 2, X2 = 1)
P (X2 = 1 | X0 = 2, X1 = 2) = =
P (X0 = 2, X1 = 2)
20 P22 P21
= P21 = P (X2 = 1 | X1 = 2)
20 P22
que a propriedade de Markov.
Ainda,
P (X0 = 2, X2 = 1) =
P (X0 = 2, X1 = 1, X2 = 1) + P (X0 = 2, X1 = 2, X2 = 1) =
8 24
20 P21 P11 + 20 P22 P21 = + .
63 147
Se i {1, 2},
Desta forma P dene uma probabilidade sobre {1, 2}N . Por exemplo,
8 24
P (X0 = 2, X2 = 1) = P (21) = + .
63 147
i i
i i
i i
ento
i i
i i
i i
= 3 I211 + 7 I221 .
Assim, (w) dP (w) = 3 P (211) + 7 P (221) = 3 63
8 24
+ 7 147 .
Desta forma, E() = 3 63
8 24
+ 7 147 .
Ainda,
E(X1 ) = X1 dP = (1 I1 + 2 I2 ) = 1 1/3 + 2 2/3 = 5/3.
Para uma funo de uma forma mais geral a integral dP ser denida
no captulo 4.
Destacamos uma questo puramente de notao. Muitos textos de Pro-
cessos Estocsticos se baseiam no seguinte ponto de vista. Inicialmente nos
dada a informao de uma probabilidade P sobre um espao "no especi-
cado", digamos , e uma sigma-algebra que no dita qual .
Denotemos por w os elementos de . O Processo Estocstico denido
como uma sequncia de variveis aleatrias (mensurveis) Xn : S (que
nunca se sabe quem so), indexados por n.
A informao bsica (naquele contexto) ento, dados x0 , x1 , ..., xn S ,
sabemos o valor
i i
i i
i i
P (X0 = x0 , X1 = x1 , ...., Xn = xn ) =
P ({w x0 , x1 , ..., xn }) =
P {w | H(w) x0 , x1 , ..., xn }} =
i i
i i
i i
i i
i i
i i
O vetor
i i
i i
i i
Exemplo 2.7. Sempre que a partcula atinge um dos pontos limites ela vai
diretamente para o centro s3 .
0 0 1 0 0
0 0 1 0 0
P= 0 q 0 p 0
0 0 1 0 0
0 0 1 0 0
i i
i i
i i
Se o processo est em um dos trs estados interiores, ele tem igual proba-
bilidade de se mover para a esquerda, para a direita ou permanecer no mesmo
estado. Considere barreiras absorventes em s1 e s5 .
1 0 0 0 0
1/3 1/3 1/3 0 0
P=
0 1/3 1/3 1/3 0
0 0 1/3 1/3 1/3
0 0 0 0 1
Neste caso, a matriz descreve o fato que, neste processo, uma vez atingido o
estado s1 camos parado nele". Mesma coisa se atingimos s5 . Estas armaes
mais ou menos informais sero tornadas rigorosas ao longo do texto.
i i
i i
i i
Aps a apresentao dos exemplos acima vamos voltar aos resultados teri-
cos.
i i
i i
i i
De maneira mais geral, uma matriz A da forma m1 por m2 pode ser mul-
tiplicada por uma matriz B da forma m2 por m3 , obtendo assim uma matriz
C da forma m1 por m3 , denotada por C = A B , atravs de
Ci,j = Ai,s Bs,j ,
s {1,2,3,...,m2 }
A = (x1 x2 )
i i
i i
i i
e ( )
a11 a12
B=
a21 a22
ento ( )
a11 a12
A B = (x1 x2 ) =
a21 a22
i i
i i
i i
No caso S = {1, 2} temos assim para cada i {1, 2} xo, que vale a
expresso
Lembre que 1 = (s1 )sS a matriz do tipo 1 por #S (vetor linha) tal que
sua ordenada s igual a P (X1 = s).
Sendo assim, de forma compacta, a expresso acima signica
0 P = 1.
Generalizando o que foi mostrado acima no caso S = {1, 2}, segue facil-
mente para um S qualquer (enumervel) que vale a expresso em forma com-
pacta
0 P = 1.
i i
i i
i i
P (X2 = i) = P (X2 = i, X1 = k, X0 = j) =
j k
P (X0 = j)P (X2 = i, X1 = k|X0 = j) =
j k
P (X2 = i, X1 = k, X0 = j)
P (X0 = j) =
j k
P (X0 = j)
P (X1 = k, X0 = j) P (X2 = i, X1 = k, X0 = j)
P (X0 = j) =
j k
P (X0 = j) P (X1 = k, X0 = j)
= P (X0 = j)P (X1 = k|X0 = j)P (X2 = i|X1 = k) =
j k
j0 P (j, k)P (k, i).
j k
Lembre que 2 o vetor tal que sua ordenada i igual a P (X2 = i).
Utilizando a expresso da entrada P 2 (j, i) de P 2 atravs de
P 2 (j, i) = P (j, k)P (k, i),
kS
i i
i i
i i
P (Xn = i) = ... 0 (i0 )P (i0 , i1 )P (i1 , i2 ) . . . P (in 1, i).
i0 i1 in1
Lembre que n o vetor tal que sua ordenada i igual a P (Xn = i).
Segue da expresso acima a forma compacta:
Proposio 2.1.
n = 0 P n.
i i
i i
i i
Esta expresso ser utilizada vrias vezes no texto. Note que acima i e
j esto xos e exaurimos no somatrio todas as outras possibilidades inter-
medirias.
Por exemplo,
P (X3 = i, X0 = j) = j P (j, i1 ) P (i1 , i2 ) P (i2 , i).
i1 S i2 S
Proposio 2.2.
P (Xn = i|X0 = j) = ... P (j, i1 ) P (i1 , i2 ) . . . P (in1 , i) = (P n )j,i .
i1 S in1 S
P (Xn = i, X0 = j)
P (Xn = i|X0 = j) = .
P (X0 = j)
Por exemplo,
P (X3 = i|X0 = j) = P (j, i1 ) P (i1 , i2 ) P (i2 , i) = (P 3 )j,i .
i1 S i2 S
Proposio 2.3.
P (X5 = i|X0 = j) =
P (j, i1 ) P (i1 , i2 ) P (i2 , i3 ) P (i3 , i4 ) P (i4 , i) =
i1 S i2 S i3 S i4 S
i i
i i
i i
P (j, i1 ) P (i1 , i2 ) P (i2 , i4 )2 P (i4 , i) =
i1 S i2 S i4 S
P (j, i1 ) P (i1 , i2 ) P (i2 , i)3 =
i1 S i2 S
P 2 (j, i2 ) P 3 (i2 , i) = P 5 (j, i)
i2 S
P (X4 = i, X2 = k, X0 = j) =
P (X4 = i, X3 = i3 , X2 = k, X1 = i1 , X0 = j)
i1 S i3 S
j0 P 2 (j, k) P (k, i3 ) P (i3 , i) =
i3 S
j0 P 2 (j, k) P 2 (k, j) .
A partir de uma argumento como descrito no exemplo acima fcil ver que
vale mais geralmente:
Teorema 2.2.
i i
i i
i i
s s2 s3 s4 s5
1
s1 1 0 0 0 0
s2 q 0 p 0 0
P = s3 0 q 0 p 0
s4 0 0 q 0 p
s5 0 0 0 0 1
Para xar um exemplo mais especco suponha que p = q = 1/2.
Suponhamos que o processo inicie no estado s3 , ou seja tome a probabili-
dade inicial igual a 0 = e3 .
Na Figura 2.1 mostramos um grco tipo rvore em que mostramos na
etapa 1, as probabilidades de transio que so no negativas. Assim, s3 pode
passar a s4 e s2 . Na etapa seguinte, s2 pode passar a s3 e s1 , e por sua vez,
s4 pode passar a s5 e s3 . Nos ramos das arvores aparecem as respectivas
probabilidades de transio. Assim, se pode ver que, comeando em s3 , em
trs etapas existe probabilidade positiva de se atingir s1 , s2 , s4 , s5 , mas no s3 .
A probabilidade de passar em trs etapas de s3 a s1 1/2 1/2 1 = 1/4.
Isto pode ser obtido multiplicando as probabilidades nos ramos utilizados para
passar de s3 a s1 em trs etapas.
Vamos acompanhar neste caso os vetores j obtidos a partir de 0 = e3 :
fcil ver que
0 = (0, 0, 1, 0, 0)
1 = (0, 12 , 0, 12 , 0)
2 = ( 14 , 0, 12 , 0, 41 )
3 = ( 14 , 14 , 0, 14 , 14 )
Vamos agora acompanhar o que acontece no caso geral p, q : fcil ver que
0 = (0, 0, 1, 0, 0)
1 = (0, q, 1, p, 0)
2 = (q 2 , 0, 2q p, 0, p2 )
3 = (q 2 , 2q 2 p, 0, 2qp2 , p2 )
i i
i i
i i
Figura 2.1:
Observe tambm que em qualquer caso ji = 1, i = 0, 1, 2, 3.
jS
De fato,
P (X2 = 1|X1 = 3, X0 = 2) =
P (X2 = 1, X1 = 3, X0 = 2)
=
P (X1 = 3, X0 = 2)
i i
i i
i i
P (Xm+n = j | Xm = k, X0 = i) =
i i
i i
i i
Note que,
. . . , X1 A1 , X0 A0 ) =
Pijn+m = Pikn Pkj
m
,
kS
signica
P n+m = P n P m .
i i
i i
i i
P (Xm+n = j, X0 = i)
P (Xm+n = j|X0 = i) = =
P (X0 = i)
P (Xm+n = j, Xm = k, X0 = i)
=
kS
P (X 0 = i)
P (Xm+n = j, Xm = k, X0 = i) P (Xm = k, X0 = i)
=
kS
P (Xm = k, X0 = i) P (X0 = i)
P (Xm+n = j | Xm = k, X0 = i) P m (i, k) =
kS
P (Xm+n = j | Xm = k) P m (i, k) =
kS
P (Xn = j | X0 = k) P m (i, k) = P m (i, k) P n (k, j) = P m+n (i, j).
kS kS
d
i P m+n (i, j) = i P m (i, k) P n (k, j) = qj ,
i=1 iS kS
i i
i i
i i
1 1/4 + 2 1/3 = 1
1 + 2 = 1.
Substituindo 2 = 1 1 na primeira equao obtemos
1 1/4 + (1 1 ) 1/3 = 1 .
Isolando 1 nesta equao obtemos que 1 = 4/13. Logo 2 = 9/13. Desta
forma o vetor = (4/13 9/13) satisfaz P = , e assim (4/13 9/13) um
vetor de probabilidade estacionrio para a cadeia de Markov denida pela
matriz de transio ( )
1/4 3/4
.
1/3 2/3
i i
i i
i i
Note que no presente exemplo (nem sempre ocorre isto em outros casos) o
vetor nico.
Observe que se S = {1, 2} e
( )
1 0
P=
0 1
ento qualquer vetor de probabilidade = (1 2 ) estacionrio.
P 2 = P P = ( P ) P = P = .
i i
i i
i i
P (X0 = a2 , X1 = a3 , X2 = a4 , X3 = a5 ) =
P (X2 = a2 , X3 = a3 , X4 = a4 , X5 = a5 ).
Ora, se P = , ento, como vimos acima P 2 = . Assim considerando
xos a2 , a3 , a4 , a5 obtemos
P (X2 = a2 , X3 = a3 , X4 = a4 , X5 = a5 ) =
i00 P (i0 , i1 )P (i1 , a2 )P (a2 , a3 )P (a3 , a4 )P (a4 , a5 )
i0 S i1 S
( i00 P (i0 , i1 )P (i1 , a2 ) ) P (a2 , a3 )P (a3 , a4 )P (a4 , a5 ).
i0 S i1 S
Logo,
P (X2 = a2 , X3 = a3 , X4 = a4 , X5 = a5 ) =
a02 P (a2 , a3 )P (a3 , a4 ) P (a4 , a5 ) = P (X0 = a2 , X1 = a3 , X2 = a4 , X3 = a5 ).
Demonstramos assim, para t = 0 e n = 4 que vale a propriedade
i i
i i
i i
P (X0 = a2 , X1 = a3 , X2 = a4 , X3 = a5 ).
para a2 , a3 , a4 , a5 S quaisquer.
A mesma demonstrao pode ser feita para o caso de r > 0 qualquer
P (X0 = a2 , X1 = a3 , X2 = a4 , X3 = a5 ).
Para isto basta usar o fato que se P = , ento P r = , e a Proposio 2.8.
A demonstrao para o caso geral, z > 0, u > 0 e r > 0, au , au+1 , ..., au+z
S, onde
Segue do teorema acima que xada uma matriz de transio P (de uma
cadeia de Markov) um certo que dene um processo estocstico de Markov
estacionrio, se e s se, vetor de probabilidade invariante para P .
Retornando ao caso geral descrito pelo teorema acima observamos que uma
pergunta natural : xado um P sempre existe ao menos um invariante?
i i
i i
i i
Vamos mostrar que a resposta a esta questo depende de S ser nito ou no.
No caso em que S nito sempre vai existir ao menos um . No caso de S com
cardinalidade innita nem sempre isto ocorre. Como veremos mais adiante o
passeio aleatrio (1/2, 1/2) vai ser um um caso onde no existe vetor de
probabilidade estacionrio. Note que neste caso S = Z.
Demonstrao: Para ver que T est bem denida analisemos primeiro que o
caso em que p = es (o vetor que nulo a menos da posio s S ) para um
s xo. Denote ento v s = es P = T (es ). As coordenadas de v s so dadas por
(vjs )jS = v s = es P = (P (s, j))jS .
Note que js vjs = js P (s, j) = 1.
Logo v s .
Vamos agora ao caso geral: ora, um p qualquer dado por p =
sS ps es , onde sS ps = 1; o resultado ento segue por linearidade: seja
(uj )jS = u = p P = T (p). Ento
T( p s es ) = ps T (es ) = ps v s = u = (uj )jS .
sS sS sS
Agora
uj = ps vjs = ps vjs = ps vjs = ps 1 = 1.
jS jS sS sS jS sS jS sS
i i
i i
i i
T ((p1 , p2 , ..., pd )) = p P
i i
i i
i i
{X0 = a0 , X1 = a1 , ..., Xn = an }
i i
i i
i i
Exerccio: : Uma urna contm duas bolas sem cor. Numa seqncia de in-
stantes uma bola escolhida ao acaso de dentro da urna e pintada de vermelho
ou preto e colocada novamente na urna. Se a bola no est pintada, a escolha
da cor feita aleatoriamente de forma igualmente distribuda (vermelho ou
preto). Se ela est pintada, a sua cor trocada. Este procedimento feito
em sequncia vrias vezes. A cada momento temos na urna duas bolas com as
possibilidades individuais de vermelho, preta ou sem cor.
Qual a matriz de transio da cadeia de Markov Xn , n N, com estados
(x, y, z) onde x o nmero de bolas sem cor, y o nmero de bolas vermelhas,
e, z o nmero de bolas pretas?
Denio 2.12. Uma matriz estocstica P dita regular se existe k>0 tal
( ) ( )
0 1 1/2 1/2
Exemplo 2.14. 1) A = regular. De fato: A2 =
1/2 1/2 1/4 3/4
( )
1 0
2) I = no regular. De fato: I m = I para qualquer m.
0 1
( ) ( )
3/4 1/4 13/16 3/16
3) B = regular. De fato: B 2 =
1 0 3/4 1/4
i i
i i
i i
Logo,
P1,i0 (x1 t y1 ) + ...+
Pi0 1,i0 (xi0 1 t yi0 1 ) + 0 + Pi0 +1,i0 (xi0 +1 t yi0 +1 ) + ... + Pd,i0 (xd t yd ) = 0.
Logo, como todos os Pi,j > 0, e todos xi tyi 0, temos que todos os
xj t yj = 0. Ainda, como
d
0= xi t yi = 1 t.
i=1
i i
i i
i i
0 1 0
Exemplo 2.15. Dada a matriz estocstica P = 0 0 1
1/2 1/2 0
a) Veriquemos que a matriz P regular, i., m 1 tal que as entradas
de P m so positivas.
b) A seguir vamos determinar o seu nico vetor xo de probabilidade.
Para dar apoio a armao a) observe que
0 0 1 1/2 1/2 0
P 2 = 1/2 1/2 0 ; P 3 = 0 1/2 1/2 ;
0 1/2 1/2 1/4 1/4 1/2
0 1/2 1/2 1/4 1/4 1/2
P 4 = 1/4 1/4 1/2; P 5 = 1/4 2/4 1/4.
1/4 2/4 1/4 1/8 3/8 4/8
i i
i i
i i
Logo, P regular.
Para resolver b) desejamos encontrar tal que satisfaa a equao P = ,
ou seja,
(x, y, 1 x y) P = (x, y, 1 x y)
onde 0 x 1 e 0 y 1.
Vamos resolver o sistema
(1 x y) 12 = x
x + 12 (1 x y) = y ,
y =1xy
ou seja,
1 y = 3x
1 + x = 3y ,
x + 2y = 1
ou seja, {
1 y = 3(1 2y)
,
x + 2y = 1
e nalmente {
2
y= 5
1
.
x= 5
i i
i i
i i
satisfaz
P = .
tal que
3 5 0
lim An = 1 1 0 .
n
2 7 1
i i
i i
i i
Teorema 2.6. Seja P uma matriz estocstica regular em que S tem cardinal-
lim p P n = .
n
i i
i i
i i
onde p = (p1 , p2 , ..., pd ). Sabemos, pelo teorema anterior que existe ao menos
um ponto tal que P = .
Se P tivesse autovalor real maior que 1 associado a v ento, para qualquer
k , temos que P k tambm, pois P k (v) = k v. Da mesma forma, P r k (v) = kr v .
Note que todas as entradas de v so positivas (mesmo argumento do teorema
k
2.4: seno existiria i tal que 0 = vi = Pji vj , e isto implica que todos
os vj so nulos.). Isto signica que, tomando r grande, todas as entradas de
P r k (v) so arbitrariamente grandes. Mas, o vetor P r k (v) tem sempre todas as
coordenadas menores que d. Assim, no existe autovalor real de norma maior
que 1.
Como P aperidica pelo Teorema 2.19 (a ser enunciado no futuro) no
existem autovalores complexos de norma 1. Apenas o valor 1 autovalor com
norma 1.
Ainda, como P k tem todas as entradas positivas, pelo Teorema 2.4 o es-
pao dos autovetores de P k associados ao autovalor 1 tem dimenso 1. Como
P k (v) = v , caso v seja autovetor de P associado a 1, conclumos que o espao
dos autovetores de P associados ao autovalor 1 tem dimenso 1.
Assim, o xo para P o nico autovetor associado ao autovalor 1.
Desta forma, todo autovetor v de P tem autovalor com norma menor que
1.
Vamos mostrar que para qualquer p vale
lim p P n = .
n
i i
i i
i i
para todo u, v Rd .
Considere o espao
Logo,
(1 1 1 ... 1) P = (1 1 1 ... 1).
Ento,
< v P , (1, 1, ..., 1) > = < v , (1, 1, ..., 1) P > = < v , (1, 1, ..., 1) >= 0.
Assim v P V .
Considere a transformao linear K : V V agindo no espao vetorial V ,
induzida por P, isto , K(v) = v P . Os autovalores reais de K so todos com
norma menor do que 1 (pois autovalores de K so autovalores de P ).
Armamos que no existem autovalores complexos de norma maior que 1.
A demonstrao deste fato est na observao que faremos ao m da prova
deste Teorema.
i i
i i
i i
1 = < x, (1, 1, ..., 1) > = < (x1 , x2 , ..., xd ), (1, 1, ..., 1) > =
x P y P = (v1 + ) P (v2 + ) P =
|x P n | = |x P n P n | < cn |x |.
lim p P n = ,
n
i i
i i
i i
Teorema 2.7. Seja S = {1, 2, ..., d}. Considere uma matriz estocstica P e
transio P . Suponha que P seja regular. Seja o nico vetor de tal que
lim p P n =
n
lim P (Xn = s) = s .
n
i i
i i
i i
Figura 2.2: A ao de T em
i i
i i
i i
( ) ( )
1/3 2/3 0, 33 0, 67
Q= = .
1/3 2/3 0, 33 0, 67
Observe que
( ) ( ) ( )
0, 50 0, 50 0, 25 0, 75 0, 37 0, 63
P2 = ; P3 = ; P4 = ;
0, 25 0, 75 0, 37 0, 63 0, 31 0, 69
( )
0, 31 0, 69
P5 = .
0, 34 0, 66
A seqncia de matrizes acima nos conrma o que o ltimo teorema arma.
Observe que os elementos da matriz P n esto convergindo com n , a certos
valores e que so na verdade as entradas da matriz Q acima.
Note que a convergncia razoavelmente rpida (exponencial).
i i
i i
i i
Figura 2.4:
i i
i i
i i
i i
i i
i i
lim i = 0 = lim i .
i i
Logo, 0 = 0.
O mesmo raciocnio pode ser feito para qualquer j .
Assim, se P = teramos que j = 0 para todo j Z. Logo, no existe
tal que P = .
i i
i i
i i
fato por i j .
Pii1 > 0, Pi1 i2 > 0, Pi2 i3 > 0, ..., Pin2 in1 > 0, Pin1 j > 0.
i i
i i
i i
Demonstrao:
i i
i i
i i
Figura 2.5:
Neste caso, 1 2 e 1 3.
Ainda,
22e23
e
31e32
e
i i
i i
i i
4 1 e 4 4.
No presente exemplo, as classes de equivalncia determinadas por "so
C1 = {1, 2, 3} e C2 = {4}.
irredutvel.
e ainda,
1 7
8 8
P2 = .
8 3
11 11
i i
i i
i i
Neste sentido, podemos armar (de maneira mais ou menos informal) que
o mundo {1, 2}"evolui de maneira independente do mundo {3, 4}".
Sendo assim, tal P no irredutvel. Existem neste caso duas classes, {1, 2}
e {3, 4}. mais natural analisar em separado primeiro a matriz P1 e depois a
matriz P2 . As duas matrizes so regulares (e assim irredutveis). Seja p1 R2
(nico) tal que p1 P1 = p1 e p2 R2 (nico) tal que p2 P1 = p2 .
Dizemos que P1 a restrio de P ao conjunto {1, 2} e P2 a restrio de
P ao conjunto {3, 4}.
Esta idia ser explorada no futuro em nosso texto, ou seja, dada uma
matriz P sobre S vamos mostrar que (em muitos casos) S pode ser decomposta
em classes de equivalncia Cr S tais que a matriz induzida pela restrio de
P a cada subconjunto Cr seja irredutvel.
Note no exemplo acima que dado tal que 0 1, ento se p =
(p11 , p21 , 0, 0) + (1 ) (0, 0, p12 , p22 ), onde p1 = (p11 , p21 ) e p2 = (p12 , p22 ), ento p
invariante para P . Note que isto vale para qualquer xo como acima. Logo,
para tal P o p invariante no nico.
i i
i i
i i
Exemplo 2.22. Considere S = {0, 1, 2, 3, 4} e uma C.M. (Xn )n0 com matriz
de transio dada por
1 1 1
0 0
3
3 3
1 1
0 0 0
2 2
P = 0 0 1 0 0 .
0 0 0 1 2
3 3
1 1
0 0 0 2 2
1 1 1
0 0
3 3 3
0 0 0 1 1
2 2
P = 0 0 1 0 0 .
2 1
3 3 0 0 0
1 1
2 2
0 0 0
i i
i i
i i
Figura 2.6:
i i
i i
i i
P (Yn+1 = s xn ) =
P (Yn+1 = s xn | Xn = xn ) =
P (Xn+1 = j, Xn = i)
P (i, j) = P (Xn+1 = j|Xn = i) =
P (Xn = i)
P (Xn + Yn+1 = j, Xn = i)
=
P (Xn = i)
P (Yn+1 = j i, Xn = i) P (Yn+1 = j i).P (Xn = i)
= =
P (Xn = i) P (Xn = i)
P (Yn+1 = (j i)) = aji .
i i
i i
i i
i i
i i
i i
Denio 2.16. Seja AS e (Xn )n0 uma C.M. com matriz de transio P.
O tempo de primeira chegada (ou, de passagem por A) TA () (para o conjunto
= (w0 , w1 , w2 , w3 , . . . , wn , . . . ).
i i
i i
i i
= { = (w0 , w1 , w2 , w3 , . . . , wn , . . . ) : wn S}.
Exemplo 2.26. Seja S = {1, 2, 3} e T2 : N {+} denido como em
ii) acima.
Sendo assim, se
= (2, 3, 1, 3, 3, 2, 3, 3, 3, 1, 2, ...),
= (2, 3, 1, 3, 1, 3, 1, 3, 1, 3, 1, ...),
e ento T2 () = .
i i
i i
i i
mais precisamente,
i i
i i
i i
n
P (Xn = j | Xk = j, Xk1 = j, Xk2 = j, ..., X1 = j, X0 = i)
k=1
n
fijk P nk (j, j)
k=1
i i
i i
i i
i) = P (i, i) = 1.
Portanto, fii = 1 o que mostra que todo estado absorvente recorrente.
Note que nem todo estado recorrente absorvente.
Exemplo 2.27. Considere S = {1, 2, 3, } e uma C.M. (Xn )n0 com matriz de
transio dada por
0 1 0
1 1
P=
0 2 2 .
1 2
0 3 3
i i
i i
i i
i i
i i
i i
P (T1 = 4|X0 = 1) + . . . =
1
0, 2 + 0, 8 0, 3 = 0, 2 + 0, 8 = 1.
1 0, 7
Logo, f11 = 1.
Da mesma forma,
n
f22 = f22 = P (T2 = 1|X0 = 2) + P (T2 = 2|X0 = 2) + P (T2 = 3|X0 = 2)+
n1
P (T2 = 4|X0 = 2) + . . . =
0, 7 + (0, 8)(0, 3) + (0, 8)(0, 2)(0, 3) + (0, 8)(0, 2)2 (0, 3) + (0, 8)(0, 2)3 (0, 3) + . . . =
1
0, 7 + 0, 3 [ (0, 2)k ] 0.8 = 0, 7 + 0, 3 0, 8 = 1.
k0
1 0, 2
Assim, f22 = 1.
Logo, todos estados so recorrentes.
i i
i i
i i
Assim,
{
1, se Xn = i (i.e, a cadeia est no estado i no tempo n)
I{i} (Xn ) =
0, se Xn = i (i.e, a cadeia no est em i no tempo n)
Denimos N (i) = n1 I{i} (Xn ) o nmero total de visitas ao estado i em
qualquer tempo n N.
N (i) uma varivel aleatria estendida, ou seja, uma funo mensurvel
N (i) : N {+}.
Lembre que P (|X0 = i) dene uma probabilidade em (, A) e denotada
por Pi .
Mais precisamente, para C da forma C = i, c1 , ..., cn , temos que
i i
i i
i i
por
Fij (s) = fijn sn ,
n=0
e
n n
Pij (s) = (P )ij s = Pijn sn .
n=0 n=0
an s
n
bm sm ,
n=0 m=0
ck sk ,
k=0
Por exemplo,
c4 = a4 b0 + a3 b1 + a2 b2 + a1 b3 + a0 b4 .
i i
i i
i i
ck sk = Fij (s) Pij (s) =
k=0
fijn sn Pijn sn ,
n=0 n=0
ck = fijk Pij0 + fijk1 Pij1 + ... + fij1 Pijk1 + fij0 Pijk =
ck sk = Fii (s) Pii (s)
k=0
e
Piik sk = Pii (s).
k=0
k
k
P (i, i) = fiir P kr (i, i) = fiik Pii0 + fiik1 Pii1 + ... + fii1 Piik1 = ck ,
r=1
i i
i i
i i
ou seja,
1
Pii (s) = .
1 Fii (s)
Ainda, da mesma forma como acima, segue da propriedade P n (i, j) =
n k nk
k=1 fij P (j, j), para n 1, que
s2
0, 2 s + s 2
0, 3 (0, 7)k2 0, 8 sk2 = 0, 2 s + 0, 3 0, 8 .
k=2
1 s 0, 7
A partir de
1
P11 (s) = ,
1 F11 (s)
podemos obter a expresso analtica de P11 (s), e desenvolvendo em srie de
potncias (tomando derivadas de ordem superior de P11 (s) em s = 0) se pode
conseguir uma expresso para os distintos valores P n (1, 1).
i i
i i
i i
Lema 2.1 (Lema de Abel). (a) Se n=0 an converge, ento
lim an sn = an = .
s1
n=0 n=0
(b) Suponha que an 0 para todo n, e lims1 n=0 an sn = , ento
m
an = lim an = .
m
n=0 n=0
Demonstrao:
Ei (N (j)) = E(N (j)|X0 = i) = E( I{j} (Xn )|X0 = i).
n1
i i
i i
i i
Logo, da expresso
1
Pii (s) = ,
1 Fii (s)
temos que
lim Pii (s) = lim Piin sn = .
s1 s1
n=0
Piin = .
n=0
Isto prova a armao: i recorrente implica que Piin = .
n=0
Suponha agora que i transiente. Vamos mostrar que n=0 Pii < .
n
n
Como i transiente, ento n=0 fii < 1. Usando a parte a) do Lema de
Abel temos que
lim Fii (s) = fiin < 1.
s1
n=0
1
Pii (s) = ,
1 Fii (s)
obtemos que
lim Pii (s) < .
s1
Piin < .
n=0
i i
i i
i i
1
P (j, j) n
r
m (j, i)
P n+r+m (i, i) < .
r=0
P (i, j) P r=0
Sendo assim, pelo mesmo Teorema 2.8 temos que j transiente.
Podemos intercambiar i e j no raciocnio acima.
Isto prova a) e b).
Vamos agora mostrar o item c). Suponha que i j e fji < 1. Vamos
mostrar que ento fii < 1.
Seja m o menor nmero natural tal que Pijm > 0. Logo existe uma sequncia
i1 , i2 , .., im1 tal que
i i
i i
i i
O que o teorema acima est dizendo que se uma classe contm um estado
recorrente ento todos os estados nesta classe so recorrentes. Sendo assim,
para uma cadeia irredutvel, se um estado recorrente, todos os outros estados
tambm o so.
2m m
Ainda, P 2m (0, 0) = p (1 p)m .
m
fcil mostrar isto: considere um caminho amostral qualquer w; note que
comeando em 0 (ou seja w0 = 0), para voltar a 0 exatamente em tempo 2m,
temos que, no total, m vezes o caminho vai para cima (sobe 1) e m vezes vai
para baixo (desce 1).
i i
i i
i i
( )
2m
O nmero C2m m
= descreve o nmero de possibilidades de se obter
m
m eventos cara e m eventos coroa quando se lana uma moeda 2m vezes. As
probabilidades pm e (1 p)m surgem dos valores da matriz de transio.
A frmula de Aproximao de Stirling arma que: n! = 2nn+ 2 en .
1
Portanto,
1
2m
(2m)! m 1 (2m)2m+ 2 m e
P 2m
(0, 0) = [p(1 p)] = [p(1 p)] =
m!m! 2 m2m+1 em em
1
1 m2m .m 2 22m 1 1 m
22m+1/2 2m [p(1 p)]m = [p(1 p)]m = 4 [p(1 p)]m .
2 m .m m m
Se p = 1/2 : 2m 1 m 1 1 1
m1 P (0, 0) = m1 m 4 4m = m1 m1/2 =
+ ento, neste caso, 0 recorrente, pois E0 (N (0)) = n
n1 P (0, 0) =
m1 P
2m
(0, 0) = . Sendo assim, f00 = 1, e como todos os estados se
comunicam, pelo ltimo Teorema, temos que fii = 1 e fij = 1, para todo
i, j N.
Se p = 1/2: ento p (1 p) < 1/4. Assim, a soma em m com termos
1
m
4m
[p(1 p)]m
converge (teste da razo). Logo, m1 P
2m
(0, 0) < +, e
ento, neste caso, todos os estados so transitrios.
Demonstrao:
(i)
[ ]
a 1a visita a j ocorre na etapa m
Pi (N (j) 2) = Pi =
m,n1
e a 2a visita a j ocorre na etapa m + n
i i
i i
i i
= Pi [Xr = j, r {1, 2, ..., m 1}, Xm = j, Xt = j,
m,n1
= Pi [Xr = j, r {1, 2, . . . , m 1}, Xm = j] Pi [Xt = j,
m,n1
Pi (Tj = m) P (Xt = j,
m,n1
e Xm = j, r {1, . . . , m 1}) =
Pi (Tj = m)P (Xt = j, t {m+1, . . . , m+n1}, Xm+n = j|Xm = j) =
m,n1
Pi (Tj = m) P (Xt = j, t {1, . . . , n 1}, Xn = j|X0 = j) =
m,n1
Pi (Tj = m) Pj (Tj = n) = n
fijm fjj
= fij fjj .
m,n1 m,n1
i i
i i
i i
Observao :
Demonstrao: Ora,
Ei (X) = n Pi (X = n) = Pi (X = n) + Pi (X = n) + ... + Pi (X = n) .
| {z }
n1 n1 n vezes
Pi (X = m + n) = Pi (X m).
m1 n0 m1
Teorema 2.10. I) Se j um estado transitrio, ou seja fjj < 1, ento
(1i) Pi (N (j) < +) = 1 , i S ;
fij
(1ii) Ei (N (j)) = 1f , i S (neste caso P (i, j) 0 pela Prop 2.13).
n
jj
II) Se j um estado recorrente ento
(2i) Pj (N (j) = +) = 1;
(2ii) Pi (N (j) = +) = fij , i S ;
{
+, se fij > 0, i S
(2iii) Ei (N (j)) =
0, se fij = 0.
i i
i i
i i
Demonstrao:
Pi (N (j) = +) = 0 Ei (N (j)) = Pi (N (j) n) =
n1
1 fij
n1
fij [fjj ] = fij n1
[fjj ] = fij
=
.
n1 n1
1 fjj 1 fjj
n1
(2i)Pj (N (j) = +) = limn+ Pj (N (j) n) = limn fjj [fjj ] =
n
limn [fjj ] = limn 1 = 1, pois fjj = 1. Logo, Pj (N (j) = +) = 1.
(2ii)Pi (N (j) = +) = limn+ Pi (N (j) n) = limn fij [fjj n1
] =
limn fij 1 = fij , i S .
{
+, se P (N (j) = +) > 0
(2iii)Ei (N (j)) = n1 P n (i, j) =
0, se P (N (j) = +) = 0.
i i
i i
i i
lim Pijn = 0.
n
Ora,
j = 1.
j
lim xn,i = ai ,
n
para cada i xo, onde ai R. Suponha ainda que
sup |xn,i | < .
n
i=1
i i
i i
i i
Ento,
lim xn,i = ai .
n
i=1 i=1
j = lim i Pijn = 0 = 0.
n
i=1 i=1
Logo, todo j = 0, o que contraria j=1 j = 1.
i i
i i
i i
Figura 2.7:
C2 = {3, 4, 5} pois 3 4 e 3 5.
Desejamos calcular f11 . Observe que para um dado = (wt ), se wt0
{3, 4, 5} para algum t0 ento wt {3, 4, 5} para t > t0 e o caminho no
retorna mais a 1 (com P -probabilidade 1). Logo no clculo de f11 no entram
os caminhos que passam por {3, 4, 5}.
2
f11 = n1 f11 n
= 0, 5 + 41 15 + 41 25 15 + 14 25 15 + . . . = 0, 5 + 20 1 2 n
n0 ( 5 ) =
1 1 1 5 1 7
0, 5 + 20 1 25
= 0, 5 + 20 3
= 0, 5 + 12 = 12 <1
Isto porque os a serem considerados, comeam em 1, saltam para 2 e
cam l at retornar pela primeira vez a 1.
f
Logo, C1 = {1, 2} transitrio. E1 (N (1)) = 1f11 = 5/12 7/12
= 57 ;P1 (N (2) <
11
+) = 1.
Observe que
2
f33 = n1 f33 n
= 16 + ( 13 12 + 12 41 ) + ( 13 12 14 + 12 34 14 ) + ( 13 12 34 14 + 12 34 14 ) + . . . =
1
6
+ 16 + 241 3 n
n0 ( 4 ) + 8
1 3 n 1 1 1
n0 ( 4 ) = 3 + 24 4 + 8 4 = 3 + 6 + 2 = 1
1 1 1
Logo, C2 = {3, 4, 5} recorrente. E(N (3)) = + j que f33 = 1 > 0;
P3 (N (3) = +) = 1 e P2 (N (3) = +) = f23 .
Temos ento: estados Recorrentes ={0} {3, 4, 5} = SR e estados Tran-
sientes = {1, 2} = ST . Sendo assim, S = SR ST .
i i
i i
i i
Denio 2.19. Uma classe C dita fechada se jC P (i, j) = 1 , i C .
Observe no Exemplo 2.31 que jC1 ={1,2} P (1, j) = P (1, 1) + P (1, 2) =
1
2
+ 4 = 1. Logo, C1 no fechada. Isto mostra que uma classe irredutvel,
1
Exerccio: Seja (Xn )n0 uma C.M. com S = {0, 1, 2, 3, 4}, e matriz de tran-
sio dada por
1 1 1
0 0
3 3 3
0 0 0 1 1
2 2
P = 0 0 1 0 0 .
2 1 0 0 0
3 3
1 1
2 2
0 0 0
i i
i i
i i
i i
i i
i i
1/2 1/2 0 0 0 ...
1/2 0 1/2 0 0 . . .
P=
1/2 0
.
0 1/2 0 . . .
.. .. .. .. ..
. . . . .
a) Vamos calcular f00
n
e f00 .
b) A seguir vamos determinar fii para i = 0.
Vamos comear o procedimento de clculo.
a) Desejamos primeiro calcular f00 n
= n0 f00 = n1 P (T0 = n|X0 = 0).
Observe que
1
f00 = P (T0 = 1|X0 = 0) = 1/2 = (0, 5)
f00 = P (T0 = 2|X0 = 0) = 1/2 1/2 = (0, 5)2
2
3
f00 = P (T0 = 3|X0 = 0) = (0, 5)3 .
Logo, f00 = n1 f00n 0,5
= n1 (0, 5)n = 10,5 = 1.
Desta forma, o estado 0 recorrente.
b) Vimos em prova que, quando 0 < p < 1, C0 = S irredutvel. Assim,
todos os estados em S so recorrentes.
Observe que aqui p = 0, 5 e assim
1
f11 = P (T1 = 1|X0 = 1) = 0,
2
f11 = P (T1 = 2|X0 = 1) = (0, 5)(0, 5),
3
f11 = P (T1 = 3|X0 = 1) = (0, 5)(0, 5)(0, 5) + (0, 5)(0, 5)(0, 5) = 2(0, 5)3 ,
4
f11 = P (T1 = 4|X0 = 1) = 3(0, 5)4 .
Logo, f11
n
= (n 1)(0, 5)n , n 2.
Portanto,
f11 = (n 1)(0, 5)n = n(0, 5)n (0, 5)n =
n2 n2 n2
i i
i i
i i
= (0, 5) n(0, 5)n1 (0, 5)n = (0, 5)( (0, 5)n ) ( (0, 5)n 10, 5) =
n2 n2 n2 n0
1 1 1
0, 5( 1)( 1, 5) = 0, 5( 1)(21, 5) = 1, 50, 5 = 1
(1 0, 5)2 1 1/2 0, 25
Concluso: fii = 1, i = 0.
Note que no passeio aleatrio com p = 1/2 (Exemplo 2.13) todos os estados
so transientes.
i i
i i
i i
Demonstrao: Ei (N (j)) = n1 P n (i, j) < , ou seja, a srie absoluta-
mente convergente Ento, o termo geral da srie converge a zero, i., i S.
lim P n (i, j) = 0.
n
i i
i i
i i
Demonstrao: Ora,
m=1 n=m {wn = j} =
Como,
Pi (Xn = j) < ,
n=1
converge a zero.
Logo,
Pi (
m=1 n=m {wn = j}) = lim Pi (n=m {wn = j})
m
lim Pi (Xn = j) = 0,
m
n=m
i i
i i
i i
P ( = (wt )tN , , tal que existe t0 N tal que para t > t0 temos wt = j ) = 1.
transio P. Ento
P ( = (wt )tN , , tal que existe t0 N tal que para t > t0 temos wt
/ ST ) = 1.
Demonstrao: Como para cada i S e j ST vale que n=1 Pi (Xn =
j|X0 = i) < , ento
i Pi (Xn = j|X0 = i) < .
jST iS n=1
Logo,
P (Xn ST ) = i Pi (Xn ST |X0 = i) <
n=1 iS n=1
i i
i i
i i
S = ST C1 C2 ... Cn ...
i i
i i
i i
P no fechado.
Observaes :
I) Toda C.M. com espaos de estados nito possui pelo menos um estado
recorrente.
II) Seja C um conjunto de estados nito, fechado e irredutvel. Ento, todo
estado em C recorrente.
III) Se uma C.M. tal que um = (wt ) comea no conjunto de estados
transientes T (isto , w0 ST ), ento ou ela permanece em ST para sempre ou
i i
i i
i i
i i
i i
i i
Denio 2.20. Seja (Xn ), n 0 uma C.M. com espaos de estados S. Seja
i S.
(a) O perodo de i denido como
{
mdc{n 1|P n (i, i) > 0}, se {n 1|P n (i, i) > 0} =
d(i) =
0, se n 1, P (i, i) = 0
n
i i
i i
i i
i i
i i
i i
i i
i i
i i
r0 p0 0 0 0 ... 0 0 0
q1 r 1 p 1 0 0 ... 0 0 0
P=
0 q2 r 2 p 2 0 ... 0 0 0
. . . . . ... . . .
0 0 0 0 0 ... 0 qd rd
onde, p0 = 1, r0 = 0, pi = 1 di , qi = di , ri = 0, P (0, 1) = 1, P (d, d + 1) = 1
e P (i, j) = 0 nos outros casos.
Neste exemplo, d(i) = 2 para todo i S .
i i
i i
i i
Demonstrao:
i i
i i
i i
d(b1 r1 + b2 r2 + ... + bk rk ).
i i
i i
i i
i i
i i
i i
grande.
P m + n d(i) = P m P n d(i) .
Corolrio 2.4. Seja (Xn )n0 C.M. irredutvel e aperidica com S nito e
i i
i i
i i
i i
i i
i i
Figura 2.8:
De fato, se m < d1, ento k elemento de Dm+1 . Isto porque P nd+m+1 (i, k) =
sS P
nd+m
(i, s)P (s, k) P nd+m (i, j) P (j, k) > 0.
Se j Dd1 e P (j, k) > 0, ento k D0 .
Note que, conforme provamos antes no Teorema 2.18: se N for o valor
supremo de todos os possiveis valores ni , i S , temos que P m d (i, i) > 0, para
todo m > N .
Considere um i {1, 2, ..., d} xo. Assim, a cadeia restrita a Di , tal que
P |Di , irredutvel. A matriz estocstica associada seria P d restrita a aquelas
d
entradas que tem elementos em Di . Esta matriz restrita regular. Sendo assim
podemos aplicar aqui os resultados j conhecidos para tal tipo de matriz.
Fica assim demostrada a ltima armao do Teorema.
i i
i i
i i
Exemplo 2.39. Seja a cadeia de Markov com matriz de transio dada por
0 1/8 0 7/8 0 0
0 1/2 0 1/2 0 0
0 1/4 3/4 0 0 0
P=
1/2 0 1/2 0
.
0 0
0 0 0 0 1/2 1/2
0 0 0 0 1/4 3/4
a) Classes de equivalncia.
C0 = {0, 1, 2, 3} e C1 = {4, 5}.
Logo a cadeia no irredutvel e C0 e C1 so fechadas.
b) Classicao dos estados.
Vamos calcular apenas
( )2
1 1 1 1 3 1 1 3 1
f44 = n
f44 = + + + + =
2 2 4 2 4 4 2 4 4
n1
( )n
1 1 3 1 1 1 1 4
= + = + 3 = + = 1.
2 8 n0 4 2 8 1 4 2 8
Logo, C1 classe recorrente.
c) Distribuio estacionria.
Podemos considerar a matriz P restrita aos estados {0, 1, 2, 3}, obtendo
i i
i i
i i
Ora,
(3) = 2(0)
1
(3) = (2)
2
9
(1) = (3)
8
e (0) + (1) + (2) + (3) = 1
( )
1 9
= (3), (3), 2(3), (3) ,
2 8
ento vale
1 9 8
(3) + (3) + 2(3) + (3) = 1 (3) = .
2 8 37
i i
i i
i i
( )
4 9 16 8
= , , , .
37 37 37 37
Observamos que
i i
i i
i i
0 0 1/2 1/4 1/4 0 0
0 0 1/3 0 2/3 0 0
0 0 0 0 0 1/3 2/3
P=
0 0 0 0 0 1/2 1/2,
0 0 0 0 0 3/4 1/4
1/2 1/2 0
0 0 0 0
1/4 1/4 0 0 0 0 0
0 0 0 0 0 23 25
48 48
0 0 0 0 0 11 7
18 18
1/3 2/3 0 0 0 0 0
P =
2
3/8 5/8 0 0 0 0 0,
7/16 9/16 0 0 0 0 0
0 10 3 11
0
0 24 24 24
0
0 0 6
16
1
16
9
16
0 0
i i
i i
i i
71 121
0 0 0 0 0
192 192
29 43
0 0 0 0 0
72 72
0 0 14 3 19
0 0
36 36 36
P =
3
0 0 38
96
9
96
49
96
0 0 .
0 0 26 7 31
0 0
64 64 64
157 131
0 0 0 0 0 288 288
0 0 0 0 0 111
192
81
192
i i
i i
i i
Demonstrao: Por hiptese o mdc dos n tais que Piin > 0 igual a 1. Seja v
o mdc dos n tais que fiin > 0.
Suponha que v = 1.
Se v divide todo n tal que Piin > 0 ento v = 1.
Seja n o menor inteiro que tal que Piin > 0 e v no divide n.
Seja agora q e r tal que 0 < r < v e n = q v + r. Sabemos que fiij = 0 se j
no da forma j = k v , logo
n
Piin = fiij Piinj =
j=1
q
(q v + r) k v
q
(qk) v + r
fiik v Pii = fiik v Pii .
k=1 k=1
(qk) v + r
Sabemos que Pii = 0, porque (q k) v + r < n e v no divide
(q k) v + r. Sendo assim Piin = 0. Como isto uma contradio, conclumos
que v divide todo n tal que Piin > 0. Logo, v = 1.
de perodo d.
i i
i i
i i
i = Ei (Ti ) = n fiin .
n1
em i S.
O tempo mdio acima denido descreve o nmero mdio de etapas necessrias
i i
i i
i i
0.16
E(Ti ) = Ti dPi = n Pi ({w tal que Ti (w) = n}),
nN
Observaes:
(a) i transitrio Pi (Ti = +) > 0 i = Ei (Ti ) = (Teorema
2.13).
(b) i recorrente Pi (Ti = +) = 0 i = n1 n fiin
Portanto, i pode ser + ou < +
Proposio 2.22. Ser recorrente nulo ou ser recorrente positivo uma pro-
priedade de classe, ou seja, se i possui tal propriedade e j equivalente a i,
ento j tambm possui.
Teorema 2.21. Seja (Xn )n0 C.M. nita com matriz de transio P com uma
transitrios. Ento (Xn )n0 tem uma nica distribuio estacionria dada por
i i
i i
i i
Exemplo 2.42. Pela frmula de Stirling temos que no caso do passeio aleatrio
em Z com p = 1/2, o valor P00 n
n1/2 , para n par e zero caso n seja mpar.
Logo, 0 recorrente pois nN P00 n
= . O mesmo vale para qualquer i Z
Portanto, neste caso, a cadeia recorrente irredutvel, mas 0 recorrente
nulo. De fato, um estado i recorrente nulo se e s se limn Piin = 0 conforme
Teorema 2.23. Note que P00 n
n1/2 .
Note que quando S nito toda cadeia irredutvel e recorrente recorrente
positivo como veremos em breve.
i i
i i
i i
Figura 2.9:
(f) mostrar que esta C.M. tem uma nica distribuio estacionria.
a) Observe a partir do grafo exibido na Figura 2.9 que
0 3, 1 2, 1 4, 2 5, 1 5, 1 3
Portanto, C0 = {0, 1, 2, 3, 4, 5} classe irredutvel e fechada.
c) Para classicar os estados, basta calcular f00 .
A cadeia recorrente positiva tendo em vista que a P 3 restrita a cada classe
irredutvel, aperidica e nita.
i i
i i
i i
0 0 1 0 0 0 0 0 0 1 0 0
0 0 1 0 0 0 0 0 0 0 1 0
0 0 0 3/8 5/8 0 1/4 2/4 0 0 0 1/4
P P=
2
1/4 2/4 0 0
=
0 1/4
0 0 0 1 0 0
1/4 2/4 0 0 0 1/4 0 0 0 1 0 0
0 0 1 0 0 0 0 0 0 1/2 1/2 0
1/4 2/4 0 0 0 1/4
1/4 2/4 0 0 0 1/4
0 0 1 0 0 0
.
0
0 0 3/8 5/8 0
0 0 0 3/8 5/8 0
1/4 2/4 0 0 0 1/4
Portanto,
1/4 2/4 1/4
P0 = 1/4 2/4 1/4 ,
1/4 2/4 1/4
( )
3/8 5/8
P1 = ,
3/8 5/8
e
P2 = (1).
Observe que as sub-matrizes de transio associadas aos conjuntos cclicos
so tambm estocsticas.
Desta forma conclumos que D0 = {0, 1, 5} D1 = {3, 4} D2 = {2}.
f) Pela Proposio 2.4 sabemos que esta C.M. restrita a cada Di possui
uma nica distribuio estacionria. Desejamos encontrar ao menos um vetor
= (0 , 1 , 2 , 3 , 4 , 5 ) tal que = P .
i i
i i
i i
Note que (1/4, /2/4, 1/4) invariante para P0 , (3/7, 5/7) invariante para
P1 e (1) invariante para P2 .
i i
i i
i i
e ainda que
... 2 1 0 1 2 ...
i i
i i
i i
... ...
..
. ... ...
2 . . . q 0 p 0 0 0 0 . . .
1 . . . 0 q 0 p 0 0 0 . . .
P= 0 . . . 0 0 q 0 p 0 0 . . .
.
1 . . . 0 0 0 q 0 p 0 . . .
2 . . . 0 0 0 0 q 0 p . . .
.. . . .
. ...
... ...
a) D0 = {. . . 3, 1, 1, 3, 5, . . .} e D1 = {. . . , 4, 2, 0, 2, 4, . . .}
pois 1 0
2 (0 e -2) devem estar no D1 se 1 D0 2 3
1
2 D1 , (3, 1) D0 , 32
4 3 D0 (2, 4) D1
i i
i i
i i
... 2 1 0 1 2 ...
. ... . . . . . . . ...
2 . . . 0 2qp 0 p 2
0 0 0 . . .
1
. . . q
2
0 2qp 0 p 2
0 0 . . .
0 . . . 0 q2 0 2qp 0 p2 0 . . .
1
. . . 0 0 q2 0 2qp 0 p2 . . .
2
. . . 0 0 0 q2 0 2qp 0 . . .
. ... . . . . . . . ...
Portanto, P0 (relativa a D0 ) e P1 (relativa a D1 ) so, respectivamente,
... 3 1 1 3 ...
.. .. .. .. .. .. ..
. . . . . . .
3 . . . 2qp p 2
0 0 . . .
1 . . . q 2 2qp p2 0 . . .
P0 =
1 . . . 0 q 2
2qp p 2
. . .
3 . . . 0 0 q 2
2qp . . .
.. .. .. .. .. .. ..
. . . . . . .
i i
i i
i i
... 2 0 2 4 ...
.. .. .. .. .. .. ..
. . . . . . .
2 . . . 2qp p 2
0 0 . . .
0 . . . q 2 2qp p2 0 . . .
P1 =
2 . . . 0 q 2
2qp p 2
. . .
4 . . . 0 0 q 2
2qp . . .
.. .. .. .. .. .. ..
. . . . . . .
i i
i i
i i
Sn = i Sn+1 = i + 1 ou Sn+1 = i 1
Se Xn = i ou
Sn = i Sn+1 = i + 1 ou Sn+1 = i 1
P (Xn+1 = i + 1, Xn = i, B)
= P (Xn+1 {i + 1, i 1}c |Xn = i, B) +
P (Xn = i, B)
P (Xn+1 = i 1, Xn = i, B)
+ = P (Xn+1 = i + 1|Xn = i, B)
P (Xn = i, B)
i i
i i
i i
Analogamente,
Ento,
P (Xn+1 = i + 1, Xn = i, B)
P (Xn+1 = i + 1|Xn = i, B) =
P (Xn = i, B)
P (Xn+1 = i + 1, Sn = i, B) + P (Xn+1 = i + 1, Sn = i, B)
=
P (Xn = i, B)
P (Xn+1 = i + 1, Sn = i, B) P (Sn = i, B)
=
P (Sn = i, B) P (Xn = i, B)
i i
i i
i i
P (Xn+1 = i + 1, Sn = i, B) P (Sn = i, B)
+
P (Sn = i, B) P (Xn = i, B)
P (Sn = i, B)
= P (Xn+1 = i + 1|Sn = i, B)
P (Sn = i, B) + P (Sn = i, B)
P (Sn = i, B)
+ P (Xn+1 = i + 1|Sn = i, B) .
P (Sn = i, B) + P (Sn = i, B)
Calculemos:
+ P (Sn+1 = i 1|Sn = i) = p + 0 = p
e
+ P (Sn+1 = i 1|Sn = i) = 0 + q = q.
Logo,
pP (Sn = i, B) + qP (Sn = i, B)
P (Xn+1 = i + 1|Xn = i, B) = . (2.6)
P (Sn = i, B) + P (Sn = i, B)
Falta encontrar P (Sn = i, B) e P (Sn = i, B), para todo i > 1.
i i
i i
i i
n1
P (Sn = i, B) = P (Sn = i, Sn1 > 0, , Sl+1 > 0, Sl = 0, Xl1 = il1 , ,
l=0
n1
X1 = i1 , S0 = 0) = P (Sn = i, Sn1 > 0, , Sl+1 > 0|Sl = 0)
l=0
n1
P (Sl = 0, S0 = 0)
= P (Snl = i, Snl1 > 0, , S1 > 0|S0 = 0)
l=0
P (S0 = 0)
n1
= P (Snl = i, Snl1 > 0, , S1 > 0|S0 = 0) P00
l
.
l=0
i i
i i
i i
onde
( )
n l p nl+i
2
nli
q 2 , se n l i par
nl+i
P (Snl = i|S0 = 0) =
2
0, se n l i mpar,
e
i i
i i
i i
( )
nl1 (nl1)+(i+1) (nl1)+(i+1)
= 2q (nl1)+(i+1) p 2 q 2
2
( )
nl1 nl+i nli
=2 nl+i p 2 q 2 ,
2
[ ]
(n l)! 2(n l 1)! nl+i nli
= ( nl+i ) ( ) ( ) ( ) p 2 q 2
2
! n l n
2
+ l
2
i
2
! nl+i
2
! n l 1 n
2
+ l
2
i
2
!
[ ]
(n l)! 2(n l 1)! nl+i nli
= ( nl+i ) ( nli ) ( nl+i ) ( nli ) p 2 q 2
2
! 2
! 2
! 2
1 !
i i
i i
i i
[ ( nli ) ]
(n l)! nl+i nli
= ( nl+i ) ( nli ) 1 2 2 p 2 q 2
2
! 2
! nl
( )( )
nl nln+l+i nli nli
= nl+i p 2 q 2
2
nl
( )
nl i nl+i nli
= p 2 q 2 ,
nl+i
2
nl
para todo i > 1, se n l + i par.
Ento,
n1
P (Sn = i, B) = P (Snl = i, Snl1 > 0, , S1 > 0|S0 = 0)P00
l
l=0
n1 (
)
nl i nl+i nli
l
= p 2 q 2 P00
l=0
nl+i
2
nl
m (
) ( )
n 2k i n+i
k ni
k 2k
= p 2 q 2 pk q k
k=0
n2k+i
2
n 2k k
m (
)( )
n+i ni n 2k 2k i
=p 2 q 2 , (2.7)
k=0
n2k+i
2
k n 2k
se n i par. Observe que na terceira igualdade acima temos que l = 2k e
{
n1
2
, se n 1 par
m= n2
2
, se n 1 mpar.
i i
i i
i i
( )
nl i
p
nli
2 q
nl+i
2 , se n i par
nl+i nl
=
2
0, se n i mpar.
Desta forma,
P (Sn = i, B) =
n1
P (Sn = i, Sn1 < 0, , Sl+1 < 0, Sl = 0, Xl1 = il1 , , X1 = i1 , S0 = 0) =
l=0
n1
P (Snl = i, Snl1 < 0, , S1 < 0|S0 = 0)
l=0
n1 (
)
nl i nli nl+i
l
= p 2 q 2 P00
l=0
nli
2
n l
m (
) ( )
n 2k i n2ki n2k+i 2k k k
= p 2 q 2 p q
k=0
n2ki
2
n 2k k
m (
)( )
ni n+i n 2k 2k i
=p 2 q 2 , (2.8)
k=0
n2ki
2
k n 2k
se n i par. Observe que na quarta igualdade acima temos que l = 2k
e
i i
i i
i i
{
n1
2
, se n 1 par
m= n2
2
, se n 1 mpar.
n+i ni ni n+i
pp 2 q 2 + qp 2 q 2
P (Xn+1 = i + 1|Xn = i, B) = n+i ni ni n+i
p 2 q 2 +p 2 q 2
e = {Xn1 S, , X1 S, X0 S}.
B
Ento,
e
P (Xn+1 = i + 1|Xn = i) = P (Xn+1 = i + 1|Xn = i, B)
pi+1 + q i+1
= = P (Xn+1 = i + 1|Xn = i, B), para todo B.
pi + q i
Portanto, (Xn )n0 cadeia de Markov e suas probabilidades de transio
so dadas por
P (Xn+1 = 1|Xn = 0) = 1
e
pi+1 + q i+1
P (Xn+1 = i + 1|Xn = i) = , para todo i 1.
pi + q i
i i
i i
i i
Caso II) Suponha que n i < 0. Ento, n < i. Observe que, saindo de 0 em
tempo 0 no chegaremos a i em tempo n, ou seja, P (Xn = i|S0 = 0) = 0.
Logo, neste caso no faz sentido falar em P (Xn+1 = i + 1|Xn = i).
Questo Bsica:
(1a ) Dada uma C.M. P , quais so as condies necessrias (e sucientes)
para que exista uma distribuio estacionria para P ?
(2a ) Se existir, ela nica?
(3a ) Dado um vetor de probabilidade qualquer p sobre S , ser que vale que
lim pP n = ,
n
onde nico?
Observao : Anteriormente j exibimos exemplos em que:
1) P no irredutvel e no existe unicidade do estacionrio.
2) P irredutvel mas no recorrente e no existe estacionrio.
3) P irredutvel e aperidica mas no existe estacionrio tal que para
todo p
lim pP n = .
n
i i
i i
i i
Isto nos leva a suspeitar que devemos supor que a cadeia recorrente,
irredutvel e aperidica para termos as propriedades desejadas acima em (1a ),
(2a ) e (3a ).
Sabemos que para cada n > 0 e i S xos
n
n
P (i, i) = fiik P nk (i, i),
k=0
Teorema 2.22 (Equao da renovao em N). Sejam (ak )k0 , (bk )k0 e
(a) ak 0, a k = 1,
k0
(b) | bk | < +,
k0
n
Se a equao cn ak cnk = bn , n 0, tiver uma soluo (ck )k 0
k=0
tal que sup| cn | < + (i., (cn ) limitada em R), ento
(1) lim cn = bk se k ak < +
n k ak
i i
i i
i i
(2) lim cn = 0 se k ak = +.
n
k
Teorema 2.23. Considere (Xn )n0 C.M. com espao de estados S que seja
1 1 1
(a) lim P n (i, i) = = = = i se k fiik < +
n
k fiik Ei (Ti ) i k
k0
(b) lim P n (i, i) = 0 = i se k fiik = +
n
k
Demonstrao:
{
n
1, se n = 0
P (i, i)
n
fiik P nk
(i, i) = ()
k=0
0, se n > 0
i i
i i
i i
Tome ak = fiik . Observe que k0 ak = k0 fiik = fii = 1 pois i
recorrente.
Alm disso, conforme Teorema 2.21 sabemos que o mdc de {n : fiin > 0} = 1
(a cadeia aperidica).
Considere nalmente cn = P n (ii). Com estes valores an , cb , bn , a equao
a de renovao
n
cn ak cnk = bn , n 0.
k=0
n
P n (i, j) = fijk P nk (j, j).
k=0
Sejam i e j xos.
Vamos utilizar o Teorema 2.22.
Seja xn k = fijk P nk (j, j) se n > k e xn k = 0 caso contrrio. Ento, para k
xo
lim xn k = fijk j = ak j .
n
Ora,
n
lim P n (i, j) = lim fijk P nk (j, j) = lim xn k .
n n n
k=0 k=0
Note que
sup | xn k | 1 < .
n
k=1
i i
i i
i i
n
lim P (i, j) = lim xn k = ak j = fiik j = j ,
n n
k=0 k=0 k=0
pois i recorrente.
Teorema 2.24. Seja (Xn )n0 C.M. nita com matriz de transio P com uma
transitrios. Ento (Xn )n0 tem uma nica distribuio estacionria dada por
i i
i i
i i
Sendo assim,
1
= lim P r (j, j) < .
mj r
i i
i i
i i
lim P n (i, j) = 0.
n
i.
irredutvel tem perodo 3 e tem = (1/3, 1/3, 1/3) como vetor invariante.
Isto segue do fato que i = 1/3 para i S . Note que no existe o limite
n
lim P11 .
n
i i
i i
i i
e de perodo d, ento
d
lim Piind = .
n mi
Ainda Piim = 0 quando m no mltiplo de d.
1/2 0 1/2
Exemplo 2.46. 1) Seja P = 1 0 0 .
0 1 0
i i
i i
i i
1 1
0 = n
n f00 = 1. + 2 . 0 + 3. .1.1 + 0 + 0 =
n1
2 2
1 3
+ = 2 < .
2 2
Portanto,
(0) + (1) + (1) = 1 (0) + 2(1) = 1 (0) = 1 2(1).
Como,
(0) = 2(1) e (0) = 1 2(1) temos
2(1) = 1 2(1) 4(1) = 1 (1) = 14 .
Logo,
i i
i i
i i
( )
2 1 1
= , ,
4 4 4
Desta forma,
1 1 1 1 1 1
(0) = = ; (1) = = ; (2) = = .
E0 (T0 ) 2 E1 (T1 ) 4 E2 (T2 ) 4
i i
i i
i i
Xn2 An2 , . . . , X1 A1 , X0 A0 ) =
Pi (Xmn Am , Xmn1 Am1 , . . . , X1 An+1 )
P (Xn = i, Xn1 An1 , Xn2 An2 . . . , X1 A1 , X0 A0 ).
. . . , X1 A1 , X0 A0 ) =
P (Xm Am , Xm1 Am1 , . . . , Xn+1 = An+1 |Xn An ) =
P (Xmn Am , Xmn1 Am1 , . . . , X1 = An+1 |X0 An ).
i i
i i
i i
. . . , X1 A1 , X0 A0 ) =
1
.
P (Xn An , Xn1 An1 , . . . , X1 A1 , X0 A0 )
Xn2 An2 , . . . , X1 A1 , X0 A0 ) =
P ( Xn = i, Xn1 An1 ,
Xn2 An2 , . . . , X1 A1 , X0 A0 ) =
Pi ( (X1 , X2 , X3 , ...) B )
i i
i i
i i
Xn2 An2 , . . . , X1 A1 , X0 A0 ),
e
Pb (B) = Pi ( (X1 , X2 , X3 , ...) B)
O ltimo teorema arma que sejam quais forem as restries aps o tempo
n, quando condicionamos em i no tempo n, o processo evolui de maneira
independente do que aconteceu previamente ao tempo n. Ou seja, ele perde
memria do que aconteceu antes do tempo n. Denominamos tal propriedade
de fraca de Markov.
A proposio acima permite formalizar o seguinte exemplo de maneira apro-
priada.
Exemplo 2.48. Considere uma pessoa que possui um capital inicial c > 0,
onde c um nmero natural, e que vai participar de um jogo em que uma
i i
i i
i i
moeda (com probabilidade 1/2 de sair cara e 1/2 de sair coroa) lanada
sucessivamente.
O jogador ganha um real se sai cara e perde um real se sai coroa.
Ele gostaria de atingir um capital xado C > c > 0. O jogo termina quando
o fortuna do jogador atinge o valor C ou o valor 0. natural supor que se o
capital inicial c grande e prximo de C , ento existe maior probabilidade do
jogador atingir seu objetivo de alcanar a fortuna C do que quando o capital
inicial c for prximo de zero. Como quanticar tais probabilidades? Vamos
denotar por p(c) a probabilidade do jogador entrar em bancarrota, ou seja,
atingir ao longo do jogo a fortuna 0 (antes de atingir o valor C ).
Em princpio, apenas sabemos que p(0) = 1 e p(C) = 0.
Vamos modelar este problema atravs de um processo estocstico. Con-
sidere c xado. Neste caso, tome o espao de estados S = {0, 1, 2, ..., C},
T = N, Xt o valor da fortuna no tempo t. Considere = {1, 2, ..., C}N e
a probabilidade P = Pc ser descrita a seguir. O ponto fundamental que
vamos evitar dizer quem P explicitamente.
Note que P ({w|X0 = c}) = 1, P ({w|X0 = c}) = 0. Ainda, P (X1 = c) = 0.
mais natural descrever P atravs de condicionais, mais exatamente,
P (Xt+1 = b |Xt = d) = 0.
P (Xt+1 = 0 | Xt = 0) = 1,
i i
i i
i i
P (Xt+1 = C | Xt = C) = 1.
1 1
P (X0 = c , X1 = c + 1) = P (X1 = c + 1 | X0 = c) p(X0 = c) = .1 = .
2 2
Note que natural no presente exemplo que, para i 0, e di , di+1 , di+2 S
valha
mas
1
P (Xi+2 = 5 | Xi+1 = 4) = .
2
Ainda, no caso em que c = 1,
1
P ({w|X0 (w) = 1, X1 (w) = 2, X2 (w) = 1}) = ( )2 .
2
i i
i i
i i
para algum t > 0, e ainda ws = C para todo r tal que 0 < r < t } =
i i
i i
i i
D =
n=1 {w : X0 = 1, X1 = 2, X2 = 1, X3 = 2, ..., X2n1 = 2, X2n = 1},
1
X2n1 = 2, X2n = 1}) = ( )2n1 ,
2
para todo n. Note que tomando n grande o valor ( 12 )2n1 se torna arbitraria-
mente pequeno. Logo P (D) = 0.
i i
i i
i i
e
D = nN An ,
se limn P (An ) = 0, ento P (D) = 0.
Uma fcil generalizao disto mostra que se D = nN An , e
i i
i i
i i
ento,
an1 = p(n 1) p(n 2) = p(n) p(n 1) = an .
Sendo assim, procedendo de maneira indutiva a partir de a1 , obtemos que
p(n) = n a1 + p(0).
Como p(0) = 1 e
0 = p(C) = Ca1 + 1,
temos que
1
a1 = .
C
Logo,
1
p(c) = c ( ) + 1.
C
Em concluso: utilizando a Regra de Bayes, ou seja condicionando, obtive-
mos uma equao de diferenas e a partir da obtivemos a soluo do problema
que buscvamos. No foi necessrio calcular a probabilidade de nenhum con-
junto especco! Variaes destas ideias nos permitem obter solues explcitas
do valor de certas probabilidades que se deseja encontrar em inmeros casos.
Uma das Regras de Ouro da Probabilidade: na dvida, condicione!
i i
i i
i i
Vamos agora apresentar o argumento que deixamos para depois nas con-
sideraes do exemplo acima. Usando a notao deste e da ltima proposio
acima considere sobre sobre S = {0, 1, 2, ..., C} o conjunto B = Bc descrito
acima.
Sendo assim, supondo c + 1 < C , a partir da ltima proposio, temos que
P ( (X2 , X3 , X4 , ...) B, X1 = c + 1, X0 = c) =
Pc+1 ( (c + 1, X2 , X3 , X4 , ...) B) P ( X1 = c + 1, X0 = c) =
Logo,
Exerccio: Considere o mesmo problema acima, s que desta vez assuma que
a probabilidade de ganhar p, onde 1 > p > 0, e no apenas 1/2. De maneira
anloga, denote por p(c) a probabilidade de bancarrota, quando se comea
com capital c. Condicionando, determine a equao
i i
i i
i i
P ( G1 ({X0 = a0 , X1 = a1 , .., Xk = ak } ) ).
Fica assim denida a probabilidade PT sobre S N .
i i
i i
i i
tico {Ym }mN tal que Ym = XT +m se torna uma Processo de Markov (com
Mais precisamente,
i i
i i
i i
P ({T = n} {XT = i} )
=
P ({T < } {XT = i} )
P ({T = n} {XT = i} )
P (X0 = s0 , X1 = s1 , ..., Xm = sm ) =
nN
P ({T < } {XT = i})
Pi (X0 = s0 , X1 = s1 , ..., Xm = sm ).
i i
i i
i i
0 = P (XT +1 = 3 | XT = 1 ) =
P (X1 = 3 | X0 = 1) = P13 > 0,
o que uma contradio.
Este resultado nos mostra que necessrio ser bastante cuidadoso no uso
de nossa intuio. Olhando de maneira supercial, somos levados a crer pela
propriedade fraca de Markov" que aps atingir no tempo aleatrio T o valor
1, o processo comea a partir da com completa perda de memria do passado
e com a lei inicial determinada pela cadeia de Markov. Isto s vale se o tempo
aleatrio T um tempo de parada. A denominao propriedade forte de
Markov se deve ao fato de utilizarmos no resultado acima um tempo de parada.
P (X1 Cr | X0 Cr ) = 1.
De fato,
P (X1 Cr | X0 Cr ) =
P (X1 Cr , X0 Cr )
=
P (X0 Cr )
P (X1 Cr , X0 Cr ) + P (X1 S Cr , X0 Cr )
=
P (X0 Cr )
i i
i i
i i
P (X0 Cr )
= 1.
P (X0 Cr )
Usamos acima o fato que Cr fechado e assim P (X1 S Cr , X0 Cr ) = 0.
Suponha agora que para k xo
Ento,
i i
i i
i i
C0 fechada; C1 e C2 no so fechadas
i i
i i
i i
Figura 2.10:
1 1 1 3
P (1, 1) + P (1, 3) = + = 1 = + = P (3, 1) + P (3, 3)
2 2 4 4
Logo, a C.M. no irredutvel
b) Agora vamos analisar a Periodicidade.
d(1) = mdc {1, 2, 3, 4, } = 1 = d(3)
Os estados so aperidicos.
i i
i i
i i
( )2
n 1 11 131 1 3 1
E1 (T1 ) = n f11
= +2 +3 +4
n1
2 24 244 2 4 4
( )3 ( )
1 1
n
1 3 1 3 1 3
+5 + = + n = + =2
2 4 4 2 8 n=0 4 2 2
Observao : Se mostrarmos que C0 = {1, 3} irredutvel e aperidica com
uma nica distribuio estacionria, ento ela uma classe recorrente positiva.
Observe que:
( )
1/2 1/2
P1,3 =P= .
1/4 3/4
1 1
P0 = (1) + (3) = (1) 2(1) 4(1) + (3) = 0
2 4
2(1) = (3)
e
1 3
(1) + (3) = (3).
2 4
1
2(1) = 1 (1) 3(1) = 1 (1) = .
3
( )
1 2
Logo, = , .
3 3
i i
i i
i i
i recorrente P n (i, j) =
n1
i transiente P n (i, j) <
n1
Como 2 e 4 so transientes temos que P n (i, j) < i, j = 2, 4.
n1
1/2 0 1/2 0
0 1/3 2/3 0
((1) (2) (3) (4)) = ((1) (2) (3) (4)).
1/4 0 3/4 0
0 0 1/2 1/2
1 1
(1) + (3) = (1)
2 4
1
(2) = (2)
3
= =
1 2 3 1
(1) + (2) + (3) + (4) = (3)
2 3 4 2
1
(4) = (4)
2
i i
i i
i i
r0 po 0 0 0
q1 r 1 p 1 0 0
P=
0 q 2 r2 p2 0
,
0 0 q r p
3 3 3
.. .. .. .. ..
. . . . .
pi + qi + ri = 1.
Assumimos que pi > 0 e qi > 0 para todo i. Desta forma a cadeia sempre
irredutvel.
Os pi esto associados a taxa de nascimento e os qi a taxas de morte (se a
populao i). Uma pergunta natural o que vai acontecer com a populao
se o modelo descrito por tal sistema de taxas. Em termos estatsticos, vai
ocorrer extino ou a populao cresce sem limites?
i i
i i
i i
i i
i i
i i
(0) = (0) r0 + (1) q1
(j) = (j 1) pj 1 + (j) rj + (j + 1) qj + 1 , j 1.
Como, pi + qi + ri = 1 as equaes em se reduzem a
qi (1) po (0) = 0
qj + 1 (j + 1) pj (j) = qj (j) pj 1 (j 1) , j 1.
Segue que
qj + 1 (j + 1) pj (j) = 0 j 0
pi
= (j + 1) = (j) j 0
qj + 1
p0 , p1 , , pi 1
= (j) = j 1.
q1 , q 2 , , q j
Portanto,
(0) se j = 0
(j) =
p , p , , pj 1
o i (0), se j 1
q1 , qj
Como buscamos tal que (j) = 1 , temos que
j 0
p0 pj 1
1 = (0) + (0) =
j 1
q1 qj
1
(0) = =
p0 pj 1
1 +
j 1
q1 qj
1
=
p0 pj 1
j 0
q1 qj
Obtemos assim a expresso do termo geral,
i i
i i
i i
p0 p1 pj 1
q 1 qj
(j) = (2.9)
p0 p1 pj 1
j 0
q 1 qj
p0 pj 1
Ento, se < , a cadeia tem uma nica distribuio
j 0
q1 qj
estacionria dada pela expresso que obtivemos antes.
p0 pj 1
Se = , ento qualquer soluo ou identicamente
j 0
q1 qj
nula ou tem soma innita.
Se d = #S nito, procedendo de maneira similar se obtem que a dis-
tribuio estacionria nica e dada por
p0 pj 1
q1 qj
(j) = d , 0 j d.
p0 pi 1
i=0
q 1 qi
i i
i i
i i
Note que se
Logo, podemos usar o Teorema 2.17 para concluir que 1 recorrente. Desta
forma, neste caso, todo estado i S recorrente.
Assumindo a validade do lema 2.2 (demonstrao em breve) podemos
seguir. Vamos mostrar que sob a hiptese
q1 q2 qr
= ,
p p pr
r=1 1 2
ento
P (T0,1 < | X0 = 1) = 1.
P (T0,i < | X0 = i) = 1.
i i
i i
i i
qi (i 1) = qi [ (i) (i 1)] .
Assim,
qi
[ (i + 1) (i) ] = [ (i) (i 1)].
pi
Portanto, procedendo indutivamente quando i > a
qi qi1 qa+1
(i + 1) (i) = [ (a + 1) (a)]
pi pi1 pa+1
Seja
q1 q2 qr
r = e 0 = 1.
p1 p2 pr
Assim,
i
(i + 1) (i) = ( (a + 1) (a) ) ().
a
Somando a igualdade (*) sobre i entre a e b 1, atravs de cancelamentos,
temos
i i
i i
i i
b1
1
0 1 = (b) (a) = [ (a + 1) (a) ] i .
a i=a
Desta forma,
a
(a + 1) (a) = b 1 .
i=a i
i
(i + 1) (i) = b 1 ,
j =a j
para todo i tal que, a i < b.
Somando sobre j , entre i e b 1, atravs de cancelamentos, temos
b 1
j =i i
0 (i) = (b) (i) = b 1 .
j =a j
Conclumos assim que
b1
j=i j
Pi (Ta < Tb ) = (i) = b1 .
j=a j
Para i e a xos, a < i, seja b = n e vamos fazer n tender a innito. Suponha
que j=a j = , ento
n1 n1
j=i j j=i j
lim (i) = lim n1 = lim i1 n1 =
n n
j=a j n
j=a j + j=i j
1
= lim i1 n1 = 1.
n j=a j j=i j
n1 + n1
j=i j j=i j
i i
i i
i i
P (T0,i < | X0 = i) = 1.
Note que se acontecer de j=a j = , ento a cadeia transiente. De
fato, neste caso, fcil ver, a partir da expresso acima, que
n1
j=i j
lim (i) = lim n1 < 1.
j=a j
n n
S = {0, 1, 2, . . . },
denida por
i+2
pi =
2(i + 1)
e
i
qi = ,
2(i + 1)
para todo i 0.
Vamos mostrar que a cadeia transiente. De fato, note que qi
pi
= i
i+2
. Logo,
1, 2, , i 2
i = = = .
3, 4, , (i + 1) (i + 2) (i + 1) (i + 2)
1 1
= 2( ).
i+1 i+2
Ento
( 1 1
)
i = 2 =
i1 i1
i+1 i+2
i i
i i
i i
( )
1 1 1 1 1 1
= 2 + + + =
2 3 3 4 4 5
1
= 2. = 1 < .
2
Logo, a cadeia transiente.
Vamos agora demonstrar o lema 1.2 que havia sido mencionado antes.
Demonstrao: De fato, vamos demonstrar que se
ento,
1
P1 (A) = lim P1 (T0 < Tn ) = 1 .
n
j
j 0
Sabemos que
n 1
j
j =1 0
(1) = P1 (T0 < Tn ) = = 1 =
n 1 1
n
j j
j =0 j =0
1
= 1 , (2.10)
n 1
j
j =0
J que 0 = 1.
i i
i i
i i
i i
i i
i i
estabelece a princpio que vai parar quando seu capital atingir o valor 35 reais,
ou que os resultados so tais que perde os dez reais iniciais, e assim atinge o
capital zero. Vamos obter aqui solues explcitas.
Primeiro vamos calcular a probabilidade do jogador atingir os 35 reais.
Considere Xn o capital do jogador no instante n, sendo assim temos que
X0 = 10.
Usando a notao acima, (Xn )n 0 forma uma cadeia de Markov de Nasci-
mento e Morte com S = {0, 1, 2, . . . , 35},
pi = 9/19, 0 < i < 35, razo de nascimento;
qi = 10/19, 0 < i < 35, razo de morte;
ri = 0, 0 < i < 35.
Note que o jogador estabeleceu a priori que 0 e 35 so estados absorventes.
Neste caso, usando a notao acima, a = 0, b = 35 e i = 10.
Ora, P10 (T35 T0 ) = 1 (10) e
34
i ( )i ( )i
i = 10 q1 , , q i 10/19 10
(10) = 34 onde i = = = .
p1 , , p i 9/19 9
i
i=0
Assim,
9
9
i (10/9)i
i=0 i=0 1 (10/9)10
1 (10) = = = = 0, 047.
34 34 1 (10/9)35
i (10/9)i
i=0 i=0
Desta forma, a probabilidade do jogador atingir o capital 35 reais de
0.047.
Com probabilidade 1 os caminhos atingem o valor 0 ou o valor 35. Logo, a
probabilidade do jogador atingir o capital 0 0, 953.
Vamos calcular o ganho esperado.
i i
i i
i i
Ora, ele perde dez reais, ou seja seus ganhos so 10 reais com probabili-
dade 0, 953. Seus ganhos so +25 reais com probabilidade 0, 047.
e
0 px1 ,x2 (x3 ) 1.
i i
i i
i i
tal que
p0x1 ,x2 = 1,
x0 ,x1 S
se assumirmos que
p0x0 ,x1 = P (X0 = x0 , X1 = x1 ),
ca determinado de maneira nica o processo Xt , ou seja, podemos calcular
P (X0 = x0 , X1 = x1 , ..., Xm = xm ),
i i
i i
i i
Seja agora a matriz P = (p(i, j))i,j{1,2,3,4} , da forma 4 por 4, tal que traduz
a informao que nos foi concedida. Por exemplo, p(2, 3) = p1,2 (1) ou seja, do
par (1, 2) se passa para 1 com probabilidade p1,2 (1). Ainda, p(3, 4) = 0, pois
no se pode passar de (2, 1) para (2, 2), visto que a segunda entrada (2, 1) no
igual a primeira de (2, 2).
Neste caso,
p(1, 1, 1) p(1, 1, 2) 0 0
p(1, 2, 1) p(1, 2, 2)
0 0
P= ,
p(2, 1, 1) p(2, 1, 2) 0 0
0 0 p(2, 2, 1) p(2, 2, 2)
ou seja,
p(1, 1) p(1, 2) p(1, 3) p(1, 4)
p(2, 1) p(2, 2) p(2, 3) p(2, 4)
P= .
p(3, 1) p(3, 2) p(3, 3) p(3, 4)
p(4, 1) p(4, 2) p(4, 3) p(4, 4)
Note que se os oito nmeros p(i, j, k) inicialmente dados forem todos posi-
tivos ento P 2 , da forma 4 por 4, tem todas as entradas positivas e assim P
regular.
Pode-se considerar tambm 3-cadeias de Markov ou at n-cadeias de Markov.
Todos estes casos recaem no estudo de cadeias de Markov atravs de um pro-
cesso de rebatizar n-uplas de smbolos, em tudo similar ao descrito acima.
Dizemos que a cadeia de Markov tem ordem n no caso correspondente. O
caso inicialmente analisado por ns eram as 1-cadeia de Markov. Estamos
armando acima que toda n-cadeia de Markov pode ser analisada atravs de
uma 1-cadeia de Markov.
Voltando agora ao exame de problemas concretos (com conjunto de estados
S ) oriundos do mundo real, podemos nos perguntar num problema especco
se o modelo correto a ser considerado uma 1-cadeia de Markov, ou uma 2-
cadeia de Markov, ou ento uma 3-cadeia de Markov, etc. Quanto maior for
i i
i i
i i
2.12 Exerccios
1. Considere um jogador que ganha ou perde uma unidade com probabili-
dades p e q, respectivamente. Suponha que o seu capital inicial x e que
o seu adversrio tem um capital de a-x, a x (portanto, o capital inicial
total a). O jogo continua at que um dos jogadores que arruinado, ou
seja, at que o primeiro jogador aumente seu capital at a ou perde x.
i i
i i
i i
i i
i i
i i
4. Trs tanques lutam entre si. O tanque A atinge seu alvo com probabil-
idade 1/2, o tanque B com probabilidade 2/3 e o tanque C com prob-
abilidade 1/3. Tiros so dados simultaneamente e quando um tanque
atingido, ele ca fora de ao. Como conjunto de estados escolha o
conjunto de tanques ainda em ao. Suponha que em cada passo (ou
etapa), cada tanque atira em seu oponente mais forte.
i i
i i
i i
c. Qual a distribuio n ?
i i
i i
i i
9. Um jogador tem 2.00 dlares. Ele aposta 1,00 dlar de cada vez e ganha
1,00 dlar com probabilidade 1/2. Ele pra de jogar se perder os 2,00
dlares ou ganhar 4.00 dlares.
i i
i i
i i
a. Descreva a v.a. Xn , n 1.
b. Descreva o espao de estados S .
c. Determine a matriz de transio de (Xn ; n 1).
P (i, j) = 1 3i , j = 1 + i
0 , j = i 1 e j = i + 1.
a. Encontre P , P 2 , P 3 .
b. Supondo que a distribuio inicial dada por 0 = ( 14 , 41 , 14 , 14 ). en-
contre as distribuies 1 , 2 , 3 .
13. Mostre que se a um estado absorvente da C.M. (Xn )n0 ento P n (i, a) =
P (Xn = a)/X0 = i) = Pi (Ta n), n 1.
i i
i i
i i
16. Considere a C.M. (Xn )n1 cuja matriz de transio dada por
0.4 0.6 0
P = 0.3 0 0.7 .
0 0 1.0
i i
i i
i i
17. Para suas frias anuais, um executivo seleciona um dos trs lugares: Eu-
ropa (E), Hava (H) ou Grcia (G) usando a seguinte regra.
Se ele foi Europa no ano passado, escolher o Hava com probabilidade
1/3 e Grcia com probabilidade 2/3.
Se ele foi ao Hava no ano anterior, escolher Europa, Hava novamente
e Grcia com probabilidades 1/2, 1/8 e 3/8, respectivamente.
Se ele foi Grcia no ano anterior, Europa e Hava so igualmente
provveis de serem escolhidas este ano.
'$
f f
f
&%
i i
i i
i i
19. Seja (Xn )n0 uma C.M. com espao de estados {1,2,3,4} e matriz de
transio
1/2 1/2 0 0
1 0 0 0
P= .
0 1/3 2/3 0
1/2 0 1/2 0
a. Calcule fii , i S .
b. Classique os estados.
i i
i i
i i
21. Seja (Xn )n0 uma Cadeia de Markov com dois estados (0 e 1) cuja prob-
abilidade de transio de 0 para 1 p e de 1 para 0 q .
a. Prove que
n1
(0) = (1 p q) (0) + q
n n 0
(1 p q)j .
j=0
i i
i i
i i
23. Considere (Xn )n0 uma C.M. com matriz de transio dada por
0 0 1/2 1/2 0
0 0 1 0 0
P= 1 0 0 0 0 .
1/9 0 3/9 0 5/9
1/9 0 0 5/9 3/9
i i
i i
i i
26. Seja (Xn )n0 uma C.M. com espao de estados S={1,2,3,4,5} e matriz
de transio dada por
i i
i i
i i
0 1 0 0 0
1/3 0 0 2/3 0
P=
1/2 0 1/2 0 0 .
1 0 0 0 0
3/8 0 3/8 0 2/8
a. Classique os estados.
b. Obtenha a distribuio limite quando n +.
c. Encontre o tempo mdio de recorrncia para todos os estados recor-
rentes.
27. Considere a C.M. (Xn )n0 cuja matriz de transio dada por
1/4 3/4 0
P = 1/3 1/3 1/3
0 1/4 3/4
28. Seja (Xn )n0 uma C.M. com espao de estados S = N {0} e matriz de
transio dada por
1/2 1/2 0 0 ...
1/2 0 1/2 0 . . .
P=
.
1/2 0 0 1/2 . . .
.. .. .. ..
. . . .
a. Obtenha f11
n
e f11 .
i i
i i
i i
0 1 0 0
0 1/2 1/2 0
P= .
0 1 0 0
0 1/4 0 3/4
30. Suponha que existam duas urnas 1 e 2 e 2d bolas das quais d so brancas
e d so azuis. Inicialmente d bolas so colocadas na urna 1 e as restantes
na urna 2. A cada ensaio, uma bola escolhida ao acaso de cada uma
das urnas e elas so trocadas de lugar. Dena Xn = nmero de bolas
azuis na urna 1 aps n ensaios.
31. Um equipamento pode estar em uma das trs seguintes situaes: funcio-
nando (F), em conserto (C) ou parado (P) esperando por mais trabalho.
Este equipamento observado sempre que h uma mudana de estados
(situaes). Considere Xn = o estado aps a n-sima mudana. Suponha
que
i i
i i
i i
0 1/2 1/2
P= 1 0 0 .
1 0 0
a. Calcule P 2 , P 3 , P 4 e P 5 .
b. Classique os estados.
e. Calcule E0 (N (2)).
33. Seja (Xn )n0 uma C.M. com espao de estados S = {1, 2, 3, 4} e matriz
i i
i i
i i
de transio
1/2 1/6 1/6 1/6
0
0 0 1
P= .
0 0 0 1
1 0 0 0
d. Compare os itens b e c.
34. Seja (Xn )n0 uma C.M. com espao de estados S = {1, 2, 3, 4, 5} e matriz
de transio
0 1 0 0 0
1/2 0 0 1/2 0
P= 1/3 0 2/3 0 0 .
1 0 0 0 0
1/4 0 1/4 0 1/2
a. Classique os estados.
35. Seja (Xn )n0 uma C.M. com espao de estados S = {0, 1, 2, 3, } e
matriz de transio
i i
i i
i i
0 1 0 0 0 ...
1/4 0 3/4 0 0 . . .
P=
.
1/4 0 0 3/4 0 . . .
.. .. .. .. ..
. . . . .
a. Classique os estados.
b. Encontre a distribuio limite, se existir.
36. Considere duas urnas U1 e U2 . A soma do nmero de bolas que esto nas
duas urnas N . Uma pessoa escolhe ao acaso uma bola (todas as bolas
tem a mesma probabilidade de serem escolhidas) da totalidade destas N
bolas (independente da urna em que esto). Ento se joga uma moeda
com probabilidade p de cair 1 (cara) e com probabilidade 1 p de sair 2
(coroa). A bola selecionada anteriormente depositada na urna U1 ou U2 ,
dependendo se saiu respectivamente 1 ou 2 quando jogamos a moeda. O
procedimento repetido indenidamente. Tome o conjunto de estados S
como S = {0, 1, 2, 3, ...N } e assuma que cada s S descreve o nmero de
bolas na urna U1 . Determine a cadeia de transio de Markov associada
ao procedimento.
37. Seja uma matriz estocstica P do tipo n por n. Mostre que se o estado i
pode ser atingido a partir de j (isto , existe k > 0 tal que (P k )j,i > 0),
ento existe r (n 1), tal que (P r )j,i > 0).
38. Considere o passeio aleatrio sobre os inteiros tal que para todo i Z
vale Pi,i+1 = p, Pi,i1 = 1 p e Pi,j = 0 para os outros casos de j Z.
Calcule (P m )0,0 e a seguir determine a funo geradora
P (s) = (P m )0,0 sm .
m=0
i i
i i
i i
= (w0 , w1 , w2 , ...),
P (s) = P (T0 = m) sm .
m=0
i i
i i
i i
Convergncia de Variveis
Aleatrias
Neste captulo vamos descrever alguns dos vrios sentidos em que uma se-
quncia de variveis aleatrias pode convergir a uma outra xada. Diversos
problemas em Probabilidade e Estatstica dependem do correto entendimento
destas questes.
Lembre que neste texto para analisar um Processo Estocstico tomando
valores em um conjunto S R consideramos uma probabilidade P sobre o
conjunto = S N . Ainda, se = (w0 , w1 , w2 , ..., wn , ...) = S N , ento, como
dissemos antes, assumiremos que Xn (w) = wn .
O valor esperado de , denotado por E(), a integral (w)dP (w). Se o
leitor desejar pode ver a formulao rigorosa no captulo 5 mas isto no ser
necessrio para o presente captulo.
Lembre que quando : R toma valores num conjunto nito este valor
E() obtido via a denio 1.13 (que consistente com o captulo 5). No caso
em que o espao de Bernoulii = {1, 2, ..., d}N e constante, digamos
nos cilindros de tamanho k xo, ento s toma nitos valores, e se pode usar
o caso mais simples da denio e que mencionado acima.
Por exemplo, se P uma probabilidade de Markov, k = 3 (acima), e tem
227
i i
i i
i i
1
lim (X1 () + + Xn ()) E(X1 ).
n n
Recomendamos o leitor a [GS] e [HPS] para uma descrio mais detalhada
do assunto.
O seguinte exemplo ilustrativo.
i i
i i
i i
de probabilidade 1, quando n ,
1 1
Sn () = (X1 () + + Xn ()) E(X1 ) = .
n 2
Isto porque sabemos, intuitivamente, que se jogarmos a moeda muitas
vezes, mais ou menos metade das vezes obteremos cara. Nesta seo desejamos
fazer armaes que sejam vlidas, por exemplo, para caminhos num con-
junto K S N = {0, 1}N , tal que P (K) = 1. Esta seria a maneira Matemtica
de formalizar o que indica a nossa intuio. Outras formas mais fracas desta
armao tambm so teis.
i i
i i
i i
q.c.
Denio 3.2 (Convergncia Quase Certamente). Denotamos Yn Y ,
P ({ | lim Yn () = Y ()}) = 1.
n
O ltimo conceito acima descreve de outra forma o fato que para valores
grandes de n, as variveis aleatrias Yn e Y so aproximadamente iguais. Os
dois conceitos nem sempre coincidem.
p
Teorema 3.1. Yn Y quase certamente Yn Y .
A0 An = lim An isto , An n1 An .
n1 n
Logo,
1 = P (A0 ) 6 P ( An ) , e, ento, P (An ) 1.
n>1
p q.c.
Exemplo 3.2. Yn Y mas Yn 9 Y . Considere a sequncia de conjuntos
[ ] [ ] [ ] [ ]
1 1 1 3
I1 = [0, 1], I2 = 0, , I3 = , 1 , I4 = 0, , , I7 = , 1
2 2 4 4
i i
i i
i i
e mais geralmente, [ ]
i i+1
I2m +i = m, m .
2 2
Dena {
0, se X
/ In
Yn =
1, se X In .
p
(i) Yn 0.
De fato: P (|Yn 0| ) = P (Yn = 1) = P (X In ) = i+1
2n
2in = 1
2n n
0.
q.c.
(ii) Yn 9 0
De fato: P (Yn 9 0) = 1, j que Yn = 0 ou 1, para innitos n.
P ({w ; Yn (w) 9 0}) = P ({w ; Yn (w) = 0 ou 1 , para innitos n }) =
P () = 1.
( )
Sn E(Sn )
P
n 0, > 0.
i i
i i
i i
E(g(X))
P (X a) .
g(a)
Demonstrao: Segue de imediato de
Sn E(Sn ) p
0.
n
Demonstrao: Usando a desigualdade de Chebishev acima para X = |Sn
i i
i i
i i
mum . Ento,
Sn p
.
n
Teorema 3.5 (Lei Forte de Kolmogorov). Seja (Xn )n1 sequncia de vari-
Var (Xn )
veis aleatrias independentes e integrveis tais que n2
< . Ento,
n1
Sn E(Sn ) q.c.
vale a Lei Forte dos Grandes Nmeros, isto , n
0.
Idia Intuitiva:
i i
i i
i i
w lim sup An .
aleatrios em (, A, P ), isto , An A, n.
(a) Se P (An ) < ento P (lim sup An ) = P (An innitas vezes)=0.
n1
(b) Se (An )n1 uma sequncia de eventos independentes tais que P (An ) =
n1
, ento P (An innitas vezes)=1.
Demonstrao:
(a) Se P (An ) < limn P (Ak ) 0.
n1 k=n
Observe que
( ) ( ) ( )
P (An innitas vezes)= P Ak = P lim Ak = lim P Ak 6
n1 k=n n k=n n k=n
6 lim P (Ak ) = 0, pois P (Ak ) < lim P (Ak ) = 0.
n k=n n1 n k=n
Logo, P (An i.v.)=0.
i i
i i
i i
(b) Se A = lim sup An = lim Ak = Ak ento, Ac = Ack
n n k=n n1 k=n n1 k=n
de tal modo que
( ) ( ) ( )
c
P (A ) = P Ack = P lim Ack = lim P Ack .
n1 k=n n k=n n k=n
n0
Para n0 > n observamos que Ack Ack e, portanto,
k=n k=n
(
) ( n0 )
n0
n0
P Ack = lim P Ack = lim P (Ack ) = lim (1 P (Ak ))
k=n n0 k=n n0 n0
k=n k=n
(
)
pois a srie P (An ) diverge. Portanto, P (Ac ) = lim P Ack = 0, o
n1 n k=n
que implica em P (A) = 1.
Exemplo 3.3. Seja uma cadeia de Markov com conjunto de estados S . Seja
i em S e suponha que P (X0 = i) = 1. Para cada n, considere o subconjunto
de , dado por An = {|Xn () = i}.
Se n P (An ) < , pelo Lema de Borel-Cantelli (a), temos que
i i
i i
i i
p q.c.
Exemplo 3.5. Pode acontecer que Yn 0, mas Yn 9 0.
Considere X1 , X2 , independentes e identicamente distribudas tais que
Xn E(1).
Dena Y1 = X1 e Yn = ln(n) Xn
, para n > 1.
p
(i) Yn 0 j que P (|Yn | ) = P (|Xn | | ln(n)|) = P (Xn ln(n)) =
1 P (Xn 6 ln(n)) = 1 (1 e ln(n) ) = e ln(n) = eln(n) = n = n1
n
0.
q.c.
(ii) Yn 9 0. De fato:
se 0 < < 1.
i i
i i
i i
( )
Sn
P lim = = 1.
n n
Demonstrao:
Dena ( )
n n!
=
a1 , ...,ak a1 !...ak !
Observe que
[ ]4
n
(Xi ) =
i=1
n ( )
(Xi ) + 4
4
(Xi )3 (Xj )+
3,1
i=1 i=j
i i
i i
i i
( )
4
(Xi )2 (Xj )2 +
2,2
i=j
( )
4
(Xi ) (Xj )(Xk )2 +
1,1,2
i=j=k e i=k
( )
4
(Xi ) (Xj )(Xk ) (Xs ).
1,1,1,1
i,j,k,s distintos
()
ento E[ (Xi )]4 = E[ (Xi )4 ] + 4 E (Xi )2 (Xj )2 =
2 i=j
n E(X1 ) + 6 4
E(Xi ) E(Xj ) = n E(X1 )4 +
2 2 6 n(n1) 2 2
2
=
i=j
n E(X1 )4 + 63 n(n 1) 4 6 Cn2 .
Portanto, E[ (Xi )]4 6 Cn2 .
A desigualdade de Markov arma que para a > 0 e > 0 dados
|X| dP
P ({|X| > a}) = P ({|X| > a })
.
a
A demostrao deste fato segue de considerar a funo indicador de {|X| >
a }.
Pela Desigualdade de Markov, temos que
{ n }
E{ (Xi )}4 Cn2 c1
C
P (Xi ) > n 6 6 = = .
n4 4 n 4 4 n2 4 n2
i=1
c
Neste caso, P (|Sn n| > n) 6 n2
e ento
c
P (|Sn n| > n) 6 2
< pois a srie n2 converge.
n1 n1
n n1
i i
i i
i i
onde { }
Sn
A = lim sup > .
n n
Observe ainda que os conjuntos A crescem, medida que 0, para o
conjunto {w; Snn 9 }. Fazendo 0 atravs de um conjunto enumervel de
valores temos que
( ) ( )
Sn
P 90 = P A 1 = 0.
n kN k
Portanto,
( ) ( )
Sn Sn (w)
P 0 = 1, ou seja, P {w | lim = } = 1.
n n n
camente distribudas
( tais
) que P (|Xn | < K) = 1 para todo n, onde K R e
Sn q.c.
K > 0, ento n .
Exemplo 3.6. Fixe > 0. Assim se jogarmos uma moeda que tem probabil-
idade de sair cara (associada ao nmero 1) e 32 de sair coroa (associada ao
1
3
nmero 2) uma quantidade n de vezes, ento, a probabilidade que a mdia de
vezes que sai cara (nas n jogadas) que distante do valor 13 vai a zero com
n . Esta armao a Lei Fraca dos Grandes Nmeros. Isto porque jogar
uma moeda vrias vezes seguidas descrito por um processo independente.
Dito de outra forma
nmero de vezes que saiu cara em n jogadas 1
lim P ({ | | > } ) = 0.
n n 3
i i
i i
i i
Ou, ainda,
n1
j=0 I1 (wj , wj+1 , ...) 1
lim P ({w = (w0 , w1 , ..., wk , ...) tal que | | > }) = 0,
n n 3
onde I1 a funo indicador do cilindro 1 (lembre que I1 (w) = 1, se e s se
w = (w0 , w1 , ..) comea com 1).
Note que os conjuntos da forma
nmero de vezes que saiu cara em n jogadas 1
{w , | | > }
n 3
com n xo, dependem s das n primeiras coordenadas de cada w.
Podemos ainda ver o enunciado acima da seguinte forma: seja Xj : {1, 2}N
{0, 1} R, j 0, dado por Xj (w) = I1 (wj , wj+1 , ..., wk , ...).
Ento vale
n1
j=0 Xj (w) 1
lim P ({w tal que | | } ) = 0.
n n 3
A Lei Forte dos Grandes Nmeros arma que existe um conjunto K
{1, 2}N de probabilidade 1 tal que para qualquer w = (w0 , w1 , ..., wk , ...) K
vale que n1
j=0 I1 (wj , wj+1 , ..., wk , ...) 1
lim = .
n n 3
Ou, ainda n1
j=0 Xj (w) 1
lim = .
n n 3
Este resultado segue do Teorema 3.6 ou 3.7 acima. Ele tambm pode ser
obtido do Teorema Ergdico (ver Exemplo 5.21) que ser discutido na seo
5. Isto porque, como veremos, um processo independente ergdico.
Note que o conjunto
n1
j=0 I1 (wj , wj+1 , .., wk ..) 1
{w = (w0 , w1 , w2 , w3 , .., wk ..) | lim = }=
n n 3
i i
i i
i i
n1
Xj (w) j=01
= { w | lim = },
n n 3
em que necessitamos explicitar a sua probabilidade no um cilindro (de-
pende das innitas coordenadas de cada w).
Ento,
q.c.
Xn 0 P (|Xn | > ) < , para todo > 0.
n1
Demonstrao: (=)
Consideremos os eventos Ak = {|Xn | > }. Por hiptese, (An )n1 uma
sequncia de eventos independentes.
q.c.
Suponha que Xn 0. Ento, Xn 0 em um conjunto E c com P (E) = 0.
Um ponto w E c pertence somente a um nmero nito de eventos An . Segue
ento que
lim sup An E.
n
(=)
i i
i i
i i
Ento,
q.c.
Xn X P (|Xn X| > ) < , para todo > 0.
n1
X : (, A, P ) (R, R),
X (A) = P (X 1 (A)),
i i
i i
i i
FX (x) = F (x) = P (X x) = X ( (, x) ).
para todo x.
i i
i i
i i
usual na literatura expressar x2 fX (x) dx como x2 d FX (x) .
Denio 3.6. Seja X : R varivel aleatria denida no espao de
probabilidade (, A, P). A funo X (t) (tomando valores complexos) dada
por
X (t) = E(e itX
)= itx
e dFX (x) = cos(t x)dFX (x) + i sin(t x)dFX (x),
para todo t R, dita ser funo caracterstica de X , onde i= 1.
Conforme exemplo 3.20 a funo caraterstica de uma varivel aleatria X
que possui distribuio Gaussiana com mdia e varincia
X (t) = e i t 2
1 2 t2
.
i i
i i
i i
i i
i i
i i
Sn n
n 2
converge em distribuio a uma varivel gaussiana com mdia zero e varincia
i i
i i
i i
Sn n b
1 b
x2
lim P (| (a, b)) = (x)dx = e 2 dx,
n n 2 a 2 a
i i
i i
i i
Como,
(n)
lim t2
= 0,
n
n
dado > 0, para n sucientemente grande, temos que
1
(n) < ( ) t2 ,
n
ou seja,
1 t2
< .
( n1 ) (n)
t2
Ora, como para t xo, 1 2n
1 quando n , ento
1 (n) (n) 1
0 lim inf log( 1 + ) lim inf log( 1 + ) t2 =
( 1 2n) ( 1 2 n ) (n)
t2 t2
n 1/n n
i i
i i
i i
(n) 1
= lim inf log( 1 + ) t2 .
( 1 2t n ) (
2 (n)
n )
2
( 1 2t n )
log( 1 + x)
lim = 1.
x0 x
Sendo assim para todo > 0 vale que
1 (n)
0 lim inf log( 1 + ) t2 .
n 1
n ( 1 2n)
t2
Logo,
1 (n)
lim inf log( 1 + ) = 0.
1
( 1 2t n )
2
n
n
O mesmo procedimento pode ser feito para o lim sup. Sendo assim
1 (n)
lim log( 1 + ) = 0,
n 1 ( 1 2t n )
2
n
Ora,
x2 dF (x) = 1 < ,
i i
i i
i i
por hiptese.
Dado > 0, seja a > 0 tal que
1 E(X12 )
= < /2.
a4 a4
Ora
i s X1 () i s X1 ()
X1 (s) = e dP () = e dP () + ei s X1 () dP ().
|X1 |<a |X1 |a
Pela frmula de Taylor, dado 2 a2 , seja > 0 tal que se y < ento
r(y)
y2
< 2 a2 .
Tomando 1 = a , obtemos que se 0 < s < 1 , ento s |X1 ()| < s a < ,
para tal que |X1 ()| < a.
Isto d conta do termo |X1 |<a ei s X1 () dP () < /2, em funo da ex-
presso acima (formula de Taylor).
De fato, para cada xo em |X1 ()| < a, aplicamos a formula de Taylor
para y = sX1 () e obtemos
Logo,
R(s) r(s X1 ())
2
= 2
.
s s 2
O resultado segue por integrao em P sobre o conjunto {|X1 ()| < a}.
Finalmente, pela desigualdade de Chebyschev,
| e i s X1 ()
dP ()| < |ei s X1 () | dP () = P (|X1 | a) =
X1 a |X1 |a
1
P (X12 > a2 ) < < /2.
a4
i i
i i
i i
X (t) = P(X = k)tk = fX (k)tk ,
k0 k0
i i
i i
i i
Exemplo 3.8. Considere a varivel aleatria X , tal que para 0 < p < 1, vale
fX (k) = pq , onde q = p 1. Determinaremos X ().
k
Observe que
X (t) = fX (k)tk = pq k tk = p (qt)k
k0 k0 k0
1
= p , (3.2)
1 qt
para todo |t| 1.
Observao: X (1) = 1 e X () absolutamente e uniformemente convergente
em |t| 1.
Atravs da funo geradora de probabilidades X () podemos determinar
a esperana e a varincia de X . De fato:
(i) X (t) = k1 kfX (k)tk1 e X (1) = E(X).
(ii) X (t) = k2 k(k1)fX (k)tk2 = k2 k 2 fX (k)tk2 k2 kfX (k)tk2 ,
i i
i i
i i
Portanto, EX 3 =
X (1) + 3X (1) 2X (1).
Ainda,
( ) ( )
r r
X (1) + + (r 1)X (1).
(r) (r1) (r2)
EX r = X (1) + X (1)
1 2
2
X (1) = E(X) = pq . Como X (t) = (1qt)
pq
3 (2q), temos que X (1) = 2 p3 =
pq
2 2 q2
2 pq 2 . Portanto, pela expresso (3.3) obtemos V ar(X) = 2 pq 2 + q
p
p2
= q
p2
.
i i
i i
i i
MX (t) = E(e ) = tX
etx dFX (x) =
xn d FX (x) n
Xn d P n
[ ]t = [ ]t ,
n=0
n! n=0
n!
6 1 6 2
fX (x) = = = 1.
x1
2 x1 x2 2 6
No entanto,
6 tx 1
MX (t) = E(etX ) = etx fX (x) = e = ,
x1
2 x1 x2
i i
i i
i i
Observe que
MX (t) = E(etX ) = etx fX (x)
x0
(et )x
= e = e e e = e(1e ) ,
t t
(3.6)
x0
x!
para todo t R.
i i
i i
i i
Observaes:
(k)
MX (t)|t=0 = E(X k ),
para todo k N.
e ainda
[ ( )2 ( )1
2
E(X ) =2
MX (t)|t=0 = ( 1) +
t ( t)4 t
]
2 (1) ( 1) 2 2 +
= + 2 = . (3.10)
( t)3 t=0 2 2
i i
i i
i i
Portanto,
2 + 2
V ar(X) = E(X 2 ) [E(X)]2 = 2
2 = 2.
n
MSn (t) = MXi (t). (3.11)
i=1
i=1
n
n
= E(et Xi ) = MXi (t), (3.12)
i=1 i=1
i i
i i
i i
mn
para todo t R. Ento, MSm (t) = (et p + q) , para todo t R, pela expresso
(3.11).
(X, Y ) : R2 .
P ( {w | (X, Y )(w) C} ) ?
MX,Y (t1 , t2 ) = E(et1 X+t2 Y
) = et1 x+t2 y dFX,Y (x, y). (3.13)
Observaes:
i i
i i
i i
3. Observe que
para todo t1 , t2 R.
Demonstrao: (=)
Observe que
i i
i i
i i
(=)
A prova ser feita para o caso em que as variveis aleatrias X e Y so
contnuas. Se MX,Y (t1 , t2 ) = MX,Y (t1 , 0) MX,Y (0, t2 ) ento temos que
( ) ( )
t1 x+t2 y t1 x t2 y
e fX,Y (x, y) dx dy = e fX (x) dx e fY (y) dy
= et1 x+t2 y fX (x) fY (y) dx dy. (3.18)
Portanto, fX,Y (x, y) = fX (x) fY (y), para todo (x, y) R2 , e conclumos que
X e Y so variveis aleatrias independentes.
Exemplo 3.18. Considere (X, Y ) vetor aleatrio contnuo com funo densi-
dade conjunta dada por
{
e(x+y) , se x > 0 e y > 0
fX,Y (x, y) =
0, c.c .
(a) Determine MX,Y (, ). (b) Calcule E(X), E(Y ), V ar(X), V ar(Y ) e E(XY ).
Para resolver o item (a), observe que
MX,Y (t1 , t2 ) = E(e t1 X+t2 Y
)= et1 x+t2 y exy dx dy
(
0
0 ) ( )
(t1 1)x (t2 1)y (1t1 )x (1t2 )y
= e dx e dy = e dx e dy
(0
)( 0
) 0 0
1 1
= , (3.19)
1 t1 1 t2
para todo t1 < 1 e t2 < 1. Para resolver o item (b), considere as igualdades
(3.16), obtendo
i i
i i
i i
( )
MX,Y (t1 , 0) (1)(1) 1
E(X) = = = 1 = E(Y )
t1 t1 =0 (1 t1 )2 1 t2 (t1 ,t2 )=(0,0)
( )
2 MX,Y (t1 , 0) (1)(2) 1
E(X 2 ) = = = 2 = E(Y 2 )
t12
t =0=t2 (1 t1 )3 1 t2 (t1 ,t2 )=(0,0)
1
MX,Y (t1 , t2 )
2
1 1
E(XY ) = = 2 (1 t )2
= 1.
t1 t2 (t1 ,t2 )=(0,0) (1 t1 ) 2 (t1 ,t2 )=(0,0)
por
(i t x)n
X (t) = E(e itX
)= itx
e dFX (x) = dFX (x),
n=0
n!
para todo t R, dita ser a funo caracterstica de X, onde i= 1.
i i
i i
i i
que
1 z2
Z (t) = E(e itZ
)= eitz e 2 dz
2
1 12 (z 2 2itz) 1 t2
e 2 e 2 (zit) dz
1 2
= e dz =
2 2
t2
= e 2 , (3.20)
para todo t R.
Observaes:
i i
i i
i i
n
Sn = Xi .
i=1
i i
i i
i i
X (t) = MX (it) = , para todo t R.
it
Ento,
dk X (t)
X (k)
(0) = |t=0 = ik xk dFX (x) = ik E (X k ).
dtk
i i
i i
i i
temos que
1 1
X (0) = i (e(e 1) eit )|t=0 = .
it
E(X) =
i i
Como E(X 2 ) =
it1 it1
1
i2
X (0) e como X (t) = i eit i e(e ) + i eit e(e ) i eit =
it1 ) it1 )
= eit e(e 2 e2it e(e ,
temos que
it 1) it 1)
E(X 2 ) = ( eit e(e + 2 e2it e(e )|t=0 = + 2 .
X : Rk C
denida por
( { })
k
( )
X (t1 , , tk ) = E exp i tj Xj = E ei <t,X> ,
j=1
i i
i i
i i
k
onde < t, X >= j=1 tj Xj representa o produto interno dos vetores X e
Observaes:
X,Y (t, u) = E (eitX + iuY ) = E (eitX + iuY + i0Z ) = X,Y,Z (t, u, 0),
X\
Y
0 1 2 fX (x)
1 1 1
1 6 6
0 3
1 2 1 2
2 6 6 6 3
2 3 1
fY (y) 6 6 6
1
2
2
X,Y (t1 , t2 ) = E (eit1 X + it2 Y ) = e it1 x e it2 y pX, Y (x, y)
x=1 y=0
1 1 1 2
e it1 e it2 0 + e it1 e it2 + e it1 e it2 2 0 + e i2t1 e it2 0 + e i2t1 e it2 +
6 6 6 6
1 1 1 1 2 1
+ e i2t1 e i2t2 = e it1 + e it1 e it2 + e i2t1 + e i2t1 e it2 + e i2t1 e i2t2
6 6 6 6 6 6
1
= (e it1 + e it1 e it2 + e i2t1 + e i2t1 e it2 2 + e i2t1 e i2t2 )
6
i i
i i
i i
1
= (e it1 (1 + e it2 + e it1 ) + e i2t1 (2 e it2 + e i2t2 )).
6
Conclumos que
1 it1
X,Y (t1 , t2 ) = (e (1 + eit2 + eit1 ) + ei2t1 (2 eit2 + ei2t2 )), para todo t1 , t2 R.
6
it1 x x y (1it1 )x
= e e dx e it2 y
e dy = e dx e(1it2 )y dy =
0 0 0 0
1 1 1
= = ,
1 it1 1 it2 (1 it1 )(1 it2 )
para quaisquer t1 e t2 R.
Portanto,
1
X,Y (t1 , t2 ) = , para quaisquer t1 e t2 R.
(1 it1 )(1 it2 )
3.5 Exerccios
1. Determine a funo geradora de momentos de X U([a, b]) (uniforme).
Calcule a esperana e a varincia de X atravs da MX ().
i i
i i
i i
3. Considere X N (, 2 ).
a. Calcule E(X 3 ).
b. Calcule E(X 4 ).
i i
i i
i i
i i
i i
i i
an
n=0
onde a uma constante real, converge sempre que |a| < 1 e a soma
da srie dada por (1 a)1 .
b. Sn = X1 + ... + Xn , onde Xi E(), independente, para todo 1
i n. Sugesto: Use o Exerccio 4 desta lista.
12. Seja X uma varivel aleatria contnua tendo funo densidade dada por
1
fX (x) = e|x| , x R.
2
a. Mostre que MX (t) = (1 t2 )1 , 1 < t < 1.
b. Use esta funo geradora de momentos para encontrar os momentos
de ordem r de X .
i i
i i
i i
X (t) = e|t| , t R,
i i
i i
i i
i i
i i
i i
4
Cadeias de Markov em Tempo
Contnuo
273
i i
i i
i i
Como exemplo, o leitor pode ter em mente o seguinte caso: uma central
telefnica recebe telefonemas durante o dia. Digamos que Xt , denote o nmero
de de chamadas recebidas at o tempo t. A medida que o tempo passa este
nmero pode car igual ou aumentar. A qualquer momento t + s, depois de t,
poder ocorrer uma nova chamada. Em princpio, no parece natural indexar
o parmetro tempo pelo conjunto dos naturais.
O espao S de estados seria o conjunto dos nmeros s = 0, 1, 2, 3, 4, ..., n, ....
Assumimos que X0 = 0 com probabilidade 1.
Esta central poderia estar localizada em uma cidade com mais frequncia
de telefonemas ou em uma com menos. Os modelos teriam que ser diferentes
para levar em conta este fato. Suponha, por exemplo, que em certo momento
t xado temos que Xt = 142. Seja s xo, claro que no primeiro caso teremos
maior probabilidade de se ter um nmero mais elevado de telefonemas no
tempo t + s, do que no segundo. Ou seja, Xt+s deveria ser maior no primeiro
caso (em termos probabilsticos) do que no outro. A primeira cidade tem maior
frequncia de telefonemas. Deveria existir menor intensidade de telefonemas na
segunda. Seria natural supor a existncia de um parmero que determinasse
tal intensidade. Neste caso, na primeira cidade seria maior.
Pode-se mostrar que neste modelo teramos que para t xo, e s xo, s
{0, 1, 2, 3, 4, ..., n, ...},
( t)s t
P (Xt = s) = e .
s!
Note que para s xo, a medida que t cresce, o valor P (Xt = s) decresce.
Isto traduz o fato que a medida que o tempo passa, o nmero de telefonemas
recebidos vai aumentando at que com grande probabilidade vai car maior
que s.
Observe que se grande a intensidade deste decrescimento (da probabil-
idade) com t aumenta dramaticamente.
Este processo conhecido pelo nome de Processo de Poisson com parmetro
. A razo de se ter os valores das probabilidades das Xt dadas desta forma
i i
i i
i i
t0 se vale a condio
= P (Xt = j|Xtn = in ), ()
t 0, j, i0 , i1 , . . . , in S,
toda vez que 0 < t1 < t2 < t3 < ... < tn < t e
Xt (w). Nosso ponto de vista, mais uma vez, ser considerar prioritariamente
a sigma-lgebra A = U 1 (A) e a probabilidade P induzida por U , tal que
P (B) = P (U 1 (B))
Desta forma, para ns, P uma probabilidade que associa valores reais no
negativos a certos subconjuntos B S R (os elementos da sigma-algebra em
+
considerao).
Sendo assim, as variveis Xt que vamos nos ater, sero as induzidas por
U , ou seja, vamos supor que para cada t 0 xado, Xt : S R S , ser tal
+
i i
i i
i i
com t1 < t2 < ... < tn R+ , si S, i {1, 2, ..., n}, ou seja, o conjunto
Figura 4.1:
i i
i i
i i
P n P m = P n+m ,
P s P t = P s+t .
i i
i i
i i
Seja agora = (s )sS , s s = 1, um vetor de probabilidade inicial sobre
S , isto P (X0 = s) = s , s S .
Com a informao acima gostaramos de denir uma probabilidade P sobre
S R . Na verdade vamos denir a probabilidade P sobre um certo subconjunto
+
Por denio,
Ainda,
P ( X0 = a0 ) = a0 .
ento
1 1 1
P (X0 = 1, X1.37 = 2) = 1 (P12 )1.37 = = .
5 3 15
Algumas vezes, denotaremos wt S por w(t).
Na verdade necessrio (por razes que no vamos comentar aqui) re-
stringir o espao S R a um subconjunto . Seja o subconjunto de funes
+
i i
i i
i i
ponto. Em geral, se pode assumir que o processo tal que todos os caminhos
amostrais so contnuos direita, sem que isto interra nas distribuies nito-
dimensionais (conforme [EK]).
i i
i i
i i
P (Xt = 3) = s (P t )s,3 .
sS
P (X2.3 = s1 , X7,5 = s2 ) = s (P 2,3 )s,s1 (P 5,2 )s1 ,s2 .
sS
i i
i i
i i
(P t )11 (P t )12 (P t )13
t
(1 , 2 , 3 ) (P )21 (P t )22 (P t )23 .
(P t )31 (P t )32 (P t )33
Note que
2 (P t )2 3
P (Xt = 3 | X0 = 2) = = (P t )2 3 .
2
Ainda,
i i
i i
i i
P (X0 = s, Xt2 = i2 , Xt = j)
= sS =
sS P (X0 = s, Xt2 = i2 )
= P (Xt = j | Xt2 = i2 ).
O caso geral pode ser demonstrado de maneira semelhante. Fica assim
demonstrada a armao acima.
Denio 4.2. Fixado uma familia Pt satisfazendo 1), 2) e 3), uma Cadeia
i i
i i
i i
Denio 4.3. Uma matriz L com entradas reais da forma #S por #S tal
que
lim Bn = A,
n
se, para cada i, j S , vale a propriedade que a entrada (Bn )ij da matriz Bn
satisfaz
lim (Bn )ij = Aij .
n
exemplo, ( )
a11 a12
M (2, 2) = { | a11 , a12 , a21 , a22 R },
a21 a22
tem a mesma dimenso de R4 , ou seja, isomorfo a este espao.
i i
i i
i i
se o vetor
bn = (bn11 , bn12 , bn21 , bn22 )
em R4 converge ao vetor
Por exemplo,
( ) ( )
1 + n1 ( 12 )n 1 0
lim = .
n 3 21n 1
cos( n ) 3 1
Formalmente, para qualquer existe N > 0 tal que, para todo n > N , vale
que
||bn a|| = ||(bn11 , bn12 , bn21 , bn22 ) (a11 , a12 , a21 , a22 )|| .
Acima ||(x1 , x2 , x3 , x4 )|| = x21 + x22 + x23 + x24 , denominada de norma
euclidiana do vetor (x1 , x2 , x3 , x4 ) em R4 . No caso em que o vetor bn converge
ao vetor a, ento para todo i, j xados vale que o nmero real bnij converge
ao nmero real aij . As propriedades anlogas para matrizes do tipo n por n
i i
i i
i i
seguem deste fato usando uma identicao similar a dada por G acima. O
caso em Rn em tudo semelhante ao que foi descrito acima para R4 .
2
se
n
lim Ak = A.
n
k=0
1 2 1 3 1 4 1 1
eA = I + A + A + A + A + ... + An + ... = An .
2! 3! 4! n! n=0
n!
i i
i i
i i
i i
i i
i i
1 k j
= lim A B = eA+B .
l
k+jl
j!k!
1 1 1 1 1
tA
e = I + t A + t2 A2 + t3 A3 + t4 A4 + ... + tn An + ... = tn An .
2! 3! 4! n! n=0
n!
et A et A = et A t A = e0 = I = et A et A .
i i
i i
i i
Exemplo 4.5. Seja L a matriz dois por dois tipo linha soma zero dada por
( )
a11 a12
,
a21 a22
onde
a11 = a12 = 0 e a22 = a21 = 0.
Esta matriz ( )
L = ,
descreve o caso geral de uma matriz tipo linha soma zero no caso #S = 2.
Note que
L2 = L L = ( + ) L.
De fato,
( )( ) ( )
2 + 2
LL = = =
2 + 2
( )
( + ) = ( + ) L.
Por induo fcil ver que
( )
Ln = (1)n1 ( + )n1 = (1)n1 ( + )n1 L.
Para cada t xo, podemos fazer o mesmo raciocnio para L tal que
i i
i i
i i
Vamos agora demonstrar que no caso geral, uma matriz L tipo linha soma
zero determina atravs de P t = et L , t R+ um semigrupo de matrizes.
Fixada a matriz L, dados t, u R+ , temos que
(t A) (u A) = t u A A = u t A A = (u A) (t A).
P t+u = e(t+u) L = et L eu L = P t P u .
lim Bt = A,
ts
i i
i i
i i
ento
sin(s) + s2 s+1
lim Bt = .
ts
s2 + s es
et A I
lim = A.
t0 t
Sendo assim, para i, j S , i = j vale que
i i
i i
i i
Teorema 4.2. Seja A uma matriz nita. Ento etA uma matriz estocstica
etA I tA
lim =
t0 t
1 2 1 3 1 4 1 n
2!
t A2 + 3!
t A3 + 4!
t A4 + ... + n!
t An + ...
= lim = 0.
t0 t
Acima 0 signica, naturalmente, a matriz com todas as entradas nulas.
Suponha que A seja tipo linha soma zero.
Ora, seja i = j , ambos em S , ento Aij 0, e assim
i i
i i
i i
Sendo assim, para i S xo, temos que para t pequeno vale (et A )ii 0,
pois (et A )ii 1.
Conclumos assim que existe > 0 tal que para t < , todas as entradas
de et A so positivas.
Seja agora um u R qualquer xo e n N. Ora, pelo Lema 3.1 temos que
u u u u
eu A = e|( n ) A e( n{z
)A
... e( n ) A} = ( e( n ) A )n .
n vezes
d(et A )ij
,
dt
i i
i i
i i
Segue do que foi dito acima que, se A do tipo linha soma zero, ento para
iS
tn n
(et A )ij = 1 + (A )ij = 1.
jS n=1
n! jS
i i
i i
i i
(P (Xt ) = 1, P (Xt ) = 2) = (1 , 2 ) P t = (1 , 2 ) et L .
onde e so positivos.
i i
i i
i i
Ainda,
( ) ( )
P1,1
t
P1,2
t
P (Xt = 1 | X0 = 1) P (Xt = 2 | X0 = 1)
= =
P2,1
t
P2,2
t
P (Xt = 1 | X0 = 2) P (Xt = 2 | X0 = 2)
( )
1 + et (+) et (+)
= .
+ et (+) + et (+)
Observe que quando t temos que
( )
Pt +
+
.
+ +
Note, neste caso, que para qualquer vetor inicial p = (p1 , p2 ) de probabili-
dade vale que
lim p P t = ( , ),
t + +
conforme Figura 4.2.
i i
i i
i i
P (Xt+s = j | Xs = i),
t 0, j, i0 , i1 , . . . , in S,
toda vez que 0 < t1 < t2 < t3 < ... < tn < t.
Ento, dena
(P t )ij = P (Xt = j | X0 = i).
Fixe t1 < t2 < t3 .
Usando a regra de Bayes, para i1 e i3 xos, podemos condicionar em t2 e
obtemos
i i
i i
i i
P (Xt3 = i3 , Xt1 = i1 )
(P t3 t1 )i1 i3 = P (Xt3 = i3 |Xt1 = i1 ) = =
P (Xt1 = i1 )
i2 S P (Xt3 = i3 , Xt2 = i2 , Xt1 = i1 )
= =
P (Xt1 = i1 )
P (Xt = i3 , Xt = i2 , Xt = i1 ) P (Xt = i2 , Xt = i1 )
3 2 1 2 1
= =
i S
P (X t2 = i2 , Xt1 = i1 ) P (X t1 = i1 )
2
= P (Xt3 = i3 | Xt2 = i2 , Xt1 = i1 ) P (Xt2 = i2 | Xt1 = i1 ) =
i2 S
= P (Xt3 = i3 | Xt2 = i2 ) P (Xt2 = i2 | Xt1 = i1 ) =
i2 S
= (P t2 t1 )i1 i2 (P t3 t2 )i2 13 .
i2 S
i i
i i
i i
ou
Pit13,it
3
1
= Pit12,it
2
1
Pit23,it
3
2
.
i2 S
P t3 t1 = P t2 t1 P t3 t2 .
P t+s = P t P s ,
i i
i i
i i
e
b) a Equao diferencial backward (para trs) de Chapmann-Kolomogorov
P = L P .
(P t )ij
lim ,
t0 t
i i
i i
i i
e para todo i S
(P t )ii 1
lim ,
t0 t
onde
(P t )ij ,
descreve a probabilidade de transio de i para j em tempo t pequeno.
Vamos denotar por Lij o primeiro limite acima e Lii o segundo limite acima.
De maneira compacta, as duas expresses acima signicam que
Pt I
lim = L. ()
t0 t
Note que Lij 0 para i = j pois (P t )ij 0.
Por outro lado, Lii 0 para i S pois (P t )ii 1 0.
Lembre que Pi,j (t) = P (Xt+u = j | X(u) = i), t, u 0, independente de u.
Ainda, a matriz L assim obtida tipo linha soma zero, pois para i xo
Lij = Lij + Lii =
jS jS,j=i
(P t )ij (P t )ij 1
= lim + lim =
t0
jS,j=i
t t0 t
jS (P )ij 1
t
0
= lim = lim = 0.
t0 t t0 t
Alertamos ao leitor que no caso em que S innito a deduo acima pode
no ser vlida por envolver somas innitas e limites em t. Em muitas situaes
em que S innito, mesmo assim, a armao verdadeira.
No caso em que S = {1, 2, 3, 4}, e
2 2 0 0
1 2 1 0
L= ,
0 1 3 2
0 0 2 2
i i
i i
i i
d (P s )11 d (P s )12 d (P s )13
. . . . . . .
d (Pdss )21 ds
d (P s )22
ds
ds d (P )23
. . . . . . .
d (P s ) ds ds
31 d (P s )32 d (P s )33
. . . . . . .
d Ps ds ds ds
= . . . . . . . . . . .
ds
. . . . . . . . . .
s
d (P )n 1 d (P s )n 2 d (P s )n 3
.
ds ds ds
. . . . . .
. . . . . . . . . .
d (P s )i j
Acima, o elemento i j da matriz N por N ds
.
i i
i i
i i
d (P s )i j
Acima, o elemento i j da matriz Z por Z ds
.
O que descrevemos acima, de maneira sinttica, que
dP s
|s=0 = L.
ds
Dito de outra forma, para cada i, j xos vale
d (P s )i,j d P (Xs = j | X0 = i)
|s=0 = |s=0 = Li,j .
ds ds
Exemplo 4.7. Considere o semigrupo
( )
1 + et (+) et (+)
Pt = .
+ et (+) + et (+)
i i
i i
i i
lims0 P sI
s
= L, ento
P t = et L ,
para todo t 0.
teriormente) P t com t 0. Segue do que foi dito acima, que para qualquer
t 0, vale
dP t
= P t L.
dt
i i
i i
i i
X (t) = X(t) L.
Ainda X(0) = I .
Da Teoria das Equaes Diferenciais Ordinrias (ver [DL] ou Apndice 4.5)
sabe-se que
P t = et L , t 0.
i i
i i
i i
para todo t 0.
t satisfaz a equao diferencial d
dt t
= t L.
Deste modo, nosso procedimento inicial de denir uma probabilidade P em
S a partir de um semigrupo et L , t 0, onde L matriz do tipo linha soma
R+
d
(Pijt )t=0 = ij = Lij .
dt
A medida que t > 0 cresce, a funo Pij (t) = (P t )ij cresce, quando i = j.
A medida que t > 0 cresce, a funo Pii (t) = (P t )ii decresce, quando i S.
Lembre que a evoluo de t , t 0, descrita por (4.1).
Denio 4.6. Fixada a matriz tipo linha soma zero L, dizemos que o vetor
P t = et L = .
i i
i i
i i
Teorema 4.4. Seja S nito, L matriz tipo linha soma zero xada, e P t = et L ,
para P , se e s se, L = 0.
t
ento vetor estacionrio
Exemplo 4.8. Para a matriz geral da forma linha soma zero do tipo dois por
dois ( ) ( )
11 12
L= = ,
21 22
com , 0, temos que
( , ) L = (0, 0).
+ +
Podemos pensar que tal matriz descreve uma Cadeia Markoviana com
tempo contnuo tomando valores em S = {0, 1}. Neste caso, os caminhos
amostrais so sempre do tipo descrito na gura 4.3. As probabilidades de
transio seriam dadas por
( )
p (t) p (t)
et L =
00 01
.
p10 (t) p11 (t)
i i
i i
i i
(P (Xt ) = 1, P (Xt ) = 2) = (1 , 2 ) P t =
i i
i i
i i
Figura 4.4: A evoluo ao longo do tempo das entradas p00 (t) (ou, p11 (t)) e
p10 (t) (ou, p01 (t)) da matriz et L .
2 + x2 + x4 = 0,
1 2x2 = 0,
x2 2x3 + x4 = 0.
i i
i i
i i
1 3
(1 , , 1 , ) L = 0.
2 2
Como 1 + 1
2
+1+ 3
2
= 4, temos que o nico tal que L = 0
1 1 1 3
= ( , , , ).
4 8 4 8
Desta forma, para todo t
1 1 1 3 tL 1 1 1 3
( , , , )e = ( , , , )
4 8 4 8 4 8 4 8
e tal dene a probabilidade inicial que torna o Processo de Markov Xt asso-
ciado ao semigrupo P t = et L um Processo Estacionrio.
A demonstrao dos prximos trs resultados pode ser evitada numa pri-
meira leitura. importante, no entanto, o bom entendimento do que armam
os trs teoremas a seguir.
Teorema 4.5. Quando S nito, dada L tipo linha soma zero existe um vetor
de probabilidade estacionrio.
qn P 1/n = qn .
qn ( P 1/n I )
= 0.
1/n
i i
i i
i i
Teorema 4.6. Seja L matriz k por k tipo linha soma zero, denote por I a
matriz k por k , que tem todas as entradas igual a 1, ento se IL for inversvel,
temos que
L = 0.
Demonstrao: Sabemos que existe tal que L = 0. Note que
Teorema 4.7. Seja S nito com cardinalidade d. Dada a matriz L tipo linha
soma zero, suponha que exista apenas um elemento tal que L = 0.
tL
Assuma tambm que e seja regular, para todo t 0. Ento para qualquer
lim p et L = .
t
i i
i i
i i
logo,
(1 1 1 ... 1) L = (0 0 0 ... 0).
Sendo assim,
< v L , (1, 1, ..., 1) > = < v , (1, 1, ..., 1) L > = < v , (0, 0, ..., 0) >= 0.
Assim, v L V , se v V .
Desta forma, tambm vale que v ( tn Ln ) V , para todo n, e nalmente
que
1
v( (t L)n ) = v et L V,
n=0
n!
se v V .
Acima usamos o fato que como V um conjunto fechado, toda sequncia
convergente de elementos de V Rd , converge a um elemento de V .
Armamos que todo autovalor generalizado de L, outro que 1, tem parte
real negativa.
i i
i i
i i
Denote por c, onde c < 1 o maior destes autovalores. Desta forma, |T (v)| <
c |v|, para todo v em V .
i i
i i
i i
u et L = et u.
|(v1 v2 ) et L | ct |v1 v2 |.
Note que no est em V pois < , (1, 1, ..., 1) >= 1. Seja agora, x1 , x2
, e escreva x1 = v1 + c1 , e x2 = v2 + c2 , onde c1 , c2 R.
Ora,
1 = < x1 , (1, 1, ..., 1) > =
=< v1 , (1, 1, ..., 1) > + c1 < , (1, 1, ..., 1) > = 0 + c1 .
Logo c1 = 1. Aplicando o mesmo a x2 obtemos que c2 = 1.
Temos ento que
x1 et L x2 et L = (v1 + ) et L (v2 + ) et L =
= v 1 et L v 2 et L .
Sendo assim,
| x1 et L x2 et L | < ct | v1 v2 | =
= ct |(v1 + ) (v2 + ) | ct | x1 x2 |.
Portanto, para p qualquer e t real vale que
| p et L | = | e t L p et L | ct | p | .
Desta forma,
lim p et L = .
t
i i
i i
i i
lim p et L = ( , ) = .
t + +
Ilustrando o que arma o teorema acima no caso S = {1, 2, 3}, na Figura 4.5
exibimos vrias curvas x(t) = p et L , t R+ , descritas por distintas condies
iniciais p, e sua convergncia ao vetor invariante p, quando t vai a innito.
em L = 0, onde
tal que L
matriz d por d tipo linha soma zero. Con-
lim P (Xt = j | X0 = i) = j ,
t
onde = (1 , 2 , ..., d ).
P (Xt = d|X0 = i) ) =
= ( (P t )i 1 , (P t )i 2 , ..., (P t )i d ) =
= ei P t = ei et L .
lim ei et L = = (1 , 2 , ..., d ).
t
i i
i i
i i
fcil ver a partir do que foi mostrado acima que se considerarmos uma
vetor inicial de probabilidade qualquer p0 , o semigrupo P t gerado por L e o
correspondente Processo Estocstico Markoviano Xt , t R+ , ento, dado j
em S , temos que
lim P (Xt = j) = j ,
t
o vetor = ( 14 , 1
8
, 1
4
, 83 ) tal que L = 0. Isto ,
1 1 1 3
( , , , )
4 8 4 8
estacionrio para et L , t R+ .
O Processo de Markov Xt associado ao semigrupo P t = et L e a probabili-
dade inicial = ( 41 , 18 , 41 , 38 ) estacionrio. Apenas para esta escolha de
probabilidade inicial o Processo de Markov associado a L ser estacionrio.
Considere o Processo de Markov Xt associado ao semigrupo P t = et L e
uma probabilidade inicial qualquer p .
Neste caso, ento vale que
1
lim P (Xt = 3 | X0 = 2) = .
t 4
Ainda,
4 4
1 1
lim P (Xt = 3) = lim P (Xt = 3 | X0 = j) pj = pj = .
t t
j=1 j=1
4 4
i i
i i
i i
i i
i i
i i
= (1, 0, 0, 0, 0, ...).
P ( Xt+h Xt = 1 | Xt = j ) = t + o(h),
e
P ( Xt+h Xt = 0 | Xt = j ) = 1 t + o(h),
A soluo x(t), neste caso, nos d uma informao importante para o Processo
de Poisson (conforme descrito no comeo desta seo em que assumimos que
P (X0 = 0) = 1):
i i
i i
i i
para qualquer k 1, e
x0 (t) = x0 (t). (4.2)
d
P (Xt = k) = P (Xt = k) + P (Xt = k 1),
dt
para qualquer k 1, e
d
P (Xt = 0) = P (Xt = 0).
dt
Vamos calcular et L neste caso. Note que t L = t L1 + tL2 , onde
t 0 0 0 0 0 ..... ... .. ...
0 t 0 0 0 0 ..... ... .. ...
0 0 t 0 0 0 ..... ... .. ...
L1 = 0 0 0 t 0 0 ..... ... .. ... ,
. . . . . . . .... .. ...
0 0 t ...
0 0 ...... 0 0 0
. . . . . . . .... .. ...
e
0 t 0 0 0 0 ..... ... .. ...
0 0 t 0 0 0 ..... ... .. ...
0 0 0 t 0 0 ..... ... .. ...
L2 = 0 0 0 0 t 0 ..... ... .. ... .
. . . . . . . .... .. ...
0 0 0 ...... 0 ...
0 0 t 0
. . . . . . . .... .. ...
Note que (t L1 ) (t L2 ) = (t L2 ) (t L1 ).
i i
i i
i i
0 0 0 ( t)3 0 0 0 0 . ...
0 0 0 0 ( t)3 0 0 0 . ...
0 0 0 0 0 ( t)3 0 0 . ...
(t L2 ) = 0
3
0 0 0 0 0 ( t)3
0 . ... ,
. . . . . . . .... ..
0 3
0 0 0 0 ...... 0 . 0 ( t) ..
. . . . . . . .. .. ..
e assim por diante.
Logo,
2 3 4
( t)5
1 ( t) (2!t) (3!t) (4!t) ... ... ... ...
2 3
5!
( t)4
0 1 ( t) (2!t) (3!t) ... ... ... ...
4!
0 ( t) (2!t)
2 ( t)3
...
0 1 3!
. ... ...
et L2 = 0 0 0 1 ( t) ( t)2
... ... ... ... .
2!
. . . . . . . .... .. ...
0 0 0 0 ...... 0 . 1 ( t) ...
. . . . . . . ... .. ...
i i
i i
i i
Portanto,
( t)k t
P (Xt = k) = xk (t) = e .
k!
Existem outra formas alternativas de se apresentar tal processo. A razo
porque tal processo tem este gerador innitesimal L ser fornecida a seguir.
Como sabemos, o Processo de Poisson Xt um processo estocstico a
parmetro contnuo: (Xt ), t [0, +), S = N = {0, 1, 2, 3, 4, ..., n, ...}
Note que faz sentido tambm considerar um processo com uma condio
inicial 0 = (0 , 1 , 2 , ..., n , ...), tal que cada n 0, e n=0 n = 1 (em
vez de 0 = (1, 0, 0, 0, ..., 0, ...) como acima). Mas no vamos considerar tal
situao aqui.
Note que P (X9.43 = 7 | X3,4 = 11) = 0. Com probabilidade 1 os cam-
inhos amostrais w(t) do Processo de Poisson so constantes em intervalos e
i i
i i
i i
i i
i i
i i
= (wt )tR+
i i
i i
i i
Portanto,
P (Aks, t Aju, v ) = P (Aks, t ).P (Aju, v ) = Pk (t).Pj (v), sempre que (s, s + t] (u, u +
v] = . Supomos sem perda de generalidade que s + t < u.
Em particular,
P (Aks, t Ank
u, v ) = P (As, t ).P (Au, v ) = Pk (t).Pnk (v), n e k n.
k nk
Uma forma compacta de descrever esta hiptese dizer que o conjunto Aks, t
independente da sigma lgebra gerada por Xr Xz , r, z (u, u + v], onde
r > z.
i i
i i
i i
n1 ( ) [ ( )]n t
P0 (t) = P (A00,t ) = P A0it , t = P A00, t = (P0 ( ))n .
i=0
n n n n
i i
i i
i i
k
Pk (s + t) = Pi (s) Pki (t).
i=0
i i
i i
i i
(Ai0,s Aki
s,t ) (A0,s As,t ) =
j kj
se i = j
Portanto,
k
k
Pk (s + t) = P (Ak0,s+t ) = P (Ai0,s )P (Aki
s,t ) = Pi (s)Pki (t).
i=0 i=0
k2
= Pi (s)Pki (t) + Pk1 (s)P1 (t) + Pk (s)P0 (t) =
i=0
k2
= Pi (s)Pki (t) + Pk1 (s)P1 (t) + et Pk (s).
i=0
i i
i i
i i
Pk (s + t) Pk (s)
lim+ = Pk (s).
t0 t
Observe que como e t = 1 t + 2!1 2 t2 ..., ento
1)
1 P0 (t) 1 et
lim = lim = .
t0 t t0 t
2) ( )
P1 (t) P1 (t) 1 P0 (t)
lim = lim . =
t0 t t0 1 P0 (t) t
P1 (t) 1 P0 (t)
= lim . lim = 1. = .
t0 1 P0 (t) t0 t
3)
( )
1 P0 (t) P1 (t) 1 P0 (t) P1 (t) 1 P0 (t)
lim = lim . = 0. = 0.
t0 t t0 1 P0 (t) t
Ento,
Pk (s + t) Pk (s)
Pk (s) = lim =
t0 t
[ k2 ]
1
= lim Pi (s)Pki (t) + Pk1 (s)P1 (t) + Pk (s)(et 1) =
t0 t
i=0
1
k2
= lim Pi (s)Pki (t)+
t0 t
i=0
1 et 1
+ lim Pk1 (s)P1 (t) + lim Pk (s) =
t0 t t0 t
1
k2
= (lim Pi (s) Pki (t)) + Pk1 (s) Pk (s).
t0 t
i=0
Ora,
1 1
k2 k2
j=ki
0 Pi (s)Pki (t) Pki (t) =
t i=0 t i=0
i i
i i
i i
1
k
1
= Pj (t) = (P2 (t) + P3 (t) + ... + Pk (t)) =
t j=2 t
1
= (1 P0 (t) P1 (t)) 0.
t t0
para k 1.
Assim, resolvendo a primeira equao (k = 0),
P0 (t) = P0 (t),
P0 (t) = e t .
x (t) = x(t)
i i
i i
i i
P1 (s) = se s ,
para todo s 0.
Vamos a seguir obter indutivamente as outras solues Pk (s), s 0, do
sistema de equaes diferenciais descrito no comeo desta seo.
Consideramos ento k = 2, logo
P2 (s) + P2 (s) = P1 (s) = 2 s e s .
i i
i i
i i
k
Pk (s) = Pi (s t) Pki (t).
i=0
Ou seja, neste caso mostre que tambm vale o sistema de equaes diferen-
ciais {
Pk (t) = Pk1 (t) Pk (t), k 1
()
P0 (t) = P0 (t)
sujeito s condies iniciais
Pk (0) = 0 , k 1 e P0 (0) = 1.
lim wt = lim wh + 1.
ht, ht ht, ht
T1 () = inf{t | Xt () = 1},
Tn () = inf{t | Xt = n}.
i i
i i
i i
Yn () = Tn () Tn1 ().
P ( Y3 > t | Y1 = t1 , Y2 = t2 )
i i
i i
i i
r(h)
lim = 0.
h0 h
ento,
r(h)
lim = 0.
h0 h
i i
i i
i i
um o(h).
Finalmente, descreveremos este fato da seguinte forma
i i
i i
i i
i i
i i
i i
P (Xt+h Xt = 1 | Xt = k) = k h + o (h).
Ou seja,
Pk,k+1 (h) = k h + o (h).
Neste caso, k = k , k 0.
Note que P (Xt = 0 | X0 = 0) = 1. Ou seja, se a populao era zero,
ningum vai nascer.
Vamos supor primeiro que a populao inicial era igual a 1, ou seja, P (X0 =
1) = 1.
Note que neste modelo foi natural descrever o modelo pelas probabilidades
de transio para h pequeno. Para calcular P (Xt = k) = xk (t), devemos
resolver o sistema
x (t) = x(t) L,
onde
x(t) = (x0 (t), x1 (t), x2 (t), x3 (t), ..., xk (t), ...),
i i
i i
i i
t
ft (s) = f (s) = k
P (Xt = k) s = s e [ (1 e t ) s]k1 =
k=1 k=1
s e t
= .
1 (1 e t ) s
Consideraremos agora o processo em que P (X0 = N ) = 1, ou seja, iremso
supor que no tempo t = 0, a populao igual a N .
Supondo ainda que no exista interao entre os membros da populao, e
que no tocante a gerao de descendentes, eles ajam de forma independente,
podemos supor que esta populo evolue como a soma de N processos inde-
pendentes tipo Yule em que N = 1.
Sendo assim, podemos facilmente calcular a nova funo geradora. De fato,
se
PN,k (t) = P (Xt (w) = k | X(0) = N ),
i i
i i
i i
e denotamos por
fN,t (s) = fN (s) = PN,k (t) sk ,
k=N
s e t
fN (s) = f1 (s)N = f (s)N = ( )N =
1 (1 e t ) s
= k1
CkN (e t )N (1 e t )kN sk ,
k=N
onde CkN
k1
denota combinao de (n N ), de (k 1) a (k 1).
Obtemos assim que para cada valor t e k
onde k N .
Para um t xo se quisssemos calcular a varincia bastaria derivar a funo
fN,t (s) no ponto um, etc... Ou seja, neste caso conseguimos calcular as infor-
maes mais importantes do modelo de maneira explcita.
Vamos agora considerar processos de nascimento e morte. Suponha xadas
as sequncias k 0 e k 0, onde k N. Assumimos que 0 = 0.
Considere um Processo Markoviano Xt , t N, sobre o conjunto de estados
S = N = {0, 1, 2, 3, ..., k, ...}, e denote Pi,j (t) = P (X(t + s) = j | X(s) = i)
para todo i, j {0, 1, 2, 3, 4, ...}
Assuma que os Pi,j (t) satisfazem
a)
Pk,k+1 (h) = k h + o(h), k N,
b)
Pk,k1 (h) = k h + o(h), k N,
i i
i i
i i
c)
Pk,k (h) = 1 (k + k ) h + o(h), k N,
c)
d Pi,k (t)
= i Pi1,k (t) (k + k ) Pi,k (t) + k Pi+1,k (t), k 1.
dt
Calculando a derivada acima em t = 0 podemos obter o gerador innitesi-
mal do semigrupo P t associado ao Processo de Markov Xt , t R+ , atravs da
matriz L dada por
0 0 0 0 0 0 ...
1 (1 + 1 ) 1 0 0 0 ....
0 2 (2 + 2 ) 2 0 0 ....
L=
0
.
0 3 (3 + 3 ) 3 0 ...
. . . . . . ...
. . . . . . ...
i i
i i
i i
i i
i i
i i
i i
i i
i i
Ora,
d Pi,j (t)
g (t) = j =
j=1
dt
= j [ ( (j1)+ ) Pi,j1 (t) ( j + + j) Pi,j (t) + (j+1) Pi,j+1 (t) ] =
j=1
= ( ) g(t) + .
A razo pela preferncia da equao de Kolmogorov para trs que neste
caso, como pode ser visto acima, aparecem termos Pi,j1 , Pi,j Pi,j+1 sempre
com i esquerda.
A soluo g(t) da equao diferencial acima, quando =
g(t) = (et () 1) + i et () .
Ainda, g(t) (soluo) tal que, quando = , ento
g(t) = t + i.
i i
i i
i i
Considere
G(s, t) = sj pj (t).
j=0
Sendo assim, utilizando a expresso para pj (t) descrita acima
G(s, t) j
= s pj (t) =
t j=1
= s 2
(j 1)sj2
pj1 (t) ( + ) s j sj1 pj (t) +
j=0 j=0
+ (j + 1)sj pj+1 (t).
j=0
Note que
G(s, t)
= (j + 1)sj pj+1 (t).
s j=0
i i
i i
i i
( t (1 s) + s )t
G(s, t) = , se = ,
t (1 s) + 1
( (1 s) ( s) e t () )t
G(s, t) = , se = ,
(1 s) ( s) e t ()
Desta forma podemos obter explicitamente todos os pj (t) = P (X(t) = j)
a partir de G(s, t) como descrito na Seo 4.5.
Note que G(0, t) = p0 (t), que no caso = no d
( t )t
p0 (t) = .
t + 1
Desta forma, quando t , temos que
lim p0 (t) = 1,
t
o que nos diz, neste caso que a probabilidade de que a populao se extinga
vai a 1 quando o tempo vai a .
A probabilidade de extino nos outros casos (em que = ) podem se
analisados de forma semelhante.
Em alguns casos as contas envolvidas na soluo dos sistemas de equaes
diferenciais de Kolomogorov so longas, mas muitas vezes encontrar o vetor de
probabilidade invariante no to difcil.
importante destacar que no existem vetores tal que L = 0, no caso
do processo de Poisson ou seus assemelhados (com os k 0), mas quando
consideramos processos de nascimento e morte (com k 0 e k 0), algumas
vezes este problema pode ser resolvido.
i i
i i
i i
(0, 0, 0, ...) =
0 0 0 0 0 0 ...
1 (1 + 1 ) 1 0 0 0 ....
0 2 (2 + 2 ) 2 0 0 ....
= (0 1 2 ...)
0
,
0 3 (3 + 3 ) 3 0 ...
. . . . . . ...
. . . . . . ...
logo, a primeira linha nos d
0 0 + 1 1 = 0.
A segunda, nos d,
0 0 (1 + 1 ) 1 + 2 2 = 0,
k1 k1 (k + k ) k + k+1 k+1 .
2 2 = 0 0 + 1 1 + 1 1 =
i i
i i
i i
0 0
0 0 + 1 0 + 1 0 =
1 1
0 1 0 1
0 0 + 0 + 0 0 = 0 .
1 1
Portanto,
0 1
2 = 0 .
1 2
Procedendo de maneira indutiva, sempre substituindo a expresso obtida
numa certa etapa na seguinte, obtemos que para todo k 1 vale
0 1 ... k1
k = 0 .
1 2 .. k
O ponto agora que deve ser um vetor de probabilidade e assim natural
escolher 0 tal que
0 1 ... k1
1 = k = 0 (1 + ).
k=0 k=1
1 2 ... k
i i
i i
i i
Neste caso,
0 1 ... k1
k
1+ = 1+ k
< ,
k=1
1 2 ... k
k=1
a) Se i j e j k , ento i k;
b) A relao i j uma relao de equivalncia e divide o espao S em
classes de equivalncia.
i i
i i
i i
P (sup{t | Xt = i} = | X0 = i) = 1.
P (sup{t | Xt = i} < | X0 = i) = 1.
Denio 4.12. Fixado i e = (wt )tR+ , tal que w0 = i, dizemos que o tempo
de salto do estado i, para o caminho , o nmero real
Denio 4.13. Fixado i e = (wt )tR+ , tal que w0 = i, dizemos que o tempo
de primeiro retorno ao estado i, para o caminho , o nmero real
i i
i i
i i
a) i recorrente, se e s se, i = 1;
b) se i recorrente, e j i, ento, j recorrente.
E[ T1i | X0 = i] < .
todo estado i seja recorrente positivo, ento, para qualquer i, j S , vale que
t
1 1
lim Pi,j
s
ds = .
t t 0 E[T1j | X0 = i]
= (1 , 2 , ..., #S ),
invariante.
i i
i i
i i
i i
i i
i i
Portanto, a resposta que buscvamos x(t) = e5t . Note que desejamos que a
equao seja verdadeira para todos os valores de t e no apenas para um valor
especco de t.
Exerccio: Mostre que x(t) = e 7t satisfaz a equao diferencial x (t) =
7 x(t). Neste caso, quem f (x)?
x (t) = f (x(t)),
onde f :RR est xada. A incgnita a funo x(t).
x (t) = 7 x(t).
i i
i i
i i
10 = x(0) = k e7 0 = k.
x (t) = 7 x(t).
Assumindo que x(1, 2) = 3, temos que
3 = x(1, 2) = k e7 1,2 .
Deste modo, k = 3
e8,4
e assim a funo x(t) = 3
e8,4
e7 t , ca determinada de
maneira nica.
Exerccio: Mostre que x(t) = 3 e7t satisfaz a equao diferencial x (t) = 7x(t).
x (t) = a x(t)
x(t) = ea t k.
Fixada a condio inicial, x(0) = x0 R, a soluo x(t) nica e dada por
x(t) = ea t x0 .
i i
i i
i i
x (t) b x(t) = a
x(t) = c eb t ab .
Exemplo 4.15. Vamos considerar agora uma caso bem distinto dos anteriores.
Suponha que dada uma funo a(t), perguntamos: quem a funo x(t) tal
que
x (t) = a(t) x(t)?
t
A resposta fcil, x(t) = k e 0 a(s) ds . De fato, pela regra da cadeia
sabemos que
d b(t)
e = b (t) eb(t) .
dt
Logo,
d d t t
x(t) = k e 0 a(s) ds = a(t) k e 0 a(s) ds = a(t) x(t).
dt dt
i i
i i
i i
i i
i i
i i
t
a (tt0 )
x(t) = e ( ea (r t0 ) b(r) dr + x0 ),
t0
onde k constante.
x (t) x(t) = 1,
e
x(0) = s
= e t ( (e t + 1) + s ) = 1 + et (1 + s).
x (t) + a x(t) = a ea t ,
e
x(0) = x0
i i
i i
i i
expresso do tipo
d x1
dt
= a x1 (t) + b x2 (t)
,
d x2
dt
= c x1 (t) + d x2 (t)
i i
i i
i i
Faa voc mesmo as contas e comprove que tal x1 (t) e x2 (t) satisfazem a
equao
dx1
dt = 2 x1 (t)
dx2
dt
= 5 x2 (t)
No caso do exemplo acima foi muito simples encontrar a soluo (x1 (t), x2 (t)),
pois a evoluo de x1 (t) no sofre interferncia da evoluo de x2 (t) e vice versa.
O caso mais interessante quando existe interferncia. Isto acontece quando
b = 0 e c = 0. Esta anlise ser o objeto do que segue.
Pode-se mostrar que para a, b, c, d, x0 , y0 R xos, s existe uma nica
funo (x1 (t), x2 (t)) com t R, tal que satisfaz ao mesmo tempo
x1 (0) = x0 , x2 (0) = y0 ,
i i
i i
i i
e a equao
dx
dt
= a x(t) + b y(t)
.
dy
dt
= c x(t) + d y(t)
O problema, claro, como obter (x(t), y(t)) a partir dos dados acima.
Podemos expressar o sistema de equaes diferenciais acima da seguinte
forma: seja ( )
a b
M= .
c d
z (t) = M z(t).
p (t) = p(t) L,
i i
i i
i i
De fato,
7 5 91 13t 5
x (t) =13 e13t + et = e + et =
3 3 3 3
7 7 5 5
= (7 + 4 ) e13t + (7 4 ) et =
3 2 3 2
7 5 7 5
= 7 ( e13t + et ) 4 ( e13t + et ) = 7 x(t) 4 y(t).
3 3 2 2
Para mostrar que
7 5
y(t) = e13t + et
2 2
satisfaz
y (t) = 9 x (t) + 7 y(t),
devemos seguir um procedimento semelhante ao que foi feito acima.
Note que, neste caso,
7 5
lim x(t) = lim ( e13t + et ) = +
t+ t+ 3 3
e
7 5
lim y(t) = lim ( e13t + et ) = .
t+ t+ 2 2
A anlise se x(t) satisfaz
lim x(t) = 0,
t+
ou,
lim x(t) = ,
t+
i i
i i
i i
ou,
lim x(t) = a R,
t+
Exerccio: Mostre que (x(t), y(t)) = (2e7 t , e7 t ) satisfaz (x(0), y(0)) = (2, 1) e
a equao
dx
dt
= x(t) + 12 y(t)
.
dy
dt
= 3 x(t) + 1 y(t)
i i
i i
i i
dN1
N1 (t) = dt
= aN1 (t) + bN2 (t)
N2 (t) = dN2
dt
= cN1 (t) + dN2 (t)
onde aqui b > 0, c 0, a > 0 e d > 0, descreve a evoluo do sistema.
N1 (t) descreve a taxa de variao da populao N1 (t) e N2 (t) descreve a
taxa de variao da populaco N2 (t).
Neste caso, estamos supondo que a taxa de variao do nmero de lobos
N1 (t) no decorrer do tempo uma combinao linear do nmero de coelhos e o
nmero de lobos. N1 (t)) vai crescer (b > 0) quanto mais coelhos existirem. Os
lobos (o predador) tem alimento. O coeciente a > 0 da conta do crescimento
populacional de lobos por cruzamento dentro da espcie.
A taxa de variao do nmero de coelhos N2 (t) no decorrer do tempo
combinao linear do nmero de lobos e do nmero de coelhos. N2 (t) vai
decrescer muito (c 0) se o nmero de lobos for grande. Os coelhos (a
presa) so comidos pelos lobos. O coeciente d > 0 da conta do crescimento
populacional de coelhos por cruzamento.
Os valores a, b, c, d podem ser estimados em funo de dados reais.
O que desejamos determinar quem (N1 (t), N2 (t)).
Na Figura 4.7, mostramos a gura que descreve no plano R2 a evoluo
temporal de (N1 (t), N2 (t)) para distintos valores de t.
Na situao em que a = 0, 1, b = 0 = c, e d = 0, 3 com N1 (0) = x0 e
N2 (0) = y0 , temos que
dN1
= 0, 1 N1 (t)
dt
e
dN2
= 0, 3 N2 (t),
dt
ou seja,
N1 (t) = x0 e0,1 t
i i
i i
i i
N2 (t) = y0 e0,3 t .
Se x0 = 100 lobos e y0 = 110 coelhos, ento, h(t) = (100 e0,1t , 110 e0,3t ).
Voltemos ao caso geral. Vamos supor interferncia entre as populaes N1
e N2 da seguinte forma.
dN1
dt = a N1 (t) + b N2 (t) = N1 (t)
dN2
dt
= c N1 (t) + d N2 (t) = N2 (t)
N1 (t) = A1 e1 t + A2 e2 t
N2 (t) = B1 e1 t + B2 e2 t
ento porque a populao de lobos, a longo prazo, iria para o total de 150 e
a de coelhos para o total de 450.
i i
i i
i i
isto ,
( )
3 2
det = 0 ( 3)( + 2) + 4 = 0 2 6 + 4 = 0
2 + 2
2 2 = 0,
i i
i i
i i
e desta forma,
+
1 1 4(2)
= .
2
Portanto, obtemos, 1 = 2 e 2 = 1. Logo,
N1 (t) = A1 e2t + A2 et ,
N2 (t) = B1 e2t + B2 et ,
onde, N1 (0) = 100 e N2 (0) = 300.
Note que M no satisfaz a propriedade de ser linha soma zero.
Devemos agora determinar A1 , A2 , B1 , e B2 .
Sabemos que
100 = A1 + A2 ,
300 = B1 + B2 ,
considerando os valores acima em t = 0.
Pelas equaes que envolvem a derivada de N1 temos que vale
A1 + A2 = 100,
i i
i i
i i
B1 + B2 = 300,
A1 (1) = 2B1 ,
A2 (4) = 2B2 .
A1 = 2B1 ,
2A2 = B2 ,
o que equivale a
A1
B1 = ,
2
B2 = 2A2 .
{
A1 = 100 A2
3
A =
2 2
250
A1 = 200
3
500
A2 = 3
i i
i i
i i
Como B1 = A1
2
e B2 = 2A2 , obtemos, nalmente, a partir de
200 500
A1 = , A2 = ,
3 3
que
100 1000
B1 = , B2 = .
3 3
Portanto, a soluo que buscvamos (N1 (t), N2 (t)) dada por
500 t
N1 (t) = 200
3
e2t + 3
e
1000 t
N2 (t) = 100
3
e2t + 3
e
A1 lim e2t = .
t+
B1 lim e2t = .
t+
Observao : Note que (x(t), y(t)) constante e igual a (0, 0), para todo t real,
sempre satisfaz
dx
dt = a x(t) + b y(t)
,
dy
dt
= c x(t) + d y(t)
e, naturalmente, tambm satisfaz a condio inicial (x(0), y(0)) = (0, 0).
i i
i i
i i
det( I M ) = 0,
onde ( )
1 12
M= .
3 1
Estes valores so = 7 e = 5. A seguir proceda como acima resolvendo
um sistema linear e usando o fato que (x(0), y(0)) = (2, 3).
A resposta (x(t), y(t)) = (4 e7 t 2 e5 t , 2 e7 t + e5 t ).
Exerccio: Determine a soluo geral (x(t), y(t)) satisfazendo a condio ini-
cial (x(0), y(0)) = (x0 , y0 ) do sistema de equaes diferenciais
dx
dt
= x(t) + 12 y(t)
.
dy
dt
= 3 x(t) + 1 y(t)
onde f : R2 R e g : R2 R.
i i
i i
i i
Quando
f (x, y) = a x + b y
e
g(x, y) = c x + d y
obtemos um sistema linear de equaes diferenciais (como anteriormente de-
scrito).
No caso em que f (x, y) e g(x, y) no so lineares se obtem maior exibili-
dade para descrever interferncias complexas entre duas populaes.
O Teorema de existncia e unicidade de equaes diferenciais (ver por ex-
emplo [DL]) assegura que, dada uma condio inicial (x(0), y(0)) = (c, d),
ento, a soluo (x(t), y(t)) de (x (t), y (t)) = ( f (x(t), y(t)), g(x(t), y(t)) ),
nica, se f e g forem de classe C 1 .
Tais equaes so denominadas de no lineares. Elas no vo ocorrer na
teoria desenvolvida no presente volume que cobre questes menos complexas
da Teoria do Processos Estocticos. Com o m de dar um breve panorama
mais amplo sobre o assunto vamos sucintamente fazer algumas consideraes
simples, antes de voltar a analisar sistemas lineares na sua formulao mais
geral.
Note que no caso geral, se (a, b) tal que f (a, b) = 0 e g(a, b) = 0, ento , se
a curva (x(t), y(t)), t R, for constante e igual a (a, b) ento (x(t), y(t)), t R
soluo ou seja satisfaz a equao acima. Dizemos neste caso que (x(t), y(t))
uma soluo em equilbrio (ca parada sobre (a, b)). Em muitos problemas
reais, o que se deseja saber quem (a, b), tal que as duas populaes x(t) e
y(t) cam em equilbrio nestes valores. Para tanto, basta descobrir os (a, b)
tal que (f (a, b), g(a, b)) = (0, 0). Neste caso, a soluo (x(t), y(t) ca parada
na posio (a, b), independente da variao de t.
Isto porque se x(t) e y(t) so constantes, ento para todo t real
(x (t), y (t)) = (0, 0) = (f (a, b), g(a, b)) = (f (x(t), y(t)), g(x(t), y(t)).
i i
i i
i i
Considere uma condio inicial (x0 , y0 ) (distinta de (a, b)) e ento (x(t), y(t))
vai denotar a soluo de
x (t) = f (x(t), y(t),
y (t) = g(x(t), y(t),
que satisfaz a condio inicial (x(0), y(0)) = (x0 , y0 ).
Em muitos problemas reais, vale ainda que para grandes conjuntos de
condies iniciais (x0 , y0 ), existe o limite
i i
i i
i i
do tipo n por n.
Um sistema linear de equaes diferenciais em Rn um sistema do tipo
d x1
= a11 x1 (t) + a12 x2 (t) + a13 x3 (t) + ... + a1n xn (t)
dt
d x2
= a21 x1 (t) + a22 x2 (t) + a23 x3 (t) + ... + a2n xn (t)
dt
d x3
= a31 x1 (t) + a32 x2 (t) + a33 x3 (t) + ... + a3n xn (t) .
dt
...........................................................................
d xn
= an1 x1 (t) + an2 x2 (t) + an3 x3 (t) + ... + ann xn (t)
dt
1 2 2 1 3 3 1 4 4 1
et A = I + t A + t A + t A + t A + ... + tn An + ...
2! 3! 4! n!
i i
i i
i i
Exemplo 4.23. Podemos, por exemplo, calcular para qualquer t real a expo-
nencial e tA
de uma matriz diagonal
a1 0 0
A = 0 a2 0 .
0 0 a3
i i
i i
i i
x (t) = A x(t)
i i
i i
i i
dada por
x1 (t) 1
tA
x(t) = x2 (t) = e 0 =
x3 (t) 0
n
2, 3 t 4, 5 t t 1
1
[ 1, 2 t 5t 3 t ] 0 =
n!
n=0
10, 3 t 7 t 8t 0
2
1 0 0 2.3 t 4.5 t t 2.3 t 4.5 t t 1
[ 1 ]
0 1 0 + 1.2 t 5 t 3 t + 1.2 t 5 t 3 t + ... 0
2
0 0 1 10.3 t 7 t 8 t 10.3 t 7 t 8 t 0
i i
i i
i i
x (t) = x(t) A
dada por
( ) ( )
x(t) = x1 (t) x2 (t) x3 (t) = 1 0 0 et A =
n
( )
2, 3 4, 5 1
1 n
1 0 0 [ t 1, 2 5 3 ].
n!
n=0
10, 3 7 8
com t real, onde X(t) matriz da forma n por n que depende de t e A matriz
xa da forma n por n.
Acima X (t), para cada t xo, a matriz em que tomamos a derivada de
cada um de suas entradas. Por exemplo, se
x11 (t) x12 (t) x13 (t)
X(t) = x21 (t) x22 (t) x23 (t)
x31 (t) x32 (t) x33 (t)
i i
i i
i i
ento
x11 (t) x12 (t) x13 (t)
X (t) = x21 (t) x22 (t) x23 (t) .
x31 (t) x32 (t) x33 (t)
Dado A desejamos encontrar quem X(t).
A resposta fcil, a famlia de matrizes indexada por t dada por
X(t) = et A ,
onde
1 1 1 1 1
tA
e = I +t A+ (t A)2 + (t A)3 + (t A)4 +...+ (t A)n +... = (t A)n .
2! 3! 4! n! n=0
n!
i i
i i
i i
e
( )
( ) a b ( )
= x21 (t) x22 (t) .
x21 (t) x22 (t)
c d
Por outro lado a igualdade X(0) = I signica
( ) ( )
1 0 x11 (0) x12 (0)
= .
0 1 x21 (0) x22 (0)
e ( ) ( )
0 1 = x21 (0) x22 (0) .
Recamos assim nos dois pares de equaes
( )
( ) a b ( ) ( ) ( )
= , e =
x11 (t) x12 (t) x11 (t) x12 (t) 1 0 x11 (0) x12 (0) ,
c d
e, ainda
( )
( )
a b ( ) ( ) ( )
= x21 (t) x22 (t) , e 0 1 = x21 (0) x22 (0) .
x21 (t) x22 (t)
c d
( )
Vamos denominar de x(t) = x11 (t) x12 (t) , a soluo do primeiro pro-
( )
blema e y(t) = x21 (t) x22 (t) , a do segundo.
Sabemos que a soluo do primeiro problema
x(t) = (1 0) et A
e do segundo
y(t) = (0 1) et A .
i i
i i
i i
Logo, ( ) ( )
x(t) 1 0
= et A = et A .
y(t) 0 1
Sendo assim X(t), soluo de X (t) = X(t) A e X(0) = I , satisfaz X(t) =
et A .
P : R R+ R,
P P
+ (s + a) = 1,
t s
com a condio de fronteira P (s, 0) = h(s), onde a uma constante e h(s)
uma funo real xada.
A equao acima diferencial parcial: ela envolve derivao parcial, dife-
rentemente dos casos anteriormente considerados acima nesta seo.
Um dos procedimentos mais usuais em equaes diferenciais parciais ten-
tar fazer a equao recair em um problema em que existe separao de variveis.
Por exemplo, o ideal seria que P (s, t) fosse da forma
P (s, t) = t + h(s).
i i
i i
i i
P (v, )
= 1.
fundamental supor abaixo que P (s, t), embora desconhecida, satisfaz a
equao desejada. Descobrir a B(v, ) conveniente ser nosso objetivo.
Vamos ver qual a equao satisfeita por P (v, ).
Ora, pela regra da cadeia
P P s P t
= + .
s t
Ora, se ocorrer
s
= (s + a),
e
t
= 1,
a equao acima se torna
P P P
= (s + a) + = 1.
s t
i i
i i
i i
s
s = a,
a condio inicial natural (para cada xo) s(v, ) = v ,
Logo,
s(v, ) = (v + a) e a,
P (v, )
= 1,
com a condio inicial P (v, 0) = h(v).
Logo,
P (v, ) = + h(v).
i i
i i
i i
Invertendo B , obtemos = t e
v = e (s + a) a = e t (s + a) a.
Logo,
P (s, t) = t + ( e t (s + a) a )i .
P ( X > x ) = 1 e x , x 0.
i i
i i
i i
Considere uma moeda que tem probabilidade p de sair cara e tem proba-
bilidade q = (1 p) de sair coroa.
Vamos jogar a moeda sucessivamente vrias vezes e varivel aleatria X
vai descrever a probabilidade do tempo em que acontece pela primeira vez o
evento sair coroa.
Desta forma X toma valores em {1, 2, 3, ...} e
P ( X = n ) = pn1 q, n 1.
P (X = n + m) pn+m1 q
= = j1 q
=
P (X > n) j= n+1 p
pn+m1
= pn = pm1 q = P (X = m).
1p
i i
i i
i i
Denote p = (1 p1 ).
Logo,
p i+1 = p pi pi = p p i1 ... pi = p i1 p1 .
Denote q = p1 = 1 p, e obtemos assim que X possui distribuio ge-
omtrica, pois P (X = i) = pi = pi1 q .
Vamos agora considerar agora o caso em que a varivel aleatria X toma
valores sobre os reais.
Suponha que X tenha distribuio exponencial com parmetro , ou seja,
{ {
ex , x 0 1 ex , x 0
fX (x) = , P (X > x) = FX (x) =
0, c.c. 0, c.c.
i i
i i
i i
i i
i i
i i
4.7 Exerccios
1. Seja (Xt )t0 um processo de Poisson com parmetro contnuo. Usando
a frmula { ji
exp{t} (t)
(ji)!
, se j i
Pij (t) =
0 , c.c.
2. Seja (Xt )t0 uma Cadeia de Markov com espao de estados {0, 1} e pro-
babilidades de transio
1 + (1)i+j e2t
Pij (t) = , para i, j = 0, 1.
2
i i
i i
i i
Mostre que
a. 0 Pij (t) 1.
b. j Pij (t) = 1.
c. {
1 , se i = j
Pij (0) = .
j
0 , se i =
d. Pij (t + ) = k Pik (t)Pkj ( ).
i i
i i
i i
i i
i i
i i
i i
i i
i i
5
Reviso de Teoria da Medida e
Propriedades Gerais de Processos
5.1 Introduo
Vamos iniciar esta seo mencionando os resultados de Teoria da Medida que
necessitaremos para formalizar rigorosamente a Teoria dos Processos Estocs-
ticos. Aps esta parte preliminar, iremos nos dedicar a utilizar tais resultados
no contexto especco que necessitamos no texto.
timas referncias gerais sobre Teoria da Medida que complementam o que
apresentamos aqui so [BA] e [Fe].
a) X est em A,
b) se A pertence a A, ento seu complemento X A tambm est em A,
c) Se (An )nN uma seqncia enumervel de conjuntos em A, ento sua
387
i i
i i
i i
tambm de grande importncia, mas sua anlise muito mais delicada (ver
[EK]) e no vamos aqui aprofundar muito tal questo.
Observao: Na observao feita aps o exemplo 5.10 car bem claro o
sentido e a pertinncia das exigncias requeridas na denio de sigma-algebra.
i i
i i
i i
interseo.
i i
i i
i i
i i
i i
i i
a) () = 0,
b) Para qualquer coleo En , n N, de conjuntos em F tais que En Em =
com m = n, ento vale que (n=1 En ) = n=1 (En ).
i i
i i
i i
Denio 5.7. Fixada uma medida (ou probabilidade) sobre uma -lgebra
A em um certo conjunto X , dizemos que uma determinada propriedade vlida
-quase toda parte, se existe um conjunto A-mensurvel K , com (K) = 0,
tal que a propriedade vlida para todos os pontos x em X K .
i i
i i
i i
C = a1 , a2 , ..., an .
1, 1, 1, 1, 1, 2, 1, 2, 1, 1, 2, 2, 2, 1, 1, 2, 1, 2, 2, 2, 1, 2, 2, 2.
i i
i i
i i
C = {X1 () = a1 , X3 () = a3 } = {X1 () = a1 , X2 () S, X3 () = a3 },
C = {X1 () = a1 , X3 () = a3 } =
C = {X1 () = a1 , X3 () = a3 } =
i i
i i
i i
e
C2 = { S N | (X1 (), X2 (), ..., Xk ()) B },
onde B, B S k .
fcil ver que
Da mesma forma,
i i
i i
i i
Denio 5.10. Uma lei que associa a cada subconjunto B em uma lgebra
Denio 5.11. Uma lei que associa a cada subconjunto B em uma lgebra
i i
i i
i i
Exemplo 5.5. O exemplo mais simples de lei aditiva sobre a lgebra das
unies nitas dos intervalos I contidos em X = [0, 1] R, onde
Exemplo 5.6. Um exemplo de lei aditiva sobre a lgebra das unies nitas
dos intervalos nitos I contidos em X = R a seguinte: dena
Denio 5.12. Dizemos que uma lei aditiva (ou -aditiva) sobre uma
i i
i i
i i
A = (F), a - lgebra gerada por F , tal que (B) e (B) coincidem sobre
todo B F . Se (X) = 1 ento uma probabilidade.
i i
i i
i i
Note que a medida de Lebesgue do conjunto {p} neste caso zero. Desta
forma ( {p} ) = 0.
Isto porque: ( (p 1/n, p + 1/n) ) = 2/n, para todo n N.
Note que nem sempre a medida de um conjunto da forma {p} nula (para
uma probabilidade em geral).
Segue ento da denio de medida (ou probabilidade) que qualquer con-
junto A com um nmero enumervel de elementos tem medida de Lebesgue
zero.
Segue tambm do fato que ({a}) = 0, ({b}) = 0 que vale
( (a, b) ) = ( [a, b] ).
i i
i i
i i
ser mostrar (ver Teorema 4.5) que, de fato, vale a -aditividade da lei P em
C , ou seja que, se
n=1 En C , ento vale que (n=1 En ) = n=1 (En ).
Assim pelo Teorema de Caratheodori-Kolmogorov obteremos uma proba-
bildiade sobre F . Por exemplo, uma matriz estocstica P e uma prob-
abilidade inicial permitem denir a probabilidade dos cilindros
a1 , a2 , ..., ak , para todo k . Desta forma o Teorema de Caratheodori-
Kolomogorov nos permite falar da probabilidade de conjuntos quais-
quer na sigma algebra F gerada pelos cilindros. Esta sigma-algebra
i i
i i
i i
-lgebra F com H .
Denio 5.14. Se H tambm F -mensurvel e xamos uma medida (ou
A A. fcil ver que tal de fato uma medida. Se (H) < , ento
denida por
(B)
(B) = ,
(H)
para B G , dene uma probabilidade sobre G . Esta probabilidade ser denom-
i i
i i
i i
A B B.
P1 (B) = P2 (B),
P1 (B) = P2 (B).
i i
i i
i i
Teorema 5.4. Suponha que seja uma lei aditiva em uma lgebra F (sobre
Demonstrao: Temos que mostrar que vale a -aditividade. Seja uma coleo
Bn , n N, de conjuntos em F tais que Bn Bm = com m = n, e suponha
que n=1 Bn = A F .
Seja, Cn = A j<n Bj , ento Cn est em F e Cn satisfaz a propriedade
descrita acima (na hiptese do presente teorema).
Logo, (Cn ) 0, quando n .
Note que para todo n xo vale A = Cn (j<n Bj ), logo
(A) = (Cn ) + (Bj ),
j<n
i i
i i
i i
Lema 5.1. Seja S nito. Suponha que An , n N, seja uma seqncia decres-
Demonstrao: Este resultado pode ser obtido do seguinte resultado geral bem
conhecido em espaos mtricos: Uma sequencia decrescente de compactos no
vazios tal que a interceo innita deles um conjunto no vazio (ver [Li3]).
De fato, = S N compacto e cada cilindro um conjunto fechado (assim
compacto). Ainda, a unio nita de compactos compacto. Logo, a unio
nita de cilindros um conjunto compacto.
Para o leitor que no conhece este resultado vamos apresentar abaixo uma
prova ao caso particular que tratamos aqui.
A demonstrao na se altera se consideramos que An , n N, uma seqn-
cia decrescente cilindros e no uma seqncia decrescente de unies nitas de
cilindros
Vamos denotar, sem perda de generalidade, o cilindro An por
com tn N, e Vjn S.
Note que como por hiptese An+1 An , temos que para todo n xo vale
que tn tn+1 , e Vjn+1 Vjn .
i i
i i
i i
nk
spondentes w2 1 com k N. Como S nito existe um elemento s2 tal que
nk
existem innitos ndices k N tais que w2 1 = s2 . Denote em ordem crescente
nr
estes ndices nk1 atravs de nr2 , com r N. Logo, w2 2 = s2 . Note que por
construo nr2 r.
r
O procedimento agora se repete: considere agora os elementos n2 =
nr nr nr nr
(w1 2 , w2 2 , w3 2 , ...), r N, e os correspondentes w3 2 com r N. Como S
nv
nito existe um elemento s3 e uma seqncia nv3 com v N, tal que w3 3 = s3
e os nv3 so obtidos do conjunto dos nr2 .
Note que
r r
X1 ( n2 ) = s1 , X2 ( n2 ) = s2 ,
para todo r N. Ainda,
v v v
X1 ( n3 ) = s1 , X2 ( n3 ) = s2 , X3 ( n3 ) = s3
para todo v N.
Dito de outra forma
nr nr
w1 2 = s1 , w2 2 = s2 ,
para todo r N. Ainda,
nv nv nv
w1 3 = s1 , w2 3 = s2 , w3 3 = s3
i i
i i
i i
para todo v N.
Em particular,
n3 n3 n3
w1 3 = s1 , w2 3 = s2 , w3 3 = s3 .
para todo v N.
i i
i i
i i
p1 + p2 + ... + pn = 1.
onde B S m .
Neste caso denimos
P (C) = pa1 pa2 ...pam .
(a1 ,a2 ,...,am )B
i i
i i
i i
onde B S k .
Sem perda de generalidade suponha que k > m. Logo, B = B S km .
Logo,
P (C) = pa1 pa2 ...pak =
(a1 ,a2 ,...,ak )B
pa1 pa2 ...pam pam+1 pam+2 ...pak =
(a1 ,a2 ,...,am )B (am+1 ,am+2 ,...,ak )S km
pa1 pa2 ...pam pam+2 ...pak =
(a1 ,a2 ,...,am )B (am+2 ,...,ak )S km1
pa1 pa2 ...pam .
(a1 ,a2 ,...,am )B
onde B, B S m .
Logo,
P (C1 C2 ) = pa1 pa2 ...pam =
(a1 ,a2 ,...,am )BB
pa1 pa2 ...pam + pa1 pa2 ...pam =
(a1 ,a2 ,...,am )B (a1 ,a2 ,...,am )B
P (C1 ) + P (C2 ).
i i
i i
i i
P (X1 () = a1 , X2 () = a2 , ..., Xm () = am ) =
i i
i i
i i
onde B S m .
Neste caso denimos
P (C) = p1a1 p2a2 ...pm
am .
(a1 ,a2 ,...,am )B
Tal P est bem denida e pode ser estendida -lgebra (C) gerada pelos
cilindros de maneira nica.
O caso anterior um caso particular deste.
Note que em ambos os casos
como
P (C) = a1 Pa1 a2 Pa2 a3 ...Pam2 am1 Pam1 am .
i i
i i
i i
onde B S m , denimos
P (C) = a1 Pa1 a2 Pa2 a3 ...Pam2 am1 Pam1 am .
(a1 ,a2 ,...,am )B
P (X1 () = a1 , X2 () = a2 , ..., Xm () = am ) =
w = (...x3 , x2 , x1 | x1 , x2 , x3 , ..)
ento
(w) = (...x3 , x2 , x1 , x1 | x2 , x3 , ..).
i i
i i
i i
Esta aplicao shift agindo em {1, 2, ..., d}Z por sua vez bijetiva.
Como exemplo observamos que
(X2 () = a2 , X1 () = a1 , X1 () = a1 , X2 () = a2 , X3 () = a3 ) =
(X3 () = a2 , X2 () = a1 , X1 () = a1 , X1 () = a2 , X2 () = a3 ).
Podemos denir um Processo Estocstico Markoviano Xn , n Z, tomando
valores em S = {1, 2, ..., d} da seguinte forma: seja P uma matriz estocastica,
com entradas Pi j , e tal que P = , ento
a no ser que P =
A B A B = AB.
i i
i i
i i
Teorema 5.6. Considere uma medida -nita sobre uma -lgebra A que
foi obtida como extenso de uma lei -aditiva sobre a lgebra F . Seja A
mensurvel com respeito (F) = A e suponha que (A) nito. Seja > 0,
i i
i i
i i
Teorema 5.7. Considere uma medida -nita sobre uma -lgebra A que
foi obtida como extenso de uma lei -aditiva sobre a lgebra F . Seja A
mensurvel com respeito a (F) = A. Dado > 0, ento existe uma coleo
(Ci ) = (Ci ) (A) + ,
i=1 i=1
A
i=1 Ci .
i i
i i
i i
1, 1, 1, 1, 1, 2, 1, 2, 1, 1, 2, 2, 2, 1, 1, 2, 1, 2, 2, 2, 1, 2, 2, 2.
i i
i i
i i
(f 1 (Z)) f 1 ((Z)).
Considere a coleo
D = {A Y ; f 1 (A) (f 1 (Z))}.
i i
i i
i i
(Use o fato que imagem inversa de um intervalo I [0, 1], ou seja, o conjunto
T 1 (I), a unio de dois intervalos e os intervalos geram a -lgebra de Borel).
i i
i i
i i
i i
i i
i i
Fica bem claro neste momento que as exigencias feitas na denio de sigma
algebra so sucientemente adequadas para a formalizao das questes mais
importantes que podemos estar interessados.
i i
i i
i i
i i
i i
i i
onde 1,2,...,n R so constantes xadas, ento dP , ser dada por
E() = dP = (1,2,...,n) P (a1 , a2 , ..., an ).
a1 ,a2 ,...,an S
i i
i i
i i
i i
i i
i i
d
A funo nica -quase toda parte e denotamos = d
.
i i
i i
i i
Vamos provar que E(Y ) 6 lim E(Xn ), isto , lim E(Xn ) > EY > EX ,
n n
o que conclui a prova.
Para isso, considere Ak = [Xk > Y ]. Observamos que Ak . De fato:
Xk (w) > Y (w) Xk+1 (w) > Xk (w) > Y (w), pois Xn . Portanto, Ak .
Mas a convergncia de Xk para X implica que Xk (w) > Y (w) para k sucien-
temente grande. Notemos que Y (w) < X(w) a menos que X(w) = 0. Logo,
= Ak = lim Ak . Portanto, Bn Ak Bn = Bn , quando k (e n
xo). Observamos que a varivel aleatria Y IAk discreta e
{ {
Y (w), se w Ak Y (w) 6 Xk (w), se w Ak
Y (w)IAk (w) = =
0, se w
/ Ak 0 6 Xk (w), se w
/ Ak .
Logo, 0 6 Y IAk 6 Xk e 0 6 E(Y IAk ) 6 E(Xk ). Para calcular E(Y IAk )
preciso notar que
{
n, se w Bn Ak , n N
Y (w)IAk (w) =
0, se w / (Bn Ak ).
n>0
Portanto,
m
E(Xk ) > E(Y IAk ) = nP (Bn Ak ) > nP (Bn Ak ), m.
n>0 n=0
Portanto,
lim E(Xk ) > nP (Bn ) = EY > E(X) , para todo > 0.
k
n=0
i i
i i
i i
|f | = sup{|f (w)|}.
w
i i
i i
i i
Ainda, a lei que associa L a P uma bijeo. Isto pode ser entendido da
seguinte forma: uma probabilidade P determinada de forma nica apenas
pela informao das integrais f dP de todas as funes continuas.
Note que isto no signica que para todo elemento A F vale que Pn (A)
converge P (A), quando n .
Um teorema importante em probabilidade arma que se = {1, 2, , ...d},
ento dada uma sequencia de probabilidades Pn , sobre a sigma-algebra de
Borel, sempre existe uma subsequencia Pnk , k N, e uma probabilidade P ,
tal que, Pnk converge fracamente a P , quando k , no sentido fraco.
O conjunto das probabilidade P sobre o conjunto (, F) ser denotado por
PW . A propriedade acima faz com que PW seja denominado sequencialmente
compacto. Na verdade existe uma metrica d sobre PW de tal forma que
limn Pn = P no sentido fraco (como denido acima), se e s se , , existe
N tal que para n > N , vale d(Pn , P ) < (o sentido usual de convergencia num
espao mtrico).
i i
i i
i i
||V T = (P ) + (N ).
x + (1 )y G, para todo 0 1.
i i
i i
i i
Uma transformao
T : (S N , A) (S N , A),
ento
i i
i i
i i
i i
i i
i i
igual a P (C).
Ora, como
i i
i i
i i
Ora, se
i i
i i
i i
Neste caso, x
FX (x) = fX (y) dy.
i i
i i
i i
i i
i i
i i
X : (, A) (R, R),
Y : (, A) (R, R).
Estamos interessados em analisar o par (X, Y ) : (, A) (R2 , R2 )
i i
i i
i i
de densidade conjunta do par (X, Y ), a funo fX,Y tal que fX,Y : (R2 , R2 )
(R, R), e
fX,Y (x, y)dx dy = X,Y (A),
A
M(T ).
i i
i i
i i
V1 V2 V3 S N ,
i i
i i
i i
g = h f.
nmero
E( (X E(X))2 ) =
[ (X() E(X)) (X() E(X)) ] dP () =
i i
i i
i i
f(x)
Figura 5.1: Densidade f (x) com dados que possuem forte concentrao em
torno da mdia.
[ (X() X dP ) (X() X dP ) ] dP () ,
2
denominado de varincia de X e e denotado por var(X ) ou X . Este nmero
i i
i i
i i
f(x)
Figura 5.2: Densidade f (x) com dados que possuem grande disperso em torno
da mdia. Alta probabilidade de encontrar valores bem distantes da mdia x0 .
xado (, F, P ), o nmero
E( (X E(X)) (Y E(Y )) ) =
[ (X() E(X)) (Y () E(Y )) ] dP () ,
[ (X() X dP ) (Y () Y dP ) ] dP () ,
i i
i i
i i
i i
i i
i i
nito S R, ento
[ X() Y () ] dP () = E( X Y ) = E(X) E(Y ).
Demonstrao: Ora,
E(X Y ) = x y P (X = x, Y = y).
x,yS
P (X = x, Y = y) = P (X = x) P (Y = y),
logo,
E(X Y ) = x y P (X = x) P (Y = y) =
x,yS
[ x P (X = x)] [ y P (Y = y)] = E(X) E(Y ).
xS yS
Demonstrao: De fato,
E( (X E(X)) (Y E(Y )) ) =
[ (X() E(X)) (Y () E(Y )) ] dP () =
[ X() Y () ] dP () E(X) E(Y ) E(X) E(Y ) + E(X) E(Y ) =
i i
i i
i i
xado (, F, P ), o nmero
Cov(X, Y )
,
X Y
2
(onde X e Y2 so, respectivamente, as varincias de X e Y) denominado
i i
i i
i i
independentes em relao (, F, P ) se
i i
i i
i i
B1 B1 , B2 B2 , ..., Bn Bn .
so -lgebras independentes.
P ( B1 B2 B3 ... Bn )
P (B1 ) = .
P (B2 ) P (B3 ) ... P (Bn )
i i
i i
i i
Logo,
(B1 ), B2 , B3 , ..., Bn ,
so independentes.
Fixados B1 (B1 ), B2 B2 , ..., Bn Bn , a lei induzida P2 sobre conjuntos
B F por
P ( B1 B B3 ..., Bn )
P2 (B) =
P (B1 ) P (B3 ) ... P (Bn )
uma probabilidade sobre F .
Ainda, para conjuntos B em B2 temos a igualdade P (B) = P2 (B). Logo,
como B2 um sistema , s existe uma extenso de P2 a (B2 ) e esta deve
coincidir com P . Logo, para todo B2 (B2 ) temos que
P ( B1 B2 B3 ..., Bn )
P (B2 ) = .
P (B1 ) P (B3 ) ... P (Bn )
Logo,
(B1 ), (B2 ), B3 , ..., Bn ,
so independentes.
O resultado segue de aplicar o processo indutivo descrito acima.
i i
i i
i i
B1 B1 , B2 B2 , ..., Bn Bn , vale
(B ), ,
so independentes.
i i
i i
i i
conjuntos
A1 , A2 , ..., An , ..., F.
A -lgebra cauda
T =
n=1 (An , An+1 , ...).
Seja = {1, 2}N , F a -lgebra gerada pelos cilindros (de todos os ranks)
e An a -lgebra gerada pelos conjuntos {1, 2}n1 {1} {1, 2}N e {1, 2}n1
{2} {1, 2}N .
O conjunto {1, 2} {1, 2} {1}N est em (A3 , A4 , ...)
i i
i i
i i
e
B = lim inf Am =
m jn Aj .
m
Armamos que neste caso, A T . De fato, para cada m xo A
(Am , Am+1 , ...).
Da mesma forma, B T .
Neste exemplo ca bem claro que determinar se um certo conjunto C est
ou no na -lgebra cauda, algo que no pode ser determinado por um
nmero nito de informaes.
Esperaramos que para a maioria" dos {1, 2}N fosse vlida a armao
acima. De fato, para um evento xo, a existncia do limite acima, traduziria
o fato que se jogamos uma moeda (honesta) innitas vezes e wi descreve a face
que sai na i-sima jogada, ento a mdia de vezes que sai cara em n jogadas
converge a 1/2.
i i
i i
i i
1
n
1
A = { = (w1 , w2 , ..., wn , ...) | lim wi = }.
n n 2
i=1
A armao acima bem natural, visto que para saber se existe o limite
n
limn n1 i=1 wi = 2 no basta saber se pertence a quais conjuntos de ni-
1
1
n
1 1
A=
m=1
N =0
n>N {| | wi | }.
n i=0 2 m
1
n
1 1
A=
m=1
N >2 m2
n>N {| | wi | }.
n i=m 2 m
independentes e
A T =
n=1 (An , An+1 , ...),
i i
i i
i i
Lema 5.2. Sob as hipteses acima, para qualquer n xo vale que
so independentes.
i i
i i
i i
so independentes.
fcil ver que (G) = (A1 , A2 , ...), e assim o lema est provado.
so independentes.
A1 , A2 , ..., An ,
temos que (An+1 , An+2 , ...) independente de Ai1 , Ai2 , Ai3 , ..., Aij .
Como A (An , An+1 , ...), temos que A independente de
i i
i i
i i
P (A B) = P (A) P (B).
o resultado segue.
Ff = {f 1 (B) | B R}.
i i
i i
i i
P ({ | h f () A, g () B}) =
P ({ | f () C, g () B}) =
i i
i i
i i
lim vn dP = lim (zn g) dP = g dP,
n n
e
lim hn vn dP = lim (zn f ) (zn g) dP = f g dP.
n n
i i
i i
i i
(X1 , X2 , X3 , ..., Xk ),
ou
(X1 , X2 , X3 , ..., Xk , ...).
A sigma-algebra assim obtida denominada de sigma-algebra gerada por
um conjunto de funes.
Quando S enumervel e X1 , X2 , ..., Xk , so tais que Xi : (, F) (S, R),
ento,
(X1 , X2 , X3 , ..., Xk ) = (V),
onde V so os conjuntos da forma { | Xi1 = a1 , Xi2 = a2 , ..., Xir = ar }, e onde
aj S , ij {1, 2, ..., k}, j {1, 2, ..., r}, r n.
Sugerimos ao leitor muita cautela ao tentar imaginar as possveis general-
izaes da armao acima para os outros casos.
i i
i i
i i
T =
k=1 (Xk , Xk+1 , ...).
1
Aa = { | lim ( X1 () + X2 () + ... + Xn ()) = a }
n n
S N.
Esta teorema segue de imediato do seguinte:
A T =
k=1 (Xk , Xk+1 , ...),
i i
i i
i i
j=1 (X1 , X2 , ..., Xj ),
gera a -lgebra
(X1 , X2 , ..., Xk , ...).
j=1 (X1 , X2 , ..., Xj ).
Como, este ltimo conjunto gera (X1 , X2 , ..., Xk , ...), ento, pelo Teroema
5.18, conclumos que A independente de (X1 , X2 , ..., Xk , ...).
Ora, A elemento desta -lgebra, logo P (A) = P (A A) = P (A) P (A).
Logo, o resultado est demonstrado.
Vamos agora mostrar que
(
j=1 (X1 , X2 , ..., Xj ) ) = (X1 , X2 , ..., Xk , ...).
B (X1 , X2 , ..., Xk )
e
C (X1 , X2 , ..., Xr ),
ento
B C (X1 , X2 , ..., Xr+k ).
i i
i i
i i
Se
B = (X1 , X2 , ..., Xk ),
j=1 (X1 , X2 , ..., Xj ),
uma lgebra.
Devemos mostrar nalmente que
(X1 , X2 , ...) (
j=1 (X1 , X2 , ..., Xj ) ).
(
j=1 (X1 , X2 , ..., Xj ) ).
Note que o teorema acima assegura tambm que para cada a R xo o
conjunto
i i
i i
i i
1 1
P ( max |Sk | a) 2
E(Sn2 ) = 2 V ar(Sn ).
0kn1 a a
Demonstrao: Seja
Logo,
n1
E(Sn2 ) Sn2 dP =
k=0 Bk
n1
[ Sk2 + 2 Sk (Sn Sk ) + (Sn Sk )2 ] dP
k=0 Bk
n1
[ Sk2 + 2 Sk (Sn Sk ) ] dP.
k=0 Bk
i i
i i
i i
n1
a2 P (Bk ) = a2 P ( { | max |Sk ()| a)} ).
0kn1
k=0
i i
i i
i i
1
E((Xn+1 + Xn+2 + ... + Xn+v )2 ) =
(1/m)2
1 v
2
2
E(Xn+k ).
(1/m) k=1
Fazendo v , obtemos que
1
P (max |(Sn+k Sn )| 1/m) 2
E(Xn+k ).
0k (1/m)2 k=1
Como, k=1 E(Xk ) nita,
2
k=n E(Xk ) converge a zero quando n ,
2
i i
i i
i i
P (n0 Am,n ) = 0.
converge.
i i
i i
i i
x = (..., x2 , x1 | x0 , x1 , x2 , ...),
onde | serve para nos dizer onde est o ndice zero de Z. Assim,
Referimos o leitor para [PY] para uma exposio mais completa sobre Teo-
ria Ergdica.
se (A) = 0 ou (A) = 1.
i i
i i
i i
IA (x) = an e2inx .
n=
2inx
IA (x) = an e = an e2in(x+) = IA (T (x)).
n= n=
Portanto
an e2inx = an e2in e2inx .
n= n=
i i
i i
i i
1
n1
lim j
f (T (z)) = f (x)d(x) (5.1)
n n
j=0
i i
i i
i i
1
n1
lim I(X0 =2) (T j (z)) =
n n
j=0
1
lim ( I(X0 =2) ((z0 , z1 , z2 , ...))+I(X0 =2) ((z1 , z2 , z3 , ...))+I(X0 =2) ((z2 , z3 , z4 , ...))+
n n
i i
i i
i i
1
n1
lim I(X0 =2,X1 =1) (T j (z)) =
n n j=0
1
lim ( I(X0 =2,X1 =1) ((z0 , z1 , z2 , ...)) + I(X0 =2,X1 =1) ((z1 , z2 , z3 , ...))+
n n
I(X0 =2,X1 =1) ((z2 , z3 , z4 , ...)) + ... + I(X0 =2,X1 =1) ((zn1 , zn , zn+1 , ..)) ) =
I(X0 =2,X1 =1) (x)d P (x) = P ( (X0 = 2, X1 = 1) ) = p2 p1 ,
C = (X0 = a0 , X1 = a1 , ..., Xk = ak ),
i i
i i
i i
onde ai {1, 2}, i {0, 1, 2, ..., k}. Para isto, basta considerar a funo men-
survel f = IC e seguir o procedimento acima.
Podemos mais geralmente calcular o valor de uma integral por meio de um
limite em n.
i i
i i
i i
que depende de n.
O Teorema de Birkho assegura, tambm neste caso, que existe para P -
quase todo S N
1
lim (Y0 () + Y1 () + ... + Yn1 ()).
n n
i i
i i
i i
1
n1
lim f (T j (x)) = f(x),
n n
j=0
i i
i i
i i
Questes mais nas que envolvem o quo grande deve ser o tamanho da
amostra e quo boa esta aproximao da integral envolvem a Teoria dos
Grandes Desvios [DZ].
Questes que envolvem a forma como esto dispersos estes dados em torno
da integral envolvem o Teorema Central do Limite que foi abordado em um
caso particular na seo 2.
Se o Processo Estocstico no ergdico o procedimento acima no pode
ser garantido. Note que a verso mais fraca do Teorema Ergdico no to
til. Mesmo que tivssemos vrias sequncias de dados distintas no se sabe a
priori o valor relativo de cada sequncia.
Em breve vamos apresentar uma condio suciente para que um Processo
Estocstico Markoviano seja ergdico (ver Teorema 5.32).
Vamos dar um exemplo agora de um processo estocstico estacionrio
Markoviano mas que no ergdico.
D1 = {(1, 1, 1, 1, 1, 1, 1, ...)},
i i
i i
i i
D1 = {(2, 2, 2, 2, 2, 2, ...)},
i i
i i
i i
j1 Pjk1 ,j2 = k
j Pj,j2
= j2 .
j1 S1 j2 S1 jS j2 S1 j2 S1
Sendo assim, independente de k vale P (S S1k S N ) = j2 S1 j2 . Como
a sequncia S S1k S N decrescente,
P (A) P (S S1N ) = j2 > 0.
j2 S1
i i
i i
i i
P ( (X2 = b2 , X5 = b5 ) ) P ( (X1 = a1 , X2 = a2 , X3 = a3 ) ).
Observe que, se os eventos B e T n (A) acima fossem independentes, ento
i i
i i
i i
z2 = (2, 3, 1, 2, 3, 1, 2, 3, 1, ..)
e
z3 = (3, 1, 2, 3, 1, 2, 3, 1, 2, ..).
Esta probabilidade no mixing embora ergdica.
Suponha que vale a), ento f pode ser aproximado por uma seqncia
monntona
f = lim hi ,
i
ni j
onde hi = j=1 ai IAj , uma funo simples. Da mesma forma,
i
g = lim zi ,
i
mi j
onde zi = j=1 bi IB j , uma funo simples.
i
i i
i i
i i
Ainda,
(f T n ) = lim (hi T n ).
i
produtos
(f T n ) g = lim (hi T n ) zi .
i
cn C e n .
No primeiro caso esta velocidade muito mais rpida. Sob condies bas-
tante gerais pode-se mostrar verses do Teorema Central do Limite para Pro-
cessos Estocsticos Mixing com decaimento exponencial de correlao (ver [B]
m da seo 35 para um resultado muito geral sobre o assunto).
i i
i i
i i
P (A) = lim P (A A)
n
Os nicos nmeros reais tais que so iguais ao seu quadrado so zero e um.
Logo, P (A) = 0 ou P (A) = 1.
A = (X1 = j1 , X2 = j2 , ..., Xs = js ),
B = (X1 = i1 , X2 = i2 , ..., Xr = ir ).
Ora,
B T (m+r) (A) = (X1 = i1 , X2 = i2 , ..., Xr = ir ,
Xm+r+1 = j1 , Xm+r+2 = j2 , ..., Xm+r+s = js ) =
i i
i i
i i
Portanto,
P (B T n (A)) = pi1 P (i1 , i2 )P (i2 , i3 )...P (ir1 , ir ) P (ir , xr+1 )
xr+1 ,xr+2 ,...,xm+r
(P m )ir j1
P (B) P (A) .
pj 1
Sendo assim, para i1 e j1 xos, como P recorrente aperidica e irredutvel,
ento vale que
lim P (T (m+r) (A) B) =
m
(P m )ir j1
lim P (B) P (A) =
m pj 1
(P m )ir j1
P (B) P (A) lim =
m pj1
pj 1
P (B) P (A) lim = P (B) P (A).
m pj 1
Como r est xo, fazer limite em n a mesma coisa que fazer limite
de n = m + r quando m .
Logo, o resultado que armamos acima (tipo mixing) verdadeiro quando
A e B so cilindros da forma acima. Considerando agora somas nitas destes
i i
i i
i i
P (B) = P (B A) + P (A B).
pois Ai C .
i i
i i
i i
e
E (Ai T m (Ai )) (E Ai ) (E T m (Ai )),
temos que
P ( E (Ai T m (Ai ) ) 2 P ( E Ai ).
Desejamos mostrar que P (E) = P (E)2 .
Lembre que
i i
i i
i i
Note que uma condio necessria (mas no suciente) para P ser ergdica
que P seja estacionria. Assim, esta ltima propriedade, no caso de um
processo estocstico Markoviano, requer que consideremos a condio inicial
tal que P = .
f (w0 , w1 ) dP (w) g (s) d(s).
Note que segue do que foi mostrado acima que o processo de jogar uma
moeda de forma independente com probabilidade 1 > p1 > 0 e p2 = 1 p1
ergdico. Isto consequencia do fato que ele pode ser considerado markoviano
recorrente aperidica e irredutvel com a matriz de transio
( )
p 1 p2
P= .
p 1 p2
Considere S = {1, 2}, uma matriz estocstica P do tipo 2 por 2, com todas
as entradas positivas, e um vetor de probabilidade inicial R2 invariante
para P . Neste caso, pelo resultado acima, podemos usar o Teorema 5.28.
Se estivermos interessados em calcular a frequncia de aparecimento do bloco
i i
i i
i i
vale
X()d P () = Y ()d P ().
G G
i i
i i
i i
i i
i i
i i
obtemos que
P (Ai B) = IAi IB dP = IAi X dP = P (Ai ) ai ,
i {1, 2, 3}.
Resulta ento que
P (Ai B)
ai = = P (B | Ai ),
P (Ai )
i {1, 2, 3}.
Ou seja, a1 = 0, a2 = 0.1
0.3
, a3 = 0.3
0.5
.
Finalmente,
Y = a1 IA1 + a2 IA2 + a3 IA3 .
Considerando o ponto de vista que uma -lgebra uma informao de
que dispomos, podemos pensar, usando a notao da denio acima de valor
esperado, que existe certa funo X , mensurvel A (muito rica em termos de
informao, mas desconhecida para ns). Suponhamos que nossa informao
se restringe a G . Ento Y = E[X | G] o que podemos saber de tal funo X
atravs do conhecimento de G .
valor mdio de X em Aj .
No caso de uma certa funo f : [0.1] R exibimos um exemplo (ver gura
5.3) de funo esperana condicional segundo a partio (sigma-algebra) dos
i i
i i
i i
intervalos [0, 1/4], (1/4, 1, 2], (1/2, 3/4], (3/4, 1]. Neste caso a funo esperana
condicional constante em intervalos e denida pelos valores ai,j .
a01 f(x)
a11
a00 a10
00 01 10 11
A1 = { | X1 = 1, X2 = 1}, A2 = { | X1 = 1, X2 = 2},
e
A3 = { | X1 = 2, X2 = 1}, A4 = { | X1 = 2, X2 = 2}.
Uma funo F mensurvel em relao a sigma lgebra gerada por estes
conjuntos, se e s se, constante nestes conjuntos. A demonstrao deste fato
similar a apresentada na observao feita antes do Teorema 5.8.
i i
i i
i i
1, 1, 1, 1, 1, 2, 1, 2, 1, 1, 2, 2, 2, 1, 1, 2, 1, 2, 2, 2, 1, 2, 2, 2.
Ou seja, Y = E[X | G], tal que Y : (, D) (R, R), uma funo dos
valores X1 (), X2 (), ..., Xn ().
i i
i i
i i
h(x1 , x2 , ..., xn ),
e no a funo
Y = h(X1 , X2 , ..., Xn ).
No poder haver confuso nisso, pois mantm-se sempre a notao de se
utilizar letras minsculas para denotar pontos xi R e letras maisculas para
as funes Xi .
Se as variveis aleatrias Xi acima, i {1, 2, 3, ..., n}, tomassem valores em
S , ento h poderia ser tomada como uma funo de
h : S n R.
Note que se X for G -mensurvel ento X = E(X | G).
Ainda, dada a -lgebra G tal que G = {, }, ento, as nicas funes G
mensurveis so as funes constantes.
Ento, neste caso, se Y = E(X | G) e Y = c, onde c constante, temos que
c = Y dP = XdP . Desta forma E[X] = E[X | {, } ].
Teorema 5.33. Seja X : (, A, P ) (R, R), mensurvel e G1 , G2 -lgebras
contidas em A tais que G1 est contida em G2 .
Ento,
E[ ( E[ X | G2 ] ) | G1 ] = E[ X | G1 ].
i i
i i
i i
Ento,
E[ E[ X | G1 ] | G2 ] = E[ X | G1 ].
Demonstrao: Denote por Y = E[ X | G1 ], ento Y G1 mensurvel, e assim,
G2 mensurvel. Logo Y = E[ Y | G2 ].
E[X] = E[ E[ X | G ] ].
i i
i i
i i
quer n, vale que Xn toma valores em N. Considere agora uma outra varivel
Ento,
E[ U | G ] = Z,
onde Z() = (X1 + X2 + ... + Xn0 ) dP, para todo tal que N () = n0 .
(X1 + X2 + ... + Xn ) (w) dP (w) IN (w)=n dP (w) =
nG
(X1 + X2 + ... + Xn ) IN =n dP =
nG
U IN =n dP = U dP.
nG N ()G
A partir do resultado acima se pode mostrar facilmente que para s > 0 xo
vale
E[ sU | G ] = Z,
onde Z() = s(X1 +X2 +...+Xn0 ) dP, para todo tal que N () = n0 .
i i
i i
i i
aleatria
U () = X1 () + X2 () + X3 () + ... + XN () (),
GU (x) = GN ( GX (s) ).
GU (s) = E[s ] = U
E[sU | N = n] P (N = n) =
n
E[sX1 +X2 +...+XN | N = n] P (N = n) =
n
E[sX1 +X2 +...+Xn ] P (N = n) =
n
E[sX1 ] E[sX2 ] ... E[sXn ] P (N = n) =
n
(E[sX1 ])n P (N = n) = GN (GX (s)).
n
i i
i i
i i
U = X1 + X2 + ... + XN .
i i
i i
i i
k
X= ai IKi ,
i=1
Ki G e ai R.
Como toda X que G mensurvel limite crescente de uma seqncia de
funes simples Xk , k N, como do tipo descrita acima, o resultado segue do
teorema a convergncia montona.
Note que
lim Xk Z = X Z.
k
i i
i i
i i
V V , vale que
Y dP = X dP.
V V
O resultado acima arma que se G = (V), ento basta testar nos conjuntos
geradores V V , para se saber se Y o valor esperado de X dado a -lgebra
G.
i i
i i
i i
Logo, uma funo Y que seja G mensurvel ter que ter o mesmo valor em
cada ponto da forma (1, x2 , x3 , x4 , ...) e (2, x2 , x3 , x4 , ...). Ou seja, Y no sabe
distinguir a primeira coordenada x1 . Ela no contm esta informao.
Os conjuntos da forma
Ainda, se s2 = 2, ento,
Y dP = c2 dP + c2 dP = c2 P (2, s2 , s3 , ..., sk ) = 2 .
G 12 s2 ,s3 ,...,sk 22 s2 ,s3 ,...,sk
i i
i i
i i
Exemplo 5.27. Considere S = {1, 2, ..., d}, uma matriz estocstica P do tipo
d por d e um vetor de probabilidade inicial Rd . Ficam assim denidas as
probabilidades dos cilindros a1 , a2 , ..., ak de tamanho k . Denotamos por Xn ,
n N, Xn : {1, 2, ..., d}N R o processo estocstico Markoviano associado.
Seja F uma funo denida sobre o conjunto S = {1, 2, 3, ..., d}. Para n
xo considere a funco mensurvel F (Xn+1 ) = G : {1, 2, ..., d}N R. Desta
forma, G tem o valor F (j) para todo w a1 , a2 , ..., ak , j .
A funo E(F (Xn+1 )|Fn ) = g ser constante em cilindros de tamanho n.
O valor de g no cilindro a1 , a2 , ..., ak
j
j
F (j) P (a1 , a2 , ..., ak , j) = F (j) a1 Pa1 ,a2 Pa2 ,a3 ...Pak ,j .
j=1 j=1
i i
i i
i i
P (A Cj )
cj = = P (A | Cj ).
P (Cj )
PG (Ak ) = E[IAk | G ] dP = E[ IAk | G ] dP.
k=1 k=1 k=1
E[ I
k=1 Ak
| G ] dP = PG (
k=1 Ak ).
i i
i i
i i
i i
i i
i i
Demonstrao.
i i
i i
i i
E[Xn+1 |Y0 , , Yn ] = E[(Yn+1 + Yk )2 (n + 1) 2 |Y0 , , Yn ]
= E[Yn+1
2
+ 2Yn+1 ( Yk )2 + ( Yk )2 (n + 1) 2 |Y0 , , Yn ]
i i
i i
i i
De fato,
n
E (|Xn |) = E (|(Y1 ) + . . . + (Yn )|) E|(Yn |) = 0 < .
i=0
Alm disso,
i i
i i
i i
E[Xn+k |Y0 , Y1 , , Yn ] = Xn .
Demonstrao Seja n xo. Para k = 1 o resultado segue da denio.
Vamos supor que a propriedade vale para qualquer n e tambm para k , e ento
mostrar que vale para k + 1.
Ora,
E[Xn+k+1 | Y0 , Y1 , , Yn ] =
E[ E[Xn+k+1 |Y0 , Y1 , , Yn+k ] | Y0 , Y1 , ..., Yn ] ] =
E[Xn+k | Y0 , Y1 , , Yn ] = Xn .
fazendo a propriedade
verge a X em L1 , isto ,
lim |X Xn | dP = 0.
n
Alm disso, Xn dP = XdP , para todo nmero natural n N.
i i
i i
i i
i i
i i
i i
(XT )n (w) = Xn (w), para n < T (w), e (XT )n (w) = XT (w) para n T (w).
Fica assim denida uma funo G : tal que
P
Suponha que seja a probabilidade sobre SN associada ao processo estocs-
tico Xn : R.
Assim, estabelecemos que
P ( G1 ({X0 = a0 , X1 = a1 , .., Xk = ak } ) ).
i i
i i
i i
n
Proof: Basta observar que I{S+T =n} = I{S=k} I{T =nk} e I{ST >n} =
k=0
I{S>n} I{T >n} .
Proof:
Proof:
n1
E[XT n ] = E[Xn I{T n} ] + E[XT I{T =k} ] =
k=0
n1
n1
E[Xn I{T n} ] + E[Xk I{T =k} ] = E[Xn I{T n} ] + E[Xn I{T =k} ] = E[Xn ].
k=0 k=0
de parada.
( )
Se P (T < ) = 1 e E supn0 |XT n | < , ento E (XT ) = E(X0 )
i i
i i
i i
onde c, d > 0.
Estamos supondo que q = p = 1/2.
Seja p(c) a probabilidade que Sn atinja c antes de d.
Do teorema acima temos que
i i
i i
i i
Como p(c) = d
c+d
obtemos que E[T ] = c d.
i i
i i
i i
(b) X(0) = x0 Rn .
(c) Para cada par de intervalos de tempo disjuntos [t1 , t2 ], [t3 , t4 ] com t1 <
t2 t3 < t4 , os incrementos X(t4 ) X(t3 ) e X(t2 ) X(t1 ) so variveis
aleatrias independentes dadas em (a), e similarmente para n intervalos
i i
i i
i i
i i
i i
i i
desejamos saber o valor P (Xt0 A). Isto d uma ideia em termos prticos do
que o movimento Browniano.
x2 wt
wt
x1
i i
i i
i i
b1
b3
wt
a1
wt
t2
o t1 t3 a
b2 3 t
a2
{X0 = 0, X2.1 (5, 7), X4.7 (3, 1.2), Xt3 (3, 8.4)}
um cilindro.
Mais geralmente um cilindro seria um conjunto da forma
{X0 = 0, Xt1 (a1 , b1 ), Xt2 (a2 , b2 ), Xt3 (a3 , b3 ), ..., Xtn (an , bn )}
onde n N, 0 < t1 < t2 < t3 < ... < tn , a1 < b1 , a2 < b2 , a3 < b3 , ..., an < bn .
Primeiramente desejamos obter a expresso analtica para o valor
P ({X0 = 0, Xt1 (a1 , b1 ), Xt2 (a2 , b2 ), Xt3 (a3 , b3 ), ..., Xtn (an , bn )})
i i
i i
i i
i i
i i
i i
d 2 p(t, x)
p(t, x) = , com a condio inicial p(0, .) a Delta Dirac no ponto 0
dt 2 x
(5.9)
onde uma constante positiva.
No tempo t a distribuio denida pela densidade pt (x0 , x) tem mdia x0
e varincia t.
Vamos assumir a partir de agora que = 1.
b
A expresso a p(x, t|x0 )dx denota a probabilidade de a partcula estar
entre a e b no instante t dado que estava em x0 no tempo 0.
Supondo que X(0) = 0, pode se mostrar que a probabilidade P do movi-
mento Browniano satisfaz, por exemplo,
b3 b2 b1
x2
2t1
(x2 x1 )2
(x3 x2 )2
e 1 e 2 (t2 t1 ) e 2 (t3 t2 )
dx1 dx2 dx3 .
a3 a2 a1 2 t1 2 (t2 t1 ) 2 (t3 t2 )
Fica assim denida para o movimento Browniano com x0 = 0 e = 1 o
valor
P (X0 = 0, Xt1 (a1 , b1 ), Xt2 (a2 , b2 ), Xt3 (a3 , b3 )).
Para um cilindro geral
P (X0 = 0, Xt1 (a1 , b1 ), Xt2 (a2 , b2 ), Xt3 (a3 , b3 ), ..., Xtn (an , bn ))) =
x2 (x2 x1 )2 (x3 x2 )2 (xn xn1 )2
1
b b b b 2 (tn tn1 )
n 3 2 1 e
2t1 e 2 (t2 t1 ) e 2 (t3 t2 ) e
... ... dx1 dx2 dx3 ... dxn .
an a3 a2 a1 2 t1 2 (t2 t1 ) 2 (t3 t2 ) 2 (tn tn1 )
i i
i i
i i
b3 b2 b1 b0
(x1 x0 )2
(x2 x1 )2
(x3 x2 )2
e 2 t1
e 2 (t2 t1 ) e 2 (t3 t2 )
f (x0 ) dx0 dx1 dx2 dx3 .
a3 a2 a1 a0 2 t1 2 (t2 t1 ) 2 (t3 t2 )
Como nos processos Markovianos a tempo discreto, podemos nos pergun-
tar se existe uma funo densidade inicia estacionria f (x) com respeito ao
processo Xt descrito acima, ou seja, se existe soluo f para o problema
b b
f (x) dx = f (x0 )pt (x0 , x1 ) dx0 dx1 . (5.10)
a a
A resposta para tal pergunta no. Para entender esta questo de forma
mais profunda vamos explicar a relao do movimento Browniano com equaes
diferenciais parciais.
Fixada a condio inicial f0 se deseja obter a densidade ft : R R tal que
para o processo acima vale para qualquer intervalo (a, b) e t 0
b b
ft (x) dx = f (x0 )pt (x0 , x1 ) dx0 dx1 . (5.11)
a a
i i
i i
i i
Ft Fs ,
para 0 t s.
Dado um processo estocstico Xt , t 0 tomando valores em R, dizemos
i i
i i
i i
(c) E[Xt+ ] < (onde para qualquer t 0, temos que Xt+ (w) = sup{Xt (w), 0}).
iano Xt .
Ft Fs ,
para 0 t s.
i i
i i
i i
(XT )t (w) = Xt (w), para t < T (w), e (XT )t (w) = XT (w) para t T (w).
Desta forma se obtem de forma semelhante ao caso em o tempo discreto
b + (1 )a = 0. (5.14)
i i
i i
i i
E portanto
|a|
= . (5.15)
|a| + b
Agora, como {U (t)} martingale e E[U (T )] = E[U (0)] = X 2 (0) 0 = 0,
temos que
0 = E[U (T )] = E[X 2 (T ) T ]. (5.16)
E portanto
E[T ] = E[X 2 (T )] = a2 (1 ) + b2 = |a|b (5.17)
Ut+s = Ut Ts .
i i
i i
i i
(Ut I) (f )
lim (x) = f (x). (5.19)
t0 t 2
Assim, se A o operador linear tal que A(f ) = 2 f , natural armar
que A o gerador innitesimal do movimento Browniano. Note que A no
esta denido para funes integrveis, mas apenas para funes duas vezes
diferencivel. Em geral os semigrupos importantes no esto denidos para
todas as funes mas apenas para uma classe "grande"de funes (ver [KT2]).
Lembre que p(t, x, y) = p(t, y, x) para todo t 0 e x, y R.
i i
i i
i i
b b b
f (x) dx = f (y)pt (y, x) dydx = f (y)pt (x, y) dxdy
a a a
(5.20)
equivale a resolver Ut (f ) = f para todo t 0.
Note que
d d2 p(t, x)
p(t, x) = = A(p(t, x)). (5.21)
dt d2 x
No caso de cadeias de Markov em tempo contnuo (obtidos a partir de uma
matriz linha soma zero L) sabemos que a evoluo de (t) a partir da condio
incial 0 era dada por
d
(t) = (t) L, onde (0) = 0 .
dt
Esta propriedade anloga a (5.21).
i i
i i
i i
1
lim E(Xt+h Xt |Xt = x) = u(x), e (5.22)
h0 h
1
lim (| (Xt+h Xt ) u(x) |2 |Xt = x) = 2 (x). (5.23)
h0 h
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
1 2 2
f A(f ) = 2
[ (y)f (x)] [u(y) f (x)]. (5.28)
2 y y
1 2 2
0= 2
[ (y)f0 (x)] [u(y) f0 (x)] = A(f0 ). (5.29)
2 y y
Assim, para encontrar f0 necessrio resolver uma equao diferencial
ordinria.
y
2 u(x)
dx x
Suponha que esta bem denido a(y) = e 2 (x) e A(x) = a(y) dy.
Se f for da forma
A(x) 1
f (x) = k1 + k 2 ,
a(x) 2 (x) a(x) 2 (x)
i i
i i
i i
Ainda,
Tl (w) = min{t tal que wt = l }
e
Tr (w) = min{t tal que wt = r }
i i
i i
i i
Denote por v(x) = Px (T (r) < T (l)), x [l, r]. Este valor nos d a proba-
bilidade de que o caminho amostral wt , t 0, ao sair do intervalo [l, r], o faa
pelo ponto r.
Pode se mostrar (ver seo 15 [KT2]) que v(x) satisfaz a equao diferencial
ordinria
d v(x) 1 2 d2 v(x)
0 = u(x) + (x)
dx 2 d x2
com a condio de fronteira v(l) = 0 e v(r) = 1.
Desta forma atravs de problemas do tipo Sturm-Liouville podemos obter
informaes importantes sobre a difuso Xt , t 0.
i i
i i
i i
Bibliograa
527
i i
i i
i i
i i
i i
i i
ndice Remissivo
-lgebra, 1, 387 conjunto aberto, 390
-lgebra cauda, 456 conjunto convexo, 427
-lgebra de Borel, 389, 399, 400 conjunto das partes, 1
-lgebra gerada, 389 conjunto invariante, 463
-lgebras independentes, 444 conjunto sequencialmente compacto, 427
conjunto trivial, 464
A Cadeia de Ehrenfest, 43
conjuntos independentes, 443
absolutamente contnua, 422
conjuntos mensurveis, 2
algebra, 392
Convergncia em Probabilidade, 229
amostra, 3
Convergncia Quase Certa, 229
Aproximao de Stirling, 114
convergencia fraca, 426
bola aberta, 390 convergencia simples de distribuio,
245
cadeia de Markov, 50 covariancia, 439
Cadeia de Markov de Ordem Superior, Critrio de Recorrncia, 110
206
Cadeia irredutvel, 346 decaimento de correlao, 476
cadeia irredutvel, 92 Decomposio em Peas Irredutveis,
Cadeias de Nascimento e Morte, 133 127
cilindro, 27 delta-Dirac, 392
classe fechada, 121 densidade Gaussiana, 247
classes de equivalencia, 91 dependencia de nitas coordenadas, 24
classicao de estados, 89 desigualdade de Chebyshev, 232
coeciente de correlao, 442 desigualdade de Jensen, 261
529
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i
i i