Documente Academic
Documente Profesional
Documente Cultură
1. Introdução.
Definição 1.1
Denomina-se PROCESSO ESTOCÁSTICO à família de variáveis aleatórias { X t ; t �T} ,
onde T é chamado conjunto de parâmetros ou conjunto de índices do processo. Se T é
um conjunto finito ou infinito mas numerável, diz-se que o processo é de parâmetro
discreto. Se T �R , isto é, se T é um intervalo real, diz-se que o processo é de parâmetro
contínuo.
Exemplo 1.1
O processo estocástico { X n ; n = 1, 2,...} , onde X n é o valor das vendas de um
supermercado no seu n-ésimo dia durante um determinado ano, é um processo de parâmetro
discreto, ilustrado no gráfico que segue..
Exemplo 1.2
O processo estocástico { X t ; t �0} , onde X t é o nível de água de um reservatório (represa)
no instante t, observado entre 6 e 18 horas de um determinado dia, é um processo de
parâmetro contínuo que pode ser registrado através de um dispositivo hidroeletrônico.
Exemplo 1.4
Seja { N t ; t �0} o número de clientes que chegaram a um posto de serviço no intervalo de
tempo [0,t). N t é um processo de parâmetro contínuo (tempo) que assume valores em um
espaço de estados discreto, ou seja, N t �[ 0,1, 2,3,.....] .
O gráfico que segue sugere um processo de Poisson. Por exemplo, se a escala do eixo t é
em minutos, então vemos que N1 = 2 , N 2 = 3 .
Exemplo 1.5
Um dispositivo eletrônico usado em CTI’s de hospitais, registra a cada instante, durante o
intervalo de tempo de um dia os batimentos cardíacos de um paciente. O processo
estocástico { X t ;0 �t �24 hs} , se expressa através de uma função contínua (batimentos
cardíacos) assinalada , a cada instante do dia, conforme o gráfico ilustrativo abaixo.
III – em uma bifurcação de uma estrada, (100p)% dos veículos seguem para a direita. O
processo X n se identifica a 0 ou 1 conforme o n-ésimo veículo que chega, siga para a
esquerda ou direita respectivamente.
Se o processo estocástico X t é uma variável aleatória do tipo discreto então seu espaço de
estados é finito ou infinito mas numerável e o processo é dito discreto. Se o processo
estocástico é uma variável aleatória do tipo contínuo seu espaço de estados é um intervalo
real e o processo é dito contínuo. De forma que um processo estocástico pode ser
classificado como:
A cada etapa de observação temos definida uma variável aleatória X tal que;
�p r = 1
P( X = r) = � (1.6.2)
�q r = -1
Fixemos Z0 = 0 , e, após n etapas consecutivas, obtemos:
A equação (1.6.3) pode ser escrita sob a forma: Zn = Z n-1 +X n onde X n é independente de
Zn -1 .
(n)
Em outras palavras, p( o,k ) é probabilidade do "sistema passar do estado 0 para o
estado k, em n etapas".
�1 se Xi = 1
Yi = �
�0 se X i = -1
1
Notemos que: Yi = ( X i + 1) é uma v.a de Bernoulli (p) e consequentemente a soma
2
1
destas n variáveis aleatórias, R n = Y1 + Y2 + ... + Yn = ( Zn + n ) tem distribuição de
2
Binomial (n,p).
�
� n � k +n n -k
�
� �p 2 q 2 k = -n, - ( n - 2 ) , - ( n - 4 ) ,......, ( n - 4 ) , (n - 2), n
�
�1 ( k + n ) �
p(( 0,k
n)
) =�
�2
� �
�
� 0 caso contrário
E ( Zn ) = E ( 2R n - n ) = 2E ( R n ) -n \ E ( Zn ) = n(p-q)
Exemplo 1.6.1
( 5) 5 4 1
�� 1
� p(( 0,3) ) = 5 �(1/2)5= 5/32.
5
Se n = 5 e k = 3, então p( 0,3) = ��p q e se p =
4
�� 2
Notemos que o sistema, a partir do estado 0, tem cinco opções de chegar ao estado 3 ,em 5
etapas, cada uma delas com probabilidade 1/32, como se pode ver abaixo:
Zn - n ( p - q )
~ N(0,1)
4npq
Daí, temos;
� Zn - 10000 �( 0, 6 - 0, 4 ) �
P�
�-1,96 � �1,96 �= 0,95
� 40000 �0, 6 �0, 4 �
P ( 1808 �Z �2192 ) = 0,95
Exercício 1.6.2
Determine a probabilidade aproximada de Z10.000 Î (-200,200) com p = 0,5.
Exercícios 1
1.1 – Pedro e João apostam num simples jogo da "moeda". Eles acordam pagar uma
unidade de capital ao outro quando perder a "jogada". Seja Sn o montante obtido por Pedro
em n lançamentos da moeda. Estruture notacionalmente o processo estocástico, definindo
o conjunto paramétrico, o espaço de estados, a classificação do processo e determine a
média e variância de Sn .
1.2 - Quantas etapas são necessárias para que o capital de Pedro se encontre no intervalo
(-300; 330) com probabilidade 0,90?
d) número de estudantes esperando pelo elevador num instante do dia em sua escola.
1.3 - Seja Zn , n = 10000, um modelo da passeio aleatório como definido no exemplo 1.6.
Determine a probabilidade aproximada de Zn Î (-1900,-2000) com p = 0,4.
Definição 2.1
Seja { X n ; n = 0,1, 2,3...} um processo de Bernoulli com probabilidade de sucesso igual a p.
Consideremos o processo estocástico,
� 0 se n = 0
Nn = �
�X1 + X 2 + ... + X n se n = 1, 2,3..
�0 se n = 0 �0 se n = 0
E ( Nn ) = � . e Var ( N n ) = �
�np se n �0 �npq se n �0
Obs:
E ( N n + m - N n ) = ( n + m ) p - np = mp
Var ( N n + m - N n ) = ( n + m ) pq + npq = 2npq + mpq = pq ( 2n + m )
Lema 2.1
Para todo n, k �N = { 0,1, 2,...} ,
P [ N n +1 = k ] = p �P [ N n = k - 1] + q �P [ N n = k ] (L1.1)
{ N n +1 = k} = �
( Nn = k - 1) �( N n +1 = k ) �
� ( Nn = k ) �( Nn +1 = k ) �
���
� �
e a sua probabilidade é:
Teorema 2.1
Para todo n �N ,
�n � k n - k
P { N n = k} = � � p q , k = 0,1, 2,..., n . (2.1)
�k �
iii) para completar a prova precisamos mostrar que (2.1) é verdadeira para n = m + 1 .
� m + 1� � m � �m �
Segundo a relação de Stiffel, � �= � �+ � �, e então,
� k � �k � � k - 1�
�m + 1�k m +1- k
P { N m +1 = k} = � �pq
�k �
Vamos agora determinar a distribuição do número de sucessos em n provas. Notemos que
N m + n - N m = X m +1 + X m +2 + ... + X m +n é também a soma de n variáveis aleatórias
independentes e identicamente distribuídas como Bernoulli (p). e portanto deduzimos que
N m + n - N m tem a mesma distribuição que N n .
De forma que,
�n �k n -k
P { N m + n - N m } = P { N n = k} = � �p q , k = 0,1, 2,..., n , (2.2)
�k�
Exemplo 2.1
Usando (2.2),
5 4 1
��
a) P ( N 5 = 4 ) = �� pq
4
��
6 3 3
��
b) P ( N13 - N 7 = 3 ) = ��p q = 20p3q 3
3
��
5 0 5 ��
�� 5 1 4
c) P ( N10 - N 5 �1) = �� p q + �� p q = q 5 + 5pq 4
0
�� 1
��
Teorema 2.2
Para todo m, n ��= { 0,1, 2,3,...} ,
�n �k n - k
P { N m + n - N m = k / N 0 , N1 ,..., N m } = P { N m + n - N m = k} = � �pq k = 0,1, 2..., n
�k�
Antes de demonstrar este Teorema, ilustraremos sua utilidade com os seguintes exemplos:
Prof. Frederico Cavalcanti 388491661.doc 11
Processos Estocásticos Ence
Exemplo 2.2
Calcularemos probabilidade do evento { N5 = 4; N 7 = 5; N13 = 8} .
Então,
P { N5 = 4; N7 - N5 = 1, N13 - N7 = 3} = P { N5 = 4; N 7 - N5 = 1} �P { N13 - N7 = 3}
Mais uma vez, usando o Teorema (2.2), a variável aleatória { N 7 - N5 } é independente das
variáveis aleatórias N 0 , N1 ,..., N 5 , e portanto de N 5 em particular.
De forma que,
P { N 5 = 4; N 7 = 5; N13 = 8} = P { N 5 = 4} P { N 7 - N 5 = 1} P { N13 - N 7 = 3}
5 4 1 ��
�� 2 1 1 ��6 3 3
= ��p q + ��p q + ��p q = 200p8 q5
4
�� 1
�� 3
��
Exemplo 2.3
Calcular a média do evento { N5 N8 } .
Observemos que N8 = N 5 + ( N8 - N 5 ) , e então,
N5 { N5 + ( N8 - N 5 ) } �
E ( N 5 N8 ) = E �
� N 52 + N 5 ( N 8 - N 5 ) �
�= E �
� �
Porque N 5 e ( N 8 - N 5 ) são independentes,conforme Teorema 2.2, escrevemos,
E ( N 5 N8 ) = E � �+ E [ N 5 ] E [ N 8 - N 5 ]
N 52 �
�
= Var [ N 5 ] + E 2 [ N 5 ] + E [ N 5 ] E [ N 8 - N 5 ]
= 5pq + 25p 2 + 5p.3p = 40p 2 + 5pq
P { N m + n - N m = k / X1 , X 2 ,..., X n } = P { N m + n - N m = k}
Corolário 2.2.1
Sejam n 0 = 0 < n1 < n 2 < ... < n j inteiros. Então as variáveis aleatórias N n1 - N n0 ,
N n 2 - N n1 ,..., N n j - N n j-1 são independentes.
Um processo estocástico que satisfaz o Teorema 2.2 (ou o Corolário 2.2.1) é chamado de
processo com incrementos independentes. Observemos que a independência de
N m + n - N m de N 0 , N1 ,..., N m foi constatada sem qualquer citação sobre a distribuição de
Xn .
Então o Corolário 2.2.1 se aplica a qualquer processo estocástico { Zn ; n ��} , definido por:
� 0 se n = 0
Zn = �
�Y1 , Y2 ,..., Yn se �1
Retornando ao processo de Bernoulli (p), suponhamos que o passado histórico até o tempo
m seja conhecido, isto é, as variáveis aleatórias { N 0 , N1 ,..., N m } e { X1 , X 2 ,..., X m } são
valores já realizados e que desejamos prever o valor de uma variável aleatória Y
dependendo do futuro do processo { N n } , digamos Y = g ( N m , N m+1 ,....) , onde g é uma
função qualquer.
O teorema que segue estabelece que: para prever valores de { N n ; n > m} , os valores de
N 0 , N1 ,..., N m -1 são irrelevantes, dado que N m é conhecido.
E { Y / N 0 , N1 ,..., N m } = E { Y / N m }
Exemplo 2.4
Vamos calcular a média de { N11 / N 5 } .
E { N11 / N 5 } = E { N 5 + ( N11 - N5 ) / N5 }
= E { N 5 / N 5 } + E { ( N11 - N 5 ) / N 5 }
= N5 + E { N11 - N 5 } = N5 + 6p
Exemplo 2.5
Reportando ao Exemplo 2.3, mostraremos que o uso da esperença condicional reduz o
trabalho algébrico envolvido.
E { N 5 N8 } = E { E [ N 5 N8 / N 5 ] }
Vejamos que,
E { N 5 N 8 / N 5 } = N 5 E { N8 / N 5 } = N 5 E �
N5 + ( N8 - N5 ) / N5 �
� �
E { N 5 N 8 / N 5 } = N 5 E { N8 / N5 } = N 5 �
E ( N5 / N5 ) + E ( N8 - N5 ) �
� �
E { N5 N8 / N5 } = N5 ( N5 + 3p )
Finalmente,
E { N5 N8 } = E { N 5 ( N5 + 3p ) } = E { N52 } + 3pE { N5 }
E { N5 N8 } = 25p 2 + 5pq + 3p �5p = 40p 2 + 5pq
Exemplo 2.6
Calcularemos agora Z = E [ N 5 N11 / N 2 N 3 ] .
E { N5 N11 / N 0 , N1 ,..., N 5 } / N 2 , N 3 �
Z= E�
� �
E { N5 N11 / N 5 } / N 2 , N 3 �
Z= E�
� �
E { N 52 + 6pN 5 / N 0 N1N 2 N 3 } / N 2 , N 3 �
Z= E�
� �
E { N 52 + 6pN 5 / N 3 } / N 2 , N 3 �
= E�
� �
= E�
N 52 + 6pN 5 / N3 �
� �
Ou seja, para prever o futuro dado que conhecemos N 2 e N 3 , precisamos apenas de N 3 .
Z = N32 + 2N 3 E [ N 5 - N 3 ] + E �
(�N5 - N3 ) �� ( 3
+ 6P N + 2P )
2
(*) Esclarecimentos sobre os desenvolvimentos dos exemplos 2.4, 2.5 e 2.6 constam do Apêndice A.1 – Média (ou Esperança)
Condicional.
I – Suponha que o k-ésimo sucesso tenha ocorrido na ou antes da n-ésima prova, isto é,
Tk �n . Então o número de sucessos nas primeiras n provas deve ser ao menos igual a k, ou
seja, N n �k, ou seja, Tk �۳
n N n k,
Exemplos de verificação:
i) se k = 3 � T3 = 4 �7 � N 7 = 5 �3
ii) se k = 5 � T5 = 7 �7 � N 7 = 5 �5
Teorema 2.4.
Seja { X n ; n �1} um processo de Bernoulli. Para k �{ 1, 2,3,...} e n �k ,
n
�n � j n- j
P { Tk �n} = �� � pq , n = k, k + 1, k + 2,...
j= k �j�
�n - 1� k n - k
P { Tk = n} = � � p q , n = k, k + 1, k + 2,...
�k - 1�
Definição 3.1
Seja a 0 , a1 , a 2 ,........ uma seqüência de números reais.
�
Se A(s) = a 0 + a1s + a 2s + a 3s + ......... =
1 2 3
�a s , converge em algum
k=0
k
k
Nota: a variável s não tem por si só nenhum significado na teoria das probabilidades e se a
seqüência { a n } é limitada, A ( s ) converge ao menos para s < 1.
Exemplos
1. Seja { a k } = 1 k=0,1,2,3.....
1
A(s) = 1+s1 + s 2 + s3 + ......... = , s �1 , se ½s½£ 1
1- s
�n�
2. Seja { a n } = � �, k = 0,1, 2,...., n
�k�
�n �0 � n �1 �n �2 �n �n
A ( s) = � � s +�� s +�� s + .. + � � s
�0 � �1 � �2 � �n �
A ( s) = ( 1+ s)
n
1
3. Seja { an} = , k = 01, 2,3,...
k!
� k
s
A ( s ) = � = es , s �1
k = 0 k!
Definição 3.2.2
Seja X uma variável aleatória do tipo discreto com função de probabilidade P(X = x) = p x ,
k = 0,1,2,3,......... Chama-se função geratriz de probabilidades de X, à função:
�
PX (s) = p0 + p1s + p2s 2 + p3s 3 + ....... = �p x Sx , s �1 .
x =0
Teorema 3.1
"A função geratriz de probabilidades existe sempre para toda variável aleatória do tipo
discreto"
Prova:
Como a seqüência de probabilidades é limitada, isto é, p x �[ 0,1] , então existe uma
� � �
m
constante m tal que p k < m . Então PX (s) = �p x S < �mS = m �S =
x x x
, s �1 .
x =0 x=0 x=0 1- s
Obs:
�
PX (1) = p0 + p1 + p2 2 + p33 + ....... = �p x =1
x =0
Exercício 3.1
Determinar a função geratriz de probabilidades da variável aleatória de Poisson ( l ).
Solução:
e -l l k
pk = , k = 0,1, 2,3,....
k!
( ls ) = el( s -1)
k
�
e -l l k k �
P ( s) = � s = e -l �
k =0 k! k =0 k!
Exercício 3.2
Determinar a função geratriz de probabilidades da variável aleatória Geométrica (p).
p k = pq k -1 , k = 1, 2,3,....
�
p � p qs ps
P ( s ) = �pq k -1 s k = � ( qs ) = �
k
=
k =1 q k =1 q 1 - qs 1 - qs
Exercício 3.3
Seja X uma variável aleatória assumindo valores x = 1,2,3,....., com função geratriz de
probabilidades P ( s ) , determine a f.g.p. de Y=X+1.
Solução:
�
A função geratriz de X é por definição, dada por PX ( s ) = �P ( X = x ) s .
x
x =1
Se Y = X + 1 � x = g ( y ) = y - 1 � PY ( Y = y ) = PX ( X = g ( y ) ) = PX ( X = y - 1)
-1 -1
e
se x = 1, 2,3,.... � y = x + 1 = 2,3, 4,... . A função geratriz de Y, por definição é:
�
PY ( s ) = �PY ( Y = y ) s y
y=2
ou PY ( s ) = s �PX ( X = y - 1) s y -1
y -1=1
P(X > k) = q k
q k = p k +1 + p k + 2 + p k +3 + ... .
1- P ( s)
Teorema 3.1 Para -1 < s < 1 , temos Q ( s ) =
1- s
Prova:
Q ( s ) = q 0 + q1s + q 2s 2 + q 3s 3 + ... (3.1.1)
sQ ( s ) = S(q 0 + q1s + q 2s 2 + q 3s3 + ...) (3.1.2)
Assim,
( 1 - s ) Q ( s ) = 1 - p 0 - ( p1s + p 2s 2 + p3s3 + p 4s 4 + ...) = 1 - P ( s )
Teorema 3.2
Seja X uma variável aleatória do tipo discreto com função de probabilidade P(X = k) = p k ,
k = 0,1,2,3,......... e função geratriz de probabilidades PX ( s ) . Então,
dP ( s )
= P ' ( 1) = E ( X ) (3.1.4)
ds s =1
d �� x�
� �
De fato, �x � p S = � x xp S x -1
= � x.p x = E ( X )
ds �
�x =0 �s =1 k =0 s =1 k =1
Corolário.
Q ( 1) = P ' ( 1) = E ( X ) (3.1.5)
1- P ( s)
De fato, conforme (3.1.3), Q ( s ) = e por conseqüência, P ( s ) = 1 - (1 - s)Q(s) .
1- s
Segue então que, P ' ( s ) = ( -1) { ( -1) Q ( s ) + ( 1 - s ) Q ' ( s ) } � P ' ( s ) s =1 = Q ( 1)
Obs: Use L’Hospital para calcular Q(1).
Teorema 3.3
Seja X uma variável aleatória do tipo discreto com função de probabilidade P(X = k) = p k ,
k = 0,1,2,3,......... e função geratriz de probabilidades PX ( s ) . Então,
d2P ( s )
X ( X - 1) �
= E�
� � (3.1.6)
ds s =1
De fato,
d 2 �� x� d � � �
�x � p S = � xxp S x -1
= � x ( x - 1) x
p S x-2
= � x ( x - 1) .p x = E �
X ( X -1) �
d 2s �
�x =0 �s =1 ds x =0 s =1 x = 0 s =1 k = 0
� �
ou
P '' ( 1) = E �
X ( X - 1) � � � E ( X ) = P '' ( 1) + P ' ( 1)
2
�
( )
P X = j; Y = k = P ( X = j) P ( Y = k ) = a jb k � j, k = 0,1, 2,3,...
Seja agora uma nova variável aleatória, S = X + Y , que assume os valores s = 0,1,2,3,...., e
consideremos o evento (S = r) , r ��. Tal evento é equivalente à união de eventos
mutuamente exclusivos e exaustivos, como segue
( S = r ) = ( X = 0; Y = r ) �( X = 1; Y = r - 1) �... �( X = r; Y = 0 )
cuja probabilidade é dada por:
P ( S = r ) = P ( X = 0; Y = r ) �P ( X = 1; Y = r - 1) �... �P ( X = r; Y = 0 )
De definirmos P ( S = r ) = c r , temos,
c r = a 0 b r + a1b r -1 + a 2 b r - 2 + ... + a r -1b1 + a r b 0 (3.2.1)
Definição 3.2.1
Dadas duas seqüências { a k } e { b k } , não necessariamente distribuições de probabilidades ,
a uma nova seqüência { c r } definida como em (3.2.1) chama-se convolução das seqüências
{ ak} e { b k } e se representa por,
{ cr } = { a k } * { b k }
Exemplo 3.1
Se a k = b k = 1, k �0 , c k = 1 + 1 + ... + 1 = k + 1
Exemplo 3.2
Se a k = k, b k = 1, "k �0 , c k = 0 + 1 + 2 + ... + k =
( 1+ k ) k
2
Exemplo 3.3
1 1 1
Se a 0 = a1 = ;a k = 0, "k �2 e b k = 1, "k �0 , c k = + = 1
2 2 2
Teorema 3.3
Se { a k } e { b k } são duas seqüências com funções geratrizes A ( s ) e B ( s ) e se
{ ck } = { a k } * { bk } , então a função geratriz da seqüência { ck } , C ( s ) , é igual a:
C ( s ) = A ( s ) �B ( s )
Corolário:
Dadas as seqüências { a k } , { b k } , { c k } ,.... , com funções geratrizes A ( s ) , B ( s ) , C ( s ) ,.... , a
função geratriz da convolução { a k } *{ b k } * { c k } *.... é o produto A ( s ) �B ( s ) �C ( s ) �.... .
Teorema 3.4
Sejam X e Y variáveis aleatórias independentes, não negativas, do tipo discreto, com
funções geratrizes PX { s} e PY { s} . Se W = X + Y então W tem como função geratriz
PW { s} = PX { s} �PY { s} .
Corolário:
Se a variável aleatória X k , k = 1, 2,..., n são variáveis aleatórias independentes e não
negativas, com função de probabilidade { p k } , k = 1, 2,3,..., n , então a variável aleatória
n
X = �X k tem como distribuição de probabilidade { p k } = { p k } * { p k } * { p k } * .... .
n*
k =1
( n -1) *
{ pk } = { pk } *{ pk }
n*
Obs: Em geral,
*---
Exercício proposto:
Determine a função geratriz de probabilidade das variáveis aleatórias Bernoulli(p) e
Binomial(n,p) e verifique a proposição do corolário acima.
Obs:
No Apêndice A.3 são apresentadas algumas aplicações teóricas de funções geratrizes, além
Exercícios 3.
3.1 - Seja X uma variável aleatória com distribuição de Bernoulli (p). Determine sua função
geratriz de probabilidades (fgp) e calcule a média e variância de X, usando a fgp e a função
Q(s).
3.2 - Seja X uma variável aleatória com distribuição Binomial(n,p). Determine sua função
geratriz de probabilidades (fgp) e calcule a média e variância de X, usando a fgp e a função
Q(s).
3.3 - Seja X é uma variável aleatória do tipo discreto com função de probabilidade
P ( X = x ) = p x , x = 0,1, 2,... e função geratriz de probabilidades PX ( s ) . Determine a
relação entre PX ( s ) e as funções geratrizes de probabilidades das variáveis aleatórias ,
a) Y = X + c b) Y = 2X c) Y = cX
1
3.4 - Sejam X e Y variáveis aleatórias tais que: P ( X = j) = , j = 1, 2,3,..., 6 e
6
1
P ( Y = k ) = , k = 0,1 . Use o conceito de convolução entre X e Y para calcular a função de
2
probabilidade da variável aleatória S = X+Y.
3.8 – Seja X uma variável aleatória do tipo discreto assumindo determinações k = 0,1,2,...,
Determine em função de P(S) - função geratriz de probabilidades de X - as funções
geratrizes das seqüências:
a) P ( X �k ) b) P ( X < k ) c) P ( X �k )
c) P ( X > k + 1) d) P ( X = 2k )
4 - A Ruína do Jogador.
Definição 4.1
Dois jogadores A e B disputam um jogo com as seguintes características:
Após a primeira etapa o capital de A é (z-1) ou (z+1), conforme ele tenha perdido ou
ganho aquela etapa. Desta forma, uma equação de diferenças finitas envolvendo a
probabilidade Rz , pode ser construída como segue:
pR z+2 - R z +1 + qR z = 0 (4.1)
1 q
pqz+2 - qz +1 + qqz = 0 � qz (q 2 - q + ) = 0
p p
1 q 1 q
Temos então que q (q - q + ) = 0 � q = 0 ou q - q + = 0 . Como qz = 0
z 2 z 2
p p p p
nos leva a uma solução trivial ela é descartada e ficamos com a segunda opção.
( )
2
1 � 4p - 4p + 1
2 1� 4 p - 1
2
q= \q =
2p 2p
De forma que;
1 �( 2p - 1)
q=
2p
2p
q1 = \q = 1
2p
2 - 2p q
q2 = \q =
2p p
A solução da equação de diferenças finitas é então:
z
�q �
R z = c1 ( 1) + c 2 � � sendo R 0 = 1 e R a = 0 .
z
�p �
Com as condições iniciais definidas, calculamos as constantes c1 e c 2 , e finalmente
obtemos a probabilidade de ruína do jogador A que iniciou o jogo com z unidades de
capital,
( ) ( )
a z
q - q
p p
Rz = (4.2)
( )
a
q -1
p
Com procedimento similar calculamos a probabilidade de ruína do jogador B, trocando p
por q e z por a-z., ou simplesmente fazendo G a - z = 1 - R z , ou seja.
( p ) -1
z
q
G a -z = (4.3)
( q p ) -1
a
R0 = 1
Ra = 0
Usando as condições iniciais acima, encontramos:
z
Rz = 1- (4.4)
a
Por outro lado se desejamos a probabilidade G a - z , ou seja a probabilidade do jogador B
se arruinar tendo iniciado o jogo com a-z unidades de capital, quando p = q, basta substituir
z por a-z e encontramos:
a -z a -a +z z
G a -z = 1 - = \ Ga-z = (4.5)
a a a
�p �
pc ( z + 2 ) - c ( z + 1) + qcz = -1
c ( pz + 2p - z - 1 + qz ) = -1
1
c ( 2p - 1) = -1\ c =
q-p
A solução geral da equação é portanto,
z
z �q �
+ c1 ( 1) + c2 � �
z
Dz =
q-p �p �
D0 = 0
Da = 0
E finalmente, usando as condições iniciais acima, a duração do jogo para o jogador A que
inicia com z unidades de capital é:
Dz =
z
-
a �
� q z�
1-
�
p �
�
( )
q-p q-p� q a �
1-
�
� p �� ( )
Quando p = q = 1/2, a equação (4.8) se torna
D z + 2 - 2D z +1 + D z = -2 (4.9)
D0 = 0 e D a = 0 , resulta em:
Notamos que a duração do jogo no caso presente é muito maior que poderíamos esperar. Se
ambos os jogadores iniciam o jogo com 500 reais, a duração média do jogo é de 250.000
etapas.
Vamos supor que o jogo termina na prova em que o jogador A conseguir pela primeira vez,
um lucro líquido de uma u.c..
É evidente que isto só pode ocorrer nas provas 1,3,5,7... com probabilidades
p, qp 2 , 2q 2 p3 , 5q 3p 4 ,.......... , mas uma regra geral não é discernível.
�-1 q
Xk = �
�1 p
n
Se definirmos, Sn = X1 + X 2 + ... + X n = �X k , obviamente,
k =1
Notemos que o evento "jogador A vir a ter um lucro de uma unidade de capital" , com
probabilidade q é a união dos eventos:
"o jogador A vir a ter um lucro de uma unidadade de capital pela 1ª vez na prova 1"
ou
"o jogador A vir a ter um lucro de uma unidadade de capital pela 1ª vez na prova 3"
ou
"o jogador A vir a ter um lucro de uma unidadade de capital pela 1ª vez na prova 5"
ou
.....................................................................................................................................
.....................................................................................................................................
�
Assim, escrevemos : q = �l
n=1
n = l1 + l 2 + l 3 + .....
Suponhamos que a primeira ocorrência x = 1 ocorreu na r-ésima prova (r < n).As próximas
(n-r) provas produzirão um lucro líquido acumulativo em u.c. de
S1' = X r +1
S'2 = X r +1 + X r + 2
S3' = X r +1 + X r + 2 + X r +3
...................................
S'n - r = X r +1 + X r + 2 + ..... + X n
Observemos ainda que estas (n-r) provas são independentes das r primeiras provas.
Em consequência, o evento "x = 2, pela primeira vez na n-ésima prova" tem probabilidade
definida por:
{ l( ) } = { l } *{ l } .
n
2
n n
l1 = p
(5.4)
l n = ql (n2-)1 n >1
Em outras palavras, se A perdeu a primeira prova, para que ele venha a ter um lucro líquido
de 1 unidade, pela primeira vez na n-ésima prova, é necessário e suficiente que ele
obtenha exatamente 2 u.c. de lucro nas (n-1) provas restantes, vencendo na n-ésima
prova.
Para resolver a e.d.f. em questão, usaremos a técnica das funções geratriz. Para isso
multipliquemos a e.d.f. em ambos os lados por Sn .
� �
l n Sn = ql 2n -1Sn � �l S
n =2
n
n
= qS�l 2n -1Sn -1
n =2
2
A primeira raiz não é definida para S = 0. pois , lim l ( S) = (indeterminação)
s �0 0
0 lim l ( S) = 0
A outra raiz é tal que lim l ( S) = , e, aplicando-se L'Hôpital, temos s �0 o
s �0 0
que nos leva à conclusão que;
m =0
�
(1- t)
a
= �( -1)
m
( )t
a
m
m
= 1 - ( 1a ) t + ( a2 ) t 2 - ( 3a ) t 3 + ....
m =0
Obtemos,então;
� �1 � �
1 � � m� � m 2m �
l ( S) = �1 - �( -1) 2 ( 4pq ) S �
2qS � m=0 ��
�m� �
�
1 � � m� 1 2� m �
l ( S) = �- �( -1) � � ( 4pq ) S2m-1 �
2q � m=1 �m �
( -1)
m +1
�
�1 2� m
l ( S) = � � � ( 4pq ) S2m-1
m=1 2q �m �
Finalmente,
�-1 m+1 1 2
�( ) � �
� (
� 4pq )
m
n = 2m - 1
l n = � 2q �m � (5.6)
�
� 0 n = 2m
Exemplo 5.1
Para ilustração, calculemos l n para alguns valores de n.
1 ��
�
1 �
2
�
�
1. m = 1 � n = 1 � l 1 = � � 4pq = p
�1 �
2q � �
�
( - 1) �1 � 3
2. m = 2 � n = 3 � l n =
�
� 2�
� 2
( 4pq) =
�
1111 2 2
4 p q = p 2q
�
� �
2q �2 � � 2222
( - 1) � 1 �
4
3. m = 3 � n = 5 � l 5 =
�
� 2�
� 3
( 4pq ) =
�
1113 1 3 3 2
4 p q = 2p 3q 2
� �
�3 �
2q � � 2 2 2 2 2�3
( - 1) � 1 �
5
� �
� 11135 1
� 2�
4
4. m = 4 � n = 7 � l 7 = � ( 4pq ) = 44 p 4q 3 = 5p 4q 3
2q � �
� 2 2 2 2 2 2�3�4
�4 �
( - 1) �1 � 6
5. m = 5 � n = 9 � l 7 =
�
� 2�
�
�
5
( 4pq ) =
111357 1
45 p 5q 4 =14p5q 4
�
� � 2q �5 � � 2 2 2 2 2 2 2�3�4�5
.................................................................................................................................................
.................................................................................................................................................
Observemos que,
1 - 1 - 4pq 1 - (2p - 1) 2
q = l (1) = =
2q 2q
1 - (p - q) 2 1 - p - q
q = l (1) = =
2q 2q
e finalmente,
1
� se p �q
q = l (1) = �
�p q se p<q
Consideremos agora o evento "o lucro líquido de A se tornar 0 pela primeira vez na n-ésima
prova". Este evento é equivalente ao evento "o número de sucessos se igualar ao número de
insucessos, pela primeira vez na n-ésima prova", onde sucesso representa o fato de A
ganhar numa determinada prova.
f 2 = 2pq
f 4 = 2p 2 q 2
f 6 = 4p3q 3
f8 = 10p 4q 4
................
................
vez na n-ésima etapa. Esta probabilidade pode ser facilmente encontrada, bastando para
isso substituir p por q em l n .
Assim, temos:
f n = q l n -1 + p l (n--11)
1 - (1 - 4pqS2 )1 2
l -1 ( S ) =
2ps
� � �
�f S n
n
= q �l n-1Sn + p�l n( --11) Sn
n =1 n=1 n =1
2 12
�
1-(1-4pqS ) 1 -(1-4qpS2 )1 2
�
n=1
n
fsS = qS
2qs
+ pS
2ps
( )
12
F ( S) = 1 - 1 - 4pqS2
Fazendo-se S = 1,
1
F ( 1) = 1 - ( 1 - 4pq ) 2
� F ( 1) = 1 - p - q
�2q se p �q
�
q�
=�
�2p se p < q
�
� 1 2�
k�
F ( S ) = 1 - �( -1) � �( 4pq ) S2k
k
k =0 �k �
� 1 2�
�
�( -1) ( 4pq ) S2k
k +1 k
F(S) = � �
k =1 �k �
� k +1 �
1 2�
�( -1) � �( 4pq )
k
n = 2k
� �k �
fn = �
�
�
�0 n = 2k-1
Exemplo 5.2
Ilustrando, calculemos f n , para n = 2,4,6...
1 2�
�
f2 = � �( 4pq ) = 2pq
�1 �
�4 �
� �
...............................................
...............................................
6 - Eventos Recorrentes.
6.1 - Introdução.
Alguns dos mais simples processos estocásticos estão associados a uma série de repetitivas
provas independentes com o objetivo de observar em cada prova a ocorrência ou não de
um determinado evento. Por exemplo, quando lançamos uma moeda 5 vezes com o
objetivo de contar o número de caras observados, não é difícil usar a teoria das
probabilidades básica para calcular probabilidades envolvendo o evento “ocorrer cara”.
Para esclarecer melhor o que podemos entender como evento padrão E, analisemos os
seguintes exemplos:
Exemplo 6.1
Consideremos uma seqüência de provas independentes de Bernoulli, onde o evento E é
definido da seguinte forma:
ou
fixando como prova inicial de um novo período de observação a sexta prova, ou seja, a
seguinte após a primeira ocorrência de E, o evento E veio a ocorrer pela primeira vez na
prova de ordem 12.
Exemplo 6.2
Representemos simbolicamente por H a ocorrência de “cara” e por T a ocorrência de
“coroa”, ao lançarmos sucessivamente uma moeda. Se os resultados da experiência
formam a seqüência abaixo,
HHT/HT/THT/HHHHHHT/TTTHT/TTHHT/THT/HT/HHT/T
então o evento padrão E = “uma coroa após uma cara” ocorreu nas provas de ordem 3, 5,
8, 15, 20, 25, 28. 30 e 33.
Definição 6.1
Um evento é dito recorrente se:
( )
II - P E j1 , E j2 ,,,,, E jn+m = P ( E1 , E 2 ,..., E n ) �P ( E n +1 , E n + 2 ,..., E n +m )
A partir da definição 6.1 e dos dois exemplos discutidos, vamos denotar por u n a
probabilidade de E ocorrer na n-ésima prova (não necessariamente pela primeira vez) e por
f n a probabilidade de E ocorrer pela primeira vez na n-ésima prova, isto é;
�u k = �.
Por outro lado, os eventos “E ocorrer pela primeira vez na n-ésima prova”, n = 1,2,3,... são
mutuamente exclusivos e
�
f = �f n = f1 + f 2 + f3 + ..... = F ( 1) �1
n =1
Se f < 1 , então existe uma possibilidade de E não ocorrer numa seqüência infinitamente
prolongada de provas, e a variável aleatória T pode ser apelidada como “não própria”, pois
não assume nenhum (contrariando todos os conceitos do cálculo das probabilidades,
T � �) valor com probabilidade ( 1 - f ) , e E ( T ) = �.
Pela definição 6.1, de evento recorrente, a probabilidade de que E ocorra pela primeira vez
na prova k e pela segunda vez na prova n é igual a f k f n - k e conseqüentemente a
probabilidade que E ocorra pela segunda vez na prova n é igual a
convolução de { f n } , isto é,
{ f ( ) } = { f } *{ f }
n
2
n n
{ f ( ) } = { f } *{ f } *{ f }
n
3
n n n
é igual a
f n( r ) = f1f n( r--11) + f 2 f n( r--21) + ... + f n -1f1( r -1)
{ f ( ) } = {1f 4} *44
n
r
n { f 2} *4...4* {4f3}
n n
r vezes
Teorema 6.1
( k)
Seja f n( ) a probabilidade que a r-ésima ocorrência de E aconteça na prova n. Então f n
r
{ } é
a função de probabilidade da soma
r
T ( r ) = �Tk = T1 + T2 + ... + Tr
k =1
�
Fr ( S) = �f n( r ) Sn .
n =1
Com isto, definimos que a probabilidade de que E ocorra pelo menos r vezes é igual a
�
f = F (1) = �f n( r ) = f1( r ) + f 2( r ) + f 3( r ) + .... .
r r
n =1
Definição 6.2
Mais uma definição sobre eventos recorrentes é necessária. Antes vamos discorrer sobre
dois exemplos;
Definição 6.3
O evento E é dito periódico se existe um inteiro l > 1 tal que o evento E só pode ocorrer
nas provas de ordem l, 2l,3l,... . O maior l com esta propriedade é chamado período de
E.
Vamos relacionar os eventos “E ocorrer na n-ésima prova” e “E ocorrer pela primeira vez
na n-ésima prova”.
A probabilidade de E ocorrer pela primeira vez na n-ésima prova é f n u 0 . Como estes casos
são mutuamente exclusivos, temos
1
U ( S) - 1 = F ( S) U ( S ) � U ( S ) = (6.3)
1 - F ( S)
Nota:
� � �
Como estabelecemos que S �1 , então F ( S ) < 1 , U ( S) = �F ( S) � �u S = �f ( ) S
r n r n
n n . A relação entre as funções
r =1 n =1 n =1
geratrizes de probabilidades estabelecida em (6.3) nos oferece então: u n = f n( 1) + f n( 2 ) + f n( 3) + .... que expressa o fato óbvio
de que se E ocorreu na n-ésima prova, ele previamente ocorreu 0 ou 1, ou 2,..,ou n-1 vezes, considerando que
f n( ) = 0, se r > n.
r
� �
Teorema 6.2
�
seja divergente.
Teorema 6.3
Seja E um evento recorrente persistente, não periódico, com tempo médio de recorrência
�
1
igual a m = � n f n = F ' ( 1) , então: lim u n = .
n =0
n �� m
Nota: u n � 0 se m = �
Teorema 6.4
t
Seja E um evento recorrente persistente com período t: então lim u nt = e u k = 0 para
n �� m
todo k não múltiplo de t.
Nota:
As provas dos teoremas 6.2 a 6.4 são apresentadas no Apêndice 4 e podem ser pesquisadas
em Feller, Ch. 13, Sec. 10.
Exemplo 6.3
Consideremos uma seqüência de provas de Bernoulli (p) e seja E o evento “o número de
sucesso é igual ao número de fracassos”. Obviamente o evento E só pode ocorrer numa
prova de ordem par, sendo a probabilidade de E ocorrer na prova k = 2n é,
�2n � n n
u 2n = � � pq , u 2n +1 = 0
�n �
Utilizando-se a fórmula de Stirlings ( *) para aproximação de fatoriais de altos inteiros,
obtemos,
2n �n n ( 4pq )
n
�
u 2n = � � pq �
�n � np
�2n �-2n �1 �
n -
Conforme A5-VI, � � 2 = ( - 1) � 2 �e assim, escrevemos.
�n �
�n � � �
� � -1 � n
U ( S) = �� 2 � ( -4 ) ( pqS2 )
n
�n �
n =0
� �
� �1 �
n -
U ( S) = �( -1) � 2 � ( 4pqS2 )
n
�n �
n =0
� �
De acordo com a fórmula binomial de Newton, A5- I,
U ( S) = ( 1 - 4pqS2 )
-1
2
1 -1
Se p �q � U ( 1) = ( 1 - 4pq ) � u=
2
será o número esperado de ocorrências
p-q
de E. e a probabilidade de que E ocorra pelo menos uma vez é:
u -1
f= = 1- p - q
u
U ( S) - 1
� F ( S) = 1 - ( 1 - 4pqS2 ) 2
1
Por outro lado, F ( S) =
U ( S)
1
Se p = q = ,
2
F ( S ) = 1 - ( 1 - S2 )
1
2
de onde extraímos,
�
�2n - 2 � 1
�
� � 2n -1 se n �1
f 2n =�
�n - 1 �n2
� 0 se n �0
�
7.1 - Introdução.
Consideremos o conjunto finito (ou infinito, mas numerável) de pontos ( t 0 , t1 , t 2 ,..., t n , t ) ,
t 0 < t1 < t 2 < .... < t n < t , com t, t r �T, onde r = 0,1, 2,..., n , sendo T o conjunto
paramétrico do processo { X t ; t �T} .
Definição 7.1
Dizemos que { X t ; t �T} ,ou
seja, X t 0 , X t1 , X t 2 ,..., X t n , X t é um processo estocástico
processo markoviano se a distribuição de X t depende apenas de X t n , isto é:
{ } { }
P X t �x / X t n = x n , X t n-1 = x n -1 ,...., X t o = x 0 = P X t �x / X t n = x n = F ( x n , x ; t n , t ) (7.1)
Seja{ X n ; n ��} uma cadeia de Markov com espaço de estados E, isto é, para cada
n ��= { 0,1, 2,...} , X n se identifica a um “estado” de E. Para todo i �E , se X n = i , então é
costume dizer que “o processo está no estado i, na época n”. Se ainda,
X n -1 = i e X n = j , dizemos que o processo “passou do estado i para o estado j em uma
etapa”.
Definição 7.2
Seja { X n ; n ��} uma cadeia de Markov e designemos por j, o j-ésimo estado do sistema,
ou seja j �E . Chama-se distribuição do sistema (ou do processo) na etapa n, a função
de probabilidade definida por
( n)
P = P ( X n = j) , j �E
(7.2)
Nota:
Se E = { 1, 2,..., h} P { X n = 1}
� P( n ) = �
� P { X n = 2} - - - - P { X n = h} �
�
Definição 7.3
Seja { X n ; n ��} uma cadeia de Markov. Chama-se probabilidade de transição do
sistema em uma etapa, à expressão Pi, j = P ( X n = j/ X n -1 = i ) , para todo i, j �E .
Nota:
Se a probabilidade transição de uma Cadeia de Markov independe de n , a Cadeia de Markov é dita homogênea.
Definição 7.4
A matriz P = �
Pi, j �
� �é chamada matriz de transição do sistema em uma etapa.
Uma matriz P com estas propriedades é denominada matriz estocástica por definição.
Observemos que, fixada uma linha i, Pi, j é a distribuição de saída do sistema do estado
i , para os outros estados, sendo os elementos da diagonal de P as probabilidades de numa
etapa o sistema permanecer no estado i.
Exemplo 7.1
Para ilustrar a definição 7.4 consideremos a matriz estocástica P3�3 abaixo,
0,1 0, 4 0,5�
�
�
0, 7 0 0,3�
P=� �
�
0,5
� 0, 2 0,3 �
�
- se o sistema está no estado i = 2 na etapa n, ele tem probabilidade igual a 0,7 de passar
para o estado 1 na etapa ( n + 1) .
- se o sistema está no estado i = 2 na etapa n ele não poderá estar no estado i = 2 na etapa
( n + 1) pois a probabilidade P2,2 é zero.
- se o sistema está nos estados i = 1 ou i = 3 na etapa n, ele poderá estar em quaisquer dos
estados j = 1,2,3 na etapa ( n + 1) , pois todas as probabilidades da primeira e terceira linha
são não nulas.
Exemplo 7.2
Suponha que em certa região, com base em observações históricas, a probabilidade de
chover amanhã depende apenas de estar ou não chovendo hoje e independe das condições
do tempo em dias passados. Suponha ainda que se chove hoje, choverá amanhã com
probabilidade 0,7 e que se não chove hoje, choverá amanhã com probabilidade 0,4.
Designemos os estados do sistema por 1 se está chovendo hoje e por 2 em caso contrário,
de forma que E = { 1, 2} . Assim, temos as seguintes probabilidades de transição:
P1,1 = P { X n +1 = 1/ X n = 1} = 0, 7
P1,2 = P { X n +1 = 2 / X n = 1} = 0,3 pois P1,2 = 1 - P1,1
P2,1 = P { X n +1 = 1/ X n = 2} = 0, 4
P2,2 = P { X n +1 = 2 / X n = 2} = 0, 6 pois P2,2 = 1 - P2,1
0, 7 0,3�
�
P=�
0, 4 0, 6 �
� �
Suponha-se ainda, que hoje está chovendo! Então, segundo a definição 7.2, a distribuição
( 0)
inicial do sistema, P = � � �é igual a P = [ 1 0] .
P { X 0 = 1} P { X 0 = 2} � ( 0)
�P P12 �
P( 1) = P( 0) ��11 � P( 1) = P ( 0) �P
P21
� P22 �
�
(7.3)
Exemplo 7.3
Uma partícula pode estar em um dos pontos 1,2,3,...,s-1,s do eixo dos x’s. Ela permanece
para sempre no ponto x = 1 e x = s se a eles chegam numa determinada etapa n. Se numa
dada etapa a partícula se encontra no ponto x = i, (2 �i �s - 1) , na etapa seguinte ela estará
no ponto ( i + 1) com probabilidade p ou no ponto ( i - 1) com probabilidade q = 1-p.
Nota: os pontos 1 e s são chamados de “barreiras de absorção”
Definição 7.5
Seja { X n ; n ��} uma cadeia de Markov. Chama-se probabilidade de transição do estado
i para o estado j em n etapas, à expressão Pi, j = P ( X n + m = j/ X m = i ) , para todo i, j �E .
( n)
(7.5)
�1 1 1 �
�2 4 4�
P=�2 0 1 �
�3 3�
�3 2 0 �
�5 5 �
P { X1 = b; X 2 = c; X 3 = a ; X 4 = c; X 5 = a ; X 6 = c; X 7 = b / X 0 = c} =
= Pc,b �Pb,c �Pc,a �Pa,c �Pc,a �Pa,c �Pc,b
2 1 3 1 3 1 2 3
= ��� �� � =
5 3 5 4 5 4 5 2500
etapa 1 é
�1 1 1 �
�2 4 4�
P = [ 1 0 0] ��
( 1) 2 0 1 �= �1 1 1 �
�3 3 � �2 4 4�
�3 2 0�
�5 5 �
3
iii) A matriz de transição em duas etapas é igual a P = �Pi,k Pk, j , isto é:
2
k =1
�1 1 1 � �1 1 � �
1 68 27 25 �
�2 4 4� � 2 4 � � 120
4 120 120�
P =�
2 2 0 1 � ��
2 0 1 �= � 64 36 20 �
�3 3 � �3 3 � � 120 120 120�
�3 2 0� �
3 2 0� �68 18 34 �
�5 5 � �5 5 � � 120 120 120 �
iii) Se o processo se inicia no estado a, isto é. P { X 0 = a} = 1 então a distribuição do
processo na etapa inicial é P = [ 1 0 0]
( 0)
e conforme (7.4) a distribuição do processo na
etapa 2 é
68
� 27 25
�
� 120 120 120 �
P( 2) = [ 1 0 0] ��
64 36 20 �= �
68 27 25 �
� 120 120 120 � � 120 120 120 �
�
68 18 34 �
� 120 120 120 �
A = { X 0 = a ; X1 = a ; X 2 = a} �{ X 0 = a ; X1 = b; X 2 = a} �{ X 0 = a ; X1 = c; X 2 = a}
P ( A ) = P { X 2 = a / X1 = a ; X 0 = a} �P { X1 = a / X 0 = a} �P { X 0 = a} +
+ P { X 2 = a / X1 = b; X 0 = a} �P { X1 = b / X 0 = a} �P { X 0 = a} +
+ P { X 2 = a / X1 = c; X 0 = a} �P { X1 = c / X 0 = a} �P { X 0 = a}
P ( A ) = P { X 2 = a / X1 = a } �P { X1 = a / X 0 = a} +
+ P { X 2 = a / X1 = b} �P { X1 = b / X 0 = a} +
+ P { X 2 = a / X1 = c} �P { X1 = c / X 0 = a}
Finalmente,
1 1 1 2 1 3 68
P(A) = Pa ,a �Pa ,a + Pa,b �Pb,a + Pa,c �Pc,a
� P(A) = � + � + � =
2 2 4 3 4 5 120
Por fim, a distribuição do processo na etapa 3, pode ser obtida multiplicando-se a
distribuição do processo na etapa 1 por P 2 ,
17
� 9 5 �
� 30 40 24 �
P( 3) = P( 1) �P 2 = �1 1 1 � ��8 3 1 �= �67 27 26 �
�2 4 4 � � 15 10 6 � � 120 120 120 �
�
17 3 17 �
� 30 20 60 �
Exemplo 7.5
Durante certo período do ano a gerência de atendimento aos clientes numa loja de
Departamentos registrou o número de clientes atendidos por hora. Analisando a evolução
deste número e as modificações apresentadas através de uma seqüência de horas, o
estatístico responsável estimou que: se o número de clientes superou a cota 100 numa
fixada hora, a probabilidade de que esta cota seja superada na próxima hora é igual a 0,6.
Se cota não é superada numa fixada hora a probabilidade dela não ser superada na hora
seguinte é 0,8.
i) dado que na primeira hora de um determinado dia a cota foi superada qual a
probabilidade de que na hora do almoço (12:00 às 13:00) ela seja superada? Esta é uma
informação de grande importância para o gerente planejar a escala de almoço dos
funcionários.
ii) nas condições de (i) quantas horas em média a cota se manterá abaixo ou igual a 100 até
que não seja superada pela primeira vez?
Este fenômeno pode ser modelado por uma Cadeia de Markov de 2 estados:
S = { cot a �100 cot a >100}
que, simplificadamente representaremos por S = { 0 1} .
P0,0
� P0,1 � �
0,8 0, 2 �
P=� �=�
P1,0
� 0, 4 0, 6 �
P1,1 � � �
a distribuição do sistema é
�0,8 0, 2 �
P( 1) = P( 0 ) �P = [ 0,5 0,5] �� = [ 0, 6 0, 4]
�0, 4 0, 6 �
�
e ao término da segunda hora será:
�0,8 0, 2 �
P( 2) = P( 1) �P = [ 0, 6 0, 4] �� = [ 0, 64 0,36]
�0, 4 0, 6 �
�
�0, 72 0, 28 �
ou, de outra forma P( 2) = P( 0 ) �P 2 = [ 0,5 0,5] �� = [ 0, 64 0,36 ]
�0,56 0, 44 � �
Teorema 7.1
Seja { X n ; n ��} uma Cadeia de Markov de 2 estados com espaço de estados S = { 0 1 } e
matriz de transição em uma etapa dada por
P0,0
� P0,1 �
P=�
P1,0
� P1,1 �
�
� ( n) ( n) �
P0,0 P0,1
P n = �( n ) �
P1,0
�
� P1,1( n ) �
�
� ( 2) ( 2) �
P0,0 P0,1
P = �( 2)
2
�
P1,0
�
� P1,1( 2) �
�
Para provar que isto vale para n, suponha que a matriz de transição em (n - 1) é dada por:
� ( n -1) ( n -1) �
n -1
P0,0 P0,1
P = �( n -1) � (7.7)
P1,0
�
� P1,1( n -1) �
�
� ( n -1) ( n -1) �
n -1
P0,0 P0,1 P0,0
� P0,1 �
P �P = �( n -1) ��
�
P1,0
�
( n -1)
P1,1 � P P1,1 �
� � �1,0 �
� ( n) ( n ) � �( n -1)
P0,0 P0,1 P0,0 P0,0 + P0,1 (n -1)
P1,0 (n -1)
P0,0 (n -1)
P0,1 + P0,1 P1,1 �
P = �( n )
n
�= � �
P1,0
�
� P1,1( n ) �
� �
( n -1)
P1,0
� P0,0 + P1,1(n -1) P1,0 ( n -1)
P1,0 P0,1 + P1,1(n -1) P1,1 �
�
De forma que,
( n) ( n -1) (n -1)
P0,0 = P0,0 P0,0 + P0,1 P1,0
( n) (n -1) (n -1)
P0,1 = P0,0 P0,1 + P0,1 P1,1
( n) ( n -1)
(7.8)
P1,0 = P1,0 P0,0 + P1,1(n -1) P1,0
P1,1( n ) = P1,0
( n -1)
P0,1 + P1,1(n -1) P1,1
( n) ( n) ( n)
P0,0 + P0,1 =1 e P1,0 + P1,1( n ) = 1 (7.9)
Teorema 7.2
Seja { X n ; n ��} uma Cadeia de Markov de 2 estados com espaço de estados S = { 0 1 } e
matriz de transição em uma etapa dada por
1- a
� a �
P=� � 0 �a , b �1 e 1- a - b < 1
�b 1 - b �
(7.10)
Então, a matriz de transição em n etapas é:
�b ( 1- a - b) ( 1 - a - b) �
n n
a
� +a -a �
a+b
� a+b a+b a +b �
P =
n
�b ( 1- a - b)
n
a ( 1- a - b) �
n
� -b +b �
a+b
� a+b a+b a +b �
(7.11)
( n)
(b) Seja P = � � P0( n ) P1( n ) �
�distribuição do processo na etapa n, isto é, as probabilidades
do processo se encontrar nos estados 0 e 1, na etapa n, sendo a distribuição inicial do
sistema igual a
P ( 0) = �
P0( 0 ) P1( 0) �
� �. Então,
� ( n) ( n) �
P0,0 P0,1
�( n )
P0 ( n) �
P1 �= �
P0 �( 0 ) P1 �( 0) �
��( n ) �
� P1,0
� P1,1( n ) �
� �
ou seja,
P0( n ) = P0( 0) P0,0
( n)
+ P1( 0 ) P1,0
( n)
( 1)
P0,0 = 1- a
( n)
P0,0 = ( 1 - a ) P0,0
( n -1)
(
+ b 1 - P0,0
( n -1)
)
( n)
P0,0 = b + ( 1 - a - b ) P0,0
( n -1)
se n > 1
(7.13)
( n)
Temos então uma relação recursiva com a qual determinaremos P0,0 ,
Fazendo-se n = 2,3,...
( 2)
P0,0 = b + (1- a ) ( 1- a - b)
( 3)
= b + b ( 1- a - b) + ( 1- a ) ( 1- a - b)
2
P0,0
( 4)
= b + b ( 1- a - b) + b (1- a - b) + (1- a ) (1- a - b)
2 3
P0,0
-----------------------------
-----------------------------
( n)
= b + b ( 1 - a - b ) + b ( 1 - a - b ) + ... + b ( 1 - a - b ) + (1- a ) (1- a - b)
2 n -2 n -1
P0,0
E assim,
n-2
( n)
= b�( 1 - a - b ) + ( 1 - a ) ( 1 - a - b )
k n -1
P0,0
k =0
que também pode ser resolvida através de recorrência como (7.13) ou pelo método das
equações de diferenças finitas conforme Apêndice A4. Os elementos do lado direito de
(7.11) são obtidos através de (7.9).
Nota:
A técnica de relações recursivas ou também a solução por equações de diferenças finitas é de muita utilidade, mas
somente para cadeias de Markov de dois estados. Para n > 2, a matriz de transição em n etapas P n pode ser
obtida através de autovalores de P e a correspondente representação matricial.
Teorema 7.3
Para 1 - a - b < 1 ,
�b a �
�
a+b a + b�
lim Pi,i( n ) �= �
lim P n = � �
n �� �
n �� � �b a �
�
a+b
� �
a + b�
Prova:
( 1 - a - b ) = 0 e assim os segundos termos dos elementos de P n
n
Se 1 - a - b < 1 � lim
n ��
Nota:
Uma prova direta do Teorema 7.3 pode ser obtida através das relações recursivas (7.13) e
(7.14), como segue:
O que se nota é que estas probabilidades são independentes do estado inicial do processo e
então podemos registrar que
b
p0,0 = p1,0 = p0 =
a+b
a
p0,1 = p1,1 = p1 =
a+b
( 0)
Para ilustrar o estudado, seja P = � p(o0) p1( 0 ) �
� � a distribuição inicial do processo e,
obviamente que
P( n ) = P( 0) �P n
� b ( 0) b ( 0) a a �
p(0n )
�
� p1( n ) �
�= � po + p1 p(00) + p1( 0) �
a+b
� a+b a+b a+b �
� b �( 0) a �( 0 ) � �b a �
p(0n )
� p1( n ) �
�= � po + p1( 0 ) � po + p1( 0 ) �
� p(0n )
� � p1( n ) �
�= �
� a+b
� � � a+b � �
� � a+b
� a +b�
�
0,8 0, 2�
� 0, 70 0,30 �
� 0, 650 0,350 �
� 0, 6250 0,3750 �
�
P=� P( 2) = � P ( 3) = � P( 4) = �
0,3 0, 7 �
� � 0, 45 0,55 �
� � 0,525 0, 475 �
� � 0,5625 0, 4375�
� �
0, 61250 0,38750 �
�
P ( 5) = �
0,58125 0, 41875�
� �
Segundo (7.11) a matriz de transição em n etapas é igual a:
0, 6 + 0, 4 �2 - n 0, 4 - 0, 4 �2- n �
�
P( n ) = � �
0, 6 - 0, 6 �2- n 0, 4 + 0, 6 �2- n �
�
A diferença entre as linhas de P n diminui à medida que n cresce. isso significa que, quanto
mais o consumidor típico compra, mais a influência da marca inicialmente comprada
diminui e o consumidor tende a “fixar uma preferência” .
Em outras palavras,
0, 6 0, 4 �
�
lim P n = �
n �� 0, 6 0, 4 �
� �
P( 0) = [ 0, 4 0, 6 ]
Assim, obtemos
0,8 0, 2 �
�
P( 1) = [ 0, 4 0, 6] � = [ 0,5 0,5]
0,3 0, 7 �
� �
0, 70 0,30�
�
P( 2) = [ 0, 4 0, 6] � = [ 0,55 0, 45]
0, 45 0,55�
� �
0, 650 0,350 �
�
P( 3) = [ 0, 4 0, 6] � = [ 0,575 0, 425]
0,525 0, 475�
� �
0, 6250 0,3750 �
�
P( 4) = [ 0, 4 0, 6] � = [ 0,5875 0, 4125]
0,5625 0, 4375�
� �
È fácil notar que a diferença entre os vetores P( n ) e P( n +1) se torna cada vez menor quando
n cresce. Quando n é suficientemente grande, ou seja, no limite,
lim P ( n ) = P ( 0) �P n = P( n ) = p
n ��
ou
0, 6 0, 4 �
�
p = [ 0, 4 0, 6] � = [ 0, 6 0, 4 ]
0, 6 0, 4 �
� �
0,8 0, 2 �
�
P( 1) = [ 0,1 0,9] � = [ 0,35 0, 65]
0,3 0, 7 �
� �
�0, 70 0,30 �
P( 2) = [ 0,1 0,9] � = [ 0, 475 0,525]
�0, 45 0,55 �
�
�0, 650 0,350 �
P( 3) = [ 0,1 0,9] � = [ 0,5375 0, 4625]
�0,525 0, 475� �
A nova distribuição inicial estabelecida afetou portanto as distribuições de estado. Mas
igualmente como na evolução anterior, a diferença entre os vetores P( n ) e P( n +1) se torna
cada vez menor quando n cresce, e
�0, 6 0, 4 �
p = [ 0,1 0,9] � = [ 0, 6 0, 4 ]
�0, 6 0, 4 �
�
Assim, neste exemplo, existe uma distribuição limite que independe da distribuição inicial.
Para algumas cadeias homogêneas, existe uma distribuição limite especificada pelo vetor:
p=�
p1
� p2 p3 - - pj �
�
p = p �R
( k) 1 se X k = j e X 0 = i
�
Yi, j = �
0
� caso contrário
( k)
A variável aleatória Yi, j é uma variável aleatória indicadora que registra o tempo k no
qual o processo visita o estado j, tendo partido do estado i. A função de probabilidade de
Yi,( kj ) , para um fixado k, é dada por:
1 - Pi,( kj )
� r=0
{ �
( k)
P Yi, j = r = � ( k ) } r =1
� Pi, j
Em decorrência disto, temos:
( )
E Yi,( kj ) = Pi,( kj ) , i, j = 0,1 e k = 1, 2,..., n
( k)
Visto que Yi, j assume o valor 1 quando o processo está no estado j e 0 quando não,
partindo do estado i, claramente o número de visitas do processo ao estado j, tendo partido
inicialmente do estado i, em n etapas é dado por:
( n) ( n)
Denotando por mi, j a média da variável aleatória Ni, j , obtemos:
( )
n
m(i,nj) = E N (i,nj) = Pi,( 1j) + Pi,( 2j ) + ... + Pi,( nj ) = �Pi,( kj ) i, j = 0,1
k =1
( k)
Assim, buscando as expressões de Pi, j , conforme Teorema 7.2, calculamos :
�b a ( 1- a - b) �
k
n n
( n) ( k)
m 0,0 = �P0,0 = �� + �
�
k =1 a + b a+b �
k =1
� �
nb a n
m(0,0
n)
� ( 1- a - b)
k
= +
a + b a + b k =1
nb a ( 1 - a - b ) �1- ( 1- a - b) �
� n
m 0,0 ( n)
= + �
a+b ( a + b)
2
( n) ( n) ( n)
O mesmo procedimento nos leva ao cálculo de m 0,1 , m1,0 e m1,1 .
Teorema 7.3
Prof. Frederico Cavalcanti 388491661.doc 57
Processos Estocásticos Ence
Considere uma Cadeia de Markov de 2 estados com matriz de transição em uma etapa dada
por
�1- a a �
P=� � 0 �a , b �1 e 1 - a - b < 1 .
�b 1 - b �
( n) ( n)
Então a matriz mi, j , onde mi, j é o valor esperado do número de visitas que o processo
faz ao estado j em n etapas tendo originalmente iniciado no estado i, é dada por
� a ( 1- a - b) � 1- ( 1- a - b) � na a ( 1 - a - b ) �
�1 - ( 1 - a - b ) ��
n n
�nb � � ��
+ -
�
a+b ( a + b) a+b ( a + b) �
2 2
m(i,nj) =� �
� b ( 1- a - b) � 1- ( 1- a - b) � b ( 1- a - b) � 1 - ( 1 - a - b ) ��
n n
�nb � � na � ��
- +
�
a+b ( a + b) a+b ( a + b) �
2 2
� �
1 ( n)
Representemos por mi, j a proporção do tempo (medido em etapas) em que o processo
n
permanece no estado j, tendo partido do estado i . Claramente, quando n cresce
1 n) 1 ( n) b
lim m(0,0 = lim m1,0 = = p0
n �� n n �� n a+b
1 1 ( n) a
lim m(0,1n ) = lim m1,1 = = p1
n �� n n �� n a+b
Isto quer dizer que a longo prazo, as probabilidades limites de uma Cadeia de
Markov de 2 estados fornece a fração de tempo que o processo permanece nos 2
estados, em uma seqüência prolongada de realizações do processo.
Teorema 7.4
Considere uma Cadeia de Markov de 2 estados com matriz de transição em uma etapa dada
por
1- a
� a �
P=� � 0 �a , b �1 e 1- a - b < 1.
�b 1 - b �
P ( T0 = n ) = a ( 1 - a )
n
P ( T1 = n ) = b ( 1 - b )
n
n = 0,1, 2,....
e também.
1- a 1- a
E ( T0 ) = e Var ( T0 ) =
a a2
1- b 1- b
E ( T1 ) = e Var ( T1 ) = 2
b b
Prova:
Em cada etapa do processo há duas escolhas: ou o processo permanece no mesmo
estado com probabilidades (1-a) e (1-b) ou se move para outro estado com
probabilidades a e b. Suponha que o processo esteja no estado 0 em um dada etapa e
calculemos a probabilidade de se manter neste estado nas próximas 5 etapas, quando
então ele se moverá para o estado 1. Representemos por E k o estado do processo na
etapa k, com E 0 = 0 .
Calcular a probabilidade do evento
E = ( E 0 = 0 ) �( E1 = 0 ) �( E 2 = 0 ) �( E3 = 0 ) �( E 4 = 0 ) �( E5 = 0 ) �( E 6 = 1)
significa calcular a probabilidade do processo, a partir do estado 0, alcançar o estado
1 pela primeira vez na sexta etapa. Ora , claramente, temos:
P ( E ) = 1�P0,0 �P0,0 �P0,0 �P0,0 �P0,0 �P0,1 = a ( 1 - a )
5
Exemplo 7.7
Retornando ao exemplo 7.6 – mercado com duas marcas de um produto – vamos
supor que o consumidor realize suas compras mensalmente.
ii) Qual o número esperado de meses que o consumidor se mantém fiel à uma marca
até trocar sua preferência?
Uma barbearia possui quatro cadeiras disponíveis para clientes que aguardam atendimento
(corte de cabelo) e apenas um barbeiro para atender a clientela. Suponha que, se um
cliente ao chegar, todas as cadeiras estiverem ocupadas ele desiste de cortar o cabelo e vai
embora. O barbeiro leva exatamente 15 minutos para atender um cliente e se algum cliente
estiver esperando pelo serviço, o barbeiro recomeça a trabalhar imediatamente.
O número de clientes que procuram atendimento durante um intervalo de tempo de 15
minutos, tem a seguinte distribuição de probabilidade:
Nº Chegadas 0 1 2 3 4 �5
Probabilidade 0,20 0,70 0,07 0,02 0,01 0
Nota: Por conveniência, suponhamos que uma chegada e uma saída de cliente não
ocorram num mesmo instante)
Portanto, se cinco clientes estão na barbearia, um está sendo atendido e os outros 4 estão
esperando sua vez. Seja X n o número de clientes que chegam durante o n-ésimo serviço e
cuja função de probabilidade foi descrita acima.
Suponha que ao fim do n-ésimo corte Q n = 0 . Um serviço começa somente após a chegada
de um cliente e durante este serviço, chegam X n +1 clientes na barbearia. O número de
clientes na barbearia ao fim do serviço será Q n +1 = min (4, X n +1 ) , não estando incluído o
cliente que terminou de ser atendido.
� min ( 4, X n +1 ) Qn = 0
Q n +1 = �
�min ( 4, Q n - 1 + X n +1 ) Qn > 0
0, 20 0, 70 0, 07 0, 02
� 0, 01�
�
0, 20 0, 70 0, 07 0, 02 0, 01�
� �
P = �0 0, 20 0, 70 0, 07 0, 03�
� �
�0 0 0, 20 0, 70 0,10 �
�
�0 0 0 0, 20 0,80 �
�
Exemplo 8.2
Na Financeira Dinheiro Fácil , o Departamento de Controle de Financiamentos, classifica
os clientes de empréstimos – pagáveis em prestações mensais - segundo o seguinte
esquema:
Prestações em Classificação
atraso
0 normal - tipo 1
1 normal - tipo 2
No contexto global dos empréstimos, com respeito a classificação definida pela empresa,
observa-se o seguinte:
i) o bom pagador está quase sempre em dia com as prestações e eventualmente atrasa um
mês. Como bom pagador não admite atrasar mais do que 1 mês, e, se necessário, pede
acordo administrativo, pois não deseja jamais ser processado judicialmente.
ii) o razoável pagador paga em dia com pouca freqüência, quase sempre admitindo atrasos
de 1 mês e as vezes atrasos de 2 meses, mas igualmente como o bom pagador (i) não
deseja jamais ser processado judicialmente.
iii) o pagador relapso atrasa sempre, admite atrasos de 1 e 2 meses e fica atento (maior
probabilidade da linha 2 é 0,4) para não ser deslocado para a classe de maus pagadores
(estados 3 e 4).
iv) o mau pagador não cumpre suas obrigações mensalmente, mas não deseja jamais ser
processado judicialmente e entra em acordo com a empresa.
v) o péssimo pagador jamais paga seus débitos e ignora a conseqüências de tal fato, sendo
deslocado para a classe de clientes processados judicialmente.
No estudo das Cadeias de Markov de 2 estados foi estabelecido que a matriz de transição
em n etapas era obtida pelos elementos da n-ésima potência da matriz de transição P. Este
resultado pode ser generalizado para as Cadeias de Markov com m estados.
Seja { X n ; n ��} uma Cadeia de Markov com espaço de estados E = { 0,1, 2,..., m - 1} . A
matriz P de transição em uma etapa será representada por,
�P0,0 P0,1 - - P0,m -1 �
�P P1,1 - - P1,m -1 �
� 1,0 �
P = �- - - - - �
� �
�- - - - - �
�Pm -1,0 Pm -1,1 - - Pm -1,m -1 �
� �
P( n ) = P [ X n = 0, X n =1;......; X n = m - 1]
P( 0) = P [ X 0 = 0, X 0 = 1;......; X 0 = m - 1]
Teorema 8.1
(i) Se P é a matriz de transição em uma etapa de uma Cadeia de Markov finita, com
( n)
elementos Pi, j (i, j = 0,1, 2,..., m - 1) , as probabilidades de transição em n etapas Pi, j são as
(i,j)-entradas da matriz P n .
( r)
Supondo que Pi, j = P para r = 1, 2,..., n - 1 e fazendo r = n - 1 e s = 1 , temos,
r
m -1
Pi,( nj ) = �Pi,k
( n -1)
Pk, j
k =0
� ( n -1) ( n -1) ( n) � �P
P0,0 P0,1 - - P0,m -1 P0,1 - - P0,m -1 �
�( n -1) � � 0,0
P1,0
� P1,1( n -1)
- ( n -1)
- ( n -1)
P1,m -1 � �P1,0 P1,1 - - P1,m -1 � �
( n)
Pi, j �
= - - - - - � �� - - - - - �= P n -1 �P = P n
� �� �
�- - - - - � �- - - - - �
�( n -1) ��
Pm( n--1,11) - - Pm( n--1,m
1) P Pm -1,1 - - Pm -1,m -1 �
Pm -1,0
�
� � �m -1,0
-1 � �
O resultado prova a parte (i) do teorema e a segunda parte pode ser provada usando-se a
relação
m -1
P { X n = j} = �P { X n = j/ X 0 = i} .P { X 0 = i}
i =0
P ( X n = 0 ) = P ( X 0 = 0 ) P0,0
( n)
+ P ( X 0 = 1) P1,0
( n)
+ P ( X 0 = 2 ) P2,0
( n)
+ ... + P ( X 0 = m - 1) Pm( n-)1,0
P ( X0 = 0 )
�
� P ( X 0 = 1) P ( X0 = 2 ) - - - P ( X 0 = m - 1) �
��� ( n) �
Pi,0
� �'
onde �
�
n
Pi,0 � P ( X n = 0 / X0 = 0 )
�= �
� P ( X n = 0 / X 0 = 1) - - P ( X n = 0 / X 0 = m - 1) �
�
( n ) � �( n ) ( n)
ou �
Pi,0
� �= �
P0,0 P1,0 - - Pm( n-)1,0 �
�
Definição 8.1
Dada uma Cadeia de Markov de espaço de estados E = { 0,1, 2,..., m - 1} define-se como
distribuição limite da Cadeia ao vetor de probabilidades p = [ p0 p1 - - pm-1 ] , tal
que:
p = p�P (8.2)
Exemplo 8.3
0,1 0, 2 0, 7 �
�
�
0,5 0,5 0 � p.
Dada a matriz P = � � calcular a distribuição limite
�
0, 2 0, 2 0, 6 �
� �
Solução:
�0,1 0, 2 0, 7 �
[ x y z ] = [ x y z ] ��0,5 0,5 0 �
�
�
�
�0, 2 0, 2 0, 6 �
�
Temos então as 4 equações das quais escolheremos duas das três primeiras ao acaso.
0,1x + 0,5y + 0, 2z = x (1)
0, 2x + 0,5y + 0, 2z = y (2)
0, 7x + 0, 6z = z (3)
x + y + z =1 (4)
Descartando a equação (1), de (3), obtemos:
0, 7
0, 7x = 0, 4z � z = x (5)
0, 4
Substituindo-se tal resultado em (2), obtemos:
0, 7
0, 2x + 0,5y + 0, 2 � x = y
0, 4
� 0,14 �
ou � 0, 2 + �x = 0,5y
� 0, 4 �
�
� 0, 08 0,14 � 0, 22
ou y=� + �x � y= x (6)
� 0, 20 0, 20 � 0, 20
Levando (5) e (6) à (4), finalmente determinamos o valor de x:
Exemplo 8.3
Para introduzir o assunto consideraremos inicialmente a Cadeia de Markov objeto do
exemplo 8.1 , onde o número de clientes na barbearia é observado ao fim de cada serviço
(corte de cabelo) e cuja matriz de transição em uma etapa é:
0, 20 0, 70 0, 07 0, 02
� 0, 01�
�
0, 20 0, 70 0, 07 0, 02 0, 01�
� �
P = �0 0, 20 0, 70 0, 07 0, 03�
� �
�0 0 0, 20 0, 70 0,10 �
�
�0 0 0 0, 20 0,80 �
�
Analisando P, observamos que o número de clientes na barbearia pode ser qualquer um dos
estados de E = { 0,1, 2,3, 4} e dado um número suficiente de etapas o processo pode
alcançar quaisquer estados a partir de um estado fixado qualquer.
Por outro lado uma transição do estado 2 para o 0 requer pelo menos duas etapas enquanto
que do estado 3 para 0 são necessárias pelos menos 3 etapas.
A comunicação entre os estados de uma Cadeia de Markov pode ser apresentada através de
um grafo como o que segue:
3
4
Exemplo 8.4
Analisemos a seguir a seguinte matriz de transição,
C1 = { 0,1, 2} , C 2 = { 3} e C3 = { 4}
A classe C1 é composta por três estados que se comunicam entre si em uma ou mais etapas,
no entanto existe um probabilidade não nula do processo sair da classe C1 e não retornar
jamais. Em uma etapa, por exemplo, com 0,1 de probabilidade o processo passa do estado 2
para o estado 3 ou 4 sem possibilidade de retorno.
Se o processo em uma dada etapa, a partir da classe C1 passa para a classe C 2 , nela
permanece para sempre. A classe C 2 contém apenas o estado 3, chamado de estado
absorvente. A classe C3 igualmente, contém apenas o estado absorvente 4.
3
0
4
1
Exemplo 8.5
Retomemos o exemplo clássico da Ruína do Jogador com p = 0,6 e a = 6, com matriz de
transição em uma etapa dada por,
�1 0 0 0 0 0 0 �
�0, 6 0 0, 4 0 0 0 0 �
� �
�0 0, 6 0 0, 4 0 0 0 �
� �
P = �0 0 0, 6 0 0, 4 0 0 �
�0 0 0 0, 6 0 0, 4 0 �
� �
�0 0 0 0 0, 6 0 0, 4�
�0 0 0 0 0 0 1 �
� �
Como vimos o jogo termina quando o capital do jogador A alcança os valores 0 ou 6. Nesta
cadeia estão definidas três classes de estados,
C1 = { 0} , C2 = { 1, 2,3, 4,5} e C3 = { 6}
Esta Cadeia tem uma particularidade. Se o processo numa determinada etapa está no
estado i �C 2 , numa etapa posterior ele poderá voltar a i somente em um número par de
etapas.
Na tabela que segue apresenta a simulação de alguns dos possíveis caminhos do processo
a partir do estado 3.
Etapas
Caminhos 0 1 2 3 4 5 6
1 3 2 1 2 3 2 3
2 3 2 3 2 3 4 3
3 3 2 3 4 3 2 3
4 3 4 5 4 5 4 3
5 3 4 5 4 5 4 3
1 2 3 4 5
0 6
Definição 8.1
Dizemos que o estado j é acessível pelo estado i, se ele pode ser alcançado por i em um
número finito de etapas. Se dois estados são acessíveis entre si, eles são chamados de
estados comunicantes.
Simbolicamente, escrevemos:
� ( n)
i � j (j é acessível por i) para algum n �0, Pi, j > 0
� ( n)
j � i (i é acessível por j) para algum n �0, Pj,i > 0
i) reflexividade: i � i
ii) simetria: se i �
�� j j i
iii) transitividade: se i �� j ��
e j k i k
Definição 8.2
Se um conjunto de estados de uma Cadeia de Markov é constituído por estados
comunicantes entre si então este conjunto constitui uma classe de equivalência, e satisfaz
as propriedades: reflexividade, simetria e transitividade.
Uma Cadeia de Markov pode ter uma ou mais classes de equivalência, e, embora não
possa haver comunicação entre estados de diferentes classes, é possível que estados em
uma classe possam ser acessados por estados de outra classe.
Definição 8.3
Se uma Cadeia de Markov tem todos os seus estados pertencentes a uma única classe de
equivalência, então ela é dita irredutível.
Nos três exemplos 8.3 a 8.5, somente a Cadeia de Markov do exemplo 8.3, tem todos os
seus estados pertencentes a um única classe de equivalência e assim ela é dita irredutível,
visto que todos os seus estados se comunicam.
( n)
Representemos por f i,i a probabilidade de que o processo tendo partido do estado i em
alguma etapa (a etapa 0 , por exemplo) , retorne pela primeira vez ao estado i, em n
etapas.
Então, escrevemos,
�
f i,i* = �f i,i( n ) (8.3)
n =1
�
mi = �n fi,i( n ) (8.4)
n =1
Definição 8.5
O estado i é chamado recorrente se e somente se, partindo de i, o eventual retorno a este
estado é certo.
�
( n)
Se i é um estado recorrente, f i,i = �f i,i = 1 e pode ser classificado como:
*
n =1
�
( n)
I - recorrente nulo, se o tempo médio de recorrência é infinito, ou seja: mi = �n fi,i = �.
n =1
II - recorrente positivo ou não nulo se o tempo médio de recorrência é finito, i.e., mi < �.
Definição 8.6
Um estado i é dito transiente se e somente se, partindo de i, existe uma probabilidade
positiva de que o processo não retorne aquele estado.
�
( n)
Se i é um estado transiente, obviamente que f i,i = �f i,i < 1 .
*
n =1
Um outro critério para classificar os estados como recorrente ou transiente é a partir das
( n)
probabiliddes Pi, j , ou seja, a probabilidade de que partindo de i o processo retorne - não
necessariamente pela primeira vez - aquele estado após n etapas.
Teorema 8.2
� �
O estado i é recorrente se �Pi,i( n ) = � e transiente se
n =0
�P(
n =0
n)
i,i < �.
Observações:
( 0)
a) Pi,i = 1
�
b) se �P(
n =0
n)
i,i < � � $ n 0 / n > n 0 , Pi,i( n ) = 0
A demonstração deste teorema está fora dos objetivos deste texto, mas o que se segue é
pertinente ao entendimento deste e de outros tópicos a serem estudados adiante.
Definição 8.7
Chama-se probabilidade de primeira passagem (ou visita) ao estado j, tendo o processo
( n)
partido do estado i, em n etapas, à função f i, j definida da seguinte forma:
( 1) ( 1) ( 0)
Em particular f i, j = Pi, j = Pi, j e ainda, se Pj, j = 1 , então:
Finalmente,
n
Pi,( nj ) = �fi,( rj ) Pj,( nj - r )
r =1
n -1
Pi,( nj ) = f i,( nj ) + �f ( ) Pj,( nj -r )
r
e i, j
r =1
sendo portanto,
n -1
f i,( nj ) = Pi,( nj ) - �f ( ) Pj,( nj -r )
r
i, j
r =1
�
( n)
A soma f i, j = �fi, j é a probabilidade de que o processo tendo partido do estado i, alcance
*
n =1
eventualmente o estado j em um número finito de etapas,
( n)
Se f i, j = 1 então f i, j é a distribuição de probabilidade do tempo Ti, j (número de etapas) de
*
�
( n)
Assim sendo, mi, j = �nfi, j é o tempo médio de primeira passagem pelo estado j, tendo o
n =1
n
Pi,i( n ) = �fi,i( r ) Pi,i( n - r ) (8.5)
r =1
� � n
� �
( n) ( r)
n
( n -r ) �� ( r ) ��� ( n -r ) �
�
n =0
Pi,i = 1 + �n =1
f i,i � i,i
r =1
P = 1 + ��fi,i �
�r =1
��Pi,i �
��n - r =0 �
� � �
� ( r ) �� �
� Pi,i( n ) - �� fi,i ���Pi,i( n -r ) �= 1
n =0 �r =1 �� n -r =0 �
�
� � ( r) �
� Pi,i( n ) �1 - �fi,i �= 1
n =0 � r =1 �
Finalmente,
�
1
�P( n)
i,i = �
( r) ou
�
�P( n)
=
1
(8.6)
n =0
1 - �f i,i n =0
i,i
1 - fi,i*
r =1
O quadro comparativo abaixo reúne informações das Definições 8.5 e 8.6 e Teorema 8.2,
Fator Estado
Recorrente Transiente
f * 1 <1
i,i
� =� <�
�P(
n =0
n)
i,i
Teorema 8.3
Se i e j são estados comunicantes, ou seja, i � j , e se i é recorrente, então j é também
recorrente.
Prova:
�P(
s =0
n +s + m )
j, j �Pj,i( m ) Pi,( nj ) �Pi,i( s )
s=0
�
Se no entanto, i é recorrente, então �P(
n =0
n)
i,i = �, e portanto
�
�P(
s =0
n +s + m )
j, j =�
Observação:
Visto que todos os estados de uma classe de equivalência se comunicam, então ou são todos
recorrentes ou todos transientes, e assim podemos definir classe de estados recorrentes e
classe de estados transientes.
Definição 8.8
O estado i é chamado absorvente se e somente se Pi,i = 1
f = 1 + 0 + 0 + ... = 1
*
i,i
De forma que,
�
mi = �nf i,i( n ) = 1
n =1
( n)
Como f i,i = 1 e mi = 1 < � concluímos que um estado absorvente é recorrente positivo
ou não nulo.
Definição 8.9
O período de um estado i é definido como o maior divisor comum de todos os inteiros
( n)
n �1 , para o qual Pi, j > 0. Quando o período de i é igual a 1 o estado i é dito aperiódico.
aperiódicos.
Teorema 8.4
Se o estado i tem período d i �1 , então existe um inteiro N tal que para todos os inteiros
n �N, Pi,( nd
j
i)
> 0.
Prova:
A prova deste teorema é baseada num Lema da Teoria dos Números que estabelece que se
n1 , n 2 ,..., n k são inteiros positivos com máximo divisor comum d, existe um inteiro positivo
N tal que para todo n �N podemos encontrar ci , inteiros não negativos satisfazendo a
relação:
k
nd = �ci n i . (8.7)
i =1
(n )
Considerando o estado i, sejam n1 , n 2 ,..., n k inteiros para os quais Pi,i r > 0 (r = 1, 2,..., k) e
seja d i o seu maior divisor comum.
Usando (8.7), temos:
( � cr n r )
Pi,i( ndi ) = Pi,i 1
k
Teorema 8.5
Se i � j , então i e j tem o mesmo período.
Obs: o Teorema 8.5 estabelece que periodicidade é uma propriedade de classe de estados.
Assim, podemos definir uma classe de estados com certo período. Uma classe de estados
com período 1 é chamada de aperiódica.
b) Exemplo 8.4 .
�0, 6 0,1 0 0,3 0 �
�
0, 2 0,5 0,1 0, 2 0 �
� �
P=�
0, 2 0, 2 0, 4 0,1 0,1�
� �
�0 0 0 1 0�
�
�0 0 0 0 1��
�1 0 0 0 0 0 0 �
�0, 6 0 0, 4 0 0 0 0 �
� �
�0 0, 6 0 0, 4 0 0 0 �
� �
P = �0 0 0, 6 0 0, 4 0 0 �
�0 0 0 0, 6 0 0, 4 0 �
� �
�0 0 0 0 0, 6 0 0, 4�
�0 0 0 0 0 0 1 �
� �
1 2 3 4 5
0 6
Exemplo 8.6
Classifique os estados da Cadeia de Markov cuja matriz de transição em um etapa é dada
por
�1 1 0 �
�2 2 �
P = �1 1 1 �
�2 4 4�
�0 1 2 �
� 3 3�
Essa Cadeia é irredutível, isto é, todos os estados se comunicam entre si e logicamente só
tem uma classe , que é recorrente, ou seja C = { 1, 2,3} .
Exemplo 8.7
Classifique os estados da Cadeia de Markov cuja matriz de transição em um etapa é dada
por
�1 1 0 0�
�2 2 �
�2 3 0 0�
P = �5 5 �
�1 1 1 1 �
�4 4 4 4�
�0 0 0 1 �
� �
Temos neste caso três classes de estados:
C1 = { 1, 2} � classe recorrente
C 2 = { 3} � classe transiente
C3 = { 4} � classe recorrente, estado absorvente
Exemplo 8.8
Classifique os estados da Cadeia de Markov cuja matriz de transição em um etapa é dada
por
�3 5 0 0 0 0�
�8 8 �
�1 3 0 0 0 0�
�4 4 �
�0 0 1 3 0 0 �
� 4 4 �
P=� �
1 5
�0 0
6 6
0 0 �
�1 1 1 1 �
�4 0 4
0
4 4�
� �
� 1 1 1 1 1 1 �
�6 6 6 6 6 6�
Definição 8.10
Definição 8.11
Uma Cadeia de Markov é dita ergódica se for possível atingir o estado j a partir do estado i
quaisquer que sejam os estados i e j considerados, sendo todos os estados recorrentes
positivos (ou não nulos) e aperiódicos.
Definição 8.12
Uma Cadeia de Markov é denominada Regular quando não possuir estados transientes,
havendo uma única classe ergódica.
Teorema 8.6
Seja P a matriz de transição em uma etapa de uma Cadeia de Markov irredutível, aperiódica
e finita. Nestas condições existe um número N tal que para todo n �N , a matriz de
( n)
transição em n etapas, P n tem todos os seus elementos não nulos, ou seja Pi, j > 0.
Teorema 8.7
Em qualquer Cadeia de Markov finita, irredutível e aperiódica, com espaço de estados
E = { 0,1, 2,...,s} e matriz de transição P,
a) todos os limites p j = lim Pj( n ) existem.
n ��
Obs:
Isto implica que a matriz P n tende à uma matriz onde todas as linhas são iguais e idênticas
do vetor estacionário do processo. Assim, para determinar a distribuição limite faz-se:
p = pP
********
Exercícios 8
8.2 – Suponha que um leão possa migrar entre três reservas em busca de comida. As
reservas são denotadas por 1, 2 e 3 e, baseados em dados sobre os recursos de
alimento, pesquisadores concluíram que o padrão mensal de migração do leão pode
ser modelado por uma cadeira de Markov com matriz de transição em uma etapa
dada por:
0,5 0, 2 0,3
P = 0, 4 0, 2 0, 4
0, 6 0,3 0,1
a) Sabendo-se que as etapas de deslocamentos são meses e que o leão é largado
inicialmente na reserva 2, acompanhe a sua localização provável ao longo de um
período de seis meses.
8.3 – Um rato num experimento de laboratório pode escolher um entre dois tipos (I e
II) de comida a cada dia. Os registro mostram que se o rato escolhe o tipo I num certo
dia, então a chance de escolher o tipo I no dia seguinte é de 75%, e se escolhe o tipo II
num certo dia, então a chance de escolher o tipo II no dia seguinte é de 50%.
8.4 – Num certo instante de tempo inicial, havia 100.000 habitantes numa certa cidade
e 25.000 em seus arredores. A Comissão de Planejamento Regional detectou que , a
cada ano, 3% da população da cidade se transfere para os arredores e 3% da
população dos arredores muda para a cidade.
a) supondo que a população total permaneça constante, faça uma tabela mostrando a
população da cidade e dos arredores ao longo do período de 5 anos (arredonde os
valores para o inteiro mais próximo).
b) a longo prazo, qual será a distribuição da população entre a cidade e os arredores?
c) Esboce o grafo de comunicação dos estados e classifique-os.
�1 4 1 �
�10 5 10 �
P = �1 3 1 �
�5 10 2�
�3 1 1 �
�5 5 5�
a) se um carro for alugado na agência 1, com qual probabilidade ele será devolvido à
agência 1 depois de duas locações?
b) supondo que esse sistema possa ser modelado por uma cadeia de Markov,
determine a distribuição limite (vetor limite).
c) se a locadora possui um frota de 120 carros, qual deveria ser a quantidade de vagas
de estacionamento em cada agência para haver garantia razoável de suficiente espaço
para os carros a longo prazo? Explique seu raciocínio.
8.6 – Os traços físicos do ser humano são determinados pelos genes que um
descendente recebe de seus dois ascendentes. No caso mais simples, um traço no
descendente é determinado por um par de genes, um de cada um de seus ascendentes.
Em geral, cada gene num par pode tomar uma de duas formas, denotadas por A e a,
que são os alelos. Isso leva a três pareamentos possíveis:
AA, Aa e aa
denominados genótipos, sendo que os pares Aa e aA determinam o mesmo traço e são,
portanto, indistinguíveis. Mostra-se no estudo da hereditariedade que se um dos
ascendentes tem genótipo conhecido e o outro ascendente é de genótipo desconhecido,
ou seja aleatório, então o descendente terá a probabilidade de genótipo segundo a
tabela abaixo, que pode ser vista como uma matriz de transição de um processo de
Markov.
Genótipo de Descendente
1 1 0
2 2
Genótipo de Ascendente P= 1 1 1
4 2 4
0 1 1
2 2
Assim, por exemplo, o descendente de um ascendente de genótipo AA e de outro
escolhido aleatoriamente e de genótipo desconhecido, tem uma chance de 50% de ser
AA, 50% de de ser Aa e nenhuma de ser aa.
a) mostre que a matriz de transição é regular.
b) encontre o vetor limite e discuta sua interpretação física.
c) Esboce o grafo de comunicação dos estados e classifique-os.
AVISO
O estudo de Cadeiras de Markov se desenvolve ainda por vários tópicos que serão
apresentados nesta Apostila em futuro próximo.
9 - O Processo de Poisson.
9.1 - Introdução
ii) número de chamadas telefonicas que demandam a uma central telefônica no intervalo
de tempo de 1 minuto.
A variável aleatória de Poisson (como a Binomial) é uma variável aleatória que “conta” o
número de ocorrências de eventos aleatórios E, em um intervalo de tempo ou em um
“espaço” de 2 ou mais dimensões. Se uma variável aleatória tem distribuição de Poisson
então ela assume os valores n = 0,1, 2,3,....
As condições básicas para que um processo seja modelado pela lei de Poisson são:
o ( Dt )
onde o ( Dt ) é um infinitésimo de maior ordem que Dt , isto é: lim =0.
Dt �0 Dt
P0 ( 0 ) = 1 (9.1)
Tal evento pode ser decomposto sob a forma da união de eventos mutuamente exclusivos,
ou seja
ou
ou
ou
“n-2 eventos E no instante t” e “ocorrer 2 eventos E no intervalo ( 0, Dt ] ”
ou
e assim sucessivamente,
ou
Notemos que as duas primeiras interseções da união têm probabilidades não desprezíveis,
conforme a condição (2). As demais interseções tem probabilidades desprezíveis.
Assim,
Pn ( t + Dt ) = Pn ( t ) �
1 - lDt + o ( Dt ) �
� �+ Pn -1 ( t ) �
lDt + o ( Dt ) �
� �+ o ( Dt )
portanto,
Pn ( t + Dt ) = Pn ( t ) - Pn ( t ) lDt + Pn ( t ) o ( Dt ) + Pn -1 ( t ) lDt + Pn -1 ( t ) o ( Dt ) + o ( Dt )
Pn ( t + Dt ) - Pn ( t ) = - Pn ( t ) lDt + Pn -1 ( t ) lDt + �
Pn ( t ) + Pn -1 ( t ) + 1�
� �o ( Dt )
Pn ( t + Dt ) - Pn ( t ) o ( Dt )
lim = -lPn ( t ) + lPn -1 ( t ) + �
Pn ( t ) + Pn -1 ( t ) + 1�
� �lim
Dt �0 Dt D t �0 Dt
e finalmente,
P 'n ( t ) = -lPn ( t ) + lPn -1 ( t ) (9.2)
Os resultados (9.1), (9.2) e (9.3), formam o sistema de equações diferenciais abaixo, que
será resolvido por um método recursivo,
I) P '0 ( t ) = -lP0 ( t )
II) P 'n ( t ) = -lPn ( t ) + lPn -1 ( t ) , n > 0 (9.4)
III) P0 ( 0 ) = 1
De (I), tiramos,
P '0 ( t ) P '0 ( t )
= -l � �P ( t ) dt + c � lnP0 ( t ) = -lt + c
dt = -l �
P0 ( t ) 0
P0 ( t ) = e-lt ec
Considerando (III),
P0 ( 0 ) = 1 � 1 = ec � c = 0
E consequentemente,
a) Q n ( t ) = e lt Pn ( t )
e b) Q 'n ( t ) = lelt Pn ( t ) + e lt P 'n ( t ) (9.6)
Q 'n ( t ) = le lt Pn ( t ) + elt �
-lPn ( t ) + lPn -1 ( t ) �
� �
Q 'n ( t ) = le lt Pn ( t ) - lelt Pn ( t ) + lelt Pn -1 ( t )
Q 'n ( t ) = le lt Pn -1 ( t ) � Q 'n ( t ) = lQ n -1 ( t )
Q '0 ( t ) = 0
(9.8)
Q 'n ( t ) = lQ n -1 ( t )
se n = 0, Q0 ( t ) = 0 � Q0 ( t ) = c � c = 1 porque Q0 ( 0 ) = 1 � Q0 ( t ) = 1
'
i)
l2t2 l2t 2
iii) se n = 2, Q '2 ( t ) = lQ1 ( t ) = l 2 t � Q2 ( t ) = +c � Q2 ( t ) =
2 2
l3 t 2 l3 t 3 l3 t 3
iv) se n = 3, Q '3 ( t ) = lQ2 ( t ) = � Q3 ( t ) = +c � Q3 ( t ) =
2 2 �3 6
Generalizando-se,
( lt ) + c � Q t = ( l t )
n n
l n t n -1
Q 'n ( t ) = � Qn ( t ) = n ( )
( n - 1) ! n! n!
Reportando a (A) em (9.6), finalmente chegamos a função de probabilidade de “n eventos E
no instante t”,
e -lt ( lt )
n
Portanto, o número de eventos E que ocorrem num dado intervalo ( 0, t ] tem distribuição
de Poisson de parâmetro lt.
Uma solução alternativa para a resolução dos sistema de equações diferenciais (9.4),
utilizando a técnica das funções geratrizes pode ser estudado na Apêndice A.6.
n
P ( X = k ) = ( lDt ) ( 1 - lDt )
k n -k
k = 0,1,2,3,....
k
k n -k
n lt lt
lim P ( X = k ) = lim 1 - k = 0,1,2,3,....
n ® k
n ®
n n
( lt ) n ( n - 1) ( n - 2 ) ... ( n - k + 1)
k n -k
lt lt
= lim 1 - lim 1 - lim
k! n ® n n ® n n ® nk
( lt )
k
1 2 k - 1
= e -lt lim1. 1 - 1 - ..... 1 -
k! n ®
n n n
e -lt ( lt )
k
Obs:
t lt
Para usar a aproximação notemos que Dt = \lDt = = p � lt = np
n n
Exemplo 9.1
Suponha que o número de acidentes que ocorrem em uma determinada rodovia tenha
distribuição de Poisson de parâmetro l = 0,5 por dia. Calcule as seguintes probabilidades:
a) de ocorrer 3 acidentes em um período de 6 dias.
b) pelo menos dois acidentes no período de 4 dias.
c) não ocorrer acidentes no período de 1 dia.
d) não ocorrer acidentes em um período de 6 dias.
Solução:
a) X : n0 de acidentes em 6 dias é Poisson de parâmetro l6 = 3.
e -3 33
P ( X = 3) = = 0, 224
3!
b) X : n0 de acidentes em 4 dias é Poisson de parâmetro l4 = 2.
P(X 2) = 1 - P ( X = 0 ) - P(X = 1) = 1 - 3e -2 = 0,593
c) X : n0 de acidentes em 1 dia é Poisson de parâmetro l1 = 0,5.
e -0,5 ( 0,5 )
0
P ( X = 0) = = 0, 606
0!
Exemplo 9.2
Um professor universitário, baseado em experiências passadas, estima em 0,001 a
probabilidade dele chegar atrasado para uma aula. Sente também que o fato dele chegar
atrasado em uma aula não tem nenhuma influência sobre um eventual atraso em qualquer
outra aula.
O número de vezes que ele chegará atrasado nas próximas 100 aulas, é uma variável
aleatória Binomial de parâmetros n=100 e p=0,001. A probabilidade exata dele não chegar
atrasado nas próximas 100 aulas e a probabilidade exata dele chegar 1 dia atrasado, são
respectivamente iguais a:
�100 �
( 0, 001) ( 0,999 ) = ( 0,999 ) = 0,904792
0 100 100
P(X = 0) = � �
�0 �
�100 �
( 0, 001) ( 0,999 ) = ( 0,999 ) = 0, 09057
1 99 100
P(X = 1) = � �
�1 �
Observemos que neste caso n = 100 é suficientemente grande e p = 0,001 é extremamente
pequena, o que nos permite calcular tal probabilidade através da distribuição de Poisson de
parâmetro lt = np = 100(0,001):
( 0,1)
0
e -0,1
P(X = 0) = = 0,904837
0!
( 0,1)
1
e -0,1
P(X = 1) = = 0, 090484
1!
Como se pode observar as probabilidades calculadas através da distribuição Binomial e
Poisson são aproximadamente iguais, considerada a precisão de quatro casas decimais!
Exemplo 9.3
Suponha que a probabilidade que um item produzido por uma certa máquina seja
defeituoso é igual a 0,1(0,2). Encontre a probabilidade de que uma amostra de 10(20) itens
observada sob o esquema com reposição, contenha no máximo 1 item defeituoso.
Solução:
a) N = 10 e p = 0,1
10 10
P ( X £ 1) = ( 0,10 ) ( 0,90 ) + ( 0,10 ) ( 0,90 ) = 0, 7361
0 10 1 9
0 1
Se usarmos a aproximação pela distribuição de Poisson (1), obtemos:
b) N = 20 e p = 0,2
20 20
P ( X £ 1) = ( 0, 20 ) ( 0,80 ) + ( 0, 20 ) ( 0,80 ) = 0, 06918
0 20 1 19
0 1
Se usarmos a aproximação pela distribuição de Poisson (4), obtemos:
e -4 40 e -4 41
P ( X £ 1) = + = 5e -4 = 0, 09158
0! 1!
Obs:
O exercício acima oferece resultados que mostram o cuidado que se deve ter ao usar este
tipo de aproximação. Em ambos os casos, n não é suficientemente grande e p
suficientemente pequeno. Em (a) com n = 10 a aproximação é satisfatória, mas em (b) não.
O valor de p também tem igualmente influência no resultado. Um estudo de análise de
sensibilidade envolvendo n e p é válido para aprofundar a análise. Enfim, a decisão de usar
a aproximação depende portanto, não somente da teoria como também do bom senso do
estatístico.
Teorema 9.1
Para t 0, o evento ( T > t) ocorre se, e somente se o evento E não ocorrer no intervalo
( 0, t ] , ou seja
e -lt ( lt )
0
De forma que,
� 0 t<0
FT ( t ) = � -lt (9.13)
1- e
� t �0
Exemplo 9.4
Suponha que acidentes de trabalho em uma certa indústria, ocorram a uma taxa l = 0, 2
por semana de cinco dias úteis de trabalho, segundo uma lei de Poisson. Calcule a
probabilidade de
a) não ocorrer acidentes na primeira semana.
b) o primeiro acidente ocorra na quarta feira da primeira semana.
c) o primeiro acidente ocorra na segunda feira da segunda semana.
Solução:
a) P ( T > 1) = e
-0,21
= 0,818
Se os acidentes ocorrem a uma taxa de 0,2 por semana de cinco dias então a taxa diária de
1 1
acidentes é igual 0, 2 = .
5 25
3 2
- -
b) P ( 2 < T < 3 ) = 1 - e 25
-1 + e 25
= 0, 036
6 5
- -
c) P ( 5 < T < 6 ) = 1 - e 25
-1 + e 25
= 0, 032
Observemos que a probabilidade em (a) poderia ter sido calculada da forma
5
-
P(T > 5) = 1 - FT ( 5 ) = 1 - 1 + e 25
= e -0,2 = 0,818
Exemplo 9.5
Suponha que a duração de uma chamada telefônica em minutos, seja uma v.a. exponencial
de parâmetro l = 0,5 . Se você procura uma cabine telefônica pública e alguém chega
imediatamente na sua frente, calcule a probabilidade de você ter que esperar: a) mais do
que 10, 8, e 2 minutos; b) entre 10 e 15 minutos e c) menos do que 50 segundos.
Solução:
i) se l = 0,5
+�
dt = - ( e -0,5x �
+�
a) P ( T > 10 ) = �
-0,5x
0,5e
10� = 0, 0067
10
+�
0,5e -0,5x dt = - ( e -0,5x �
+�
P ( T > 8) = � � = 0, 0183 8
8
+�
dt = - ( e -0,5x �
+�
P ( T > 2) = �
0,5e -0,5x
� = 0,3679
2
2
15
0,5e -0,5x dt = - ( e -0,5x �
b) P ( 10 < T < 15 ) = �
15
�10 = 0, 00619
10
5/6
c) P ( T < 5 / 6 ) = dt = - ( e -0,5x �
5/ 6
�
-0,5x
0,5e � = 0, 659
0
0
Dizemos que uma variável aleatória X, não negativa, tem distribuição sem memória se para
dois reais positivos x e y a seguinte relação for satisfeita
Teorema 9.2
As únicas variáveis aleatórias do tipo contínuo, não negativas, que possuem distribuição
sem memória são as variáveis aleatórias exponenciais.
Prova:
1 - Se X tem distribuição exponencial X tem distribuição sem memória.
A relação definida em da Definição 9.14 pode ser desenvolvida da seguinte forma
P ( X > x + y / X > x) = P ( X > y)
P ( X > x + y ) ( X > x )
= P ( X > y)
P( X > x)
P ( X > x + y)
= P ( X > y)
P( X > x)
Por outro lado, para x 0, F ( x ) = 1 - e P ( X > x ) = e . Aplicando-se este resultado
-lx -lx
Vamos agora partir da relação que define X sem memória, e provar então que X é
exponencial
P ( X > x + y) = P ( X > x ) P ( X > y)
1- F( x + y) = �
�1 - F ( x ) ��
��1 - F ( y ) �
�
1- F( x + y) = 1- F ( y) - F ( x ) + F ( x ) F( y)
F ( x + y) = F( y) + F( x ) - F ( x ) F ( y)
F( x + y) - F( x ) = F( y) �
�1 - F ( x ) �
� (9.15)
F( x + y) - F( x ) F ( 0 + y) - F ( 0)
lim = 1 - F ( x ) lim
y ®0 y y®0 y
Do lado esquerdo da igualdade temos a derivada da função F(x), e, o limite no lado direito
é a derivada de F(x) no ponto x = 0, que é uma constante qualquer, que representaremos por
l.
F�( x )
F�( x ) = l �
�1 - F ( x ) �
� 1- F x = l
\
( )
Para resolver a equação integramos ambos os membros da igualdade em relação a x, e
obtemos
F ( x )
1 - F ( x ) dx + c = ldx + c
1 2
- ln 1 - F ( x ) = lx + ( c 2 - c1 )
ln 1 - F ( x ) = -lx - ( c 2 - c1 )
ln 1 - F ( x ) = -lx + ln c
1 - F ( x ) = ce -lx
F ( x ) = 1 - ce -lx
No entanto sabemos que F(0) = 0, e, com esta informação, podemos calcular o valor da
constante c
F ( 0 ) = 0 \ 0 = 1 - ce -l0 \ c = 1
Nota:
O significado da propriedade pode ser melhor entendido com o seguinte exemplo.
Suponha que a vida de uma lâmpada seja uma variável aleatória com distribuição
exponencial (l), e consideremos os reais x = 3 e y = 5.
Então P ( X > 3 + 5 / X > 3) = P ( X > 5 ) . Isto quer dizer que a probabilidade da lâmpada
permanecer acesa por mais 5 horas dado que já está acesa há 3 horas é igual a
probabilidade dela permanecer acesa por mais do que 5 horas a partir do instante inicial de
teste. Isto implica que o “envelhecimento” da lâmpada não influi no cálculo da
probabilidade dela se queimar num dado intervalo de tempo e isto justifica o termo sem
memória.
Teorema 9.3
A partir de um instante t = 0 , o tempo de espera Tr pela r-ésima ocorrência do evento E,
regulado por uma Lei de Poisson de parâmetro l tem distribuição Gama de parâmetros
l e r.
Prova:
Sendo Tr uma variável aleatória não negativa, FTr ( t ) = 0, se t < 0.
Se t 0, o evento ( Tr > t ) é equivalente ao evento “ocorrer menos do que r eventos E no
intervalo de tempo ( 0, t ] , cuja probabilidade é igual a P ( X £ r - 1) , onde X é uma v.a. de
Poisson(lt), de forma que
( lt )
k
r -1
P ( Tr > t ) = P ( X £ r - 1) = e -lt (9.15)
k =0 k!
( lt )
k
r -1
FT ( t ) = P ( Tr £ t ) = 1 - e-lt (9.16)
r k =0 k!
r -1 l k k r -2 l j j l r -1 r -1
f Tr ( t ) = le t - t = le
-lt -lt
t
k =0 k! j= 0 j! ( r - 1) !
l r r -1 -lt
f Tr ( t ) = t e , t>0 (9.17)
G( r)
Exemplo 9.6
O número de chamadas que demandam a uma mesa telefônica tem distribuição de Poisson
a uma taxa de 120 por hora durante o período de 9:00 às 12:00 horas. Seja T10 o instante
(em minutos) no qual a décima chamada é recebida a partir das 9:00 horas.
De acordo com a teoria exposta,
120
a) T10 tem distribuição Erlang de parâmetros l = = 2 e r = 10.
60
10
b) E ( T10 ) = = 5. Logo, a décima chamada é esperada às 9:05 horas.
2
c) A probabilidade da 10a chamada ocorrer antes das 9:05 horas é igual a
( 10 ) e-10
k
9
P ( T10 < 5 ) = 1 - = 0,542
k =0 k!
d) A probabilidade da 10a chamada ocorrer entre 9:05 e 9:07 horas é igual a
( 14 ) e - 1 - ( 10 ) e
k -14 k -10
9 9
P ( 5 < T10 < 7 ) = 1 -
= 0,349
k =0 k! k!
k =0
(
P T�1
6 ) = �
36te
1
-6t
dt = 2e -1
6
(
P T� 1
6 )=�
108 t e
1
2 -6t
dt =
5 -1
2
e
6
( )
1
1
P T2 > 1 = P ( X � 2 - 1) = � e -1 = 2e -1
6 k = 0 k!
( ) e-1 5 -1
2
1
P T3 > 1 = P ( X �3 - 1) = � e -1 = e -1 + e -1 + = e
6 k = 0 k! 2 2
� 1� r -1
1 � 1 1 1 �
Tr > �= P ( X �r - 1) = � e -1 = e -1 �
P� 1 + + + ... + �
� 6� k = 0 k! � 1! 2! ( r - 1) !�
Exercícios 9
9.1 - Um digitadora comete em média, três erros por página digitada. Supondo que os
erros de digitação por página, sejam regulados por uma Lei de Poisson, pede-se:
a) qual a probabilidade de que menos que dois erros sejam cometidos por página.
b) qual a probabilidade de que não sejam encontrados erros em 3 páginas escolhidas ao
acaso e independentemente uma das outras?
9.3 - È conhecido que um certo tipo de bactéria é encontrada na água, a uma taxa de 2
bactérias por centímetro cúbico de água. Supondo que este fenômeno seja regulado por uma
lei de Poisson, qual a probabilidade de serem encontradas em 2 ( cm ) de água:
3
a) nenhuma bactéria.
b) 2 ou mais bactérias.
c) 5 bactérias.
9.4 - W.A Wallis escreveu o artigo “The Poisson Distribution and the Supreme Court”,
Journal of the American Statistical Association, Vol. 31 (1936, pp. 376-380) , relatando que
as vacâncias por morte ou renúncia, na Suprema Corte do Estados Unidos aconteceram
durante 96 anos (1837 a 1932), segundo o quadro abaixo:
k 0 1 2 3 >3
Nk 59 27 9 1 0
Supondo que as vacâncias na Corte seguem uma lei de Poisson, qual a probabilidade de
que:
a) no seu mandato de 4 anos, o próximo Presidente da Corte não faça nenhuma nomeação?
b) haja necessidade de alguma nomeação durante o período de 1 ano?
c) Realize um teste estatístico para testar a hipótese de que os dados tem origem em uma
distribuição de Poisson.
k 0 1 2 3 4 5 6 >7
Nk 5 19 26 26 21 13 8 0
9.6 - Numa indústria têxtil o número de defeitos por cada 10 metros de um rolo de tecido é
uma variável aleatória de Poisson de parâmetro l = 0, 25. Calcule a probabilidade de que
20 metros de tecido:
a) não apresente defeitos.
b) apresente no mínimo 2 defeitos.
9.8 - Numa certa cidade 4% de todos os motoristas licenciados foram envolvidos em pelo
menos um acidente de carro num dado ano. Use a aproximação da variável aleatória
Binomial pela distribuição de Poisson para determinar a probabilidade de que entre 150
motoristas licenciados e escolhidos alatoriamente nesta cidade:
a) somente cinco foram envolvidos em pelo menos um acidente de carro no dado ano.
b) ao menos três foram envolvidos em pelo menos um acidente de carro no dado ano.
9.9 - Os operários de uma fábrica sofrem acidentes de trabalho a uma taxa de 2 ocorrências
por semana. Qual a probabilidade de ocorrerem no máximo 2 acidentes durante:
a) uma semana
b) duas semanas
c) qual a probabilidade ocorrerem no máximo 2 acidentes por cada uma de 2 semanas?
9.10 - Considere um aparelho de radar de certo tipo, cuja lei de falhas é exponencial. Se a
taxa de falhas deste radar é da ordem de l = 1 por 1000 horas, determine o intervalo de
9.11 – Clientes demandam a uma locadora de vídeo segundo um processo de Poisson a uma
taxa de 1 cliente por minuto. Qual a probabilidade de que 5 ou mais minutos transcorram
desde que chegou:
a) o último cliente
b) o penultimo cliente
9.12 - Suponha que um equipamento eletrônico digital opere 24 horas por dia, sofrendo
paralisações (breakdown) a uma taxa de 0,25 por hora. Se o equipametno funcionou
durante entre 9 e 11 horas, qual a probabilidade de não haver paralização entre 11 e 13
horas?
9.13 - Um sorveteria atende clientes que chegam a uma taxa de 30 pessoas por hora. Que
fração dos intervalos de tempo entre sucessivas chegadas são:
a) maiores do que 2 minutos.
b) menores do que 4 minutos.
c) valores entre 1 e 3 minutos?
Respostas:
(1) 0,19915 0,85795 (8) 0,16062 0,9380
(2) 0,2502 (9) 0,6766 0,23811 0,4578
(3) 0,01832 0,90842 0,15629 (10) t = 10
(4) 0,1354 0,39347 (11) 0,00674 0,04043
(6) 0,60653 0,09021 (12) 0,6065
(7) 0,02439 0,00002 0,40657 0,98265 (13) 0,3678 0,8646 0,3834
onde
l 0 l1l 2 .....l n -1
A (nk ) = (10.4)
( l 0 - l k ) ( l1 - l k ) ... ( l k -1 - l k ) ( l k +1 - l k ) ... ( l n - l k )
Supondo que
P1 ( 0 ) = 1
Pi ( 0 ) = 0, i > 0
A solução (10.3) se torna,
n
Pn ( t ) = �A (nk ) e - k l t (10.6)
k =1
com
1.2.3....(n - 1)
A (nk ) =
( 1 - k ) ( 2 - k ) ... ( k - 2 - k ) ( k - 1 - k ) ( k + 1 - k ) ( k + 2 - k ) ... ( n - k )
Prof. Frederico Cavalcanti 388491661.doc 101
Processos Estocásticos Ence
( n - 1) ! ( -1) = -1 k -1 n -1
k -1
( k)
An = ( ) ( k -1 )
( k - 1) ! ( n - k ) !
Aplicando-se o resultado em (10.6), obtemos,
n
Pn ( t ) = �( -1)
k -1
( )en -1
k -1
-k l t
k =1
ou
n n
( ) e- k l t == e-lt �( nk --11 ) ( -e-lt )
k -1
Pn ( t ) = �( -1)
k -1 n -1
k -1 1n - k
k =1 k =1
Finalmente,
Pn ( t ) = e -lt ( 1 - e -lt )
n -1
, n = 1, 2,3,....
partir de março/2007.
10.1 - Introdução
As filas de espera são fenômenos familiares que observamos freqüentemente em nossas
atividades cotidianas. Tais fenômenos se apresentam em numerosos problemas industriais,
comerciais, sociais, militares, etc...
Para que uma fila se forme basta que as entradas (chegadas de unidades) e/ou saídas
(término do atendimento a uma unidade) se produzam a intervalos de tempo irregulares.
Uma fila pode também se manifestar se o fluxo médio de entradas for superior à capacidade
de atendimento (fluxo médio de saídas), e, neste caso, a fila aumentará indefinidamente a
menos que o número possível de unidades seja limitado ou que a fila seja bloqueada ao
atingir certa magnitude.
Um sistema de espera estará completamente especificado quando as seguintes
características forem definidas:
É também conveniente conhecer as reações das unidades (clientes). Elas podem entrar no
sistema não se importando com o tamanho da fila, ou simplesmente não entrar. Por outro
lado, um cliente pode, após um longo tempo de demora, abandonar a fila. No caso em que
existem mais do que um posto de serviço, o cliente pode estratégicamente trocar de posição
Prof. Frederico Cavalcanti 388491661.doc 103
Processos Estocásticos Ence
para uma fila mais conveniente. As situações citadas são casos de sistema de espera com
clientes "impacientes".
Igualmente ao processo das entradas, costuma-se definir uma taxa (número médio de
clientes atendidos em um intervalo de tempo) ou uma medida de tempo representada pelo
intervalo de tempo decorrido entre duas saídas. Estas medidas podem ser determinísticas ou
probabilísticas. Embora seja comum entender o processo das saídas como análogo ao das
entradas deve-se atentar para o detalhe de que as funções de probabilidades envolvidas nos
processos de atendimento são condicionadas ao evento "o sistema não está vazio", ou seja,
existe pelo menos uma unidade no sistema sendo atendida ou não.
Consiste na maneira pela qual os "clientes" são selecionados para o atendimento quando a
fila é formada. A mais comum disciplina é conhecida por FIFO ( First In, First Out) . Uma
outra bem conhecida é a LIFO (Last In, Last Out), em geral , aplicada em processos de
estocagem. Quando a seleção é feita aleatória e independentemente da ordem de chegada,
define-se a disciplina SIRO (Select Independent Random Order).
O mais simples e frequente é o caso de uma única fila e um posto de serviço. No caso de
mais de um posto , duas hipóteses são viáveis: uma fila para cada posto, conforme figura 1,
ou fila única para os vários postos, conforme figura 2.
Figura 1 Figura 2
��
�
..... �
oooo...... oo�
��
..... �
��
�
Um sistema de espera pode ter apenas um estágio de serviço, tal como uma barbearia ou
um supermercado, ou pode comportar vários estágios. Um exemplo usual seria o
procedimento para oferecer um exame médico completo: ficha de inscrição, biometria,
cardiologia, oftalmologia, etc... (vide Figura 3).
Figura 3
a) Determinístico - o tempo que decorre entre duas chegadas e/ou saídas é uma constante.
Exemplos:
1. M/M/1/µ/FIFO - Sistema onde as entradas e saídas são reguladas por uma lei de
Poisson, 1 posto de serviço, população infinita, disciplina FIFO.
Imaginemos que num sistema de espera, as entradas são aleatórias. Saber apenas isto não é
suficiente. É preciso conhecer estatísticamente o fenômeno e obter através de um
levantamento real, uma lei de probabilidade e as estimativas de seus respectivos
parâmetros.
m fm
0 0
1 0
2 1
3 3
4 5
5 10
6 12
7 14
8 15
9 12
10 9
11 7
12 5
13 3
14 2
15 1
16 1
17 0
18 0
19 0
-- --
-- --
100
Assim, 9 vezes foram observados 10 clientes por minuto, e 3 vezes foram observados 3
clientes por minuto, etc...
Exemplos:
a) Qual a probabilidade empírica de que cheguem 7 clientes por minuto?
Resp: 14/100
1 805
l=
100 m= 0
m. f m =
100
= 8, 05
As chegadas de unidades a sistemas de espera não estão reguladas por uma lei única e
universal . No entanto tem-se constatado muito frequentemente que aparece uma mesma lei
de probabilidade quando certas condições são satisfeitas pelo processo de chegadas e/ou
saídas. O enunciado dessas condições nos leva exatamente a um Processo de Poisson.
Sigla: M/M/1/µ/FIFO
b) a probabilidade de que ocorra uma saída do sistema durante o intervalo de tempo [0,Dt),
é igual mDt.
E = "n unidades no instante t" e "não ocorrer entrada no intervalo [0,Dt)" e "não
ocorrer a saída no intervalo [0,Dt)"
ou
"n unidades no instante t" e "ocorrer uma entrada no intervalo de tempo [0,Dt)"
e "ocorrer uma saída no intervalo de tempo [0,Dt)"
ou
ou
ou ...............
I) - lPo + mP1 = 0
l
De (I) tiramos que P1 = Po � P1 = P0 .
m
-n=1 � P2 = 2 P0
-n=2 � P3 = 3P0
-n=3 � P4 = 4 P0
Pn = n Po n = 0,1,2,3,.....
1
Po n = 1 \ P0 = 1 \ P0 = 1 -
n =0 1-
Daí escrevemos,
Pn = (1 - ) n n = 0,1, 2, 3,.....
Exercícios:
(1 - )
= 4
n=4 n=4
Obs: Recordemos que a função de distribuição de uma variável X é definida para todo
real x Î R. Assim, rigorosamente teríamos FN ( x ) = 0 se x < 0 , e
x +1
FN ( x ) = 1 - se x 0 , onde [x] é maior inteiro contido em (-µ;x].
d � n d � �
E(N) = (1 - ) �
d n =1
= (1 - ) � �
d �1 - �
� 1 �
E(N) = (1 - ) � + 2 �
�1 - (1 - ) �
E(N) =
1-
n =0 n=0 ( 1 - ye t )
M 'N ( t ) = ( 1 - y ) y ( 1 - ye t ) e t
-2
y
M 'N ( 0 ) = E ( N ) = ( 1 - y ) y ( 1 - y )
-2
=
1- y
M�
� {
N ( t ) = ( 1 - y ) y ( 1 - ye )
t
e t + e t ( -2 ) ( -ye t ) ( 1 - ye t )
-2 -3
}
� 1
� 2y � � �1 + y �
M� N ( 0) = ( 1 - y ) y � + N ( 0) = y �
\ M�
� 3�
� 2�
( ) ( ) ( )
2
�
���1 - y 1 - y � � 1 - y �
y+y 2
E ( N2 ) =
( 1- y)
2
y + y2 y2 y
Var ( N ) = - \ Var ( N ) =
( 1- y) ( 1- y) ( 1- y)
2 2 2
10.7.5 - As chegadas a um sistema de espera M/M/1 são de 0,5 unidades por minuto, em
média. Ë requerido que a probabilidade de que haja uma ou mais unidades no sistema não
exceda a 0,25. Qual deve ser a taxa média de serviço (m) mínima a ser providenciada?
Solução:
l = 0,5
P(N 1) £ 0,25 \ 1- P(N = 0) £ 0,25 \ P(N = 0) 0,75
1 - 0,75 \ £ 0,25
Resposta: m = 2
F=0 se (N = 0) ou (N = 1)
Em resumo:
� 1- 2 se k=0
�
P(F = k) = �
�
(1- ) k+1 se k=1,2,3..
�
Exercícios:
- se k = 0 F( k ) = 1 - 2
- se k > 0
k
F(k) = (1 - 2 ) + �( 1 - ) j+1
j=1
2 ( 1- k )
F(k) = ( 1 - 2
) + (1- ) 1-
k +2
F(k) = 1 -
Verificamos então que :
F( k ) = 1 - k + 2 para k = 0,1,2,3...
Sabemos que o tempo de atendimento (tempo de serviço ou duração do serviço) é uma v.a.
exponencial (m), ou seja, uma variável aleatória Gama(m,1). O tempo de atendimento a
duas unidades no sistema é uma variável aleatória Gama(m,2), supondo os atendimentos
independentes.
Seja então q( k ) o tempo de atendimento a k unidades no sistema. Esta v.a. tem distribuição
Gama de parâmetros m e k, pois é a soma de k variáveis aleatórias independentes , com
distribuição exponencial (m).
Denominemos por Wf a v.a. que representa o tempo de espera na fila para uma unidade
que chega ao sistema.
FWf ( t ) = P ( Wf £ t ) = 0 se t < 0,
“0 unidades no instante t” e “a unidade que chega não esperar para ser atendida”
ou
ou
( Wf (
�t ) = N = 0; q( 0) �t ) U( N = 1; q( ) �t ) U( N = 2; q( ) �t ) U.....U( N = k; q( ) �t ) U.....
1 2 k
( )
�
P ( Wf �t ) = (Po �1) + �Pk .P q( k ) �t
k =1
t
�
m k k -1 -mt
P ( Wf �t ) = P0 + �( 1 - ) k
� t e dt
k =1 0
G( k)
( mt )
t k -1
�
P ( Wf �t ) = ( 1 - ) + � ( 1 - ) m� e -mt dt
0 k =1 ( k - 1) !
t
P ( Wf �t ) = ( 1 - ) + �
( 1 - ) memt e-mt dt
0
t
P ( Wf �t ) = ( 1 - ) + �
( 1 - ) m e-( 1- ) mt dt
0
( { }
t
P ( Wf �t ) = ( 1 - ) - e -( 1- ) mt �
�= ( 1 - ) - e
- ( 1- ) mt
-1
0
Finalmente,
P ( Wf �t ) = 1 - e -( 1- ) mt
Em resumo,
�0 se t < 0
�
FWf ( t ) = �
�1-e-( 1- ) mt se t �0
�
� 0 t<0
�
g Wf ( t) = � (1- ) t =0
�
� ( m-l ) e -( m-l ) t t>0
De forma que,
�
E ( Wf ) = ( 0 �( 1 - ) ) + �
t ( m - l ) e -( m-l ) t dt
0
G ( 2)
E ( Wf ) = ( m - l ) \ E ( Wf ) =
( m - l) m-l
2
Para uma unidade que chega ao sistema, o seu tempo de espera na fila é igual a W f . O
tempo de espera no sistema, WS , para esta unidade, será igual a Wf mais o seu próprio
tempo de atendimento que é uma exponencial de média 1/m , isto é:
Ws = Wf + q( 1)
E ( Ws ) = E ( Wf ) + E q( 1)( )
1 1
E ( Ws ) = + \ E ( Ws ) =
( m - l) m m-l
Exercício 10.7.8
Um sistema de espera M/M/1 tem uma taxa de chegadas de 8 (oito) unidades por hora.
Qual deve ser a taxa de atendimento mínima de forma a garantir que o tempo de espera no
sistema seja no máximo igual a 3 horas?
Solução:
1
l=�\8 �m-\m�\m3��1m= 3 24 3 25 8,33 8
m-l
Denotemos por c o custo unitário de espera na fila na unidade de tempo, e por g o custo de
ociosidade de um posto de serviço na unidade de tempo, e, representemos por H(,c,g) o
custo médio total do sistema.
Devido às características não determinísticas do sistema não podemos precisar este custo
senão em termos médios. A primeira parcela deste custo será o custo médio de espera na
fila calculado por cE(F). Uma outra parcela é o referente ao custo de um posto de serviço
quando inativo. Neste caso precisamos definir uma v.a. G que assume o valor 0 (zero) se
(N > 0) e assume o valor g se N=0.
Assim, temos:
H ( , c, g ) = cE ( F ) + E ( G )
� 2 �
H ( , c, g ) = c � �+ gP ( N = 0 )
1- �
�
� 2 �
H ( , c, g ) = c � �+ ( 1 - ) g
1- �
�
Exercício 10.7.9
Determinar o valor de que minimiza o custo médio total no M/M/1.
Solução:
� 2 2 �
H� ( ) = c � + �- g
(
�
� 1 - )
2
( 1 - ) �
�
�
2 + 2 - 2 2 �
( ) = c �
H� �- g
( )
2
�
� 1 - �
�
2 c - c 2 - g + 2g - g 2 = 0 \ ( c + g ) - 2 ( c + g ) + g = 0
2
g
2 - 2 + = 0 \ 2 - 2 + = 0 \ = 1 1 -
c+g
c
* = 1 -
c+g
Exercício 10.7.10
Num sistema M/M/1 a taxa média de chegadas é de 3,5 unidades por hora. Sabendo-se que
o custo unitário de espera na fila é de CR$9,00 e que o custo de ociosidade do posto é de
Cr$91,00, qual deve ser a taxa média de atendimento de forma a minimizar o custo médio
total do sistema?
Solução:
c 9
min = 1 - = 1- = 0, 7
c+g 91 + 9
Exercício 10.7.11
Um laboratório produz um certo tipo de vacina utilizável dentro de um período de um mes,
após o que ela se deteriora. Sabendo-se que a demanda média do produto é de 8 doses por
mes, pede-se:
a) Qual deve ser produção média máxima a ser planejada pelo laboratório, para um período
de três meses.?
b) Qual o número esperado de doses em estoque durante um mes?
Solução:
a) l = ?
m=8
l £ 23/3 \ l £ 7,66
b) = 7,66/8 = 0,95
Exercício 10.7.12
Um certo produto é fabricado em duas fases de de produção. Na primeira fase é utilizada
uma máquina M1 cuja produção obedece aproximadamente a uma distribuição de Poisson.
Após a primeira fase, o produto semi-acabado é estocado em uma área A1 , onde aguardará
disponibilidade de uma máquina M 2 , cujo tempo de utilização por unidade do produto é
aproximadamente uma v.a. exponencial.
� 3�
a) Custo médio de ociosidade da máquina M 2 = 2 � �1 - �= 0,5
� 4�
b) Custo médio de espera na fila:
Notemos que :
Y=0 se N £ q
Y=k se N = q + k , k = 1,2,3,....
De forma que ;
� �
E(Y) = �k ( 1 - ) q+ k = ( 1 - ) q+1 �k k -1
k =1 k =1
q+1
E ( Y) =
1-
0, 2 q+1
CMT = + 2 ( 1- )
1-
Sendo l = 3 e m = 4, obtemos:
CMT = 0,6(0,75)q + 0,5
Exercício 10.7.13
Considerando o sistema de espera estudado no exercício anterior, com l = 8 , m = 10, c = 20
e g = 100, qual seria a capacidade mínima da área A 2 de forma a se ter um custo no
máximo igual a CR$36,00?
Solução:
q+1
CMT = 20 �
( 0,8 )
+ 100 � 0, 2 � 36
0, 2
ln 0,2
q \ q 7 , 21 Resposta: q = 8
ln 0,8
Sigla: M/M/S/µ/FIFO
O modelo de custo médio total definido no sistema M/M/1 permanece válido no modelo
M/M/S, como ferramenta de análise de custos.
a) E(F) decresce quando m cresce, pois serviço mais rápido implica em filas menores.
A decisão deve ser baseada na análise de sensibilidade da função H para os valores viáveis
de m e S.
Recordemos que;
a) para n = 0,
b) para n = 1,2,3,......,(s-1),
De forma que,
Pn ( t + Dt ) = Pn ( t ) ( 1 - lDt ) ( 1 - nmDt ) + Pn ( t ) lDt ( n + 1) mDt +
(10.3)
Pn +1 ( t ) ( 1 - lDt ) ( n + 1) mDt + Pn -1 ( t ) lDt ( 1 - nmDt ) + o ( Dt )
De (II) temos,
�- l [ Pn - Pn -1 ] = 0
�( n + 1) Pn +1 - nPn �
m�
mDnPn - lDPn -1 = 0 \ D [ mnPn - lPn -1 ] = 0
Se a diferença de uma função é igual a 0, então esta função é uma constante, ou seja
Variando n = 1,2,3,.......
P1 = P0
P2 = P1
2
P3 = P2
3
.............
.............
Pn = Pn -1
n
.............
Daí obtemos:
n
Pn = Po 1 £ n £ s -1 (10.8)
n!
sm [ Pn +1 - Pn ] - l [ Pn - Pn -1 ] = 0 n �s
smDPn - lDPn -1 = 0 \ D [ smPn - lPn -1 ] = 0
Façamos n = s,
smPs - lPs-1 = k
Ps-1 pode ser determinada pela equação II, que é válida para 1 £ n £ s-1,
Utilizando-se de (10.7),
Pn = Pn-1 � Ps -1 =
l
P � Ps - 2 =
( s - 1) m P
( s - 1) m s -2 l
s -1
Portanto: Pn = Pn -1 (10.10)
s
Fazendo-se n = s, s+1,s+2,.......
Ps = Ps -1
s
Ps +1 = Ps
s
Ps + 2 = Ps +1
s
.................
.................
n - s +1
� �
Pn = Pn -1 � Pn = � � Ps -1
s �s �
Finalmente, temos;
n - s +1
� � s -1 n
Pn = � � P0 \ Pn = n -s P0 n �s
�s � ( s - 1) ! s!s
Em resumo, escrevemos;
� n
� n! P0 0 � n � s -1
�
�
Pn = � (10.11)
� n
� n -s P0 n �s
�s!s
Obs: No sistema M/M/S, devemos condicionar que < 1, pois em caso contrário a fila
S
aumentará indefinidamente.
s -1
n �
n � s-1 n s � � �n -s �
� �
P0 � + P0 � n -s = 1 � P0 �� + � � � �= 1
n = 0 n! n =s s!s �n =0 n! s! n -s =0 � s � �
n -s
�s -1 n s � � �
� �
� �s -1 n s s �
P0 �� + �� � � = 1 � P0� � + �= 1
�n =0 n! s! n -s =0 �s � � �n =0 n! s!( s - ) �
1
P0 = s -1 n
s s (10.12)
�
n = 0 n!
+
s!( s - )
�0 se N � S
F=�
�k se N = S + k
�
E ( F ) = �k Pk +s
k =0
ou
�
E ( F ) = �( n - s ) Pn
n =s
�
n
E ( F ) = �( n - s ) P0
n =s s! Sn -s
ou
�
n �
n
E ( F ) = �n P0 - � s P
n -s 0 (10.13)
n =s s! Sn -s n = s s! S
P0 s +1 � �
n - s -1 n -s -1
�
n P0 � n �� � � �
� � �
� n n -s
P0 = � n n -s
= ��( n - s ) � � + �s � � �
n =s s! S s! n =s S s! s �n =s �s � n =s � s � �
� �
�
s +1 �
�
n
P0 � 1 s 2
�
�n s! S n -s
P0 = �
s! s �� � 2
+
� ��
� (10.14)
�1 - � � 1- �
n =s
�
�� s � � s ��
� �
� �
P0 s +1 � 1 s2 � P0 s
s
1
E ( F) = � + � -
s s! �� � 2
� � s! 1 -
�1 - � �1 - ��
�
�� s � � s �� s
� �
�
s +1 �
P � 1 s 2
s 2
�
E ( F) = 0 � + - �
s s! �� � 2
� � � ��
�1 - � �1 - � �1 - �
�
�� s � � s � � s ��
Finalmente,
P0 s +1 1 P0 s +1s
E ( F) = =
s s! � �2 s!( s - ) 2
�1 - �
� s �
10.9 - Sistema de Espera Poissoniano com um Posto de Serviço, mas com capacidade
limitada a k unidades.
Neste tipo de modelo há uma limitação para o número de unidades possíveis no sistema. A
limitação se refere à capacidade do sistema, ou seja, se n = k, qualquer unidade que chegar
ao sistema será recusada. A população de usuários permanece sendo infinita, coerente
portanto com a distribuição poissoniana das entradas e saídas. A sigla deste sistema pode
ser adaptada da forma M/M/1/µ/k/FIFO.
As equações de diferenças finitas estabelecidas para o sistema M/M/1 permanecem válidas
somente para
Exercícios 10
4. Descreva com suas próprias palavras duas situações práticas que podem ser
consideradas como sistemas de espera Poissoniano , definindo as unidades, o tipo de
serviço procurado , o (s) posto (s) de serviço e outras quaisquer características que julgar
importante citar.
Prof. Frederico Cavalcanti 388491661.doc 128
Processos Estocásticos Ence
. Sistema de Espera Poissoniano com um Posto de Serviço, mas com capacidade limitada a
k unidades.
Neste tipo de modelo há uma limitação para o número de unidades possíveis no sistema. A
limitação se refere à capacidade do sistema, ou seja, se n = k, qualquer unidade que chegar
ao sistema será recusada. A população de usuários permanece sendo infinita, coerente
portanto com a distribuição poissoniana das entradas e saídas. A sigla deste sistema pode
ser adaptada da forma M/M/1/µ/k/FIFO.
As equações de diferenças finitas estabelecidas para o sistema M/M/1 permanecem válidas
somente para
10. Uma oficina mecânica mantém um local próprio para estacionar os carros que
aguardam o início dos serviços a serem realizados nos mesmos. Esta área tem capacidade
para 4 carros, e, em caso de necessidade os carros excedentes são levados para um
estacionamento particular a um custo de R$18,00 por dia. O tempo gasto no atendimento a
um carro é uma variável aleatória exponencial com média igual 6 horas, e o número médio
de carros que dão entrada na oficina é supostamente uma v.a. de Poisson com uma média de
3 carros por dia. O custo de ociosidade da oficina, por dia. é igual a R$75,00. Estabeleça
uma função que possa representar o custo médio total da oficina.
Sistema M/M/1
Pn = (1 - ) n n = 0,1, 2, 3,.....
k =0 (1 - )
F( n ) = 1 - n +1 n = 0,1,2,3,.....
E(N) =
1-
� 1- 2 se k=0
�
P(F = k) = �
�(1- ) k+1 se k=1,2,3..
�
�0 se t < 0
�
�
�
g Wf ( t ) = � 1- se t=0
�
� ( m-l ) e
- ( m-l ) t
se t > 0
�
�
� 2 �
H ( , c, g ) = c � �+ ( 1 - ) g
�1 - �
c
* = 1 -
c+g