Sunteți pe pagina 1din 131

Processos Estocásticos Ence

1. Introdução.

1.1 - Conceitos Básicos

Definição 1.1
Denomina-se PROCESSO ESTOCÁSTICO à família de variáveis aleatórias { X t ; t �T} ,
onde T é chamado conjunto de parâmetros ou conjunto de índices do processo. Se T é
um conjunto finito ou infinito mas numerável, diz-se que o processo é de parâmetro
discreto. Se T �R , isto é, se T é um intervalo real, diz-se que o processo é de parâmetro
contínuo.

Exemplo 1.1
O processo estocástico { X n ; n = 1, 2,...} , onde X n é o valor das vendas de um
supermercado no seu n-ésimo dia durante um determinado ano, é um processo de parâmetro
discreto, ilustrado no gráfico que segue..

Exemplo 1.2
O processo estocástico { X t ; t �0} , onde X t é o nível de água de um reservatório (represa)
no instante t, observado entre 6 e 18 horas de um determinado dia, é um processo de
parâmetro contínuo que pode ser registrado através de um dispositivo hidroeletrônico.

Prof. Frederico Cavalcanti 388491661.doc 1


Processos Estocásticos Ence
Exemplo 1.3
O processo estocástico { X t ; t = 4,8,12,16, 20, 24} , onde X t é o nível de água de um
reservatório (represa) observado às 4, 8, 12, 16, 20 e 24 horas de um determinado dia, é um
processo de parâmetro discreto.

Tradicionalmente, no estudo de processos estocásticos, o valor assumido por X t é


denominado ESTADO do processo no "instante t", e o conjunto de todos os possíveis
valores que as variáveis aleatórias podem assumir é chamado de ESPAÇO DE ESTADOS.

Exemplo 1.4
Seja { N t ; t �0} o número de clientes que chegaram a um posto de serviço no intervalo de
tempo [0,t). N t é um processo de parâmetro contínuo (tempo) que assume valores em um
espaço de estados discreto, ou seja, N t �[ 0,1, 2,3,.....] .
O gráfico que segue sugere um processo de Poisson. Por exemplo, se a escala do eixo t é
em minutos, então vemos que N1 = 2 , N 2 = 3 .

Prof. Frederico Cavalcanti 388491661.doc 2


Processos Estocásticos Ence

Exemplo 1.5
Um dispositivo eletrônico usado em CTI’s de hospitais, registra a cada instante, durante o
intervalo de tempo de um dia os batimentos cardíacos de um paciente. O processo
estocástico { X t ;0 �t �24 hs} , se expressa através de uma função contínua (batimentos
cardíacos) assinalada , a cada instante do dia, conforme o gráfico ilustrativo abaixo.

Exemplo 1.5 – Processo de Bernoulli


O processo { X n ; n = 1, 2,3...} é chamado processo de Bernoulli, com probabilidade p de
sucesso, se :
i) X1 , X 2 , X 3 ,... são variáveis aleatórias independentes e
ii) P ( X n = 1) = p � P ( X n = 0 ) = 1 - p = q , n = 1, 2,3,...

Em um processo estocástico de Bernoulli o espaço de estados é o conjunto S = { 0,1} .

Os seguintes exemplos constituem-se em processos de Bernoulli:

I - Seja { X i ;i = 1, 2,.....} o processo estocástico que assume os valores 0 e 1 conforme não


chova ou chova, respectivamente, no i-ésimo dia de um determinado período de tempo.

II – Em uma linha de montagem os produtos acabados são submetidos a teste de qualidade


e são classificados como "defeituosos" ou "não defeituosos".

III – em uma bifurcação de uma estrada, (100p)% dos veículos seguem para a direita. O
processo X n se identifica a 0 ou 1 conforme o n-ésimo veículo que chega, siga para a
esquerda ou direita respectivamente.

Prof. Frederico Cavalcanti 388491661.doc 3


Processos Estocásticos Ence

1.2 - Classificação de um processo estocástico.

1.2.1 - Quanto aos espaços de estado e de parâmetros.

Se o processo estocástico X t é uma variável aleatória do tipo discreto então seu espaço de
estados é finito ou infinito mas numerável e o processo é dito discreto. Se o processo
estocástico é uma variável aleatória do tipo contínuo seu espaço de estados é um intervalo
real e o processo é dito contínuo. De forma que um processo estocástico pode ser
classificado como:

i) processo estocástico discreto de parâmetro discreto - Exemplo 1.1

ii) processo estocástico discreto de parâmetro contínuo - Exemplo 1.4

iii) processo estocástico contínuo de parâmetro discreto - Exemplo 1.3

iv) processo estocástico contínuo de parâmetro contínuo - Exemplos 1.2 e 1.5

1.2.2 - Quanto à estrutura probabilística de seus incrementos.

Definição 1.2 - Processo Estocástico de Incrementos Independentes.

Um processo { X t ; t �T} é dito de incrementos independentes se para n = 2,3,4,5..... ,


t m �T , m = 0,1, 2,..., n ,onde t 0 < t1 < ... < t n , se as variáveis aleatórias
(X t1 ) ( ) ( )
- X t 0 , X t 2 - X t1 , ... , X t n - X t n -1 são independentes.

Definição 1.3 - Processo Estocástico de Incrementos Homogêneos.

Um processo estocástico { X t ; t �T} é chamado de incrementos homogêneos se para


t1 < t 2 , a função de distribuição de (X t2 )
- X t1 depender apenas da diferença ( t 2 - t1 ) .

Exemplo 1.6 - Um Modelo de Passeio Aleatório

Prof. Frederico Cavalcanti 388491661.doc 4


Processos Estocásticos Ence
Consideremos um "sistema" que pode estar em um dos estados possíveis do conjunto
S = { ..., -2, -1, 0,1, 2,...} . Representemos por Zn , n = 0,1, 2,... o "estado" do sistema na
etapa n de observação.

Se o sistema, numa dada etapa n, se encontra no estado k �S , as probabilidades dele se


encontrar nos estados ( k + 1) e ( k - 1) , na etapa ( n + 1) são respectivamente p e q,
p + q = 1 , isto é:
P ( X n +1 = k + 1/ X n = k ) = p
(1.6.1)
P ( X n +1 = k - 1/ X n = k ) = q

A cada etapa de observação temos definida uma variável aleatória X tal que;
�p r = 1
P( X = r) = � (1.6.2)
�q r = -1
Fixemos Z0 = 0 , e, após n etapas consecutivas, obtemos:

Zn = X1 +X 2 +...+X n-1 +X n (1.6.3)

onde X i , i = 1, 2,..., n se distribui como em (1.6.2).

A equação (1.6.3) pode ser escrita sob a forma: Zn = Z n-1 +X n onde X n é independente de
Zn -1 .

Objetiva-se nesse estudo determinar a probabilidade p( o,k ) = P { Zn = k / Z0 = 0} , ou seja a


(n )

probabilidade do processo se encontrar no estado k na etapa n, tendo estado inicialmente


(etapa 0) no estado 0.

(n)
Em outras palavras, p( o,k ) é probabilidade do "sistema passar do estado 0 para o
estado k, em n etapas".

Consideremos agora a variável,

�1 se Xi = 1
Yi = �
�0 se X i = -1
1
Notemos que: Yi = ( X i + 1) é uma v.a de Bernoulli (p) e consequentemente a soma
2
1
destas n variáveis aleatórias, R n = Y1 + Y2 + ... + Yn = ( Zn + n ) tem distribuição de
2
Binomial (n,p).

Daí temos que,


� 1 � 1
p((n0,k) ) = P ( Zn = k / Z0 = 0 ) = P �
R n = ( k + n ) �, onde ( k + n ) �{ 0,1, 2,....., n} .
� 2 � 2

Prof. Frederico Cavalcanti 388491661.doc 5


Processos Estocásticos Ence
Assim,


� n � k +n n -k

� �p 2 q 2 k = -n, - ( n - 2 ) , - ( n - 4 ) ,......, ( n - 4 ) , (n - 2), n

�1 ( k + n ) �
p(( 0,k
n)
) =�
�2
� �

� 0 caso contrário

Sendo E ( R n ) = np e Var ( R n ) = npq , obtemos:

E ( Zn ) = E ( 2R n - n ) = 2E ( R n ) -n \ E ( Zn ) = n(p-q)

Var ( Zn ) = Var ( 2R n - n ) = 4Var ( R n ) = 4npq


Em resumo,
E ( Zn ) = n(p-q)
Var ( Zn ) = 4npq
Obs:
Se considerarmos a média dos passos dados pelo sistema em n etapas verificamos que
1
Zn ��p
� ( p - q ) . Isto quer dizer que para n suficientemente grande o "sistema" estará em
n
S+ se p>q ou em S- se p<q.

Exemplo 1.6.1
( 5) 5 4 1
�� 1
� p(( 0,3) ) = 5 �(1/2)5= 5/32.
5
Se n = 5 e k = 3, então p( 0,3) = ��p q e se p =
4
�� 2
Notemos que o sistema, a partir do estado 0, tem cinco opções de chegar ao estado 3 ,em 5
etapas, cada uma delas com probabilidade 1/32, como se pode ver abaixo:

Opções Origem Passo 1 Passo 2 Passo 3 Passo 4 Passo 5


1 0 1 2 3 4 3
2 0 -1 0 1 2 3
3 0 1 0 1 2 3
4 0 1 2 1 2 3
5 0 1 2 3 2 3

Podemos ainda, com base no teorema do limite central, determinar a probabilidade do


sistema se encontrar em determinado intervalo IÎS.

Prof. Frederico Cavalcanti 388491661.doc 6


Processos Estocásticos Ence
Exercício 1.6.2
Determinar um intervalo de confiança de 0,95 para Z10.000, com p = 0,6.
Solução:
Com base no teorema de Lindberg-Levy (Teorema do Limite Central), escrevemos que:

Zn - n ( p - q )
~ N(0,1)
4npq
Daí, temos;
� Zn - 10000 �( 0, 6 - 0, 4 ) �
P�
�-1,96 � �1,96 �= 0,95
� 40000 �0, 6 �0, 4 �
P ( 1808 �Z �2192 ) = 0,95

Exercício 1.6.2
Determine a probabilidade aproximada de Z10.000 Î (-200,200) com p = 0,5.

E ( Z n ) = 10.000 �(0,5 - 0,5) = 0


Var(Zn ) = 4 �10.000 �0,25 = 10.000
s (Zn ) = 100
�-200-0 Zn 200 - 0 �
P(Zn � (-200;200) )=P � < < �
� 100 100 100 �
P(-2�Zn �
2) = 0,95

Prof. Frederico Cavalcanti 388491661.doc 7


Processos Estocásticos Ence

Exercícios 1

1.1 – Pedro e João apostam num simples jogo da "moeda". Eles acordam pagar uma
unidade de capital ao outro quando perder a "jogada". Seja Sn o montante obtido por Pedro
em n lançamentos da moeda. Estruture notacionalmente o processo estocástico, definindo
o conjunto paramétrico, o espaço de estados, a classificação do processo e determine a
média e variância de Sn .

1.2 - Quantas etapas são necessárias para que o capital de Pedro se encontre no intervalo
(-300; 330) com probabilidade 0,90?

1.3 – Classifique os seguintes processos estocásticos quanto ao conjunto paramétrico e o


espaço de estados.

a) preferências do consumidor por uma das marcas A, B ou C, de um produto,


em um determinado mês.

b) número de itens defeituosos num processo de controle de qualidade.

c) número de sapatos do tipo A em estoque numa sapataria a cada dia de um


determinado mês.

d) número de estudantes esperando pelo elevador num instante do dia em sua escola.

e) quantidade de gasolina estocada num tanque de um posto de combustíveis ao final


de cada dia.

1.3 - Seja Zn , n = 10000, um modelo da passeio aleatório como definido no exemplo 1.6.
Determine a probabilidade aproximada de Zn Î (-1900,-2000) com p = 0,4.

1.5 – Construa gráficos representativos dos processos estocásticos do exercício 1.2.

Prof. Frederico Cavalcanti 388491661.doc 8


Processos Estocásticos Ence
2. Processos de contagem.

2.1 - O Processo de Contagem Binomial.

Definição 2.1
Seja { X n ; n = 0,1, 2,3...} um processo de Bernoulli com probabilidade de sucesso igual a p.
Consideremos o processo estocástico,
� 0 se n = 0
Nn = �
�X1 + X 2 + ... + X n se n = 1, 2,3..

O processo estocástico N n é o número de sucessos acumulados até a n-ésima realização


Trata-se de um processo discreto de parâmetro discreto.

Para um inteiro m > 1 , o processo N n + m - N n = X n +1 + X n + 2 + X n + m é o número de sucessos


observados nas provas de ordem n + 1, n + 2,..., n + m

�0 se n = 0 �0 se n = 0
E ( Nn ) = � . e Var ( N n ) = �
�np se n �0 �npq se n �0

Obs:
E ( N n + m - N n ) = ( n + m ) p - np = mp
Var ( N n + m - N n ) = ( n + m ) pq + npq = 2npq + mpq = pq ( 2n + m )

Estas características foram obtidas apenas usando as propriedades da média e variância e o


fato de que as variáveis aleatórias X i , i = 1, 2,3,.... são independentes. Contudo, se
desejarmos calcular a média de uma função de N n , isto é, E � �g ( Nn ) �
�, precisaremos
conhecer a a distribuição de N n .Obviamente N n tem distribuição Binomial de parâmetros
n e p, para todo n �0, e a prova disto é o que faremos a seguir.

Lema 2.1
Para todo n, k �N = { 0,1, 2,...} ,

P [ N n +1 = k ] = p �P [ N n = k - 1] + q �P [ N n = k ] (L1.1)

Fixados n e k, sejam os eventos A = { N n +1 = k} e B j = { N n = j} , j = k - 1, k , calculemos a


probabilidade do evento { N n +1 = k} . cuja decomposição na união dos eventos mutuamente
exclusivos é:

{ N n +1 = k} = �
( Nn = k - 1) �( N n +1 = k ) �
� ( Nn = k ) �( Nn +1 = k ) �
���
� �

e a sua probabilidade é:

Prof. Frederico Cavalcanti 388491661.doc 9


Processos Estocásticos Ence
P { N n +1 = k} = P [ N n +1 = k / N n = k - 1] P [ N n = k - 1] + P [ N n +1 = k / N n = k ] P [ N n = k ]
ou
P { N n +1 = k} = �P [ N n +1 = k / N n = j] �P [ N n = j] j = k - 1, k (L1.2)
j

Tendo em vista que as variáveis aleatórias de Bernoulli (p), X i , i = 1, 2,3,.... são


independentes e que N n = X1 , X 2 ,..., X n é independente de X n +1 . Usando o fato de que
N n +1 = N n + X n +1 , podemos escrever que:
�p se j = k - 1

P { N n +1 = k / N n = j} = P ( X n +1 = k - j) = �
q j= k
�0 caso contrário

Substituindo-se este resultado em L1.2, provamos L1.1.

Para n = 0 � N 0 = 0 � P ( N 0 = 0 ) e P ( N 0 = k ) = 0 para todo k �0 .


Com estas afirmações, e aplicando sucessivamente o Lema 2.1, especificamos os valores
de P ( N1 = k ) , P ( N 2 = k ) ,..... mostrados na tabela abaixo,

n k=0 k=1 k=2 k=3 k = 4....... .......


0 1 0 0 0 0 0
1 q p 0 0 0 0
2 q2 2qp p2 0 0 0
3 q3 3q 2 p 3qp 2 p3 0 0
4 q4 4q 3p 6q 2 p 2 4qp3 p4 0 0

Teorema 2.1
Para todo n �N ,
�n � k n - k
P { N n = k} = � � p q , k = 0,1, 2,..., n . (2.1)
�k �

Prova por indução finita:


i) visto que N 0 = 0 , (2.1) é verdadeira para n = 0.

ii) a hipótese de indução é que (2.1) é verdadeira para n = m

iii) para completar a prova precisamos mostrar que (2.1) é verdadeira para n = m + 1 .

Para n = m + 1 e k = 0 o Lema 2.1 nos oferece, P { N m +1 = 0} = p �0 + q �q = q


m m +1

como estabelece (2.1).


1
Para n = m + 1 e 0 < k �m + 1 , novamente pelo Lema 2.1 e pela hipótese de indução,

Prof. Frederico Cavalcanti 388491661.doc 10


Processos Estocásticos Ence
�m �k -1 m - k +1 �m �k m -k
P { N m +1 = k} = p �� � p q + q �� �pq
�k - 1� �k �

� m + 1� � m � �m �
Segundo a relação de Stiffel, � �= � �+ � �, e então,
� k � �k � � k - 1�
�m + 1�k m +1- k
P { N m +1 = k} = � �pq
�k �
Vamos agora determinar a distribuição do número de sucessos em n provas. Notemos que
N m + n - N m = X m +1 + X m +2 + ... + X m +n é também a soma de n variáveis aleatórias
independentes e identicamente distribuídas como Bernoulli (p). e portanto deduzimos que
N m + n - N m tem a mesma distribuição que N n .

De forma que,

�n �k n -k
P { N m + n - N m } = P { N n = k} = � �p q , k = 0,1, 2,..., n , (2.2)
�k�

e então concluímos que o número de sucessos em n provas tem distribuição Binomial de


parâmetros e e p.

Exemplo 2.1
Usando (2.2),
5 4 1
��
a) P ( N 5 = 4 ) = �� pq
4
��
6 3 3
��
b) P ( N13 - N 7 = 3 ) = ��p q = 20p3q 3
3
��
5 0 5 ��
�� 5 1 4
c) P ( N10 - N 5 �1) = �� p q + �� p q = q 5 + 5pq 4
0
�� 1
��

Teorema 2.2
Para todo m, n ��= { 0,1, 2,3,...} ,
�n �k n - k
P { N m + n - N m = k / N 0 , N1 ,..., N m } = P { N m + n - N m = k} = � �pq k = 0,1, 2..., n
�k�

O Teorema especifica que a variável aleatória diferença N m + n - N n é independente de cada


uma das variáveis aleatórias N 0 , N1 ,..., N m .
Por exemplo, se precisamos calcular a probabilidade do evento � �N 20 ( N 30 - N 20 ) �
�,
escrevemos:
P�� �= P [ N 20 ] �P [ N 30 - N 20 ] , pois N30 - N 20 é independente de N 20 .
N 20 ( N30 - N 20 ) �

Antes de demonstrar este Teorema, ilustraremos sua utilidade com os seguintes exemplos:
Prof. Frederico Cavalcanti 388491661.doc 11
Processos Estocásticos Ence

Exemplo 2.2
Calcularemos probabilidade do evento { N5 = 4; N 7 = 5; N13 = 8} .

Tal evento é equivalente ao evento { N5 = 4; N 7 - N 5 = 1, N13 - N 7 = 3} . Pelo Teorema (2.2)


a variável aleatória { N13 - N 7 } é independente das variáveis aleatórias N 0 , N1 ,..., N 7 .

Então,
P { N5 = 4; N7 - N5 = 1, N13 - N7 = 3} = P { N5 = 4; N 7 - N5 = 1} �P { N13 - N7 = 3}

Mais uma vez, usando o Teorema (2.2), a variável aleatória { N 7 - N5 } é independente das
variáveis aleatórias N 0 , N1 ,..., N 5 , e portanto de N 5 em particular.

De forma que,
P { N 5 = 4; N 7 = 5; N13 = 8} = P { N 5 = 4} P { N 7 - N 5 = 1} P { N13 - N 7 = 3}
5 4 1 ��
�� 2 1 1 ��6 3 3
= ��p q + ��p q + ��p q = 200p8 q5
4
�� 1
�� 3
��

Exemplo 2.3
Calcular a média do evento { N5 N8 } .
Observemos que N8 = N 5 + ( N8 - N 5 ) , e então,
N5 { N5 + ( N8 - N 5 ) } �
E ( N 5 N8 ) = E �
� N 52 + N 5 ( N 8 - N 5 ) �
�= E �
� �
Porque N 5 e ( N 8 - N 5 ) são independentes,conforme Teorema 2.2, escrevemos,
E ( N 5 N8 ) = E � �+ E [ N 5 ] E [ N 8 - N 5 ]
N 52 �

= Var [ N 5 ] + E 2 [ N 5 ] + E [ N 5 ] E [ N 8 - N 5 ]
= 5pq + 25p 2 + 5p.3p = 40p 2 + 5pq

Teorema 2.2 – Demonstração

As variáveis aleatórias N 0 , N1 ,..., N m são inteiramente determinadas por X1 , X 2 ,..., X m e


vice versa, pois N 0 = 0 , e:
N1 = X1 � X1 = N1
N 2 = X1 + X 2 � X2 = N2 - N
-------
-------
N m = X1 + X 2 + ... + X m -1 + X m � X m = N m - N m -1
e, por isso:
P { N m + n - N m = k / N0 , N1 ,..., N m } = P { N m + n - N m = k / X1 , X 2 ,..., X n }

Prof. Frederico Cavalcanti 388491661.doc 12


Processos Estocásticos Ence
Por outro lado N m + n - N m = X m +1 , X m +2 ,..., X m + n , sendo estas n últimas variáveis aleatórias
independentes de X1 , X 2 ,..., X m , e por conseguinte,

P { N m + n - N m = k / X1 , X 2 ,..., X n } = P { N m + n - N m = k}

Corolário 2.2.1
Sejam n 0 = 0 < n1 < n 2 < ... < n j inteiros. Então as variáveis aleatórias N n1 - N n0 ,
N n 2 - N n1 ,..., N n j - N n j-1 são independentes.

O Teorema 2.2 estabelece que o crescimento no valor da função N durante as provas


numeradas por m + 1, m + 2,..., m + n é independente das variáveis aleatórias referidas às
provas 1,2,...,m, ou seja N 0 , N1 ,..., N m e conseqüentemente de X1 , X 2 ,..., X m . Portanto o
crescimento da função N depende somente de n, e independe de m.

Um processo estocástico que satisfaz o Teorema 2.2 (ou o Corolário 2.2.1) é chamado de
processo com incrementos independentes. Observemos que a independência de
N m + n - N m de N 0 , N1 ,..., N m foi constatada sem qualquer citação sobre a distribuição de
Xn .

Então o Corolário 2.2.1 se aplica a qualquer processo estocástico { Zn ; n ��} , definido por:
� 0 se n = 0
Zn = �
�Y1 , Y2 ,..., Yn se �1

quando Y1 , Y2 ,..., Yn são variáveis aleatórias independentes.

Se as variáveis aleatórias Yj , j = 1, 2,..., n são também igualmente distribuídas, além de


serem independentes, então a distribuição dos incrementos ( Zm + n - Zn ) depende apenas de
n e não depende de m, e o processo estocástico é dito de incrementos independentes e
estacionários.

Retornando ao processo de Bernoulli (p), suponhamos que o passado histórico até o tempo
m seja conhecido, isto é, as variáveis aleatórias { N 0 , N1 ,..., N m } e { X1 , X 2 ,..., X m } são
valores já realizados e que desejamos prever o valor de uma variável aleatória Y
dependendo do futuro do processo { N n } , digamos Y = g ( N m , N m+1 ,....) , onde g é uma
função qualquer.

O teorema que segue estabelece que: para prever valores de { N n ; n > m} , os valores de
N 0 , N1 ,..., N m -1 são irrelevantes, dado que N m é conhecido.

Prof. Frederico Cavalcanti 388491661.doc 13


Processos Estocásticos Ence
Teorema 2.3
Seja Y uma variável aleatória que depende de um número finito de variáveis aleatórias
N m , N m +1 ,.... , ou seja, Y = g ( N m , N m+1 ,..., N m+ n ) .Para algum n,

E { Y / N 0 , N1 ,..., N m } = E { Y / N m }

A prova deste teorema está desenvolvida E.Çinlar (Chap.3,Sec.3, pág. 51).

O Teorema 2.3 é satisfeito pelos processos estocásticos conhecidos como Cadeias de


Markov, que serão estudadas neste texto na seção XX. A seguir ilustraremos através de
dois exemplos, a aplicação deste Teorema

Exemplo 2.4
Vamos calcular a média de { N11 / N 5 } .

E { N11 / N 5 } = E { N 5 + ( N11 - N5 ) / N5 }
= E { N 5 / N 5 } + E { ( N11 - N 5 ) / N 5 }
= N5 + E { N11 - N 5 } = N5 + 6p

Exemplo 2.5
Reportando ao Exemplo 2.3, mostraremos que o uso da esperença condicional reduz o
trabalho algébrico envolvido.
E { N 5 N8 } = E { E [ N 5 N8 / N 5 ] }
Vejamos que,
E { N 5 N 8 / N 5 } = N 5 E { N8 / N 5 } = N 5 E �
N5 + ( N8 - N5 ) / N5 �
� �
E { N 5 N 8 / N 5 } = N 5 E { N8 / N5 } = N 5 �
E ( N5 / N5 ) + E ( N8 - N5 ) �
� �
E { N5 N8 / N5 } = N5 ( N5 + 3p )
Finalmente,
E { N5 N8 } = E { N 5 ( N5 + 3p ) } = E { N52 } + 3pE { N5 }
E { N5 N8 } = 25p 2 + 5pq + 3p �5p = 40p 2 + 5pq

Exemplo 2.6
Calcularemos agora Z = E [ N 5 N11 / N 2 N 3 ] .

Considerando A.1.3.7 do Apêndice A1 e Teorema 2.3

E { N5 N11 / N 0 , N1 ,..., N 5 } / N 2 , N 3 �
Z= E�
� �
E { N5 N11 / N 5 } / N 2 , N 3 �
Z= E�
� �

Aplicando A.1.3.7 e A.1.3.6 e Teorema 2.1.4,

Prof. Frederico Cavalcanti 388491661.doc 14


Processos Estocásticos Ence
Z = E { N5 N11 / N 5 } = N5 E [ N11 / N 5 ] = N 5 ( N 2 + 6p )
De forma que,
Z= E�
N52 + 6pN5 / N 2 , N 3 �
� �

Aplicando (2.2.19)_ e (2.14) e Proposition (2.2.15), temos

E { N 52 + 6pN 5 / N 0 N1N 2 N 3 } / N 2 , N 3 �
Z= E�
� �
E { N 52 + 6pN 5 / N 3 } / N 2 , N 3 �
= E�
� �
= E�
N 52 + 6pN 5 / N3 �
� �
Ou seja, para prever o futuro dado que conhecemos N 2 e N 3 , precisamos apenas de N 3 .

Escrevendo N 5 = N 3 + ( N 5 - N 3 ) , e usando o Corolário 2.2.1 para mostrar a independência


entre N5 - N 3 e N 3 , chegamos a,
Z= E� N 2 + 2N 3 ( N 5 - N 3 ) + ( N 5 - N 3 ) + 6pN / N �
2
�3 �
= N 32 + 2N3 E [ N5 - N3 / N3 ] + E � ( N 5 - N3 ) / N 3 �+ 6pE [ N 5 / N 3 ]
2
� �

Z = N32 + 2N 3 E [ N 5 - N 3 ] + E �
(�N5 - N3 ) �� ( 3
+ 6P N + 2P )
2

Z = N 32 + 2N 3 �2p + 4p 2 + 2pq + 6p 3 N 3 + 12p 2


Z = N 32 + 10pN 3 + 16p 2 + 2pq

(*) Esclarecimentos sobre os desenvolvimentos dos exemplos 2.4, 2.5 e 2.6 constam do Apêndice A.1 – Média (ou Esperança)
Condicional.

2.2 – Tempos (provas) de ocorrência de sucesso.

Estudaremos nesta seção o processo { Tk ; k �1} , onde Tk é a variável aleatória que se


identifica ao número da prova na qual ocorreu o k-ésimo sucesso.

O processo Tk é gerado portanto a partir de um processo de Bernoulli, { X n ; n �1} , cuja


realização é uma seqüência de zeros e uns. A variável aleatória Tk assume o número do
índice de X n , quando ocorrer o evento ( X n = 1) .

Por exemplo, as 8 realizações de X n abaixo,


X1 = 1 ; X 2 = 0 ; X 3 = 0 ; X 4 = 1 ; X 5 = 1 ; X 6 = 0 ; X 7 = 0 ; X 8 = 1
implicam nos seguintes valores de Tk , k = 1, 2,3, 4 :
T1 = 1 ; T2 = 4 ;T3 = 5 ;T4 = 8

Prof. Frederico Cavalcanti 388491661.doc 15


Processos Estocásticos Ence
Exemplo 2.7 - Um processo de Bernoulli associado a um fluxo de transito.
Imaginemos o seguinte modelo, como uma aproximação do fluxo de transito através de um
fixado ponto P de uma rodovia não congestionada ( *) em um intervalo de tempo de 0 a n
segundos.

Se há um veículo passando por P no n-ésimo segundo fazemos X n = 1 , e, em caso contrário


fazemos X n = 0 . O fluxo é tal que o número de veículos que passam por P em intervalos de
tempo disjuntos são independentes. Assim, { X n ; n �1} é um processo de Bernoulli e N n
se identifica ao número de veículos que passam por P no intervalo de tempo ( 0, n ] e Tk é o
segundo no qual o k-ésimo veículo passou pelo ponto P.

2.2.1- Relações entre N n e Tk .

I – Suponha que o k-ésimo sucesso tenha ocorrido na ou antes da n-ésima prova, isto é,
Tk �n . Então o número de sucessos nas primeiras n provas deve ser ao menos igual a k, ou
seja, N n �k, ou seja, Tk �۳
n N n k,

Observemos o quadro abaixo que mostra a realização da variável aleatória N 7 .


X X1 X2 X3 X4 X5 X6 X7
x 0 1 1 1 0 1 1
Nn 0 1 2 3 3 4 5
T T1 = 2 T2 = 3 T3 = 4 T4 = 6 T5 = 7

Exemplos de verificação:
i) se k = 3 � T3 = 4 �7 � N 7 = 5 �3
ii) se k = 5 � T5 = 7 �7 � N 7 = 5 �5

II - Se por suposição Tk = n , isto implica na ocorrência de ( k - 1) sucessos nas primeiras


n-1 provas e um sucesso na n-ésima prova, ou seja N n -1 = k - 1 e X n = 1 .
A tabela abaixo ilustra a situação em que n =10 e k = 6:
X X1 X2 X3 X4 X5 X6 X7 X8 X9 X10
x 0 1 1 1 0 1 1 0 0 1
Nn 0 1 2 3 3 4 5 5 5 6
T T1 = 2 T2 = 3 T3 = 4 T4 = 6 T5 = 7 T6 = 10

Teorema 2.4.
Seja { X n ; n �1} um processo de Bernoulli. Para k �{ 1, 2,3,...} e n �k ,
n
�n � j n- j
P { Tk �n} = �� � pq , n = k, k + 1, k + 2,...
j= k �j�
�n - 1� k n - k
P { Tk = n} = � � p q , n = k, k + 1, k + 2,...
�k - 1�

Prof. Frederico Cavalcanti 388491661.doc 16


Processos Estocásticos Ence

3. Função Geratriz de Probabilidades.

As variáveis aleatórias do tipo discreto assumindo valores no conjunto N = { 0,1, 2,3,.......}


são de especial importância e têm seu estudo facilitado pela teoria das funções geratrizes
que é um caso particular do método da funções características, do qual a teoria da
probabilidades depende em grande extensão.

Definição 3.1
Seja a 0 , a1 , a 2 ,........ uma seqüência de números reais.

Se A(s) = a 0 + a1s + a 2s + a 3s + ......... =
1 2 3
�a s , converge em algum
k=0
k
k

intervalo s �s 0 , dizemos então que A(s) é a função geratriz da seqüência { a n } .

Nota: a variável s não tem por si só nenhum significado na teoria das probabilidades e se a
seqüência { a n } é limitada, A ( s ) converge ao menos para s < 1.

Exemplos
1. Seja { a k } = 1 k=0,1,2,3.....
1
A(s) = 1+s1 + s 2 + s3 + ......... = , s �1 , se ½s½£ 1
1- s
�n�
2. Seja { a n } = � �, k = 0,1, 2,...., n
�k�
�n �0 � n �1 �n �2 �n �n
A ( s) = � � s +�� s +�� s + .. + � � s
�0 � �1 � �2 � �n �
A ( s) = ( 1+ s)
n

1
3. Seja { an} = , k = 01, 2,3,...
k!
� k
s
A ( s ) = � = es , s �1
k = 0 k!

Definição 3.2.2
Seja X uma variável aleatória do tipo discreto com função de probabilidade P(X = x) = p x ,
k = 0,1,2,3,......... Chama-se função geratriz de probabilidades de X, à função:

PX (s) = p0 + p1s + p2s 2 + p3s 3 + ....... = �p x Sx , s �1 .
x =0

Prof. Frederico Cavalcanti 388491661.doc 17


Processos Estocásticos Ence

Teorema 3.1
"A função geratriz de probabilidades existe sempre para toda variável aleatória do tipo
discreto"
Prova:
Como a seqüência de probabilidades é limitada, isto é, p x �[ 0,1] , então existe uma
� � �
m
constante m tal que p k < m . Então PX (s) = �p x S < �mS = m �S =
x x x
, s �1 .
x =0 x=0 x=0 1- s

Obs:

PX (1) = p0 + p1 + p2 2 + p33 + ....... = �p x =1
x =0

Exercício 3.1
Determinar a função geratriz de probabilidades da variável aleatória de Poisson ( l ).
Solução:
e -l l k
pk = , k = 0,1, 2,3,....
k!
( ls ) = el( s -1)
k

e -l l k k �
P ( s) = � s = e -l �
k =0 k! k =0 k!

Exercício 3.2
Determinar a função geratriz de probabilidades da variável aleatória Geométrica (p).
p k = pq k -1 , k = 1, 2,3,....

p � p qs ps
P ( s ) = �pq k -1 s k = � ( qs ) = �
k
=
k =1 q k =1 q 1 - qs 1 - qs

Exercício 3.3
Seja X uma variável aleatória assumindo valores x = 1,2,3,....., com função geratriz de
probabilidades P ( s ) , determine a f.g.p. de Y=X+1.
Solução:

A função geratriz de X é por definição, dada por PX ( s ) = �P ( X = x ) s .
x

x =1

Se Y = X + 1 � x = g ( y ) = y - 1 � PY ( Y = y ) = PX ( X = g ( y ) ) = PX ( X = y - 1)
-1 -1
e
se x = 1, 2,3,.... � y = x + 1 = 2,3, 4,... . A função geratriz de Y, por definição é:

PY ( s ) = �PY ( Y = y ) s y
y=2

Sendo PY ( Y = y ) = PX ( X = y - 1) e substituindo-se na função acima, temos:



PY ( s ) = �PX ( X = y - 1) s y
y=2

Prof. Frederico Cavalcanti 388491661.doc 18


Processos Estocásticos Ence

ou PY ( s ) = s �PX ( X = y - 1) s y -1
y -1=1

e fazendo-se x = y-1 na expressão à direita, temos finalmente a relação entre as funções


geratrizes de X e Y, ou seja

PY ( s ) == s�PX ( X = k ) s x � PY ( s ) = sPX ( s )
x =1

3.1 - Momentos de X através de PX ( s ) .


Para enriquecer o assunto a ser abordado definiremos:

P(X > k) = q k

Assim, temos uma nova seqüência:

q k = p k +1 + p k + 2 + p k +3 + ... .

As funções geratrizes das seqüências p k e q k são respectivamente,


P ( s ) = p 0 + p1s1 + p 2s 2 + p3s 3 + ...
Q ( s ) = q 0 + q1s + q 2s 2 + q 3s 3 + ...

1- P ( s)
Teorema 3.1 Para -1 < s < 1 , temos Q ( s ) =
1- s

Prova:
Q ( s ) = q 0 + q1s + q 2s 2 + q 3s 3 + ... (3.1.1)
sQ ( s ) = S(q 0 + q1s + q 2s 2 + q 3s3 + ...) (3.1.2)

Subtraindo-se (3.1.2) de (3.1.1), obtemos,

( 1 - s ) Q ( s ) = (q 0 + q1s + q 2s 2 + q 3s3 + ...) - s(q 0 + q1s + q 2s 2 + q 3s3 + ...)


( 1 - s ) Q ( s ) = q 0 + ( q1 - q 0 ) s + ( q 2 - q1 ) s 2 + ( q3 - q 2 ) s3 + ...
Notemos ainda que,
q 0 = p1 + p 2 + p3 + ... = 1 - p 0
e q k +1 - q k = pk + 2 + pk +3 + p k + 4 + ... - ( p k +1 + pk + 2 + pk +3 + p k + 4 + ...) = -pk +1

Assim,
( 1 - s ) Q ( s ) = 1 - p 0 - ( p1s + p 2s 2 + p3s3 + p 4s 4 + ...) = 1 - P ( s )

ou como queríamos demonstrar,

Prof. Frederico Cavalcanti 388491661.doc 19


Processos Estocásticos Ence
1- P ( s)
Q ( s) = (3.1.3)
1- s

3.1.2 - Cálculo da media de X.

Teorema 3.2
Seja X uma variável aleatória do tipo discreto com função de probabilidade P(X = k) = p k ,
k = 0,1,2,3,......... e função geratriz de probabilidades PX ( s ) . Então,
dP ( s )
= P ' ( 1) = E ( X ) (3.1.4)
ds s =1

d �� x�
� �
De fato, �x � p S = � x xp S x -1
= � x.p x = E ( X )
ds �
�x =0 �s =1 k =0 s =1 k =1

Corolário.
Q ( 1) = P ' ( 1) = E ( X ) (3.1.5)

1- P ( s)
De fato, conforme (3.1.3), Q ( s ) = e por conseqüência, P ( s ) = 1 - (1 - s)Q(s) .
1- s
Segue então que, P ' ( s ) = ( -1) { ( -1) Q ( s ) + ( 1 - s ) Q ' ( s ) } � P ' ( s ) s =1 = Q ( 1)
Obs: Use L’Hospital para calcular Q(1).

3.1.2 - Cálculo da variância de X.

Teorema 3.3
Seja X uma variável aleatória do tipo discreto com função de probabilidade P(X = k) = p k ,
k = 0,1,2,3,......... e função geratriz de probabilidades PX ( s ) . Então,
d2P ( s )
X ( X - 1) �
= E�
� � (3.1.6)
ds s =1
De fato,
d 2 �� x� d � � �

�x � p S = � xxp S x -1
= � x ( x - 1) x
p S x-2
= � x ( x - 1) .p x = E �
X ( X -1) �
d 2s �
�x =0 �s =1 ds x =0 s =1 x = 0 s =1 k = 0
� �
ou
P '' ( 1) = E �
X ( X - 1) � � � E ( X ) = P '' ( 1) + P ' ( 1)
2

Segue então que,


Var ( X ) = P '' ( 1) + P ' ( 1) - �
P ' ( 1) �
2
� �
Prof. Frederico Cavalcanti 388491661.doc 20
Processos Estocásticos Ence
Por outro lado,
P ( s) = 1- ( 1- s) Q ( s)
P ' ( s ) = ( -1) { ( -1) Q ( s ) + ( 1 - s ) Q ' ( s ) } = Q ( s ) - ( 1 - s ) Q ' ( s )
P '' ( s ) = Q ' ( s ) - { ( -1) Q ' ( s ) + ( 1 - s ) Q '' ( s ) } � P '' ( s ) = 2Q ' ( s ) - ( 1 - s ) Q '' ( s )
Logo, P '' ( 1) = 2Q ' ( 1)
E finalmente,
Var ( X ) = 2Q ' ( 1) + Q ( 1) - Q 2 ( 1)

3.2 - Convolução de variáveis aleatórias.

Sejam X e Y variáveis aleatórias independentes e não negativas assumindo valores em


�= { 0,1, 2,3,....} , com funções de probabilidades P ( X = j) = a j e P ( Y = k ) = b k . Como
X e Y são variáveis aleatórias independentes, a função de probabilidade da variável
aleatória conjunta (X,Y) é dada por:

( )
P X = j; Y = k = P ( X = j) P ( Y = k ) = a jb k � j, k = 0,1, 2,3,...
Seja agora uma nova variável aleatória, S = X + Y , que assume os valores s = 0,1,2,3,...., e
consideremos o evento (S = r) , r ��. Tal evento é equivalente à união de eventos
mutuamente exclusivos e exaustivos, como segue
( S = r ) = ( X = 0; Y = r ) �( X = 1; Y = r - 1) �... �( X = r; Y = 0 )
cuja probabilidade é dada por:
P ( S = r ) = P ( X = 0; Y = r ) �P ( X = 1; Y = r - 1) �... �P ( X = r; Y = 0 )
De definirmos P ( S = r ) = c r , temos,
c r = a 0 b r + a1b r -1 + a 2 b r - 2 + ... + a r -1b1 + a r b 0 (3.2.1)

Definição 3.2.1
Dadas duas seqüências { a k } e { b k } , não necessariamente distribuições de probabilidades ,
a uma nova seqüência { c r } definida como em (3.2.1) chama-se convolução das seqüências
{ ak} e { b k } e se representa por,
{ cr } = { a k } * { b k }
Exemplo 3.1
Se a k = b k = 1, k �0 , c k = 1 + 1 + ... + 1 = k + 1
Exemplo 3.2
Se a k = k, b k = 1, "k �0 , c k = 0 + 1 + 2 + ... + k =
( 1+ k ) k
2
Exemplo 3.3
1 1 1
Se a 0 = a1 = ;a k = 0, "k �2 e b k = 1, "k �0 , c k = + = 1
2 2 2

Prof. Frederico Cavalcanti 388491661.doc 21


Processos Estocásticos Ence

Teorema 3.3
Se { a k } e { b k } são duas seqüências com funções geratrizes A ( s ) e B ( s ) e se
{ ck } = { a k } * { bk } , então a função geratriz da seqüência { ck } , C ( s ) , é igual a:
C ( s ) = A ( s ) �B ( s )

De fato, A ( s ) = a 0 + a1s1 + a 2s 2 + a 3s3 + a 4s 4 + ...


B ( s ) = b0 + b1s1 + b 2s 2 + b3s 3 + b 4s 4 + ...
Multiplicando-se as funções, temos
A ( s ) �B ( s ) = ( a 0 b 0 ) + ( a 0 b1 + a 1b 0 ) s + ( a 0 b 2 + a1b1 + a 2 b 0 ) s 2 + ....
Notemos que:
c0 = ( a 0 b 0 ) , c1 = ( a 0 b1 + a 1b 0 ) , c 2 = ( a 0 b 2 + a 1b1 + a 2 b 0 ) , ....

Corolário:
Dadas as seqüências { a k } , { b k } , { c k } ,.... , com funções geratrizes A ( s ) , B ( s ) , C ( s ) ,.... , a
função geratriz da convolução { a k } *{ b k } * { c k } *.... é o produto A ( s ) �B ( s ) �C ( s ) �.... .

Teorema 3.4
Sejam X e Y variáveis aleatórias independentes, não negativas, do tipo discreto, com
funções geratrizes PX { s} e PY { s} . Se W = X + Y então W tem como função geratriz
PW { s} = PX { s} �PY { s} .

Corolário:
Se a variável aleatória X k , k = 1, 2,..., n são variáveis aleatórias independentes e não
negativas, com função de probabilidade { p k } , k = 1, 2,3,..., n , então a variável aleatória
n
X = �X k tem como distribuição de probabilidade { p k } = { p k } * { p k } * { p k } * .... .
n*

k =1

( n -1) *
{ pk } = { pk } *{ pk }
n*
Obs: Em geral,

*---

Exercício proposto:
Determine a função geratriz de probabilidade das variáveis aleatórias Bernoulli(p) e
Binomial(n,p) e verifique a proposição do corolário acima.

Obs:
No Apêndice A.3 são apresentadas algumas aplicações teóricas de funções geratrizes, além

do conceito de função geratriz de probabilidades de variáveis aleatórias n-dimensionais. Na

Prof. Frederico Cavalcanti 388491661.doc 22


Processos Estocásticos Ence
seção 5 são estudadas aplicações especificamente na teoria de Eventos Recorrentes e

Primeira Visita de um Processo a um estado

Exercícios 3.

3.1 - Seja X uma variável aleatória com distribuição de Bernoulli (p). Determine sua função
geratriz de probabilidades (fgp) e calcule a média e variância de X, usando a fgp e a função
Q(s).

3.2 - Seja X uma variável aleatória com distribuição Binomial(n,p). Determine sua função
geratriz de probabilidades (fgp) e calcule a média e variância de X, usando a fgp e a função
Q(s).

3.3 - Seja X é uma variável aleatória do tipo discreto com função de probabilidade
P ( X = x ) = p x , x = 0,1, 2,... e função geratriz de probabilidades PX ( s ) . Determine a
relação entre PX ( s ) e as funções geratrizes de probabilidades das variáveis aleatórias ,
a) Y = X + c b) Y = 2X c) Y = cX

1
3.4 - Sejam X e Y variáveis aleatórias tais que: P ( X = j) = , j = 1, 2,3,..., 6 e
6
1
P ( Y = k ) = , k = 0,1 . Use o conceito de convolução entre X e Y para calcular a função de
2
probabilidade da variável aleatória S = X+Y.

3.5– Determine a função geratriz de probabilidade da variável aleatória Pascal (r,p).


S
3.6 – A variável aleatória X tem função geratriz de probabilidades igual a A ( S) = .
6 ( 1 - S)
Verifique que X modela um clássico problema de probabilidade elementar e determine a
função de probabilidade de Y=X+1.

3.7 – Se X é o número de provas realizadas até a ocorrência do primeiro sucesso em uma


seqüência de provas de Bernoulli (p). Use a função geratriz de probabilidade de X para
calcular P ( X = 2 ) .

3.8 – Seja X uma variável aleatória do tipo discreto assumindo determinações k = 0,1,2,...,
Determine em função de P(S) - função geratriz de probabilidades de X - as funções
geratrizes das seqüências:
a) P ( X �k ) b) P ( X < k ) c) P ( X �k )
c) P ( X > k + 1) d) P ( X = 2k )

Prof. Frederico Cavalcanti 388491661.doc 23


Processos Estocásticos Ence
3.9 - Seja X uma variável aleatória do tipo discreto com função de probabilidade
p k = P ( X = k ) , k = 0,1, 2,3,... e função geratriz de probabilidades P ( S) . Mostre que:
P( k ) ( S)
S=0
= pk
k!

4 - A Ruína do Jogador.

Definição 4.1
Dois jogadores A e B disputam um jogo com as seguintes características:

a) em cada etapa do jogo, A tem probabilidade p de vencer e ganhar uma unidade do


capital de B, enquanto que B ganha uma unidade do capital de A com probabilidade
q = 1-p.

b) as etapas do jogo são independentes.

c) o capital inicial de A é igual a z e o de B é igual a a-z.

d) o jogo termina quando um dos jogadores se arruína.


/
4.1.1 - Probabilidade de Ruína.

Representaremos por Rz a probabilidade do evento

“o jogador A se arruinar tendo iniciado o jogo com z unidades de capital”.

Após a primeira etapa o capital de A é (z-1) ou (z+1), conforme ele tenha perdido ou
ganho aquela etapa. Desta forma, uma equação de diferenças finitas envolvendo a
probabilidade Rz , pode ser construída como segue:

O evento “o jogador A se arruinar tendo iniciado o jogo com z unidades de capital” é


equivalente a “o jogador A perder a primeira etapa”e “o jogador A se arruinar tendo
iniciado o jogo com (z-1) unidades de capital” ou “o jogador A vencer a primeira etapa”e “o
jogador A se arruinar tendo iniciado o jogo com (z+1) unidades de capital”.

De acordo com as probabilidades acima definidas temos que ;


R z = q R z -1 + p R z+1 1 < z < a -1
R1 = p R 2 + q z=1
R a-1 =q R a-2 z = a-1
As equações acima podem ser reescritas com segue:
R z = q R z-1 + p R z +1 1 �z �a-1
R0 = 1
Ra = 0

Prof. Frederico Cavalcanti 388491661.doc 24


Processos Estocásticos Ence
Solução da equação de diferenças:
Fazendo-se z = z + 1 na equação em estudo, obtemos;

pR z+2 - R z +1 + qR z = 0 (4.1)

A solução desta equação é da forma R z = q , que aplicada em (4.1), resulta em,


z

1 q
pqz+2 - qz +1 + qqz = 0 � qz (q 2 - q + ) = 0
p p
1 q 1 q
Temos então que q (q - q + ) = 0 � q = 0 ou q - q + = 0 . Como qz = 0
z 2 z 2

p p p p
nos leva a uma solução trivial ela é descartada e ficamos com a segunda opção.

Calculando as raízes da equação característica da equação de diferenças finitas:


1 q
q2 - q + = 0
p p
1 1 4q 1 1
� 2- � 1- 4(1- p) p
p p p p p
q= \q =
2 2

( )
2

1 � 4p - 4p + 1
2 1� 4 p - 1
2
q= \q =
2p 2p
De forma que;
1 �( 2p - 1)
q=
2p
2p
q1 = \q = 1
2p
2 - 2p q
q2 = \q =
2p p
A solução da equação de diferenças finitas é então:
z
�q �
R z = c1 ( 1) + c 2 � � sendo R 0 = 1 e R a = 0 .
z

�p �
Com as condições iniciais definidas, calculamos as constantes c1 e c 2 , e finalmente
obtemos a probabilidade de ruína do jogador A que iniciou o jogo com z unidades de
capital,

( ) ( )
a z
q - q
p p
Rz = (4.2)
( )
a
q -1
p
Com procedimento similar calculamos a probabilidade de ruína do jogador B, trocando p
por q e z por a-z., ou simplesmente fazendo G a - z = 1 - R z , ou seja.

Prof. Frederico Cavalcanti 388491661.doc 25


Processos Estocásticos Ence

( p ) -1
z
q
G a -z = (4.3)
( q p ) -1
a

De tal forma que R z + G a - z = 1 .

Se p = q = 1/2 as duas raízes da equação do segundo grau definida são iguais a 1 e a


solução será:
R z = c1 ( 1) + c2 z ( 1)
z z

R0 = 1
Ra = 0
Usando as condições iniciais acima, encontramos:
z
Rz = 1- (4.4)
a
Por outro lado se desejamos a probabilidade G a - z , ou seja a probabilidade do jogador B
se arruinar tendo iniciado o jogo com a-z unidades de capital, quando p = q, basta substituir
z por a-z e encontramos:
a -z a -a +z z
G a -z = 1 - = \ Ga-z = (4.5)
a a a

4.1.2 - Ganho Esperado do Jogador A.


O ganho esperado do jogador A, representado por L, é uma variável aleatória que assume
dois valores com suas respectivas probabilidades, conforme abaixo, :
� a - z 1- Rz
L=�
�-z Rz
Então o ganho esperado de A é igual a :
E ( L ) = ( a - z ) ( 1 - R z ) - zR z
E ( L ) = a ( 1 - R z ) - z + zR z - zR z
E ( L) = a ( 1- R z ) - z (4.6)
Assim, o ganho esperado do jogador A é um percentual - que corresponde à probabilidade
dele não se arruinar - aplicado sobre o capital total, descontado o capital com que ele
iniciou o jogo.

Se p = q , o ganho esperado será:


z � z� z2 z2
E ( L) = ( a - z) - z �
1 - �= z - - z + � E ( L) = 0 (4.7)
a � a� a a

4.1.3 - Duração Esperada do Jogo.


Representemos por D z a duração do jogo, para um jogador que iniciou o jogo com z
unidades de capital. Se considerarmos realizada a primeira etapa do jogo a duração do jogo
pode ser expressa como abaixo:

Prof. Frederico Cavalcanti 388491661.doc 26


Processos Estocásticos Ence

�1+ D com probabilidade p


D z = � z +1
�1+D z-1 com probabilidade q

Construímos então uma equação de diferenças como segue:


D z = ( 1 + Dz +1 ) p + ( 1 + D z -1 ) q
(4.8)
pD z + 2 - D z +1 + qD z = -1

Observemos que a equação homogênea desta equação de diferenças finitas é idêntica à


z
�q �
(4.1), e então a solução completa da equação homogênea de (4.8) é c1 ( 1) + c 2 � �.
z

�p �

A solução particular da equação completa é da forma D z = cz , onde c é uma constante.


Para encontrar o valor desta constante, aplicamos esta solução na equação,

pc ( z + 2 ) - c ( z + 1) + qcz = -1
c ( pz + 2p - z - 1 + qz ) = -1
1
c ( 2p - 1) = -1\ c =
q-p
A solução geral da equação é portanto,
z
z �q �
+ c1 ( 1) + c2 � �
z
Dz =
q-p �p �
D0 = 0
Da = 0

E finalmente, usando as condições iniciais acima, a duração do jogo para o jogador A que
inicia com z unidades de capital é:

Dz =
z
-
a �
� q z�
1-

p �

( )
q-p q-p� q a �
1-

� p �� ( )
Quando p = q = 1/2, a equação (4.8) se torna

D z + 2 - 2D z +1 + D z = -2 (4.9)

cuja solução particular é da forma D z = cz . Aplicando esta solução a (4.9), calculamos o


2

valor da constante c, ou seja,


c ( z + 2 ) - 2c ( z + 1) + cz 2 = -2 \ c = -1
2 2

Assim, a solução de (4.8) é D z = -z + c1 + c 2 z que após a utilização das condições iniciais,


2

D0 = 0 e D a = 0 , resulta em:

Prof. Frederico Cavalcanti 388491661.doc 27


Processos Estocásticos Ence
Dz = z ( a - z ) .

Notamos que a duração do jogo no caso presente é muito maior que poderíamos esperar. Se
ambos os jogadores iniciam o jogo com 500 reais, a duração média do jogo é de 250.000
etapas.

5. Aplicações de Funções Geratrizes a Problemas de Primeira Passagem (visita) e


Retorno à Origem.

Consideremos uma sequência de provas de Bernoulli com probabilidade de sucesso igual a


p, e seja Xk = 1 se a k-ésima prova resultou em sucesso e X k = -1, em caso contrário. Nestas
condições, Sn = X1 + X 2 +... + X n é o excesso de sucessos sobre fracassos em n provas.
Convenientemente faremos S0 = 0.

5.1 - Primeira Passagem ou Primeira Visita do Processo a um estado.

Dois jogadores A e B disputam um jogo definido numa sequência de provas independentes,


onde cada jogador tem probabilidade p e q, respectivamente , de vencer em cada prova, e
ganhar uma unidade de capital (doravante u.c.) do adversário.

Vamos supor que o jogo termina na prova em que o jogador A conseguir pela primeira vez,
um lucro líquido de uma u.c..

É evidente que isto só pode ocorrer nas provas 1,3,5,7... com probabilidades
p, qp 2 , 2q 2 p3 , 5q 3p 4 ,.......... , mas uma regra geral não é discernível.

O valor q = p + qp 2 + 2q 2 p3 + 5q 3p 4 + ....... é a probabilidade do jogador A vir a ter um


lucro de uma u.c.

Como as provas são independentes , qx é a probabilidade de A vir a ter um lucro líquido de


x u.c.

Vamos determinar q e a probabilidade l (n ) de que A venha a ter um lucro líquido de x u.c.


x

pela primeira vez, na n-ésima prova.

Particularmente l (n ) é a probabilidade de que A venha a ter um lucro líquido de uma u.c.


1

pela primeira vez na n-ésima prova.

Seja então l (n ) = l n e consideremos a v.a. X k tal que,


1

�-1 q
Xk = �
�1 p
n
Se definirmos, Sn = X1 + X 2 + ... + X n = �X k , obviamente,
k =1

Prof. Frederico Cavalcanti 388491661.doc 28


Processos Estocásticos Ence
l n = P ( S1 �0;S2 �0;.......;Sn -1 �0;Sn = 1) (5.1)

Em outras palavras, l n é a probabilidade de primeira passagem (do lucro de A) pelo ponto


x = 1 , na n-ésima prova, sendo l 0 = 0 .

Com o mesmo raciocínio,

l (nx ) = P { S1 < x ;S2 < x ;....;Sn -1 < x ;Sn = x} (5.2)

é a probabilidade de primeira passagem (do lucro de A) pelo ponto x  1, na n-ésima


prova.

Notemos que o evento "jogador A vir a ter um lucro de uma unidade de capital" , com
probabilidade q é a união dos eventos:

"o jogador A vir a ter um lucro de uma unidadade de capital pela 1ª vez na prova 1"
ou
"o jogador A vir a ter um lucro de uma unidadade de capital pela 1ª vez na prova 3"
ou
"o jogador A vir a ter um lucro de uma unidadade de capital pela 1ª vez na prova 5"
ou
.....................................................................................................................................
.....................................................................................................................................

Assim, escrevemos : q = �l
n=1
n = l1 + l 2 + l 3 + .....

Suponhamos que a primeira ocorrência x = 1 ocorreu na r-ésima prova (r < n).As próximas
(n-r) provas produzirão um lucro líquido acumulativo em u.c. de
S1' = X r +1
S'2 = X r +1 + X r + 2
S3' = X r +1 + X r + 2 + X r +3
...................................
S'n - r = X r +1 + X r + 2 + ..... + X n
Observemos ainda que estas (n-r) provas são independentes das r primeiras provas.

A primeira ocorrência de x = 2 na n-ésima prova acontecerá, se, e somente se, ocorrer o


evento { S1 �0;S2 �0;.........;Sn - r- 1 �0;Sn - r = 1} , e este evento tem probabilidade l n - r .
' ' ' '

Portanto,a probabilidade de A vir a ter um lucro líquido de 2 unidades na etapa n tendo


obtido x = 1 na etapa r < n é igual a lrln-r , r = 1,2,3,4,.,n-1 .

Em consequência, o evento "x = 2, pela primeira vez na n-ésima prova" tem probabilidade
definida por:

Prof. Frederico Cavalcanti 388491661.doc 29


Processos Estocásticos Ence
n- 1
l ( 2)
n = l 1l n- 1 +l 2l n- 2 +.... +l l 1 = �l r l
n- 1 n- r (5.3)
r =1

Considerando que l 0 = 0 , l (n ) é a convolução de l n com si mesma, ou seja


2

{ l( ) } = { l } *{ l } .
n
2
n n

Consideremos agora, as seguintes funções geratrizes, definidas para s < 1 :



l ( S) = �l n Sn � l ( S) = l1S1 + l 2S2 + l 3S3 + ....
n =1

l ( x ) ( S) = �l (nx ) Sn = l1( x ) S1 + l (2x ) S2 + l (3x ) S3 + ...
n =1

Temos aqui l ( S) = l ( S ) , e por indução, l ( S) = l ( S) , onde x > 0.


( 2) 2 ( x) x

Vamos construir agora uma equação de diferenças finitas (e.d.f.) em l n .

Consideremos realizada a primeira etapa. Se X1 = 1 a primeira passagem ocorreu na


primeira prova e l1 = p . Se X1 = -1 o jogador A necessita de um lucro acumulado de 2 u.c.
em n-1 provas, para vir a ter um lucro de uma u.c. pela primeira vez na etapa n. De forma
que temos a seguinte equação de diferenças finitas:

l1 = p
(5.4)
l n = ql (n2-)1 n >1

Em outras palavras, se A perdeu a primeira prova, para que ele venha a ter um lucro líquido
de 1 unidade, pela primeira vez na n-ésima prova, é necessário e suficiente que ele
obtenha exatamente 2 u.c. de lucro nas (n-1) provas restantes, vencendo na n-ésima
prova.

Para resolver a e.d.f. em questão, usaremos a técnica das funções geratriz. Para isso
multipliquemos a e.d.f. em ambos os lados por Sn .
� �
l n Sn = ql 2n -1Sn � �l S
n =2
n
n
= qS�l 2n -1Sn -1
n =2

l ( S) - l1S = qSl 2 ( S) � l ( S) = pS + qSl 2 ( S)


1 � 1 - 4pqS2
qSl 2 ( S) - l ( S ) + pS = 0 � l ( S ) =
2qS

2
A primeira raiz não é definida para S = 0. pois , lim l ( S) = (indeterminação)
s �0 0
0 lim l ( S) = 0
A outra raiz é tal que lim l ( S) = , e, aplicando-se L'Hôpital, temos s �0 o
s �0 0
que nos leva à conclusão que;

Prof. Frederico Cavalcanti 388491661.doc 30


Processos Estocásticos Ence
1
� 1 - ( 1 - 4pqS2 ) 2
l ( S) = �l n Sn = (5.5)
n =1 2qS

Utilizando-se da fórmula Binomial, onde para " a �R e ½t½<1,



(1+ t) = �( am ) t m = 1 + ( 1a ) t + ( a2 ) t 2 + ( 3a ) t 3 + ....
a

m =0

(1- t)
a
= �( -1)
m
( )t
a
m
m
= 1 - ( 1a ) t + ( a2 ) t 2 - ( 3a ) t 3 + ....
m =0
Obtemos,então;
� �1 � �
1 � � m� � m 2m �
l ( S) = �1 - �( -1) 2 ( 4pq ) S �
2qS � m=0 ��
�m� �

1 � � m� 1 2� m �
l ( S) = �- �( -1) � � ( 4pq ) S2m-1 �
2q � m=1 �m �
( -1)
m +1

�1 2� m
l ( S) = � � � ( 4pq ) S2m-1
m=1 2q �m �
Finalmente,

Para m = 1,2,3, ...

�-1 m+1 1 2
�( ) � �
� (
� 4pq )
m
n = 2m - 1
l n = � 2q �m � (5.6)

� 0 n = 2m

Exemplo 5.1
Para ilustração, calculemos l n para alguns valores de n.

1 ��

1 �
2


1. m = 1 � n = 1 � l 1 = � � 4pq = p
�1 �
2q � �

( - 1) �1 � 3

2. m = 2 � n = 3 � l n =

� 2�
� 2
( 4pq) =

1111 2 2
4 p q = p 2q

� �
2q �2 � � 2222

( - 1) � 1 �
4

3. m = 3 � n = 5 � l 5 =

� 2�
� 3
( 4pq ) =

1113 1 3 3 2
4 p q = 2p 3q 2
� �
�3 �
2q � � 2 2 2 2 2�3

( - 1) � 1 �
5
� �
� 11135 1
� 2�
4
4. m = 4 � n = 7 � l 7 = � ( 4pq ) = 44 p 4q 3 = 5p 4q 3
2q � �
� 2 2 2 2 2 2�3�4
�4 �

Prof. Frederico Cavalcanti 388491661.doc 31


Processos Estocásticos Ence

( - 1) �1 � 6

5. m = 5 � n = 9 � l 7 =

� 2�


5
( 4pq ) =
111357 1
45 p 5q 4 =14p5q 4

� � 2q �5 � � 2 2 2 2 2 2 2�3�4�5
.................................................................................................................................................
.................................................................................................................................................

Analisemos agora , a probabilidade q = l(1) = �l n , fazendo s = 1 em (5.5),


n =1

Observemos que,
1 - 1 - 4pq 1 - (2p - 1) 2
q = l (1) = =
2q 2q
1 - (p - q) 2 1 - p - q
q = l (1) = =
2q 2q
e finalmente,
1
� se p �q
q = l (1) = �
�p q se p<q

5.2 - Retorno do Processo à Origem.

Consideremos agora o evento "o lucro líquido de A se tornar 0 pela primeira vez na n-ésima
prova". Este evento é equivalente ao evento "o número de sucessos se igualar ao número de
insucessos, pela primeira vez na n-ésima prova", onde sucesso representa o fato de A
ganhar numa determinada prova.

Denominemos por f n a probabilidade em estudo. Aproveitando a definição de Sn , podemos


escrever:
f n = P ( S1 �0;S2 �0;S3 �0;.......;Sn -1 �0;Sn = 0 )

Observemos que para todo n = 1,3,5,7,... , f 2n -1 = 0 , e

f 2 = 2pq
f 4 = 2p 2 q 2
f 6 = 4p3q 3
f8 = 10p 4q 4
................
................

Chamemos de l (n ) a probabilidade de A vir a ter um lucro líquido de x = -1, pela primeira


-1

vez na n-ésima etapa. Esta probabilidade pode ser facilmente encontrada, bastando para
isso substituir p por q em l n .

Prof. Frederico Cavalcanti 388491661.doc 32


Processos Estocásticos Ence

Construiremos agora uma equação de diferenças finitas em f n . O evento "x = 0 pela


primeira vez na n-ésima etapa"é equivalente a "o jogador A perder a primeira etapa" e "
obter x = 1 ,pela primeira vez, em (n-1) etapas" ou "o jogador A ganhar a primeira etapa" e
"obter x = -1 , pela primeira vez, em (n-1) etapas".

Assim, temos:
f n = q l n -1 + p l (n--11)
1 - (1 - 4pqS2 )1 2
l -1 ( S ) =
2ps
� � �

�f S n
n
= q �l n-1Sn + p�l n( --11) Sn
n =1 n=1 n =1
2 12

1-(1-4pqS ) 1 -(1-4qpS2 )1 2

n=1
n
fsS = qS
2qs
+ pS
2ps

( )
12
F ( S) = 1 - 1 - 4pqS2
Fazendo-se S = 1,
1
F ( 1) = 1 - ( 1 - 4pq ) 2
� F ( 1) = 1 - p - q

�2q se p �q

q�
=�
�2p se p < q

� 1 2�
k�
F ( S ) = 1 - �( -1) � �( 4pq ) S2k
k

k =0 �k �

� 1 2�

�( -1) ( 4pq ) S2k
k +1 k
F(S) = � �
k =1 �k �

� k +1 �
1 2�
�( -1) � �( 4pq )
k
n = 2k
� �k �
fn = �


�0 n = 2k-1
Exemplo 5.2
Ilustrando, calculemos f n , para n = 2,4,6...

1 2�

f2 = � �( 4pq ) = 2pq
�1 �

Prof. Frederico Cavalcanti 388491661.doc 33


Processos Estocásticos Ence
1 2�

( -1) ( 4pq ) = 2p 2q 2
2
f4 = � �
�2 �
�1 2�
( 4pq ) = 4p3q3
3
f6 = � �
�3 �
�1 �
f8 = � 2 � ( -1) ( 4pq ) = 10p 4q 4
4

�4 �
� �
...............................................
...............................................

6 - Eventos Recorrentes.

6.1 - Introdução.

Alguns dos mais simples processos estocásticos estão associados a uma série de repetitivas
provas independentes com o objetivo de observar em cada prova a ocorrência ou não de
um determinado evento. Por exemplo, quando lançamos uma moeda 5 vezes com o
objetivo de contar o número de caras observados, não é difícil usar a teoria das
probabilidades básica para calcular probabilidades envolvendo o evento “ocorrer cara”.

Seria um exagero classificar simples esquemas como esse de “Processos Estocásticos”.


Contudo, esquemas simples deste tipo nos permite, com uma pequena generalização criar
uma base para a teoria geral de Eventos Recorrentes. O estudo deste tópico proporcionará
uma série de resultados e teoremas de imediata aplicação em Cadeias de Markov, objeto de
estudo na seção 7.

6.2 - Característica de um evento Recorrente E.

Consideremos uma seqüência de provas , não necessariamente independentes, nas quais


podem ocorrer os eventos E k , k = 1, 2,3,... Vamos considerar um evento E, que pode ser um
dos eventos possíveis de cada prova ou então um evento padrão E definido de acordo com
o objetivo da aplicação da teoria, num particular processo.

Para esclarecer melhor o que podemos entender como evento padrão E, analisemos os
seguintes exemplos:

Exemplo 6.1
Consideremos uma seqüência de provas independentes de Bernoulli, onde o evento E é
definido da seguinte forma:

E = “ocorrer três sucessivos sucessos”

Representando por S a ocorrência de sucesso e F o de insucesso, na seqüência de provas de


Bernoulli simbolizada no quadro abaixo, o evento E ocorreu pela primeira vez na quinta
prova.

Prof. Frederico Cavalcanti 388491661.doc 34


Processos Estocásticos Ence
A 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21
B S F S S S S F F F S S F S F S S S F S F S
linha A – nº da prova
linha B – ocorrência de sucesso (S) ou fracasso (F)

A partir da sexta prova, considerando a independência implícita numa seqüência de provas


de Bernoulli, o evento E voltou a ocorrer na décima sétima prova, pela segunda vez

ou

fixando como prova inicial de um novo período de observação a sexta prova, ou seja, a
seguinte após a primeira ocorrência de E, o evento E veio a ocorrer pela primeira vez na
prova de ordem 12.

Exemplo 6.2
Representemos simbolicamente por H a ocorrência de “cara” e por T a ocorrência de
“coroa”, ao lançarmos sucessivamente uma moeda. Se os resultados da experiência
formam a seqüência abaixo,

HHT/HT/THT/HHHHHHT/TTTHT/TTHHT/THT/HT/HHT/T

então o evento padrão E = “uma coroa após uma cara” ocorreu nas provas de ordem 3, 5,
8, 15, 20, 25, 28. 30 e 33.

Definição 6.1
Um evento é dito recorrente se:

I - para que E ocorra nas provas de ordem n e (n+m) ,, da seqüência de provas


( )
E j1 , E j2 ,,,,, E jn+m é necessário e suficiente que E ocorra nas últimas provas de cada uma
das duas subseqüências ( E1 , E 2 ,..., E n ) e ( E n +1 , E n + 2 ,..., E n + m ) .

( )
II - P E j1 , E j2 ,,,,, E jn+m = P ( E1 , E 2 ,..., E n ) �P ( E n +1 , E n + 2 ,..., E n +m )

A partir da definição 6.1 e dos dois exemplos discutidos, vamos denotar por u n a
probabilidade de E ocorrer na n-ésima prova (não necessariamente pela primeira vez) e por
f n a probabilidade de E ocorrer pela primeira vez na n-ésima prova, isto é;

u n = P (E ocorrer na n-ésima prova)


e
f n = P (E ocorrer pela primeira vez na n-ésima prova)

Por conveniência definimos: u 0 = 1 e f0 = 0 .

Prof. Frederico Cavalcanti 388491661.doc 35


Processos Estocásticos Ence

Convencionar que a probabilidade de E ocorrer na prova de ordem zero é igual a unidade


(condição inicial u 0 = 1 ) é conveniente, pois o estudo de eventos recorrentes implica na
realização continuada do processo. Por exemplo, se E ocorreu na n-ésima prova, e se
vamos observar a ocorrência de E nas provas seguintes, então a prova de ordem n (na qual
E ocorreu) é como se fosse a etapa ZERO da nova seqüência de provas que serão
observadas em continuidade às n primeiras provas, e assim sucessivamente.

Para as seqüências { un } e { fn } definiremos as seguintes funções geratrizes de


probabilidades:
� �
U ( S) = �u kSk e F ( S ) = �f kSk
k =0 k =0

A seqüência { u n } não constitui uma distribuição de probabilidades pois as probabilidades


u n , n �1 são relacionadas a eventos que não são mutuamente exclusivos, e em alguns casos

�u k = �.

Por outro lado, os eventos “E ocorrer pela primeira vez na n-ésima prova”, n = 1,2,3,... são
mutuamente exclusivos e


f = �f n = f1 + f 2 + f3 + ..... = F ( 1) �1
n =1

é a probabilidade de E ocorrer pela primeira vez na prova 1, ou na prova 2, ou na prova 3,


ou na prova 4, ......... , sendo então 1 - f a probabilidade de que não ocorra numa seqüência
infinita de provas.

Se f = 1, então a seqüência { f n } é uma genuína distribuição de probabilidades, digamos da


variável aleatória T, tal que

P ( T = n ) = fn com E ( T ) = �nf n (6.1)
n =1
A variável aleatória T representa o tempo de espera (em número de provas) para a
ocorrência de E.

Se f < 1 , então existe uma possibilidade de E não ocorrer numa seqüência infinitamente
prolongada de provas, e a variável aleatória T pode ser apelidada como “não própria”, pois
não assume nenhum (contrariando todos os conceitos do cálculo das probabilidades,
T � �) valor com probabilidade ( 1 - f ) , e E ( T ) = �.

Pela definição 6.1, de evento recorrente, a probabilidade de que E ocorra pela primeira vez
na prova k e pela segunda vez na prova n é igual a f k f n - k e conseqüentemente a
probabilidade que E ocorra pela segunda vez na prova n é igual a

f n( 2) = f1f n -1 + f 2 f n - 2 + ... + f n -1f1

Prof. Frederico Cavalcanti 388491661.doc 36


Processos Estocásticos Ence
Simbolicamente isto pode ser observado no quadro abaixo,

nº da prova 0 1 2 k-1 k k+1 k k+1 n-1 n


ocorrência de E S N N N N S N N N N N S

Esta probabilidade, f n( ) , é a convolução da seqüência { f n } com si própria, digamos uma bi-


2

convolução de { f n } , isto é,

{ f ( ) } = { f } *{ f }
n
2
n n

e representa a função de probabilidade da soma ( T1 + T2 ) , ou seja f n = P ( T1 + T2 = n ) ,


( 2)

onde Ti , i = 1, 2 são variáveis aleatórias com distribuição igual a (6.1).

Para fixar melhor, f n = P ( T1 + T2 + T3 = n ) é a tri-convolução de { f n } , ou seja,


( 3)

{ f ( ) } = { f } *{ f } *{ f }
n
3
n n n

e expressa a probabilidade de E ocorrer pela terceira vez na prova n.

Generalizando-se , a probabilidade f n( ) de que E ocorra pela r-ésima vez na n-ésima prova,


r

é igual a
f n( r ) = f1f n( r--11) + f 2 f n( r--21) + ... + f n -1f1( r -1)

é a r-convolução da seqüência { f n } , ou seja

{ f ( ) } = {1f 4} *44
n
r
n { f 2} *4...4* {4f3}
n n
r vezes

A partir destes desenvolvimentos, o seguinte teorema é estabelecido,

Teorema 6.1
( k)
Seja f n( ) a probabilidade que a r-ésima ocorrência de E aconteça na prova n. Então f n
r
{ } é
a função de probabilidade da soma

r
T ( r ) = �Tk = T1 + T2 + ... + Tr
k =1

Prof. Frederico Cavalcanti 388491661.doc 37


Processos Estocásticos Ence
de r variáveis aleatórias independentes, todas com distribuição segundo (6.1).

E ainda, para um r fixado, a seqüência f n( ) tem função geratriz Fr (S) , ou seja


r


Fr ( S) = �f n( r ) Sn .
n =1
Com isto, definimos que a probabilidade de que E ocorra pelo menos r vezes é igual a

f = F (1) = �f n( r ) = f1( r ) + f 2( r ) + f 3( r ) + .... .
r r

n =1

Definição 6.2

Um evento recorrente E será chamado persistente se f =1 e transiente se f < 1.

Um evento recorrente E é transiente, se a probabilidade dele ocorrer mais do que r vezes


tende a zero, ou seja, um evento recorrente transiente ocorre somente um número finito de
vezes.

Um evento recorrente E é persistente, se a probabilidade dele ocorrer mais do que r vezes


é igual a 1, ou seja, um evento recorrente persistente está destinado a ocorrer infinitas
vezes.

Mais uma definição sobre eventos recorrentes é necessária. Antes vamos discorrer sobre
dois exemplos;

I - Numa seqüência de provas de Bernoulli com probabilidade de sucesso igual a p, o


evento E = “o número acumulado de sucessos e fracassos é igual a zero” só pode ocorrer
nas provas de ordem par.

II - Numa seqüência de consecutivos lançamentos de uma moeda o evento E = “os


números 1,2,...,6 aparecem em igual número” só pode ocorrer em provas de ordem divisível
por 6.

Definição 6.3
O evento E é dito periódico se existe um inteiro l > 1 tal que o evento E só pode ocorrer
nas provas de ordem l, 2l,3l,... . O maior l com esta propriedade é chamado período de
E.

Obs: Em outras palavras u n = 0 quando n não é divisível por l .

Prof. Frederico Cavalcanti 388491661.doc 38


Processos Estocásticos Ence

6.3 - Relações básicas entre u n e f n .

Vamos relacionar os eventos “E ocorrer na n-ésima prova” e “E ocorrer pela primeira vez
na n-ésima prova”.

A probabilidade de E ocorrer pela primeira vez na prova de ordem n , e então novamente


na prova n > n é igual a f n u n -n .

A probabilidade de E ocorrer pela primeira vez na n-ésima prova é f n u 0 . Como estes casos
são mutuamente exclusivos, temos

u n = f1u n -1 + f 2 u n - 2 + ... + f n u 0 n �1 (6.2)

À direita de (6.2) temos a convolução das seqüências { f k } * { u k } , cuja função geratriz de


probabilidade é F ( S) U(S) .

Como (6.2) é válida apenas para n �1 , e recordando que u 0 = 1 , então,

1
U ( S) - 1 = F ( S) U ( S ) � U ( S ) = (6.3)
1 - F ( S)

Nota:
� � �
Como estabelecemos que S �1 , então F ( S ) < 1 , U ( S) = �F ( S) � �u S = �f ( ) S
r n r n
n n . A relação entre as funções
r =1 n =1 n =1

geratrizes de probabilidades estabelecida em (6.3) nos oferece então: u n = f n( 1) + f n( 2 ) + f n( 3) + .... que expressa o fato óbvio
de que se E ocorreu na n-ésima prova, ele previamente ocorreu 0 ou 1, ou 2,..,ou n-1 vezes, considerando que
f n( ) = 0, se r > n.
r

6.4 - Comparando transiente versus persistente.

Representemos por U j , j = 1, 2,3,... a variável aleatória tal que


1 se E ocorreu na j - ésima prova

Uj = �
0
� caso contrário
As variáveis aleatórias U j têm distribuição de Bernoulli de parâmetro p, que é a
probabilidade de E ocorrer na j-ésima prova.

Prof. Frederico Cavalcanti 388491661.doc 39


Processos Estocásticos Ence

Se E ( U j ) = u j então �u j é o número esperado de ocorrências de E em n provas.


j=1

� �

Representemos por u = �u j . Como E ( U 0 ) = u 0 = 1 , então u - 1 = �u j é o número


j= 0 j=1

esperado de ocorrências de E numa seqüência infinitas de provas.

Teorema 6.2

Para que E seja um evento recorrente persistente, é necessário e suficiente que u = �u j


j= 0

seja divergente.

Teorema 6.3
Seja E um evento recorrente persistente, não periódico, com tempo médio de recorrência

1
igual a m = � n f n = F ' ( 1) , então: lim u n = .
n =0
n �� m
Nota: u n � 0 se m = �

Teorema 6.4
t
Seja E um evento recorrente persistente com período t: então lim u nt = e u k = 0 para
n �� m
todo k não múltiplo de t.

Nota:
As provas dos teoremas 6.2 a 6.4 são apresentadas no Apêndice 4 e podem ser pesquisadas
em Feller, Ch. 13, Sec. 10.

Exemplo 6.3
Consideremos uma seqüência de provas de Bernoulli (p) e seja E o evento “o número de
sucesso é igual ao número de fracassos”. Obviamente o evento E só pode ocorrer numa
prova de ordem par, sendo a probabilidade de E ocorrer na prova k = 2n é,
�2n � n n
u 2n = � � pq , u 2n +1 = 0
�n �
Utilizando-se a fórmula de Stirlings ( *) para aproximação de fatoriais de altos inteiros,
obtemos,
2n �n n ( 4pq )
n

u 2n = � � pq �
�n � np

Prof. Frederico Cavalcanti 388491661.doc 40


Processos Estocásticos Ence

1
Se p �q � pq < � 4pq < 1 , a série �u 2n converge mais rapidamente que a série
4 n =0
geométrica de razão 4pq, e neste caso o evento E é transiente
1 n+ 1
( *) n! @ ( 2p ) 2
n 2
e - n (Fórmula de Stirlings : vide Feller,Ch.II, Sec.8)
1
Se p = q = 1 2 , o evento E é persistente, pois 4pq = 1 � u 2n @ e isto implica em
np

lim u 2n = 0 �
n ��
�u
n =0
2n diverge , e isto implica que E é persistente.

Temos ainda informações adicionais a observar. A função geratriz de probabilidades de u 2n


. é dada por,
� 2n

� � 2 n
U ( S) = �u 2nS2n = �� � ( pqS )
n =0 n = 0 �n �

�2n �-2n �1 �
n -
Conforme A5-VI, � � 2 = ( - 1) � 2 �e assim, escrevemos.
�n �
�n � � �
� � -1 � n
U ( S) = �� 2 � ( -4 ) ( pqS2 )
n

�n �
n =0
� �
� �1 �
n -
U ( S) = �( -1) � 2 � ( 4pqS2 )
n

�n �
n =0
� �
De acordo com a fórmula binomial de Newton, A5- I,
U ( S) = ( 1 - 4pqS2 )
-1
2

1 -1
Se p �q � U ( 1) = ( 1 - 4pq ) � u=
2
será o número esperado de ocorrências
p-q
de E. e a probabilidade de que E ocorra pelo menos uma vez é:
u -1
f= = 1- p - q
u
U ( S) - 1
� F ( S) = 1 - ( 1 - 4pqS2 ) 2
1
Por outro lado, F ( S) =
U ( S)
1
Se p = q = ,
2
F ( S ) = 1 - ( 1 - S2 )
1
2

de onde extraímos,


�2n - 2 � 1

� � 2n -1 se n �1
f 2n =�
�n - 1 �n2
� 0 se n �0

Prof. Frederico Cavalcanti 388491661.doc 41


Processos Estocásticos Ence

7 - Processos Estocásticos Markovianos - Cadeias de Markov.

7.1 - Introdução.
Consideremos o conjunto finito (ou infinito, mas numerável) de pontos ( t 0 , t1 , t 2 ,..., t n , t ) ,
t 0 < t1 < t 2 < .... < t n < t , com t, t r �T, onde r = 0,1, 2,..., n , sendo T o conjunto
paramétrico do processo { X t ; t �T} .

Definição 7.1
Dizemos que { X t ; t �T} ,ou
seja, X t 0 , X t1 , X t 2 ,..., X t n , X t é um processo estocástico
processo markoviano se a distribuição de X t depende apenas de X t n , isto é:

{ } { }
P X t �x / X t n = x n , X t n-1 = x n -1 ,...., X t o = x 0 = P X t �x / X t n = x n = F ( x n , x ; t n , t ) (7.1)

Em outras palavras, num processo estocástico markoviano a distribuição do processo na


época t depende apenas da observação do processo na época imediatamente anterior t’< t.

Se um processo estocástico markoviano de parâmetro discreto assume valores em um


conjunto discreto E, tal processo é chamado de Cadeia de Markov. O conjunto E é
chamado espaço de estados do processo ou do sistema.

Seja{ X n ; n ��} uma cadeia de Markov com espaço de estados E, isto é, para cada
n ��= { 0,1, 2,...} , X n se identifica a um “estado” de E. Para todo i �E , se X n = i , então é
costume dizer que “o processo está no estado i, na época n”. Se ainda,
X n -1 = i e X n = j , dizemos que o processo “passou do estado i para o estado j em uma
etapa”.

Definição 7.2
Seja { X n ; n ��} uma cadeia de Markov e designemos por j, o j-ésimo estado do sistema,
ou seja j �E . Chama-se distribuição do sistema (ou do processo) na etapa n, a função
de probabilidade definida por
( n)
P = P ( X n = j) , j �E
(7.2)

Representemos por P( n ) o vetor da distribuição do sistema na etapa n, de forma que a


distribuição inicial do sistema é P( 0)

Nota:

Prof. Frederico Cavalcanti 388491661.doc 42


Processos Estocásticos Ence

Se E = { 1, 2,..., h} P { X n = 1}
� P( n ) = �
� P { X n = 2} - - - - P { X n = h} �

Definição 7.3
Seja { X n ; n ��} uma cadeia de Markov. Chama-se probabilidade de transição do
sistema em uma etapa, à expressão Pi, j = P ( X n = j/ X n -1 = i ) , para todo i, j �E .
Nota:
Se a probabilidade transição de uma Cadeia de Markov independe de n , a Cadeia de Markov é dita homogênea.

Definição 7.4
A matriz P = �
Pi, j �
� �é chamada matriz de transição do sistema em uma etapa.

A matriz P é quadrada, de ordem igual à cardinalidade do espaço de estados E, tendo como


propriedades:
i) Pi, j �[ 0,1] i, j �E, e se E = { 1, 2,3,..., h}
h
ii) �P j=1
i, j =1 para todo i fixado e j �E

Uma matriz P com estas propriedades é denominada matriz estocástica por definição.
Observemos que, fixada uma linha i, Pi, j é a distribuição de saída do sistema do estado
i , para os outros estados, sendo os elementos da diagonal de P as probabilidades de numa
etapa o sistema permanecer no estado i.

Exemplo 7.1
Para ilustrar a definição 7.4 consideremos a matriz estocástica P3�3 abaixo,

0,1 0, 4 0,5�


0, 7 0 0,3�
P=� �

0,5
� 0, 2 0,3 �

Fixado i = 1, o vetor P1, j = [ 0,1 0, 4 0,5] , é a distribuição de saída do estado 1 para os


estados,
j = 1,2,3. Por exemplo,

- se o sistema está no estado i = 2 na etapa n, ele tem probabilidade igual a 0,7 de passar
para o estado 1 na etapa ( n + 1) .

- se o sistema está no estado i = 2 na etapa n ele não poderá estar no estado i = 2 na etapa
( n + 1) pois a probabilidade P2,2 é zero.
- se o sistema está nos estados i = 1 ou i = 3 na etapa n, ele poderá estar em quaisquer dos
estados j = 1,2,3 na etapa ( n + 1) , pois todas as probabilidades da primeira e terceira linha
são não nulas.

Prof. Frederico Cavalcanti 388491661.doc 43


Processos Estocásticos Ence

- se o sistema está nos estados i =1 ou i = 3, na etapa n, eles poderão permanecer nestes


estados na etapa ( n + 1) , pois P1,1 e P3,3 são não nulas.

Exemplo 7.2
Suponha que em certa região, com base em observações históricas, a probabilidade de
chover amanhã depende apenas de estar ou não chovendo hoje e independe das condições
do tempo em dias passados. Suponha ainda que se chove hoje, choverá amanhã com
probabilidade 0,7 e que se não chove hoje, choverá amanhã com probabilidade 0,4.

Designemos os estados do sistema por 1 se está chovendo hoje e por 2 em caso contrário,
de forma que E = { 1, 2} . Assim, temos as seguintes probabilidades de transição:

P1,1 = P { X n +1 = 1/ X n = 1} = 0, 7
P1,2 = P { X n +1 = 2 / X n = 1} = 0,3 pois P1,2 = 1 - P1,1

P2,1 = P { X n +1 = 1/ X n = 2} = 0, 4
P2,2 = P { X n +1 = 2 / X n = 2} = 0, 6 pois P2,2 = 1 - P2,1

Assim, a matriz de transição é:

0, 7 0,3�

P=�
0, 4 0, 6 �
� �

Suponha-se ainda, que hoje está chovendo! Então, segundo a definição 7.2, a distribuição
( 0)
inicial do sistema, P = � � �é igual a P = [ 1 0] .
P { X 0 = 1} P { X 0 = 2} � ( 0)

A distribuição do sistema na etapa “amanhã” é calculada a partir da distribuição inicial do


sistema (etapa “hoje”) e a matriz de transição em uma etapa.

Os eventos ( X1 = 1) e ( X1 = 2 ) são equivalentes, respectivamente a:


( X1 = 1) = ( X 0 = 1; X1 = 1) �( X 0 = 2; X1 = 1)
( X1 = 2 ) = ( X 0 = 1; X1 = 2 ) �( X 0 = 2; X1 = 2 )
De forma que,
P ( X1 = 1) = P ( X1 = 1/ X 0 = 1) P ( X 0 = 1) + P ( X1 = 1/ X 0 = 2 ) P ( X 0 = 2 )
P ( X1 = 2 ) = P ( X1 = 2 / X 0 = 1) P ( X 0 = 1) + P ( X1 = 2 / X 0 = 2 ) P ( X 0 = 2 )
Observemos que,
�P { X1 = 1/ X 0 = 1} P { X1 = 2 / X 0 = 1} �
P { X1 = 1}

� P { X1 = 2} � P { X 0 = 1}
�= �
� P { X 0 = 2} �
�� �
P { X1 = 1/ X 0 = 2}
� P { X1 = 2 / X 0 = 2} �
Matricialmente, escrevemos:

Prof. Frederico Cavalcanti 388491661.doc 44


Processos Estocásticos Ence

�P P12 �
P( 1) = P( 0) ��11 � P( 1) = P ( 0) �P
P21
� P22 �

(7.3)

Assim, para obter a distribuição do sistema na etapa 1, multiplicamos a distribuição inicial


do sistema pela matriz de transição em uma etapa.

Se multiplicarmos ambos os lados à esquerda de (7.3) por P, obtemos,

Pj( 2) = Pj( 1) �P = Pj( 0) �P 2


(7.4)

A matriz P 2 ,ou seja, o quadrado da matriz de transição em um etapa é denominada matriz


de transição em 2 etapas. Esta matriz atuando sobre a distribuição inicial determina a
distribuição do sistema na etapa 2. A generalização disto, para o caso de Cadeias de
Markov com 2 estados será estudada em 7.3.1

Exemplo 7.3
Uma partícula pode estar em um dos pontos 1,2,3,...,s-1,s do eixo dos x’s. Ela permanece
para sempre no ponto x = 1 e x = s se a eles chegam numa determinada etapa n. Se numa
dada etapa a partícula se encontra no ponto x = i, (2 �i �s - 1) , na etapa seguinte ela estará
no ponto ( i + 1) com probabilidade p ou no ponto ( i - 1) com probabilidade q = 1-p.
Nota: os pontos 1 e s são chamados de “barreiras de absorção”

O movimento da partícula ilustra uma Cadeia de Markov de s estados, ou seja,


E = { 1, 2,...,s}
As probabilidades de transição em uma etapa são:
�p j = i +1

q j = i -1

Pi, j = �
�0 j=i

�0 j- i > 1
P1,1 = Ps,s = 1
A matriz de transição em uma etapa no caso particular de s = 5, teria a seguinte
apresentação,
�1 0 0� 0 0
�q 0 0� p 0
� �
P=� 0 q 0� 0 p
� �
�0 0 p� q 0

�0 0 1�
� 0 0
Se no início das observações do processo, Pi = [ 0 0 0 1 0] , na etapa número 1 a
( 0)

distribuição do processo será:

Prof. Frederico Cavalcanti 388491661.doc 45


Processos Estocásticos Ence
�1 0� 0 0 0
�q 0� 0 p 0
� �
[ 0 0 0 1 0] �0 0 �= [ 0 0 q 0 p ]
q 0 p
� �
�0 p� 0 q 0

�0 1�� 0 0 0
A distribuição do processo na etapa 1 é a esperada já que o processo passa para ( i - 1) com
probabilidade q e para ( i + 1) com probabilidade p.

7.2 - Distribuição do processo na etapa n.

Definição 7.5
Seja { X n ; n ��} uma cadeia de Markov. Chama-se probabilidade de transição do estado
i para o estado j em n etapas, à expressão Pi, j = P ( X n + m = j/ X m = i ) , para todo i, j �E .
( n)

Nota: Pi,( j) = Pi, j Pi,( j ) = I .


1 0
e

A probabilidade da Cadeia se mover do estado i para o estado j em n etapas é (i,j)-entrada


Pi,( nj ) �
da potência de ordem n da matriz de transição em uma etapa P, isto é Pn = �
� �

Obviamente que para n, m ��,


P n + m = P n �P m
que , para k �S ,
Pi,( nj +m ) = �Pi,k
( n ) ( m)
Pk, j i, j �E
k�E

(7.5)

As equações (7.4) são chamadas Equações de Chapman-Kolmogorov . Ela estabelece que


se o inicialmente o sistema se encontra no estado i, para atingir o estado j em ( n + m )
etapas, ele deve se mover para um estado intermediário k após n etapas e a seguir , mais
uma vez se mover para o estado j nas m etapas remanescentes.

Exemplo 7.4 (E.Çinlar, Chap. 5, Séc. I)


Seja { X n ; n ��} uma cadeia de Markov com espaço de estados S = { a, b, c} e matriz de
transição

�1 1 1 �
�2 4 4�
P=�2 0 1 �
�3 3�
�3 2 0 �
�5 5 �

Prof. Frederico Cavalcanti 388491661.doc 46


Processos Estocásticos Ence

i ) Se o processo se inicia no estado c, isto é, P { X 0 = c} = 1 , a probabilidade dele estar na


etapa n = 7 no estado b, passando pelos estados b,c,a,c,a,c, pode ser obtido buscando as
adequadas probabilidades Pi, j da matriz P, ou seja :

P { X1 = b; X 2 = c; X 3 = a ; X 4 = c; X 5 = a ; X 6 = c; X 7 = b / X 0 = c} =
= Pc,b �Pb,c �Pc,a �Pa,c �Pc,a �Pa,c �Pc,b
2 1 3 1 3 1 2 3
= ��� �� � =
5 3 5 4 5 4 5 2500

ii) Se o processo se inicia no estado a, isto é. P { X 0 = a} = 1 então a distribuição do


processo na etapa inicial é P = [ 1 0 0] e conforme (7.3) a distribuição do processo na
( 0)

etapa 1 é

�1 1 1 �
�2 4 4�
P = [ 1 0 0] ��
( 1) 2 0 1 �= �1 1 1 �
�3 3 � �2 4 4�
�3 2 0�
�5 5 �
3
iii) A matriz de transição em duas etapas é igual a P = �Pi,k Pk, j , isto é:
2

k =1

�1 1 1 � �1 1 � �
1 68 27 25 �
�2 4 4� � 2 4 � � 120
4 120 120�
P =�
2 2 0 1 � ��
2 0 1 �= � 64 36 20 �
�3 3 � �3 3 � � 120 120 120�
�3 2 0� �
3 2 0� �68 18 34 �
�5 5 � �5 5 � � 120 120 120 �
iii) Se o processo se inicia no estado a, isto é. P { X 0 = a} = 1 então a distribuição do
processo na etapa inicial é P = [ 1 0 0]
( 0)
e conforme (7.4) a distribuição do processo na
etapa 2 é
68
� 27 25

� 120 120 120 �
P( 2) = [ 1 0 0] ��
64 36 20 �= �
68 27 25 �
� 120 120 120 � � 120 120 120 �

68 18 34 �
� 120 120 120 �

Estes resultados podem se encontrados também buscando as probabilidades Pi, j na matriz


para calcular a probabilidades dos movimentos do processo em duas etapas a partir do
estado inicial fixado.

Prof. Frederico Cavalcanti 388491661.doc 47


Processos Estocásticos Ence

Por exemplo, se o processo se inicia no estado a, isto é, P { X 0 = a} = 1 , a probabilidade dele


estar na etapa ( n = 2 ) no estado a, é igual a probabilidade do evento:

A = { X 0 = a ; X1 = a ; X 2 = a} �{ X 0 = a ; X1 = b; X 2 = a} �{ X 0 = a ; X1 = c; X 2 = a}

Usando o teorema da multiplicação e considerando que o processo é Markoviano,

P ( A ) = P { X 2 = a / X1 = a ; X 0 = a} �P { X1 = a / X 0 = a} �P { X 0 = a} +
+ P { X 2 = a / X1 = b; X 0 = a} �P { X1 = b / X 0 = a} �P { X 0 = a} +
+ P { X 2 = a / X1 = c; X 0 = a} �P { X1 = c / X 0 = a} �P { X 0 = a}

P ( A ) = P { X 2 = a / X1 = a } �P { X1 = a / X 0 = a} +
+ P { X 2 = a / X1 = b} �P { X1 = b / X 0 = a} +
+ P { X 2 = a / X1 = c} �P { X1 = c / X 0 = a}
Finalmente,

1 1 1 2 1 3 68
P(A) = Pa ,a �Pa ,a + Pa,b �Pb,a + Pa,c �Pc,a
� P(A) = � + � + � =
2 2 4 3 4 5 120
Por fim, a distribuição do processo na etapa 3, pode ser obtida multiplicando-se a
distribuição do processo na etapa 1 por P 2 ,

17
� 9 5 �
� 30 40 24 �
P( 3) = P( 1) �P 2 = �1 1 1 � ��8 3 1 �= �67 27 26 �
�2 4 4 � � 15 10 6 � � 120 120 120 �

17 3 17 �
� 30 20 60 �

7.3 - Cadeias de Markov com dois estados.

Exemplo 7.5

Durante certo período do ano a gerência de atendimento aos clientes numa loja de
Departamentos registrou o número de clientes atendidos por hora. Analisando a evolução
deste número e as modificações apresentadas através de uma seqüência de horas, o
estatístico responsável estimou que: se o número de clientes superou a cota 100 numa
fixada hora, a probabilidade de que esta cota seja superada na próxima hora é igual a 0,6.
Se cota não é superada numa fixada hora a probabilidade dela não ser superada na hora
seguinte é 0,8.

Supondo que estas probabilidades sejam estacionárias, algumas questões de interesse


estratégico para a gerência podem ser respondidas:
Prof. Frederico Cavalcanti 388491661.doc 48
Processos Estocásticos Ence

i) dado que na primeira hora de um determinado dia a cota foi superada qual a
probabilidade de que na hora do almoço (12:00 às 13:00) ela seja superada? Esta é uma
informação de grande importância para o gerente planejar a escala de almoço dos
funcionários.

ii) nas condições de (i) quantas horas em média a cota se manterá abaixo ou igual a 100 até
que não seja superada pela primeira vez?

Este fenômeno pode ser modelado por uma Cadeia de Markov de 2 estados:
S = { cot a �100 cot a >100}
que, simplificadamente representaremos por S = { 0 1} .

A matriz de transição em uma etapa da Cadeia é:

P0,0
� P0,1 � �
0,8 0, 2 �
P=� �=�
P1,0
� 0, 4 0, 6 �
P1,1 � � �

Se a distribuição inicial do processo é uniforme, ou seja , se antes do início do expediente a


expectativa é de que P = [ 0,5 0,5] , então ao término da primeira hora de funcionamento
( 0)

a distribuição do sistema é

�0,8 0, 2 �
P( 1) = P( 0 ) �P = [ 0,5 0,5] �� = [ 0, 6 0, 4]
�0, 4 0, 6 �

e ao término da segunda hora será:
�0,8 0, 2 �
P( 2) = P( 1) �P = [ 0, 6 0, 4] �� = [ 0, 64 0,36]
�0, 4 0, 6 �

�0, 72 0, 28 �
ou, de outra forma P( 2) = P( 0 ) �P 2 = [ 0,5 0,5] �� = [ 0, 64 0,36 ]
�0,56 0, 44 � �

Teorema 7.1
Seja { X n ; n ��} uma Cadeia de Markov de 2 estados com espaço de estados S = { 0 1 } e
matriz de transição em uma etapa dada por

P0,0
� P0,1 �
P=�
P1,0
� P1,1 �

Então a matriz de transição em n etapas é a seguinte:

� ( n) ( n) �
P0,0 P0,1
P n = �( n ) �
P1,0

� P1,1( n ) �

Prof. Frederico Cavalcanti 388491661.doc 49


Processos Estocásticos Ence
Prova:
Se considerarmos todas as possíveis transições, as probabilidades de transição em 2 etapas
são obtidas como segue,
( 2)
P0,0 = P0,0 P0,0 + P0,1P1,0
2
P0,1 = P0,0 P0,1 + P0,1P1,1
2
P1,0 = P1,0 P0,0 + P1,1P1,0
P1,12 = P1,0 P0,1 + P1,1P1,1
(7.6)
Podemos notar que para calcular cada uma das probabilidades acima, usamos (7.5),
fazendo.
n = m =1 nas equações de Chapman-Kolmogorov,
1
Pi,( 2j ) = �Pi,k
( 1) ( 1)
Pk, j i, j �{ 0,1}
k =0

Das expressões (7.6) é óbvio que podemos escrever,

� ( 2) ( 2) �
P0,0 P0,1
P = �( 2)
2

P1,0

� P1,1( 2) �

Para provar que isto vale para n, suponha que a matriz de transição em (n - 1) é dada por:

� ( n -1) ( n -1) �
n -1
P0,0 P0,1
P = �( n -1) � (7.7)
P1,0

� P1,1( n -1) �

Se multiplicarmos por P, obtemos.

� ( n -1) ( n -1) �
n -1
P0,0 P0,1 P0,0
� P0,1 �
P �P = �( n -1) ��

P1,0

( n -1)
P1,1 � P P1,1 �
� � �1,0 �

� ( n) ( n ) � �( n -1)
P0,0 P0,1 P0,0 P0,0 + P0,1 (n -1)
P1,0 (n -1)
P0,0 (n -1)
P0,1 + P0,1 P1,1 �
P = �( n )
n
�= � �
P1,0

� P1,1( n ) �
� �
( n -1)
P1,0
� P0,0 + P1,1(n -1) P1,0 ( n -1)
P1,0 P0,1 + P1,1(n -1) P1,1 �

De forma que,
( n) ( n -1) (n -1)
P0,0 = P0,0 P0,0 + P0,1 P1,0
( n) (n -1) (n -1)
P0,1 = P0,0 P0,1 + P0,1 P1,1
( n) ( n -1)
(7.8)
P1,0 = P1,0 P0,0 + P1,1(n -1) P1,0
P1,1( n ) = P1,0
( n -1)
P0,1 + P1,1(n -1) P1,1

Prof. Frederico Cavalcanti 388491661.doc 50


Processos Estocásticos Ence
Claramente (7.8) é o resultado da multiplicação P n -1 �P , ou seja P n = P n -1 �P

Notemos que todas as matrizes de probabilidades de transição apresentam a importante


propriedade de que a soma dos elementos de suas linhas é igual a 1, sendo isto óbvio
porque os elementos de uma linha representam as probabilidades de eventos mutuamente
exclusivos e exaustivos em um espaço amostra.

Portanto, a seguinte proposição é verdadeira,

( n) ( n) ( n)
P0,0 + P0,1 =1 e P1,0 + P1,1( n ) = 1 (7.9)

7.3.1 - Matriz de transição em n etapas da Cadeia de Markov de 2 estados.

Teorema 7.2
Seja { X n ; n ��} uma Cadeia de Markov de 2 estados com espaço de estados S = { 0 1 } e
matriz de transição em uma etapa dada por

1- a
� a �
P=� � 0 �a , b �1 e 1- a - b < 1
�b 1 - b �
(7.10)
Então, a matriz de transição em n etapas é:

�b ( 1- a - b) ( 1 - a - b) �
n n
a
� +a -a �
a+b
� a+b a+b a +b �
P =
n
�b ( 1- a - b)
n
a ( 1- a - b) �
n

� -b +b �
a+b
� a+b a+b a +b �
(7.11)

( n)
(b) Seja P = � � P0( n ) P1( n ) �
�distribuição do processo na etapa n, isto é, as probabilidades
do processo se encontrar nos estados 0 e 1, na etapa n, sendo a distribuição inicial do
sistema igual a
P ( 0) = �
P0( 0 ) P1( 0) �
� �. Então,
� ( n) ( n) �
P0,0 P0,1
�( n )
P0 ( n) �
P1 �= �
P0 �( 0 ) P1 �( 0) �
��( n ) �
� P1,0
� P1,1( n ) �
� �
ou seja,
P0( n ) = P0( 0) P0,0
( n)
+ P1( 0 ) P1,0
( n)

P1( n ) = P0( 0) P0,1


( n)
+ P1( 0 ) P1,1( n )
Prova:
A partir da matriz de transição em (7.10), temos
P0,0 = 1 - a P0,1 = a
P1,0 = b P1,1 = 1 - b

Prof. Frederico Cavalcanti 388491661.doc 51


Processos Estocásticos Ence

Substituindo-se tais valores na primeira equação de (7.8), obtemos,


( n -1)
( n)
P0,0 = ( 1 - a ) P0,0
( n -1)
+ bP0,1 se n > 1
(7.12)
( 1)
e P0,0 = 1- a

Aplicando-se (7.9), obtemos,

( 1)
P0,0 = 1- a
( n)
P0,0 = ( 1 - a ) P0,0
( n -1)
(
+ b 1 - P0,0
( n -1)
)
( n)
P0,0 = b + ( 1 - a - b ) P0,0
( n -1)
se n > 1
(7.13)

( n)
Temos então uma relação recursiva com a qual determinaremos P0,0 ,

Fazendo-se n = 2,3,...

( 2)
P0,0 = b + (1- a ) ( 1- a - b)
( 3)
= b + b ( 1- a - b) + ( 1- a ) ( 1- a - b)
2
P0,0
( 4)
= b + b ( 1- a - b) + b (1- a - b) + (1- a ) (1- a - b)
2 3
P0,0
-----------------------------
-----------------------------
( n)
= b + b ( 1 - a - b ) + b ( 1 - a - b ) + ... + b ( 1 - a - b ) + (1- a ) (1- a - b)
2 n -2 n -1
P0,0
E assim,
n-2
( n)
= b�( 1 - a - b ) + ( 1 - a ) ( 1 - a - b )
k n -1
P0,0
k =0

Entretanto, quando 1 - a - b < 1 ,


1- ( 1- a - b)
n -1
( n)
+ ( 1- a ) ( 1- a - b)
n -1
P0,0 = b�
a+b
b ( 1- a - b)
n -1
b
( n)
+ ( 1- a ) ( 1- a - b)
n -1
P0,0 = -
a+b a+b
( 1- a - b) ( 1- a ) ( a + b) - b�
n -1
( n) b �
� �
P0,0 = +
a+b a+b
Finalmente,
( 1- a - b) ( 1- a - b) a = b + a 1- a - b n
n -1
b
( n)
P0,0 = + ( )
a+b a+b a+b a+b

Prof. Frederico Cavalcanti 388491661.doc 52


Processos Estocásticos Ence
Nota:
No Apêndice A.4 esta solução é obtida através do uso de equações de diferenças finitas.

De maneira análoga escrevemos,


( 1)
P1,0 = 1- a
( n)
P1,0 = ( 1 - a ) P1,0
( n -1)
( ( n -1)
+ b 1 - P1,1 )
( n)
P1,0 = b + ( 1 - a - b ) P1,0
( n -1)
se n > 1
(7.14)

que também pode ser resolvida através de recorrência como (7.13) ou pelo método das
equações de diferenças finitas conforme Apêndice A4. Os elementos do lado direito de
(7.11) são obtidos através de (7.9).

Nota:
A técnica de relações recursivas ou também a solução por equações de diferenças finitas é de muita utilidade, mas
somente para cadeias de Markov de dois estados. Para n > 2, a matriz de transição em n etapas P n pode ser
obtida através de autovalores de P e a correspondente representação matricial.

Para grandes valores de n, a matriz de transição em n etapas de uma cadeira de Markov de


2 estados é independente da distribuição inicial .

Teorema 7.3
Para 1 - a - b < 1 ,
�b a �

a+b a + b�
lim Pi,i( n ) �= �
lim P n = � �
n �� �
n �� � �b a �

a+b
� �
a + b�
Prova:
( 1 - a - b ) = 0 e assim os segundos termos dos elementos de P n
n
Se 1 - a - b < 1 � lim
n ��

tendem a zero quando n � �.

Nota:
Uma prova direta do Teorema 7.3 pode ser obtida através das relações recursivas (7.13) e
(7.14), como segue:

Dado um n’ suficientemente grande, para n > n ' .


( n) ( n -1)
lim P0,0 = lim P0,0 = p0,0
n �� n ��

Substituindo-se em (7.13), temos.


b a
p0,0 = b + ( 1 - a - b ) p0,0 � p0,0 = � p0,1 =
a+b a+b
Analogamente,
( n) ( n -1)
lim P1,0 = lim P1,0 = p1,0
n �� n ��

Prof. Frederico Cavalcanti 388491661.doc 53


Processos Estocásticos Ence
b a
e p1,0 = b + ( 1 - a - b ) p1,0 � p1,0 = � p1,1 =
a+b a+b

O que se nota é que estas probabilidades são independentes do estado inicial do processo e
então podemos registrar que
b
p0,0 = p1,0 = p0 =
a+b
a
p0,1 = p1,1 = p1 =
a+b
( 0)
Para ilustrar o estudado, seja P = � p(o0) p1( 0 ) �
� � a distribuição inicial do processo e,
obviamente que
P( n ) = P( 0) �P n

Então, se n é suficientemente grande,


�b a �

( 0) � a + b a + b

p(0n )

� p1( n ) �= �
p
� �0
( 0)
p1 � � �
1�2
�b a �

�a + b a + b�

2�2

� b ( 0) b ( 0) a a �
p(0n )

� p1( n ) �
�= � po + p1 p(00) + p1( 0) �
a+b
� a+b a+b a+b �

� b �( 0) a �( 0 ) � �b a �
p(0n )
� p1( n ) �
�= � po + p1( 0 ) � po + p1( 0 ) �
� p(0n )
� � p1( n ) �
�= �
� a+b
� � � a+b � �
� � a+b
� a +b�

Exemplo 7.6 - Mercado com duas marcas de um produto


Suponha que um consumidor comum compre a marca A com probabilidade 0,8 se sua
compra mais recente deste produto foi A e com probabilidade 0,3 se sua compra mais
recente foi B.
Assim, E = { A B } e a matriz de transição em uma etapa deste sistema é:
�0,8 0, 2 �
P=�
�0,3 0, 7 �

Vamos estudar a evolução das potências da matriz P. Se n = 0, a “matriz de transição” é a
matriz unitária, representando a hipótese de que “se o consumidor não vai às compras, ele
fica com a preferência que tinha escolhido pela última vez” . Então,
�1 0�
P ( 0) = � �
�0 1�
A seguir, as matrizes de transição em 1, 2, 3 4 etapas,

0,8 0, 2�
� 0, 70 0,30 �
� 0, 650 0,350 �
� 0, 6250 0,3750 �

P=� P( 2) = � P ( 3) = � P( 4) = �
0,3 0, 7 �
� � 0, 45 0,55 �
� � 0,525 0, 475 �
� � 0,5625 0, 4375�
� �

Prof. Frederico Cavalcanti 388491661.doc 54


Processos Estocásticos Ence
e a matriz de transição em 5 etapas seria:

0, 61250 0,38750 �

P ( 5) = �
0,58125 0, 41875�
� �
Segundo (7.11) a matriz de transição em n etapas é igual a:

0, 6 + 0, 4 �2 - n 0, 4 - 0, 4 �2- n �

P( n ) = � �
0, 6 - 0, 6 �2- n 0, 4 + 0, 6 �2- n �

A diferença entre as linhas de P n diminui à medida que n cresce. isso significa que, quanto
mais o consumidor típico compra, mais a influência da marca inicialmente comprada
diminui e o consumidor tende a “fixar uma preferência” .

Em outras palavras,
0, 6 0, 4 �

lim P n = �
n �� 0, 6 0, 4 �
� �

Fixar uma preferência entre duas marcas é definir a distribuição de probabilidade da


disposição de compra da marca. Para constatar que esta preferência tende a se estabilizar ao
longo do prazo, suponhamos que a distribuição inicial do sistema seja especificada por:

P( 0) = [ 0, 4 0, 6 ]
Assim, obtemos
0,8 0, 2 �

P( 1) = [ 0, 4 0, 6] � = [ 0,5 0,5]
0,3 0, 7 �
� �

0, 70 0,30�

P( 2) = [ 0, 4 0, 6] � = [ 0,55 0, 45]
0, 45 0,55�
� �

0, 650 0,350 �

P( 3) = [ 0, 4 0, 6] � = [ 0,575 0, 425]
0,525 0, 475�
� �

0, 6250 0,3750 �

P( 4) = [ 0, 4 0, 6] � = [ 0,5875 0, 4125]
0,5625 0, 4375�
� �
È fácil notar que a diferença entre os vetores P( n ) e P( n +1) se torna cada vez menor quando
n cresce. Quando n é suficientemente grande, ou seja, no limite,

lim P ( n ) = P ( 0) �P n = P( n ) = p
n ��

ou
0, 6 0, 4 �

p = [ 0, 4 0, 6] � = [ 0, 6 0, 4 ]
0, 6 0, 4 �
� �

Prof. Frederico Cavalcanti 388491661.doc 55


Processos Estocásticos Ence

Se a distribuição inicial fosse, entretanto, especificada por P = [ 0,1 0,9] , teríamos:


( 0)

0,8 0, 2 �

P( 1) = [ 0,1 0,9] � = [ 0,35 0, 65]
0,3 0, 7 �
� �
�0, 70 0,30 �
P( 2) = [ 0,1 0,9] � = [ 0, 475 0,525]
�0, 45 0,55 �

�0, 650 0,350 �
P( 3) = [ 0,1 0,9] � = [ 0,5375 0, 4625]
�0,525 0, 475� �
A nova distribuição inicial estabelecida afetou portanto as distribuições de estado. Mas
igualmente como na evolução anterior, a diferença entre os vetores P( n ) e P( n +1) se torna
cada vez menor quando n cresce, e
�0, 6 0, 4 �
p = [ 0,1 0,9] � = [ 0, 6 0, 4 ]
�0, 6 0, 4 �

Assim, neste exemplo, existe uma distribuição limite que independe da distribuição inicial.

Para algumas cadeias homogêneas, existe uma distribuição limite especificada pelo vetor:

p=�
p1
� p2 p3 - - pj �

onde: p j = lim Pj( n ) = lim P { X n = j}


n �� n ��

A distribuição limite p é denominada:


DE ESTADO EM FASE DE REGIME PERMANENTE,
ou
DE ESTADO ESTACIONÁRIO
ou
DE EQUILÍBRIO.

Se existir uma distribuição de equilíbrio, ela será especificada pelo vetor:


lim P( n ) = lim P( n +1) = p
n �� n ��
( n +1)
e, nesse caso, a equação P = P ( n ) �P , de maneira que:

p = p �R

7.3.2 – Visitas a um estado j.

Duas características importantes de cada estado são:

- o número de visitas que ele recebe da Cadeia de Markov em um fixado número n de


etapas.

- o tempo de permanência que o estado hospeda a Cadeia, medido em etapas.

Prof. Frederico Cavalcanti 388491661.doc 56


Processos Estocásticos Ence
( n)
Representemos por N i, j o número de visitas que a Cadeira de Markov (de 2 estados) faz ao
estado j, tendo iniciado seu trajeto no estado i, em n etapas de realização da Cadeia, e seja

( k) 1 se X k = j e X 0 = i

Yi, j = �
0
� caso contrário

( k)
A variável aleatória Yi, j é uma variável aleatória indicadora que registra o tempo k no
qual o processo visita o estado j, tendo partido do estado i. A função de probabilidade de
Yi,( kj ) , para um fixado k, é dada por:
1 - Pi,( kj )
� r=0
{ �
( k)
P Yi, j = r = � ( k ) } r =1
� Pi, j
Em decorrência disto, temos:

( )
E Yi,( kj ) = Pi,( kj ) , i, j = 0,1 e k = 1, 2,..., n

( k)
Visto que Yi, j assume o valor 1 quando o processo está no estado j e 0 quando não,
partindo do estado i, claramente o número de visitas do processo ao estado j, tendo partido
inicialmente do estado i, em n etapas é dado por:

N (i,nj) = Yi,( 1j) + Yi,( 2j ) + ... + Yi,( nj )

( n) ( n)
Denotando por mi, j a média da variável aleatória Ni, j , obtemos:

( )
n
m(i,nj) = E N (i,nj) = Pi,( 1j) + Pi,( 2j ) + ... + Pi,( nj ) = �Pi,( kj ) i, j = 0,1
k =1

( k)
Assim, buscando as expressões de Pi, j , conforme Teorema 7.2, calculamos :

�b a ( 1- a - b) �
k
n n
( n) ( k)
m 0,0 = �P0,0 = �� + �

k =1 a + b a+b �
k =1
� �

nb a n
m(0,0
n)
� ( 1- a - b)
k
= +
a + b a + b k =1

nb a ( 1 - a - b ) �1- ( 1- a - b) �
� n

m 0,0 ( n)
= + �
a+b ( a + b)
2

( n) ( n) ( n)
O mesmo procedimento nos leva ao cálculo de m 0,1 , m1,0 e m1,1 .

Teorema 7.3
Prof. Frederico Cavalcanti 388491661.doc 57
Processos Estocásticos Ence
Considere uma Cadeia de Markov de 2 estados com matriz de transição em uma etapa dada
por
�1- a a �
P=� � 0 �a , b �1 e 1 - a - b < 1 .
�b 1 - b �
( n) ( n)
Então a matriz mi, j , onde mi, j é o valor esperado do número de visitas que o processo
faz ao estado j em n etapas tendo originalmente iniciado no estado i, é dada por

� a ( 1- a - b) � 1- ( 1- a - b) � na a ( 1 - a - b ) �
�1 - ( 1 - a - b ) ��
n n

�nb � � ��
+ -

a+b ( a + b) a+b ( a + b) �
2 2

m(i,nj) =� �
� b ( 1- a - b) � 1- ( 1- a - b) � b ( 1- a - b) � 1 - ( 1 - a - b ) ��
n n

�nb � � na � ��
- +

a+b ( a + b) a+b ( a + b) �
2 2
� �

1 ( n)
Representemos por mi, j a proporção do tempo (medido em etapas) em que o processo
n
permanece no estado j, tendo partido do estado i . Claramente, quando n cresce
1 n) 1 ( n) b
lim m(0,0 = lim m1,0 = = p0
n �� n n �� n a+b
1 1 ( n) a
lim m(0,1n ) = lim m1,1 = = p1
n �� n n �� n a+b

Isto quer dizer que a longo prazo, as probabilidades limites de uma Cadeia de
Markov de 2 estados fornece a fração de tempo que o processo permanece nos 2
estados, em uma seqüência prolongada de realizações do processo.

7.3.3 – Tempo de permanência no estado j.

Suponhamos que o processo esteja no estado i = 0,1 em alguma etapa n e seja Ti a


variável aleatória que representa o número de etapas que o processo permanece no estado i
até se mover para outro estado.

Teorema 7.4
Considere uma Cadeia de Markov de 2 estados com matriz de transição em uma etapa dada
por

1- a
� a �
P=� � 0 �a , b �1 e 1- a - b < 1.
�b 1 - b �

Prof. Frederico Cavalcanti 388491661.doc 58


Processos Estocásticos Ence
Então a função de densidade de Ti é dada por:

P ( T0 = n ) = a ( 1 - a )
n

P ( T1 = n ) = b ( 1 - b )
n
n = 0,1, 2,....
e também.
1- a 1- a
E ( T0 ) = e Var ( T0 ) =
a a2
1- b 1- b
E ( T1 ) = e Var ( T1 ) = 2
b b
Prova:
Em cada etapa do processo há duas escolhas: ou o processo permanece no mesmo
estado com probabilidades (1-a) e (1-b) ou se move para outro estado com
probabilidades a e b. Suponha que o processo esteja no estado 0 em um dada etapa e
calculemos a probabilidade de se manter neste estado nas próximas 5 etapas, quando
então ele se moverá para o estado 1. Representemos por E k o estado do processo na
etapa k, com E 0 = 0 .
Calcular a probabilidade do evento
E = ( E 0 = 0 ) �( E1 = 0 ) �( E 2 = 0 ) �( E3 = 0 ) �( E 4 = 0 ) �( E5 = 0 ) �( E 6 = 1)
significa calcular a probabilidade do processo, a partir do estado 0, alcançar o estado
1 pela primeira vez na sexta etapa. Ora , claramente, temos:
P ( E ) = 1�P0,0 �P0,0 �P0,0 �P0,0 �P0,0 �P0,1 = a ( 1 - a )
5

Claramente. as variáveis aleatórias Ti ,i = 1, 2 tem distribuição geométrica de


parâmetros a e b , respectivamente.

Exemplo 7.7
Retornando ao exemplo 7.6 – mercado com duas marcas de um produto – vamos
supor que o consumidor realize suas compras mensalmente.

i) Durante o período de 8 meses o número esperado de meses que o consumidor


transitou entre as marcas A e B foram:
8 �0,3 0, 2 �0,5 �
m(0,0 1 - ( 0,5 ) �= 5,19844
8) 8
= +
0,5 0, 25 � �
8 �0, 2 0, 2 �0,5 �
m(0,1 1 - ( 0,5 ) �= 2,80124
8) 8
= -
0,5 0, 25 � �
8 �0,3 0,3 �0,5 �
( 8)
1 - ( 0,5 ) �= 4, 20235
8
m1,0 = -
0,5 0, 25 � �
8 �0, 2 0,3 �0,5 �
( 8)
1 - ( 0,5 ) �= 3, 79765
8
m1,1 = +
0,5 0, 25 � �

ii) Qual o número esperado de meses que o consumidor se mantém fiel à uma marca
até trocar sua preferência?

Prof. Frederico Cavalcanti 388491661.doc 59


Processos Estocásticos Ence
0,8 0,8
E ( T0 ) = =4 com Var ( T0 ) = = 20
0, 2 0, 04
0, 7 0, 7
E ( T1 ) = @ 2,33 com Var ( T0 ) = @ 7, 77
0,3 0, 09

8 – Cadeias de Markov com m > 2 estados.

Exemplo 8.1 - (BHAT-Chap-4)

Uma barbearia possui quatro cadeiras disponíveis para clientes que aguardam atendimento
(corte de cabelo) e apenas um barbeiro para atender a clientela. Suponha que, se um
cliente ao chegar, todas as cadeiras estiverem ocupadas ele desiste de cortar o cabelo e vai
embora. O barbeiro leva exatamente 15 minutos para atender um cliente e se algum cliente
estiver esperando pelo serviço, o barbeiro recomeça a trabalhar imediatamente.
O número de clientes que procuram atendimento durante um intervalo de tempo de 15
minutos, tem a seguinte distribuição de probabilidade:

Nº Chegadas 0 1 2 3 4 �5
Probabilidade 0,20 0,70 0,07 0,02 0,01 0

Seja Q n o número de clientes na barbearia logo após o n-ésimo atendimento. Os possíveis


valores de Q n são : 0, 1, 2, 3, 4.

Nota: Por conveniência, suponhamos que uma chegada e uma saída de cliente não
ocorram num mesmo instante)

Portanto, se cinco clientes estão na barbearia, um está sendo atendido e os outros 4 estão
esperando sua vez. Seja X n o número de clientes que chegam durante o n-ésimo serviço e
cuja função de probabilidade foi descrita acima.

Suponha que ao fim do n-ésimo corte Q n = 0 . Um serviço começa somente após a chegada
de um cliente e durante este serviço, chegam X n +1 clientes na barbearia. O número de
clientes na barbearia ao fim do serviço será Q n +1 = min (4, X n +1 ) , não estando incluído o
cliente que terminou de ser atendido.

Suponha que ao fim do n-ésimo corte Q n > 0. O serviço começa imediatamente, e o


número de clientes após este serviço é igual a min ( 4, Q n - 1 + X n +1 ) . Se Q n = 1 é óbvio que
o número de clientes é igual a min ( 4, X n +1 ) .
Resumidamente,

� min ( 4, X n +1 ) Qn = 0
Q n +1 = �
�min ( 4, Q n - 1 + X n +1 ) Qn > 0

Prof. Frederico Cavalcanti 388491661.doc 60


Processos Estocásticos Ence
A relação mostra que Q n +1 depende somente de Q n e X n cuja distribuição é conhecida e
exógena ao sistema, e não depende de Q r , r < n . Assim, { Q n ; n = 0,1, 2,...} é uma Cadeia
de Markov cuja matriz de transição é obtida como a seguir:

i) Se Q n = 0 então P ( Q n +1 = j) = P ( X n +1 = j) , j = 0,1, 2,3, 4 e conseqüentemente,


P0,0 = 0, 20 P0,1 = 0, 7 P0,2 = 0,07 P0,3 = 0, 02 P0,4 = 0, 01

ii) Se Q n = 1 então P ( Q n +1 = j) = P [ min (4, X n +1 ) = j] = P ( X n +1 = j)


P1,0 = 0, 20 P1,1 = 0, 7 P1,2 = 0, 07 P1,3 = 0, 02 P1,4 = 0, 01

iii) Se Q n = 2 então P ( Qn +1 = j) = P [ min (4,1 + X n +1 ) = j]


P2,0 = 0 P2,1 = 0, 20 P2,2 = 0, 70 P2,3 = 0, 07 P2,4 = 0, 02 + 0, 01

iii) Se Q n = 3 então P ( Qn +1 = j) = P [ min (4, 2 + X n +1 ) = j]


P3,0 = 0 P3,1 = 0 P3,2 = 0, 20 P3,3 = 0, 70 P3,4 = 0,07 + 0, 02 + 0,01

iv) Se Q n = 4 então P ( Q n +1 = j) = P [ min (4,3 + X n +1 ) = j]


P4,0 = 0 P4,1 = 0 P4,2 = 0 P4,3 = 0, 20 P3,4 = 0, 70 + 0, 07 + 0, 02 + 0, 01

Portanto, a matriz de transição em uma etapa é:

0, 20 0, 70 0, 07 0, 02
� 0, 01�

0, 20 0, 70 0, 07 0, 02 0, 01�
� �
P = �0 0, 20 0, 70 0, 07 0, 03�
� �
�0 0 0, 20 0, 70 0,10 �

�0 0 0 0, 20 0,80 �

Exemplo 8.2
Na Financeira Dinheiro Fácil , o Departamento de Controle de Financiamentos, classifica
os clientes de empréstimos – pagáveis em prestações mensais - segundo o seguinte
esquema:

Prestações em Classificação
atraso
0 normal - tipo 1
1 normal - tipo 2

Prof. Frederico Cavalcanti 388491661.doc 61


Processos Estocásticos Ence
2 normal - tipo 3
A acordo administrativo
P processo jurídico

Se o cliente paga regularmente, atrasando eventualmente 1 e 2 meses a empresa considera


empréstimos normais do tipo 1, 2 ou 3. Os demais clientes ou pedem renegociação do
empréstimo ou se deixam processar judicialmente.

Experiências passadas mostram que as transições de um estado para outro dependem


somente do estado presente. Portanto, é razoável considerar o estado do empréstimo no
mês n , A n , como uma Cadeira de Markov.

Analisando a carteira de empréstimos da Financeira durante certo período de meses, foram


feitas as seguintes estimativas:

�0,8 0,1 0 0,1 0 �



0, 2 0,5 0,1 0, 2 0 �
� �
P=�
0, 2 0, 2 0, 4 0,1 0,1�
� �
�0 0 0 1 0�

�0 0 0 0 1��

No contexto global dos empréstimos, com respeito a classificação definida pela empresa,
observa-se o seguinte:

i) o bom pagador está quase sempre em dia com as prestações e eventualmente atrasa um
mês. Como bom pagador não admite atrasar mais do que 1 mês, e, se necessário, pede
acordo administrativo, pois não deseja jamais ser processado judicialmente.

ii) o razoável pagador paga em dia com pouca freqüência, quase sempre admitindo atrasos
de 1 mês e as vezes atrasos de 2 meses, mas igualmente como o bom pagador (i) não
deseja jamais ser processado judicialmente.

iii) o pagador relapso atrasa sempre, admite atrasos de 1 e 2 meses e fica atento (maior
probabilidade da linha 2 é 0,4) para não ser deslocado para a classe de maus pagadores
(estados 3 e 4).

iv) o mau pagador não cumpre suas obrigações mensalmente, mas não deseja jamais ser
processado judicialmente e entra em acordo com a empresa.

Prof. Frederico Cavalcanti 388491661.doc 62


Processos Estocásticos Ence

v) o péssimo pagador jamais paga seus débitos e ignora a conseqüências de tal fato, sendo
deslocado para a classe de clientes processados judicialmente.

8.1 - A matriz de transição em n etapas.

No estudo das Cadeias de Markov de 2 estados foi estabelecido que a matriz de transição
em n etapas era obtida pelos elementos da n-ésima potência da matriz de transição P. Este
resultado pode ser generalizado para as Cadeias de Markov com m estados.

Seja { X n ; n ��} uma Cadeia de Markov com espaço de estados E = { 0,1, 2,..., m - 1} . A
matriz P de transição em uma etapa será representada por,
�P0,0 P0,1 - - P0,m -1 �
�P P1,1 - - P1,m -1 �
� 1,0 �
P = �- - - - - �
� �
�- - - - - �
�Pm -1,0 Pm -1,1 - - Pm -1,m -1 �
� �

Pi,( sj) = P { X k +s = j/ X k = j} i, j = 0,1,....., m - 1 ; s �1


e Pi,( 1j) = Pi, j

A Cadeira de Markov de m estados é suposta ser homogênea no tempo e representaremos a


distribuição da Cadeira (dos estados da Cadeia) na etapa n por

P( n ) = P [ X n = 0, X n =1;......; X n = m - 1]

sendo a distribuição inicial do sistema representada pelo vetor,

P( 0) = P [ X 0 = 0, X 0 = 1;......; X 0 = m - 1]

Teorema 8.1
(i) Se P é a matriz de transição em uma etapa de uma Cadeia de Markov finita, com
( n)
elementos Pi, j (i, j = 0,1, 2,..., m - 1) , as probabilidades de transição em n etapas Pi, j são as
(i,j)-entradas da matriz P n .

(ii) Se P( 0) é a distribuição dos estados da Cadeia na etapa inicial, a distribuição dos


estados na etapa n é dada pelo vetor : P( n ) = P ( 0) �P n

Prova: (por indução finita)


Conforme as Equações de Chapman-Kolmogorov (7.5), temos:

Prof. Frederico Cavalcanti 388491661.doc 63


Processos Estocásticos Ence
m -1
Pi,( rj +s ) = �Pi,k
( r ) ( s)
Pk, j i, j, k �E , fixados r e s (8.1)
k =0
m -1
( 2)
1) se r = s =1, usando (8.1), temos: Pi, j = �Pi,k Pk, j i, j, k �E
k =0
Claramente,
�P0,0 P0,1 - - P0,m -1 � �P0,0 P0,1 - - P0,m -1 �
�P P1,1 - - P1,m -1 � � - - P1,m -1 �
� 1,0 � �P1,0 P1,1 �
Pi,( 2j ) = �- - - - - � �� - - - - - �= P 2
� �� �
�- - - - - ��- - - - - �
�Pm -1,0 Pm -1,1 - - Pm -1,m -1 � �Pm -1,0 Pm -1,1 - - Pm -1,m -1 �
� �� �

( r)
Supondo que Pi, j = P para r = 1, 2,..., n - 1 e fazendo r = n - 1 e s = 1 , temos,
r

m -1
Pi,( nj ) = �Pi,k
( n -1)
Pk, j
k =0

o que nos leva a

� ( n -1) ( n -1) ( n) � �P
P0,0 P0,1 - - P0,m -1 P0,1 - - P0,m -1 �
�( n -1) � � 0,0
P1,0
� P1,1( n -1)
- ( n -1)
- ( n -1)
P1,m -1 � �P1,0 P1,1 - - P1,m -1 � �
( n)
Pi, j �
= - - - - - � �� - - - - - �= P n -1 �P = P n
� �� �
�- - - - - � �- - - - - �
�( n -1) ��
Pm( n--1,11) - - Pm( n--1,m
1) P Pm -1,1 - - Pm -1,m -1 �
Pm -1,0

� � �m -1,0
-1 � �

O resultado prova a parte (i) do teorema e a segunda parte pode ser provada usando-se a
relação

m -1
P { X n = j} = �P { X n = j/ X 0 = i} .P { X 0 = i}
i =0

De fato, se por exemplo, j = 0 , temos que:

P ( X n = 0 ) = P ( X 0 = 0 ) P0,0
( n)
+ P ( X 0 = 1) P1,0
( n)
+ P ( X 0 = 2 ) P2,0
( n)
+ ... + P ( X 0 = m - 1) Pm( n-)1,0

Ora, este é o resultado primeiro da multiplicação do vetor P( 0) pela matriz P n , quando


multiplicamos o vetor em questão pela primeira coluna de P n

P ( X0 = 0 )

� P ( X 0 = 1) P ( X0 = 2 ) - - - P ( X 0 = m - 1) �
��� ( n) �
Pi,0
� �'

onde �

n
Pi,0 � P ( X n = 0 / X0 = 0 )
�= �
� P ( X n = 0 / X 0 = 1) - - P ( X n = 0 / X 0 = m - 1) �

Prof. Frederico Cavalcanti 388491661.doc 64


Processos Estocásticos Ence

( n ) � �( n ) ( n)
ou �
Pi,0
� �= �
P0,0 P1,0 - - Pm( n-)1,0 �

Definição 8.1
Dada uma Cadeia de Markov de espaço de estados E = { 0,1, 2,..., m - 1} define-se como
distribuição limite da Cadeia ao vetor de probabilidades p = [ p0 p1 - - pm-1 ] , tal
que:
p = p�P (8.2)

Exemplo 8.3
0,1 0, 2 0, 7 �


0,5 0,5 0 � p.
Dada a matriz P = � � calcular a distribuição limite

0, 2 0, 2 0, 6 �
� �
Solução:
�0,1 0, 2 0, 7 �
[ x y z ] = [ x y z ] ��0,5 0,5 0 �



�0, 2 0, 2 0, 6 �

Temos então as 4 equações das quais escolheremos duas das três primeiras ao acaso.
0,1x + 0,5y + 0, 2z = x (1)
0, 2x + 0,5y + 0, 2z = y (2)
0, 7x + 0, 6z = z (3)
x + y + z =1 (4)
Descartando a equação (1), de (3), obtemos:
0, 7
0, 7x = 0, 4z � z = x (5)
0, 4
Substituindo-se tal resultado em (2), obtemos:
0, 7
0, 2x + 0,5y + 0, 2 � x = y
0, 4
� 0,14 �
ou � 0, 2 + �x = 0,5y
� 0, 4 �

� 0, 08 0,14 � 0, 22
ou y=� + �x � y= x (6)
� 0, 20 0, 20 � 0, 20
Levando (5) e (6) à (4), finalmente determinamos o valor de x:

Prof. Frederico Cavalcanti 388491661.doc 65


Processos Estocásticos Ence
0, 22 0,7
x+ x+ x =1
0, 20 0, 4
0, 40 20
0, 40x + 0, 44x + 0, 70x = 0, 40 � x = � x=
1,54 77
Em seguida calculamos y e z,
0, 22 0, 40 0, 44 22
y= � � y= � y=
0, 20 1,54 1,54 77
0,70 0, 40 0, 70 35
z= � � z= � z=
0, 40 1,54 1,54 77
Conferindo,
�0,1 0, 2 0, 7 �
�20 22 35 � � 20
� 22 35 �
� � 0,5 0,5 0 � =
�77 77 77 ��� � �77
� 77 77 �


�0, 2 0, 2 0,6 ��
A distribuição limite procurada é:
20
� 22 35 �
p=�
77
� 77 77 �

8.2 – Classificação dos estados de uma Cadeia de Markov.

Exemplo 8.3
Para introduzir o assunto consideraremos inicialmente a Cadeia de Markov objeto do
exemplo 8.1 , onde o número de clientes na barbearia é observado ao fim de cada serviço
(corte de cabelo) e cuja matriz de transição em uma etapa é:

0, 20 0, 70 0, 07 0, 02
� 0, 01�

0, 20 0, 70 0, 07 0, 02 0, 01�
� �
P = �0 0, 20 0, 70 0, 07 0, 03�
� �
�0 0 0, 20 0, 70 0,10 �

�0 0 0 0, 20 0,80 �

Analisando P, observamos que o número de clientes na barbearia pode ser qualquer um dos
estados de E = { 0,1, 2,3, 4} e dado um número suficiente de etapas o processo pode
alcançar quaisquer estados a partir de um estado fixado qualquer.

A partir do estado 0 o processo pode chegar a qualquer outro, inclusive o próprio, em


apenas uma etapa. O mesmo acontece com o estado 1.

Por outro lado uma transição do estado 2 para o 0 requer pelo menos duas etapas enquanto
que do estado 3 para 0 são necessárias pelos menos 3 etapas.

Prof. Frederico Cavalcanti 388491661.doc 66


Processos Estocásticos Ence
Em suma, por serem os estados comunicantes, é 1 a probabilidade do processo partir de
um estado e a ele retornar em um número finito de etapas. Neste exemplo, os estados da
Cadeia de Markov pertencem todos a uma mesma classe de estados.

A comunicação entre os estados de uma Cadeia de Markov pode ser apresentada através de
um grafo como o que segue:

Grafo – Exemplo 8.3

3
4

Exemplo 8.4
Analisemos a seguir a seguinte matriz de transição,

�0, 6 0,1 0 0,3 0 �


�0, 2 0,5 0,1 0, 2 0 �
� �
P=� 0, 2 0, 2 0, 4 0,1 0,1�
� �
�0 0 0 1 0�

�0 0 0 0 1��
É evidente que nesta Cadeia de Markov existem três classes de estados, quais sejam:

C1 = { 0,1, 2} , C 2 = { 3} e C3 = { 4}

A classe C1 é composta por três estados que se comunicam entre si em uma ou mais etapas,
no entanto existe um probabilidade não nula do processo sair da classe C1 e não retornar
jamais. Em uma etapa, por exemplo, com 0,1 de probabilidade o processo passa do estado 2
para o estado 3 ou 4 sem possibilidade de retorno.

Prof. Frederico Cavalcanti 388491661.doc 67


Processos Estocásticos Ence
Se processo se encontra nos estados 0, 1 ou 2 ele pode abandonar a classe C1 , passando
para os estado 3 com probabilidades 0,3 , 0,2 e 0,1 respectivamente. Sob este ponto de
vista, estes estados têm características outras diferentes dos estados comunicantes do
exemplo 8.3.

Se o processo em uma dada etapa, a partir da classe C1 passa para a classe C 2 , nela
permanece para sempre. A classe C 2 contém apenas o estado 3, chamado de estado
absorvente. A classe C3 igualmente, contém apenas o estado absorvente 4.

Observemos o grafo de comunicação entre os estados:

Grafo Exemplo 8.4

3
0

4
1

Exemplo 8.5
Retomemos o exemplo clássico da Ruína do Jogador com p = 0,6 e a = 6, com matriz de
transição em uma etapa dada por,

�1 0 0 0 0 0 0 �
�0, 6 0 0, 4 0 0 0 0 �
� �
�0 0, 6 0 0, 4 0 0 0 �
� �
P = �0 0 0, 6 0 0, 4 0 0 �
�0 0 0 0, 6 0 0, 4 0 �
� �
�0 0 0 0 0, 6 0 0, 4�
�0 0 0 0 0 0 1 �
� �

Prof. Frederico Cavalcanti 388491661.doc 68


Processos Estocásticos Ence

Como vimos o jogo termina quando o capital do jogador A alcança os valores 0 ou 6. Nesta
cadeia estão definidas três classes de estados,

C1 = { 0} , C2 = { 1, 2,3, 4,5} e C3 = { 6}

Os estados da classe C 2 se comunicam entre si em qualquer número de etapas. O processo


também pode alcançar a classe C1 , a partir de C 2 , mas se isto acontecer jamais voltará à
classe de origem.

Esta Cadeia tem uma particularidade. Se o processo numa determinada etapa está no
estado i �C 2 , numa etapa posterior ele poderá voltar a i somente em um número par de
etapas.

Na tabela que segue apresenta a simulação de alguns dos possíveis caminhos do processo
a partir do estado 3.

Etapas
Caminhos 0 1 2 3 4 5 6
1 3 2 1 2 3 2 3
2 3 2 3 2 3 4 3
3 3 2 3 4 3 2 3
4 3 4 5 4 5 4 3
5 3 4 5 4 5 4 3

Nota-se facilmente que o retorno do processo ao estado 3 só pode ocorrer em um número


par de etapas. No caminho 1 o sistema retornou pela 1ª vez ao estado 3 na etapa 4 e pela
segunda vez na etapa 6. Nos caminhos 2 e 3 o sistema retornou ao estado 3 nas etapas 2 , 4
e 6, enquanto que nos caminhos 4 e 5 o retorno pela 1ª vez aconteceu na sexta etapa.

Grafo – Exemplo 8.5

1 2 3 4 5

0 6

Prof. Frederico Cavalcanti 388491661.doc 69


Processos Estocásticos Ence

8.2.1 - A comunicação entre estados de uma Cadeia de Markov.

Definição 8.1
Dizemos que o estado j é acessível pelo estado i, se ele pode ser alcançado por i em um
número finito de etapas. Se dois estados são acessíveis entre si, eles são chamados de
estados comunicantes.
Simbolicamente, escrevemos:

� ( n)
i � j (j é acessível por i) para algum n �0, Pi, j > 0
� ( n)
j � i (i é acessível por j) para algum n �0, Pj,i > 0

i � j (i e j são comunicantes � para algum n �0, Pi,( nj ) > 0


( m)
e para algum m �0, Pj,i > 0

Se i e j são estados que pertencem a uma classe de estados comunicantes, as seguintes


propriedades são válidas:

i) reflexividade: i � i
ii) simetria: se i �
�� j j i
iii) transitividade: se i �� j ��
e j k i k

Definição 8.2
Se um conjunto de estados de uma Cadeia de Markov é constituído por estados
comunicantes entre si então este conjunto constitui uma classe de equivalência, e satisfaz
as propriedades: reflexividade, simetria e transitividade.

Uma Cadeia de Markov pode ter uma ou mais classes de equivalência, e, embora não
possa haver comunicação entre estados de diferentes classes, é possível que estados em
uma classe possam ser acessados por estados de outra classe.

Definição 8.3
Se uma Cadeia de Markov tem todos os seus estados pertencentes a uma única classe de
equivalência, então ela é dita irredutível.

Nos três exemplos 8.3 a 8.5, somente a Cadeia de Markov do exemplo 8.3, tem todos os
seus estados pertencentes a um única classe de equivalência e assim ela é dita irredutível,
visto que todos os seus estados se comunicam.

Prof. Frederico Cavalcanti 388491661.doc 70


Processos Estocásticos Ence

A cadeia de Markov do exemplo 8.4 tem três classes, C1 , C 2 e C3 . Obviamente as classes


C 2 e C3 podem ser alcançadas pelos estados da classe C1 , mas não vice versa. Entretanto
as classes C 2 e C3 não se comunicam. A cadeia de Markov do exemplo 8.5 tem
características semelhantes às do exemplo 8.4.

Nos três exemplos estudados observamos quatro tipos de características de estados . No


exemplo 8.3 os cinco estados da cadeia são tais que, se o processo partir de um deles
quaisquer, a ele retornará com probabilidade 1 , em um número finito de etapas. O
mesmo não acontece com os estados 0, 1 e 2 do exemplo 8.4. Claramente existe uma
probabilidade do processo abandonar a sua classe e não mais retornar. Finalmente, os
estados 1,2,3,4 e 5 do exemplo 8.5 exibem a propriedade de que a partir de um estado
qualquer o processo somente retorno ao mesmo em um número par de etapas.

A classificação dos estados de uma Cadeia de Markov levando em conta classes de


equivalência trata do relacionamento externo dos estados (comunicação). Um outro tipo de
classificação considera a natureza interna , como veremos a seguir.

As definições que se seguem identificam os estados com respeito à característica acima


mencionada.

Definição 8.4 - Primeiro Retorno ao estado i

( n)
Representemos por f i,i a probabilidade de que o processo tendo partido do estado i em
alguma etapa (a etapa 0 , por exemplo) , retorne pela primeira vez ao estado i, em n
etapas.
Então, escrevemos,

f i,i( n ) = P { X1 �i; X 2 �i; X3 �i;...; X n -1 �i; X n = i / X 0 = i}

A probabilidade de que o processo tendo partido do estado i, a ele retorne em um número


finito de etapas é igual a


f i,i* = �f i,i( n ) (8.3)
n =1

Denotemos por mi o número médio de etapas requeridas para o primeiro retorno do


processo ao estado i, isto é,


mi = �n fi,i( n ) (8.4)
n =1

Prof. Frederico Cavalcanti 388491661.doc 71


Processos Estocásticos Ence
O número de etapas Ti , em que o processo retorna ao estado i pela primeira vez é chamado
tempo de recorrência ao estado i e mi é o tempo médio de recorrência ao estado i.

Definição 8.5
O estado i é chamado recorrente se e somente se, partindo de i, o eventual retorno a este
estado é certo.


( n)
Se i é um estado recorrente, f i,i = �f i,i = 1 e pode ser classificado como:
*

n =1

( n)
I - recorrente nulo, se o tempo médio de recorrência é infinito, ou seja: mi = �n fi,i = �.
n =1

II - recorrente positivo ou não nulo se o tempo médio de recorrência é finito, i.e., mi < �.

Definição 8.6
Um estado i é dito transiente se e somente se, partindo de i, existe uma probabilidade
positiva de que o processo não retorne aquele estado.

( n)
Se i é um estado transiente, obviamente que f i,i = �f i,i < 1 .
*

n =1

Um outro critério para classificar os estados como recorrente ou transiente é a partir das
( n)
probabiliddes Pi, j , ou seja, a probabilidade de que partindo de i o processo retorne - não
necessariamente pela primeira vez - aquele estado após n etapas.

Teorema 8.2
� �
O estado i é recorrente se �Pi,i( n ) = � e transiente se
n =0
�P(
n =0
n)
i,i < �.

Observações:
( 0)
a) Pi,i = 1

b) se �P(
n =0
n)
i,i < � � $ n 0 / n > n 0 , Pi,i( n ) = 0

A demonstração deste teorema está fora dos objetivos deste texto, mas o que se segue é
pertinente ao entendimento deste e de outros tópicos a serem estudados adiante.

Prof. Frederico Cavalcanti 388491661.doc 72


Processos Estocásticos Ence

Definição 8.7
Chama-se probabilidade de primeira passagem (ou visita) ao estado j, tendo o processo
( n)
partido do estado i, em n etapas, à função f i, j definida da seguinte forma:

f i,( nj ) = P { X1 �j ; X 2 �j; X 3 �j;...; X n = j/ X 0 = i}

( 1) ( 1) ( 0)
Em particular f i, j = Pi, j = Pi, j e ainda, se Pj, j = 1 , então:

Pi,( 2j ) = f i,( 1j) Pj,( 1j) + f i,( 2j ) Pj,( 0j )


Pi,( 3j ) = f i,( 1j) Pj,( 2j ) + f i,( 2j ) Pj,( 1j) + f i,( 3j ) Pj,( 0j )
Pi,( 4j ) = f i,( 1j) Pj,( 3j) + f i,( 2j ) Pj,( 2j ) + fi,( 3j ) Pj,( 1j) + fi,( 4j ) Pj,( 0j )
--------------------
--------------------
Pi,( nj ) = f i,( 1j) Pj,( nj -1) + fi,( 2j ) Pj,( nj -2 ) + fi,( 3j ) Pj,( nj -3) + ... + f i,( nj -1) Pj,( 1j) + fi,( nj ) Pj,( 0j )

Finalmente,
n
Pi,( nj ) = �fi,( rj ) Pj,( nj - r )
r =1
n -1
Pi,( nj ) = f i,( nj ) + �f ( ) Pj,( nj -r )
r
e i, j
r =1

sendo portanto,
n -1
f i,( nj ) = Pi,( nj ) - �f ( ) Pj,( nj -r )
r
i, j
r =1

( n)
A soma f i, j = �fi, j é a probabilidade de que o processo tendo partido do estado i, alcance
*

n =1
eventualmente o estado j em um número finito de etapas,

( n)
Se f i, j = 1 então f i, j é a distribuição de probabilidade do tempo Ti, j (número de etapas) de
*

primeira passagem pelo estado j, tendo o processo partido do estado i.


( n)
Assim sendo, mi, j = �nfi, j é o tempo médio de primeira passagem pelo estado j, tendo o
n =1

processo partido do estado i.

Prof. Frederico Cavalcanti 388491661.doc 73


Processos Estocásticos Ence
Um caso particular de relevante importância e já estudado na Definição 8.4, é quando
i = j , e, em conseqüência,

n
Pi,i( n ) = �fi,i( r ) Pi,i( n - r ) (8.5)
r =1

Somando-se para n = 0,1, 2,3,...

� � n

�Pi,i( n ) = Pi,i( 0) + ��fi,i( r ) Pi,i( n -r )


n =0 n =1 r =1

� �
( n) ( r)
n
( n -r ) �� ( r ) ��� ( n -r ) �

n =0
Pi,i = 1 + �n =1
f i,i � i,i
r =1
P = 1 + ��fi,i �
�r =1
��Pi,i �
��n - r =0 �
� � �
� ( r ) �� �
� Pi,i( n ) - �� fi,i ���Pi,i( n -r ) �= 1
n =0 �r =1 �� n -r =0 �

� � ( r) �
� Pi,i( n ) �1 - �fi,i �= 1
n =0 � r =1 �

Finalmente,

1
�P( n)
i,i = �
( r) ou

�P( n)
=
1
(8.6)
n =0
1 - �f i,i n =0
i,i
1 - fi,i*
r =1

O quadro comparativo abaixo reúne informações das Definições 8.5 e 8.6 e Teorema 8.2,

Fator Estado
Recorrente Transiente
f * 1 <1
i,i
� =� <�
�P(
n =0
n)
i,i

Teorema 8.3
Se i e j são estados comunicantes, ou seja, i � j , e se i é recorrente, então j é também
recorrente.

Prova:

Se i � j então existem n e m tais que,

Prof. Frederico Cavalcanti 388491661.doc 74


Processos Estocásticos Ence

Pi,( nj ) > 0 e Pi,( mj ) > 0


Consideremos que para s �0,
Pj,( nj +s + m ) �Pj,i( m ) Pi,i( s ) Pi,( nj )
Somando-se para n = 0,1,2,....
� �

�P(
s =0
n +s + m )
j, j �Pj,i( m ) Pi,( nj ) �Pi,i( s )
s=0

Se no entanto, i é recorrente, então �P(
n =0
n)
i,i = �, e portanto

�P(
s =0
n +s + m )
j, j =�

Observação:
Visto que todos os estados de uma classe de equivalência se comunicam, então ou são todos
recorrentes ou todos transientes, e assim podemos definir classe de estados recorrentes e
classe de estados transientes.

Definição 8.8
O estado i é chamado absorvente se e somente se Pi,i = 1

Obviamente que quando


Pi,i = 1 � fi,i( 1) = 1
Então,

f i,i* = �f i,i( n ) = f i,i( 1) + f i,i( 2 ) + fi,i( 3) + ...
n =0

f = 1 + 0 + 0 + ... = 1
*
i,i

De forma que,

mi = �nf i,i( n ) = 1
n =1
( n)
Como f i,i = 1 e mi = 1 < � concluímos que um estado absorvente é recorrente positivo
ou não nulo.

Definição 8.9
O período de um estado i é definido como o maior divisor comum de todos os inteiros
( n)
n �1 , para o qual Pi, j > 0. Quando o período de i é igual a 1 o estado i é dito aperiódico.

O teorema a seguir estabelece uma importante propriedade dos estados periódicos e

aperiódicos.

Prof. Frederico Cavalcanti 388491661.doc 75


Processos Estocásticos Ence

Teorema 8.4
Se o estado i tem período d i �1 , então existe um inteiro N tal que para todos os inteiros
n �N, Pi,( nd
j
i)
> 0.

Prova:
A prova deste teorema é baseada num Lema da Teoria dos Números que estabelece que se
n1 , n 2 ,..., n k são inteiros positivos com máximo divisor comum d, existe um inteiro positivo
N tal que para todo n �N podemos encontrar ci , inteiros não negativos satisfazendo a
relação:
k
nd = �ci n i . (8.7)
i =1
(n )
Considerando o estado i, sejam n1 , n 2 ,..., n k inteiros para os quais Pi,i r > 0 (r = 1, 2,..., k) e
seja d i o seu maior divisor comum.
Usando (8.7), temos:

( � cr n r )
Pi,i( ndi ) = Pi,i 1
k

Pi,i( ndi ) �Pi,i( n1 ) Pi,i( n 2 ) ,..., Pi,i( n k ) > 0

Teorema 8.5
Se i � j , então i e j tem o mesmo período.

Prova: Vide Narayan Bath - Chap. 4

Obs: o Teorema 8.5 estabelece que periodicidade é uma propriedade de classe de estados.
Assim, podemos definir uma classe de estados com certo período. Uma classe de estados
com período 1 é chamada de aperiódica.

Considerando uma Cadeia de Markov irredutível com estados aperiódicos o seguinte


teorema é estabelecido.

Como exercício de classificação de estados de uma Cadeia de Markov, voltamos aos


exemplos 8.3 a 8.5.

a) Exemplo 8.3 (Clientes na barbearia).

Prof. Frederico Cavalcanti 388491661.doc 76


Processos Estocásticos Ence
0, 20 0, 70 0, 07 0, 02
� 0, 01�

0, 20 0, 70 0, 07 0, 02 0, 01�
� �
P = �0 0, 20 0, 70 0, 07 0, 03�
� �
�0 0 0, 20 0, 70 0,10 �

�0 0 0 0, 20 0,80 �

Todos os estados da Cadeia são recorrentes, sendo a Cadeia Irredutível.

b) Exemplo 8.4 .
�0, 6 0,1 0 0,3 0 �

0, 2 0,5 0,1 0, 2 0 �
� �
P=�
0, 2 0, 2 0, 4 0,1 0,1�
� �
�0 0 0 1 0�

�0 0 0 0 1��

Os estados 3 e 4 são absorventes e os estados 0, 1 e 2 são transientes.

c) Exemplo 8.5 - Ruína do jogador.

�1 0 0 0 0 0 0 �
�0, 6 0 0, 4 0 0 0 0 �
� �
�0 0, 6 0 0, 4 0 0 0 �
� �
P = �0 0 0, 6 0 0, 4 0 0 �
�0 0 0 0, 6 0 0, 4 0 �
� �
�0 0 0 0 0, 6 0 0, 4�
�0 0 0 0 0 0 1 �
� �

Os estados 0 e 6 são absorventes e os estados 1,2,3,4 e 5 são transientes tendo período 2.

Grafo – Exercício 8.5

Prof. Frederico Cavalcanti 388491661.doc 77


Processos Estocásticos Ence

1 2 3 4 5

0 6

Exemplo 8.6
Classifique os estados da Cadeia de Markov cuja matriz de transição em um etapa é dada
por
�1 1 0 �
�2 2 �
P = �1 1 1 �
�2 4 4�
�0 1 2 �
� 3 3�
Essa Cadeia é irredutível, isto é, todos os estados se comunicam entre si e logicamente só
tem uma classe , que é recorrente, ou seja C = { 1, 2,3} .

Exemplo 8.7
Classifique os estados da Cadeia de Markov cuja matriz de transição em um etapa é dada
por
�1 1 0 0�
�2 2 �
�2 3 0 0�
P = �5 5 �
�1 1 1 1 �
�4 4 4 4�
�0 0 0 1 �
� �
Temos neste caso três classes de estados:
C1 = { 1, 2} � classe recorrente
C 2 = { 3} � classe transiente
C3 = { 4} � classe recorrente, estado absorvente

Prof. Frederico Cavalcanti 388491661.doc 78


Processos Estocásticos Ence

Exemplo 8.8
Classifique os estados da Cadeia de Markov cuja matriz de transição em um etapa é dada
por
�3 5 0 0 0 0�
�8 8 �
�1 3 0 0 0 0�
�4 4 �
�0 0 1 3 0 0 �
� 4 4 �
P=� �
1 5
�0 0
6 6
0 0 �
�1 1 1 1 �
�4 0 4
0
4 4�
� �
� 1 1 1 1 1 1 �
�6 6 6 6 6 6�

Três classes estão definidas:


C1 = { 1, 2} � classe recorrente
C 2 = { 3, 4} � classe recorrente
C3 = { 5, 6} � classe transiente

Definição 8.10

Dizemos que um estado i é ergódico se ele é um estado recorrente e aperiódico.

Definição 8.11
Uma Cadeia de Markov é dita ergódica se for possível atingir o estado j a partir do estado i
quaisquer que sejam os estados i e j considerados, sendo todos os estados recorrentes
positivos (ou não nulos) e aperiódicos.

Definição 8.12
Uma Cadeia de Markov é denominada Regular quando não possuir estados transientes,
havendo uma única classe ergódica.

Considerando uma Cadeia de Markov irredutível com estados aperiódicos o seguinte


teorema é estabelecido.

Teorema 8.6
Seja P a matriz de transição em uma etapa de uma Cadeia de Markov irredutível, aperiódica
e finita. Nestas condições existe um número N tal que para todo n �N , a matriz de
( n)
transição em n etapas, P n tem todos os seus elementos não nulos, ou seja Pi, j > 0.

Prof. Frederico Cavalcanti 388491661.doc 79


Processos Estocásticos Ence

Teorema 8.7
Em qualquer Cadeia de Markov finita, irredutível e aperiódica, com espaço de estados
E = { 0,1, 2,...,s} e matriz de transição P,
a) todos os limites p j = lim Pj( n ) existem.
n ��

b) p j = lim Pj( n ) = lim Pi,( nj ) independem da distribuição inicial Pj( 0) .


n �� n ��

c) o vetor p j = [ p0 p1 p 2 - - ps ] é o único vetor de probabilidade


estacionária do processo

Obs:
Isto implica que a matriz P n tende à uma matriz onde todas as linhas são iguais e idênticas
do vetor estacionário do processo. Assim, para determinar a distribuição limite faz-se:

p = pP

********
Exercícios 8

8.1 – Suponhamos que cada um de dois canais de televisão em um certa cidade


detenham 50% de audiência no início de cada ano. Suponha ainda que a cada final de
mês o canal 1 atraia 10% da audiência do canal 2 e este capture 20% da audiência
daquele. Qual a audiência de cada canal no fim do mês de fevereiro? E no final do
ano?

8.2 – Suponha que um leão possa migrar entre três reservas em busca de comida. As
reservas são denotadas por 1, 2 e 3 e, baseados em dados sobre os recursos de
alimento, pesquisadores concluíram que o padrão mensal de migração do leão pode
ser modelado por uma cadeira de Markov com matriz de transição em uma etapa
dada por:

 0,5 0, 2 0,3 
P =  0, 4 0, 2 0, 4 
 0, 6 0,3 0,1 
a) Sabendo-se que as etapas de deslocamentos são meses e que o leão é largado
inicialmente na reserva 2, acompanhe a sua localização provável ao longo de um
período de seis meses.

b) Esboce o grafo de comunicação dos estados e classifique-os.

Prof. Frederico Cavalcanti 388491661.doc 80


Processos Estocásticos Ence

8.3 – Um rato num experimento de laboratório pode escolher um entre dois tipos (I e
II) de comida a cada dia. Os registro mostram que se o rato escolhe o tipo I num certo
dia, então a chance de escolher o tipo I no dia seguinte é de 75%, e se escolhe o tipo II
num certo dia, então a chance de escolher o tipo II no dia seguinte é de 50%.

a) encontre a matriz de transição em uma etapa.


b) se hoje o rato escolhe o tipo I com qual probabilidade ele escolhe o tipo II daqui a
dois dias?
c) se hoje o rato escolhe o tipo II com qual probabilidade ele escolhe o tipo II daqui a
três dias?
d) se o tipo I tem uma chance de 10% de ser escolhido hoje, com qual probabilidade
ele também será escolhido amanhã?

e) Esboce o grafo de comunicação dos estados e classifique-os.

8.4 – Num certo instante de tempo inicial, havia 100.000 habitantes numa certa cidade
e 25.000 em seus arredores. A Comissão de Planejamento Regional detectou que , a
cada ano, 3% da população da cidade se transfere para os arredores e 3% da
população dos arredores muda para a cidade.
a) supondo que a população total permaneça constante, faça uma tabela mostrando a
população da cidade e dos arredores ao longo do período de 5 anos (arredonde os
valores para o inteiro mais próximo).
b) a longo prazo, qual será a distribuição da população entre a cidade e os arredores?
c) Esboce o grafo de comunicação dos estados e classifique-os.

8.5 – Uma locadora de automóveis possui três agências, numeradas por 1, 2 e 3. Um


cliente pode alugar um carro em qualquer uma das três agências e devolvê-lo a
qualquer uma das três agências. Os registros da locadora mostram que os carros são
retirados e devolvidos de acordo com as seguintes probabilidades:

�1 4 1 �
�10 5 10 �
P = �1 3 1 �
�5 10 2�
�3 1 1 �
�5 5 5�

a) se um carro for alugado na agência 1, com qual probabilidade ele será devolvido à
agência 1 depois de duas locações?
b) supondo que esse sistema possa ser modelado por uma cadeia de Markov,
determine a distribuição limite (vetor limite).
c) se a locadora possui um frota de 120 carros, qual deveria ser a quantidade de vagas
de estacionamento em cada agência para haver garantia razoável de suficiente espaço
para os carros a longo prazo? Explique seu raciocínio.

Prof. Frederico Cavalcanti 388491661.doc 81


Processos Estocásticos Ence
d) Esboce o grafo de comunição dos estados e classifique-os.

8.6 – Os traços físicos do ser humano são determinados pelos genes que um
descendente recebe de seus dois ascendentes. No caso mais simples, um traço no
descendente é determinado por um par de genes, um de cada um de seus ascendentes.
Em geral, cada gene num par pode tomar uma de duas formas, denotadas por A e a,
que são os alelos. Isso leva a três pareamentos possíveis:
AA, Aa e aa
denominados genótipos, sendo que os pares Aa e aA determinam o mesmo traço e são,
portanto, indistinguíveis. Mostra-se no estudo da hereditariedade que se um dos
ascendentes tem genótipo conhecido e o outro ascendente é de genótipo desconhecido,
ou seja aleatório, então o descendente terá a probabilidade de genótipo segundo a
tabela abaixo, que pode ser vista como uma matriz de transição de um processo de
Markov.

Genótipo de Descendente

1 1 0
 2 2 
Genótipo de Ascendente P=  1 1 1 
 4 2 4
0 1 1 
 2 2
Assim, por exemplo, o descendente de um ascendente de genótipo AA e de outro
escolhido aleatoriamente e de genótipo desconhecido, tem uma chance de 50% de ser
AA, 50% de de ser Aa e nenhuma de ser aa.
a) mostre que a matriz de transição é regular.
b) encontre o vetor limite e discuta sua interpretação física.
c) Esboce o grafo de comunicação dos estados e classifique-os.

8.7 – Considere a matriz de transição de uma Cadeira de Markov, conforme abaixo:


1 0 1 0 0 0 0 0 0 0 
 2 2 
0 1 0 0 0 0 2 0 0 0 
 3 3 
1 0 0 0 0 0 0 0 0 0 
 
0 0 0 0 1 0 0 0 0 0 
 
0 0 0 1 1 0 0 0 1 0 
3 3 3
P=
0 0 0 0 0 1 0 0 0 0 
 
0 0 0 0 0 0 1 0 3 0 
 4 4 
0 0 1 1 0 0 0 1 0 1 
 4 4 4 4
0 1 0 0 0 0 0 0 0 0 
 
0 1 0 0 1 0 0 0 0 1 
 3 3 3
Pede-se:

Prof. Frederico Cavalcanti 388491661.doc 82


Processos Estocásticos Ence
a) Faça o grafo de comunicação dos estados e também o das classes.
b) Classifique os estados.

8.8 -Dada a matriz de transição em uma abaixo, determine:


�0,3 0,5 0, 2 �
P=� �0, 6 0 0, 4 � �

� 0 0, 4 0, 6 �

a) a distribuição do processo na etapa 3, se o processo parte do estado 1.
b) a distribuição do processo na etapa 3, se a distribuição inicial é uniforme.
c) a distribuição limite do processo.
d) Esboce o grafo de comunição dos estados e classifique-os.

AVISO

O estudo de Cadeiras de Markov se desenvolve ainda por vários tópicos que serão
apresentados nesta Apostila em futuro próximo.

9 - O Processo de Poisson.

9.1 - Introdução

Os processos estocásticos regulados pela lei de Poisson se tornaram extremamente


importantes nas últimas décadas. Esta lei surge frequentemente nos campos da pesquisa
operacional, nos fenômenos físicos, na administração de negócios , na prestação de
serviços, etc....

Da mesma forma que a variável aleatória Binomial, que se identifica ao número de


eventos observados em n provas independentes de Bernoulli, a variável aleatória de Poisson
também se identifica ao número de eventos aleatórios observados, mas não em um número
finito de provas e sim num intervalo de tempo (ou em um espaço, ou um volume, ou num
espaço de mais de três dimensões, etc...). Para efeito de notação neste texto,
representaremos por E o evento em estudo nesta seção, ou seja , aquele que é regulado por
uma lei de Poisson.

Alguns exemplos tradicionais de fenômenos regulados pela Lei de Poisson são:

Prof. Frederico Cavalcanti 388491661.doc 83


Processos Estocásticos Ence
i) número de veiculos que cruzam um ponto P de uma rodovia no intervalo de tempo de 2
minutos.

ii) número de chamadas telefonicas que demandam a uma central telefônica no intervalo
de tempo de 1 minuto.

iii) número de erros em uma página de um livro.

iv) número de cllientes que chegam a um posto de atendimento previdenciário entre 9 e 10


horas de um determinado dia..

v) número de bactérias de um certo tipo encontradas em um litro de leite.

vi) número de acidentes rodoviários na estrada T , em um fim de semana.

A variável aleatória de Poisson (como a Binomial) é uma variável aleatória que “conta” o
número de ocorrências de eventos aleatórios E, em um intervalo de tempo ou em um
“espaço” de 2 ou mais dimensões. Se uma variável aleatória tem distribuição de Poisson
então ela assume os valores n = 0,1, 2,3,....

9.2 - A função de probabilidade.

Denotemos o processo de Poisson por { X t ; t �T} que se identifica ao número de eventos


aleatórios E que ocorrem no intervalo de tempo ( 0, t ] .

As condições básicas para que um processo seja modelado pela lei de Poisson são:

(1) As ocorrências de eventos E em intervalos de tempo exclusivos são independentes.

(2) A probabilidade de um evento E ocorrer num intervalo de tempo ( 0, Dt ] , onde


Dt � 0 , é aproximadamente proporcional à amplitude do intervalo, ou seja:
P { ocorrer um evento E no int ervalo ( 0, Dt ] } = lDt + o ( Dt ) , l > 0 .
(3) A probabilidade de ocorrer dois ou mais eventos E num intervalo de tempo ( 0, Dt ] é
desprezível.
P { ocorrer dois ou mais eventos E no int ervalo ( 0, Dt ] } = o ( Dt )

o ( Dt )
onde o ( Dt ) é um infinitésimo de maior ordem que Dt , isto é: lim =0.
Dt �0 Dt

Prof. Frederico Cavalcanti 388491661.doc 84


Processos Estocásticos Ence

Representemos a probabilidade P { X t = n} , do processo assumir o valor n num instante t,


por
Pn ( t )
e, evidentemente podemos escrever que:

P0 ( 0 ) = 1 (9.1)

Para n > 0, analisemos o evento “n eventos E no instante t + Dt ” no eixo dos tempos


representado na figura abaixo

Tal evento pode ser decomposto sob a forma da união de eventos mutuamente exclusivos,
ou seja

“ n eventos E no instante t” e “não ocorrer o evento E no ( 0, Dt ] ”

ou

“n-1 eventos E no instante t” e “ocorrer 1 evento E no intervalo ( 0, Dt ] ”

ou

“n-2 eventos E no instante t” e “ocorrer 2 eventos E no intervalo ( 0, Dt ] ”

ou
“n-2 eventos E no instante t” e “ocorrer 2 eventos E no intervalo ( 0, Dt ] ”

ou

e assim sucessivamente,

“ 1 evento E no instante t” e “ocorrer (n-1) eventos E no intervalo ( 0, Dt ] ”

ou

“ 0 evento E no instante t” e “ocorrer n eventos E no intervalo ( 0, Dt ] ”

Notemos que as duas primeiras interseções da união têm probabilidades não desprezíveis,
conforme a condição (2). As demais interseções tem probabilidades desprezíveis.

Assim,

Prof. Frederico Cavalcanti 388491661.doc 85


Processos Estocásticos Ence

Pn ( t + Dt ) = Pn ( t ) �
1 - lDt + o ( Dt ) �
� �+ Pn -1 ( t ) �
lDt + o ( Dt ) �
� �+ o ( Dt )
portanto,

Pn ( t + Dt ) = Pn ( t ) - Pn ( t ) lDt + Pn ( t ) o ( Dt ) + Pn -1 ( t ) lDt + Pn -1 ( t ) o ( Dt ) + o ( Dt )

Pn ( t + Dt ) - Pn ( t ) = - Pn ( t ) lDt + Pn -1 ( t ) lDt + �
Pn ( t ) + Pn -1 ( t ) + 1�
� �o ( Dt )

Dividindo-se por Dt , e fazendo-se Dt � 0 , obtemos,

Pn ( t + Dt ) - Pn ( t ) o ( Dt )
lim = -lPn ( t ) + lPn -1 ( t ) + �
Pn ( t ) + Pn -1 ( t ) + 1�
� �lim
Dt �0 Dt D t �0 Dt

e finalmente,
P 'n ( t ) = -lPn ( t ) + lPn -1 ( t ) (9.2)

A equação para n = 0, é obtida com mais facilidade, pois o evento “0 eventos E no


instante t + Dt ” ocorre se e somente se, ocorre o evento “0 no instante t” e “não ocorrer
E no intervalo ( 0, Dt ] ” , ou seja,
P0 ( t + Dt ) = P0 ( t ) �
1 - lDt + o ( Dt ) �
� �

Tomadas as mesmas providências anteriores teremos,

P '0 ( t ) = -lP0 ( t ) (9.3)

Os resultados (9.1), (9.2) e (9.3), formam o sistema de equações diferenciais abaixo, que
será resolvido por um método recursivo,

I) P '0 ( t ) = -lP0 ( t )
II) P 'n ( t ) = -lPn ( t ) + lPn -1 ( t ) , n > 0 (9.4)
III) P0 ( 0 ) = 1
De (I), tiramos,
P '0 ( t ) P '0 ( t )
= -l � �P ( t ) dt + c � lnP0 ( t ) = -lt + c
dt = -l �
P0 ( t ) 0

P0 ( t ) = e-lt ec

Considerando (III),

P0 ( 0 ) = 1 � 1 = ec � c = 0
E consequentemente,

Prof. Frederico Cavalcanti 388491661.doc 86


Processos Estocásticos Ence
P0 ( t ) = e -lt (9.5)

Para n > 0, consideremos a seguinte a função,

a) Q n ( t ) = e lt Pn ( t )
e b) Q 'n ( t ) = lelt Pn ( t ) + e lt P 'n ( t ) (9.6)

Fazendo-se n = 0 em (a) de (9.6), e usando (9.5), obtemos,

Q0 ( t ) = elt P0 ( t ) = elt e -lt = 1 � Q '0 ( t ) = 0 (9.7)

Substituindo-se (II) de (9.4) em (9.6b), obtemos,

Q 'n ( t ) = le lt Pn ( t ) + elt �
-lPn ( t ) + lPn -1 ( t ) �
� �
Q 'n ( t ) = le lt Pn ( t ) - lelt Pn ( t ) + lelt Pn -1 ( t )
Q 'n ( t ) = le lt Pn -1 ( t ) � Q 'n ( t ) = lQ n -1 ( t )

Um novo sistema de equações diferenciais está agora definido, ou seja,

Q '0 ( t ) = 0
(9.8)
Q 'n ( t ) = lQ n -1 ( t )

Com as seguintes condições iniciais,


Q0 ( 0 ) = P0 ( 0 ) = 1
(9.10)
Q n ( 0 ) = Pn ( 0 ) = 0 , n > 0

Resolvendo recursivamente as equações (9.8) com c sendo uma constante qualquer, e,


usando sucessivamente (9.10), obtemos,

se n = 0, Q0 ( t ) = 0 � Q0 ( t ) = c � c = 1 porque Q0 ( 0 ) = 1 � Q0 ( t ) = 1
'
i)

ii) se n = 1, Q '1 ( t ) = lQ0 ( t ) = l � Q1 ( t ) = lt + c � Q1 ( t ) = lt

l2t2 l2t 2
iii) se n = 2, Q '2 ( t ) = lQ1 ( t ) = l 2 t � Q2 ( t ) = +c � Q2 ( t ) =
2 2

l3 t 2 l3 t 3 l3 t 3
iv) se n = 3, Q '3 ( t ) = lQ2 ( t ) = � Q3 ( t ) = +c � Q3 ( t ) =
2 2 �3 6

Generalizando-se,

Prof. Frederico Cavalcanti 388491661.doc 87


Processos Estocásticos Ence

( lt ) + c � Q t = ( l t )
n n
l n t n -1
Q 'n ( t ) = � Qn ( t ) = n ( )
( n - 1) ! n! n!
Reportando a (A) em (9.6), finalmente chegamos a função de probabilidade de “n eventos E
no instante t”,
e -lt ( lt )
n

Pn ( t ) = , n = 0,1, 2,3,..... (9.11)


n!

Portanto, o número de eventos E que ocorrem num dado intervalo ( 0, t ] tem distribuição
de Poisson de parâmetro lt.

Uma solução alternativa para a resolução dos sistema de equações diferenciais (9.4),
utilizando a técnica das funções geratrizes pode ser estudado na Apêndice A.6.

9.3 - A distribuição de Poisson como aproximação da Binomial(n,p).

Seja X uma variável aleatória que se identifica ao número de ocorrências de um evento


aleatório E, observado no intervalo de tempo ( 0, t ] .Suponhamos que as seguintes condições
sejam satisfeitas:

1. A ocorrência de 2 ou mais eventos E durante um intervalo de tempo suficientemente


pequeno, digamos de amplitude Dt, é impossível e, portanto, somente 0 ou 1 eventos E
pode ocorrer naquele intervalo.

2. A probabilidade de ocorrer exatamente um evento E no intervalo de amplitude Dt é


proporcional à amplitude do intervalo, ou seja, é igual a lDt, onde l > 0.

3. Quaisquer intervalos mutuamente exclusivos de amplitude Dt são provas independentes


de Bernoulli.

Estas condições são resumidamente, as suposições básicas obedecidas por um fenômeno


regulado pela lei de probabilidades de Poisson, conforme (1), (2) e (3) de 9.2.

Imaginemos o intervalo ( 0, t ] particionado em n subintervalos de amplitude Dt, de tal


forma que nDt = t.

De acordo com as condições estabelecidas acima os n subintervalos constituem-se em n


provas independentes de Bernoulli, onde em cada prova, a probabilidade de sucesso -
ocorrência de E - é aproximadamente igual a p = lDt.

Supondo que esta probabilidade permaneça constante durante os n subintervalos, a


probabilidade de ocorrer k eventos E no intervalo [0,t) é:

n
P ( X = k ) =   ( lDt ) ( 1 - lDt )
k n -k
k = 0,1,2,3,....
k

Prof. Frederico Cavalcanti 388491661.doc 88


Processos Estocásticos Ence
k n -k
 n   lt   lt 
ou P ( X = k ) =    1 -  k = 0,1,2,3,....
 k  n   n

Calculemos agora o limite de P ( X = k ) quando n®µ ;

k n -k
 n   lt   lt 
lim P ( X = k ) = lim     1 -  k = 0,1,2,3,....
n ® k
n ®
  n   n
( lt ) n ( n - 1) ( n - 2 ) ... ( n - k + 1)
k n -k
 lt   lt 
= lim 1 -  lim  1 -  lim
k! n ®  n  n ®  n  n ® nk
( lt )
k
 1  2   k - 1 
= e -lt lim1. 1 -  1 -  .....  1 - 
k! n ®
 n  n   n 
e -lt ( lt )
k

lim P(X = x) = k = 0,1,2,3,...


n ® k!

Assim, para n suficientemente grande e consequentemente, p extremamente pequena, a


probabilidade de ocorrer k sucessos em n provas de Bernoulli, pode ser aproximadamente
calculada por:
e -lt ( lt )
k

lim P(X = x) = k = 0,1,2,3,... (9.12)


n ® k!

Obs:
t lt
Para usar a aproximação notemos que Dt = \lDt = = p � lt = np
n n

Exemplo 9.1
Suponha que o número de acidentes que ocorrem em uma determinada rodovia tenha
distribuição de Poisson de parâmetro l = 0,5 por dia. Calcule as seguintes probabilidades:
a) de ocorrer 3 acidentes em um período de 6 dias.
b) pelo menos dois acidentes no período de 4 dias.
c) não ocorrer acidentes no período de 1 dia.
d) não ocorrer acidentes em um período de 6 dias.
Solução:
a) X : n0 de acidentes em 6 dias é Poisson de parâmetro l6 = 3.
e -3 33
P ( X = 3) = = 0, 224
3!
b) X : n0 de acidentes em 4 dias é Poisson de parâmetro l4 = 2.
P(X  2) = 1 - P ( X = 0 ) - P(X = 1) = 1 - 3e -2 = 0,593
c) X : n0 de acidentes em 1 dia é Poisson de parâmetro l1 = 0,5.
e -0,5 ( 0,5 )
0

P ( X = 0) = = 0, 606
0!

Prof. Frederico Cavalcanti 388491661.doc 89


Processos Estocásticos Ence
d) X : n0 de acidentes em 6 dias é Poisson de parâmetro l6 = 3.
e -3 30
P(X = 0) = = 0, 049
0!
Obs: Esta última probabilidade poderia ser calculada de outra maneira. Se não ocorreu
acidentes em 6 dias então não ocorreu acidentes em cada um dos 6 dias consecutivos.
Sendo cada dia, uma prova de Bernoulli com probabilidade e -0,5 = 0, 606 de não ocorrer
acidente, então probabilidade de não ocorrer acidentes em seis dias (seis provas
independentes de Bernoulli) é igual a (e -0,5 ) 6 = (0, 606) 6 = 0, 049 .

Exemplo 9.2
Um professor universitário, baseado em experiências passadas, estima em 0,001 a
probabilidade dele chegar atrasado para uma aula. Sente também que o fato dele chegar
atrasado em uma aula não tem nenhuma influência sobre um eventual atraso em qualquer
outra aula.
O número de vezes que ele chegará atrasado nas próximas 100 aulas, é uma variável
aleatória Binomial de parâmetros n=100 e p=0,001. A probabilidade exata dele não chegar
atrasado nas próximas 100 aulas e a probabilidade exata dele chegar 1 dia atrasado, são
respectivamente iguais a:
�100 �
( 0, 001) ( 0,999 ) = ( 0,999 ) = 0,904792
0 100 100
P(X = 0) = � �
�0 �
�100 �
( 0, 001) ( 0,999 ) = ( 0,999 ) = 0, 09057
1 99 100
P(X = 1) = � �
�1 �
Observemos que neste caso n = 100 é suficientemente grande e p = 0,001 é extremamente
pequena, o que nos permite calcular tal probabilidade através da distribuição de Poisson de
parâmetro lt = np = 100(0,001):

( 0,1)
0
e -0,1
P(X = 0) = = 0,904837
0!
( 0,1)
1
e -0,1
P(X = 1) = = 0, 090484
1!
Como se pode observar as probabilidades calculadas através da distribuição Binomial e
Poisson são aproximadamente iguais, considerada a precisão de quatro casas decimais!

Exemplo 9.3
Suponha que a probabilidade que um item produzido por uma certa máquina seja
defeituoso é igual a 0,1(0,2). Encontre a probabilidade de que uma amostra de 10(20) itens
observada sob o esquema com reposição, contenha no máximo 1 item defeituoso.
Solução:
a) N = 10 e p = 0,1
 10  10 
P ( X £ 1) =   ( 0,10 ) ( 0,90 ) +   ( 0,10 ) ( 0,90 ) = 0, 7361
0 10 1 9

0 1
Se usarmos a aproximação pela distribuição de Poisson (1), obtemos:

Prof. Frederico Cavalcanti 388491661.doc 90


Processos Estocásticos Ence
e -110 e -111
P ( X £ 1) = + = 2e -1 = 0, 7357
0! 1!

b) N = 20 e p = 0,2
 20   20 
P ( X £ 1) =   ( 0, 20 ) ( 0,80 ) +   ( 0, 20 ) ( 0,80 ) = 0, 06918
0 20 1 19

0 1
Se usarmos a aproximação pela distribuição de Poisson (4), obtemos:
e -4 40 e -4 41
P ( X £ 1) = + = 5e -4 = 0, 09158
0! 1!

Obs:
O exercício acima oferece resultados que mostram o cuidado que se deve ter ao usar este
tipo de aproximação. Em ambos os casos, n não é suficientemente grande e p
suficientemente pequeno. Em (a) com n = 10 a aproximação é satisfatória, mas em (b) não.
O valor de p também tem igualmente influência no resultado. Um estudo de análise de
sensibilidade envolvendo n e p é válido para aprofundar a análise. Enfim, a decisão de usar
a aproximação depende portanto, não somente da teoria como também do bom senso do
estatístico.

9.4 - Tempo de espera pela primeira ocorrência de E.


Suponha então que um certo evento E seja regulado por um processo de Poisson (l) e
consideremos que a partir de um instante 0 mediremos o tempo T, para a primeira
ocorrência do evento E.

Teorema 9.1

Seja { X t ; t ��} o processo estocástico que se identifica ao número de eventos aleatórios


E, que ocorrem no intervalo de tempo ( 0, t ] . O tempo eventual T decorrido entre um
instante inicial 0 e a primeira ocorrência do evento E regulado por uma lei de Poisson (l),
tem distribuição exponencial de parâmetro l.
Prova:

Como T é uma variável aleatória não negativa, FT ( t ) = 0 se t < 0 .

Para t  0, o evento ( T > t) ocorre se, e somente se o evento E não ocorrer no intervalo
( 0, t ] , ou seja

e -lt ( lt )
0

P ( X = 0) = = P ( T > t ) = e -lt \1 - FT ( t ) = e -lt


0!

De forma que,

� 0 t<0
FT ( t ) = � -lt (9.13)
1- e
� t �0

Prof. Frederico Cavalcanti 388491661.doc 91


Processos Estocásticos Ence
e assim a variável aleatória T tem distribuição exponencial de parâmetro l .

Exemplo 9.4
Suponha que acidentes de trabalho em uma certa indústria, ocorram a uma taxa l = 0, 2
por semana de cinco dias úteis de trabalho, segundo uma lei de Poisson. Calcule a
probabilidade de
a) não ocorrer acidentes na primeira semana.
b) o primeiro acidente ocorra na quarta feira da primeira semana.
c) o primeiro acidente ocorra na segunda feira da segunda semana.
Solução:

a) P ( T > 1) = e
-0,21
= 0,818
Se os acidentes ocorrem a uma taxa de 0,2 por semana de cinco dias então a taxa diária de
1 1
acidentes é igual 0, 2  = .
5 25
3 2
- -
b) P ( 2 < T < 3 ) = 1 - e 25
-1 + e 25
= 0, 036
6 5
- -
c) P ( 5 < T < 6 ) = 1 - e 25
-1 + e 25
= 0, 032
Observemos que a probabilidade em (a) poderia ter sido calculada da forma
5
-
P(T > 5) = 1 - FT ( 5 ) = 1 - 1 + e 25
= e -0,2 = 0,818

Exemplo 9.5
Suponha que a duração de uma chamada telefônica em minutos, seja uma v.a. exponencial
de parâmetro l = 0,5 . Se você procura uma cabine telefônica pública e alguém chega
imediatamente na sua frente, calcule a probabilidade de você ter que esperar: a) mais do
que 10, 8, e 2 minutos; b) entre 10 e 15 minutos e c) menos do que 50 segundos.
Solução:
i) se l = 0,5
+�
dt = - ( e -0,5x �
+�
a) P ( T > 10 ) = �
-0,5x
0,5e
10� = 0, 0067
10
+�
0,5e -0,5x dt = - ( e -0,5x �
+�
P ( T > 8) = � � = 0, 0183 8
8
+�
dt = - ( e -0,5x �
+�
P ( T > 2) = �
0,5e -0,5x
� = 0,3679
2
2
15
0,5e -0,5x dt = - ( e -0,5x �
b) P ( 10 < T < 15 ) = �
15
�10 = 0, 00619
10
5/6

c) P ( T < 5 / 6 ) = dt = - ( e -0,5x �
5/ 6

-0,5x
0,5e � = 0, 659
0
0

Definição 9.1 (Propriedade Sem Memória)

Prof. Frederico Cavalcanti 388491661.doc 92


Processos Estocásticos Ence

Dizemos que uma variável aleatória X, não negativa, tem distribuição sem memória se para
dois reais positivos x e y a seguinte relação for satisfeita

P ( X > x + y / X > x) = P ( X > y) (9.14)

Teorema 9.2
As únicas variáveis aleatórias do tipo contínuo, não negativas, que possuem distribuição
sem memória são as variáveis aleatórias exponenciais.

Prova:
1 - Se X tem distribuição exponencial  X tem distribuição sem memória.
A relação definida em da Definição 9.14 pode ser desenvolvida da seguinte forma
P ( X > x + y / X > x) = P ( X > y)
P ( X > x + y )  ( X > x ) 
= P ( X > y)
P( X > x)
P ( X > x + y)
= P ( X > y)
P( X > x)
Por outro lado, para x  0, F ( x ) = 1 - e  P ( X > x ) = e . Aplicando-se este resultado
-lx -lx

na relação acima, obtemos


e ( )
-l x + y
= e - ly = 1 - ( 1 - e -ly ) = 1 - F ( y ) = P ( X > y )
e -lx
E assim provamos que se X é exponencial então X é sem memória.

2 - Se X tem distribuição sem memória  X tem distribuição exponencial.

Vamos agora partir da relação que define X sem memória, e provar então que X é
exponencial
P ( X > x + y) = P ( X > x ) P ( X > y)
1- F( x + y) = �
�1 - F ( x ) ��
��1 - F ( y ) �

1- F( x + y) = 1- F ( y) - F ( x ) + F ( x ) F( y)
F ( x + y) = F( y) + F( x ) - F ( x ) F ( y)

F( x + y) - F( x ) = F( y) �
�1 - F ( x ) �
� (9.15)

Prof. Frederico Cavalcanti 388491661.doc 93


Processos Estocásticos Ence

Se X é uma v.a. do tipo contínuo e não negativa, F ( 0 ) = 0 , pois


F ( 0) = P ( X £ 0) = P ( X < 0) + P ( X = 0) = 0

Se dividirmos a relação equação (9.15), por y e fizermos y � 0 , obtemos

F( x + y) - F( x ) F ( 0 + y) - F ( 0)
lim = 1 - F ( x )  lim
y ®0 y y®0 y

Do lado esquerdo da igualdade temos a derivada da função F(x), e, o limite no lado direito
é a derivada de F(x) no ponto x = 0, que é uma constante qualquer, que representaremos por
l.
F�( x )
F�( x ) = l �
�1 - F ( x ) �
� 1- F x = l
\
( )
Para resolver a equação integramos ambos os membros da igualdade em relação a x, e
obtemos

F ( x )
 1 - F ( x ) dx + c =  ldx + c
1 2

- ln 1 - F ( x )  = lx + ( c 2 - c1 )
ln 1 - F ( x )  = -lx - ( c 2 - c1 )

As constantes c1 e c 2 são quaisquer e podemos substituir - ( c 2 - c1 ) por qualquer


constante, por exemplo, ln c, e assim temos

ln 1 - F ( x )  = -lx + ln c
1 - F ( x ) = ce -lx
F ( x ) = 1 - ce -lx

No entanto sabemos que F(0) = 0, e, com esta informação, podemos calcular o valor da
constante c
F ( 0 ) = 0 \ 0 = 1 - ce -l0 \ c = 1

Finalmente chegamos a função de distribuição de X, F ( x ) = 1 - e , para x �0 , que é a


-lx

função de distribuição de uma variável aleatória exponencial (l) para x � 0 .

Nota:
O significado da propriedade pode ser melhor entendido com o seguinte exemplo.
Suponha que a vida de uma lâmpada seja uma variável aleatória com distribuição
exponencial (l), e consideremos os reais x = 3 e y = 5.

Prof. Frederico Cavalcanti 388491661.doc 94


Processos Estocásticos Ence

Então P ( X > 3 + 5 / X > 3) = P ( X > 5 ) . Isto quer dizer que a probabilidade da lâmpada
permanecer acesa por mais 5 horas dado que já está acesa há 3 horas é igual a
probabilidade dela permanecer acesa por mais do que 5 horas a partir do instante inicial de
teste. Isto implica que o “envelhecimento” da lâmpada não influi no cálculo da
probabilidade dela se queimar num dado intervalo de tempo e isto justifica o termo sem
memória.

9.5 - Tempo de espera pela n-ésima ocorrência de E.

Seja Tr o tempo decorrido entre um instante inicial 0 e a r-ésima ( r � 1) ocorrência do


evento E, regulado por uma Lei de Poisson.

Teorema 9.3
A partir de um instante t = 0 , o tempo de espera Tr pela r-ésima ocorrência do evento E,
regulado por uma Lei de Poisson de parâmetro l tem distribuição Gama de parâmetros
l e r.
Prova:
Sendo Tr uma variável aleatória não negativa, FTr ( t ) = 0, se t < 0.
Se t  0, o evento ( Tr > t ) é equivalente ao evento “ocorrer menos do que r eventos E no
intervalo de tempo ( 0, t ] , cuja probabilidade é igual a P ( X £ r - 1) , onde X é uma v.a. de
Poisson(lt), de forma que

( lt )
k
r -1
P ( Tr > t ) = P ( X £ r - 1) =  e -lt (9.15)
k =0 k!

Sendo assim, a função de distribuição de Tr , o tempo da r-ésima ocorrência de E é igual a

( lt )
k
r -1
FT ( t ) = P ( Tr £ t ) = 1 -  e-lt (9.16)
r k =0 k!

Para obtermos a função de densidade de Tr , fazemos f Tr ( t ) = FTr ( t ) , isto é:


'

Prof. Frederico Cavalcanti 388491661.doc 95


Processos Estocásticos Ence
r -1
lk  r -1 l k k r -1 l k -1 k -1 
-lt 
f Tr ( t ) = - { kt k -1 -lt
e - l t k -lt
e } = l e  t -  t 
k = 0 k!  k =0 k! k =1 ( k - 1) ! 

Fazendo-se j = k-1 no último somatório, temos:

 r -1 l k k r -2 l j j  l r -1 r -1
f Tr ( t ) = le  t -  t  = le
-lt -lt
t
 k =0 k! j= 0 j!  ( r - 1) !

l r r -1 -lt
f Tr ( t ) = t e , t>0 (9.17)
G( r)

A variável Tr tem distribuição Gama, e, quando obtida através do Processo de Poisson,


representando o tempo eventual de espera para a r-ésima ocorrência do evento E, é muitas
vezes chamada variável aleatória de Erlang de parâmetros l e r.

Exemplo 9.6
O número de chamadas que demandam a uma mesa telefônica tem distribuição de Poisson
a uma taxa de 120 por hora durante o período de 9:00 às 12:00 horas. Seja T10 o instante
(em minutos) no qual a décima chamada é recebida a partir das 9:00 horas.
De acordo com a teoria exposta,
120
a) T10 tem distribuição Erlang de parâmetros l = = 2 e r = 10.
60
10
b) E ( T10 ) = = 5. Logo, a décima chamada é esperada às 9:05 horas.
2
c) A probabilidade da 10a chamada ocorrer antes das 9:05 horas é igual a
( 10 ) e-10
k
9
P ( T10 < 5 ) = 1 -  = 0,542
k =0 k!
d) A probabilidade da 10a chamada ocorrer entre 9:05 e 9:07 horas é igual a
 ( 14 ) e  - 1 - ( 10 ) e 
k -14 k -10
9 9
P ( 5 < T10 < 7 ) = 1 - 
  
= 0,349
 k =0 k! k! 
   k =0 

Exemplo 9.7 (PARZEN, Chap. 6, Sec. 4, Example 4b)


Suponha que um bebê chora em instantes aleatórios a uma taxa de seis distintos instantes
por hora. Se seus parentes o atendem somente na segunda vez que ele chora, qual a
probabilidade de que 10 ou mais minutos se passem entre dois atendimentos dos parentes
do bebê?
Solução:

Prof. Frederico Cavalcanti 388491661.doc 96


Processos Estocásticos Ence
Supondo que o números de vezes que o bebê chora durante o espaço de tempo de 1 hora
seja uma variável aleatória de Poisson de parâmetro l = 6 , segundo o Teorema 9.3, o
tempo T em horas entre dois atendimentos ao bebê é uma variável aleatória Gama ( 6, 2 ) e
em conseqüência,

(
P T�1
6 ) = �
36te
1
-6t
dt = 2e -1
6

Se os parentes atendem o bebê no terceiro choro, a variável aleatória T é Gama ( 6,3) e,


(
P T� 1
6 )=�
108 t e
1
2 -6t
dt =
5 -1
2
e
6

Tais probabilidades podem ser calculadas por (9.5), fazendo-se l = 6 e t = 1 6 , de tal


forma que lt = 1 e,

( )
1
1
P T2 > 1 = P ( X � 2 - 1) = � e -1 = 2e -1
6 k = 0 k!

( ) e-1 5 -1
2
1
P T3 > 1 = P ( X �3 - 1) = � e -1 = e -1 + e -1 + = e
6 k = 0 k! 2 2

Generalizando-se, se os parentes atendem o bebê no r-ésimo choro,

� 1� r -1
1 � 1 1 1 �
Tr > �= P ( X �r - 1) = � e -1 = e -1 �
P� 1 + + + ... + �
� 6� k = 0 k! � 1! 2! ( r - 1) !�

As leis de probabilidades exponencial e gama tem uma gama variada de aplicações na


teoria aplicada do cálculo das probabilidades. Além de regular tempos de espera como no
exemplo 9.7, estas leis também são modelos para fenômenos como: o tempo de vida de
uma dispositivo eletrônico, intervalos de tempos entre acidentes, intervalos de tempo entre
defeitos num sistema eletrônico, e assim por diante

Exercícios 9

9.1 - Um digitadora comete em média, três erros por página digitada. Supondo que os
erros de digitação por página, sejam regulados por uma Lei de Poisson, pede-se:
a) qual a probabilidade de que menos que dois erros sejam cometidos por página.
b) qual a probabilidade de que não sejam encontrados erros em 3 páginas escolhidas ao
acaso e independentemente uma das outras?

Prof. Frederico Cavalcanti 388491661.doc 97


Processos Estocásticos Ence
9.2 - O número de clientes que demandam a uma agência postal durante o intervalo de
tempo de 1 hora tem distribuição de Poisson de parâmetro l = 10 . Qual a probabilidade de
9 ou 10 clientes chegarem à agência entre 9 e 10 horas de um determinado dia?

9.3 - È conhecido que um certo tipo de bactéria é encontrada na água, a uma taxa de 2
bactérias por centímetro cúbico de água. Supondo que este fenômeno seja regulado por uma
lei de Poisson, qual a probabilidade de serem encontradas em 2 ( cm ) de água:
3

a) nenhuma bactéria.
b) 2 ou mais bactérias.
c) 5 bactérias.

9.4 - W.A Wallis escreveu o artigo “The Poisson Distribution and the Supreme Court”,
Journal of the American Statistical Association, Vol. 31 (1936, pp. 376-380) , relatando que
as vacâncias por morte ou renúncia, na Suprema Corte do Estados Unidos aconteceram
durante 96 anos (1837 a 1932), segundo o quadro abaixo:

k 0 1 2 3 >3
Nk 59 27 9 1 0

Supondo que as vacâncias na Corte seguem uma lei de Poisson, qual a probabilidade de
que:
a) no seu mandato de 4 anos, o próximo Presidente da Corte não faça nenhuma nomeação?
b) haja necessidade de alguma nomeação durante o período de 1 ano?
c) Realize um teste estatístico para testar a hipótese de que os dados tem origem em uma
distribuição de Poisson.

9.5 - FELLER W. (Chap 6, sec. 7, exemplo e)


A figura abaixo mostra a distribuição de bactérias em uma amostra de sangue na imagem
fotográfica de uma placa de Petri.

Prof. Frederico Cavalcanti 388491661.doc 98


Processos Estocásticos Ence
A placa dividida em pequenos “quadrados” mostra o número observado de quadrados com
exatamente k incidências. Tal experiência foi realizada 8 vezes com diferentes tipos de
bactérias. Os dados de uma das 8 experiências são descritos na tabela abaixo:

k 0 1 2 3 4 5 6 >7
Nk 5 19 26 26 21 13 8 0

Supondo que a distribuição das bactérias segue a lei de Poisson, pede-se:


a) uma estimativa do número médio de quadrados com k incidências.
b) a probabilidade de ocorrerem mais do que 2 incidências em um quadrado.
c) aplique um teste de aderência aos dados, para testar a suposição de que a lei de Poisson
está presente.
Obs: Sobre modelos de Poisson espaciais vide Feller W. Chap 6, sec. 7, exemplos a, b , c e
d e apresentação do exemplo c em Probabilidades e Variáveis Aleatórias , Magalhães M.
N.. exemplo 2.20 (pág. 89)

9.6 - Numa indústria têxtil o número de defeitos por cada 10 metros de um rolo de tecido é
uma variável aleatória de Poisson de parâmetro l = 0, 25. Calcule a probabilidade de que
20 metros de tecido:
a) não apresente defeitos.
b) apresente no mínimo 2 defeitos.

9.7 - O número mensal de “breakdowns” de um computador é regulado por uma lei de


Poisson de parâmetro l = 1,8 . Determine a probabilidade de ocorrer:
a) um breakdown em um trimestre.
b) não ocorrer breakdown em um semestre.
c) a partir do 1º dia de uso, qual a probabilidade que não haja “breakdown” durante 15
dias?
d) Qual a probabilidade de que o segundo “breakdown” ocorra antes do centésimo dia?

9.8 - Numa certa cidade 4% de todos os motoristas licenciados foram envolvidos em pelo
menos um acidente de carro num dado ano. Use a aproximação da variável aleatória
Binomial pela distribuição de Poisson para determinar a probabilidade de que entre 150
motoristas licenciados e escolhidos alatoriamente nesta cidade:
a) somente cinco foram envolvidos em pelo menos um acidente de carro no dado ano.
b) ao menos três foram envolvidos em pelo menos um acidente de carro no dado ano.

9.9 - Os operários de uma fábrica sofrem acidentes de trabalho a uma taxa de 2 ocorrências
por semana. Qual a probabilidade de ocorrerem no máximo 2 acidentes durante:
a) uma semana
b) duas semanas
c) qual a probabilidade ocorrerem no máximo 2 acidentes por cada uma de 2 semanas?

9.10 - Considere um aparelho de radar de certo tipo, cuja lei de falhas é exponencial. Se a
taxa de falhas deste radar é da ordem de l = 1 por 1000 horas, determine o intervalo de

Prof. Frederico Cavalcanti 388491661.doc 99


Processos Estocásticos Ence
tempo t tal que a probabilidade de que o radar opere satisfatoriamente durante este intervalo
seja igual a 0,99.

9.11 – Clientes demandam a uma locadora de vídeo segundo um processo de Poisson a uma
taxa de 1 cliente por minuto. Qual a probabilidade de que 5 ou mais minutos transcorram
desde que chegou:
a) o último cliente
b) o penultimo cliente

9.12 - Suponha que um equipamento eletrônico digital opere 24 horas por dia, sofrendo
paralisações (breakdown) a uma taxa de 0,25 por hora. Se o equipametno funcionou
durante entre 9 e 11 horas, qual a probabilidade de não haver paralização entre 11 e 13
horas?

9.13 - Um sorveteria atende clientes que chegam a uma taxa de 30 pessoas por hora. Que
fração dos intervalos de tempo entre sucessivas chegadas são:
a) maiores do que 2 minutos.
b) menores do que 4 minutos.
c) valores entre 1 e 3 minutos?

Respostas:
(1) 0,19915 0,85795 (8) 0,16062 0,9380
(2) 0,2502 (9) 0,6766 0,23811 0,4578
(3) 0,01832 0,90842 0,15629 (10) t = 10
(4) 0,1354 0,39347 (11) 0,00674 0,04043
(6) 0,60653 0,09021 (12) 0,6065
(7) 0,02439 0,00002 0,40657 0,98265 (13) 0,3678 0,8646 0,3834

10. Processo de Nascimento Puro.

No processo de Poisson estudado na seção anterior o parâmetro l permanece constante ao


longo do tempo. Em outras aplicações como por exemplo em estudos sobre crescimento
populacional a taxa de ocorrência pode ser uma função do tempo. Se o parâmentro l
depende de n, consideremos o processo obedecendo as seguintes condições:

i) suponha que E tenha ocorrido n vezes no intervalo ( 0, t ] .


ii) a ocorrência ou não de E no intervalo ( t , t + Dt ] , onde Dt � 0 , é independente do
instante da última ocorrência de E, ou seja, independe das ocorrências de E no intervalo
( 0, t ] .

Prof. Frederico Cavalcanti 388491661.doc 100


Processos Estocásticos Ence
Em adição, as probabilidades de ocorrências do evento E tem as seguintes características:

(1) P { de E ocorrer 1 vez em ( 0, t ] } = lDt + o ( Dt )

(2) P { de E não ocorrer em ( 0, t ] } =1 - lDt + o ( Dt )

(3) P { de E ocorrer mais que 1 vez em ( 0, t ] } = o ( Dt )


Adotando raciocínio análogo ao passos (9.1) a (9.4) da construção da função Pn ( t )
definida para o Processo de Poisson , e, considerando no entanto, que l = l n , temos que:
P '0 ( t ) = -l 0 P0 ( t )

P 'n ( t ) = -l n Pn ( t ) + l n -1Pn -1 ( t ) , n > 0 (10.1)


Com as condições iniciais,
P0 ( 0 ) = 1
(10.2)
Pn ( 0 ) = 0 , n > 0
A solução das equações (10.1) pode ser vista em C.L.Chiang (Chap 8, Sec. 3) e segue
abaixo:
n
Pn ( t ) = �A (nk ) e -l k t (10.3)
k =0

onde
l 0 l1l 2 .....l n -1
A (nk ) = (10.4)
( l 0 - l k ) ( l1 - l k ) ... ( l k -1 - l k ) ( l k +1 - l k ) ... ( l n - l k )

10.1 – Caso Especial - Processo de Yule.

Quando a taxa de ocorrência é proporcional ao número de ocorrências n, temos que


l n = nl , e a equação (10.1) toma a forma,

Pn' ( t ) = -nl P ( t ) + ( n - 1) l Pn -1 ( t ) , n>0 (10.5)

Supondo que
P1 ( 0 ) = 1
Pi ( 0 ) = 0, i > 0
A solução (10.3) se torna,

n
Pn ( t ) = �A (nk ) e - k l t (10.6)
k =1
com
1.2.3....(n - 1)
A (nk ) =
( 1 - k ) ( 2 - k ) ... ( k - 2 - k ) ( k - 1 - k ) ( k + 1 - k ) ( k + 2 - k ) ... ( n - k )
Prof. Frederico Cavalcanti 388491661.doc 101
Processos Estocásticos Ence

( n - 1) ! ( -1) = -1 k -1 n -1
k -1
( k)
An = ( ) ( k -1 )
( k - 1) ! ( n - k ) !
Aplicando-se o resultado em (10.6), obtemos,

n
Pn ( t ) = �( -1)
k -1
( )en -1
k -1
-k l t

k =1

ou
n n
( ) e- k l t == e-lt �( nk --11 ) ( -e-lt )
k -1
Pn ( t ) = �( -1)
k -1 n -1
k -1 1n - k
k =1 k =1
Finalmente,
Pn ( t ) = e -lt ( 1 - e -lt )
n -1
, n = 1, 2,3,....

Neste ponto, estaremos interrompendo o estudo dos Processos de Nascimento e Morte.

Os alunos interessados deverão procurar a continuação desta seção da Apostila a

partir de março/2007.

10. Elementos de Teoria das Filas

10.1 - Introdução
As filas de espera são fenômenos familiares que observamos freqüentemente em nossas
atividades cotidianas. Tais fenômenos se apresentam em numerosos problemas industriais,
comerciais, sociais, militares, etc...

As características principais de um fenômeno de espera são, de um modo geral:

a) a chegada de "UNIDADES" - muitas vêzes chamadas de "ELEMENTOS",


"CLIENTES", etc... - a intervalos de tempo regulares ou irregulares, a um determinado
local chamado de "CENTRO DE SERVIÇO".

b) a existência de um ou mais "POSTOS DE SERVIÇO" reunidos no Centro de Serviço.


As unidades eventualmente esperarão que um dos postos -algumas vêzes chamados de
"PONTOS", "ESTAÇÕES", "GUICHETS", etc... - esteja disponível para serem atendidas.
Os intervalos de tempo de serviço (ou tempo de atendimento) podem ser regulares ou
irregulares.

10.2 - Exemplos de situações possíveis de filas de espera.

Unidades Natureza do Serviço Estações de Serviço

Clientes Recebimento/Pagamento Caixas de Banco

Prof. Frederico Cavalcanti 388491661.doc 102


Processos Estocásticos Ence
Barcos Carga/Descarga Porto
Aviões Aterrizagem/Decolagem Pistas
Telefonemas Conversação Circuitos, linhas, etc...
Automóveis Pagto. de Pedágio Posto de pedágio
Máquinas Conserto Mecânicos
Produto Fabricação Máquina
Automóveis Estacionamento Vagas

Ao ambiente constituído pelas unidades , postos de serviço, demanda de serviço, estrutura


de atendimento, etc.... denominaremos de "SISTEMA DE ESPERA".

10.3 - Estrutura Básica de um Sistema de Espera

Para que uma fila se forme basta que as entradas (chegadas de unidades) e/ou saídas
(término do atendimento a uma unidade) se produzam a intervalos de tempo irregulares.
Uma fila pode também se manifestar se o fluxo médio de entradas for superior à capacidade
de atendimento (fluxo médio de saídas), e, neste caso, a fila aumentará indefinidamente a
menos que o número possível de unidades seja limitado ou que a fila seja bloqueada ao
atingir certa magnitude.
Um sistema de espera estará completamente especificado quando as seguintes
características forem definidas:

10.3.1 - O Processo das Entradas

O processo das entradas de unidades a um sistema de espera é freqüentemente medido em


termos do número médio de entradas de unidades em um intervalo de tempo fixado, ou pelo
intervalo de tempo médio decorrido entre duas entradas consecutivas. Visto que estas
medidas são relacionadas, uma ou outra é citada na descrição das "entradas"'. Se o processo
de entradas é determinístico (número de entradas num intervalo de tempo é constante),
então aquelas medidas especificam completamente o fenômeno. Em caso contrário são
apenas medidas de tendência central , sendo necessário portanto, a consideração de uma lei
de probabilidade que regule as entradas.

É também conveniente conhecer as reações das unidades (clientes). Elas podem entrar no
sistema não se importando com o tamanho da fila, ou simplesmente não entrar. Por outro
lado, um cliente pode, após um longo tempo de demora, abandonar a fila. No caso em que
existem mais do que um posto de serviço, o cliente pode estratégicamente trocar de posição
Prof. Frederico Cavalcanti 388491661.doc 103
Processos Estocásticos Ence
para uma fila mais conveniente. As situações citadas são casos de sistema de espera com
clientes "impacientes".

Um outro fator importante é o comportamento dos processos estocásticos que regulam as


entradas e/ou saídas de unidades. Se suas características permanecem inalteradas ao longo
do tempo, o processo é dito estacionário, e, em caso contrário, não estacionário.

10.3.2 - O Processo das Saídas

Igualmente ao processo das entradas, costuma-se definir uma taxa (número médio de
clientes atendidos em um intervalo de tempo) ou uma medida de tempo representada pelo
intervalo de tempo decorrido entre duas saídas. Estas medidas podem ser determinísticas ou
probabilísticas. Embora seja comum entender o processo das saídas como análogo ao das
entradas deve-se atentar para o detalhe de que as funções de probabilidades envolvidas nos
processos de atendimento são condicionadas ao evento "o sistema não está vazio", ou seja,
existe pelo menos uma unidade no sistema sendo atendida ou não.

10.3.3 - A Disciplina da Fila

Consiste na maneira pela qual os "clientes" são selecionados para o atendimento quando a
fila é formada. A mais comum disciplina é conhecida por FIFO ( First In, First Out) . Uma
outra bem conhecida é a LIFO (Last In, Last Out), em geral , aplicada em processos de
estocagem. Quando a seleção é feita aleatória e independentemente da ordem de chegada,
define-se a disciplina SIRO (Select Independent Random Order).

10.3.4 - Capacidade do Sistema

Em alguns sistemas de espera há limitações quanto ao tamanho da área de espera, ou de


outra forma, o tamanho da fila é limitado, de tal forma que uma vez saturado qualquer
unidade após isto é recusada.

10.3.5 - Número de Postos de Serviço

O mais simples e frequente é o caso de uma única fila e um posto de serviço. No caso de
mais de um posto , duas hipóteses são viáveis: uma fila para cada posto, conforme figura 1,
ou fila única para os vários postos, conforme figura 2.

Figura 1 Figura 2

��

  .....    �
oooo...... oo�
��
  .....    �
��

Prof. Frederico Cavalcanti 388491661.doc 104


Processos Estocásticos Ence
10.3.6 - Estágios de Serviços

Um sistema de espera pode ter apenas um estágio de serviço, tal como uma barbearia ou
um supermercado, ou pode comportar vários estágios. Um exemplo usual seria o
procedimento para oferecer um exame médico completo: ficha de inscrição, biometria,
cardiologia, oftalmologia, etc... (vide Figura 3).

Figura 3

...     ...     ...  

10.3.7 - Objetivos do Estudo de um Sistema de Espera.

O analista de um sistema de espera deve em princípio, pretender que o sistema ofereça um


atendimento rápido, a um custo mínimo. Os seguintes elementos da teoria estão disponíveis
ao estatístico ou pesquisador:

a) Tamanho da Fila no instante t

Número de unidades que aguardam atendimento em um determinado instante t

b) Estado do Sistema no instante t

Número de unidades que se encontram no sistema em um instante t, sendo atendidas ou


não.

c) Tempo de Espera no Sistema

Tempo eventual que decorre entre a chegada da unidade


e o término de seu atendimento.

d) Tempo de Espera na Fila


Tempo eventual que decorre entre a chegada da unidade e o início de seu atendimento.

e) Ociosidade de um Posto de Serviço

Tempo eventual decorrido entre o término do serviço à última unidade do sistema e o


início do atendimento da próxima unidade que chegar ao sistema.

Prof. Frederico Cavalcanti 388491661.doc 105


Processos Estocásticos Ence

10.4 - Modelos Usuais empregados nos processos de Entrada e/ou Saída

a) Determinístico - o tempo que decorre entre duas chegadas e/ou saídas é uma constante.

b) Poissoniano - o número de chegadas e/ou saídas em um determinado intervalo de tempo


obedecem a um processo de Poisson.

c) Erlang(k) - as chegadas e/ou saídas são reguladas por um distribuição de Erlang de


parâmetro k, que corresponde a uma Gama(ak;k).

d) Geral - a distribuição das chegadas e/ou saídas é qualquer.

10.5 - Nomenclatura tradicional usada para representar Sistema de Espera

Devido à Kendall, é baseada no conjunto de 5 símbolos da forma A/B/S/N/D, onde:

A - processo das entradas


B - processo das saídas
S - número de postos de serviço
N - tamanho da população de usuários
D - disciplina da fila

Obs: As convenções usadas para A e B são:


D - Determinístico
M - Poissoniano
Ek- Erlang(k)
G - Geral
GI- Geral Independentes

Exemplos:

1. M/M/1/µ/FIFO - Sistema onde as entradas e saídas são reguladas por uma lei de
Poisson, 1 posto de serviço, população infinita, disciplina FIFO.

2. M/M/S/µ/FIFO - Sistema Poissoniano, S postos de serviço, população infinita,


disciplina FIFO.

3.D/M/1/100/FIFO - Sistema com entradas determinísticas, saídas Poissonianas, 1 posto de


serviço, população: 100 unidades, disciplina FIFO.

Prof. Frederico Cavalcanti 388491661.doc 106


Processos Estocásticos Ence

10.6 - Estudo Estatístico das Entradas e/ou das Saídas

Imaginemos que num sistema de espera, as entradas são aleatórias. Saber apenas isto não é
suficiente. É preciso conhecer estatísticamente o fenômeno e obter através de um
levantamento real, uma lei de probabilidade e as estimativas de seus respectivos
parâmetros.

Suponhamos que a experiência E, realizada 100 vezes, resultou na tabela abaixo:

E : "observação do número de clientes que chegam a um caixa de um


Banco durante o intervalo de tempo de um minuto"

m fm
0 0
1 0
2 1
3 3
4 5
5 10
6 12
7 14
8 15
9 12
10 9
11 7
12 5
13 3
14 2
15 1
16 1
17 0
18 0
19 0
-- --
-- --
100

Prof. Frederico Cavalcanti 388491661.doc 107


Processos Estocásticos Ence

Assim, 9 vezes foram observados 10 clientes por minuto, e 3 vezes foram observados 3
clientes por minuto, etc...

Quando o número de observações é suficientemente grande assumimos como


probabilidade do evento "ocorrer m entradas no intervalo de tempo de um minuto", à razão
entre a frequência absoluta do evento e o número total de observações, definida como
frequência relativa do evento.

Exemplos:
a) Qual a probabilidade empírica de que cheguem 7 clientes por minuto?
Resp: 14/100

b) Qual a probabilidade "estimada" do evento (m > 10)?


Resp: (7+5+3+2+1+1)/100 = 0,19

A estimativa da média do número de clientes que chegam durante um intervalo de tempo de


um minuto seria:

1  805
l= 
100 m= 0
m. f m =
100
= 8, 05

As chegadas de unidades a sistemas de espera não estão reguladas por uma lei única e
universal . No entanto tem-se constatado muito frequentemente que aparece uma mesma lei
de probabilidade quando certas condições são satisfeitas pelo processo de chegadas e/ou
saídas. O enunciado dessas condições nos leva exatamente a um Processo de Poisson.

10.7 . Sistema de Espera Poissoniano com um Posto de Serviço.

Sigla: M/M/1/µ/FIFO

Características: Entradas Poissonianas


Saídas Poissonianas
Um Posto de Serviço
População de usuários: infinita
Disciplina: FIFO

Um sistema com estas características é denominado Sistema de Espera Poissoniano.


Denotaremos por l e m os parâmetros das distribuições de Poisson que regulam as entradas
e as saídas do sistema, respectivamente. O parâmetro l , representa a taxa média de
entradas na unidade de tempo definida. O tempo eventual decorrido entre duas entradas
consecutivas é uma variável aleatória exponencial com média igual a 1/l. O parâmetro m,

Prof. Frederico Cavalcanti 388491661.doc 108


Processos Estocásticos Ence
representa a taxa média de saídas na unidade de tempo e 1/m é o tempo médio decorrido
entre duas saídas consecutivas do sistema.

10.7.1 - Função de Probabilidade do número N de unidades no Sistema.

Seja N a variável aleatória que se identifica ao número de unidades que se encontram no


sistema (as que estão esperando na fila mais a unidade em atendimento) no instante t. Seja
Pn ( t ) = P ( N = n) a probabilidade de haver n unidades no sistema no instante t.

Para determinar Pn ( t ) as seguintes hipóteses serão consideradas:

a) a probabilidade de que ocorra uma entrada no sistema durante o intervalo de tempo


[0,Dt) é igual a lDt.

b) a probabilidade de que ocorra uma saída do sistema durante o intervalo de tempo [0,Dt),
é igual mDt.

c) a probabilidade de ocorrer duas ou mais chegadas e/ou saídas durante o intervalo de


tempo [0,Dt) é infinitamente pequena e será desprezada.

d) a razão  = l m , chamada "taxa de intensidade do fluxo do sistema" deve ser menor do


que 1, pois em caso contrário, não haveria estabilidade estatística no sistema e a fila
aumentaria indefinidamente.

Consideremos a partição do evento E = "n unidades no sistema no instante t + Dt", cuja


probabilidade é Pn ( t + Dt ) .

E = "n unidades no instante t" e "não ocorrer entrada no intervalo [0,Dt)" e "não
ocorrer a saída no intervalo [0,Dt)"

ou

"n unidades no instante t" e "ocorrer uma entrada no intervalo de tempo [0,Dt)"
e "ocorrer uma saída no intervalo de tempo [0,Dt)"

ou

"(n-1) unidades no instante t" e "ocorrer uma entrada no intervalo de tempo


[0,Dt)" e "não ocorrer saída no intervalo de tempo [0,Dt)"

ou

"(n+1) unidades no instante t" e "não ocorrer entrada no intervalo de tempo


[0,Dt)" e "ocorrer uma saída no intervalo de tempo [0,Dt)"

ou ...............

Prof. Frederico Cavalcanti 388491661.doc 109


Processos Estocásticos Ence

Obs: Apenas os quatros eventos explicitamente descritos na partição, têm probabilidades


significantes. Representaremos por o(Dt) a probabilidade dos demais eventos da partição.

Assim, a probabilidade do evento E, para n = 1, 2, 3,..... será:

Pn (t + Dt) = Pn (t) (1 - lDt) (1 - mDt) + Pn (t) lDt mDt +


Pn -1 (t) lDt (1 - mDt) + Pn +1 (t) (1 - lDt) mDt + o ( Dt )

Para o caso em que n = 0, escrevemos:

P0 ( t + Dt ) = P0 ( t )(1 - lDt ) + Po ( t ) lDtmDt + P1 ( t )(1 - lDt ) mDt + o( Dt )

Fazendo-se as devidas multiplicações, dividindo-se por Dt, e calculando-se o limite quando


Dt®0 , obtemos:

I’) Po ( t ) = - lP0 ( t ) + mP1 ( t )

II’) Pn ( t ) = - ( m + l ) Pn ( t ) + lPn -1 ( t ) + mPn +1 ( t )

Prova-se que , em fase de regime permanente do sistema, havendo portanto, estabilidade


estatística, a função Pn ( t ) independe de t, e conseqüentemente as equações I’ e II’ se
tornam,

I) - lPo + mP1 = 0

II) - ( m + l ) Pn + lPn -1 + mPn +1 = 0 (10.1)

l
De (I) tiramos que P1 = Po � P1 = P0 .
m

Fazendo-se n = 1,2,3.... em (II),

-n=1 � P2 =  2 P0

-n=2 � P3 =  3P0

-n=3 � P4 =  4 P0

E assim por diante, por indução finita, obtemos finalmente:

Pn =  n Po n = 0,1,2,3,.....

Prof. Frederico Cavalcanti 388491661.doc 110


Processos Estocásticos Ence

Dada a condição P n = 1 , calculamos o valor de P0 como segue,
n= 0


1
Po   n = 1 \ P0 = 1 \ P0 = 1 - 
n =0 1- 

Daí escrevemos,

Pn = (1 -  )  n n = 0,1, 2, 3,.....

Exercícios:

10.7.1 - Calcular a probabilidade de haver mais do que 3 unidades no instante t, num


sistema M/M/1/µ/FIFO.
Solução:
 
4
 Pn =  (1 -  )  = (1 -  )
n

(1 -  )
= 4
n=4 n=4

10.7.2 - Calcular a função de distribuição da v.a. N.


Solução:
Por definição temos que FN ( n ) = P ( N £ n ) .
n
(1 -  n +1 )
F( n ) = (1 -  )   k = (1 -  )
k =0 (1 -  )
n +1
F( n ) = 1 -  n = 0,1,2,3,.....

Obs: Recordemos que a função de distribuição de uma variável X é definida para todo
real x Î R. Assim, rigorosamente teríamos FN ( x ) = 0 se x < 0 , e
x +1
FN ( x ) = 1 -  se x  0 , onde [x] é maior inteiro contido em (-µ;x].

10.7.3 - Calcular o número médio de unidades no Sistema no instante t.


Solução:

Prof. Frederico Cavalcanti 388491661.doc 111


Processos Estocásticos Ence
� � �
d
E(N) = �n(1 -  ) n = (1 -  ) �n n -1 = (1 -  ) � (  n )
n =0 n =1 n =1 d

d � n d �  �
E(N) = (1 -  )  �
d n =1
 = (1 -  ) � �
d �1 -  �

� 1  �
E(N) = (1 -  )  � + 2 �
�1 -  (1 -  ) �


E(N) =
1- 

10.7.4 - Calcular a VAR(N). (sugestão: use a f.g. de momentos de N)


Solução:
n
� �
1- y
M N ( t ) = � e ( 1 - y ) y = ( 1 - y ) � ( ye ) =
tn n t

n =0 n=0 ( 1 - ye t )
M 'N ( t ) = ( 1 - y ) y ( 1 - ye t ) e t
-2

y
M 'N ( 0 ) = E ( N ) = ( 1 - y ) y ( 1 - y )
-2
=
1- y
M�
� {
N ( t ) = ( 1 - y ) y ( 1 - ye )
t
e t + e t ( -2 ) ( -ye t ) ( 1 - ye t )
-2 -3
}
� 1
� 2y � � �1 + y �
M� N ( 0) = ( 1 - y ) y � + N ( 0) = y �
\ M�
� 3�
� 2�
( ) ( ) ( )
2

���1 - y 1 - y � � 1 - y �
y+y 2
E ( N2 ) =
( 1- y)
2

y + y2 y2 y
Var ( N ) = - \ Var ( N ) =
( 1- y) ( 1- y) ( 1- y)
2 2 2

10.7.5 - As chegadas a um sistema de espera M/M/1 são de 0,5 unidades por minuto, em
média. Ë requerido que a probabilidade de que haja uma ou mais unidades no sistema não
exceda a 0,25. Qual deve ser a taxa média de serviço (m) mínima a ser providenciada?
Solução:
l = 0,5
P(N  1) £ 0,25 \ 1- P(N = 0) £ 0,25 \ P(N = 0)  0,75

1 -   0,75 \  £ 0,25

l/m £ 0,25 \ 0,5 £ 0,25m \ m  2

Prof. Frederico Cavalcanti 388491661.doc 112


Processos Estocásticos Ence

Resposta: m = 2

10.7.2 - Função de probabilidade do número F, de unidades na Fila.

Seja F a variável aleatória que se identifica ao número de unidades que esperam


atendimento no instante t. A variável aleatória F é função da v.a. N, expressa pela relação:

F=0 se (N = 0) ou (N = 1)

F=k se N = k + 1, para k = 1,2,3,4,...

Logo P(F = 0) = (1-) + (1-)\ P(F = 0) = 1 - 2

Em resumo:

� 1- 2 se k=0

P(F = k) = �

(1- ) k+1 se k=1,2,3..

Exercícios:

10.7.6 - Obtenha a função de distribuição da v.a. F.

- se k = 0 F( k ) = 1 -  2

- se k > 0
k
F(k) = (1 -  2 ) + �( 1 -  )  j+1
j=1

2 ( 1- k )
F(k) = ( 1 -  2
) + (1-  ) 1- 
k +2
F(k) = 1 - 
Verificamos então que :

F( k ) = 1 -  k + 2 para k = 0,1,2,3...

Obs: A função de distribuição assim apresentada está incompleta. A mesma observação no


exercício 10.7.2 deve ser considerada.

10.7.7 - Calcular o número médio de unidades na Fila num instante t.

Prof. Frederico Cavalcanti 388491661.doc 113


Processos Estocásticos Ence
2
Resposta: E ( F) =
1- 

10.7.3 - Tempo de espera na Fila no sistema M/M/1/µ/FIFO

Sabemos que o tempo de atendimento (tempo de serviço ou duração do serviço) é uma v.a.
exponencial (m), ou seja, uma variável aleatória Gama(m,1). O tempo de atendimento a
duas unidades no sistema é uma variável aleatória Gama(m,2), supondo os atendimentos
independentes.

Seja então q( k ) o tempo de atendimento a k unidades no sistema. Esta v.a. tem distribuição
Gama de parâmetros m e k, pois é a soma de k variáveis aleatórias independentes , com
distribuição exponencial (m).

Denominemos por Wf a v.a. que representa o tempo de espera na fila para uma unidade
que chega ao sistema.

Sendo Wf uma variável não negativa, podemos escrever inicialmente que:

FWf ( t ) = P ( Wf £ t ) = 0 se t < 0,

Para t > 0, consideremos que:

uma unidade ao chegar no sistema será imediatamente atendida se o sistema estiver


"vazio", ou seja, se naquele instante t, a v.a. N assumir o valor 0. Em caso contrário, a
unidade deverá esperar exatamente o tempo necessário ao atendimento das unidades que
encontrar no sistema, no instante t.

Em outras palavras o evento ( Wf �t ) é equivalente a união dos eventos abaixo:

“0 unidades no instante t” e “a unidade que chega não esperar para ser atendida”

ou

“uma unidade no instante t” e “a unidade que chega esperar por 1 atendimento”

ou

“2 unidades no instante t” e “a unidade que chega esperar por 2 atendimentos”

Prof. Frederico Cavalcanti 388491661.doc 114


Processos Estocásticos Ence
____________________________________ ___
____________________________________ ___

“k unidades no instante T” e “ unidade que chega esperar por k atendimentos”


____________________________________ ___
____________________________________ ___

Deste modo, temos a seguinte partição para o evento (Wf £ t):

( Wf (
�t ) = N = 0; q( 0) �t ) U( N = 1; q( ) �t ) U( N = 2; q( ) �t ) U.....U( N = k; q( ) �t ) U.....
1 2 k

( )

P ( Wf �t ) = (Po �1) + �Pk .P q( k ) �t
k =1

t

m k k -1 -mt
P ( Wf �t ) = P0 + �( 1 -  )  k
� t e dt
k =1 0
G( k)

( mt )
t k -1

P ( Wf �t ) = ( 1 -  ) +  � ( 1 -  ) m� e -mt dt
0 k =1 ( k - 1) !

t
P ( Wf �t ) = ( 1 -  ) +  �
( 1 -  ) memt e-mt dt
0

t
P ( Wf �t ) = ( 1 -  ) +  �
( 1 -  ) m e-( 1- ) mt dt
0

( { }
t
P ( Wf �t ) = ( 1 -  ) -  e -( 1- ) mt �
�= ( 1 -  ) -  e
- ( 1- ) mt
-1
0

Finalmente,
P ( Wf �t ) = 1 - e -( 1- ) mt

Em resumo,
�0 se t < 0

FWf ( t ) = �
�1-e-( 1- ) mt se t �0

Notemos que FWf ( 0 ) = P ( Wf �0 ) = P ( Wf < 0 ) + P ( Wf = 0 ) = 0 + (1 -  ) , ou seja Wf é


uma variável aleatória do tipo misto, pois o ponto t = 0 tem probabilidade não nula, igual a
1-, que é exatamente a probabilidade do evento ( N = 0 ) .

Prof. Frederico Cavalcanti 388491661.doc 115


Processos Estocásticos Ence

Derivando a função de distribuição de encontramos a função de “densidade-


probabilidade”, g(t), da variável aleatória Wf :

� 0 t<0

g Wf ( t) = � (1- ) t =0

� ( m-l ) e -( m-l ) t t>0

De forma que,

E ( Wf ) = ( 0 �( 1 -  ) ) + �
t ( m - l ) e -( m-l ) t dt
0

Finalmente, o tempo médio de espera na fila é obtido:

G ( 2) 
E ( Wf ) =  ( m - l ) \ E ( Wf ) =
( m - l) m-l
2

10.7.4 - Tempo de espera no Sistema M/M/1/µ/FIFO.

Para uma unidade que chega ao sistema, o seu tempo de espera na fila é igual a W f . O
tempo de espera no sistema, WS , para esta unidade, será igual a Wf mais o seu próprio
tempo de atendimento que é uma exponencial de média 1/m , isto é:

Ws = Wf + q( 1)

O tempo médio de espera no sistema será então:

E ( Ws ) = E ( Wf ) + E q( 1)( )
 1 1
E ( Ws ) = + \ E ( Ws ) =
( m - l) m m-l

Exercício 10.7.8
Um sistema de espera M/M/1 tem uma taxa de chegadas de 8 (oito) unidades por hora.
Qual deve ser a taxa de atendimento mínima de forma a garantir que o tempo de espera no
sistema seja no máximo igual a 3 horas?
Solução:
1
l=�\8 �m-\m�\m3��1m= 3 24 3 25 8,33 8
m-l

Prof. Frederico Cavalcanti 388491661.doc 116


Processos Estocásticos Ence

10.7.5 - Um modelo elementar de Custos no M/M/1/µ/FIFO

Denotemos por c o custo unitário de espera na fila na unidade de tempo, e por g o custo de
ociosidade de um posto de serviço na unidade de tempo, e, representemos por H(,c,g) o
custo médio total do sistema.

Devido às características não determinísticas do sistema não podemos precisar este custo
senão em termos médios. A primeira parcela deste custo será o custo médio de espera na
fila calculado por cE(F). Uma outra parcela é o referente ao custo de um posto de serviço
quando inativo. Neste caso precisamos definir uma v.a. G que assume o valor 0 (zero) se
(N > 0) e assume o valor g se N=0.

Assim, temos:

H (  , c, g ) = cE ( F ) + E ( G )

� 2 �
H ( , c, g ) = c � �+ gP ( N = 0 )
1-  �

� 2 �
H ( , c, g ) = c � �+ ( 1 -  ) g
1-  �

Exercício 10.7.9
Determinar o valor de  que minimiza o custo médio total no M/M/1.
Solução:
� 2 2 �
H� ( ) = c � + �- g
(

� 1 -  )
2
( 1 -  ) �


 2 + 2 - 2 2 �
( ) = c �
H� �- g
( )
2

� 1 -  �

2 c - c 2 - g + 2g - g 2 = 0 \ ( c + g )  - 2 ( c + g )  + g = 0
2

g
 2 - 2 + = 0 \ 2 - 2 +  = 0 \  = 1  1 - 
c+g

Como  < 1, o valor de  que minimiza H(,c,g) é dado por:

c
* = 1 -
c+g

Prof. Frederico Cavalcanti 388491661.doc 117


Processos Estocásticos Ence

Exercício 10.7.10
Num sistema M/M/1 a taxa média de chegadas é de 3,5 unidades por hora. Sabendo-se que
o custo unitário de espera na fila é de CR$9,00 e que o custo de ociosidade do posto é de
Cr$91,00, qual deve ser a taxa média de atendimento de forma a minimizar o custo médio
total do sistema?
Solução:
c 9
min = 1 - = 1- = 0, 7
c+g 91 + 9

min = 0,7 ® l/m = 0,7® 3,5 = 0,7m ® m = 5

Prof. Frederico Cavalcanti 388491661.doc 118


Processos Estocásticos Ence

Exercício 10.7.11
Um laboratório produz um certo tipo de vacina utilizável dentro de um período de um mes,
após o que ela se deteriora. Sabendo-se que a demanda média do produto é de 8 doses por
mes, pede-se:

a) Qual deve ser produção média máxima a ser planejada pelo laboratório, para um período
de três meses.?
b) Qual o número esperado de doses em estoque durante um mes?
Solução:
a) l = ?
m=8

E(Ws) £ 3 \ 1/(m-l) £ 3 \ 1 £ 3m - 3l \ 1 £ 24-3l

l £ 23/3 \ l £ 7,66

b)  = 7,66/8 = 0,95

E(F) = (0,95)2/(1-0,95) = 18,05

Exercício 10.7.12
Um certo produto é fabricado em duas fases de de produção. Na primeira fase é utilizada
uma máquina M1 cuja produção obedece aproximadamente a uma distribuição de Poisson.

Após a primeira fase, o produto semi-acabado é estocado em uma área A1 , onde aguardará
disponibilidade de uma máquina M 2 , cujo tempo de utilização por unidade do produto é
aproximadamente uma v.a. exponencial.

A área A1 tem capacidade para (q-1) unidades do produto a um custo de estocagem 0


(zero). Em caso de saturação da área A1 , os produtos excedentes são estocados em outra
área, A 2 , a um custo unitário de CR$0,20.

Sabendo-se que as máquinas M1 e M 2 liberam 3 e 4 produtos por hora, em média,


respectivamente, e que o custo de ociosidade da máquina M 2 é de CR$2,00 por hora, pede-
se:

Construir um modelo teórico capaz de representar o custo médio


total do processo após a primeira fase de produção.

Prof. Frederico Cavalcanti 388491661.doc 119


Processos Estocásticos Ence
Solução

� 3�
a) Custo médio de ociosidade da máquina M 2 = 2 � �1 - �= 0,5
� 4�
b) Custo médio de espera na fila:

Como só existe custo diferente de zero na área A 2 , consideraremos a seguinte variável


aleatória:

Seja Y a v.a. que se identifica ao número de produtos estocados na área A 2 .

Notemos que :
Y=0 se N £ q

Y=k se N = q + k , k = 1,2,3,....
De forma que ;
� �
E(Y) = �k ( 1 -  )  q+ k = ( 1 -  )  q+1 �k k -1
k =1 k =1
q+1

E ( Y) =
1- 
0, 2 q+1
CMT = + 2 ( 1-  )
1- 
Sendo l = 3 e m = 4, obtemos:
CMT = 0,6(0,75)q + 0,5

Exercício 10.7.13
Considerando o sistema de espera estudado no exercício anterior, com l = 8 , m = 10, c = 20
e g = 100, qual seria a capacidade mínima da área A 2 de forma a se ter um custo no
máximo igual a CR$36,00?
Solução:
q+1
CMT = 20 �
( 0,8 )
+ 100 � 0, 2 � 36
0, 2

80  (0,8)q + 20 £ 36 \ (0,8)q £ 0,2 \ q ln 0,8 £ ln 0,2

ln 0,2
q \ q  7 , 21 Resposta: q = 8
ln 0,8

Prof. Frederico Cavalcanti 388491661.doc 120


Processos Estocásticos Ence

10.8 - Sistema de Espera Poissoniano com S Postos de Serviço.

Sigla: M/M/S/µ/FIFO

Características: Entradas Poissonianas


Saídas Poissonianas
S Postos de Serviço
População de Usuários: infinita
Disciplina FIFO

Um dos principais objetivos na análise de um Sistema de Espera é o planejamento do


atendimento. Em geral, no caso de apenas um posto de serviço, a taxa média de saídas do
sistema pode ser controlada pelo gerenciador do sistema de forma a minimizar os custos de
espera na fila e ociosidade do posto. No entanto, se a demanda pelo serviço (l) cresce sem
controle do sistema e se a melhoria (aumento) da taxa de atendimento (m) for inviável, a
solução é instalar mais postos de serviços de forma a proporcionar um atendimento
satisfatório a um custo equilibrado

O modelo de custo médio total definido no sistema M/M/1 permanece válido no modelo
M/M/S, como ferramenta de análise de custos.

H(,c,g) = c.E(F) + g.E(q)

A análise desta fórmula mostra que:

a) E(F) decresce quando m cresce, pois serviço mais rápido implica em filas menores.

b) E(q) cresce quando o número S de postos de serviço cresce.

Em geral, sendo l, c e g fixados, duas opções são disponíveis para "melhorar" o


atendimento: aumentar a taxa média de saídas (m), reduzindo o tempo médio de
atendimento ou instalar mais postos de serviço.

Prof. Frederico Cavalcanti 388491661.doc 121


Processos Estocásticos Ence

A decisão deve ser baseada na análise de sensibilidade da função H para os valores viáveis
de m e S.

A construção do modelo probabilístico do sistema M/M/S/µ/FIFO, está condicionada as


seguintes suposições:

1. Uma única fila é formada para os S postos de serviço.

2. Não há preferência da unidade por nenhum dos postos.

3. As chegadas ao sistema são reguladas por uma lei de Poisson (l).

4. As saídas do sistema, através de cada posto, são reguladas por uma


lei de Poisson (m).

10.8.1 - Número N de unidades no sistema no instante t.

Recordemos que;

lDt = probabilidade de ocorrer uma entrada no sistema no


intervalo de tempo [0,Dt).

mDt = probabilidade de ocorrer uma saída do sistema, no


intervalo de tempo [0,Dt), através de um posto de
serviço.

Sendo S > 1 o número de postos de serviço, faz-se necessário definir as seguintes


probabilidades:

nmDt = probabilidade de ocorrer uma saída do sistema, no


intervalo de tempo [0,Dt), quando n = 1,2,3,...,(s-1).

smDt = probabilidade de ocorrer uma saída do sistema no


intervalo de tempo [0,Dt), quando n = s,s+1,s+2,...

Seja Pn ( t ) a função de probabilidade da variável aleatória N e consideremos o evento

E = "n unidades no sistema no instante t + Dt".

Prof. Frederico Cavalcanti 388491661.doc 122


Processos Estocásticos Ence

Para os conjuntos de valores de n a saber: { n = 0} , { n = 1, 2,...,s - 1} e { n = s,s + 1,....} ,


temos os seguintes procedimentos:

a) para n = 0,

E = “0 unidade no sistema no instante t” e “ocorrer uma entrada no intervalo [ 0, Dt ) ” e


“ocorrer uma saída no intervalo [ 0, Dt ) ”
ou
“0 unidade no instante t” e “não ocorrer entrada no intervalo [ 0, Dt ) ”
ou
“uma unidade no instante t” e “não ocorrer uma entrada no intervalo [ 0, Dt ) ” e “ocorrer
uma saída no intervalo [ 0, Dt ) ”
De forma que,

P0 ( t + Dt ) = P0 ( t ) lDt mDt + P0 ( t ) ( 1 - lDt ) + P1 ( t ) ( 1 - lDt ) mDt + o ( Dt ) (10.2)

b) para n = 1,2,3,......,(s-1),

E = “n unidades no sistema no instante t” e “não ocorrer uma entrada no intervalo [ 0, Dt ) ”


e “não ocorrer nenhuma saída no intervalo [ 0, Dt ) ”
ou
“n unidades no instante t” e “ocorrer uma entrada no intervalo [ 0, Dt ) ” e “ocorrer
uma saída no intervalo [ 0, Dt ) ”
ou
“ n + 1 unidades no instante t” e “não ocorrer uma entrada no intervalo [ 0, Dt ) ” e “ocorrer
uma saída no intervalo [ 0, Dt ) ”
ou
“n -1 unidades no instante t” e “ocorrer uma entrada no intervalo [ 0, Dt ) ” e “não ocorrer
nenhuma no intervalo [ 0, Dt ) ”.

De forma que,
Pn ( t + Dt ) = Pn ( t ) ( 1 - lDt ) ( 1 - nmDt ) + Pn ( t ) lDt ( n + 1) mDt +
(10.3)
Pn +1 ( t ) ( 1 - lDt ) ( n + 1) mDt + Pn -1 ( t ) lDt ( 1 - nmDt ) + o ( Dt )

Prof. Frederico Cavalcanti 388491661.doc 123


Processos Estocásticos Ence

c) para n = s, s+1, s+2, .........


Para este caso basta substituir em (10.3) as probabilidades nmDt ou ( n - 1) mDt por smDt.

Pn ( t + Dt ) = Pn ( t ) ( 1 - lDt ) ( 1 - smDt ) + Pn ( t ) lDtsmDt +


(10.4)
Pn +1 ( t ) ( 1 - lDt ) smDt + Pn -1 ( t ) lDt ( 1 - smDt ) + o ( Dt )

Fazendo-se as devidas multiplicações, dividindo-se por Dt, e, calculando-se o limite


quando Dt®0, obtemos:

I’) P0�( t ) = -lP0 ( t ) + mP1 ( t ) n=0

( t ) = -nmPn ( t ) - lPn ( t ) + ( n + 1) mPn +1 + lPn -1 ( t )


II’) Pn� 1 £ n £ s-1

( t ) = -smPn ( t ) - lPn ( t ) + smPn +1 ( t ) + lPn -1 ( t )


III’) Pn� ns

Quando Pn(t) independe de t, ou seja, em fase de regime permanente,

I) - lP0 + mP1 = 0 n=0

II) -nmPn - lPn + ( n + 1) mPn +1 + lPn -1 = 0 1 £ n £ s-1

III) - smPn - lPn + smPn +1 + lPn -1 = 0 ns (10.5)

De (II) temos,

�- l [ Pn - Pn -1 ] = 0
�( n + 1) Pn +1 - nPn �
m�
mDnPn - lDPn -1 = 0 \ D [ mnPn - lPn -1 ] = 0

Se a diferença de uma função é igual a 0, então esta função é uma constante, ou seja

mnPn - lPn -1 = k (constante) (10.6)

Fazendo-se n = 1 em (10.6), e comparando com a equação (I), concluímos que k = 0.

De forma que escrevemos,

Prof. Frederico Cavalcanti 388491661.doc 124


Processos Estocásticos Ence

Pn = Pn-1 se 1 � n � s -1 (10.7)
n

Variando n = 1,2,3,.......

P1 = P0

P2 = P1
2

P3 = P2
3
.............
.............

Pn = Pn -1
n
.............
Daí obtemos:
n
Pn = Po 1 £ n £ s -1 (10.8)
n!

Analisemos agora a equação (III):

sm [ Pn +1 - Pn ] - l [ Pn - Pn -1 ] = 0 n �s
smDPn - lDPn -1 = 0 \ D [ smPn - lPn -1 ] = 0

Logo, smPn - lPn -1 = k (constante)

Façamos n = s,
smPs - lPs-1 = k

Ps-1 pode ser determinada pela equação II, que é válida para 1 £ n £ s-1,

- ( s - 1) mPs -1 - lPs -1 + smPs + lPs -2 = 0 (10.9)

Utilizando-se de (10.7),
Pn =  Pn-1 � Ps -1 =
l
P � Ps - 2 =
( s - 1) m P
( s - 1) m s -2 l
s -1

Substituindo-se em (10.9), obtemos que,

Daí obtemos: smPs - lPs-1 = 0 \ k = 0

Prof. Frederico Cavalcanti 388491661.doc 125


Processos Estocásticos Ence


Portanto: Pn = Pn -1 (10.10)
s

Fazendo-se n = s, s+1,s+2,.......

Ps = Ps -1
s

Ps +1 = Ps
s

Ps + 2 = Ps +1
s
.................
.................
n - s +1
 � �
Pn = Pn -1 � Pn = � � Ps -1
s �s �
Finalmente, temos;

n - s +1
� �  s -1 n
Pn = � � P0 \ Pn = n -s P0 n �s
�s � ( s - 1) ! s!s
Em resumo, escrevemos;

� n
� n! P0 0 � n � s -1


Pn = � (10.11)
� n
� n -s P0 n �s
�s!s


Obs: No sistema M/M/S, devemos condicionar que < 1, pois em caso contrário a fila
S
aumentará indefinidamente.

A constante P0 é calculada a seguir,

s -1
n �
n � s-1  n  s � � �n -s �
� �
P0 � + P0 � n -s = 1 � P0 �� + � � � �= 1
n = 0 n! n =s s!s �n =0 n! s! n -s =0 � s � �
n -s
�s -1  n  s � � �
� �
� �s -1  n s s �
P0 �� + �� � � = 1 � P0� � + �= 1
�n =0 n! s! n -s =0 �s � � �n =0 n! s!( s -  ) �
1
P0 = s -1 n
 s s (10.12)

n = 0 n!
+
s!( s -  )

Prof. Frederico Cavalcanti 388491661.doc 126


Processos Estocásticos Ence

10.8.2 – Número de unidades na fila.

No sistema poissoniano com S postos de serviço, a fila só se forma quando o número


N de unidades no sistema ultrapassa o número S de postos de serviço, ou seja:

�0 se N � S
F=�
�k se N = S + k

O número médio de unidades na fila é então dado por:


E ( F ) = �k Pk +s
k =0

ou

E ( F ) = �( n - s ) Pn
n =s

n
E ( F ) = �( n - s ) P0
n =s s! Sn -s
ou

n �
n
E ( F ) = �n P0 - � s P
n -s 0 (10.13)
n =s s! Sn -s n = s s! S

Tratemos inicialmente o primeiro somatório da expressão acima,

P0  s +1 � �
n - s -1 n -s -1

n P0 �  n �� � � �
� � �
� n n -s
P0 = � n n -s
= ��( n - s ) � � + �s � � �
n =s s! S s! n =s S s! s �n =s �s � n =s � s � �
� �

s +1 �

 n
P0  � 1 s 2

�n s! S n -s
P0 = �
s! s ��  � 2
+
�  ��
� (10.14)
�1 - �  � 1- �
n =s

�� s � � s ��

Agora, o segundo somatório produz,


n -s

n P0 s  s � � � P0 s  s 1
� s
n =s s! S
P =
n -s 0 �� � = s!
s! n -s =0 � s �  (10.15)
1-
s

Substituindo-se (10.14) e (10.15) em (10.13), obtemos,

Prof. Frederico Cavalcanti 388491661.doc 127


Processos Estocásticos Ence

� �
� �
P0  s +1 � 1 s2 � P0 s 
s
1
E ( F) = � + � -
s s! ��  � 2
� � s! 1 - 
�1 - �  �1 - ��

�� s � � s �� s
� �

s +1 �
P � 1 s 2
s 2

E ( F) = 0 � + - �
s s! ��  � 2
�  � �  ��
�1 - �  �1 - �  �1 - �

�� s � � s � � s ��
Finalmente,

P0  s +1 1 P0  s +1s
E ( F) = =
s s! �  �2 s!( s -  ) 2
�1 - �
� s �

10.9 - Sistema de Espera Poissoniano com um Posto de Serviço, mas com capacidade

limitada a k unidades.

Neste tipo de modelo há uma limitação para o número de unidades possíveis no sistema. A
limitação se refere à capacidade do sistema, ou seja, se n = k, qualquer unidade que chegar
ao sistema será recusada. A população de usuários permanece sendo infinita, coerente
portanto com a distribuição poissoniana das entradas e saídas. A sigla deste sistema pode
ser adaptada da forma M/M/1/µ/k/FIFO.
As equações de diferenças finitas estabelecidas para o sistema M/M/1 permanecem válidas
somente para

Exercícios 10

1. Em um sistema M/M/1/µ/FIFO a taxa média de chegadas é de l = 5 unidades por


hora e o intervalo de tempo médio de serviço é igual 7,5 minutos. De quanto se deve
aumentar a taxa média de saídas m de maneira que a probabilidade de haver duas ou mais
unidades no sistema seja reduzida pela metade?

2. Considere um sistema M/M/1/µ/FIFO. Defina a v.a. F (número de unidades na fila), sua


função de probabilidades e sua função de distribuição.

3. Estabeleça a relação existente entre os momentos ordinários de N e de F em um sistema


Poissoniano com um posto de serviço.

4. Descreva com suas próprias palavras duas situações práticas que podem ser
consideradas como sistemas de espera Poissoniano , definindo as unidades, o tipo de
serviço procurado , o (s) posto (s) de serviço e outras quaisquer características que julgar
importante citar.
Prof. Frederico Cavalcanti 388491661.doc 128
Processos Estocásticos Ence

5. Defina as probabilidades envolvidas no sistema M/M/S/µ/FIFO e estabeleça as


equações diferenciais que resolvem Pn ( t ) .

6. Considere um sistema de espera M/M/1/µ/FIFO com capacidade limitada a k


unidades. Sabe-se que o intervalo de tempo médio entre duas entradas consecutivas é de 5
minutos e que 12 unidades por hora são atendidas pelo posto de serviço. Qual o mínimo
valor de k de tal forma que a probabilidade de haver menos do que k unidades no sistema
seja no mínimo igual a 0,90?

7. Em um sistema de espera M/M/2/µ/FIFO a taxa de intensidade de fluxo do sistema é


 = 1. O custo unitário de espera na fila é igual a CR$20,00 apenas para os dois primeiros
elementos da fila , sendo igual a zero para as demais unidade na fila. Sabendo-se que o
custo de ociosidade de cada posto de serviço é g = CR$100,00, determine o custo médio
total do sistema.
(2,0 pontos)

8. A Clínica Oftalmológica do Hospital Country oferece exames de glaucoma grátis toda


segunda feira e para isto dispõe de três oftalmologistas de plantão. O tempo necessário para
um teste de glaucoma ser realizado distribui-se exponencialmente com uma média de 20
minutos e os pacientes demandam à Clínica segundo uma lei de Poisson com média de 6
pacientes por hora. O administrador da Clínica deseja-se conhecer as seguintes
características do sistema:

a) Probabilidade de que um cliente ao chegar, tenha que esperar algum tempo.


b) O número médio de clientes na Clínica, na unidade de tempo.
c) O número médio de clientes na fila, na unidade de tempo.
d) O tempo médio que um cliente espera na fila e na Clínica.
e) O número médio de médicos ociosos, na unidade de tempo.
f) O custo médio total do sistema de atendimento, considerando-se que o
custo unitário de espera na fila é c=R$2,00 e o custo de ociosidade
de um médico é de g=R$10,00.

. Sistema de Espera Poissoniano com um Posto de Serviço, mas com capacidade limitada a

k unidades.

Neste tipo de modelo há uma limitação para o número de unidades possíveis no sistema. A
limitação se refere à capacidade do sistema, ou seja, se n = k, qualquer unidade que chegar
ao sistema será recusada. A população de usuários permanece sendo infinita, coerente
portanto com a distribuição poissoniana das entradas e saídas. A sigla deste sistema pode
ser adaptada da forma M/M/1/µ/k/FIFO.
As equações de diferenças finitas estabelecidas para o sistema M/M/1 permanecem válidas
somente para

Prof. Frederico Cavalcanti 388491661.doc 129


Processos Estocásticos Ence

9. Uma locadora de automóveis mantém um serviço de lavagem, troca de óleo,


lubrificação, etc... para seus veículos, atendendo um carro de cada vez. Os carros chegam a
esta rotina de manutenção de acordo com um Processo de Poisson, com uma média 3 carros
por dia, e o tempo para processar este serviço se distribui exponencialmente com uma
média de 7/24 dias. O custo operacional deste sistema é de R$75,00 por dia e a empresa
estima uma perda no lucro obtido por carro, em R$5,00 por dia, por cada dia que o carro
permanece “parado”. A locadora, através da reformulação de certos procedimentos e o
afastamento de mecânicos ineficientes, pode alterar o tempo médio do serviço para ¼ de
dia. Esta decisão deverá certamente aumentar o custo operacional do sistema. Qual o valor
máximo deste aumento que viabiliza a decisão?

10. Uma oficina mecânica mantém um local próprio para estacionar os carros que
aguardam o início dos serviços a serem realizados nos mesmos. Esta área tem capacidade
para 4 carros, e, em caso de necessidade os carros excedentes são levados para um
estacionamento particular a um custo de R$18,00 por dia. O tempo gasto no atendimento a
um carro é uma variável aleatória exponencial com média igual 6 horas, e o número médio
de carros que dão entrada na oficina é supostamente uma v.a. de Poisson com uma média de
3 carros por dia. O custo de ociosidade da oficina, por dia. é igual a R$75,00. Estabeleça
uma função que possa representar o custo médio total da oficina.

11. Formule um exemplo real ou imaginário de um sistema de espera com um posto de


serviço onde a capacidade de atendimento na unidade de tempo é limitada a k unidades. O
estabelecimento de qualquer fórmula é opcional. O problema consiste em descrever o
sistema, seu esquema de funcionamento e as características paramétricas do fenômeno.
Neste último caso, exemplificar com valores numéricos as duas alternativas possíveis para
a razão entre as taxas médias de entradas e de saídas.

12. Considere um sistema de espera M/M/S//FIFO. Construa uma equação diferencial


para determinar Pn (função de probabilidade do número N de unidades no sistema), apenas
para 1 £ n £ s - 1.

Formulário para Teoria das Filas:

Sistema M/M/1

Pn = (1 -  )  n n = 0,1, 2, 3,.....

Prof. Frederico Cavalcanti 388491661.doc 130


Processos Estocásticos Ence
n
(1 -  n +1 )
F( n ) = (1 -  )   = (1 -  )
k

k =0 (1 -  )
F( n ) = 1 -  n +1 n = 0,1,2,3,.....

E(N) =
1- 
� 1- 2 se k=0

P(F = k) = �
�(1- ) k+1 se k=1,2,3..

�0 se t < 0



g Wf ( t ) = � 1- se t=0

�  ( m-l ) e
- ( m-l ) t
se t > 0


� 2 �
H ( , c, g ) = c � �+ ( 1 -  ) g
�1 -  �
c
* = 1 -
c+g

Prof. Frederico Cavalcanti 388491661.doc 131

S-ar putea să vă placă și