Documente Academic
Documente Profesional
Documente Cultură
PROBABILIDADES
Prlogo
4 Frequncia e Probabilidade 55
5 A distribuio Normal 81
Jlio Csar ao cruzar com seu exrcito o Rio Rubicom quebrou uma
regra na Repblica Romana. No havia volta. Ou conseguia o poder
ou perdia tudo. Qual seria o desenlace da sua ao? Nem ele sabia e
segundo Suetnio teria dito: Alea jacta est. A sorte est lanada. Sa-
ber estimar as consequncias de uma ao aconselhvel para poder
decidir que curso tomar. Csar talvez tenha procedido da seguinte
forma. Primeiro fez uma lista das possibilidades sua frente. Uma
deciso tomada e uma das possibilidades seguidas. Estas poderiam
incluir: (Ao I) Continuar na Glia. (Ao II) Fazer uma aliana com
Pompeu , (Ao III) Fugir de Pompeu, (Ao IV) Se aposentar, (Ao
V) Voltar a Roma com seu exrcito e lutar contra Pompeu. Historia-
dores certamente poderiam incluir outras. Como decidir? Supomos
que uma escolha foi feita. Quais as consequncias? Para cada curso
de ao ele deve ter feito uma lista de possibilidades. Suponha que
considere tomada a Ao V. Ento as consequncias poderiam ser
(Consequncia 1 da Ao V) Vitria total, com a formao do Im-
prio e ele como Imperador. (Consequncia 2 da Ao V) Derrota
total levando sua morte. (Consequncia 3 da Ao V) Guerra Ci-
vl interminvel ...etc. Mas no devia acreditar que cada uma das
possiblidades teria a mesma chance de ocorrer. A cada consequn-
cia de cada Ao, Csar poderia ter associado um valor numrico
indicando sua crena na chance de ocorrer. Veremos que isto ser
codificado em probabilidades de ocorrncia. Mas tambm poderia
ter associado um valor numrico de quo feliz ele seria se efetiva-
mente essa consequncia ocorresse. Estes nmeros descrevem o que
se chama de utilidade, de cada possibilidade, para o agente Jlio Ce-
sar. Parece bvio que as utilidades dependem do agente, mas talvez
no seja bvio que as probabilidades tambm dependam do agente,
ou melhor do que este sabe. Resumindo, Jlio Csar decidiu o seu
curso de ao aps identificar as possibilidades de ao, das con-
sequncias de cada ao, das chances de cada consequncia ocorrer,
e da utilidade ou felicidade que cada consequncia teria. Neste curso
8 nestor caticha
probabilidades.
Como podemos associar a uma moeda simultaneamente as pro-
priedades de ser um sistema determinista, governado pelas leis de
Newton e a condio de exemplo mais usado ao falar de sistemas
aleatrios? necessrio ter cuidado com as palavras. O que significa
aleatrio? Teremos todo este curso para atribuir-lhe significado. Em
geral, ao ser usado coloquialmente, significa que no totalmente
determinado a priori por eventos passados. Figura 1.2: Igual anterior, mas a moeda
solta de uma altura menor, para diferentes
As possibilidades do estado da moeda so determinados ao espe-
ngulos.
cificar 12 nmeros. 3 dizem respeito sua posio, por exemplo do
centro de massa. Sua orientao determinada por 3 ngulos.Veja,
num livro de Mecnica a definio de ngulos de Euler. Ou seno,
simplesmente considere 2 eixos no plano da moeda e um terceiro
perpendicular ao plano e as rotaes em torno deles.Esse nmero
duplicado ao levar em conta as suas derivadas temporais (velo-
cidades). A dinmica em 12 dimenses dada pelas equaes de
Newton 1 . bvio que as equaes no so suficientes para deter- 1
Nem a deduo destas equaes e muito
menos a sua soluo, sero necessrias
minar como cair a moeda. H muitas maneiras de jogar a moeda,
aqui, mas cabem num curso de Mecnica.
mas s um conjunto de equaes. As mesmas equaes devem ser
complementadas com diferentes conjuntos de condies iniciais que
probabilidades 9
que isto seja, e que ser discutido mais frente, ser necessria para
avanar. 4 4
Segundo Harold Jeffreys em seu li-
vroTheory of Probability, Bertrand Russell
A forma dedutiva da lgica permite somente tres tipos de respos-
disse que induction is either disguised de-
tas, sim, no e no segue5 . A induo nos fora ou permite dividir duction or a mere method of making plausi-
esta ltima em vrias possibilidades e os casos extremos nesse es- ble guesses. Jeffreys diz que muito me-
lhor trocar a ordem dos dois termos e que
pectro so aqueles onde havendo certeza absoluta, haver portanto a muito do que normalmente passa por de-
fora da deduo. Podemos falar ento sobre quais das alternativas duo induo disfarada, e que at al-
guns dos postulados de Principia Mathe-
intermedirias mais razovel acreditar com base no que sabemos.
matica foram adotados por motivaes in-
Nota-se ento a necessidade de estender a lgica para poder tratar de dutivas (e adiciona, so falsos). Com o
forma racional casos de informao incompleta. Richard T. Cox, ao tempo o prprio Russell mudou de posio,
dobrado pela evidncia (?) e diz no fim da
se defrontar com este problema por volta da dcada de 1940, decidiu, sua autobiografia: I was troubled by scepti-
como dito acima, estabelecer um conjunto de desejos ou desiderata6 cism and unwillingly forced to the conclusion
that most of what passes for knowledge is
que a teoria deveria satisfazer, e estes sero ento os axiomas da ex-
open to reasonable doubt. Sobre induo
tenso da lgica. Aqui podemos discordar, propor outros desejos ou disse ainda: The general principles of sci-
axiomas, mas uma vez aceitos sero provados os teoremas de repa- ence, such as the belief of the reign of law,
and the belief that every event must have a
rametrizao de Cox que mostram que a teoria de probabilidade a cause, are as completeley dependent on the
ferramenta para o tratamento de forma racional de situaes de in- inductive principle as are the beliefs of daily
life.(On Induction)
formao incompleta. O surpreendente disto que surge a teoria das 5
Nem o leitor nem o autor destas notas deve
probabilidades como a forma para lidar de forma racional7 com a in- neste momento ceder tentao de discu-
formao e que corremos riscos de ser inconsistentes caso a regras de tir lgicas de um ponto de vista mais geral.
Precisamos um subconjunto de Lgica pro-
manipulao de probabilidades no sejam seguidas. Segue que no
posicional, no muito mais que lgica Aristo-
h probabilidades que no sejam condicionais, embora s vezes tlica, como exposta por George Boole. Tal-
simplesmente a linguagem esquea de deixar explcitas as relaes vez caiba aqui a desculpa "I have not wor-
ked out the mathematical logic of this in de-
de condicionalidade 8 . A amplido da aplicabilidade da teoria que tail, because this would, I think, be rather
emerge impressionante e por exemplo, quando o tipo de assero like working out to seven places of decimals
a result only valid to two. My logic cannot
for limitado queles entendidos em teoria de conjuntos as regras de
be regarded as giving more than the sort of
manipulao sero no mais nem menos que aquelas ditadas pelos way it might work". Frank P. Ramsey (1926)
axiomas de Kolmogorov. Tambm veremos que emerge uma relao "Truth and Probability", in Ramsey, 1931,
The Foundations of Mathematics and other
natural entre probabilidade e freqncia e ficar claro de que forma Logical Essays, Ch. VII, p.156-198, editado
estes conceitos esto ligados e mais importante, de que forma so por R.B. Braithwaite, 1999 electronic edition.
6
distintos. Desiderata: as coisas desejadas, em La-
tim. Termo usado em filosofia para denotar
um conjunto de propriedades essenciais de
alguma estrutura. Alguns ficam tentados a
1.2.1 Desiderata la Cox chamar axiomas.
7
Ao leitor que demande uma definio de
interessante notar que os axiomas de Cox descritos por Jaynes no racional, podemos dizer que pelo menos
no queremos ser manifestamente irracio-
so exatamente iguais aos que Cox apresenta no seu livro The algebra nais. No acredito que haja uma definio
of probable inference. A exposio de Jaynes muito mais simples. de consenso sobre o que ser racional. H
consenso porm em apontar alguns casos
Cox, por sua vez, esclarece sua dvida com J. M.Keynes e seu livro A
de irracionalidade.
treatise on Probability, que deve muito a Laplace e Bernoulli, a Frank 8
A maior fonte de erros ser devido a falhas
P. Ramsey e George Plya. A exposio de Jaynes teve uma grande na especificao cuidadosa das asseres
condicionantes. Aparentemente a notao
influncia, mas ainda recebeu crticas e complementos 9 . Eu seguirei a|b com a a a assero a ser analisada e
a apresentao de A. Caticha, que mais completa e clara, mas farei b a assero condicionante devida a John
Maynard Keynes, no seu Tratado.
algumas pequenas mudanas10 .
A maneira de construir a teoria est baseada na seguinte forma de 9
Tribus, A. C
10
pensar bastante simples. Queremos construir uma teoria geral para Notem que h lugar ainda para avanos
nestes primeiros passos. Tentem encon-
a extenso da lgica nos casos de informao incompleta. Se ela for trar defeitos, generalizaes, melhores ar-
suficientemente geral, dever ser vlida em casos particulares. Se o gumentos.
caso for suficientemente simples, ento podemos saber qual o resul-
tado esperado que no viole expectativas razoveis. Poderia ocorrer
probabilidades 13
e
A|C > A| D,
segue imediatamente, uma vez que so nmeros reais, que
A| B > A| D,
A A B A+B AB A+B AB
V F V V V F F
V F F V F F F
F V V V F F F
F V F F F V V
Tabela 1.1
Tabela verdade para a negao e algumas asseres compostas.
Parece difcil que desta lista DP1 ...DP5 surja uma estrutura matem-
tica, quanto mais nica. Ou como veremos, essencialmente nica a
menos de regraduaes montnicas que no alteram a ordem das
crenas. Talvez o que ser surpreendente para o leitor, que seja a
teoria de probabilidades. A estrutura matemtica aparecer anali-
sando as restries nas funes F e G impostas pelos desejos.
probabilidades 17
( a b | d ) = ( a | d ) + ( b | d ). (1.4)
18 nestor caticha
( a b| a) = ( a| a) + (b| a) (1.5)
(b| a) = ( a| a) + (b| a) (1.6)
( a| a) = (v f ) = f = 0. (1.7)
a = ( a b ) ( a b ) e b = ( b a ) ( b a ). (1.8)
1. y = G (( a| I ), (b| I )) (1 possibilidade)
2. y = G (( a| I ), ( a|bI )) (2 possibilidades a b)
3. y = G (( a| I ), (b| aI )) (2 possibilidades a b)
(c B c H | I ) = G ((c B | I ), (c H | I ))
= G ((c B | I ), (c B | I )) = (c B c B | I ) = 0 (1.11)
G ( G ( x, y, z), u,
G (
v, s)) = G ( x, G (y, u,
w, w), s)
G (
G (
x, z), u, G (v,
y, w, s)) = G ( x, G (y,
u, w), s)
G ( x, y + z) = G ( x, y) + G ( x, z). (1.17)
A( x )(y + z) + B( x ) = A( x )y + B( x ) + A( x )z + B( x ), (1.19)
xw
G ( x, w) = (1.21)
v
isto significa que, para e = b c , b e c mutuamente exclusivos
( a|d)(e| ad)
( ae|d) = . (1.22)
v
Mas resta um problema: e se retirarmos a restrio de b e c
mutuamente exclusivos? simples de considerar pois novamente
usamos a equao 1.8
e = ( e d ) ( e d ), (1.23)
e sabemos que a soluo dada pela equao 1.21. Sem usar esse
atalho mais difcil mostrar que esta a nica forma se G for
diferencivel duas vezes em cada argumento. O leitor interessado
dever consultar czel. Temos assim uma possibilidade de uma
prova muito mais simples.
Da equao 1.22, dividindo por v obtemos
1.3.4 Negao
A lista de desejos inclui a meno de algo sobre a negao. A crena
em asseres condicionadas sua negao constituem casos de
informao completa: ( a| a) = p( a| a) = 0. Tambm sabemos que
a a deve ser verdade, pois no resta alternativa. Portanto
( a| ad) = p( a| ad) = 0
( a a|d)
p( a a|d) = =1 (1.28)
v
1 = p( a a|d)
= p( a|d) + p( a|d) p( aa|d)
= p( a|d) + p( a|d) p( a|d) p( a| ad)
= p ( a | d ) + p ( a | d ), (1.29)
p( a|d) = 1 p( a|d)
probabilidades 25
p( a| a) = pv = 1 Certeza da veracidade
p( a| a) = pf = 0 Certeza da falsidade
p( a b|c) = p( a|c) + p(b|c) p( ab|c) regra da soma
p( ab|c) = p( a|c) p(b| ac) regra do produto
p( ab|c) = p(b|c) p( a|bc) regra do produto
p( a|d) = 1 p( a|d) regra da negao
Tabela 1.2
Probabilidades
1.4 Exerccios
Idempotncia do produto AA = A
Idempotncia da soma A + A = A
Comutatividade do produto AB = BA
Comutatividade da soma A + B = B + A
Associatividade da soma ( A + B) + C = A + ( B + C )
Distributividade A( B + C ) = AB + AC
Dualidade C = AB C = A + B e
C = A + B C = AB
0 = G ( G ( x, y, z), u, G (v, w, s))
z
= G (r, u, G (v, w, s))r=G( x,y,z) G ( x, y, z) (1.30)
r z
Se um produto zero, pelo menos um dos fatores zero, de
onde concluimos que ou G no depende do primeiro argumento
ou no depende do terceiro. Se no depende do primeiro mostre
que voltamos ao Caso 3 . Se no depende do terceiro mostre
que voltamos ao Caso 1.
3. Logprob L P ( A| I ) = log P( A| I ).
P( A| I )
4. Logit ou log-odds: Logit( P( A| I )) = log( P( A)
).
A : Linda bancria .
Exerccio
Exerccio
A : No estudei probabilidades
Ele est organizando uma rea aps ficar claro como faz-lo graas
ao trabalho de Lebesgue e tambm Frchet e admite que este ponto
de vista era comum entre certos matemticos mas merecia uma
exposio concisa e livre de algumas complicaes desnecessrias.
Kolmogorov comea for considerar E uma coleo de elementos
A, B, C.... que so eventos elementares 2 e em nossa discusso 2
Em fsica E conhecido como espao de
fases
anterior chamamos de asseres. F o conjunto de subconjuntos de
E. Um tal sistema de conjuntos chamado um campo se a soma,
produto, interseo de dois elementos quaisquer pertencem ao
sistema. Os axiomas de Kolmogorov para a teoria de Proabilidades
so
ou seja F um -campo,
32 nestor caticha
AK4) P( E) = 1
AK5) Se A B = , ento P( A B) = P( A) + P( B)
P( AB)
p( A| B) = (2.1)
P( B)
( E, F , P )
de Espao de probabilidades.
A apresentao do captulo 1 no discorda disto, a no ser pelo
ponto essencial que as probabilidades sero sempre condicionais e
esquecer isso ser a maior fonte de erros nas aplicaes. Quando
algum se refere a uma probabilidade tipicamente tem em mente
detalhes que se recusa a deixar explcitos pois esse exerccio pode
parecer cansativo. Outras vezes, e isso mais perigoso, age como se
tivesse em mente certos detalhes de informao, mas ao no
perceber pode achar que no h alternativas. Alm disso quando a
teoria tem parmetros, como ser discutido em mais detalhes no
prximo captulo, queremos poder falar das probabilidades de que
os parmetros tenham valores em uma dada regio. Isto no est
em desacordo com a posio de quem adota os axiomas de
probabilidades 35
A1 A2 .... A N = E
40 nestor caticha
1 = P( A1 A2 .... A N | I )
N
1 = P ( A i | I ). (3.1)
i =1
(1) x M = maxarg P( x | I )
R
(2) h x i = IE[ x ] = L xP( x | I )dx
R R
(3) xm tal que x xm P( x | I )dx = x xm P( x | I )dx
mn := h x n i = IE[ x n ] = L x n P( x )dx
R
P ( A i | A j C ) = P ( A i | C ).
44 nestor caticha
P( A1 , A2 , A3 ...AK |C ) = P( A1 |C ) P( A2 |C )....P( AK |C ).
P ( A1 , A2 , A3 | C ) = P ( A1 | C ) P ( A2 A3 | A1 C ) = P ( A1 | C ) P ( A2 | A1 C ) P ( A3 | A1 A2 C )
= P ( A1 | C ) P ( A2 | C ) P ( A3 | A1 A2 C ) (3.8)
P ( A1 | A2 C ) = P ( A1 | C ), P ( A2 | A1 C ) = P ( A2 | C )
P ( A2 | A3 C ) = P ( A2 | C ), P ( A3 | A2 C ) = P ( A3 | C )
P ( A3 | A1 C ) = P ( A3 | C ), P ( A1 | A3 C ) = P ( A1 | C )
(3.9)
mas
P ( A1 | A2 A3 C ) = 1 6 = P ( A1 | C )
Completamos a definio de mutuamente independente se
P( Ai | Bi C ) = P( Ai |C ) onde Bi em um subconjunto qualquer de S
que no inclua Ai .
Como toda probabilidade condicional, a independncia
tambm depende do contexto. Podemos ter P( X |YZ1 ) = P( X | Z1 )
mas P( X |YZ2 ) 6= P( X | Z2 ). Por exemplo no caso das moedas Z1 e
Z2 poderiam diferir nas condies iniciais do lanamento e.g.
altura, energia, velocidade angular, etc. Vamos supor que X, Y e Z
tomem valores reais. Se X e Y forem independentes na condio Z,
ou seja P( XY | Z ) = P( X | Z ) P(Y | Z ), ento a como funes dos
valores destas variveis teremos
P( XY | Z ) = P( X = x, Y = y| Z = z) = P( x, y|z) deve satisfazer
X Bla()
3.5.1 Bernoulli
Esta distribuio uma das mais simples. Se uma varivel est
distribuida de acordo com a distribuio (ou equivalentemente
uma varivel) de Bernoulli escrevemos S Ber( p). Neste caso, S
tem dois valores possveis. Por exemplo o espao de valores
possveis de S E = {1, +1} ou {cara, coroa}, ou {0, 1}. A
distribuio de Bernoulli em termos de um parmetro p, 0 p 1
(
p se S = +1
P(S| p) =
1 p se S = 1.
hSi = sP(S = s) = m = 2p 1,
s=1,1
3.5.2 Uniforme
Uma varivel X U (0, L) toma valores no intervalo do eixo real
L : 0 < x < L e sua probabilidade uma constante dentro do
intervalo e zero fora:
(
1
L se X L
P( X | L) =
0 se no.
Os valores esperados e varincia so
L
Z
hXi = xP( x )dx =
L 2
L2
Z
hX2 i = x2 P( x )dx =
L 3
L
X =
2 3
Obviamente podemos fazer translaes Y = aX + B e teremos
Y U ( B, aL + B) com probabilidade 1/aL dentro e 0 fora do
intervalo.
probabilidades 47
3.5.3 Binomial
Uma varivel de Bernoulli toma valores s = +1 ou s = 1 e
amostrada N vezes. Ou seja temos um conjunto de dados escritos
como uma lista (s1 , s2 , ....s N ). A varivel binomial m o nmero de
vezes que aparece o +1 nessa lista. Assim m Bin( p; N ).
Obviamente a distribuio de Bernoulli Ber( p)=Bin( p; 1).
Mostraremos no prximo captulo que
N m
P(m| pN ) = p (1 p ) N m
m
N!
= p m (1 p ) N m (3.10)
m!( N m)!
n+k1 n
P(n| pk) = p (1 p ) k
n
Nas primeiras n + k 1 tentativas a ordem pode ser qualquer e o
nmero destas seqencias (n+nk1). A ltima tentativa, a n + k
deve ser um fracasso. A mdia IE(n) = pk/(1 p) e a varincia
pk/(1 p)2
Para verificar que a normalizao correta precisamos alguns
truques. Primeiro usamos a soma da progresso geometrica
1
= ps = 1 + p + p2 + pk1 + pk + ....
1 p s =0
e a derivada de ordem k
d k 1 1 ( k 1) !
k
( )=
dp 1 1 p (1 p ) k
3.5.5 Poisson
Para descrever a estatstica de contagens de um detetor til
introduzir a distribuio de Poisson. Veremos adiante que esta
distribuio est relacionada com a binomial. A probabilidade de n,
48 nestor caticha
n
P(n|) = e
n!
O valor mdio
n
hni = n
n!
e
n =0
n
= e n n!
n =0
d n
= e
d n!
n =0
de
= e
d
= , (3.11)
e o segundo momento
n
h n2 i = n2 n! e
n =0
d d
= e e
d d
= + 2 . (3.12)
Portanto a varincia
2
Poisson = (3.13)
3.5.6 Beta
Uma varivel X toma valores x no intervalo 0 x 1 e tem dois
parmetros
( a + b ) a 1
P( x | a; b) = x (1 x ) b 1 (3.14)
( a)(b)
Note que se a e b forem nmeros inteiros, podemos escrever
( a + b 1) !
P( x | a; b) = x a 1 (1 x ) b 1
(( a 1)!(b 1)!
( N + 1) ! n
P( x |n = a 1; N = b + m 1) = x (1 x ) N n (3.15)
n!( N n)!
onde a parametrizao da ltima linha mostra uma certa
semelhana com a binomial. Uma pequena diferena que em
lugar de N temos N + 1 no numerador. A diferena fundamental
que na binomial falamos da probabilidade de n e aqui de x. As
duas distribuies esto relacionadas pelo resultado de Bayes:
P(n| x ) P( x |n). Voltaremos a falar nesta relao ao falar de
distribuies conjugadas.
Para a normalizao usamos um resultado devido a Euler
Z 1
n!( N n)!
EnN n = pn (1 p) N n dp = (3.16)
0 ( N + 1) !
probabilidades 49
n n1 n ( n 1) 1
EnN n = (3.17)
Nn+1 Nn+2 Nn+n N+1
3.5.7 Gamma
1 ( x )2
P( x |; ) = e 22 (3.20)
2
X N (, )
50 nestor caticha
3.5.10 Laplace
Semelhante exponencial, mas com x podendo ser qualquer valor
real, portanto tambm conhecida como dupla exponencial,
1 | x |
P( x |a) = e a (3.22)
2a
onde um parmetro de localizao e a de escala. Note o fator 2
para garantir a normalizao.
3.5.11 Cauchy
a distribuio de Cauchy tem vrios nomes associados, Lorentz,
Cauchy-Lorentz, Breit-Wigner.
1 1
P ( x | x0 , a ) = (3.23)
a 1 + ( x x0 )2
a2
O valor mdio no definido da forma convencional, mas usando
uma definio da integrao em intervalos infinitos devida a
Cauchy, o valor principal de Cauchy
Z Z L
IE( x x0 ) = IE( x ) x0 = P ( x x0 ) P( x | x0 , a)dx = lim ( x x0 ) P( x | x0 , a)dx = 0
L L
e no limite
dx
P(y| I ) = P( x | I )
dy
isto no mais do que simplesmente tomar a derivada com respeito
ao limite superior (no ponto y2 = y) e usar a regra da cadeia. As
regras de mudana de variveis no so mais que as regras de
mudana de varivel na teoria de integrao ou de medida. difcil
exagerar a importncia deste resultado.
O leitor poder agora estender os resultados para o caso em que
f for decrescente. Agora dx/dy = d f 1 (y)/dy dever ser
substituida por dx/dy. Tambm deve poder encontrar as regras
quando f no for monotnica, ou ainda quando x e y forem
generalizadas para mais dimenses.
Se a funo f ( x ) no for monotnica precisamos ter cuidado.
Olhemos para um exemplo simples. Seja U = X 2 , portanto um
valor u de U est associado a um valor x de X por u = x2 . A
52 nestor caticha
d
P(u| I ) = Prob(U < u| I )
du
d d dx
= ( Prob( X < x | I ) Prob( X < x | I )) onde x = u
dx dx du
1
= P( X = u| I ) + P( X = u) .
2 u
(3.25)
e que satisfaz 1 r 1.
probabilidades 53
4.1 Simetria
P( = 1| I 00 J2 ) = P( = 1| I 00 J1 )
P( = 1| I 00 J2 ) = P( = 1| I 00 J1 )
P( = 1| I 00 J2 ) = P( = 1| I 00 J1 )
P( = 1| I 00 J2 ) = P( = 1| I 00 J1 ). (4.3)
M
1
P(V | I2 ) = P(i| I2 ) = M N
i =1
M
= (4.4)
N
Este um resultado obtido a partir da regra da soma e da simetria
de informao sobre as bolas antes de extrair uma nica bola. Na
seo 2.1.1 vimos que em algum ponto da histria isto foi usado
como definio de probabilidade por Bernoulli e Laplace 4 . A 4
Repetimos: "...probabilidade, que ento
simplesmente a frao cujo numerador o
probabilidade de extrao de uma bola V simplesmente a razo
nmero de casos favorveis e cujo denomi-
entre os casos "favorveis"ou vermelhos e o total de casos. O nador o nmero de todos os casos poss-
estudante pode achar que j sabia isto e portanto uma perda de veis."No contexto:
"The theory of chances consists in re-
tempo. Deve entender que o objetivo aqui era o de identificar as ducing all the events of the same kind to
hipteses por trs deste resultado trivial e intuitivo. Deve ficar claro a certain number of cases equally possi-
ble, that is to say, to such as we may be
que isto no nenhuma frequncia porque ainda no foi retirada
equally undecided about in regard to their
uma nica bola da urna. Aprender a identificar as hipteses existence, and in determining the number of
subjacentes um dos objetivos do curso. Quando fcil, quando cases favorable to the event whose proba-
bilty is sought. The ratio of this number to
inituitivo, quando lembramos de ter escutado falar deste problema that of all the cases possible is the measure
no curso primrio, parece desnecessrio percorrer um caminho of this probability which is thus simply a frac-
tion whose numerator is the number of favo-
longo. Quando o estudante tiver que resolver problemas nunca
rable cases and whose denominator is the
antes vistos, ou mais interessante ainda, formular novos problemas, number of all the cases possible."
o exerccio de identificar as hipteses subjacentes ser amiude a A Philosophical Essay on Probabilities,
Pierre Simon, Marquis de Laplace. 6a ed.
nica ferramenta disponvel. Vemos que a regra M/N muito F.W.Truscott e F.L. Emory trads.
retritiva pois se aplica ao caso I2 e no permite levar em conta a
existncia de mafiosos nem outra variantes que podem ocorrer na
probabilidades 59
R
R
hmi = mP(m| p, R, I2 ) = m mpm (1 p)Rm
m =0 m =0
!
R
R
= m mpm qRm
m =0 q =1 p
!
R
R m Rm
= m ( p p p )q
m =0 q =1 p
!
R
R m Rm
p m
= p p q
=0 m
q =1 p
= p ( p + q) R
p q =1 p
= = pR( p + 1 p) R1 = pR (4.14)
que leva ah m2 i
= R2 p2
+ Rp(1 p)
A varincia comumente denotada var(m) ou 2 ou ainda m
2 e
definida por
2
m = h m2 i h m i2
e portanto para a distribuio binomial de m sucessos em R
tentativas a raiz varincia ou o desvio padro
q
m = Rp(1 p). (4.15)
X = m ( R m) = 2m R
hmi
p= (4.17)
R
ou seja
m
p=h i = hfi (4.18)
R
onde f = m/R a frequncia de sucessos. Em palavras, o valor
esperado da frequncia a probabilidade de sucesso. A frequncia
no a probabilidade. A frequncia um nmero que depende do
experimento realizado. Isto caracteriza a frequncia como um
nmero aleatrio. A varincia da frequncia
2f = h f 2 i h f i2
m m
= h( )2 i h i2
R R
1 2
=
R2 m
R 1
= 2
p (1 p ) = p (1 p )
R R
1
f = m (4.19)
R
Isto significa que embora a frequncia seja um nmero que depende
do experimento particular e s o seu valor esperado seja a
probabilidade de sucesso, medida que o nmero de tentativas R
aumenta, seu desvio padro vai a zero com 1/ R. Portanto
qualquer experimento que mea a frequncia encontrar valores
perto da probabilidade para R grande o que pode levar alguns de
vocs possibilidade de confundir frequncia com probabilidade.
Isto porm no perdovel.
O que significa perto e grande no pargrafo acima ser discutido
com mais cuidado no captulo 7, onde faremos estas idias mais
precisas olhando para a desigualdade de Chebyshev e definindo
66 nestor caticha
Normalizao leva a
m ,m2 ...mC N!
C N1 = (4.21)
m1 !m2 !....mC !
? ( N 1) !
m1 !m2 !..(mc 1)!..mC !
m ,m2 ...mC
C N1 =
c
c m c ( N 1) !
=
m1 !m2 !...mC !
N ( N 1) !
=
m1 !m2 !...mC !
N!
= (4.22)
m1 !m2 !...mC !
P( x2 , x1 | N, M, I4 ) = P( x2 | x1 , M, N, I4 ) P( x1 | N, M, I4 )
P( x2 = V, x1 = V | N, M, I4 ) = P( x2 = V | x1 = V, M, N, I4 ) P( x1 = V | N, M, I4 )
= P( x2 | N 1, M 1, I4 ) P( x1 = V | N, M, I4 )
M1 M
= , (4.23)
N1 N
pois na segunda extrao h somente N 1 bolas, das quais M 1
so vermelhas. A probabilidade que as primeira r bolas extraidas
sejam vermelhas
( M r 1)...( M 1) M
P( xr = V, ....x2 = V, x1 = V | N, M, I4 ) =
( N r 1)...( N 1) N
M!( N r )!
= (4.24)
( M r )!N!
que faz sentido mesmo que r > M se for convencionado que o
fatorial de nmeros negativos infinito. Continuamos, mas agora
calculamos as probabilidades que as bolas seguintes sejam azuis. O
estado da urna de N r bolas, das quais M r so vermelhas, e a
probabilidade de extrair uma bola azul :
N r ( M r) NM
P( xr+1 = A| N r, M r, I4 ) = = .
Nr Nr
Repetindo
( N M)!( N r b)!
P( xr+b = A, ...., xr+1 = A| N r, M r, I4 ) = .
( N M b)!( N r )!
Assim chegamos a que uma sequncia de r vermelhas seguidas por
b azuis tem probabilidade, pela regra do produto
(M 1 M2
r1 )( r2 )
P({r1 , r2 }| M1 , M2 , I4 ) := P({r, b}| N, M, I4 ) = . (4.27)
( Mr11 + M2
+r2 )
probabilidades 69
M
c=1...C ( rcc )
P({r1 , r2 ...rC }| M1 , M2 , ...MC , I4 ) = (4.28)
(c=1...C M c
rc )
c=1...C
P( x2 | N, M, I4 ) = P( x2 , x1 | N, M, I4 )
x1 =V,A
= P( x2 | x1 , N, M, I4 ) P( x1 | N, M, I4 )
x1 =V,A
(4.29)
P( x2 = V | N, M, I4 ) = P( x2 = V | x1 = V, N, M, I4 ) P( x1 = V | N, M, I4 )
+ P( x2 = V | x1 = A, N, M, I4 ) P( x1 = A| N, M, I4 )
M1 M M NM
= +
N1 N N1 N
M
= . (4.30)
N
Ou seja, como a primeira extrao no nos deu nenhuma
informao, a probabilidade de extrao no segundo passo
continuou sendo M/N.
Podemos pensar sobre o que acontece se as duas primeiras bolas
forem escondidas. O mesmo. Se no h informao no h
alterao de probabilidades. Mas suponha que extraimos e
escondemos uma bola. Extraimos uma segunda e vermelha. O
que isto nos diz sobre a bola escondida? Queremos saber sobre
P( x1 | x2 , N, M, I4 ). Voltamos a pensar sobre a distribuio conjunta e
usamos novamente a regra do produto
P( x2 , x1 | N, M, I4 )
P( x1 | x2 , N, M, I4 ) = .
P( x2 | N, M, I4 )
Especificamente, suponha que a segunda bola vermelha, qual a
probabilidade que a primeira seja vermelha:
P( x2 = V, x1 = V | N, M, I4 )
P( x1 = V | x2 = V, N, M, I4 ) =
P( x2 = V | N, M, I4 )
M 1 M
N 1 N M1
= M
= ,
N
N1
P( p| R, I2 ) P(m| p, R, I2 )
P( p|m, R, I2 ) = . (4.33)
P(m| R, I2 )
A distribuio a priori P( p| R, I2 )
I= descrio do processo
Z 1
P(m|nMN I ) = P(m, p|nMN I )dp.
0
Z 1
P(m|nMN I ) = P(m| pnMN I ) P( p|nMN I )dp. (4.34)
0
P( p| N I ) P(n| pN I )
P( p|nN I ) = (4.35)
P(n| N I )
P( p|nN I ) P(n| pN I ) pn (1 p) N n
p n (1 p ) N n
= R1
0 p0n (1 p0 ) N n dp0
( N + 1) ! n
= p (1 p ) N n , (4.36)
n!( N n)!
Z 1
r!k!
Ekr = pr (1 p)k dp = (4.37)
0 (r + k + 1) !
informao de n, N,
Z 1
P(m|nMN I ) = P(m| pMI ) P( p|nN I )dp
0
M ( N + 1) !
Z
= pm (1 p) Mm pn (1 p) N n dp
m n!( N n)!
M ( N + 1) ! m + n
= E
m n!( N n)! N + Mnm
M! ( N + 1) ! ( m + n ) ! ( N + M n m ) !
=
m!( M m)! n!( N n)! ( N + M + 1) !
N+Mnm
n+m 1
= N + M +1
n Nn ( )
N +1
Nn
n+1 1
P(m = 1|n = N, M = 1, N, I ) =
n N n ( N +2 )
N +1
N+1
= .
N+2
Este resultado recebe o nome de regra da sucesso. Aqui Laplace
cometeu o seu maior erro, no no uso das regras da probabilidade
nem de contas. Simplemente fez uma piada que foi mal entendida
por muitos estudiosos que o seguiram. A estimativa bblica da
idade do universo era da ordem de 5000 anos 1.82613 106 dias.
Em todos esses dias nasceu o sol. Qual seria a probabilidade de que
o sol saisse amanh? Pela regra da sucesso 4.38, seria
1 5. 107 = 0.9999995. A chance de sair seria 182614 vezes
maior que a de no sair. Na frase seguinte piada, retomando um
aspecto mais srio, disse que 6 6
"Mais ce nombre est incomparablement
plus fort pour celui qui connaissant par
Mas este nmero incomparavelmente maior para ele que, lensemble des phnomnes, le principle r-
reconhecendo na totalidade dos fenmenos o principal regulador dos gulateur des jours et des saisons, voit que
dias e estaes, visto que nada no momento presente pode deter a rien dans le moment actuel, ne peut en ar-
rter le cours". Essai philosophique sur les
sua marcha"
probabilits Laplace
Laplace.
Isto significa que deve ficar claro ao usurio, que se tiver mais
informao, no caso do sol todo o conhecimento de Dinmica e
Astronmia, deve por todos os meios us-la. O clculo acima ento
76 nestor caticha
N , p 0, N p = constante
N!
pm = pm N ( N 1)( N 2) ( N m + 1)
( N m)!
1 2 m1
= pN (1 ) pN (1 ) pN (1 ) pN
N N N
m (4.40)
e
N m
(1 p ) N m = (1 ) (1 ) N
N N
e .
N!
P(m| p, N, I2 ) = p m (1 p ) N m
m!( N m)!
1 N!
= pm (1 p ) N m
m! ( N m)!
m
P(m|) = e . (4.41)
m!
Lembramos que o valor mdio
hmi = , (4.42)
e o segundo momento
h m2 i = + 2 , (4.43)
P(m|) = P(m|) + mP(m|) (4.45)
pois teremos, multiplicando por mk e somando sobre m:
k
h m k +1 i = h m k i + m P(m|)
m
= hmk i + hmk i (4.46)
Volteremos a falar desta distribuio ao analisar dados
experimentais.
1
P ( x t +1 = 1 | x t = 1 ) = 1 P( xt+1 = 11| xt = 1) = 0.42
2
1
P ( x t +1 = 1 | x t = 1 ) = 1 P ( x t +1 = 1| xt = 1) = 0.42
2
Se voc no lembrasse do passado isso no poderia ocorrer. Ver
vrios smbolos iguais sugere que o prximo deve ser diferente.
Imaginem o contrrio, um observador olha para um processo
binomial e se surpreende que houve vrios smbolos iguais. O que
faz? Aposta que o prximo tambm deve ser iguais pois "se tudo
fosse normal"deveria haver uma compensao. Acredita que o
processo est quente e se dispe a apostar mais alto, porque a
mquina que gera as jogadas "est quente". Perceber que
80 nestor caticha
Entropia.
1 ( x )2
P( x |) = e 22 . (5.1)
2
Dizemos que uma varivel gaussiana ou normal se a densidade de
probabilidade a gaussiana acima. Tambm escrevemos
P( x |) = N (, 2 ), (5.2)
= hmi (5.8)
q
= Rp(1 p). (5.9)
probabilidades 83
d m m
log P(m| p, R, I2 ) = log 1 + log(1 ) + 1 + log p log(1 p)
dm R R
m/R p
= log + log (5.13)
1 m/R 1 p
d2 R
log P(m| p, R, I2 )|m= =
dm2 ( R )
1
= 2 (5.14)
e at segunda ordem
1
log P(m| p, R, I2 ) log P(| p, R, I2 ) (m )2 + ... (5.15)
22
Vamos introduzir uma nova varivel X que toma valores x nos reais
x m, com densidade de probabilidade
P( x |)dx = P(m| p, R, I2 )
1 ( x )2
P( x |) = e 22 . (5.16)
2
( x )2
Note que da expresso anterior teriamos s que P( x |) e 22 ,
mas sabemos qual deve ser a normalizao correta. claro que ter
probabilidades 85
d2 1 1
log P(m| p, R, I2 ) =
dm2 m Rm
d3 1 1
log P(m| p, R, I2 ) =
dm3 m2 ( R m )2
d4 1 1
log P(m| p, R, I2 ) = 2 3
+2
dm4 m ( R m )3
dk 1
log P(m| p, R, I2 )| = O( ) (5.17)
dmk m k 1
x = x1 + e x
( e x )2
onde P(ex | x x Ie ) = 1 e 2x . O valor esperado de e x ,
2
2x
isto costuma ser chamado de erro sistemtico. Vamos supor que h
motivos para achar que seja zero, o que poderia ser alcanado
calibrando corretamente os aparelhos de medida. A raiz quadrada
da varincia x descreve a disperso dos erros dos valores medidos
em torno da mdia. Segue que
( x x1 )2
1
2x2
P( x | x1 Ie ) = P(ex | x x Ie ) = e (5.24)
2x
88 nestor caticha
z = z1 + e x + ey . (5.26)
1
= exp( 2 (z x y1 )2 )
2y
90 nestor caticha
!
( y y1 )2 1
Z
s 0
dy exp 2
s (z x y) exp( 2 (z x y1 )2 )
2y 2y
(5.31)
z2 = x2 + y2 . (5.34)
z = zmoda = x1 + y1 , (5.35)
Mprod : s = xy (5.38)
x
Mrazo : r= (5.39)
y
Agora esperamos que s e r sejam descritos por s1 = x1 y1 e
r1 = x1 /y1 mais algum erro:
s = ( x1 + ex )(y1 + ey )
x1 + e x
r =
y1 + ey
Supondo que as amplitudes dos erros sejam pequenos, ou seja
x1 >> x e y1 >> y , ento 8 8
No vamos fazer a conta exata pois entram
funes que no so familiares aos leitores,
eg. de Bessel
probabilidades 93
s = ( x1 + ex )(y1 + ey ) = s1 + x1 ey + y1 ex + ex ey
s 1 + x 1 e y + y 1 e x = s 1 + 1 + 2 .
e fica mais bonito ao dividir por s21 , dando uma medida do desvio
padro relativo ao valor do do produto:
s2 y2 y2
= + (5.41)
s21 x12 y21
Voltamos ao quociente:
ex
x1 1 + x1 ex ey
r = ey r1 (1 + )(1 )
y1 1 + x1 y1
y1
ex ey
r1 (1 + )
x1 y1
ex ey
r1 + x1 2
y1 y1
= r1 + 10 + 20 (5.42)
r2 y2 y2
= + . (5.44)
r12 x12 y21
y2 u2 y2
Z Z
!
1
2x2 2y2
P (r ) = (r u ) e |y|du e dy
2x y
y2 r 2 y2
Z
! Z
1 1 y2
2x2 2y2 2
= e e |y|dy = 2A e |y|dy,
2x y 2x y
Z y2 Z y2
1 2 1 2
= e
2A |y|dy = 2A e ydy
x y 0 x y 0
A2
Z
P (r ) = ev dv
x y
A2
=
x y
1 x 1
= . (5.46)
y r2 + x2
y2
P ( e x , e y | I ) = P ( e x | I ) P ( e y | I ) = f ( e x ) f ( e y ),
ex = er cos e
ey = er sin e
er2 = e2x + e2y
P(ex , ey )dex dey = P(er , e )er der de
(5.49)
f ( e x ) f (0) = g ( e x ),
15
Isto no passa de uma deduo rpida de
uma gaussiana e da forma funcional da den-
5.6 A Distribuio normal cumulativa sidade de velocidades. Porque aparece a
massa da partcula ou a temperatura ser o
Uma varivel X N (0, 1) tem distribuio cumulativa tema de captulos posteriores que no sero
vistos num curso introdutrio.
Z x
1 2 dt
( x ) = e 2 t . (5.50)
2
1 1 x
( x ) = + erf( ) (5.52)
2 2 2
x = r cos
y = r sin
q
r = x 2 + y2
y
= arctan
x
dxdy rdrd. (5.58)
r2
mudar novamente variveis: u = 22
, e para o diferencial temos
du = rdr
2
, que leva a
Z
Ic2 = 22 c2 eu du
0
u
= 22 c2 e
0
2 2
= 2 c (5.59)
x2 1
+ hx = x2 2(h2 ) x
22 22
1
= 2 x2 2(h2 ) x + h2 4 h2 4
2
1 2 h2 2
= 2 x (h2 ) + , (5.64)
2 2
ou seja, somamos e subtraimos h2 4 para completar um quadrado
perfeito. Muda variaveis, fazendo uma translao e usamos a
integral da normalizao.
Um comentrio talvez fora de lugar, mas que torna 5.63 muito
2 2
interessante, notar que a varincia, no termo exp h 2 aparece no
100 nestor caticha
1 12 u T u
= N
e dN x
(2 ) 2
u = A(y y0 ), u T = (y T y0T ) A T .
O Jacobiano da transformao 20 20
Usamos det AB = det A det B.
u 1
| | = | det A| = p ,
y | det C |
u N
P(y)d N y = P(u)| |d y
y
1 1 1 T 1
= N
p exp ( y y0 ) C ( y y0 ) .
(2 ) 2 det |C | 2
(5.68)
que til pois ao derivar com respeito a Ji cai um fator yi y0i , que
ajuda a calcular os valores esperados:
2 ln Z
| J =0 = IE((yi y0i )(y j y0j ))
Ji J
102 nestor caticha
Estude a prova deste teorema e use para provar que para cada
elemento da matriz de covarincia vale
ou
Cij
1 q 1. (5.75)
Cii Cjj
xi2
Defina 2 = in=1 i2
, que por sua vez uma varivel aleatria. Qual
a sua distribuio? Devemos olhar para a densidade de
probabilidades 103
1
f (t; x ) = x log x x ( x t )2 . (5.78)
2x
Supondo que no uma aproximao muito ruim desprezar as
derivadas superiores,
Z
1 2
( x + 1) e x log x x e 2x ( xt) dt
x
Z
1 2
e x log x x e 2x ( xt) dt
= 2xe x log x x (5.79)
1 1
log n! = log (n + 1) = (n + ) log n n + log 2, (5.80)
2 2
mostrando de forma intuitiva a equao 5.4. Tambm
intuitivamente razovel que a aproximao deva ser melhor para
valores maiores de x, dado que as derivadas superiores desprezadas
so menores: f 000 (tmax )/ f 00 (tmax ) = 2/tmax = 2/x. Estas
consideraes podem ser provadas, assim como as correes da
equao 5.80, mas o leitor dever procurar outros textos (e.g. 21 ) 21
0.6
0.4
0.2
0
0 5 10 15 20 25
0.6
0.4
0.2
0
200 250 300 350 400
A=Est chovendo
B=H nuvens
C = A B00
P( A|CI ) P( B| ACI )
P( A| BCI ) = , (6.1)
P( B|CI )
P( B| ACI ) = 1. (6.2)
1 P( A| BCI ) 1 P( A|CI )
P( A| BCI ) P( A|CI )
P( A| BCI )
1 (6.6)
P( A|CI )
e
P( B| ACI ) P( B|CI ) (6.7)
sensibilidade: P( A| D ) = 1 P( A| D ) = 1. .2 = .8, a
probabilidade de teste no dar positivo no caso em que o
paciente no est doente,
108 nestor caticha
A|C A|C 0 ,
Jaynes defende que este desejo est de acordo com o bom senso.
Talvez seja difcil definir o que bom senso, mas sera mais difcil
negar que isto seja razovel. Jaynes coloca isto como um dos
axiomas para chegar teoria de probabilidades, por isso acima a
referncia plausibilidade, mas podiamos ter simplesmente dito
probabilidade.
O leitor talvez possa se convencer atravs de um simples
exemplo. Seja A=H vida em Marte, C= H gua em Marte,
C 0 = C, a negao de C. Suponhamos bvio que A|C A|C 0 .
Suponha que B=Hoje segunda feira. Certamente B|C = B|C 0 ,
pois que influncia pode ter saber sobre a gua em Marte, sobre o
que eu possa acreditar sobre o dia da semana. Tambm razovel
que a plausibilidade de que "haja vida em Marte e hoje seja segunda
feira"dado que "h gua em Marte"seja maior ou igual
plausibilidade que "haja vida em Marte e hoje seja segunda" dado
que "no h agua em em Marte. "
Mas agora temos a regra de produto para as probabilidades ou
plausibilidades regraduadas, e portanto podemos provar isto
M : v = v0 + gt (6.14)
Para cada valor de g que for inserido nessas frase teremos uma
assero diferente. O que queremos comparar o mrito de cada
assero, qual a probabilidade de cada uma delas, para todos os
valores que possam ser inseridos.
O exerccio um exemplo do dia a dia dos fsicos.
A regra de Bayes nos permite escrever
P( H | I ) P( D | H I )
P( H | DI ) = . (6.15)
P( D | I )
...
vi = v0 + gti + i . (6.16)
2
iN=1 i
e 22
P(1 , 2 .... N | Iexp ) =
(22 ) N/2
(vi v0 gti )2
iN=1
e 22
P(1 , 2 .... N | Iexp ) = .
(22 ) N/2
(vi v0 gti )2
iN=1
P( H | I ) e 22
P( H | DI ) = . (6.18)
PD | I ) (22 ) N/2
(vi v0 gti )2
iN=1
P( g| DI ) e 22 (6.21)
iN=1 ti (vi v0 )
g MAP = (6.23)
iN=1 t2i
2
G2 =
iN=1 t2i
(6.24)
ento
vt
g MAP = (6.25)
t2
2
G2 =
N t2
(6.26)
P0 ( p) P(s1 | p)
P( p| D1 ) = (6.28)
P( D1 )
P( p| D1 ) P0 ( p) P(s1 | p)
P( p| D2 ) P0 ( p) P(s1 | p) P(s2 | p)
P( p| D3 ) P0 ( p) P(s1 | p) P(s2 | p) P(s3 | p)
..
.
N
P( p| D N ) P0 ( p) P(si | p) (6.31)
i =1
P0 ( p) pn (1 p) N n
P( p| D N ) = R 1 . (6.33)
0 P0 ( p0 ) p0n (1 p0 ) N n dp0
p n (1 p ) N n
P( p| D N ) = R1
0 p0n (1 p0 ) N n dp0
( N + 2)
= p n (1 p ) N n
( n + 1) ( N n + 1)
( N + 1) ! n
= p (1 p ) N n (6.34)
n!( N n)!
d
P( p| D N )| pmax = 0
dp
1
npnmax (1 pmax ) N n = ( N n) pnmax (1 pmax ) N n1
n
pmax = . (6.35)
N
Isto est relacionado o que encontramos para a binomial, que o
valor esperado hni = pN. Usando o resultado 3.16 de Euler
Z 1
r!k!
Ekr = pr (1 p)k dp = (6.36)
0 (r + k + 1) !
obtemos que
Z 1
( n + 1) ! ( N n ) !
EnN+1n = pn+1 (1 p) N n dp = (6.37)
0 ( N + 2) !
probabilidades 119
EnN+1n
IE( p) =
EnN n
( n + 1) ! ( N n ) ! ( N + 1) !
=
( N + 2) ! n!( N n)!
n+1
= . (6.38)
N+2
N
1 n
N i = N
= pmax . (6.39)
i =1
P(| Dn I ) P(|I ) P( Dn |I )
P(|I ) P( xi |I )
i
P(|I ) exp( log P( xi |I )) (6.40)
i
d
d
0 = ( ( xi )2 )|0
i
0 = ( x i 0 )
i
1
0 =
n xi , (6.42)
i
= 0 . (6.44)
N
d ( x )2
0 = ( i 2 ) 0
d i i
1
0 =
n xi ,
i
1 1
2
N
= 2 (6.45)
i
Z
P ( | Dn I ) = P(| Dn I )d e por Bayes:
Z
P(| I ) P( Dn |I )d. (6.46)
0
1
Z a
P ( | Dn I ) d e 22
N +
Z
at2
dtt2 t N + e 2
0
1 N + 2+1 t 02
Z
( ) 2 dt0 t0 N +2 e 2
a
1 N + 1
( ) 2
a
1 N + 1
( ) 2 . (6.47)
i ( x i )2
1
P ( | Dn I ) N + 1 (6.49)
( x )2 + ( x2 x2 )
2
1
Z
a
P ( | Dn I ) du N +
e 2u
u
2
1 1
Z Z
1
du0 N e 2u0
a 0 u0 2 +
1 N + 1
( )2
a
1 N
( ) 2 + 1 . (6.50)
i ( x i )2
1 d2
= log P(| Dn I )|=0
2 d2
N ( N + 1) N ( N + 1)
= =
i ( x i 0 ) 2 i ( xi x )2
S
= (6.52)
N
onde (usaremos a moda 0 = x a mdia emprica)
1
N+1
S2 = ( xi x )2
i
( x i )2 = (xi2 2xi + 2 + x2 x2 )
i i
= N ( x2 2x + 2 ) + ( xi2 x2 )
i
= N ( x )2 + ( xi x )2 (6.53)
i
1
P ( | Dn I ) N + 1
. (6.54)
[ N ( x )2 + i ( xi x )2 ] 2
probabilidades 125
1
P ( | Dn I ) N + 1
[( x )2 + ( N + 1) S2 ] 2
1
[ N t2 + 1] 2
(6.56)
( xi r )
( x i r )2
= 0, (6.60)
i 1+ a2
Nome Assero
Hi : O prmio est atrs da porta i
Di ; a banca B abre a porta i
Ii J aponta inicialmente a porta i
e P( H2 | D3 I1 ). Definamos r por
P( H1 | D3 I1 )
r :=
P( H2 | D3 I1 )
P( Hi D j | Ik ) = P( Hi | Ik ) P( D j | Hi Ik )
= P( D j | Ik ) P( Hi | D j Ik ), (6.61)
P( Hi | Ik ) P( D j | Hi Ik )
P( Hi | D j Ik ) = .
P( D j | Ik )
P( H1 | D3 I1 ) P( H1 | I1 ) P( D3 | H1 I1 )
r= = .
P( H2 | D3 I1 ) P( H2 | I1 ) P( D3 | H2 I1 )
P( H J | D/856.322 I J ) P( H J | I J ) P( D/856.322 | H J I J )
r= = =
P( HB | D/856.322 I J ) P( HB | I J ) P( D/856.322 | HB I J )
1 1
N 1 1 1
= N
1
= = 6 ' 106 .
N 1 N1 10 1
1. Cada urma tem duas bolas. Uma tem duas bolas brancas (U0 ),
outra tem uma branca e uma preta (U1 ) e a terceira duas pretas
(U2 ).
probabilidades 131
Z
P(y| N = 2)dy = dx1 dx2 P( x1 ) P( x2 ), (7.1)
y x1 + x2 y+dy
pois cada par de valores temos uma assero disjunta. O vnculo
y x1 + x2 y + dy pode ser removido introduzindo a funo A
que 1 se a condio A for satisfeita e zero se no 2 . 2
A chamada a funo caracterstica do
Z intervalo ou conjunto A, no confunda com a
funo caracterstica da distribuio de pro-
P(y| N = 2)dy = y x1 + x2 y+dy dx1 dx2 P( x1 ) P( x2 ), (7.2)
babilidades definida abaixo.
Z
P ( y | N = 2) = dxP( x ) P(y x ), (7.5)
Da regra do produto
Z
P(y) = dx1 dx2 P(y| x1 , x2 ) P( x1 , x2 ). (7.7)
Exerccio
Discuta a diferena entre P(Y ) a distribuio da soma e P( X1 X2 ),
para o produto lgico, que denotaremos por P( x1 , x2 ) a chamamos
de distribuio conjunta de X1 e X2 . Considere tambm a varivel Z
que toma valores iguais ao produto dos valores de X1 e X2 : obtenha
uma expresso para P(z) quando z = x1 x2 .
(ik)s s
= s!
hx i (7.11)
s =0
(ik)s
= s!
Ms ,
s =0
obtemos
Z
( k | N = 2) = dydxeiky P( x ) P(y x ),
dxdydk1 dk2
Z
= (k1 |1)(k2 |1)eiky+ik1 x+ik2 (y x) .
(2 )2
Integrando sobre x e usando a representao da delta:
dydk1 dk2
Z
= (k1 |1)(k2 |1)eiky+ik2 y (k1 k2 ),
2
= ( k |1) ( k |1) = 2 ( k | N = 1) (7.13)
obtemos
( k | N = n ) = n ( k | N = 1) (7.16)
e a inverso da transformada nos d a distribuio de P(y| N = n).
No espao de Fourier a convoluo simples produto, ou seja
vamos para o espao de Fourier, multiplicamos e depois voltamos
ao espao original fazendo a transformao inversa.
Podemos tomar o logartmo de cada lado da equao 7.16 e dado
que produtos, ao tomar logaritmos, viram somas, temos
n
Y ( k | N = n ) = log (k| N = n) = log (k| N = 1)
i
= n log (k| N = 1) = n X (k| N = 1). (7.17)
(ik)s (ik)s
Ms ( n ) s!
= es=0 Cs (n) s! . (7.19)
s =0
A equao 7.17 nos indica o motivo do nome dos cumulantes: a
aditividade (ou acmulo) ante convolues
Cs (Y = Xi ) = Cs (Xi ),
i i
Cs (n) = nCs (1), (7.20)
1 ds log
Cs = | (7.21)
(i )s dks k=0
C0 = 0,
C1 = h x i,
C2 = h x 2 i h x i2 ,
C3 = h x3 i 3h x2 ih x i + 2h x i3 ,
C4 = h x4 i 4h x3 ih x i 3h x2 i2 + 12h x2 ih x i2
6h x i4 , (7.23)
Portanto
CsY (n) s
uYs (n) = s = n1 2 usx , (7.27)
(C2Y (n)) 2
CsZ (n) s
usZ (n) = s = n1 2 usx ,
(C2Z (n)) 2
CsW (n) s
uW
s (n) = s = n1 2 usx , (7.28)
(C2W (n)) 2
Exerccio
(ik)s
Z (k|n) = exp( CsZ (n) )
s =1
s!
probabilidades 139
k2 (ik)s 1 s X
| Z (k|n) + ik n x + x2 | = | n 2 Cs |
2 s =3
s!
k2 1 (ik )s 3s X
| Z (k|n) + ik n x + x2 | = | n 2 Cs |
2 n s=3 s!
(7.31)
para obter
(z n)2
1
2x2
P( Z | N = n) = p e (7.34)
2x2
140 nestor caticha
Exerccio
Mostre que os resultados acima ( eqs. 7.34 e 7.35) so exatos no caso
particular que a distribuio P( x ) gaussiana:
( x )2
1
2x2
P( x ) = p e
2x2
Soluo: O exerccio anterior mostra que os cumulantes com s 3
so nulos. Logo, no necessrio desprez-los.
Temos o resultado importante que somas de variveis gaussianas
tem distribuio gaussiana. No captulo sobre a gaussiana
encontramos explicitamente que a soma de duas variveis normais
tambm normal. Este um exemplo de uma distribuio dita
estvel sob adies. Somas de variaveis gaussianas so gaussianas.
7.2.1 Um teorema
Podemos fazer o argumento acima um pouco mais cuidadoso e
obter algo mais parecido a um resultado rigoroso. O qu temos e o
que falta?
Os cumulantes de ordem s 3 de uma distribuio normal so
nulos.
(k|n) (k)
Exerccio
b
Mostre que a distribuio de Cauchy P( x ) = 1 x2 + b2
estvel. Note
que portanto a soma de variveis de Cauchy no gaussiana.
Discuta primeiro a varincia de x para ver onde os argumentos
acima falham.
C2W (n)
Prob(|w hwi| e) (7.37)
e2
Mas C2W (n) depende de maneira simples de n. Extraindo esta
dependncia temos que a probabilidade de que uma amostra de n
valores { xi } que tenha uma mdia emprica hwi e que este valor se
afaste do valor mdio por mais que e, isto , , Prob(|w hwi| e)
est limitada por:
C2x
Prob(|w hwi| e) (7.38)
ne2
As flutuaes de w de tamanho maior que e fixo, ficam mais
improvveis quando n cresce.
O prximo exerccio mostra de que forma a frequncia de um
evento esta relacionada com a probabilidade.
142 nestor caticha
n!
P(m| N = nI 0 ) = pm qnm (7.39)
m!(n m)!
Teorema LC
(Kinchin) Suponhamos que existam A, a, b , c e d constantes
positivas tal que
dP( x )/dx contnua
R
|dP( x )/dx | dx < A
a < h x2 i = 2 < b
h| x3 |i < b
h x4 i < b
h| x5 |i < b
|(k)| < .
Ento
Na regio central, definida por | x | < 2 log2 n
1 y2 Sn + yTn 1 + | x |3
P (Y | N = n ) = e 2n2 + + O ( )
2n2 (n2 )5/2 n2
onde Sn e Tn so independentes de y e no crescem mais rpido
que n.
Para y arbitrrio
1 y2 1
P (Y | N = n ) = e 2n2 + O( )
2n2 n
Z Z
dk 2 kL dk
P (Y = y | N = n ) = [(k|1)]n eiky = [ sin( )]n eiky
2 kL 2 2
(7.41)
Figura p
7.3: A funo caracterstica
log(|( |u|| N = n)|) como funo
de u = k2 sign(k ), para a soma de n
varaveis uniformemente distribuidas. Nesta
representao gaussianas aparecem como
retas abs(u). Esquerda: na regio
central parecem gaussianas. Direita: fora da
regio central diferem de gaussianas. Nesta
figura dividimos por n e todas as curvas
colapsam. As retas so para a gaussiana
mais proxima 2 /2n = 1/24. Note a
diferena da escala de u nas abscissas.
2 |u| (gaussiana).
Exerccio Mostre que 2 /2 = n/24.(verificar??)
Z
a dk
P (Y = y | N = n ) = ( )n eiky (7.43)
a + ik 2
Integrando por partes (u = eiky , dv = ( a+a ik )l dk, para l = n, n 1, ...1
) obtemos:
yn1 eay
P (Y = y | N = n ) = ( y ) a n . (7.44)
( n 1) !
Faa a conta. Obviamente no uma gaussiana, mas uma
distribuio gamma. No entanto, a regio central sim, se parece
com uma gaussiana.
y n = y n 1 + x n (7.45)
Figura 7.8:
148 nestor caticha
log P(m| N = nI 0 )
= log m + log(n m) + log p log q
m
2 log P(m| N = nI 0 ) 1 1
=
m2 m nm
Temos que em m = np a probabilidade mxima e nesse ponto a
1
segunda derivada vale = npq . A expanso de Taylor at segunda
0
ordem do log P(m| N = nI ) nos leva a uma gaussiana para
P(m| N = nI 0 ) de forma bvia (qualquer expanso at segunda
ordem quadrtica). O que deve ser verificado se essa expanso
faz sentido. Esperamos, pela equao 7.27, que os termos superiores
decaiam com n. Verifiquemos isso explicitamente para o termo
cbico (proporcional ao terceiro cumulante) e superiores:
3 log P(m| N = nI 0 ) 1 1
= 2
m3 m ( n m )2
1 1
P(m| N = nI ) = exp ( m m )2 (7.48)
22 22
y = f ( x, ),
(1) Previso de y
P(M1 | Dn I )
O12 = . (8.1)
P(M2 | Dn I )
P(Mi | I ) P( Dn |Mi I )
P(Mi | Dn I ) = . (8.2)
P ( Dn | I )
Dn P(M1 | I ) P( Dn |M1 I )
O12 = (8.3)
P(M2 | I ) P( Dn |M2 I )
0 dos modelos
Se definirmos de forma bvia as chances a priori O12
podemos escrever
Dn 0 P( Dn |M1 I ) 0
O12 = O12 = O12 B12 (8.4)
P( Dn |M2 I )
P( Dn |M1 I )
onde a razo B12 = P( Dn |M2 I )
amide chamada de fator de Bayes.
152 nestor caticha
P(i |Mi I ) P( Dn |i Mi I )
P ( i | Dn M i I ) = . (8.5)
P( Dn |Mi I )
! di
|i | ML
P( Dn |iML Mi I )
|i | apriori
P( Dn |iML Mi I )ei di (8.9)
| | ML
onde i = log | |i e deve ser positivo se os dados so
i apriori
informativos. Vemos que a evidncia paga um preo exponencial no
nmero de parmetros do modelo. O significado de no positivo
que a regio plausvel a priori menor que a regio de parmetros
permitida pela verossimilhana. Os dados e o modelo aumentam a
154 nestor caticha
IC = 2 log P( Dn |Mi I )
2 log P( Dn |iML Mi I ) + 2i di (8.10)
A
f ( x, ) = f ( x, A, x0 , ) =
1 + ( xx0 )2
( x ) = (8.15)
I = IT + ( h 2 ) .
x
PY (y)dy = PX ( x ) dy (9.5)
y
y o jacobiano da transformao e dy = i dyi . No caso de
onde x
interesse numrico temos aproximadamente
e zero fora.
= a + (b a), = c
9.2.7 Crculo
Exemplo: calcule
A figura mostra os resultados de algumas simulaes para
estimar . Foram gerados NMC pares de numeros aleatrios ( x, y).
Se z = x2 + y2 1 ento o ponto aceito, de outra forma
rejeitado.Os resultados foram obtidos para NMC = 10 2m passos de
Monte Carlo, com m = 2, 4..., 20. O resultado (figura (a) abaixo esq.
acima) mostra os pares aceitos. Continuando no sentido horrio,
temos os resultados respectivamente :
164 nestor caticha
Z Z
P( x |t) = P( x |t + 1) P( x |t) = P(z|t)( x |z)dz P( x |t) (z| x )dz,
Z
P( x |t) = P( x |t + 1) P( x |t) = [ P(z|t)( x |z) P( x |t)(z| x )] dz
(9.7)
A interpretao imediata, a variao da probabilidade, de um
instante para o outro, tem duas contribuies, de entrada e sada. O
primeiro termo [ P(z|t)( x |z)] dz representa o nmero de
caminhadas em um volume dz em torno de z no instante t, que
166 nestor caticha
h f n f n + k i h f i2
C (k)
h f n f n i h f i2
onde Z
hfi = f ( x )w( x )dx
Z Z
h f n f n+k i = f ( xn ) f ( xn+k )w( xn )k ( xn+k | xn )dxn+k dxn
e
Z Z
k ( xn+k | xn ) = ... ( xn+k | xn+k1 )( xn+k1 | xn+k2 )...( xn+1 | xn )dxn+k1 dxn+k2 ...dxn1
h f n f n+k i MC h f i2MC
C MC (k)
h f n f n i MC h f i2MC
probabilidades 167
N k
1
h f n f n+k i MC =
Nk f ( xi ) f ( xi +k )
i =1
N
Z b r
1 2
I=
a
f ( x )w( x )dx ' I MC =
N f ( xi ) f
N
i =1
e F tal que
F ( a)
= a, para todo a (9.10)
F (1/a)
Para escolher T (.|.) til definir uma distncia entre configuraes.
Se estivermos falando de graus de liberdade no espao euclideano,
a soma das distncias entre uma parcula nas configuraes x e z
uma boa escolha. Para um sistema de Ising podemos medir a
distncia pelo nmero de spins diferentes entre duas configuraes.
Definimos uma regio B( x |z), uma bola, e a funo indicadora B ,
que toma valores 1 dentro da bola e zero fora. A escolha mais
comum, para a probabilidade de tentativa de mudana tomar
1
T (z| x ) = constante dentro B( x |z) =
|B( x |z)|
A( x |z) w( x )
=
A(z| x ) w(z)
A escolha associada ao nome de Metropolis ( )
F ( a) = min(1, a).
min(1,a)
a < 1 segue que min(1,a1 )
=a
pois o termo com sinal positivo tem P(z) que sempre negativo
em C (z), e o termo com sinal negativo tem P( x ) que sempre
positivo em C+ ( x ).
Analogamente , integrando a equao 9.14 sobre o conjunto de
configuraes C ( x ), vemos que
Z
P = P( x |t)dx (9.16)
C ( x )
Z
= [P(z)( x |z) P( x )(z| x )] dzdx.
C ( x ),C+ (z)
0. (9.17)
Pseudo cdigo
6 A configurao do sistema guardada numa matriz sigma de 6
Pode pegar o programa em
http://rajeshrinet.github.io/blog/2014/ising-
dimenses L L. Isto sigma(Ix,Iy)= 1.
model/
A funo Controle(param) controla que funo executada e
com que paramtros: param=(L,Nterm,NMC,deltaNMC, interT)
A rede tem tamanho L2 , Nterm, NMC*deltaNMC so
respectivamente o nmero de configuraes geradas para permitir
termalizao e o nmero de configuraes que sero geradas na fase
172 nestor caticha
def Controle(param):
Controle(param)
Grafico
10
A equao de Chapman Kolmogorov
Notas preliminares.
Voltemos ao processo em tempo discreto onde IN : "a cada tic ti
do relgio, com ti = T = {1....N }, uma varivel si que toma
valores 1 gerada por um processo a ser descrito por hK ". Q
probabilidade desta
1
W ( x |z, t) = IP( x (t + t)|z(t)) (10.5)
t
1
Z
A(z, t) = lim lim ( x z) IP( x (t + t)|z(t))dx (10.6)
e0 t0 t | x z|<e
1
Z
B(z, t) = lim lim ( x z)2 IP( x (t + t)|z(t))dx (10.7)
e0 t0 t | x z|<e
Z
1 1
t ft|y = lim lim dxdz( f (z) + f 0 (z)( x z) + ( x z)2 f 00 (z) + O(e3 ))
e0 t0 t | x z|<e 2
IP( x (t + t)|z(t)) IP(z(t)|y(t0 )) +
Z
dxdz f ( x ) IP( x (t + t)|z(t)) IP(z(t)|y(t0 ))dx
| x z|e
Z
0
f (z) IP(z(t)|y(t ))dz . (10.11)
1
Z
t ft|y = dz( f 0 (z) A + B f 00 (z) + O(e3 )) IP(z(t)|y(t0 )) +
2
Z
1
lim lim dxdz f ( x ) IP( x (t + t)|z(t)) IP(z(t)|y(t0 ))+
e0 t0 t | x z|e
Z
dxdz f (z) IP( x (t + t)|z(t)) IP(z(t)|y(t0 ))
| x z|<e
Z
0
f (z) IP(z(t)|y(t ))dz . (10.13)
Note que nas integrais acima feitas nas regies maior e menor que e
o integrando no o mesmo, numa aparece f ( x ) e na outra f (z).
Vamos separar o ltimo termo tambm em regies maior e menor
que e, de forma que as integrais sobre a regio | x z| < e se
cancelam, sobrando uma diferena entre integrais na regio
| x z| e. Numa delas fazemos a mudana de nome de variveis
x z e usamos a definio para os W, equao 10.5
1
Z
t ft|y = dz( f 0 (z) A + B f 00 (z)) IP(z(t)|y(t0 )) +
2
Z Z Z
dz f (z) dxW (z| xt) IP( x |y(t0 )) dxW ( x |zt) IP(z|y(t0 ))
(10.14)
(10.15)
Processo de Wiener
Este provavelmente o processo mais importante, se julgado pela
utilidade que encontra nas aplicaes nas mais diversas reas e pela
sua utilidade na construo de outros processos.
Tomamos A = 0 e B = 2D = constante, na equao de
Fokker-Planck, obtemos a equao
IP(z|y(t0 )) 2 IP(z|y(t0 ))
= D (10.17)
t z2
dk
Z
IP(z|y(t0 ))) = (k, t)eikz . (10.19)
2
182 nestor caticha
2 IP(z|y(t0 )) dk 2
Z
= k (k, t)eikz (10.20)
z2 2
e a equao satisfeita por ordinria
= Dk2 (10.21)
t
sujeita a Z
(k, t0 ) = dz(z y)eikz = eiky ,
assim
2 (tt0 )
(k, t) = e Dk (k, t0 ) (10.22)
portanto
2 (tt0 )
(k, t) = e Dk eiky (10.23)
que uma gaussiana. Fazendo a transformada inversa
( z y )2
1 4D(tt0 )
IP(z(t)|y(t0 )) = p e (10.24)
4D (t t0 )
= 2D (t t0 ) (10.27)
Trajetrias
Suponha que usamos o processo de Wiener para descrever a
trajetria de uma partcula. Este o famos movimento Browniano,
estudado por Einstein e Smoluchowski.
Se a posio assim descrita, o que se pode dizer da velocidade?
Uma estimativa poderia ser feita olhando para
vt = (z(t + t) z(t))/t e tomando o limite de t 0. Mas
como z uma varivel aleatria natural calcular a probabilidade
de que vt tome valores em algum intervalo, por exemplo que seja
maior em mdulo que uma constante a qualquer, IP(|vt | > a) que
dada
Z
IP(|vt | > a) = IP( x (t + t)| x (t)) (10.28)
| x (t+t) x (t)|> at
Z
x2
2Dt dx
= 2 e (10.29)
at 2Dt
r
t t0
= erfc( a ) 1 (10.30)
2D
probabilidades 183
IP( xn xn1 ....x1 | x0 ) = IP( xn | xn1 ) IP( xn1 | xn2 )...IP( x1 | x(10.31)
0)
n
= IP(xk |xk1 ) (10.32)
k =1
n (x )2
1 k
4D(t
= 4Dt e k) (10.33)
k =1 k
n
IP(xn xn1 ....x1 ) = IP(xk ) (10.34)
k =1
? dF z z
0 = { a1 + a2 } (10.45)
dz r1 r2
dF r d f c /dr 1
= { a1 2 2 1 + a2 } (10.46)
dz fc fc
dF a2 r2
= { 1} (10.47)
dz f c f c
probabilidades 185
N
u
an (r0 , u(r0 )) r0 = b(r 0 , u(r 0 )) (10.48)
n =1 n
dr1 dr du
= 2 = ... = (10.49)
a1 a2 b
BLBLBLBLBLBLBLBLBLBLABLABLA
Note que se a equao quase-linear for escrita
N +1
u
a n (r )
rn
=0 (10.50)
n =1
dr1 dr du
= 2 = ... = (10.51)
a1 a2 b
Dk2
1 d = (10.53)
k
Dk2
ln = +c (10.54)
4
Dk2
= Ce 4 (10.55)
claro que C deve ser uma constante mas tambm deve incluir a
dependncia no tempo t. S pode ser as duas coisas ao mesmo
tempo se for uma funo de uma combinao constante de t e k.
Para isso olhamos para a outra caracterstica
dk
dt = (10.56)
k
k = C 0 et (10.57)
0 t
C = ke (10.58)
A soluo geral
Dk2
(k, t) = C (ket )e 4 (10.59)
Dk2
(k, 0) = eikx0 = g(k, 0)e 4
Dk2
g(k, 0) = eikx0 e 4
t x Dk2 e2t
g(k, t) = eike 0 e 4
Dk2 (1 e2t ) t
(k, t) = e 4 eikx0 e (10.60)
A expresso acima bem simples, pois uma gaussiana
k2 OU
2
(k, t) = exp( )eikOU (10.61)
2
D
com 2
OU (t) = (1 e2t ) (10.62)
2
e OU (t) = x0 et (10.63)
e a transformada inversa IP( x, t| x0 , t0 = 0)) uma gaussiana com
mdia OU e varincia OU .
( x OU )2
1
0 22
IP( x, t| x0 , t = 0)) = q e OU (10.64)
2
2OU
Barreira Absorvente
onde
p( a, t) = p(b, t) = 0
Barreira refletora
onde
J ( a, t) = J (b, t) = 0
1
0 = A( x ) ps ( x )) x ( B( x ) ps ( x )) (10.69)
2
e tambm que t ps ( x ) = 0.
Esta equao fcil de analisar, chame ( x ) = B( x ) ps ( x ), vemos
que satisfaz
A( x ) 1
0= x ,
B( x ) 2
portanto
1 A
x = 2 (10.70)
B
e
RxA( x 0 ) 0
2 a B( x 0 ) dx
( x ) = ( a)e (10.71)
Rx A( x 0 )
B( a) 2 a B( x 0 ) dx
0
ps ( x ) = ps ( a) e (10.72)
B( x )
1
ps ( x )t q( x, t) = x ( A( x ) ps ( x )q( x, t)) + 2x ( B( x ) ps ( x )q( x, t)) (10.74)
2
= ( A( x ) ps ( x ))0 q( x, t) ( A( x ) ps ( x ))q0 ( x, t)
1
( B( x ) ps ( x ))00 q( x, t) + 2( B( x ) ps ( x ))0 q0 ( x, t) + B( x ) ps ( x ))q00 ( x, t) ,
+
2
188 nestor caticha
10.2.5 Soluo da FP
Vamos tentar uma soluo da equao de Fokker-Planck
representada formalmente por uma soma
p( x, t) = C (t) P (x) (10.77)
10.2.6 Ortogonalidade
Agora que sabemos que a dependncia temporal exponencial
podemos estudar mais a fundo as propriedades da parte espacial,
em particular suas propriedades de ortogonalidade. Tentemos
solues das equaes 10.67 e 10.75 onde a dependncia temporal
simplesmente exponencial
p( x, t) = P ( x )et (10.81)
t
q( x, t) = Q ( x )e (10.82)
1
P = ( AP )0 + ( BP )00 (10.83)
2
1
Q = AQ0 + BQ00 (10.84)
2
Considere as equaes com valores de diferentes 1 e 2 .
Multiplicando a primeira por Q2 , a segunda por P1 , subtraindo os
resultados e integrando no interval a x b, obtemos:
Z b Z b
1 0 00
( 1 2 ) P1 Q2 dx = ( AP1 ) ( BP1 ) Q2 dx +
a a 2
Z b
0 1 00
+ AQ2 + BQ2 P1 dx (10.85)
a 2
Z b Z b
( 1 2 ) P1 Q2 dx = ( AP1 )0 Q2 + AP1 Q02 +
a a
1 00 1 00
+ BP Q ( BP1 ) Q2 dx
2 1 2 2
Z b
1 1
= ( AP1 Q2 ) + BP1 Q002 ( BP1 )00 Q2
0
dx.
a 2 2
Somando e subtraindo ( BP1 )0 Q02 dentro do integrando
Z b Z b
1
( 1 2 ) P1 Q2 dx = ( AP1 Q2 )|ba + BP1 Q002 + ( BP1 )0 Q02 ( BP1 )0 Q02 ( BP1 )00 Q2 dx
a 2 a
Z b 0
1
= ( AP1 Q2 )|ba + ( BP1 ) Q02 ( BP1 )0 Q2 ))0 dx
2 a
b
1
= ( AP1 Q2 ) + ( BP1 ) Q02 ( BP1 )0 Q2 ) =0
2 a
1 b
= (( AP1 + ( BP1 )) Q02 ( BP1 )0 Q2 ) =0
2 a
b
1
= Q2 J + ( BP1 )) Q02 (10.86)
2 a
190 nestor caticha
1
0 = AP + ( BP)0
2
1
= AQps + ( BQps )0
2
1 1
= AQps + ( Bps )0 Q + ( Bps ) Q0
2 2
1 1
= ( Aps + ( Bps ) ) Q + ( Bps ) Q0
0
2 2
1
= Js Q + ( Bps ) Q0
2
1
0 = BQ0
2
(10.87)
p( x, t = 0) = ( x x 0 ), (10.89)
p( x, 0) = C (0) P (x)
Z b Z b
a
Q 1 ( x ) ( x x 0 ) = C (0) a
Q1 ( x ) P ( x )
Q 1 ( x 0 ) = C (0)1
C (0) = Q ( x 0 ) (10.91)
Chegamos assim soluo formal para o problema com condies
iniciais p( x, t = t0 | x 0 t0 ) = ( x x 0 ), que a funo de Green
0
p( x, t| x 0 t0 ) = Q (x0 ) P (x)e(tt ) (10.92)
Ji (r, t) = 0 (10.98)
A (r ) = V (r )
k IP(r |r 0 ) 1
= Dki i V (r ) (10.101)
IP(r |r 0 )
Multiplicamos por uma matriz unitria a ser escolhida M de
componentes M jk
k IP(r |r 0 ) 1 1
M jk = M jk Dki Mim Mml l V (r ) (10.102)
IP(r |r 0 )
1 1
bvio que conveniente escolher M tal d jm = M jk Dki Mim seja
diagonal. Mudamos o sistema de coordenadas tal que o gradiente
nas novas coordenadas ( x, y, ...) seja j = M jk k . Em coordenadas
cartesianas o vetor r = ( x, y, ...) representado por r = ( x, y, ...) ,
assim
j IP(r |r 0 )
= d 1
j j V (r ) (10.103)
IP(r |r 0 )
probabilidades 193
IP(r |r 0 ) = f ( x ) g(y)h(z)
d log f ( x ) 1 V (r )
= d
x
d x x
e portanto a soluo
f ( x ) exp(d 1
x V (r )) (10.104)
1
IP(r |r 0 ) = exp(TrD 1 V (r )) (10.105)
Z
onde reconhecemos a distribuio de Boltzmann com = TrD 1 .
Vemos que qualquer anisotropia no tensor de difuso se perde na
distribuio de equilbrio. O trao do tensor de difuso influi na
temperatura efetiva. Vemos que tambm no h referncia
distribuio inicial. Isto claro que no pode acontecer de forma
genrica. Se houver barreiras infinitas, que no podem ser passadas,
a distribuio final guardar memria das condies iniciais. Se
adistribuio estiver inicialmente confinada numa regio do espao
vai ficar para sempre. Continuar discutindo isto nos levaria entrar
na rea de Teoria Ergdica, mas no o faremos.