Documente Academic
Documente Profesional
Documente Cultură
O nosso estudo dos sistemas microscpicos e seus reexos nos sistemas macroscpicos evidenciou a necessidade de realizarmos um tratamento estatstico para o problema. No h a menor possibilidade de calcularmos a dinmica das partculas individuais. O grande nmero de partculas envolvidas, o grande nmero de eventos (p.ex., colises) em um certo intervalo de tempo e a perda de informao (preciso) em qualquer clculo envolvendo essas partculas e eventos torna impossvel qualquer tentativa de acompanhar a dinmica das partculas individualmente. Temos, portanto, que trabalhar com mdias estatsticas e conceitos de probabilidade tornam-se importantes (como j mencionamos, Maxwell chegou a essa concluso em torno de 1850 quando comeou a buscar uma descrio para a termodinmica em termos das partculas elementares). Para nos equiparmos para essa tarefa, ser til revisarmos alguns conceitos e elementos da teoria de probabilidade e estatstica elementar. O livro do Salinas (ref. 1), os dois livros do Reif (refs. 2e 3) e o livro da S. Vauclair trazem uma reviso do assunto. Novamente, o projeto STP (ref. ) trs um captulo sobre o assunto e algumas simulaes que utilizaremos para ilustrar os conceitos. Para uma consulta mais detalhada sobre probabilidade e estatstica, ver a ref. 6.
3.1
Probabilidade
probabilidade. Para denirmos a probaamostragem, ou seja, um
bilidade que um evento ocorra, necessrio a existncia de uma conjunto nito de eventos possveis.
possibilidades de resultados aps ser jogada ao ar: cara ou coroa. A elementos. do dado.
Ou um dado normal, onde a amostragem possui seis elementos, as seis faces A denio de probabilidade
uma probabilidade
P (i)
O conjunto de valores de
P (i)
chamado de
P (i)
P (i) 0
e,
(1)
P (i) = 1
i
onde
(2)
P (i) = 0
P (i) = 1
ocorre. A normalizao (eq. 2) nos diz que a soma das probabilidades de todos os eventos mutualmente exclusivos
1.
Utilizando o exemplo da moeda ou do dado podemos facilmente encontrar algumas regras de operao da probabilidade. Para eventos mutualmente exclusivos, se queremos conhecer a probabilidade que um experimento seja ou
ou
j,
ento,
P (i
ou
j ) = P (i) + P (j )
(regra de adio)
(3)
Essa operao pode ser facilmente generalizada para mais do que dois eventos. regra, extramos que
Dessa
P (no
ocorrer
i) = 1 P (i)
(4)
P (i) = 1/6.
ou
6,
por exemplo,
P (3
ou
Se considerarmos agora dois experimentos e assumindo que a ocorrncia dos eventos so independentes, a probabilidade que no primeiro experimento tenhamos o evento segundo experimento o evento
e no
j,
P (i
j ) = P (i)P (j )
(regra de multiplicao)
(5)
Para que essa regra seja vlida, importante enfatizar a independncia entre os eventos, ou seja, o resultado do segundo experimento no pode depender do resultado do primeiro experimento. Isso facilmente vericvel no caso de uma moeda ou do dado. No entanto, vamos considerar um exemplo diferente. O objetivo determinar a probabilidade de encontrar, aleatoriamente, uma mulher de mais de 1,8 m de altura. Vamos supor que a probabilidade de encontrar uma pessoa de 1,8 m seja her
P (1, 8) = 1/10. A probabilidade que uma pessoa seja mulP (mulher + 1, 8 m) = P (m)P (1, 8) =
1 2 1 10 = 1 . 20
P (m) = 1/2.
O mesmo clculo valeria para um homem. menos, que esse resultado est errado. mulher e ter mais de
1, 8 m
mos encontrar uma mulher que tivesse nascido em um determinado dia do ano, teramos
P (m + dia
do ano)
= P (m)P (dia
do ano)
1 2
1 365
independentes (pelo menos, dentro do nosso melhor conhecimento). Precisamos ainda encontrar uma forma de estimar ou determinar o valor das probabilidades. Consideremos dois eventos,
E1
E2 .
Se
E1
E2 ,
ento,
A probabilidade est associada a um certo grau de conana que o evento No temos, no entanto, uma nica regra
P (E ).
tre nosso conhecimento sobre a possibilidade de ocorrer os eventos e encontrarmos um valor para a probabilidade. Vamos considerar o exemplo de uma moeda e tirarmos cara ou coroa
P (E )
utilizarmos
eventos ocorrerem seja diferentes e, portanto, associamos a mesma probabilidade para cada um dos eventos, ou seja, moeda, pela
P (i) = 1/n,
onde
o evento e
a amostragem. No exemplo da
P (E )
j realizados. Nesse caso, para uma amostragem independente, mutualmente exclusivos, se realizarmos
experimentos, a probabilidade
P (i)
de ocorrer o evento
expressa por,
P (i) = lim
onde
Ni N i ocorreu em N
(6)
Ni
experincias. Essa
denio de probabilidade bastante comum e nos ser til. Observe que a probabilidade medida por meio de eventos j realizados, ou seja, utilizando um conhecimento que j possuamos. Uma outra forma, ainda, por meio de o programa
O resultado pode nos dar uma estimativa para com a frequncia (eq. 6).
clculos tericos.
O valor da probabilidade, portanto, depende da forma como a determinamos, de quem a determina e do conhecimento existente anteriormente. Portanto, o que podemos associar a probabilidade do evento
tendo a informao
I , P (E |I ).
E, dependendo da amostragem,
diferentes observadores podem associar diferentes valores das probabilidades. Talvez o caso mais ilustrativo seja o caso dos operadores de aes na bolsa de valores. Nos ltimos anos, a teoria de informao bayesiana tem sido utilizada para designar o valor da probabilidade. Essa teoria, baseada em um trabalho do clrigo e matemtico
amador Thomas Bayes de 1763 (T. Bayes morreu em 1761, o artigo foi encontrado entre a documentao que ele deixou e foi publicado postumamente) e procura determinar uma forma de associar valores de probabilidade para probabilidades condicionadas (para uma discusso
sobre a inferncia bayesiana ver a ref. 5). A denio baseada nas frequncias, eq. 6, uma das mais utilizadas na prtica. No
entanto, importante no esquecermos que ela uma estimativa, uma vez que depende de uma deciso sobre a forma de fazermos a designao que
caso da frequncia, os dados utilizados, resultados de experimentos, so eventos realizados com certeza e, portanto, os conceitos de probabilidade no se aplicam. probabilidade h, inerentemente, uma incerteza. mais. Na designao da
Figura 1: (Superior) Resultados de simulao de obtermos cara ao lanarmos uma moeda 50 vezes, 100 vezes e 5.000 vezes cem vezes e de lanarmos simultaneamente 50 moedas 10 vezes e 100 vezes. (simulao baseada no programa
3.2
Informao e incerteza
Esta seo est baseada na ref. 5. Discutimos as ideias bsicas de probabilidade e o fato que sempre temos suposies associadas s designaes de valores para as probabilidades. til discutirmos uma forma de
associarmos o grau de incerteza existente nos experimentos. experimentos com dois eventos possveis,
E1
E2
com probabilidades
P1
P2 ,
respectiva-
mente. O experimento pode ser o de jogar uma moeda para o alto. No primeiro experimento vamos assumir eventos simtricos e temos ento
P1 = P2 = 1/2.
No segundo experimento,
P1 = 1/5
P2 = 4/5.
Qual experimento temos maior incerteza? Intuitivamente, diremos que o primeiro, uma vez que podemos estimar com maior segurana o resultado no segundo experimento. Seguindo esse raciocnio, consideremos mais dois experimentos. eventos, simtricos, com O terceiro tem quatro
P1 = P2 = P3 = P4 = 1/4
P1 = P2 = P3 = P4 = P5 = P6 = 1/6.
experimento o mais incerto uma vez que temos um maior nmero de resultados possveis, igualmente provveis. No cmputo geral, o quarto experimento o mais incerto e o segundo o menos incerto. Para avanarmos, precisamos associar uma medida ao conceito de incerteza. designar a funo Vamos
onde
Pi
a probabilidade do evento
i,
como sendo a
(7)
S ()
= 1,
ento
S ( = 1) = 0
2. Temos tambm,
(8)
S (1 ) > S (2 )
3. Consideremos agora a forma de moeda e jogar um dado, com
se
1 > 2
(9)
1 e 2
1 2 .
Imaginemos agora
que conhecemos o resultado de atirar a moeda. Essa incerteza zero, portanto. No entanto, permanece a incerteza de jogarmos o dado. Da mesma forma, se conhecemos o resultado de atirar o dado, permanece a incerteza de jogarmos a moeda. Essas consideraes sugerem
ter a forma
S (1 2 ) = S (1 ) + S (2 )
(10)
As trs condies discutidas acima permitem apenas uma nica forma funcional. Para encontr-la, vamos escrever a eq. 10 utilizando variveis contnuas:
S (xy ) = S (x) + S (y )
onde chamar
(11)
x, y
Vamos
z = xy
S:
S (z ) z dS (z ) dS (z ) = =y x x dz dz
(12)
S (z ) z dS (z ) dS (z ) = =x y y dz dz
Da eq. 10, temos,
(13)
S (z ) dS (x) = x dx
(14)
S (z ) dS (y ) = y dy
Comparando os lados direitos das equaes 12-13 e 14-15, temos,
(15)
dS (x) dx
=y
dS (z ) dz
(16)
=x
dS (z ) dz temos,
(17)
e a eq. 17 por
y,
dS (x) dx
=y
dS (y ) dy
=z
dS (z ) dz
(18)
y.
Como
constante:
x
Integrando a equao 19, temos,
dS (x) dx
=y
dS (y ) dy
=A
(19)
S (x) = Alnx + B
A constante de integrao constante
(20)
8).
A = 1.
A incerteza
S () = ln
(21)
A expresso 21 foi deduzida para amostragem simtrica. Como ca o caso geral? No vamos deduzir aqui mas para quem estiver interessado, ver o Apndice F da ref. resultado , 7. O
S=
i
Pi lnPi
(22)
Pi =
e ento,
(para todos
i)
(23)
S=
i
fcil vericar que se o resultado
1 1 1 ln = ln = ln j
uma certeza absoluta, ento,
(24)
Pj = 1
Pi = 0
se
i=j
e ento
S = 1ln1 = 0,
falta de informao.
O resultado da eq. 22 nada mais que a entropia de Shannon, que introduzimos antes. No zemos (ainda) nenhuma demonstrao em termos de entropia nem identicamos a constante que precede a expresso para a incerteza
S.
- um resultado para a incerteza em termos das probabilidades de transmisso da informao. Sabemos agora como calcular a incerteza ou falta de informao probabilidades
se conhecemos as
Pi .
caso mais simples, de uma moeda jogada. Nesse caso, por simetria, ou intuio (assumir que a moeda simtrica e no viciada), esperamos o resultado
intuitivamente o que se conhece como princpio de como se aplica para esse caso, lembrando que
P1 + P2 = 1.
S =
i
dS dP1
= [lnP1 + 1 ln(1 P1 ) 1] = ln
P1 =0 1 P1
P1 = 1 1 P1 1 = P1 = 2
(26)
2 d S 2 dP1
1 1 + = 4 < 0 P1 1 P 1
(27)
Exerccio: Considere um experimento de jogar um dado de trs faces com trs possveis
resultados (eventos):
E1 , E2
E3 ,
com faces
1, 2
3,
vezes o dado, sabemos que o nmero mdio de pontos probabilidades individuais. Quais so os valores de e que seja consistente com a informao que
f = 1, 9,
e
mas no conhecemos as
P1 , P2
P3
f = 1, 9?
(ver ref. 5)
10
3.3
Valores mdios
distribuio das probabilidades
A especicao da
para os
possveis
valores da varivel estocstica (aleatria) a descrio mais completa possvel do sistema. No entanto, em muitos casos, prefervel descrever a distribuio dos possveis valores da varivel com menos detalhes. A forma mais comum chamar de
o nmero mdio de
x,
que podemos
x =< x >:
=
i=1
xi P (i)
(28)
f (x)
de
f (x) =
i=1
fcil vericar que,
f (xi )P (i)
(29)
(30)
cf (x) = cf (x)
onde
(31)
so duas funes de
uma constante.
Denimos os
P,
xm
onde zemos simplesmente
i=1
xm i P (i)
(32)
f (x) = xm .
11
O desvio dos valores do experimento em relao ao seu valor mdio tem grande importncia na estatstica. O desvio de
denido como
x x x
e, obviamente,
(33)
x = (x x) = x x = 0
A largura mdia de uma distribuio onde o evento
(34)
P (i) =
1, i = j ,
Podemos expressar a
desvio
quadrtico :
em relao a mdia,
xm = (x x)m
(36)
12
3.4
O processo de Bernoulli e a distribuio binomial: analisando um conjunto de spins no-interagentes ou o caminho do bbado
Nosso objetivo agora aprender como calcular probabilidades e avanarmos na compreenso dos sistemas com muitas partculas. Vamos estudar o caso fundamental da
distribuio
binomial.
Esse caso aplica-se para sistemas estatsticos (ou fsicos) para os quais existe
J vimos utilizando esse exemplo e o mais simples de todos. Temos Cada vez que atiramos a moeda, o resultado
probabilidade de sair coroa. Para uma moeda no-viciada, temos O que queremos determinar , jogando coroa, por exemplo.
p = 1/2
q = 1 p = 1/2. n vezes
B.
que
B/|B | = z .
E = B ,
Nota: Em sistemas reais, os momentos magnticos interagem entre si. O modelo que
estamos discutindo aqui ilustra um caso extremo e permite aplicar a distribuio binomial. Se estivssemos considerando um gs de eltrons, o momeno magntico seria
B =
e
magneto de Bohr =e
/2me ,
a energia de interao
E = gs B s B ,
onde
gs 2
1 s = 2 z .
13
+1
a probabilidade de ser
1,
de
p + q = 1.
Na ausncia de um campo magntico, devemos esperar uma distribuio O que queremos saber conhecer a probabilidade que a
aleatria, ou seja,
p = q = 1/2. N
magnetizao do sistema
M,
M = (s1 + s2 + ... + sN ) =
i=1
si
(37)
walk )
Consideremos um
bbado que inicia sua caminhada a partir de um poste de luz e segue erraticamente, realizando passos sucessivos em direes aleatrias. A questo que se faz
passos?
o bbado pode andar apenas em linha reta (uma nica dimenso). Assumimos que cada passo seja igual em distncia,
t)
ele d um
A direo de cada novo passo independe dos passos anteriores. Aps um certo intervalo de tempo, tendo realizado esquerda, tais que
passos a direita e
passos a
n + n = N.
Os trs problemas mencionados acima tem a mesma estrutura matemtica e, portanto, a mesma soluo. Esse tipo de problema conhecido como
PN (n)
dado
que o sistema - vamos utilizar como exemplo o caso do caminhar do bbado - tenha passos a direita. Podemos escrever
PN (n)
como sendo,
(38)
14
WN (n, n ), n
microestados de
passos com
direita e
partculas no compartimento
N =2
N = 16
(ver Captulo 2). Para o caso geral, vamos resolver o problema inicialmente utilizar
WN
WN 1 .
Um total de
passos direita e
passos
N 1
passos. Sequncias em que a probablidade em um dado instante depende apenas dos valores das probabilidades no instante anterior so conhecidas como
importncia na fsica. H duas possibilidades para o prximo passo: 1) um passo direita, se j temos
(n 1) n
passos direita e
passos direita e
(n 1)
WN (n 1, n )
WN 1 (n, n 1)
WN (n, n ) = WN 1 (n 1, n ) + WN 1 (n, n 1)
Os valores iniciais so conhecidos: deles, podemos construir
(39)
A partir
WN (n, n )
Podemos continuar essa sequncia indenidamente. Arranjando-a geometricamente, temos uma estrutura piramidal ou como conhecido, o tringulo de Pascal, representado na gura , onde a
N e sima
WN (n, n ),
iniciando com
WN (N, 0),
15
esquerda e indo at
WN (0, N )
direita.
Figura 2:
Construo do tringulo de Pascal que reproduz os valores dos coecientes acima, esquerda e diiniciando com
WN (n, n ). Cada componente a soma dos dois componentes reita. A N e sima linha corresponde aos valores de WN (n, n ), esquerda e indo at WN (0, N ) direita. (extrado da ref. 5)
WN (N, 0),
WN (n, n ) =
onde utilizamos
(41)
0! = 1.
O resultado para
PN (n) =
que a
(42)
PN (n) =
N! 2N n!(N n)!
(43)
16
Anlise combinatria
combinatria. J vimos que se temos dois estados possveis para cada experimento, o nmero de estados possveis para um sistema com
elementos (experimentos)
2N
e, considerando
todos os estados igualmente provveis, a probabilidade do sistema encontrar-se em um desses estados ordem.
1/2N .
permutao de
possibilidades para o
N 1
N 2
para
N !.
Consideremos o
N 1
N n+1
n-simo
de
elementos ,
An N =
Consideremos agora que os
N! (N n)!
(44)
emplo - tanto faz qual a ordem dos elementos, o resultado macroscpico nal o mesmo). Temos que calcular o nmero possvel de sub-conjuntos de mos esse nmero de
contendo
n elementos.
Chamare-
combinaes possveis de
elementos em
n . N : CN
An N n
o nmero de combinaes
n CN
n An N = C N n!
(45)
e ento,
n CN =
N! n!(N n)! N
passos, por exemplo.
(46)
passos direita em
17
O resultado que obtivemos tem seu nome no fato que o resultado o mesmo que obtemos em um
desenvolvimento binomial :
=
n=0
N! xN n y n n!(N n)!
temos,
(47)
Escolhento,
x = y = 1,
N n CN = 2N n=0
que o nmero de estados possveis do sistema. A equao 47 nos mostra tambm a normalizao de (48)
WN (n, n ):
(p + q )N =
n=0
onde utilizamos
N! p n q N n = 1 n!(N n)!
(49)
p + q = 1.
Antes de avanarmos na nossa anlise, vamos examinar alguns resultados de simulaes. Para isso, vamos utilizar o programa da simulao para
p = 0, 5
0, 7.
18
Figura
3: Resultados de simulaes da distribuio binomial, PN (n) em funo de n e n/n, para N = 20(preto), 40(azul), 60(vermelho), 80(verde), 100(cinza), e p = 0, 5 (superior) e 0, 7 (inferior). Calculadas com o programa stp-binomial da ref. 5.
Vamos analisar os resultados. Olhando os dados para mximo desloca-se para a direita com da distribuio aumenta com com
p = 0, 5,
N,
N.
n/n,
a largura diminui
N.
O valor mximo de
PN (n)
N.
p = 0, 7,
direita ao mesmo tempo que o valor da largura diminui quando gracado em funo de
n/n
19
p = 0, 5.
O resultado para
p = 0, 7
nosso exemplo de spins no-interagentes, como sendo o conjunto de spins na presena de um campo magntico. Podemos analisar esses resultados quantitativamente, uma vez que conhecemos a distribuio de probabilidades. o que faremos agora.
que caracterizam o sistema fsico desejado (ou melhor, qualquer um dos problemas mencionados inicialmente). Inicialmente, vamos calcular o valor mdio,
n: N! pn q N n n!(N n)!
n=
n=0
nPN (n) =
n=0
(50)
p
e ento,
d dp
pn = npn
(51)
n =
n=0
N! (p pn )q N n n!(N n)! p
N
= p p = p
n=0
N! pn q N n n!(N n)!
(p + q )N p
= pN (p + q )N 1 = pN
(52)
e, da mesma forma,
20
n = qN = (1 p)N
Para determinar o desvio padro, procedemos da mesma forma.
(53)
n2
=
n=0 N
n2
N! pn q N n n!(N n)!
=
n=0
N! (p )2 pn q N n n!(N n)! p
N
= ( p )2 p = = =
n=0
N! pn q N n n!(N n)!
(p )2 (p + q )N p p pN (p + q )N 1 p p N (p + q )N 1 + pN (N 1)(p + q )N 2
(54)
e, com
(p + q ) = 1,
A varincia ,
2 n = (n)2 = n2 n2 = pqN
(56)
e o desvio padro ,
21
n =
pq N N.
A probabilidade relativa,
(57)
n /n
n = n
pqN = pN
q p
1/2
1 N N
(58)
n. N. p
Podemos comparar os resultados das eqs. 52, 57 e 58 com os resultados da gura 3. Vemos que, efetivamente,
aumenta com
enquanto que
aumenta com
n /n
para e
diminui com
1/ N .
aumenta com
n = 0 , 5 N n /n = 1/ N (p = 0, 5)
de
p = 0, 7
quando
comparado com
perguntas que gostaramos de responder so do tipo qual a distncia mdia percorrida pelo bbado aps um nmero
passos
da origem?.
distribuio de probabilidades, podemos responder facilmente a essas questes (Exerccio : responda!). Vamos utilizar a simulao resultados desse problema.
RandomW alk 1D
A cada
q.
Cada passo decidido baseado na gerao de um nmero aleatrio entre 0 e 1. Se o nmero aleatrio for inferior a
passos e calcula a
22
x = nn
e o valor de
< x2 >.
RandomW alk 1D
(ref. ) para
N = 4, 16, 32
23
passos)
(b) A simulao Monte Carlo reproduz a distribuio de probabilidade? (c) Qual o valor mais provvel de
(d) Qual aproximadamente a largura da distribuio (largura a meia-altura)? esse valor muda para
xo em funo de
N? N
(e) Como o histograma muda em funo do nmero de simulaes/caminhadas para xo e em funo de
N?
importante sempre enfatizarmos o que estamos calculando e o que podemos calcular. Na simulao, realizamos para um determinado nmero de passos,
N,
um grande nmero de
experimentos. Se realizssemos apenas um nico caminhar, no temos como sabe o resultado nal, embora possamos calcular a probabilidade dos possveis resultados. No entanto, podemos calcular o resultado mdio de um grande nmero de experimentos. Quanto maior for o nmero de experimentos, mais nos aproximamos do valor mdio, que previsvel se conhecemos a distribuio de probabilidades. O que possvel conhecer, portanto, so valores estatsticos, como a mdia, em relao a um grande nmero de experimentos ou conjunto de experimentos.
31
32.000
casos, observamos um caminho entrecortado. O objetivo dessa sequncia indicar uma autosimilaridade do sistema, isto , os caminhos aleatrios parecem similares em todas as escalas,
24
ou seja so aps
128.000
importante para ns a impossibilidade de prevermos um caminho aleatrio qualquer. No entanto, podemos entender (e fazer previses sobre) o comportamento de um conjunto desses caminhos. A gura (direita) mostra os pontos nais de um grande nmero de caminhos
aleatrios todos partindo da origem. Voc pode exercitar sua compreenso sobre isso com a simulao
da ref. 5.
25
Figura 5: Caminho aleatrio bidimensional. Cada caminho obtido do anterior tomando-se o primeiro quarto e ampliando por um fator dois. O caminho mais curto tem 31 passos e o caminho mais longo 32.000 passos. (ref. 9)
26
Figura 6: (Esquerda) Caminho aleatrio bidimensional com 128.000 passos. (Direita) Distribuio do ponto de chegada a partir da origem para um grande nmero de caminhos aleatrios. (ref. 9)
Vemos que
PN
n para N
1.
mais fcil trabalhar com o lnPN que deve ser uma funo lentamente varivel. Efetivamente, utilizando a simulao gura 7.
n,
= A + B (n n)2 ,
onde
so parmetros de
27
para
N = 60.
stp-
Para obter uma expresso quantitativa para lnPN , vamos expandi-la em srie de Taylor, em torno de
n=n :
lnPN (n)
= lnPN (n = n ) + (n n )
dlnPN (n) dn
(59)
Pelo resultado da gura 7, a primeira derivada deve se anular (ponto de extremo) e a segunda derivada deve ser negativa (valor mximo). Se desprezarmos as derivadas de ordem superior e escrevermos,
A =
lnPN (n
=n ) |n= n
(60)
B =
2 d lnPN (n)
dn2
podemos escrever,
28
lnPN (n)
1 A B (n n )2 2
(61)
e,
) PN (n) Ae 2 B (nn
(62)
Para avanarmos, temos que encontrar os valores das expresses em 60. Para isso, vamos utilizar a aproximao de Stirlig para lnN ! para valores grandes de
N:
lnN !
N lnN N +
1 ln(2N ) 2
(aproximao de Stirling)
(63)
n! c nnn /en .
A contribuio de
James Stirling (matemtico escocs, 1692-1770) foi determinar o valor da constante No entanto, a expresso 63 conhecida simplesmente por aproximao de Stirling. A eq. 63 pode ser aproximada, para valores muito grandes de
c = 2 .
N,
na forma,
lnN !
N lnN N
(64)
n! =
0
Para isso, vamos integrar por partes,
x n dx e x
(65)
29
dx e
x n
x n n x = |x x=0
+n
0
x n1 dx e x
d(e )x = x e = 0 x n1 dx e x = n
(66)
f (x) = xn ex
vemos que enquanto Logo, a funo
(67)
xn
x, ex
f ( x)
x0 .
f,
d [lnf (x)] dx d dx
= 0 n 1=0 x
(68)
(nlnx x) =
ou seja,
x0 = n
Vamos expandir o logartmo do integrando em torno do ponto de mximo,
(69)
x = n + ,
lnfn ( )
= nln(n + ) (n + )
(70)
30
ln(n
+ ) ln n + ln 1 + = ln n +
n
(71)
1 2 + ... n 2 n2
ln x = (x 1) +
(72)
Temos ento,
1 2 ln fn ( ) n ln n n 2n
e,
(73)
fn ( ) nn en e
2 /2n
(74)
Podemos agora calcular aproximadamente a equao 65, substituindo e adaptando os limites de integrao,
fn (x)dx por fn ( )d
x [0, ] [n, ],
n!
n
Como a funo
nn en e
2 /2n
(75)
31
n! n e = n e
n n n n
2 /2n
2n
(76)
que a aproximao de Stirling. A aproximao de Stirling, na sua forma forte (eq. 63) tem uma preciso melhor que 2% para
N >5
e, na sua forma fraca (eq. 64) uma preciso melhor que 2% para
N > 50.
lnPN (n)
(77)
e,
(78)
n (n )
q N n = n p
Utilizando a relao
(79)
(p + q ) = 1,
(N n )p = n q = N p = n (p + q ) = n
(80)
que era o resultado esperado (por qu?), ou seja, o mximo tambm o seu valor mdio.
n = n,
o valor de
para o qual
PN (n)
32
2 d (lnPN (n))
dn2 e o coeciente
1 1 n N n
(81)
B =
1 N 1 + = n N n n (N n ) N 1 = = (N p)N (1 p) N pq
dn2
2 d (lnPN (n))
|n= n =
(82)
B=
Para calcularmos o valor de para
1 2 n
(83)
A,
n=n
e usando
n = pN ,
lnA
lnPN ( n)
= N lnN N +
= = A =
1 1 ln(2N ) n lnn +n ln(2 n ) 2 2 1 (N n )ln(N n ) + (N n ) ln[2 (N n )] + n lnp + (N n )lnq 2 1 1 N lnN + ln(2N ) pN ln(pN ) ln(2pN ) 2 2 1 N q ln(qN ) ln(2qN ) + pN lnp + N q lnq 2 1 1 N lnN + ln(2N ) pN lnp pN lnN ln(2pN ) 2 2 1 qN lnq qN lnN ln(2qN ) + pN lnp + N q lnq 2 1 2N 1 ln = ln 2 (2 )2 pqN 2 2N qp 1 1 = 2N pq (2 2 )1/2
33
(84)
distribuio Gaussiana de
probabilidades,
PN (n) =
1 2 2
e(nn)
2 /2 2
(85)
interessante observar que a aproximao fraca de Stirling, eq. 64, daria simplesmente
A = 0.
N n=0
PN (n) = 1.
grandes e em torno de
n = n. N
n.
n /n
N 1/2 ,
distribuio gaussiana e a distribuio binomial possuem o mesmo valor mdio e a mesma varincia. Para vericarmos a validade da aproximao, vamos calcular a terceira derivada de
PN (n):
3 d PN (n)
dn3 e, em
1 1 +0 2 n (N n)2
1 n3
(86)
n = n,
para
grande,
3 d PN (n)
dn3
1 1 N 2 (p + q )(q p) = 2 2 2 2 = pN q N p2 q 2 N 4 qp = 2 2 2 pq N
(87)
A aproximao deve ser suciente sempre que o termo de terceira ordem for muito inferior
34
1 (n n)2 2N pq = (n n)
|q p| (n n)3 2 2 2 6N p q 3N pq |q p|
(88)
que a condio de validade da aproximao gaussiana. A Tabela mostra uma comparao entre a distribuio binomial e a aproximao gaussiana para
P10 (n)
p = q = 1/2.
Tabela 1: Comparao entre os valores exatos, distribuio binomial, e a aproximao gaussiana para
P10 (n)
para
p = q = 1/2.
p = q = 1/2?
Em que etapa
da derivao zemos uma inconsistncia nesse caso? Encontre a condio de validade da aproximao gaussiana nesse caso. Mostre, baseado nesse resultado e no da equao 88 que a aproximao gaussiana justicvel se ordem justicvel se
|n n|
N pq .
N pq
1.
35
3.5
mais tpico para ns, por exemplo, a posio e velocidade das partculas de um gs. Na simulao que zemos no captulo 2 do gs interagente distribuindo-se em duas metades de uma caixa, utilizamos a posio em uma ou outra metade como a informao desejada e, dessa forma, discreta. No entanto, se estamos interessados em grandezas termodinmicas, como a presso (impossvel na nossa simulao devido s condies de contorno peridicas) ou a temperatura, as variveis microscpicas aleatrias deveriam ser a posio e velocidade de cada partcula (seis variveis independentes). Dos trs exemplos que consideramos para o desenvolvimento da distribuio binomial, o caminhar do bbado na verdade um caso de varivel aleatria contnua. Mesmo com a simplicao unidimensional, zemos uma
outra simplicao mais drstica, que foi considerar os passos idnticos em tamanho. Isso permitiu tratar o problema discretamente e como uma distribuio binomial. Na realidade, devemos esperar que os passos sejam de comprimento varivel e contnuos. (Os outros dois casos, momentos de dipolos magnticos e jogar uma moeda, so difceis de se imaginar como variveis contnuas). Vamos estender nossa anlise da distribuio binomial para o caso das variveis contnuas e utilizar o caminhar do bbado como exemplo. uma probabilidade Novamente, consideramos que ele tem
a.
O deslocamento
, portanto, uma
varivel contnua. Consideremos uma simulao do caminhar, similar a que zemos na gura 4, mas agora com passos variveis, anotando o nmero de vezes desloca-se a partir da origem, aps e
H ( x)
que o caminhante
x,
e
entre
x + x.
x = 0, 5
N = 16
x = 1, 0
5.
N = 32
stp-RandomWalk1DContinuous da ref.
O valor do
H (x)
a distncia
da origem aps
36
H (x)
N.
parece arbitrria mas possui algumas restries. O valor no pode ser muito pequene porque nesse caso, para um nmero nito de caminhadas, a posio pode se encontrar vazia, isto , nenhuma das caminhadas nalizar naquele intervalo e a estimativa do nmero de caminhadas em cada intervalo caria imprecisa. Por outro lado, no pode ser muito grande, caso contrrio as caractersticas do histograma cam perdidas. Como devemos esperr que o nmero de
p(x)x =
e a grandeza
H (x) N
(89)
p ( x)
conhecida como a
densidade de probabilidade.
Figura 8: e
Histograma onde
H ( x)
e
N = 16
(esquerda) e
N = 32
x + x,
= 0, 5
= 1, 0,
aleatoriamente entre zero e um. Cada histograma foi gerado com a simulao
x = 0, 00 (isto , x
No limite deslocamento
x 0, H (x) x
e a probabilidade do
a
b
(ver gura ), ,
P (a < x < b) =
a
dx p(x)
(90)
37
encontre-se entre
As propriedades da densidade de probabilidade podem ser obtidas generalizando o caso discreto. A normalizao se escreve na forma,
dx p(x)
=1
(91)
f (x)
f=
dx f (x)p(x) (92)
3.6
At agora, discutimos as estimativas das probabilidades de uma amostragem de resultados sem entrar em maiores detalhes, isto , empriicamente. Nas guras 4 e 8 mostramos his-
togramas de um conjunto de experimentos (no caso, caminhadas aleatrias) e a altura do histograma foi identicada com a probabilidade de ocorrer aquele resultado (a menos de fa-
38
tores). Esperamos que quanto maior o nmero de experimentos mais prximo ser a mdia obtida do resultado exato. Essa ideia o que conhecemos como
Sabemos que um resultado particular, no entanto, pode diferir desse valor mdio. Situao similar j havia sido discutida por ocasio das simulaes das partculas na caixa com divisria (captulo 2). Naquele caso, observamos a evoluo temporal do sistema e sua tendncia a convergir para uma situao de equilbrio (a menos de utuaes). Quando executamos uma medida experimental, a medida realizada durante um certo intervalo de tempo e o sistema evolue rapidamente para diferentes conguraes nesse tempo. Como consequncia, o resultado da medida uma mdia sobre essas vrias conguraes. Utilizamos o princpio ergdico para identicar uma mdia temporal sobre um tempo sucientemente longo com a mdia sobre o conjunto (ensemble ) de conguraes microscpicas do sistema. Isso equivale a fazermos uma mdia sobre vrios caminhos aleatrios, como comentamos acima. At aqui, esse resultado tem sido adotado de forma emprica. No entanto, podemos avanar e encontrar a forma da distribuio de probabilidades que mede o quanto uma medida especca (um caminho executado pelo caminhante ou uma certa medida de um gs) difere do seu valor mdio exato. A forma dessa distribuio de probabilidades o
Para simplicar a discusso, vamos considerar um exemplo simples e depois desenvolveremos para o caso do caminhante aleatrio. Nosso objetivo estimar a probabilidade de, ao jogar um dado, encontrar, por exemplo, a face com o nmero
5.
aproximadamente,
o signicado desse
aproximadamente. Seja
aparece em
experimentos. Temos,
S=
i=1
onde,
si
(93)
39
si =
1 0
se a
5
(94)
S/N
aproxima-se de
1/6
N,
jogadas
do dado.
M = 10.000
medidas de
para
N = 100
N = 800.
gaussiana. (Podemos fazer a mesma armao em relao a gura 4?) (Qual o valor relativo da largura da curva em cada caso?).
M = 10.000 medidas diferentes da soma S para N = 100 e N = 800 termos na soma. A grandeza S o nmero de vezes que a face 5 aparece em N jogadas de um dado. Para N = 100, os valores medidos so S = 16, 67, S 2 = 291, 96 e S = 3, 74. Para N = 800, temos S = 133, 31, S 2 = 17881, 2 e S = 10, 52. (extrado da ref.
Figura 10: Distribuio de 5).
p(S ),
aps
p(S )
40
positiva e uma demonstrao pode ser encontrada na seo 3.11.2 da ref. 5. Vamos apenas discutir aqui o resultado e detalhar para o caso especco do caminho aleatrio. dissemos, pode-se mostrar que, Como ,
no limite
N , 1
2 2S
a densidade de probabilidade
p( S )
p(S ) =
onde,
e(S S )
2 /2 2 S
(95)
S = Ns
(96)
2 S = N 2
(97)
onde,
2 = s2 s2
A grandeza
(98)
p(S )S
N i=1
si
esteja entre
S + S .
A equao 95 o
valores grandes de
e para valores de
muito grande.
O teorema do limite central um dos resultados mais importantes da teoria de probabilidades. Ele estabelece, na sua forma mais simples, que a distribuio de probabilidades do valor de uma soma de um grande nmero de variveis aleatrias aproximadamente gaussiana. A aproximao melhor quanto maior for o nmero de variveis na soma. esse teorema que nos permite que o limite termodinmico, clssico e macroscpico, faa sentido. Vamos voltar agora ao caso do caminhar do bbado ou o caminho aleatrio. o deslocamento do caminhante depois de
S representa
passos.
41
um nico passo. No teorema do limite central, encontramos que a densidade de probabilidade do deslocamento ser uma gaussiana (ver gura 7 para o caso bidimensional). Esse resultado equivalente ao que encontamos para caminhos aleatrios no limite de um nmero grande de passos
N.
O mesmo raciocnio pode ser feito para o caso de jogarmos moedas ou dos momen-
passos e a magnetizao
spins so exemplos de
caminhos aleatrios, dos spins ou das mltiplas jogadas de moeda dada pela eq. 95, e o nosso trabalho reduz-se a encontrar as expresses para o que determina completamente a eq. 95. Vamos desenvolver o caso particular do caminho aleatrio (ver ref. consideramos uma sequncia de tenha o comprimento aleatrio sequncia de passos 1). Novamente,
2,
N passos, si
i-simo
passo
(si )dsi .
Para uma
N,
a posio do caminhante ,
x=
i=1
si x
e
x + dx
dada por
pN (x)dx =
x<s1 +s2 +...+sN <x+dx
(99)
(, +)
de Dirac:
(x) =
1/
para
para
|x| > /2
0.
Temos ento,
pN (x) =
...
si
(101)
1 (x) = 2
temos,
+
dk
eikx
(102)
1 p N ( x) = 2
onde,
+
dk
eikx [ (k )]N
(103)
(k ) =
+ ikx ds (s)e
(104)
pN (x)
no limite de
e+iks , (k ) [ (k )]N ,
s signicativa na vizinhana de
k = 0.
com
(k )
pela expanso,
(k )
+
ds (s)e
ikx
(105)
E temos ento,
k2,
43
1 p ( x) = 2
+
dk
(107)
1 (x )2 p(x) = exp 2 2 2 2
onde,
(108)
= Ns
e,
(109)
2 = N (s)2
e recuperamos, para o caso do caminhante aleatrio o resultado do
(110)
teorema do limite
(s)
dada por,
(s) = p (s l) + q (s + l)
(111)
Podemos deduzir
pN (x)
equao estocstica de diferenas para caminhos aleatrios com passos iguais que utilizamos anteriormente para a distribuio binomial (eq. 39). A equao generalizada de recorrncia se escreve na forma,
pN (x) =
+
ds pN 1 (x
s) (s)
(112)
44
p N (k ) =
+
dx pN (x)e
ikx
(113)
e com
(k )
p N +1 (k ) = p N (k ) (k )
Como no instante inicial (i.e., para
(114)
(x),
3.7
Equao de difuso
No limite contnuo, podemos recuperar resultados macroscpicos considerando escalas de distncia e tempo sucientemente longas. Nesse caso, um comportamento relativamente simples
emerge a partir do movimento catico dos estados microscpicos, isto , do movimento das
partculas ou do caminho errtico do caminhante aleatrio. Vamos derivar um caso simples, a partir dos resultados que trabalhamos at aqui, que a
limite contnuo de um conjunto (ensemble ) de caminhadas aleatrias. Consideremos um caso geral, de caminhos aleatrios no-correlacionados - o que zemos at agora - onde para cada passo temporal
a partcula na posio
s:
(115)
(s)
( s)
Os primeiros momentos
(s)
so:
45
ds (s)
= 1 = 0 = 2
(116)
ds (s)s
ds (s)s
Nossa tarefa encontrar a distribuio de probabilidade temporal uma vez conhecida a distribuio de probabilidade Para que a partcula mova-se de
(x, t + t) (x , t).
no prximo passo
no tempo
o passo
(x x ) vezes a densidade de x,
temos,
(x , t)
x.
(x, t + t) =
+
dx
(x , t) (x x ) s, t) (s)
(117)
ds(x
que o tamanho do passo seja pequeno na escala na qual expanso em srie de Taylor,
(x, t + t)
2 ds s (s)
(118)
podemos
46
(x, t + t) (x, t)
e ento,
t t
(119)
2 =D 2 t x
onde escrevemos,
(120)
D=
2 coeciente 2t
de difuso
(121)
A equao de difuso aplica-se, para o comportamento macroscpico, de qualquer sistema fsico semelhante ao caminho aleatrio, guardada as condies que a funo de distribuio de probabilidades varie lentamente na escala dos passos espacial e temporal. Essa equao tem grande aplicao. Para o caso de partculas, a densidade de probabilidade descreve uma partcula individual a medida que ela evolue no espao de forma aleatria. Para partculas no-interagentes, a probabilidade de distribuio de uma partcula descreve a densidade de todas as partculas.
47
Referncias
[1] Slvio R. A. Salinas,
Fsica Estadstica, Berkeley Physics Course vol. 5, Editorial Revert. lements de physique statistique: Hasard, organisation, volu-
versity Press, 2010 e http://www.compadre.org/stp (Statistical and Thermodynamic Project, apoiado pela National Science Foundations EUA).
Probabilidade: Aplicaes a Estatstica, 2a. ed., LTC, 2000. Statistical Thermodynamics Based on Information: A Farewell
48