Sunteți pe pagina 1din 53

Termodin

amica y Mec
anica Estadstica II
Apuntes de clase 2012 - Gustavo Castellano
Introducci
on
Para formular la teora termodin
amica aceptamos las variables macrosc
opicas como representativas de valores
medios de diferentes magnitudes fsicas (energa, magnetizacion, n
umero de partculas, etc.). La termodin
amica
estudia las relaciones entre esos valores medios, pero no se inmiscuye con la fsica microsc
opica.
En este curso intentaremos deducir las propiedades macrosc
opicas a partir del conocimiento (escaso a veces)
que tengamos de la fsica microsc
opica. Para ello tendremos que manipular grandes n
umeros de partculas, por
lo que necesitaremos dominar el calculo de valores promedios de manera eficiente, contando adecuadamente,
para los sistemas analizados, las posibles configuraciones asociadas por ejemplo con una dada energa. Esto nos
obliga entonces a revisar (o enterarnos de) algunas nociones sobre probabilidad.

1.
1.1.

Probabilidad

(Basado en el texto de Reichl)

Permutaciones y combinaciones

Cuando trabajamos con muchos objetos, estos conceptos aparecen frecuentemente. Una permutacion es un
arreglo de un conjunto de N objetos en un orden definido. El n
umero de permutaciones diferentes de estos N
objetos es N !; esto se ve facilmente si pensamos que para la primera alternativa disponemos de los N elementos
del conjunto, cada uno de los cuales puede complementarse con los (N 1) restantes como segunda opcion, y
as hasta llegar a la u
ltima elecci
on, conformando el producto N (N 1) 1 = N !.
El n
umero de permutaciones posibles al tomar R objetos del conjunto de N elementos sera, siguiendo el
mismo razonamiento,
N!
N (N 1) (N R + 1) =
.
(N R)!
Conviene enfatizar que tambien en este caso distinguimos subconjuntos que hayan sido escogidos en diferente
N
orden. Una combinacion CR
es una seleccion de R objetos sin importar el orden en que se escojan:


N!
N
N

.
CR
=
R
(N R)! R!
El factor R! del denominador descuenta aquellas configuraciones que tienen los mismos elementos y s
olo difieren
en su ordenamiento.
Si un conjunto de N elementos contiene n1 elementos identicos de tipo 1, n2 de tipo 2, . . . , nk de tipo k,
puede verse que el n
umero de permutaciones posibles sera
!
k
X
N!
ni = N .
n1 ! n2 ! nk !
i

1.2.

Definici
on de probabilidad

Aceptamos como probabilidad nuestra expectativa respecto del resultado de un experimento o evento. Si
un posible resultado de cierto experimento es A, su probabilidad es P (A) si al realizar N experimentos identicos
esperamos que el resultado A se obtenga en N P (A) de ellos. Dicho de otra manera, a medida que N ,
esperamos que la fraccion de eventos con resultado A tienda a P (A).
Un caso sencillo pero que encontraremos muy frecuentemente es el de n resultados igualmente probables de
los cuales m corresponden al caso A que nos interesa: en ese caso, P (A) = m/n.
Definimos espacio muestral asociado a un determinado experimento como el conjunto S constituido por
todos los resultados posibles de ese experimento. Un evento plausible entonces corresponder
a a un subconjunto
de S.
Utilizando la notaci
on de teora de conjuntos, que nos trae recuerdos tan gratos, denotamos como A B
a la uni
on de A y B, que es el conjunto de todos los puntos que pertenecen a A o a B (o a ambos). La

PROBABILIDAD

interseccion A B de estos conjuntos se define como el conjunto de todos los puntos que pertenecen a A y a
B simult
aneamente. Si A B = (no contiene puntos), A y B son mutuamente excluyentes.
Algunas probabilidades que resultan evidentes, en esta notacion se expresan como
P () = 0 ,

P (S) = 1 .

P (A B) representara entonces la probabilidad de tener ambos resultados, y P (A B), la probabilidad de


tener como resultado un evento A o B (o ambos). En particular,
P (A B) = P (A) + P (B) P (A B) .
En el caso de que A y B sean mutuamente excluyentes tendremos P (A B) = P (A) + P (B).

Si A1 , A2 , . . . , Am son mutuamente excluyentes y exhaustivos, es decir, cubren todo el espacio muestral y


por lo tanto A1 A2 Am = S, decimos que {Aj } es una particion de S en m subconjuntos. Cuando
{Aj } es una particion se cumple que P (A1 ) + P (A2 ) + + P (Am ) = 1.
A y B son eventos independientes si y s
olo si P (A B) = P (A) P (B).
Se define probabilidad condicional P (B|A) como la probabilidad de obtener el resultado A dado que tambien
se obtiene B:
P (A B)
.
P (B|A) =
P (B)

En esta expresi
on el denominador de alguna manera sugiere una nueva normalizaci
on, como si redujeramos el
espacio muestral al evento B. Como P (A B) = P (B A), puede inferirse la relaci
on
P (A) P (A|B) = P (B) P (B|A) .
Evidentemente, en el caso de que A y B sean independientes, se cumple que P (B|A) = P (A).

1.3.

Variables aleatorias o estoc


asticas

Una cantidad cuyo valor se determina como resultado de un experimento se denomina variable estocastica.
En un determinado experimento, una variable estocastica X puede tomar diferentes valores xi ; debe tenerse
cuidado de distinguir la variable X de los distintos resultados {xi } posibles.
Para visualizar mejor este concepto pensemos en el ejemplo de sortear tres monedas: el n
umero de caras
que se obtiene es una variable estocastica X ; los resultados posibles son xi = 0, 1, 2, 3, cada uno con diferente
probabilidad. Vemos claramente que el n
umero de caras no tiene un valor prefijado, y para determinarlo es
necesario realizar el experimento. A lo sumo podemos decir cu
al sera el resultado menos probable, o cu
antas
caras obtenemos en promedio al cabo de muchos experimentos.
Variables estoc
asticas discretas
Si X es una variable estocastica que puede tomar un conjunto numerable de valores {x1 , x2 , . . . }, podemos
asignar a cada xi una probabilidad f (xi ). EstaP
distribuci
on de probabilidades no puede tomar valores negativos,
y debe cumplir la condici
on de normalizaci
on i f (xi ) = 1 (sumando todas las xi posibles).
La distribuci
on de probabilidades f (xi ) constituye toda la informacion posible sobre la variable estocastica
X. A menudo no puede determinarse f (xi ) sino algunos de sus momentos n-esimos, definidos como
X
hX n i =
xni f (xi ) .
i

Los momentos de X dan informacion acerca de la forma de f (xi ). En general, los mas importantes son los
primeros de ellos. El primer momento hXi suele se
nalarse como valor esperado porque nos provee el valor
medio de la distribuci
on. A partir del segundo momento se define la varianza de X como


var(X) = hX 2 i hXi2
= (X hXi)2
y de aqu, la desviaci
on est
andar

X =

q
hX 2 i hXi2

que da una idea del ancho de la distribuci


on.


q


,
(X hXi)2

1.3

Variables aleatorias o estocasticas

Variables estoc
asticas continuas
Cuando la variable X puede tomar valores continuos, la distribuci
on debe ser una funcion continua a trozos,
de modo que la probabilidad de tener un valor a X b sea el area bajo la curva fX (x) en ese intervalo:
Z b
dx fX (x) .
P (a X b) =
a

En este caso, fX (x) se denomina densidad de probabilidad de X, y como en el caso discreto debe cumplirse
fX (x) 0 adem
as de la condici
on de normalizaci
on
Z
dx fX (x) = 1 ,
donde la integraci
on debe extenderse sobre todo el rango de valores posibles para X.
Analogamente al caso de variables discretas, la definicion del n -esimo momento en este caso es
Z
hX n i =
dx xn fX (x) .
Obviamente, el primer momento hXi vuelve a ser el valor medio (o valor esperado), y la desviacion est
andar
X se define como antes a partir del primer y el segundo momentos.
El conocimiento de todos los momentos hX n i implica el conocimiento completo de fX (x) . Esto se ve facilmente introduciendo la funcion caracterstica
Z

ikX
(ik)n hX n i
ikx
X (k) e
=
dx e fX (x) =
,
(1)
n!
n=0

donde el u
ltimo termino tiene sentido como herramienta siempre que hX n i sea peque
no para n grande. Vemos
que la densidad de probabilidad fX (x) es la transformada de Fourier de X (k):
Z
1
fX (x) =
dk eikx X (k) .
2
As hemos visto que, efectivamente, si conocemos todos los momentos hX n i queda determinada la funcion
caracterstica, y a traves de esta u
ltima identidad podemos encontrar la densidad de probabilidad fX (x). Del
mismo modo, cuando conocemos X (k), los momentos se obtienen directamente a partir de la relaci
on (1):

1 dn X (k)
hX n i = n
.
i
dk n k=0

Esta relaci
on es muy u
til cuando resulta mas facil encontrar los momentos realizando la transformada de Fourier
de fX (x) y luego derivar en lugar de utilizar la definicion.

Otra alternativa que puede ser interesante, dependiendo del problema encarado, involucra una expansi
on de
la funcion caracterstica X (k) en termino de los cumulantes de orden n Cn (X), definidos mediante la relaci
on
#
"
X (ik)n
Cn (X) .
X (k) = exp
n!
n=1
A menudo necesitamos conocer la densidad de probabilidad en terminos de la variable estocastica Y = g(X).
Como los valores medios de cualquier funcion deben coincidir al calcularlos en terminos de X o Y , el entrenado
lector puede mostrar que debe satisfacerse la relaci
on
Z

fY (y) =
dx y g(x) fX (x) ,
donde la delta de Dirac es la delta de Dirac.
Probabilidades conjuntas
Si X y Y 1 son variables estocasticas sobre un espacio muestral S, con X(S) = {x1 , x2 , . . . } y Y (S) =
{y1 , y2 , . . . }, el conjunto X(S)Y (S) estara conformado por los pares ordenados {(x1 , y1 ), (x1 , y2 ), . . . , (x2 , y1 ),
1 Pron
unciese

equisish
e

PROBABILIDAD

(x2 , y2 ), . . . , (xi , yj ), . . . } y sera un espacio de probabilidades, de modo que a cada par ordenado (xi , yj )
asignamos una probabilidad conjunta f (xi , yj ) = P (X = xi , Y = yj ).
Por supuesto, esa definicion vale tambien para variables continuas. Teniendo la precaucion de sustituir
integrales por sumatorias cuando corresponda, escribiremos el desarrollo que sigue para el caso de variables
continuas. Cuando tenemos la probabilidad conjunta f (x, y), podemos obtener la distribuci
on para una de las
variables integrando todos los valores posibles para la otra:
Z
fX (x) =
dy f (x, y) .
Como en los casos anteriores, debe cumplirse siempre que f (x, y) 0, y la condici
on de normalizaci
on se escribe
Z Z
dx dy f (x, y) = 1 ,
La interdependencia entre estas dos variables estocasticas se eval
ua mediante la covarianza de X y Y :
Z Z
cov(X, Y ) =
dx dy (x hXi) (y hY i) f (x, y)
=

Z Z

dx dy xy f (x, y) hXihY i

= hX Y i hXihY i .
Tambien suele usarse la correlacion de X y Y , definida como
cor(X, Y ) =

cov(X, Y )
,
X Y

pues tiene la ventaja de ser adimensional y presenta adem


as las siguientes propiedades:
a) cor(X, Y ) = cor(Y, X) ;
b) 1 cor(X, Y ) 1 ;
c) cor(X, X) = 1;

cor(X, X) = 1 ;

d) cor(aX + b, cY + d) = cor(X, Y )

(siempre que a, c 6= 0).

Es interesante destacar que pares de variables con identica distribuci


on de probabilidad pueden tener diferentes
correlaciones.
En el caso en que X y Y son independientes, se satisface que
a) f (x, y) = fX (x) fY (y) ;
b) hX Y i = hXihY i ;
c) var(X + Y ) = var(X) + var(Y ) ;
d) cov(X, Y ) = 0 .
Aqu tambien vale la pena notar que la u
ltima propiedad, cov(X, Y ) = 0, no necesariamente implica que X y
Y sean independientes.
A veces partimos de varias variables estocasticas y necesitamos informacion sobre una nueva variable estocastica Z, funcion de aquellas. Por ejemplo, supongamos que contamos con la densidad de probabilidad
conjunta f (x, y) para las variables X y Y , que est
an conectadas con Z mediante la relaci
on z = g(x, y). Como
se
nalamos para el caso de una variable, puede mostrarse que
Z Z

fZ (z) =
dx dy z g(x, y) f (x, y) .

Cuando X y Y son independientes,

fZ (z) =

Z Z


dx dy z g(x, y) fX (x) fY (y) .

1.4

Distribucion binomial

En este caso, la funcion caracterstica sera


Z (k) =

Z Z

dx dy eikg(x,y) fX (x) fY (y) .

En particular, cuando g(x, y) = x + y resulta


Z (k) = X (k) Y (k) .

1.4.

Distribuci
on binomial

Frecuentemente nos enfrentamos con el caso de muchos experimentos que dan como resultado s
olo dos valores
posibles. Denotamos entonces p y q a las probabilidades para cada resultado, que satisfacen la condici
on de
normalizaci
on p + q = 1.
Al cabo de un n
umero N de experimentos, tendremos respectivamente n1 y n2 resultados, que cumplen con
la relaci
on n1 + n2 = N . Si estamos interesados en tener n1 experimentos con el primer resultado en un orden
determinado, la correspondiente probabilidad sera pn1 q n2 . Si en cambio no nos interesa el orden, la probabilidad
de tener cualquier combinacion n1 , n2 est
a dada por la llamada distribuci
on binomial


N
pn1 q n2 .
PN (n1 ) =
n1
Es facil verificar que esta distribuci
on est
a normalizada, pues
N
X

PN (n1 ) =


N 
X
N
pn1 q N n1 = (p + q)N = 1 .
n1

n1 =0

n1 =0

Podemos evaluar el primer momento, teniendo en cuenta que


hn1 i =

N
X

n1 =0

n1

N
n1

n1

N n1

=p
p

"

N
X

n1 =0

PN (n1 )

como el termino entre corchetes es (p + q)N , resulta


hn1 i = p N .
Se deja como divertido ejercicio al lector mostrar que, analogamente, el segundo momento resulta
hn21 i = (N p)2 + N p q .
Con estos dos momentos evaluamos la varianza o la desviaci
on est
andar
p
N = N p q .
Mucho mas entretenido resulta analizar la desviaci
on est
andar relativa
r r
N
q
1
=
.
hn1 i
p
N

Aqu vemos que este valor se reduce a medida que crece N ; un valor peque
no de N /hn1 i indica que cualquier
resultado n1 tomara valores muy proximos al valor medio p N . Dicho en otras palabras, a medida que N crece,
n1 /N hn1 i/N = p.
1.4.1.

Distribuci
on gaussiana

Cuando N es suficientemente grande y p no es demasiado peque


na, de manera que p N tambien sea grande,
podemos utilizar la formula de Stirling para aproximar
 n n

,
n! = 2 n
e

PROBABILIDAD

que es v
alida para n > 10. Si tenemos en cuenta que N y n1 son muy grandes, reemplazando en la distribuci
on
binomial, podemos escribir


N n1
1
n1
(N n1 ) ln
+ n1 ln p + (N n1 ) ln(1 p) .
PN (n1 ) =
exp n1 ln
N
N
2 N
Es sencillo demostrar que PN es maximo cuando n1 vale p N = hn1 i. Podemos desarrollar el exponente de PN
alrededor de hn1 i, obteniendo
2
2N p q +O(3 )
,
PN (n1 ) = PN (hn1 i) e
donde n1 hn1 i. Como para N grande es chico, puede mostrarse que es una buena aproximacion descartar
2
los terminos de orden superior al segundo. Recordando que N p q = N
y usando la condici
on de normalizaci
on
para evaluar correctamente PN (hn1 i), se obtiene
1 i)
(n1 hn
1
2
2 N
e
PN (n1 ) =
2 N

(2)

Esta
es la conocida distribuci
on gaussiana, y tiene la particularidad de que queda absolutamente determinada
mediante hn1 i y hn21 i.
1.4.2.

Distribuci
on de Poisson

En algunos casos, al crecer N, p 0, de modo que p N = a (cte) N . Entonces no es v


alido tomar n1
grande, ya que sus valores seran pr
oximos a hn1 i = p N N . De todos modos, puede usarse la aproximacion
de Stirling en
 N
N

e
N
N!
N n1



(N n1 )!
N n1 N n1 N n1
e
y
(1 p)N n1 (= q n2 ) (1 p)N = (1 p)a/p ea ,
de manera que

PN (n1 ) =

an1 ea
n1 !

que es la llamada distribuci


on de Poisson. Vemos que cumple la condici
on de normalizaci
on

PN (n1 ) = ea ea = 1

n1 =0

y queda completamente determinada por el primer momento hn1 i = a.


1.4.3.

Caminata al azar

Veamos ahora una aplicaci


on tpica de la distribuci
on binomial, consistente en un movimiento unidimensional
con pasos de longitud fija, hacia adelante (p) o hacia atras (q). Analicemos el caso particular en que ambos
eventos son igualmente probables, es decir, p = q = 1/2.
Al cabo de un n
umero grande N de pasos, la distribuci
on de probabilidades para n1 pasos hacia adelante
sera gaussiana, ya que p N tambien es grande. El desplazamiento neto sera m n1 n2 , y como n1 + n2 = N ,
podemos reescribir m = 2n1 N . La distribuci
on de probabilidades para m se obtiene de (2), aunque con esta
notacion, m s
olo puede tomar los valores N, N + 2, . . . , N 2, N . Si deseamos incluir valores intermedios
de m (pues tambien son posibles), es necesario agregar un factor 1/2 repartiendo la probablidad, y evitando
que se pierda la condici
on de normalizaci
on. De este modo obtenemos

1.5

Teorema del lmite central

PN (m) =

m2
1
e 2N
2 N

Si la longitud de cada paso es , el desplazamiento neto real sera x = m. Al cabo de N pasos, x = m,


de manera que PN (x) x = PN (m) x/, con lo cual
x2
1
2N
2 .
PN (x) =
e
2N 2

Cuando la partcula realiza n pasos por unidad de tiempo, N = n t; definiendo el coeficiente de difusion
como D = n 2 /2 se obtiene
x2
1
P (x, t) =
e 4Dt
2 Dt

Este resultado indica que si en t = 0 la partcula est


a localizada en x = 0, la distribuci
on inicial es P (x, 0) = (x);
a medida que transcurre el tiempo, la distribuci
on se ensancha y se reduce su altura, de modo que el area bajo
la curva se mantenga siempre igual a 1.

t=0

t1 > 0

1.5.

t2 > t1

Teorema del lmite central

Si tenemos una variable aleatoria X regida por fX (x), puede definirse una nueva variable como el promedio
de N mediciones independientes de dicha magnitud, es decir,
yN =

x1 + x2 + + xN
.
N

La pregunta que nos planteamos es como sera la distribuci


on de probabilidades fY (yN ) de esta nueva variable
estocastica?
Para responder este
acido interrogante, analicemos la funcion caracterstica correspondiente a fY (yN )
Z
Z
ikyN
(k) =
dyN e
fY (yN ) =
dx1 . . . dxN eik(x1 +x2 ++xN )/N fX (x1 ) fX (x2 ) . . . fX (xN )
=

k
N

N

Tomando 2 = hX 2 i hXi2 , puede desarrollarse


 


Z
k
k2 2
ikhXi/N
ik(xhXi)/N
ikhXi/N
X
1
=e
dx e
fX (x) = e
+
N
2 N2

DE PROBABILIDAD EN SISTEMAS DINAMICOS

2 DISTRIBUCION

La exponencial oscilatoria en la integral nos permite ver que X (k/N ) decrece con k , de modo que [X (k/N )]N
decrecera aun mas r
apidamente. Si cuando x , fX (x) decae de tal forma que todos los hX N i son finitos,
(k) = e

ikhXi

"

k2 2
1
+O
2 N2

k
N

3 # N

eikhXi e

k2 2
2N

(N ) .

De este modo, podemos reconstruir


Z
Z
1
1
dk eikyN (k)
dk eik(yN hXi)
fY (yN ) =
2
2

k2 2
2N

Completando cuadrados puede resolverse la integral para obtener

1
fY (yN )
2

2
N N (yN hXi)
2 2
e

Este resultado es llamado teorema del lmite central, y nos dice que, sin importar cu
al es la forma de fX (x) ,
el valor
medio de la variable estocastica yN coincide con hXi y la distribuci
on fY (yN ) es gaussiana, con
Y = / N . Vale la pena resaltar que los requisitos que hemos pedido para nuestros N experimentos son: que
sean independientes, que los momentos hX N i sean finitos y que N sea grande.

2.
2.1.

Distribuci
on de probabilidad en sistemas din
amicos
La evoluci
on de sistemas cl
asicos (Basado en el texto de Reichl)

Hemos dicho que la Mecanica Estadstica estudia sistemas con muchos grados de libertad, como es el caso de
N partculas en un recipiente, o N sitios de red interactuando entre s. En un enfoque clasico, las ecuaciones de
Hamilton pueden utilizarse para predecir la evolucion del sistema, que estara caracterizado por 3N posiciones
y 3N impulsos generalizados (ignoramos grados de libertad internos).
Para realizar este analisis es u
til introducir el concepto de espacio de las fases , en este caso de 6N
dimensiones, en el que cada punto X N contiene las 3N coordenadas y los 3N momentos (q N , pN ). Suele
llamarse a cada uno de estos posibles estados microestados, para hacer hincapie en el hecho de que dan
informacion microsc
opica del sistema, a diferencia de los macroestados que estudia la termodin
amica en
general.
Si el valor de X N es conocido en alg
un instante, las ecuaciones de Hamilton nos proveen X N para cualquier
instante posterior:
H N
H N
q (i) =
,
p (i) = (i) ;
q
p(i)
donde H N es el hamiltoniano del sistema y el suprandice se
nala a la i-esima partcula. Sabemos adem
as que
cuando este no depende explcitamente del tiempo, H N (X N ) = E es una constante de movimiento, la energa,
y se dice que el sistema es conservativo.
El microestado del sistema est
a representado entonces por un punto en el espacio de las fases que se mueve
seg
un las ecuaciones anteriores. Como el estado X N est
a perfectamente determinado por las condiciones iniciales
para el sistema, sabemos que las trayectorias que describe nunca se cruzan en el espacio de las fases.
Cuando trabajamos con sistemas termodin
amicos no se pueden especificar completamente sus microestados, de manera que siempre existe cierto grado de incertidumbre respecto de las condiciones iniciales. Por este
motivo es razonable considerar que X N es una variable estocastica 6N -dimensional. Puede conocerse algo acerca de su valor medio, e incluso sobre su dispersion, pero hasta que no se realizara una medicion (ideal) no se
podra determinar el valor concreto que toma esta variable. Como toda variable estocastica, X N estara regida
por una densidad de probabilidad (X N , t), de manera que (X N , t) dX N es la probabilidad de que el estado
del sistema este en un entorno dX N de X N en el instante t.

2.1

La evoluci
on de sistemas clasicos

La condici
on de normalizaci
on

dX N (X N , t) = 1

debe cumplirse para cualquier instante t, ya que el estado del sistema debe estar en alguna regi
on de . La
probabilidad de tener en el instante t un estado en la regi
on R es
Z
dX N (X N , t) .
P (R) =
R

Si en alg
un momento la incertidumbre sobre X N es peque
na, estara muy localizada alrededor del estado
mas probable, anulandose r
apidamente al abandonar un entorno peque
no del mismo. A medida que transcurre
el tiempo, es posible que la distribuci
on permanezca muy ajustada, aunque el maximo quizas se desplace en el
espacio de las fases, de manera que no se pierda informacion sobre el sistema; por el contrario, puede ocurrir
que se esparza gradualmente, transformandose incluso en una distribuci
on bastante uniforme, con lo cual se
perdera la informacion por completo.
Aunque no es demasiado lo que conocemos sobre din
amica de sistemas continuos, veremos como puede
establecerse una analoga entre la densidad de probabilidad en y la masa en el caso de un fluido incompresible.
Para comenzar, notemos que la condici
on de normalizaci
on equivale a la conservaci
on de la materia. De la
expresi
on anterior podemos analizar como cambia P (R) con el tiempo, teniendo en cuenta que como un todo
debe conservarse la probabilidad. Cualquier aumento en la probabilidad contenida en la regi
on R debe igualarse
a la cantidad de probabilidad que fluye hacia dentro de ese volumen en :
I
N
d P (R)
=
(X N , t) X dS N ,
dt
S
N

donde X (q N , p N ), de manera que el u


ltimo miembro representa el flujo saliente a traves de la superficie
S que encierra a R. Para evaluar este flujo, podemos recurrir al teorema de Gauss, reescribiendo la expresi
on
anterior como
Z

(X N , t)
dX N =
t

donde
X N



N
X N (X N , t) X
dX N ,

,
, ,
,
, ,
,
q 1 q 2
q N p1
pN

y X N ( ) es la divergencia en . Como la igualdad anterior debe cumplirse para cualquier R , entonces


deben igualarse los integrandos, obteniendose la celeberrima ecuaci
on de continuidad


N

(X N , t) + X N (X N , t) X
=0
t
El significado de esta ecuaci
on es similar al que deducamos en Electromagnetismo, donde habamos partido
considerando la conservaci
on de la carga.
N
Como recordamos mas arriba, las ecuaciones de Hamilton implican que X N X = 0, de modo que la
ecuaci
on de continuidad puede escribirse como
N

= X X N .
t

(3)

Esta derivada expresa los cambios temporales de en un entorno fijo de . Si deseamos analizar la evolucion
de a medida que se desplaza el fluido, debemos recurrir a la derivada total o convectiva
N

d
=
+ X X N
dt
t

En nuestro caso, esto se traduce como

d
=0.
dt

DE PROBABILIDAD EN SISTEMAS DINAMICOS

2 DISTRIBUCION

10

Lo que significa esta identidad es que se mantiene constante alrededor de un punto del fluido en movimiento.
Es otra manera de identificar la densidad de probabilidad como fluido incompresible.
Utilizando las ecuaciones de Hamilton y definiendo
b
H

N 
X
H N
j=1

H N

pj q j
q j pj

la ecuacion de continuidad (3) puede reescribirse como





b = HN , ,
= H
t

donde [ , ] representa el corchete de Poisson. La identidad anterior para la evolucion temporal de suele
b iH
b:
escribirse en terminos del operador de Liouville L
i

b
=L
t

Esta expresi
on es conocida como ecuaci
on de Liouville, y la soluci
on formal puede escribirse como
b

(X N , t) = eitL (X N , 0) ,

(4)

b es hermitiano, de manera
donde (X N , 0) es la condici
on inicial para . Puede mostrarse que el operador L
que para la ecuaci
on de autovectores
b fj = j fj ,
L

sus autovalores j son reales, y los autovectores fj forman una base ortonormal en el espacio de Hilbert donde
definimos . Podemos expandir en esa base la condici
on inicial
X
(X N , 0) =
Cj fj (X N ) ,
j

de manera que
b (X N , 0) =
L

Cj j fj (X N ) .

Entonces, la ecuaci
on (4) toma la forma

(X N , t) =

eitj Cj fj (X N ) .

Como los autovalores j son reales, la densidad de probabilidad tendr


a siempre un comportamiento oscilatorio,
sin lograrse reproducir el decaimiento al equilibrio que se observa en los sistemas reales. Adem
as, como las
ecuaciones de Hamilton son reversibles en el tiempo, si en alg
un momento el sistema arribara al equilibrio, esta
ecuacion nos dice que podra recorrer el camino inverso, si se cambian todos los p por p hasta retornar a la
condici
on inicial.
El problema de obtener el equilibrio termodin
amico a partir de la din
amica que describen las ecuaciones
de la mec
anica clasica evidentemente no es posible. La ecuaci
on de Liouville no nos permite conocer el camino
mediante el cual se llega al equilibrio, aunque nos proporciona una condici
on que debe satisfacerse en un sistema
que ya alcanz
o un estado estacionario, pues en ese caso no depende explcitamente del tiempo y por lo tanto
b = 0, o lo que es equivalente, [HN , ] = 0.
L

2.2.

El operador densidad (Basado en el texto de Nazareno)

Veremos a continuacion cu
anto se puede avanzar mediante una descripcion cu
antica, para lo cual introduciremos la idea de ensamble2 , definiendolo como una colecci
on de M sistemas fsicos identicos macrosc
opicamente,
cada uno ocupando los diferentes microestados accesibles.
2 Pronto

veremos que tambi


en se la utiliza en descripciones cl
asicas.

2.2

El operador densidad

11

La idea es que el valor medio temporal de cualquier variable din


amica del sistema es igual al promedio de esa
variable sobre el ensamble. Esta propiedad, denominada ergodicidad puede no ser v
alida en algunos sistemas,
aunque s lo sera en todos los casos que estudiemos a lo largo de este curso. Si bien existen herramientas formales
para demostrar cu
ando un sistema es erg
odico, nosotros descansaremos en el hecho de que en todos los casos
que analizaremos, esta propiedad sera siempre aceptable para el sentido com
un.
Cada sistema de nuestro ensamble tendr
a un estado cu
antico descripto por la funcion de onda |k, ti, donde
k representa todos los n
umeros cu
anticos que caracterizan al sistema. El valor medio de una variable din
amica
b en ese sistema estara dado por
A
b ti ,
Ak (t) = hk, t|A|k,
b sobre todo el ensamble sera
siempre que tomemos estados normalizados (hk, t|k, ti = 1). El promedio de A
b M (t) =
hAi

X
1 X
b ti =
hk, t|A|k,
k Ak (t) ,
M ens
k

P
donde hemos introducido el peso estadstico k = Mk /M (evidentemente, k k = 1); aqu Mk representa el
b es Ak .
n
umero de sistemas que en el estado |k, ti, para los cuales el valor de expectacion de A
Si definimos el operador densidad
X
b =
k |k, ti hk, t| ,
k

b se puede escribir
puede verse que para cualquier variable A
 
b M (t) = Tr bA
b .
hAi

Es facil mostrar que b = b, es decir, es un operador hermitiano. Tambien resulta inmediato verificar que
Tr (b
) = 1. Otra propiedad de este operador es que, independientemente de la base elegida, son no-negativos
sus elementos diagonales i ii (la demostraci
on es directa a partir de la definicion, y tambien se deja como
ejercicio). De esto resulta que como
X
Tr (b
) = 1 =
i 0 i 1 .
i

Por u
ltimo destaquemos la propiedad de que como existe una base en la que b es diagonal, esta u
ltima desigualdad implica que Tr b 2 1, de manera que en una base arbitraria
X
|ij |2 1 ,
i,j

es decir, todos los elementos de b son acotados.

2.2.1.

Estados puros y mezcla

b es hko , t|A|k
b o , ti =
Si todos los sistemas de nuestro ensamble est
an en el mismo estado |ko , ti, el valor medio de A
Ako en todos los sistemas. Por lo tanto,
b M = Ak
hAi
o

b = |ko , tihko , t| .

Entonces se cumple que b 2 = b. Si expresamos esto en una base donde b es diagonal, esto significa que debe
) = 1 = Tr(b
2 ) , la u
nica forma en que se pueden cumplir
cumplirse 2i = i , pero como debe
P valer Tr(b
P
2
simult
aneamente las condiciones i i = 1 y i i = 1 con 0 i 1 es que = 1 y i6= = 0 para alg
un
valor .
Como b siempre es diagonalizable, vemos que la diferencia entre un estado puro y un estado mezcla es
justamente esta: en un estado mezcla, que es el caso mas general, la representaci
on diagonal de b contiene mas
de un elemento distinto de cero en la diagonal, y esta situacion corresponde al caso en que no poseemos tanta
informacion acerca del sistema como para predecir exactamente en que estado se encuentra.
Como vemos, siempre es conveniente pensar algunas expresiones que involucran trazas en una base que
diagonaliza a b (ya que la traza no depende de la representaci
on elegida). As evitaremos adem
as la desazon
de encontrar inesperadas la notaci
on y la forma del operador densidad. Si b es diagonal, cada elemento i
representa la probabilidad de que el sistema ocupe cierto estado |ii, que anteriormente habamos se
nalado como

DE PROBABILIDAD EN SISTEMAS DINAMICOS

2 DISTRIBUCION

12

P
Pi . Entonces, el hecho de que Tr (b
) = 1, significa que i Pi = 1, que se convierte en una expresi
on mucho mas
b conmuten, puede elegirse una base que diagonalice
familiar para nosotros. Por otro lado, en el caso en que b y A
a ambos operadores: en este caso Pi representa tambien la probabilidad de que el sistema ocupe un estado para
b posee su autovalor Ai . Esto implica que el valor medio hAi
b M presenta un aspecto bastante menos
el cual A
P
P
b
sorpresivo, ya que Tr (b
A) = i i Ai = i Pi Ai , reencontrandonos con las expresiones de nuestra infancia.
2.2.2.

Ecuaci
on de Liouville

b es el hamiltoniano de nuestro sistema y A


b es independiente de t, para cada estado |k, ti
Sabemos que, si H
de nuestro ensamble



E
E D
d D
b b
b
H] k, t ,
k, t A
i
h
k, t = k, t [A,
dt

donde no debe confundirse el conmutador con el corchete de Poisson. Por otro lado, como

  X D
E
b
b M = Tr bA
b =
hAi
k k, t A
k, t ,
k

podemos escribir
ih




 
E X D
E
X
d b
d D
b
b b
b = i
b H]i
b M ,
A
h
k
hAiM = i
h Tr b
k, t A
k k, t [A,
H] k, t = h[A,
k, t =
dt
dt
k

de modo que

i
h Tr






b b
b H]
b = Tr [H,
b b] A
b
A = Tr b [A,
t

(para verificar la u
ltima identidad s
olo es necesario tener en cuenta que todos los operadores son hermitianos).
b entonces debe cumplirse la ecuaci
Como esta relaci
on es v
alida para cualquier A,
on de Liouville cu
antica
ih

b
b b]
= [H,
t

Tambien en este caso podemos definir el operador de Liouville


b ]
b = 1 [H,
L
h

b b
= L b .
t

b aunque nuevamente es posible escribir la


En este caso no diremos nada acerca de la hermiticidad de L,
soluci
on formal como
b
b
b
b(t) = eitL b(0) = eitH/h b(0) eitH/h .
b

El u
ltimo termino puede obtenerse desarrollando eitL como una serie de potencias y luego desarrollando el
b ]. Si representamos a b en una base
binomio de Newton correspondiente a las potencias del conmutador [H,
P
b
ortonormal de autofunciones de H, {|En i}, recordando que n |En ihEn | es el operador identidad, resulta
b(t) =

X
n,m

hEn |b
(0)|Em i e(i/h)(En Em )t |En ihEm | .

Esta expresi
on nos permite ver claramente que la descripcion cu
antica tambien provee soluciones oscilatorias
para la evolucion de nuestro sistema, ya que b consiste de una suma de terminos que oscilan con distinta
frecuencia.
Es posible en cambio observar que cuando se ha alcanzado el estado estacionario debe cumplirse nm =
n n,m , es decir b debe ser diagonal en esta representaci
on, para que se anulen los terminos oscilatorios. Esto
b
es posible si en el equilibrio b = b(H), lo cual era evidente de la ecuaci
on de Liouville independiente de t, pues
b b] = 0.
entonces [H,

13

3.

Nociones elementales sobre teora de informaci


on

(Basado en el texto de

Balian)
Hemos visto que las descripciones din
amicas que se pueden dar desde las teoras clasica o cu
antica no
predicen adecuadamente las relajaciones de los sistemas termodin
amicos. La evolucion de un sistema hacia un
estado estacionario es un problema a
un latente en la actualidad, y es por ello que la mec
anica estadstica aborda
fundamentalmente los sistemas que ya han alcanzado el equilibrio termodin
amico. Plantearemos entonces las
bases para poder dar esa descripcion de los sistemas en equilibrio, a partir de lo que se conoce como teora de
informacion.

3.1.

Entropa de informaci
on

Para avanzar con nuestra descripcion, introduzcamos el operador k ln b, donde k es una constante. El valor
medio de este operador en un ensamble es
S hk ln biM = k Tr (b
ln b) = k

j ln j ;

el u
ltimo miembro corresponde a una base que diagonaliza a b. Vemos que S 0, ya que los elementos diagonales
de b cumplen 0 j 1 (cualquiera sea la base escogida).

En el caso de tener un ensamble puro, en esta representaci


on todos los elementos de b se anulan excepto uno
que vale 1, de modo que S = 0. En otras palabras, cuando poseemos la maxima informacion sobre el sistema, S
alcanza su valor mnimo. Por otro lado, en la proxima seccion veremos que S alcanza el valor maximo cuando
todas las probabilidades j son iguales, es decir, cuando poseemos el mnimo de informacion sobre el estado de
un sistema.
El valor de S cuantifica de alguna manera la falta de informacion o la incertidumbre respecto de un sistema.
Esta magnitud se denomina entropa de informacion o entropa estadstica, y en general para un sistema regido
por una distribuci
on de probabilidades {Pj } se define directamente como
S k

M
X

Pj ln Pj ,

(5)

j=1

Si los M estados accesibles para el sistema son equiprobables,


Pj =

1
M

S = k ln M ,

de manera que S es creciente con M . Otra propiedad importante es la aditividad, cuyo significado puede
verse en un ejemplo sencillo, para el cual dividimos los posibles resultados en dos grupos: A representa los
primeros m eventos, y B, los restantes, de manera que la probabilidad colectiva de tener un evento A sera
A = P1 + P2 + + Pm , y para el grupo B sera B = Pm+1 + + PM . Si en la definicion de entropa (5)
sumamos y restamos
M
m
X
X
Pj ln B
Pj ln A + k
k
j=1

j=m+1

y luego agrupamos convenientemente los terminos, obtenemos






Pm
PM
Pm+1
P1
,...,
+ B S
,...,
.
S(P1 , . . . , Pm , Pm+1 , . . . , PM ) = S(A , B ) + A S
A
A
B
B
El primer termino de la derecha representa la incertidumbre de obtener un resultado A o B, mientras que los
terminos restantes corresponden a la suma de incertidumbres respecto de los resultados dentro de cada grupo,
con un peso igual a las respectivas probabilidades colectivas. Los denominadores pueden pensarse como un
factor de renormalizaci
on dentro del grupo , o bien pueden verse los cocientes Pj / como probabilidades
condicionales.
En el caso de trabajar con variables continuas el desarrollo anterior se mantiene, excepto por el correspondiente reemplazo de sumatorias por integrales.


3 TEORIA DE INFORMACION

14

3.2.

Principio de m
axima entropa (estadstica)

Este principio queda pr


acticamente enunciado con el ttulo que hemos elegido:

La entropa estadstica de un sistema alcanza el maximo compatible con los vnculos impuestos.

El sentido de este principio ha quedado explicitado en los ejemplos anteriores: de alg


un modo se
nala que no
hay raz
on para privilegiar un estado particular de antemano.
El procedimiento habitual para maximizar la entropa consiste en recurrir al metodo variacional, imponiendo
los vnculos mediante multiplicadores de Lagrange. Veamos primero el ejemplo de hallar la distribuci
on de
P
P
probabilidad en nuestro conjunto de M eventos bajo la u
nica imposicion de la normalizaci
on,
j j = 1.
Debemos exigir que alrededor de la distribuci
on {Pj } que maximiza (5) las variaciones virtuales se anulen:

M
M
X
X
Pj = 0 ,
Pj ln Pj +
k
j=1

j=1

donde es el multiplicador de Lagrange asociado con la normalizaci


on. Permitimos entonces variaciones infinitesimales Pj en las probabilidades (como si fueran independientes), obteniendo
M
X
j=1

Pj [k ln Pj + ( k)] = 0 .

Como esto debe anularse para cualquier conjunto de variaciones {Pj } arbitrarias, entonces debe anularse el
termino entre corchetes para cada j, con lo cual resulta

Pj = e k 1 ,

es decir, todos los estados tienen la misma probabilidad,


on de normalizaci
on no pueden
P que por la condici
sino valer 1/M . En efecto, escribiendo explcitamente j Pj = 1 podemos adem
as encontrar el valor para el
multiplicador :

1
e k 1 =

= k (1 ln M ) .
M

En el caso de contar con alg


un vnculo adicional
f =

M
X

Pj f j ,

(6)

j=1

el proceso de maximizacion es similar, s


olo que debemos acompa
nar esta nueva restriccion con otro multiplicador
de Lagrange , resultando
M
X
Pj [k ln Pj + ( k) + fj ] = 0 .
j=1

Obtenemos entonces

Pj = e( k 1)+ k fj ,
y cuando imponemos la condici
on de normalizaci
on vemos que debe cumplirse

e k 1

M
X

e k fj = 1 .

j=1

Definimos entonces la funcion particion


Z e1

M
X
j=1

e k fj .

(7)

15

Sustituyendo en la expresi
on anterior, obtenemos

e k fj
Pj = M
,
X f
ek j
j=1

donde se evidencia que la distribuci


on {Pj } est
a normalizada. Falta a
un determinar el valor del multiplicador
, que puede obtenerse utilizando el vnculo (6)

f =

M
X

f j e k fj

j=1

M
X

e k fj

j=1

Despejando de aqu , podemos encontrar tambien el valor de a traves de (7). La generalizacion para el caso
de mayor n
umero de vnculos es inmediata, y s
olo debe tenerse la precaucion de no sobredeterminar el sistema.

4.

Ensamble microcan
onico

(Basado en los textos de Reichl y Huang)

Abordamos a partir de este captulo el estudio de sistemas termodin


amicos en equilibrio. Como dijimos
anteriormente, en estos casos la mec
anica estadstica plantea el principio de maxima entropa utilizando el
operador densidad en la expresi
on de la entropa de informacion:
S = k Tr (b
ln b) .

Veremos que la asociaci


on de esta magnitud con la entropa termodin
amica nos provee una adecuada descripcion,
en particular para los sistemas no aislados.

4.1.

Sistemas cerrados y aislados

Comenzamos analizando un sistema que no intercambia ning


un tipo de energa con su entorno, ni puede
incorporar (o liberar) materia de su alrededor. Si bien su energa E es fija, dispone de muchos microestados compatibles con la condici
on E = U (constante). El ensamble asociado con esta situacion se denomina
microcan
onico.
La maximizacion de S con el u
nico vnculo Tr (b
) = 1 implica un procedimiento similar al de la seccion
anterior, aunque en este caso representaremos como b a las variaciones que se provoquen en el operador b
que maximiza la entropa:
n h
io
{k Tr (b
ln b) + Tr (b
)} = 0

Tr b k ln b + ( k) Ib = 0 ,

donde Ib es el operador identidad. Nuevamente, esto debe cumplirse para variaciones b arbitrarias, de manera
que debe anularse el factor entre corchetes, lo que implica

b = e k 1 Ib .

(8)

Esto significa que b es un operador diagonal, con todos sus elementos i identicos. Si el n
umero de estados
accesibles al sistema con energa E es W (E), entonces
i =

1
.
W (E)

Este resultado es analogo al de la seccion anterior, y es equivalente al postulado de igual probabilidad a priori,
que indica que no hay motivo para privilegiar ning
un estado si la u
nica restriccion que se impone es que el

16

ENSAMBLE MICROCANONICO

sistema tenga energa E. Muchas formulaciones de la mec


anica estadstica comienzan aceptando este postulado
en lugar del principio de maxima entropa, que es el camino que nosotros hemos escogido.
Reemplazando los valores para i en la expresi
on para la entropa obtenemos nuevamente

S = k ln W (E)

(9)

que puede tomarse como ecuaci


on fundamental para nuestro sistema si aceptamos que se corresponde con la
entropa termodin
amica. En particular, la conexion directa con la temperatura se escribe como
1
S
=
,
T
U
y a partir de aqu, por supuesto, pueden encontrarse magnitudes como el calor especfico u otras funciones
respuesta.
En el caso de que el sistema analizado pueda describirse adecuadamente mediante un enfoque clasico, tendremos una densidad de probabilidad (X N ), y la entropa se escribe
Z
h
i
S = k
dX N (X N ) ln C N (X N ) ,
E<H(X N )<E+E

donde la constante C N se introduce para tener las unidades correctas y corresponde al volumen en el espacio de
las fases ocupado por un estado del sistema. Este volumen s
olo puede hallarse mediante argumentos cu
anticos,
y a partir del principio de incertidumbre de Heisenberg puede verse que C N = h3N , donde h es la constante de
Planck3 . Aceptando este volumen finito ocupado en por cada estado, la integraci
on de la expresi
on anterior
abarca estados con energas levemente superiores a E en una cantidad E peque
na.
Al maximizar la entropa en esta descripcion clasica se obtiene
(X N ) =

1
,
(E, V, N )

donde (E, V, N ) es el volumen en comprendido entre las superficies de energa E y E + E


Z
(E, V, N ) =
dX N ,
E<H(X N )<E+E

que tambien puede representarse como el


area (E, V, N ) de la hipersuperficie con energa E multiplicada
por el ancho E, (E, V, N ) = (E, V, N )E. La densidad de probabilidad se anula si el estado analizado no
se encuentra comprendido en (E, V, N ). Reemplazando la expresi
on hallada para (X N ) en la definicion de
entropa, se obtiene
S(E, V, N ) = k ln

(E, V, N )
CN

(10)

Esta expresi
on es equivalente a la desarrollada para el caso cu
antico: si (E, V, N ) es el volumen en
ocupado por todos los estados accesibles y C N es el volumen asociado a un solo estado, (E, V, N )/C N es el
n
umero de estados compatibles con la energa E prefijada. Por otro lado, la expresi
on encontrada para S puede
tomarse como ecuaci
on fundamental a partir de la cual pueden derivarse todas las propiedades termodin
amicas
del sistema considerado.
Es interesante verificar que esta expresi
on para la entropa resulta extensiva. Para ello consideremos un
sistema con N partculas distinguibles dividido en dos partes no interactuantes, conteniendo cada subsistema
y = N partculas respectivamente. El hamiltoniano del sistema conjunto puede escribirse como
H(X N ) = H(X ) + H(X )
3 M
as adelante veremos que para el caso de partculas indistinguibles debe corregirse esta constante para conseguir resultados
adecuados.

4.1

Sistemas cerrados y aislados

17

y el espacio de las fases es el producto cartesiano de los respectivos espacios para cada subsistema, (N ) =
() () . Un estado con energa total E se logra combinando un estado del subsistema cuya energa parcial
es Ei con un estado de cuya energa es E Ei , lo que en el espacio (N ) implica un volumen
() (Ei ) () (E Ei ) .
Como esta no es la u
nica alternativa favorable, ya que existen muchos valores de Ei que se corresponden
con la misma energa total E, el volumen en el espacio (N ) que debemos evaluar resulta de sumar todas las
combinaciones posibles, es decir
(E) =

E/E h

X
i=1

i
() (Ei ) () (E Ei ) .

(E
= E E
), podemos acotar por arriba
Si el mayor sumando en esta expresi
on se da cuando Ei = E
reemplazando en la sumatoria todos los terminos por ese valor maximo, y por abajo eliminando todos los otros
terminos (que son no negativos):
) () (E
) (E)
() (E

E
) () (E
) .
() (E
E

Tomando logaritmos y multiplicando por k obtenemos


 ()
 ()
) 
) 
E
(E ) () (E
(E ) () (E
S(E, V, N ) k ln
+ k ln

,
k ln

C
C
C
C
E
donde hemos identificado C N = C C a partir de su definicion. Cualquier volumen en el espacio (o )
es proporcional a cierta cantidad (dependiente del volumen en cuestion) elevada a una potencia 6 (o 6),
de manera que el primer termino del miembro de la derecha es proporcional a + = N , mientras que el
segundo es proporcional a ln N (pues E N ). En el lmite termodin
amico, es decir cuando N es muy grande
(y tambien y ), la contribuci
on del u
ltimo termino es despreciable frente al primero, coincidiendo entonces
la cota inferior con la superior. Esto implica que, en lmite termodin
amico,
S (N ) = S () + S () ,
de modo que la entropa es aditiva. La extensividad que dese
abamos verificar es consecuencia directa de la
aditividad.
PE/E
Con un razonamiento similar al anterior puede mostrarse que si (E, V, N ) =
(Ei ) representa
i=0
el volumen contenido dentro de la hipersuperficie (E, V, N ), la expresi
on para la entropa puede escribirse
tambien como
S(E, V, N ) = k ln

(E, V, N )
CN

(11)

Matem
aticamente esta expresi
on resulta mas sencilla en la practica, de modo que la utilizaremos en lugar de la
formula (10).
Paralelamente a la demostraci
on anterior, hemos resaltado el hecho de que la energa E del subsistema
tiene en realidad un valor bien definido, ya que siempre en el lmite termodin
amico la sumatoria puede
reemplazarse por un u
nico sumando: el termino que maximiza () () bajo la restriccion E + E = E (cte).
Como el logaritmo es una funcion monotonamente creciente, la condici
on de maximo puede escribirse como
i
h 
con
E + E = 0 .
ln () () = 0
Dado que los subsistemas son independientes, (j) s
olo depende de Ej , de modo que la condici
on anterior
implica


ln ()
ln ()
E = 0

E
E

para E arbitrario, es decir



S
S
=
.
E E
E E

18

ENSAMBLE MICROCANONICO

Esta identidad es un nuevo indicio de la razonabilidad de asociar la entropa de informacion con la entropa
termodin
amica, pues si S/U = 1/T , la identidad anterior significa que
T = T ,
es decir, en el equilibrio las temperaturas de ambos subsistemas deben igualarse. Por conveniencia, la constante
k se elige como la constante de Boltzmann con el objeto de que esta temperatura coincida con la temperatura
absoluta que se introduce en la termodin
amica. De todos modos, en la expresi
on (8) se ha explicitado que la
elecci
on de esta magnitud es de alg
un modo irrelevante, ya que est
a ligada a los valores de los multiplicadores
de Lagrange, y modificarla s
olo representara un cambio de unidades.
Finalmente, es facil ver que nuestra expresi
on para la entropa crece con la energa interna: al aumentar U ,
el volumen que debe evaluarse en la expresi
on (11) crece, pues pasamos a abarcar, adem
as de los estados
anteriores, nuevos estados con energa interna algo mayor. Como el logaritmo es una funcion creciente, esto
significa que S crece con U . La expresi
on que aceptamos para la entropa estadstica satisface entonces los
requisitos que exigimos al introducir esta funcion para desarrollar la teora termodin
amica: por un lado, toma el
maximo valor compatible con U , V (o la variable extensiva X que corresponda) y N ; por otro, es una funcion
monotonamente creciente con U , y adem
as cumple con la propiedad de aditividad.
4.1.1.

Gas ideal cl
asico

Consideremos como ejemplo el caso del gas ideal, que consiste en un sistema de N moleculas libres no
interactuantes contenidas en un recipiente de volumen V . En particular, supondremos que estas moleculas no
poseen grados de libertad internos, y para un enfoque clasico las consideraremos como partculas distinguibles
de masa m. En cartesianas, el hamiltoniano para este sistema es
N

H(X N ) =

1 X 2
p .
2m i=1 i

El volumen en el espacio de las fases correspondiente a estados con energa menor que E es
Z
(E, V, N ) =
d3 p 1 . . . d3 p N d3 r 1 . . . d3 r N .
H(X N )<E

Teniendo en cuenta que el hamiltoniano no depende de r, la integraci


on sobre cada coordenada espacial es
simplemente el volumen V , por lo que resulta
(E, V, N ) = V N 3N (R) ,
donde denotamos n (R) al volumen de una esfera n-dimensional de radio R =
proporcional a Rn ,
n (R) = bn Rn ,

2mE. Este volumen debe ser

de manera que nuestro problema ahora se reduce a encontrar una expresi


on para bn . Con ese objeto, pensemos
que si Sn (R) = dn (R)/ dR es el
area de la superficie de la esfera n-dimensional de radio R, podemos recurrir
a la identidad
Z
Z
Z

para escribir

dx1
Z

dR Sn (R) eR ,

dx ex

dxn e(x1 ++xn ) =

n

= n bn

dR Rn1 eR .
0

Sustituyendo R en la u
ltima integral, obtenemos la definicion de la funci
on , con lo cual
n/2 =

n bn  n 

2
2

bn =

n/2
n
.

+1
2

Utilizando la aproximacion de Stirling para la funcion , se obtiene en nuestro caso


ln(b3N )

3N
3N
3N
3N
ln
ln
+
2
2
2
2

(N ) ,

4.1

Sistemas cerrados y aislados

de manera que

19

" 
3/2 #
4m E
3
.
S(E, V, N ) = N k + N k ln V
2
3 h2 N

De esta relaci
on fundamental pueden derivarse las conocidas ecuaciones de estado
T =

2 U
;
3 Nk

P =

N kT
.
V

Tambien puede hallarse para el calor especfico (por partcula) la relaci


on cv =

3
2

k.

Paradoja de Gibbs
Podemos escribir la entropa en notaci
on mas compacta como


S = N so + N k ln V u3/2 ,

donde

so =



3
4m
,
k 1 + ln
2
3h2

u=

3
kT .
2

Esta expresi
on es muy similar a la que habamos obtenido al desarrollar la teora termodin
amica. Analicemos el
caso en que un recipiente contiene dos gases diferentes a temperatura T separados por una pared diatermica, de
modo que en un compartimiento hay N1 moleculas en un volumen V1 , mientras que en el otro hay N2 moleculas
en un volumen V2 (V1 + V2 = V ). Al remover la pared divisoria, como U no cambea, T tampoco cambea, de
modo que al mezclar habra un aumento de entropa dado por
V
V
S
= N1 ln
+ N2 ln
>0.
k
V1
V2
Cuando los gases son diferentes, esta expresi
on aparentemente provee una adecuada predicci
on. Sin embargo,
si los gases son identicos, aun cuando el sistema sea homogeneo antes de remover la pared divisoria (V1 /N1 =
V2 /N2 = V /N ), esta expresi
on se
nala que habra un aumento en la entropa del sistema. Por supuesto, este
resultado es absurdo, y para resolver este problema Gibbs introdujo una modificaci
on en la constante C N para
el caso de partculas indistinguibles, agreg
andole un factor N !, es decir C N = h3N N ! De este modo, utilizando
la aproximacion de Stirling la expresi
on para la entropa resulta

S=

3
Nk
2

4m
5
+ ln
3
3h2

+ N k ln

V 3/2
u
N

Esta expresi
on se conoce como ecuaci
on de Sackur-Tetrode, y ahora es completamente coincidente con la que
habamos obtenido en Termo I (en particular, a diferencia de la expresi
on anterior, esta entropa s es extensiva). La predicci
on del aumento de entropa se mantiene, excepto para el caso en que el sistema conjunto
este originalmente en equilibrio termodin
amico, con igual temperatura y presi
on a ambos lados de la pared
divisoria.
No hay una respuesta convincente acerca de por que corresponde dividir por N !, al menos dentro del
formalismo cl
asico. Quiz
as la motivaci
on original surgio de pensar que si las partculas son indistinguibles,
existen N ! permutaciones que proveen el mismo estado, aunque est
a claro que dentro de la teora clasica todas
las partculas son distinguibles. La verdadera respuesta es en realidad provista por la cu
antica, en el marco
de la llamada segunda cuantizaci
on: como veremos mas adelante, para describir N partculas identicas, las
funciones de onda conjuntas deben ser simetricas o antisimetricas ante permutaciones de partculas, y cuando
las condiciones indican que la descripcion debe coincidir con el enfoque clasico, se ve que entonces ambas
formulaciones concuerdan gracias a este denominador N !.
4.1.2.

Dos ejemplos de sistemas cu


anticos

El problema central en el caso cu


antico tambien es contar los estados de nuestro sistema compatibles con el
valor de energa E preestablecido.

20

ENSAMBLE CANONICO

Veremos en primer lugar el caso de N espines 1/2 no interactuantes en un s


olido bajo la accion de un campo
externo B. Las energas posibles para cada espn son B/2, de modo que las energas totales para todo el
sistema seran N B/2, (N/2 + 1)B, . . . , +N B/2. Denotando el valor de la energa como
EM =



N
+ M B
2

(0 M N ) ,

debemos entonces evaluar el n


umero de formas W (M ) en que pueden combinarse M espines alineados con
el campo con N M desali
nados. Se deja como ejercicio resolver este problema combinatorio, v
alido para
cualquier sistema en el que sus componentes pueden acceder s
olo a 2 estados cuyas energas suelen denotarse
como 0 y . Este problema es conocido como sistema de dos niveles (por razones desconocidas), y puede verse
que para temperaturas extremas se anulan los valores asintoticos para el calor especfico por distintos motivos.
En el lmite de bajas temperaturas, la misma definicion de calor especfico U = N c T nos hace ver que la
cu
antica prohibe a nuestro sistema absorber cantidades infinitesimales de energa (calor) puesto que existe un
umbral discreto entre el nivel fundamental y el primer nivel excitado para nuestro sistema4 . Para temperaturas
altas, como los niveles de energa son acotados, una vez que el sistema absorbio el maximo de energa posible,
no importa si el ba
no termico que lo circunda aumenta su temperatura, pues ya no puede seguir incrementando
su energa U .
El segundo ejemplo que abordaremos aqu consiste en el modelo de Einstein para el s
olido cristalino. La
descripcion termodin
amica que se busca para el sistema solo tiene en cuenta las oscilaciones colectivas del
s
olido (ignorando la contribuci
on de los electrones, efectos de superficie, etc.). Esto significa considerar s
olo
las interacciones arm
onicas entre los N n
ucleos del s
olido descripto, que se representan mediante un sistema
de 3N osciladores acoplados. Sabemos que esto significa que habr
a 3N modos normales de oscilacion, y la
simplificaci
on de este modelo es que todos los osciladores poseen la misma frecuencia o 5 .
El j-esimo oscilador puede tomar valores de energa Ej = (nj + 1/2) h
o con nj = 0, 1, . . . La energa total
del sistema sera entonces

EM =

3N
M+
2

ho ,

con

M=

3N
X

nj .

j=1

La pregunta entonces, dentro del esquema microcan


onico es de cu
antas maneras W (M ) se puede lograr el
valor de energa EM ? En otras palabras, de cu
antas maneras pueden sumarse 3N n
umeros enteros mayores o
iguales que 0 para obtener el valor M (fijo)? Otra vez la respuesta se logra mediante un analisis combinatorio
que se deja como ejercicio. Tambien en este caso se verifica que el calor especfico se anula para T = 0, tal
como lo predice la cu
antica. Para el lmite de altas temperaturas puede verse que el calor especfico se vuelve
constante, tal como debemos esperar de acuerdo con el teorema de equipartici
on de la energa que veremos en
el proximo captulo.

5.

Ensamble can
onico

5.1.

(Basado en el texto de Reichl)

Sistemas cerrados

Los sistemas que pueden intercambiar calor con un ba


no termico sin permitir el ingreso o egreso de partculas
se describen mediante el ensamble can
onico. Para construir este ensamble consideramos microestados con cualquier valor para la energa, aun cuando sabemos que macrosc
opicamente el valor medio hEi es una magnitud
muy precisa y debe coincidir con la energa interna U .
4 Para

energas mayores tambi


en el cambio en U es discreto, pero es v
alido tomar como diferenciales los saltos U U .
hip
otesis se basa en el hecho de que son muchos m
as los modos que poseen frecuencia m
as alta frente a los de frecuencias
bajas, y o representa una especie de promedio pesado de todas las frecuencias.
5 Esta

5.1

Sistemas cerrados

5.1.1.

21

Descripci
on cl
asica

Cuando el sistema analizado se describe adecuadamente mediante un enfoque clasico, debemos maximizar
la expresi
on
Z
S = k
dX N (X N ) ln[C N (X N )] ,

agregando a la condici
on de normalizaci
on

dX N (X N ) = 1

la restriccion para el valor medio de la energa


Z
dX N H(X N ) (X N ) = U .

Nuevamente utilizamos el metodo variacional acompa


nando estos dos vnculos con multiplicadores de Lagrange
o y E respectivamente. Exigimos entonces que las variaciones virtuales alrededor del maximo correspondan
a un extremo
Z
h
i

=0.
dX N o (X N ) + E H(X N ) (X N ) k (X N ) ln[C N (X N )]

Como las variaciones (X N ) deben ser arbitrarias, esta condici


on se traduce como
o + E H(X N ) k ln[C N (X N )] k = 0 ,
de modo que

(12)

1
1 + kE H(X N )
e k
.
N
C
En esta expresi
on a
un desconocemos cu
anto deben valer los multiplicadores o y E . Para determinarlos es
necesario recurrir a las condiciones de vnculo. En primer lugar, la condici
on de normalizaci
on nos conduce a
definir la funcion particion
Z
E

N
1
1 ko
ZN (E , V ) e
= N
dX N e k H(X ) .
C

(X N ) =

Vemos que esta expresi


on relaciona los dos multiplicadores desconocidos, y para determinar el valor de E ,
multiplicamos la expresi
on (12) por (X N ) y luego integramos en , obteniendo
(o k) + E U + S = k ln ZN + E U + S = 0 .
Esta relaci
on entre U y S evoca la definicion que aceptamos para el potencial de Helmholtz F U + T S = 0,
lo que sugiere identificar
E =

1
T

F (T, V, N ) = kT ln ZN (T, V ) .

De esta manera, introduciendo el par


ametro 1/(kT ), la funcion particion toma la forma
ZN (T, X) =

1
CN

dX N e H(X

donde hemos reemplazado V por X para incluir el caso general de variable extensiva asociada con el trabajo
mec
anico. El ensamble can
onico queda completamente determinado por la expresi
on anterior y la distribuci
on
de probabilidades, que finalmente toma la forma

(X N ) =

N
1
e H(X )
C N ZN (T, X)

22

ENSAMBLE CANONICO

La ecuacion F (T, X, N ) = kT ln ZN (T, X) provee toda la informacion termodin


amica que posee nuestro
sistema, pues se trata de la ecuaci
on fundamental en la representaci
on de Helmholtz. Esto significa que el
objetivo de nuestra descripci
on de un sistema en el ensamble can
onico se reduce a encontrar la funcion particion,
ya que de all se establece toda la conexion con la teora termodin
amica.
Es interesante destacar el comportamiento del sistema para temperaturas extremas, seg
un la descripcion
dada por la expresi
on anterior. Por un lado, cuando T 0, es decir , 0 para cualquier estado
excepto el fundamental. Por otro lado, cuando T ( 0), se hace constante, de modo que todos los
estados microsc
opicos del sistema son igualmente probables: habra estados con identica energa, pero ning
un
estado se puebla con preferencia cuando la temperatura se vuelve lo suficientemente alta.
Respecto de la expresi
on que hemos dado para la particion, tambien vale la pena enfatizar que deben agotarse
todos los estados accesibles para el sistema, y no s
olo recorrer los niveles de energa. En otras palabras, tambien
aqu puede ocurrir que muchos estados compartan la misma energa, por lo que en la integral involucrada en
ZN se repetiran muchas contribuciones identicas. Suele escribirse la funcion particion como
Z
1
dE g(E) eE ,
ZN (T, X) = N
C

donde g(E) es la densidad de estados en el espacio de las fases con energa E, a menudo llamada degeneracion:
g(E) dE da la probabilidad de que un estado elegido al azar en tenga energa entre E y E + dE. Con esta
notacion, la densidad de probabilidad se escribe analogamente como
(E) =

1
g(E) eE .
C N ZN (T, X)

Equipartici
on de la energa
En esta seccion analizaremos una propiedad importante de sistemas clasicos para los cuales el hamiltoniano es
cuadr
atico en cada variable del espacio de las fases. Denotando como x1 , . . . , xn a las componentes de (q N , pN )
que intervienen en el hamiltoniano (pueden ser s
olo algunas de ellas), podemos expresar
H(X N ) =

n
X
1
j=1

j x2j .

Los valores de las constantes j dependen de la situacion particular de que se trate: si xj representa un momento
lineal, entonces j corresponde a la recproca de la masa involucrada, 1/m; si xj designa una coordenada
generalizada, entonces j es la constante elastica asociada a la fuerza generalizada de restitucion.
El teorema de equipartici
on de la energa puede enunciarse de la siguiente manera:

Cada grado de libertad xj contribuye a la energa interna con

1
kT , sin importar cu
anto vale j .
2

En otras palabras, U = nkT /2, es decir la energa est


a igualmente distribuida en cada grado de libertad, y
es proporcional a la temperatura. La demostraci
on del teorema es muy sencilla, ya que la funcion particion se
escribe como
s
Z
n
Y

1
2
N 2 j x2j
dX e
.
ZN = N
= B(N, X)
C
j

j=1
La funcion B(N, X) resulta de integrar aquellas q y p que no intervienen en el hamiltoniano, y esencialmente
aqu nos interesa que no depende de la temperatura. Dejando como ejercicio verificar que U = (ln ZN )/,
puede utilizarse esta relaci
on para ver que

n
X p n
U=
ln = kT ,
j=1
2

5.1

Sistemas cerrados

23

que es lo que se deseaba demostrar. A menudo el teorema de equipartici


on se verifica al analizar los calores
especficos, que satisfacen la relaci
on


nk
U
=
.
N cX =
T X,N
2
Para analizar algunos ejemplos sencillos, recurrimos primero al caso del gas ideal, cuyo hamiltoniano involucra
los 3N impulsos lineales. Se deja como ejercicio ver que la funcion particion resulta
ZN (T, V ) =

VN
(2mkT )3N/2 ,
CN

con lo cual

3
3
N kT
;
cV = k .
2
2
Este resultado coincide con el previsto por el teorema de equipartici
on de la energa, ya que en este caso los
grados de libertad xj del enunciado anterior son los 3N impulsos lineales.
En el caso de moleculas diat
omicas clasicas, a los grados de libertad traslacionales deben agregarse las rotaciones, que a temperatura ambiente est
an presentes y pueden ser descriptas clasicamente. El hamiltoniano clasico
agrega dos terminos cuadr
aticos a cada molecula, que involucran los impulsos generalizados correspondientes a
las dos coordenadas angulares que determinan la orientaci
on de la molecula. La energa interna agrega la contribucion de estos 2N terminos, de modo que U = 5N kT /2. Cuando adem
as se activan los modos vibracionales,
en el hamiltoniano se agregan dos terminos cuadr
aticos por molecula, pues las oscilaciones pueden separarse del
movimiento del centro de masa mediante la coordenada relativa y el impulso generalizado correspondiente. De
este modo, la energa interna resulta en este caso igual a 7N kT /2.
U=

5.1.2.

Descripci
on cu
antica

Para desarrollar la mec


anica estadstica desde un enfoque cu
antico, el procedimiento es similar al del caso
clasico. En este caso debe maximizarse la entropa
S = k Tr (b
ln b)

recurriendo a las expresiones adecuadas para los vnculos


Tr b = 1

b N b) = U .
Tr (H

Se deja como ejercicio verificar que si acompa


namos los vnculos con los mismos multiplicadores de Lagrange
que en la seccion anterior, la condici
on de maximo implica
n h
io
b N k ln b = 0 .
Tr b (o k)Ib + E H

Tambien en este caso esta igualdad debe cumplirse para cualquier variacion b, de modo que arribamos a las
siguientes expresiones analogas a las del caso clasico:


b
;
F (T, X, N ) = kT ln ZN (T, X) .
ZN (T, X) = Tr e HN
La soluci
on para el operador densidad resulta

b =

e HN
.

Tr e Hb N

En caso de tener una representaci


on diagonal, el elemento r-esimo de b se escribe
r =

eEr
ZN

y representa la probabilidad de que el sistema se encuentre en el estado r.6


6 Insistimos

con el hecho de que puede haber muchos estados diferentes con la misma energa.

24

5.2.

ENSAMBLE CANONICO

Fluctuaciones de la energa

Ahora que hemos desarrollado el formalismo correspondiente al ensamble can


onico vale la pena preguntarnos
en que cambiar
a la descripci
on termodin
amica provista desde este formalismo en relaci
on a la dada en el ensamble
microcan
onico. Para ello es u
til analizar cu
anto puede fluctuar la energa de nuestro sistema vista en el ensamble
can
onico.
A partir de la expresi
on
n
o
b
Tr e [F (T,X,N )HN ] = 1

derivamos con respecto a y obtenemos


#
)
("

F
b
b N e(F HN ) = 0 .
H
Tr
X,N

Derivando nuevamente, llegamos a la relaci


on

!2



 2 F 
F
bN
e(F Hb N ) = 0 .

H
+
Tr

2 X,N
X,N

Recordando que (F )/ = hEi, vemos que las fluctuaciones de la energa se rigen seg
un
 2



F
U
hE 2 i hEi2 =
= kT 2 N cx .
=
2

X,N
X,N
Como hEi = U es extensiva y por ende proporcional a N , en el lmite termodin
amico
p
hE 2 i hEi2
1
0.
hEi
N
Esto significa que las fluctuaciones relativas de la energa son muy peque
nas cuando N , lo que implica que
los u
nicos estados del sistema con probabilidad no nula son aquellos con E
= U . Esto nos permite concluir que
el ensamble can
onico es equivalente al microcan
onico, y la elecci
on de uno u otro ensamble quedara supeditada
a la conveniencia de la descripci
on en el formalismo escogido.
Fsicamente podamos prever esta equivalencia, ya que es equivalente pensar que prefijamos los valores de
U , X y N (ensamble microcan
onico) y procuramos el valor de T a traves de una ecuacion de estado (por
ej., en la representaci
on entropa), o imaginar que conocemos T , X y N (ensamble can
onico) y de la relaci
on
fundamental obtenemos el valor de U en el equilibrio. La situacion termodin
amica no cambia en absoluto,
aunque los microestados permitidos para el sistema ahora pueden abarcar diferentes energas.

5.3.
5.3.1.

S
olido cristalino
Descripci
on cl
asica

Hemos visto que la expresi


on cl
asica para la funcion particion
Z
N
1
dX N e H(X )
ZN (T, X) = N
C

provee una correcta conexion con la termodin


amica en el caso de un gas ideal, verificandose adem
as el teorema
de equipartici
on de la energa. Para analizar el caso de las oscilaciones colectivas de una red cristalina, debemos
recordar que los 3N osciladores acoplados pueden describirse mediante coordenadas normales como un sistema
de 3N osciladores arm
onicos desacoplados (modos normales)
H(X N ) =


3N 
X
1 2 mi2 2
pi +
xi .
2m
2
i=1

La integraci
on de la funcion particion es directa, teniendo en cuenta que todas las coordenadas e impulsos xi
y pi son independientes:


#

" Z
Z
P
mi2 2
mi2 2
3N
1
1
2
2
Y
p
+
x
p
+
x

1
1
i
i
2m i
2
2m i
2
=
dpi dxi e
.
dx3N dp3N e
ZN (T, V ) = 3N
h
h
i=1

5.3

Solido cristalino

25

El hecho de que los osciladores sean independientes se traduce en la factorizacion de la funcion particion como
producto de las particiones individuales zi correspondientes a cada oscilador. Esta factorizacion podra realizarse en todo sistema que pueda separarse en componentes no interactuantes. En nuestro caso particular las
particiones individuales se calculan mediante la expresi
on
zi =

1
h

p2

dp e 2m

+L/2

dx e

mi2 2
2 x

L/2

Como la exponencial decae r


apidamente para posiciones alejadas del equilibrio, podemos realizar la segunda
integraci
on entre y +, de manera que
s
2
1
2kT
=
kT .
zi =
2mkT
h
mi2
hi
Entonces, independientemente de los valores que puedan tomar los i , la descripcion clasica del s
olido cristalino
predice que
U = 3N kT
y
cv = 3k .
Estos resultados podran haberse predicho mediante el teorema de equipartici
on de la energa.
Vemos que esta descripci
on no reproduce satisfactoriamente el comportamiento para bajas temperaturas,
pues el calor especfico de un s
olido debe anularse a medida que se reduce su temperatura, tal como se deduce
a partir de consideraciones cu
anticas. A temperaturas
altas los estados mas energeticos del oscilador cu
antico
se pueblan cada vez mas, de manera que la correspondiente distribuci
on de presencia se hace cada vez mas
parecida a la predicha por la clasica.
Para aclarar un poco esta idea recordemos que
mientras la probabilidad de encontrar a la partcula
clasica que oscila es proporcional a la inversa de la velocidad v(x)
Pclas (x)

|1 |2
|0 |2

1
1
=p
,
2
v(x)
xo x2

donde xo es el punto de retorno clasico, la correspondiente probabilidad cu


antica es el modulo de la funcion
de onda al cuadrado |n (x)2 | . Para los primeros estados cu
anticos, esta probabilidad se parece muy poco
a la del oscilador cl
asico, tal como se muestra en la
figura (aqu se ha normalizado el rango de coordenadas espaciales para que coincidan los puntos de retorno
clasico.)
Para estados con n mayor, la distribuci
on |n (x)|2
se parece cada vez mas a Pclas (x), por lo cual ambas
descripciones pueden resultar adecuadas a temperaturas altas, pero no a bajas temperaturas donde se privilegian los estados de menor energa.

5.3.2.

Pcl
as

13 j

Modelo de Einstein

La descripci
on cu
antica retoma la idea de 3N osciladores desacoplados (distinguibles), para los cuales los
b i resultan Ei = (ni + 1/2) h
autovalores de los hamiltonianos H
i , o bien, en terminos del operador n
umero,


1
b
hi .
Hi = n
bi +
2

26

ENSAMBLE CANONICO

bi, n
(Podemos pensar que el operador n
umero se define a partir de esta relaci
on, y se satisface que [H
bi ] = 0 y
n
bi |ni i = ni |ni i).
Dijimos que el modelo de Einstein consiste en hacer i = ( i), de manera que obtenemos
h
i
P
ZN = Tr eh (bni +1/2) .

Como las funciones de onda conjuntas que describen a los 3N osciladores independientes son simplemente
productos tensoriales
|n1 , n2 , . . . , n3N i = |n1 i |n2 i |n3N i ,

la expresi
on para la particion se eval
ua facilmente en esta base, utilizando el hecho de que las funciones de onda
individuales son ortonormales (hn|mi = n,m ):
#
"
3N

Y
X
X
X
P


h ni

h/2

h
(ni +1/2)
,
e
e
e
=

ZN =
n1 =0

n3N =0

ni =0

i=1

es decir
ZN (T, V ) =

eh/2
1 eh

3N

(13)

Podemos entonces expresar la energa libre de Helmholtz como


F (T, V, N ) =


3
N h + 3N kT ln 1 eh .
2

El primer termino representa la energa libre a T = 0, y no es cero, tal como lo predice el principio de incertidumbre de Heisenberg. Se sugiere como ejercicio verificar que esta expresi
on satisface la tercera ley de la
termodin
amica (S 0 para T 0).
Podemos evaluar la energa interna a partir de la expresi
on anterior:


3
3N h
F
= N h + h
.
U=
V,N
2
e
1

El ingenuoso lector no dudar


a en verificar facilmente que esta expresi
on reproduce los resultados clasicos para
temperaturas elevadas; para T = 0, la energa interna nuevamente est
a dada por el primer termino.
Tambien puede obtenerse el calor especfico por n
ucleo


3(
h)2
eh
1 U
=
.
cv =
N T V,N
kT 2 (eh 1)2
En el regimen de bajas temperaturas, es decir, pensando , el comportamiento asint
otico est
a dado por
cv 3k(
h)2

2
eh

( 0) ;

para temperaturas altas ( 0), al tomar el lmite surgen un par de indeterminaciones que se resuelven
mediante la regla de LH
opital, y puede verificarse (t
u puedes hacerlo!) que se obtiene el comportamiento
clasico cv = 3k. Por supuesto, los comportamientos para temperaturas altas podan predecirse recurriendo al
teorema de equipartici
on de la energa.
5.3.3.

Modelo de Debye

Aunque cualitativamente la descripcion dada por el modelo de Einstein es correcta, de acuerdo con los
resultados experimentales cv no debera decaer exponencialmente cuando T 0. Este inconveniente se resuelve
evitando la simplificaci
on de que todas las frecuencias correspondientes a los modos normales son identicas:
b =
H



1
.
bi +
hi n
2
i=1

3N
X

La idea de Debye fue suponer que los osciladores conforman una red de dimensiones caractersticas Lx , Ly , Lz ,
de modo que las longitudes de onda permitidas en estas oscilaciones seran 2Lx /mx , 2Ly /my , 2Lz /mz , con

5.3

Solido cristalino

27

m = 1, 2, . . . Admitiendo que entre las frecuencias y los vectores de onda k = 2/ la relaci


on de dispersion
unidimensional es = ck, donde c es la velocidad del sonido en el medio, en tres dimensiones tendremos
"
2 
2 
2 #
myj
mzj
mxj
2
2
+
+
j = c
Lx
Ly
Lz
(las componentes del vector j son las i que tenamos en la expresi
on anterior). Dado que el lmite termodin
amico implica L , estas j pueden tomarse como variables continuas. En el espacio , la distancia
seg
un cada coordenada es c/L , de modo que el volumen correspondiente a cada modo sera (c)3 /V . Si
D es la frecuencia maxima posible, el volumen del octavo de esfera de radio D ( > 0) dividido el volumen
correspondiente a un estado es igual al n
umero de modos normales posibles


1 4 3
D
18N 2 3
8 3
3
c .
=
3N

=
D
V
(c)3
V
En realidad, hay en general 3 modos normales posibles con cada : uno longitudinal y dos transversales, con
diferentes velocidades de propagaci
on, c y ct . La igualdad anterior debe escribirse entonces




1
2
4 3
1
1
18N 2 2
V
3

+ 3 = 3N
+ 3

D =
.
8 3 3 D
c3t
c
V
c3t
c
La frecuencia D se denomina frecuencia de Debye.
Volviendo a la funcion particion, la expresi
on que reemplaza a la ecuaci
on (13) es
#
"


3N
3N

Y
Y
X

ehi /2

hi ni

hi /2
=
.
e
e
ZN (T, V ) =
1 ehi
n =0
i=1
i=1
i

De este modo tendremos


F (T, V, N ) =

3N
X
hi
i=1

+ kT

3N
X
i=1

ln 1 ehi

Haciendo el reemplazo de sumatorias por integrales



Z
Z
X
1
2
9N
1
V
2
4 d = 3
2 d ,
3
3 + c3

c
8

t
D

i
obtenemos la expresi
on
9N
h
F (T, V, N ) =
3
2D

D
0

9N kT
d +
3
D
3

D
0


d 2 ln 1 eh .

El primer termino se integra directamente, y para la energa interna puede escribirse




Z
F
9
9N D
3
h
U=
= Nh
D + 3
.
d h
V,N
8
D 0
e
1

Sustituyendo x = h
/kT podemos escribir la expresi
on anterior en terminos de la temperatura de Debye
hD /k
Z
x3
9
9N (kT )4 /T
dx x
U = N hD + 3
.
3
8
D h
e 1
0
La expresi
on para el calor especfico resulta entonces
Z
x 4 ex
9 k 4 T 3 /T
dx x
.
cv = 3
3
D h
(e 1)2
0
Nuevamente, la predicci
on para altas temperaturas coincide con la clasica, pero la diferencia fundamental con
el modelo de Einstein se da para bajas temperaturas, pues en ese caso
cv

12 k 4 3
T ,
5 3

describiendo adecuadamente el comportamiento de las determinaciones experimentales.

28

5.4.

ENSAMBLE CANONICO

Revisi
on de los postulados de la termodin
amica

Antes de abordar otros temas, repasemos los postulados que habamos introducido en el desarrollo de la
teora termodin
amica.
Postulado 1. Existen estados de equilibrio caracterizados por la energa U , el volumen V (o la variable
extensiva X asociada con el trabajo externo), y los n
umeros de moles {nj } de los componentes qumicos del
sistema.
Hemos basado nuestro desarrollo aceptando este postulado, con la u
nica salvedad de caracterizar la cantidad de materia por los n
umeros de partculas {Nj } en lugar de los n
umeros de moles de cada componente,
sabiendo que ambas representaciones son equivalentes. En realidad las dudas pueden haber surgido a partir de
la aceptaci
on de la entropa de informacion como la entropa termodin
amica. Los postulados restantes son los
que en realidad nos interesan en este sentido.
Postulado 2. Existe la funcion entropa S, funcion de U, X y {Nj }, que toma el maximo valor posible en el
equilibrio.
En nuestro caso utilizamos la entropa de informacion, que toma el maximo valor admitido seg
un los vnculos
macrosc
opicos que se imponen, de manera que nuestro desarrollo es perfectamente compatible con este postulado.
Postulado 3.

La entropa de un sistema compuesto es aditiva, continua, derivable y creciente con U .

En lo referente a la aditividad, hemos hecho el analisis correspondiente al presentar el ensamble microcan


onico, y al relacionar la temperatura absoluta con la derivada de S respecto de U , convinimos que la entropa es
creciente con U .
Postulado 4. La entropa se anula a medida que T se aproxima al cero absoluto.
La verificacion de este postulado en nuestra formulacion puede realizarse tanto en el ensamble microcan
onico
como en el can
onico, pues la expresi
on para la entropa en este u
ltimo caso involucra s
olo al estado fundamental,
ya que a T = 0 s
olo se puebla este estado. La entropa
S = k ln W

involucra la degeneracion del estado fundamental. Esta


puede valer 1 en el caso en que no este degenerado
hasta alg
un valor que a lo sumo sera W N , de manera que la entropa por partcula se anula en el lmite
termodin
amico:
S
0
para
N .
N
El postulado de Nernst entonces tambien se satisface por la entropa que estamos aceptando como entropa
termodin
amica.

5.5.

Mol
eculas diat
omicas: el caso del hidr
ogeno (Basado en el texto de Balian)

El analisis de las moleculas diat


omicas resulta de especial interes porque permite analizar un gran n
umero
de situaciones diferentes. Para ello, consideramos las moleculas de un gas diat
omico como rotadores rgidos,
conformados por dos
atomos puntuales mantenidos a distancia fija. A temperatura ambiente, los grados de
libertad electronicos y de vibracion no est
an excitados, de manera que esta aproximacion resulta muy adecuada.
Los grados de libertad traslacionales se corresponden con los de una partcula cu
antica en una caja (tridimensional) de lado a, de modo que los niveles de energa estaran dados por [h2 /(8ma2 )](k 2 + 2 + m2 )
(k, , m ZZ 0). Para una masa at
omica del orden de 1023 g y una caja de lado a = 1 cm, la energa termica
relacionada con el salto entre dos niveles consecutivos de energa corresponde a una temperatura de 1014 K,
de modo que a temperatura ambiente, la contribucion de los modos traslacionales a la energa interna puede
calcularse mediante un enfoque cl
asico.
Nos concentramos entonces en la energa cinetica de rotacion, cuya expresi
on clasica, en terminos del momento de inercia I es
p2
p2
+
.
2I
2 I sen2

5.5

Moleculas diat
omicas: hidrogeno

29

Para masas m1 y m2 , si ro es la distancia entre ambas, resulta


I=

m1 m2 2
r .
m1 + m 2 o

Sabemos que los niveles de energa para un rotador cu


antico se traducen directamente como
j =

2
h
j(j + 1) ,
2I

con degeneracion gj = 2j + 1. Definiendo la temperatura rotacional h


2 /(2Ik), la funcion particion por
molecula estara dada por

X
(2j + 1) ej(j+1) /T .
Z1 =
j=0

Para el caso T , podemos hacer la sustitucion x = j(j + 1)/T , de manera que esta sea una variable
continua en este rango de temperaturas. De esta manera, resulta
Z
T
T
dx ex =
.
Z1
0

Si en cambio T , tenemos
Z1 1 + 3 e2/T + 5 e6/T + . . .
As, para la energa media por molecula = (ln Z1 )/ encontramos:

T :

T :

= kT



= k 6 e2/T 18 e4/T + . . .

De este modo, los calores especficos resultan

T :

cv = k

T :

cv = k

2

12 e2/T 72 e4/T + . . .

Para el caso de la molecula de hidrogeno, los valores


predichos para cv sobreestiman demasiado los valores
cv
experimentales. Esta discrepancia no se debe al hecho
equilibrio
de haber despreciado las energas de vibracion y esta7/2
dos electronicos excitados, no s
olo porque la diferencia
para
se notara s
olo a T muy altas, sino porque adem
as en
ese caso la predicci
on debera ir por debajo de las me5/2
diciones (pues faltara agregar alguna contribucion a
cv ).
En cambio, lo que no se ha tenido en cuenta es el
experimental
3/2
espn 1/2 de los n
ucleos de hidrogeno, ni tampoco el
hecho de que el espn total de las moleculas puede
ser 0 (n
ucleos antiparalelos) o 1 (paralelos). El paraln(T )
estado ( = 0) tiene degeneracion 2 + 1 = 1, mientras
que el orto-estado ( = 1) tiene degeneracion 3.
Si los atomos son distintos, en muy buena aproximacion, la degeneracion de cada estado no influye en el
valor de la energa, porque esta sera casi independiente de . En ese caso, la funcion particion debe multiplicarse
por un factor constante (2s1 + 1)(2s2 + 1) (=4 en nuestro caso).
Sin embargo, cuando los
atomos son identicos, debe tenerse en cuenta la indistinguibilidad de las partculas.
El postulado de simetrizacion exige que la funcion de onda conjunta de la molecula debe ser antisimetrica al
intercambiar los
atomos. Las partes correspondientes a vibracion y a estados electronicos son simetricas en el
estado base (no est
an excitadas). En el para-estado, la funcion de onda de espn es antisimetrica, mientras
que en el orto-estado es simetrica. La funcion de onda rotacional es simetrica o antisimetrica seg
un el n
umero
cu
antico j sea par o impar 7 . O sea que tendremos:
7 Recordemos

que ante inversiones, los arm


onicos esf
ericos se transforman seg
un Yjm ( , + ) = (1)j Yjm (, ).

30

5
para-hidrogeno ( = 0):
orto-hidr
ogeno ( = 1):

j = 0, 2, 4, . . .
j = 1, 3, 5, . . .

ENSAMBLE CANONICO

degeneracion 1;
degeneracion 3.

As, la funcion particion debe calcularse teniendo en cuenta que debe sumarse sobre todos los estados posibles:
Z1 = Zpara + 3 Zorto ,
donde Zpara abarca los j pares y Zorto , los j impares. Teniendo en cuenta todos estos aspectos, la predicci
on
para cv sigue estando para el para. La soluci
on definitiva se basa en analizar la raz
on de moleculas en ambos
estados
X
(2j + 1)ej(j+1)/T
3
Norto
j impar
X
r=
=
.
Npara
1
(2j + 1)ej(j+1)/T
j par

Seg
un esta expresi
on, cuando T 0, r 0, y cuando T , r = 3 (para calcularla, es v
alido el reemplazo
de la sumatoria por una integral tanto en el numerador como en el denominador). A temperatura ambiente,
r = 3 pues T 1014 K. Al reducir la temperatura, r debera bajar, pero no es esto lo que sucede: la
transicion entre los estados orto y para involucra la inversion de espines, que tiene una probabilidad sumamente
baja de ocurrir, y puede llevar a
nos alcanzar el equilibrio en este sentido. Esto significa que tpicamente las
determinaciones experimentales se realizan fuera del equilibrio, con r = 3. Entonces puede considerarse al
sistema como una mezcla de gases independientes, de manera que la contribucion al calor especfico se computa
como la suma de los dos gases
cv = cpara
+ corto
.
v
v
Ahora s, las predicciones concuerdan con el experimento.
Hay otras alternativas para verificar que el calculo mediante este metodo es correcto. Una de ellas es medir
el calor especfico de mezclas con diferentes valores para r. Para hacerlo, el gas se prepara pas
andolo por un
catalizador (carbono activado) a diferentes temperaturas, con el objeto de acelerar la transicion orto-para. En
comparacion con los que anhelaramos para nosotros, el exito de las predicciones ha merecido muchos mas
descorches.
Las mismas consideraciones que hemos hecho valen para el deuterio diat
omico D2 . En el caso del HD, por
supuesto, no surgen inconvenientes, ya que los dos atomos son diferentes y las cuentas con que comenzamos
eran v
alidas.

5.6.

Acoplamiento mec
anico con el exterior: sistemas magn
eticos

Consideremos ahora el caso en que el sistema analizado, adem


as de estar en contacto con un ba
no termico,
se encuentra bajo un campo Y constante, la variable intensiva relacionada con el trabajo externo. Tendremos
que agregar ahora un nuevo vnculo al maximizar la entropa de informacion, correspondiente a mantener el
valor medio hXi de la variable extensiva constante.
Los siguientes ejemplos se encuadran dentro de esta situacion:
gas en un recipiente a P constante se impone el vnculo sobre el valor medio hV i del volumen en el
recipiente;
sustancia magnetica (o dielectrica) a induccion externa B (campo electrico E) constante debe considerarse la restricci
on de momento magnetico total M (polarizacion electrica P) constante;
cadena (molecular) a tensi
on constante la magnitud macrosc
opica que debe agregarse como vnculo es
la longitud media hLi.
Para afianzar ideas vamos a abordar el ejemplo concreto de sistemas magneticos bajo induccion externa
B. En el caso de que los n
ucleos interact
uen entre ellos, una descripcion sencilla del hamiltoniano del sistema
acoplado con el campo externo corresponde al denominado modelo de Ising, cuyos autovalores son
X
X
H =
Jij i j B B
j ,
ij

donde las magnitudes i corresponden a los autovalores del operador espn Sz seg
un la direccion del campo B, y
B es el momento magnetico correspondiente a cada n
ucleo en la discusi
on que sigue veremos la importancia

31
de se
nalar este hamiltoniano como H en lugar de H. El calculo de la funcion particion nos lleva, como siempre,
a recorrer todos los estados accesibles para el sistema
X

Z=
eH ,
y la energa libre de Gibbs queda determinada por

G = kT ln Z .
Por que el potencial termodin
amico que debe asociarse es el de Gibbs y no el de Helmholtz? Al maximizar
la
P
entropa, adem
as de la condici
on de normalizaci
on y de fijar U = hHi, agregamos el vnculo M = B hi i =
N B hi i. Dejando los detalles como ejercicio, la identificacion que debemos hacer en el proceso variacional, es
kT ln Z = U T S BM ,
que es precisamente la energa libre de Gibbs. Para arribar a este resultado, es necesario distinguir el valor medio
del hamiltoniano del sistema U hHi del valor medio hH i: en H est
a incluido el campo B como constante, de
manera que cualquier configuraci
on {j } no modifica el valor de B, aunque drene o entregue energa magnetica
al enderezar espines. El hecho de que H incluya las fuentes de B significa que
hH i = U BM ,
es decir, est
a asociado con la entalpa magnetica. Entonces, para el hamiltoniano del sistema, lo correcto es
escribir
X
H=
Jij i j ,
ij

teniendo la adecuada asociaci


on hHi = U .

Conviene hacer hincapie en el hecho de que algunos textos presentan esta asociacion de manera equvoca,
refiriendo el potencial termodin
amico como energa libre de Helmholtz; no obstante, se ultilizan siempre las
relaciones




G
G
o
S=
.
M =
B T,N
T B,N

En el caso particular de espines no interactuantes, Jij = 0, de manera que U 0. A diferencia de un gas


ideal, al reducir el campo externo el sistema no guarda para s ninguna energa, mientras que en el caso del gas
ideal, las moleculas conservan la energa mec
anica que absorben como energa cinetica.

6.
6.1.

Ensamble gran can


onico

(Basado en el texto de Reichl)

Sistemas abiertos

En este captulo consideramos sistemas que adem


as de intercambiar calor con un ba
no termico pueden
intercambiar partculas con un reservorio. Estos sistemas est
an descriptos mediante el ensamble gran can
onico,
en el cual debemos considerar microestados que adem
as de acceder a cualquier valor para la energa, pueden
estar conformados por un n
umero de partculas variable.
El procedimiento para maximizar la entropa es similar al de los casos anteriores, y s
olo desarrollaremos
aqu el formalismo cu
antico, dejandose como ejercicio la obtenci
on de la expresi
on adecuada para sistemas que
pueden describirse cl
asicamente. Debemos considerar los vnculos impuestos por la condici
on de normalizaci
on
y el valor medio del hamiltoniano asociado con la energa interna del sistema, a los cuales se suma el n
umero
medio de partculas a traves de la restriccion
b ) = hN i ,
Tr(b
N

b es el operador n
donde N
umero total de partculas. La condici
on de extremo para la entropa de informacion
implica
n h
io
b b + N N
b b k b ln b = 0 ,
Tr o b + E H

32

es decir

ENSAMBLE GRAN CANONICO

n h
io
b + N N
b k ln b = 0 .
Tr b (o k) Ib + E H

Como siempre, esta condici


on debe cumplirse para cualquier variacion b, de manera que debe anularse todo el
corchete de la expresi
on anterior:
b + N N
b k ln b = 0 .
(o k) Ib + E H

(14)

Al igual que en el ensamble can


onico, la condici
on de normalizaci
on puede utilizarse para definir la funcion gran
particion
i
h
Z(E , N ) e1

o
k

= Tr e

E b N b
k H+ k N

Esta expresi
on relaciona los tres multiplicadores de Lagrange que hemos introducido: las otras dos condiciones
de vnculo deben bastar para encontrar los valores de E y N . Para hacerlo multiplicamos la ecuacion (14)
por b y tomamos la traza, obteniendo
k ln Z(E , N ) + E U + N hN i + S = 0 ,

o, lo que es equivalente,
kT ln Z(E , N ) = U T S hN i (T, V, ) ,
si realizamos las identificaciones

y
N =
.
T
T
De este modo, la funcion gran particion puede escribirse como
i
h
b
b
Z (T, V ) Tr e(HN )
E =

y el operador densidad toma la forma

b =

e(HN )
i.
h
b
b)
N
Tr e(H

Como dijimos mas arriba, la conexion con la termodin


amica se da a traves del gran potencial
(T, V, ) = kT ln Z (T, V ) .

6.2.

Fluctuaciones en el ensamble gran can


onico

Analicemos ahora las fluctuaciones en el n


umero de partculas de nuestro sistema en equilibrio termodin
amico. Teniendo presente que



,
hN i =
T,V
a partir de la igualdad

i
h
b
b
Tr b = Tr e(HN ) = 1 ,

derivamos dos veces con respecto a . Obtenemos entonces


 2 


E
D

hN i
2
(N hN i) = kT
.
=
kT
2 T,V
T,V
Como la u
ltima derivada conserva el car
acter extensivo, sera proporcional a hN i, de manera que las fluctuaciones
relativas satisfacen
rD
E
2
(N hN i)
1
.
p
hN i
hN i

Esto significa que en el lmite termodin


amico, las fluctuaciones del n
umero de partculas son excesivamente
peque
nas. Este resultado suele invocarse como equivalencia de ensambles y nos permite elegir con libertad la
descripcion de un sistema en equilibrio a partir del ensamble que resulte mas conveniente.

6.3

Partculas identicas

33

La expresi
on anterior puede explicitarse aun mas considerando la densidad de partculas por unidad de
volumen




hN i
hN i
hN i
n
=
.
=
V
V
V
T,
T,P
Podemos escribir entonces


 




hN i
hN i2
V
hN i
hN i
=
=n
=
T ,
T,V
V
T,hN i
P T,V
V
T,
de manera que

La compresibilidad T
resultado anterior.

6.3.

kT hN i2
T .
V
no diverge excepto en las proximidades de un punto crtico, con lo cual confirmamos el
(N hN i)

Partculas id
enticas (Basado en el texto de Balescu)

En un sistema de N partculas indistinguibles, debe exigirse que la funcion de onda conjunta provea la
misma densidad de probabilidad al intercambiar dos (o mas) partculas cualesquiera k y :
2

|(. . . , xk , . . . , x , . . . )| = |(. . . , x , . . . , xk , . . . )| .
Esto implica que la funcion de onda debe permanecer inalterada o a lo sumo cambiar de signo, condici
on que
suele resumirse mediante la notaci
on
(. . . , xk , . . . , x , . . . ) = (. . . , x , . . . , xk , . . . ) ,
con = +1 para el caso de bosones (partculas con espn entero) y = 1 para fermiones (espn semientero).
Esta condici
on es conocida como postulado de simetrizacion: en el caso de bosones la funcion de onda conjunta
debe ser simetrica ante permutaciones de las partculas, y para fermiones, antisimetrica.
Usualmente comenzamos nuestra descripcion escribiendo en terminos de productos tensoriales de las
funciones de onda individuales
X
X
(15)
c(m1 , . . . , mN ) m1 (x1 ) . . . mN (xN ) .

(x1 , . . . , xN ) =
m1

mN

Aqu los mj pueden ser vectores de n


umeros cu
anticos que representan los posibles estados individuales. Como
el producto tensorial m1 (x1 ) . . . mN (xN ) (o |m1 i |m2 i . . . |mN i en la notacion de Dirac) no satisface de
antemano ninguna simetra, sobre los coeficientes c(m1 , . . . , mN ) debe imponerse la condici
on
c(. . . , mk , . . . , m , . . . ) = c(. . . , m , . . . , mk , . . . ) ,
para satisfacer el postulado de simetrizacion. De aqu se deduce directamente el principio de exclusi
on de Pauli,
pues en el caso de fermiones la u
nica posibilidad para que se cumpla la identidad anterior cuando dos estados
son iguales a m es c(. . . , mk = m, . . . , m = m, . . . ) = 0, con lo cual es imposible que dos fermiones ocupen el
mismo estado.
En este contexto, vemos que lo que importa es cu
antas partculas n se encuentran en el estado m , pues
no podemos distinguir cu
al es cu
al. En otros terminos, las variables naturales para caracterizar un estado son
los n
umeros de ocupacion n . La densidad de probabilidad en terminos de los {n } debe ser equivalente a la
descripcion basada en el conjunto de n
umeros cu
anticos {mj }, es decir
X
|C(n1 , . . . , ni , . . . )|2 =
|c(m1 , . . . , mN )|2 ,
donde la sumatoria de la derecha debe abarcar todos los estados que generan
umeros
Q el mismo conjunto de n
de ocupacion de la izquierda. Como las partculas son indistinguibles, los N !/ i (ni !) sumandos son iguales, de
modo que la condici
on anterior puede escribirse
|C(n1 , . . . , ni , . . . )|2 = Q

N!
|c(m1 , . . . , mN )|2 .
i (ni !)

Esta relaci
on nos permite pasar del formalismo habitual a la representaci
on de los n
umeros de ocupacion. Esta
u
ltima es com
unmente referida como segunda cuantizaci
on.

34

ENSAMBLE GRAN CANONICO

En casi todos los casos de interes los n son infinitos, ya que el n


umero de niveles accesibles a una partcula
tambien lo es. Por supuesto, en cada estado, s
olo algunos n seran distintos de cero, ya que debe satisfacerse la
condici
on
X
n = N .

El formalismo de la segunda cuantizaci


on
La funcion de onda del sistema debe satisfacer la ecuaci
on de Schrodinger
i
h

(x1 , . . . , xN ; t)
b (x1 , . . . , xN ; t) .
=H
t

En el caso en que el hamiltoniano sea separable

N
X

b =
H

utilizando la propiedad

j=1

b , . . . , m i =
hm1 , . . . , mN |H|m
1
N

se obtiene, a partir de (15), la ecuaci


on equivalente

b
h(j) ,

N
X
j=1

hmj |b
h(j) |mj i

N
Y

mr ,mr ,

r=1,r6=j

i
h

c(m1 , . . . , mN ; t) X X
hmj |b
h(j) |mj i c(m1 , . . . , mj , . . . , mN ; t) .
=
t

j=1
mj

Esta identidad nos dice que la evolucion temporal de los coeficientes c(m1 , . . . , mN ; t) est
a determinada por
las probabilidades de transici
on de cada partcula j para pasar del estado mj al estado mj (siempre sumando
sobre todas las transiciones posibles).
Esta misma idea puede darse en terminos de los n
umeros de ocupacion. Pensemos en el caso en que antes de
la transicion hay nmj partculas en el estado mj y nmj en el estado mj , y despues de la transicion hay (nmj 1)
partculas en el estado mj y (nmj + 1) en el estado mj . Resulta natural pensar este proceso asociandolo con
la aniquilacion de una partcula en el estado mj juntamente con la creacion de otra en el estado mj . Los
operadores basicos del formalismo de la segunda cuantizaci
on act
uan precisamente mediante esos procesos:
creacion y aniquilacion.


Si adoptamos una base ortonormal ({nm }) con un producto interno asociado de manera que
 Y
(. . . , nm , . . . ), (. . . , nm , . . . ) =
nm ,nm ,
m

el operador aniquilacion se define mediante la relaci


on
b
am (. . . , nm , . . . ) =

nm (. . . , nm 1, . . . )

y el operador creacion a traves de

b
am
(. . . , nm , . . . ) =

nm + 1 (. . . , nm + 1, . . . ) .

(De este modo, para cada estado m hay un par de operadores b


am , b
am
.)

Si bien la notaci
on puede parecer enrevesada, adan arap se ol on. Se deja como ejercicio verificar que cada

no son
uno de estos operadores es el conjugado hermitiano del otro. Evidentemente, esto significa que b
am y b
am
hermitianos.
Con estos nuevos elementos, resulta natural incorporar el operador
X

b=
hm|b
h(j) |m i b
am
b
am
H
m,m

6.3

Partculas identicas

35

para producir las transiciones que procurabamos. En esta u


ltima expresi
on hemos eliminado los ndices j en
virtud de que las partculas son indistinguibles. Aunque podramos avanzar en esta descripcion, centraremos
nuestra atencion en el operador n
umero para el estado m, cuya definicion natural es

b
am
b
am (. . . , nm , . . . ) = nm (. . . , nm , . . . ) .

Las autofunciones de este operador son estados con n


umeros de ocupacion {nj } bien definidos.
La conservaci
on del n
umero de partculas permite definir el operador n
umero total
X

b,
b
am
b
am = N
m

que, al actuar sobre funciones con {nj } bien definidos nos devuelve el n
umero total de partculas del sistema.
Como

b
am b
am
(. . . , nm , . . . ) = (nm + 1) (. . . , nm , . . . ) ,

no conmutan. Para agilizar la pluma, se deja como ejercicio sencillo verificar que se
es obvio que b
am y b
am
cumplen las siguientes relaciones:
i
h
b
am , b
am = 0
i
h

= 0
b
am
,b
am

h
i

b
am , b
am
= m,m

Un hecho importante de este formalismo es que existe un estado vaco o (0, 0, . . . ). Para este estado
se cumple que b
am o = 0 para cualquier valor de m. La base (. . . , nm , . . . ) puede construirse aplicando

p

o es un estado normalizado con 1 partcula; 1/ 1 + m,m b


sucesivamente b
a a o . Por ejemplo, b
am
am o
am b
es un estado normalizado correspondiente a dos partculas, etc.

Estos estados son automaticamente simetricos ante permutaciones de partculas en estados m y m arbitrarios, y vemos que no hay ninguna restriccion sobre el n
umero de partculas nm que pueden habitar un estado
cualquiera. Esta caracterstica permite construir directamente el caso general para un sistema de bosones:
X
X

= co o +
c(m, m ) b
am
b
am
cm b
am
o +
o + .
m

m,m

Este formalismo se denomina representaci


on de Fock, y la expresi
on anterior es v
alida para cualquier caso en que
el n
umero total de partculas fluct
ue: resulta muy adecuada para la descripcion de fotones y fonones, y tambien
para los estados que nos permiten construir el ensamble gran can
onico. En el caso en que N es constante, la
expresi
on anterior se reduce a
=

X
m1

X
mN

1
pQ

i ni !

c(m1 , . . . , mN ) b
am
b
am
o .
1
N

En esta suma puede haber terminos con mi iguales; los denominadores ni ! provienen del hecho de que al

aplicar ni veces el operador b


am
no se tiene un estado normalizado, como habamos planteado en un comienzo.
i

Para el caso de fermiones deben redefinirse los operadores creacion y aniquilacion de manera que s
olo
permitan que los n
umeros de ocupacion adopten los valores 0 o 1. Si ordenamos los estados individuales de
manera que puedan tomarse m1 < m2 < < mj < , el n
umero de estados ocupados por debajo del nivel
m puede escribirse como
m
X
sm =
nj ,
j=m1

con lo cual los operadores aniquilacion y creacion pueden definirse respectivamente como

bm (. . . , nm , . . . ) = (1)sm nm (. . . , nm 1, . . . )

bm

(. . . , nm , . . . ) = (1)

sm

(1 nm ) (. . . , nm + 1, . . . ) .

Puede verse facilmente que de esta manera se respetan adecuadamente las reglas de exclusi
on y la asimetra
requerida para la funcion de onda al reproducir la construccion que hicimos para bosones.

36

ENSAMBLE GRAN CANONICO

6.4.

Gases ideales cu
anticos (Basado en el texto de Reichl)

Hemos visto ya que, al estudiar sistemas abiertos en equilibrio termodin


amico mediante el ensamble gran
can
onico, las fluctuaciones en el n
umero de partculas son despreciables, por lo que es equivalente el planteo de
cualquier problema en el ensamble can
onico o en el gran canonico. Esto nos permite abordar el estudio de los
gases ideales cu
anticos en el formalismo gran can
onico, evitando inconvenientes algebraicos muy complicados
para resolver en el ensamble can
onico (o microcan
onico).
Partimos entonces de la expresi
on para la gran particion
i
h
b
b
Z (T, V ) = Tr e(HN ) .

b yN
b son diagonales. Si = h2 k 2 /(2m)
En la representaci
on de Fock, esta traza se eval
ua facilmente, pues H

es la energa cinetica de una partcula en el estado p = h


k , para el caso general obtenemos
Z (T, V ) =

no =0

nj =0

S(N ; no , . . . , n ) e

n =0

=0

n ( )

donde el factor S(N ; no , . . . , n ) representa


el n
umero de configuraciones diferentes con esos n
umeros de ocupaP
cion o poblaciones y debe cumplirse =0 n = N . La diferencia entre los comportamientos que se describen reside en este factor estadstico S, que tiene en cuenta si deben satisfacerse las estadsticas de Maxwell-Boltzmann,
Bose-Einstein o Fermi-Dirac.
Para el caso de partculas de Maxwell-Boltzmann, antes de obtener la funcion gran particion, recordemos
que debemos pensar en partculas distinguibles con niveles discretos en virtud de la cu
antica, aunque luego
introducimos el contaje correcto de Boltzmann mediante un denominador N ! . Vale la pena recalcar que esta
formulacion no tiene en cuenta en absoluto las condiciones de simetra sobre las funciones de onda del sistema.
En el caso de partculas distinguibles, la expresi
on para el factor estadstico se obtiene de manera directa:
Sdist (N ; no , . . . , n ) =

N!
.
no ! . . . nj ! . . . n !

Con este factor la funcion gran particion adopta una expresi


on algo difcil de evaluar en virtud del numerador
N !, por lo que en general se utiliza el ensamble can
onico en este caso. Sin embargo, para el caso de MaxwellBoltzmann, el contaje correcto simplifica las cuentas al eliminar ese numerador, con lo cual resulta
Z(MB) (T, V ) =

no =0

n =0

1
e
no ! . . . n !

=0

n ( )

(16)

En la proxima seccion veremos que esta expresi


on puede evaluarse casi en pantuflas.
Para el caso de bosones, cualquier conjunto {nj } representa un u
nico estado posible, sin restriccion alguna
sobre los valores de los n
umeros de ocupacion, lo que implica que siempre el factor estadstico S vale 1:
Z(BE) (T, V ) =

no =0

n =0

=0

n ( )

(17)

Para temperaturas suficientemente altas, todos los n


umeros de ocupacion valen a lo sumo 1, ya que todos los
estados son igualmente probables, de modo que coinciden las descripciones de Maxwell-Boltzmann y la de BoseEinstein.
Para fermiones, tambien cada conjunto {nj } representa un u
nico estado, pero ahora deben restringirse los
n
umeros de ocupacion posibles a 0
o 1:
Z(FD) (T, V ) =

1
X

no =0

1
X

n =0

=0

n ( )

Claramente, todas las particiones coinciden a T suficientemente altas.

(18)

6.4

Gases ideales cu
anticos

6.4.1.

37

Partculas de Maxwell-Boltzmann

La expresi
on (16) puede factorizarse facilmente, pues se trata de una suma sobre ndices independientes
sobre la exponencial de una sumatoria, obteniendo
Z(MB) (T, V ) =

=0

h
i
exp e ( ) .

A partir de aqu, el gran potencial resulta


MB (T, V, ) = kT ln Z(MB) (T, V ) = kT

e ( ) .

=0

Para V suficientemente grande (lmite termodin


amico), la distribuci
on de estados se hace continua, pues el
espaciamiento de los autovalores de p permitidos es inversamente proporcional a V , de modo que las sumatorias
se convierten en integrales
Z
Z
X
V
V
3
d
k
=
d3 p .

(2)3
h3

La expresi
on para el gran potencial puede entonces escribirse
Z
Z
p2
p2
kT V
kT V
3
( 2m
)
dp p2 e( 2m ) ,
d pe
= 3 4
MB (T, V, ) = 3
h
h
0

es decir
MB (T, V, ) = kT V e
Suele introducirse aqu la longitud de onda termica
s

mkT
2h2

3/2

2h2
,
mkT

que mide el desparramo de la funcion de onda de las partculas. Un ejercicio muy loable es comparar esta
magnitud con la longitud de onda de De Broglie (alabados sereis vosotros). Si es mucho menor que el espaciamiento medio entre partculas, todas las estadsticas predicen los mismos resultados: al no haber solapamientos
de las funciones de onda individuales, no influye la indistinguibilidad de las partculas en la fsica del sistema.
Utilizando esta definicion, la expresi
on para el gran potencial resulta
MB (T, V, ) =

kT V e
.
3

Esta identidad puede tomarse como ecuaci


on fundamental, de la que pueden derivarse las diferentes ecuaciones de estado. Por ejemplo, para el n
umero medio de partculas tenemos
3/2



V e
mkT

=
=V e
.
hN i =
2
T,V
3
2h
Despejando el potencial qumico de esta igualdad, se obtiene


hN i 3
.

= kT ln
V
Para la entropa tenemos






5

V e
5khN i
hN i 3
=
S=
.
k
=
khN i ln

T V,
2
T
3
2
V
Reobtenemos de este modo la cautivante ecuaci
on de Sackur-Tetrode.
Finalmente, para la presi
on del gas resulta


kT e
hN ikT

=
=
.
P =
3
V T,

38

7 GAS DE BOSE-EINSTEIN

Afortunadamente, los resultados son los mismos que predijimos en otras ocasiones con la misma convicci
on.

7.

Gas de Bose-Einstein

(Basado en los textos de Reichl y Huang)

Hemos visto que la gran particion para un sistema de partculas regido por la estadstica de Bose-Einstein
est
a dada por la ecuaci
on (17), la que puede reescribirse como

X
Y

e( )n ,
Z(BE) (T, V ) =
n =0

=0

pues los ndices n se suman independientemente unos de otros. Veremos en seguida que < , de manera
que podemos tomar el corchete como una suma geometrica, resultando

Y

Z(BE) (T, V ) =

=0

1
1 e( )

Conviene aclarar aqu que debe recorrer cada uno de los estados accesibles a las partculas. Como la energa
depende solamente de los autovalores del impulso y no de la proyecci
on del espn s de las partculas, podemos
pensar que la sumatoria recorre los distintos estados con dos ndices: para p y ms (= s, s + 1, . . . , s)
para las coordenadas de espn. Por otro lado, las sumatorias no involucran a ms , de manera que tendremos un
producto de g = 2s + 1 sumatorias identicas, lo que puede resumirse en un exponente g en el u
ltimo corchete:
Z(BE) (T, V

)=


Y

=0

1
1 e( )

g

De aqu en adelante trataremos el caso de partculas sin espn (s = 0), aunque la generalizacion para s 6= 0
es directa. Obtenemos entonces para el gran potencial
i
h
ln 1 e( ) ,

BE (T, V, ) = kT

=0

y para el n
umero medio de partculas
hN i =

BE

T,V

X
=0

1
e( ) 1

X
=0

hn i ,

donde hn i es el n
umero medio de partculas en el estado p . Definiendo la fugacidad z e , identificamos
hn i =

1
.
z 1 e 1

Como las poblaciones medias hn i no pueden ser negativas, debe cumplirse e > z . Dado que el mnimo
valor para es cero, podemos establecer cotas para la fugacidad y, por ende, para el potencial qumico
0<z<1

<0.

En particular, vemos que la poblaci


on del estado fundamental
hno i =

z
1z

puede diverger si z se aproxima a 1. Si ocurriera, ese estado se poblara macrosc


opicamente, lo que, como
veremos, se traduce como una transici
on de fase.

39

Podemos reescribir las expresiones para el gran potencial y el n


umero medio de partculas tomando el lmite
termodin
amico, de manera que convertimos las sumatorias en integrales siguiendo el procedimiento habitual
Z
X
V
d3 p .
3
h

Obtenemos entonces

kT
kT
BE (T, V, )
=
ln(1 z) 3 g5/2 (z)
V
V

y para la recproca del volumen especfico v por partcula


1
hN i
hno i
1

=
+ 3 g3/2 (z) ,
v
V
V

donde
4
g5/2 (z) =

y
4
g3/2 (z) =

X
zj
j 5/2
j=1

dx
0

dx x2 ln(1 zex ) =

(19)

x2
g5/2 (z) X z j
.
=
=
z
2
z
z 1 ex 1
j 3/2
j=1

A estas expresiones integrales se arriba realizando la


sustitucion x2 = p2 /(2m). Para temperaturas sufig3/2
cientemente elevadas o valores de v bastante gran2,612
des (bajas densidades), los terminos correspondientes
a = 0 son despreciables, por lo que la separaci
on de
esos sumandos es innecesaria y pueden omitirse en las
expresiones anteriores. Sin embargo, la funcion g3/2 (z) ,
positiva y monotonamente creciente, es acotada. Analizando la expresi
on (19), vemos que para alguna situacion con T
o v suficientemente bajos, z alcanzar
a su maximo valor y, consiguientemente, lo mismo
ocurrira con g3/2 (= 2, 612). En ese caso, el termino
g3/2 (z)/3 del segundo miembro no es suficiente para
z
mantener la identidad, de manera que la poblaci
on me1
0
dia del estado p = 0 deja de ser diferencial para poblarse macrosc
opicamente: de esta manera, en el lmite termodin
amico (V ), el cociente hno i/V 6= 0.

Este
es el verdadero motivo por el cual se separan las contribuciones correspondientes a p = 0 en las expresiones
anteriores. La poblaci
on macrosc
opica del estado con impulso cero se conoce como condensacion de BoseEinstein, y en seguida veremos que se corresponde con una transicion de fase.
La expresi
on (19) debe entonces desdoblarse para distinguir las situaciones mencionadas, de manera que
tendremos
z

1
3

si
g3/2 (1) = 2, 612
3 g3/2 (z)
v
1
=
v
1

1 z + 1 g3/2 (1)
si
>
g
(1)
3/2
V 1z
3
v
Dicho de otro modo, el valor de
obtiene seg
un que caso corresponda:

si

despejar g3/2 (z) = v


z=

1
si

la fugacidad se

3
g3/2 (1) = 2, 612
v
3
> g3/2 (1)
v

1
2, 612

v
3

40

7 GAS DE BOSE-EINSTEIN

Para una dada densidad 1/v, hay una temperatura crtica Tc a la cual ocurre el cambio, y est
a dada por
3 = g3/2 (1) v

Tc =

2
h2
mk

1
2, 612 v

2/3

Del mismo modo, para una dada T , el volumen especfico crtico resulta

3/2
1
2
h2
vc =
.
2, 612 mkT

hno i
hN i

De las expresiones anteriores puede obtenerse la


fraccion de partculas en el estado p = 0
hno i
2, 612 V
=1
=1
hN i
3 hN i

T
Tc

3/2

.
1

T
Tc

(Si T > Tc esta fraccion se anula.)


En virtud de la relaci
on de Euler = P V , de manera que de la ecuaci
on fundamental puede verse que la
ecuacion de estado para la presi
on resulta

kT
>

P = 3 g5/2 (z)

kT

P< =
g5/2 (1)
3
donde hemos indicado con un suprandice > la presion por encima de la zona de condensacion (T > Tc
o v > vc ), y < para la zona de condensacion. Es

interesante destacar que debajo del punto de condensacion la presi


on resulta independiente de v.

fase gaseosa

T1
fase
condensada

Las isotermas en un diagrama P -v tienen el aspecto de la figura. Como en el caso del cambio de fase
lquido-gas, la regi
on horizontal puede pensarse como
0
vc (T1 )
v
una regi
on de coexistencia: alguna inestabilidad ha sido subsanada en el potencial de Helmholtz uniendo dos estados mediante una recta, cuya pendiente (constante)
corresponde al valor de la presi
on en la coexistencia.
La presi
on de vapor representada por la curva cortada de la figura, est
a dada por la condici
on
Po (T ) =

kT
g5/2 (1) .
3

Derivando respecto de T se obtiene




g5/2 (1)
1
5 k g5/2 (1)
5
dPo
.
=
=
kT
dT
2
3
T vc 2
g3/2 (1)
Vemos que se satisface la ecuaci
on de Clausius-Clapeyron si notamos que la discontinuidad v en el volumen
especfico es igual al volumen especfico crtico en cada caso, ya que en la fase condensada v = 0. El calor latente
de la transformacion (siempre por partcula) es entonces
=

g5/2 (1)
5
kT
.
2
g3/2 (1)

Estas dos discontinuidades en derivadas primeras de la energa libre de Gibbs hacen que se tome a este cambio
de fase como transici
on de primer orden.
Para el potencial de Gibbs se obtiene
>
G = hN ikT ln z

<

G =0

41

y para la entropa

5 kV
>

S = 2 3 g5/2 (z) hN ik ln z

5 kV

S< =
g5/2 (1)
2 3

Con estas expresiones encontramos la energa interna

3
>

U =

2
3
U = PV

U< =
2

kT V
g5/2 (z)
3

cv

kT V
g5/2 (1)
3

Podemos calcular de aqu el calor especfico (por


partcula) a volumen constante, tomando la precaucion
de derivar la entropa manteniendo V y hN i constantes

9 g3/2 (z)
15 k v
>

g5/2 (z) k
c =

v
4 3
4 g1/2 (z)

3
k
2

T 3/2

c< = 15 kv g (1)
5/2
v
4 3

Tc

El aspecto de la curva de cv ha hecho que este cambio de fase se denomine transici


on lambda.
Es importante destacar que la condensacion de Bose s
olo es posible en sistemas cerrados, aunque nuestro
tratamiento se haya enmarcado dentro del formalismo gran can
onico. Si se permite que el sistema intercambie
materia con un reservorio de partculas a constante, no podra aumentarse la densidad para una dada T o
reducir la temperatura manteniendo v fijo, que fueron las hip
otesis con las que partimos en el desarrollo que
hemos llevado adelante.
Para el caso de un gas de fotones, como el n
umero de partculas no se conserva, la maximizacion de la entropa
estadstica no conlleva el vnculo asociado con hN i, de manera que no aparece el correspondiente multiplicador
de Lagrange, y las poblaciones de los estados p toman la forma 1/[e 1] en lugar de 1/[e( ) 1]. Esto
es equivalente a aceptar que para fotones = 0, y est
a claro que en este caso el gran potencial coincidira con
la energa libre de Helmholtz F = U T S. El hecho de que el potencial qumico se anule en este caso, podra
esperarse de antemano aceptando que ocurre una reaccion qumica en las paredes de la cavidad, en la que el
intercambio de energa de la radiaci
on con las mismas implica la creacion o absorcion de fotones.
La gran particion que se obtiene de este modo coincide con la particion correspondiente al sistema de
osciladores de frecuencias respectivas : en ese caso, cada oscilador se encuentra en el estado cu
antico n , en
lugar de pensar que el modo electromagnetico de frecuencia posee un n
umero variable de fotones.

8.

Gas de Fermi-Dirac

(Basado en los textos de Reichl y Huang)

En la seccion 6.4 habamos obtenido la funcion gran particion para un sistema de partculas regido por
la estadstica de Fermi-Dirac. En la correspondiente expresi
on (18), el ndice debe se
nalar unvocamente el
estado cu
antico accesible a cada partcula: por ejemplo, para partculas de espn 1/2, este ndice debe abarcar
los posibles estados de impulso p y tambien las proyecciones up () o down () para el espn. Para el caso
de partculas libres, los autovalores individuales para el hamiltoniano no dependen de la orientaci
on del espn s,
por lo que debe repetirse g = (2s + 1) veces las sumatorias sobre los diferentes estados de impulso. Como esta
suma s
olo puede abarcar dos n
umeros de ocupacion posibles en cada estado (0 y 1, pues se trata de fermiones),
la gran particion puede expresarse como
ZFD (T, V ) =

=0

1 + ze

g

42

GAS DE FERMI-DIRAC

Podemos entonces escribir para el gran potencial


FD (T, V, ) = kT g

ln 1 + ze

=0

y de aqu derivamos el n
umero medio de partculas
hN i =

FD

=g
T,V

X
=0

1
z 1 e

+1

Como el n
umero total de partculas se construye sumando las contribuciones medias de todos los niveles p ,
obtenemos para el n
umero medio de partculas en el estado
g
.
z 1 e + 1
Vemos en primer lugar que siempre se cumple hn i g,
tal como exige el principio de exclusi
on, por lo que evidentemente no habra condensacion en el caso de fermiones. Por otro lado, vale la pena analizar la poblacion media del estado fundamental,

hn i

hn i =

g
,
+1
que nunca diverge, pues z 0.
hno i =

T =0

T >0

z 1

Vale la pena notar que la expresi


on para las po0
(T = 0)
blaciones medias hn i nos indica que si la temperatura
alcanza el cero absoluto ( = ), todos los niveles se despueblan excepto aquellos para los que < . Cuando
la temperatura es apenas superior, la distribuci
on se aparta suavemente de la correspondiente a T = 0, como se
indica en la figura. La derivada de esta distribuci
on se anula r
apidamente al apartarnos del valor = , como
notaremos mas adelante.
En el lmite termodin
amico, podemos reemplazar la sumatoria sobre por una integral en el espacio ahora
continuo de p, obteniendo
gkT V
FD (T, V, ) = 3 f5/2 (z) ,

donde
4
f5/2 (z)

 X

2
(1)j+1 z j
.
dx x2 ln 1 + z ex =
j 5/2
j=1

Para llegar a esta expresi


on integral es necesario realizar el cambio de variable x2 = p2 /(2mkT ), mientras que
la sumatoria se obtiene al hacer un desarrollo en serie del integrando, resolviendo luego termino a termino.
Es interesante se
nalar que podemos escribir la gran particion en terminos de , V y z como variables
independientes, en lugar de T , V y . De este modo, con un mnimo de inspiracion el lector podr
a mostrar por
ejemplo la siguiente relaci
on


ln Z(, V, z)
,
U =

V,z
teniendo la precauci
on de que al derivar deben permanecer constantes V y z (y no ). Se obtiene as
U=

3 kT V
g 3 f5/2 (z) ,
2

mientras que para un gas de bosones con degeneracion g la energa interna resulta
U=

3 kT V
g
g5/2 (z) .
2
3

Comparando estas expresiones con = P V , se ve que para ambas estadsticas se cumple


U=

3
PV .
2

43

De manera semejante puede expresarse el n


umero medio de partculas


gV
ln Z(, V, z)
= 3 f3/2 (z) ,
hN i = z
z

,V
donde
4
f3/2 (z)

(20)

dx x2
0

f5/2 (z) X (1)j+1 z j


1
=
z
.
=
2
z
z 1 ex + 1
j 3/2
j=1

Como la funcion f3/2 (z) es creciente con z, de la expresi


on anterior para hN i puede verse que, para una
dada densidad, cuando crece la temperatura debe decrecer z, de manera que para altas temperaturas .
Por otro lado, cuando la temperatura se hace muy peque
na, z debe tender a , es decir /T , de donde
inferimos que a bajas temperaturas > 0, aunque su valor puede ser acotado, pues el denominador T garantiza
de todos modos la divergencia.
Para estudiar el comportamiento de este sistema a bajas temperaturas debemos analizar entonces el comportamiento de f3/2 (z) para valores de z grandes. Seguiremos para ello el metodo de Sommerfeld, introduciendo
por simplicidad la variable ln z = /kT , de modo que
Z
Z

y
2
4
x2
=
f3/2 (z) =
,
dx x2
dy y
e
+1
0
0
e
+1
f3/2

En este u
ltimo miembro hemos realizado la astuta sustituci
on y = x2 . Integrando por partes obtenemos
4
f3/2 (z) =
3

(ln z)3/2

dy
0

y 3/2 ey
.
(ey + 1)2

Este u
ltimo paso nos ha permitido tener en el integrando a y 3/2 acompa
nada de una funcion centrada en
con una distribuci
on muy estrecha, pues se trata de la
derivada de n . Expandimos entonces y 3/2 en serie de
Taylor alrededor de
y 3/2 = 3/2 +
de manera que
4
f3/2 (z) =
3

3
3 1/2
(y ) + 1/2 (y )2 + ,
2
8

dt

et
t
(e + 1)2

3/2 +

3 1/2
3
t + 1/2 t2 +
2
8

Esta integral puede tomarse como la integral entre y menos la integral entre y . La forma del
integrando nos permite concluir que esta u
ltima integral sera O(e ), de manera que


Z
3 1/2
et
3 1/2 2
4
3/2

+ t+
dt t
t + + O(e ) .
f3/2 (z) =
(e + 1)2
2
8
3
Definiendo
In
podemos expresar
4
f3/2 (z) =
3

Io

Escribiendo
In =

3/2

dt

t n et
,
(et + 1)2

3
3
+ I1 1/2 + I2 1/2
2
8

dt

+ O(e ) .

tn
,
(et/2 + et/2 )2

resulta evidente que el integrando es impar si n lo es. Entonces In = 0 para n impar,




Z
d
1
=1,
dt
Io = 2
dt et + 1
0

44

y para n 6= 0 par

In = 2

tn1
dt t
e +1

=1

= 2

du un1
n eu + 1

= 2n
=1

GAS DE FERMI-DIRAC

du
0

un1
,
eu + 1

de manera que
In = (n 1)! 2n (1 21n ) (n) .

Los valores que utilizaremos de la funcion de Riemmann son (2) = 2 /6 y (4) = 4 /90. Obtenemos
finalmente


2
4
(ln z)3/2 +
f3/2 (z) =
(ln z)1/2 + + O(z 1 ) .
(21)
8
3
Entonces, para el caso de bajas temperaturas o altas densidades, es decir 3 /v 1, la ecuacion (20) puede
aproximarse como


2
4 g
1
3/2
1/2
(ln z) +
=
(ln z)
+
v
8
3 3
En particular, se define como energa de Fermi
2
h
(T = 0) F =
2m

6 2
gv

2/3

Completamos ahora el comentario de mas arriba diciendo que a T = 0 si > F , n = 0, y si < F , n = g.


Se define tambien el impulso de Fermi pF escribiendo la relaci
on clasica F = p2F /2m. Mas frecuentemente
se utiliza la temperatura de Fermi TF F /k, de manera que si T TF se dice que el gas est
a degenerado,
porque todas las partculas tienden a ocupar los estados de menor energa, seg
un lo permitido por la degeneracion
g.
La expansi
on (21) puede invertirse, resultando en esta regi
on
#
"

2
2 kT
+ .
(= kT ln z) = F 1
12 F
Podemos obtener una expresi
on para la energa interna de este sistema considerando
Z
X
1
gV 4

dp p4  2
U=
hn i = 3
.
p
h 2m 0
2m

e
+1

Podemos repetir la integraci


on por partes que hicimos previamente, de manera que

U=

V
4 2 m
h3

dp
0

p
5

hn i
p

gV
20 2 m2 h3 kT

dp p6 "

e


p2
2m

p2
2m

#2 .

+1

Vale la misma consideracion del desarrollo anterior respecto de la derivada del n


umero medio de partculas en
el estado , de manera que podemos seguir el procedimiento de Sommerfeld, obteniendo
#
"

2
5 2 kT
3

+ .
U = hN i F 1 +
5
12
F
El primer termino corresponde a la energa del estado fundamental, y puede verificarse facilmente que
X

|p|<pF

3
p2
= hN i F .
2m
5

Con estos elementos puede calcularse el calor especfico


cv

2 k2
T .
2 F

8.1

Diamagnetismo de Landau (Basado en el texto de Huang)

45

Aqu se pone en evidencia que se cumple la tercera ley de la termodin


amica, ya que este calor especfico tiende
a cero en el lmite de bajas temperaturas.
A partir de la igualdad U = (3/2)P V puede escribirse
"
#

2
2 F
5 2 kT
P
1+
+ .
5 v
12
F
Podemos ver que a T = 0, P 6= 0, como consecuencia del principio de exclusi
on, pues no todas las partculas
pueden tener el mnimo valor de impulso.
Analicemos a continuacion el regimen de temperaturas altas o bajas densidades, es decir, 3 /v 1, donde
esperamos que los efectos cu
anticos se disimulen. Recordando que en este caso z toma valores muy proximos
a 0, aproximamos
3
z2
= f3/2 (z) = z 3/2 +
gv
2
Nuevamente, invirtiendo esta serie tenemos
z=

1
3
+
gv 23/2

3
gv

2

En los casos en que 3 /(gv) es extremadamente peque


no, podemos quedarnos s
olo con el primer termino, coincidiendo nuestro resultado con el correspondiente al gas de Maxwell-Boltzmann. Por otro lado, puede verificarse
que las poblaciones de los distintos niveles tambien coinciden con el caso de Maxwell-Boltzmann. Finalmente,
la ecuaci
on de estado


Z
p2
Pv
4 g v
2m
2
dp p ln 1 + z e
=
kT
h3
0
puede aproximarse como
v
Pv
= 3
kT



1 3
z2
z 5/2 + = 1 + 5/2
+
gv
2
2

Nuevamente, el resultado coincide con el de Maxwell-Boltzmann en la situacion lmite.

8.1.

Diamagnetismo de Landau (Basado en el texto de Huang)

Ya hemos visto en uno de los ejercicios el teorema de Van Leewen, que establece que no existe el diamagnetismo (y el magnetismo en general) en estadstica clasica. Sin embargo Landau en 1930 mostro que es posible
explicar el fenomeno del diamagnetismo mediante la cuantizaci
on de las orbitas de partculas cargadas en un
campo magnetico.
Las propiedades magneticas de un material se analizan a traves de la susceptibilidad magnetica por unidad
de volumen


M
=
.
B T
Aqu M representa el momento magnetico por unidad de volumen, y B, la induccion externa aplicada. Si el
analisis es llevado adelante en el ensamble can
onico, sabemos que cuando el hamiltoniano incorpora el acoplamiento con el campo externo, la funcion particion estara relacionada con la energa libre de Gibbs


kT ln ZN
1 G

=
.
G(T, B, N ) = kT ln ZN (T, B)

M =
V B T,N
V B
En el gran can
onico el analisis es similar, resultando
!#
"



e

ln Z

= kT
.
M =
B V
B
V
T (,V ),z
T (,V ),z

e para recordar que a diferencia de los casos anteriores, este involucra


Hemos denotado el gran potencial como
tambien la transformacion de Legendre de M por B (otra vez, en virtud de que el hamiltoniano utilizado para
el calculo de la gran particion incluye el acoplamiento con la fuente de campo). Por otro lado, aunque en general

46

GAS DE FERMI-DIRAC

las variables P y V no intervienen en las ecuaciones de estado, se ha indicado a V como otra posible variable
natural de nuestro potencial.
Un sistema es diamagnetico cuando < 0, y paramagnetico cuando > 0. Los n
ucleos que constituyen una
red cristalina en general no aportan a la respuesta magnetica de los materiales, pues su momento magnetico
intrnseco es mucho menor que el de los electrones (tpicamente 1000 veces mas chico). El alineamiento del espn
de los electrones con el campo externo da lugar al paramagnetismo, que compite con el movimiento orbital de
los mismos. Para llevar adelante nuestro analisis, pensamos en un gas de electrones libres, ignorando entonces
sus coordenadas de espn al estudiar su traslacion.
Niveles de Landau
En un campo magnetico externo asociado a un potencial vector A , el hamiltoniano no relativista correspondiente a un electron libre es

2
b1 = 1 p + e A .
H
2m
c

La ecuacion de Schr
odinger independiente de t es invariante ante transformaciones de gauge
A(r)

(r)

A(r) (r) ,
ie

e h c (r) (r) ,

podemos elegir Ax = By; Ay = Az = 0, con lo cual


donde (r) es cualquier funcion continua. Si B = B k,
obtenemos
"
#
2
eB
1
2
2
b1 =
px
y + py + pz
.
H
2m
c

Proponiendo (x, y, z) = ei(kx x+kz z) f (y), donde k es el autovalor respectivo para p , la ecuacion de Schrodinger estacionaria correspondiente al autovalor de energa implica


1
1
2
2
2
py + m o (y yo ) f (y) = f (y) ,
2m
2

donde o eB/(mc) es la frecuencia ciclotronica correspondiente a las orbitas circulares clasicas de una masa
m con carga e bajo un campo B uniforme, yo hc/(eB) kx y h2 kz 2 /(2m). La anterior ecuacion para
b 1 son
f (y) no es otra que la entra
nable ecuaci
on de un oscilador arm
onico, de manera que los autovalores de H
los niveles de Landau


pz 2
1
=
,
+h
o j +
2m
2
donde j = 0, 1, 2, . . . y pz
hkz son los autovalores de partcula libre seg
un la direccion z.
Notemos que los niveles de Landau son independientes de kx , lo que significa que habra una degeneracion
para ellos igual al n
umero de valores de kx permitidos en cada caso, de manera que el valor de yo no escape del
volumen que contiene a los electrones. Suponiendo que se trata de un material c
ubico de lado L, e imponiendo
condiciones peri
odicas a , los valores permitidos para kx resultan 2nx /L, donde nx es un n
umero natural.
En ese caso,
hc 2
yo =
nx ,
eB L
de modo que la condici
on yo L implica nx eB/(hc) L2 , o equivalentemente, la correspondiente degeneracion
sera
eB 2
L .
g=
hc
Vemos entonces que cuando aparece un campo externo B 6= 0, las energas asociadas con el movimiento en
el plano x-y dejan de ser continuas para tomar los valores discretos que hemos encontrado aqu.
Para obtener la funcion gran particion debemos desarrollar adecuadamente la expresi
on
Y
g
1 + ze ,
Z =

8.2

Efecto de Haas - Van Alphen

47

donde aqu los estados posibles son se


nalados por los n
umeros cu
anticos = (pz , j) o = (pz , j, ) en nuestra
notacion previa, representando los valores posibles para kx con el ndice = 1, 2, . . . , g. Tenemos entonces
ln Z =

g X
X
X

=1 j=0 pz

i
h
ln 1 + ze(pz ,j) .

Como (pz , j) no depende de , sumar sobre este ndice simplemente implica repetir g veces el resto de la
expresi
on. En el lmite termodin
amico, los autovalores de pz pasan a ser continuos, de modo que la suma se
transforma en integral mediante el procedimiento habitual
Z
i
h
2gL X
ln Z =
dp ln 1 + ze(p,j) ,
h j=0 0
donde hemos reducido el intervalo de integraci
on sobre p a partir de la paridad del integrando. El n
umero medio
de partculas resulta entonces
Z
1
2gL X

dp 1 (p,j)
hN i = z ln Z =
.
(22)
z
h j=0 0
z e
+1
Para temperaturas altas, z se aproxima a cero, de modo que el valor de hN i no diverja. Utilizando entonces
el hecho de que z es peque
no, podemos aproximar

2gzL X
ln Z
h j=0

dp e

 2


p
1
ho j+ 2
2m +

Ahora la integraci
on y la suma se resuelven independientemente, y definiendo x ho /(2kT ) obtenemos
ln Z =

gzL ex
.
1 e2x

Como x es peque
no para temperaturas altas, podemos desarrollar en serie de Taylor, teniendo el cuidado de
agrupar pertinentemente los terminos del mismo orden. As obtenemos
"



2 #
x2
zV
1 ho
gzL 1
1
= 3 1
,
ln Z
2x
6

24 kT
de donde puede obtenerse una estimacion para la susceptibilidad

2
eh
z
.
=
3kT 3 2mc
La primera gran sorpresa es que este tratamiento cu
antico nos ha permitido obtener una respuesta magnetica
no nula. Pero adem
as, el hecho de que sea negativo implica que estamos dando cuenta de un comportamiento
diamagnetico del material en cuestion, lo que nos mantendr
a por un tiempo en un extasis irrefrenable.
Para z peque
nos la ecuaci
on (22) provee una expresi
on que coincide con ln Z , de manera que podemos
aproximar hN i/V z/3 . Reemplazando z en la expresi
on para obtenemos

2
eh
1
,
=
3kT v 2mc
que en particular satisface la ley de Curie ( 1/T ).

8.2.

Efecto de Haas - Van Alphen

Analicemos ahora el comportamiento para temperaturas bajas. Como sabemos, los electrones intentan
ocupar los estados de energa mas baja, aunque tambien sabemos que a medida que se reduce el valor de B,
correspondientemente caben menos en el estado fundamental, porque la degeneracion g disminuye linealmente
con B. Esto trae como consecuencia oscilaciones en la magnetizacion, fenomeno que se conoce como efecto de
Haas - Van Alphen, a partir de los resultados de un famoso experimento realizado por estos investigadores en
1930, en una muestra de bismuto a 14,2 K entre 0,5 y 2 Tesla.

48

GAS DE FERMI-DIRAC

Al interesarnos en el caso kT
ho , tomamos directamente T = 0 en las expresiones anteriores, e ignoramos
el movimiento en la direccion z, pues no aporta a la susceptibilidad magnetica.
Definiendo o e
h/(2mc), los niveles de Landau pueden escribirse como j = 2o B(j + 1/2), y en terminos
de Bo nhc/e, donde n = N/L2 es el n
umero de partculas por unidad de area, su degeneracion es g = N B/Bo .
La magnitud Bo representa el valor mnimo para que todos los electrones quepan en cada uno de los niveles de
Landau. A T = 0, cuando B > Bo todos los electrones se acomodan en el nivel fundamental j = 0; en ese caso,
la energa por partcula sera Eo /N = o B. Si en cambio B < Bo , algunas partculas deben ocupar niveles mas
altos: la condici
on para que los primeros j + 1 niveles de Landau (del 0 al j) esten ocupados completamente, el
(j + 1) parcialmente lleno y los otros vacos es
(j + 1)g < N < (j + 2)g ,
o bien
(j + 1) N

B
B
< N < (j + 2) N
Bo
Bo

1
B
1
<
<
.
j+2
Bo
j+1

Cuando el valor de B yaga8 en ese intervalo la energa fundamental por partcula sera




j
Eo
B
g X
(j + 1) g
j+1 = o B 2j + 3 (j + 1)(j + 2)
=
,
k + 1
N
N
N
Bo
k=0

es decir,

B x

o o

Eo
(B) =

o Bo x [2j + 3 (j + 1)(j + 2) x]

B
>1
Bo

si

si

1
1
<x<
j+2
j+1

(j = 0, 1, 2, . . . )

Puede obtenerse (como y por que?) a partir de estas expresiones

o n
si x > 1

M=
1
1

o n [2(j + 1)(j + 2) x (2j + 3)]


<x<
si
j+2
j+1
=

o n

2o n (j + 1)(j + 2)
Bo

si

x>1

si

1
1
<x<
j+2
j+1

2o n/Bo

1
4

o n

8.3.

13 12

12

B
Bo

2
1
4

1
3

1
2

B
Bo

Ferromagnetismo: Modelo de Ising

Uno de los fenomenos mas interesantes en fsica del estado s


olido es el ferromagnetismo: en algunos metales
como el hierro o el nquel, una fraccion finita de los espines asociados con cada n
ucleo se polariza espont
aneamente en determinada direccion, generando un momento magnetico macrosc
opico en ausencia de campo externo.
8 Quod

talcum?

8.3

Ferromagnetismo: Modelo de Ising

49

Esto ocurre s
olo a bajas temperaturas; a temperaturas elevadas los espines se orientan al azar, produciendo una
magnetizacion resultante nula.
Para intentar una descripcion, supongamos que cada uno de los N puntos de la red cristalina aloja un atomo
al que asociamos un espn 1/2 y momento magnetico B (magneton de Bohr en unidades de h
). Bajo la accion
de una induccion magnetica externa B, el hamiltoniano del sistema (incluyendo la interaccion) es
b =
H

X
hiji

bi
b j B B
Jij

N
X
i=1

bi ,

b = (b
donde
x ,
by ,
bz ) son las matrices de Pauli y Jij , denominada integral de intercambio, y depende
de la distancia entre los n
ucleos i-j: en nuestra descripcion consideraremos que es distinta de cero para los
n
ucleos mas cercanos en la red, motivo por el cual la primera sumatoria barre solamente los pares hiji de
primeros vecinos. Cuando Jij > 0 se dice que el sistema es ferromagnetico, mientras que si Jij < 0 el sistema
es antiferromagnetico.
El hamiltoniano de la expresi
on anterior se conoce como modelo de Heisenberg o isotr
opico. Cuando la
la expresi
respuesta del sistema es relevante s
olo en una orientaci
on (B = B k),
on anterior se transforma en el
modelo de Ising o anisotr
opico al considerar Jij = J (pues s
olo se incluyen las interacciones entre primeros
vecinos):
N
X
X
z z
b
H = J

biz .

bi
bj B B
i=1

hiji

En adelante obviaremos el suprandice z, sobreentendiendo que


b representa el operador
bz . Si bien originalmente el modelo de Ising se desarroll
o para analizar el ferromagnetismo, se lo puede adaptar facilmente para
describir otros cambios de fase. As es que han surgido aplicaciones para estudiar transiciones orden-desorden
(aleaciones), vidrios de espn, el llamado gas de red, y recientemente se lo ha utilizado tambien en redes neuronales.
8.3.1.

Modelo de Ising unidimensional

La descripci
on de un sistema unidimensional se simplifica notablemente cuando se imponen condiciones de
contorno peri
odicas, es decir, el estado del n
ucleo N + 1 coincide con el del n
ucleo 1. Entonces podemos escribir
b = J
H

N
X
i=1

bi
bi+1

N
B B X
(b
i +
bi+1 ) .
2 i=1

Para calcular la funcion particion, s


olo debe tenerse la precaucion de barrer todos los autovalores de este hamiltoniano, a traves de la accion de los operadores
bi , que act
uan cada uno en el espacio de Hilbert correspondiente,
con autovalores i = 1
ZN (T, B) =

1 =1

PN

i=1



B
Ji i+1 + B2 (i +i+1 )

N =1

Definimos ahora el operador Pb con elementos de matriz


hi |Pb |i+1 i = e



B
Ji i+1 + B2 (i +i+1 )

Eligiendo la base de manera que el autovalor = 1 corresponda al elemento


representaci
on matricial de este operador es
 (J+ B)
B
e
Pb =
J
e

eJ
e(JB B)

 
 
0
1
, la
y = 1 al
1
0

De este modo, la funcion particion resulta


X
X
ZN (T, B) =

h1 |Pb|2 i h2 |Pb |3 i hN |Pb |1 i .


1 =1

N =1

50

GAS DE FERMI-DIRAC

Como los estados | + 1i y | + 1i forman una base,


X
|i h| = I
=1

de manera que

ZN (T, B) =

1 =1

h1 |PbN |1 i = Tr (PbN )

Al ser Pb un operador simetrico, puede diagonalizarse exigiendo


(J+ B)
B
e

eJ

J
(JB B)

e
e

resultando la ecuaci
on caracterstica



=0,

2 2 eJ cosh(B B) + 2 senh (2 J) = 0 ,
de donde
= eJ cosh(B B)
Como Tr (Pb N ) no depende de la base

N
Tr (Pb N ) = N
+ +

q
e2J + e2J senh2 (B B) .
N
G(T, B, N ) = k T ln(N
+ + ) ,

Es facil ver que en el lmite termodin


amico s
olo sobrevive la contribucion de + (> ) analizando la energa
libre de Gibbs por n
ucleo
1
g(T, B) = lm
G(T, B, N ) = k T ln + .
N N
El momento magnetico total para el sistema resulta


N B senh (B B)
g
=q
hM i = N
.
B T
e4J + senh2 (B B)

Es evidente entonces que cuando B = 0, hM i tambien se anula, es decir, no hay magnetizacion espont
anea en
una dimension.
8.3.2.

Modelo de Weiss

En dos dimensiones, el modelo de Ising tambien puede resolverse analticamente, lograndose encontrar respuesta ferromagnetica bajo campos externos. Sin embargo, el desarrollo se torna excesivamente complicado para
sistemas tridimensionales, recurriendose a metodos aproximados. El que veremos aqu se conoce como metodo
de Weiss o modelo de campo molecular.
En esta descripci
on se reemplaza la interaccion con los primeros vecinos de la red por un promedio, de
modo que el hamiltoniano resulta
b W = J
H
2

N
X
i=1

bi hi B B

N
X
i=1

bi .

El denominador 2 del primer miembro se introduce para evitar contar dos veces la interaccion correspondiente a
cada par hiji. Vemos entonces que el efecto de los primeros vecinos se traduce como la produccion de un campo
efectivo Jhi/(2B ). En esta aproximacion de campo medio puede entonces escribirse
bW =
H

N
X
i=1

bi ,
H

con

bi =
H


Jhi
+ B B
bi ,
2

es decir, como un sistema de espines no interactuantes. Al ser independientes los espines, sabemos que la funcion
particion del sistema total ZN se eval
ua a partir de la particion correspondiente a cada espn Z1 , pues ZN = Z1N .
En nuestro caso conocemos el resultado

 
Jhi
+ B B
Z1 = 2 cosh
2

8.3

Ferromagnetismo: Modelo de Ising

51

y, a partir de los autovalores H1 del hamiltoniano para cada espn,


 

Jhi
1 X
H1
= tgh
e
+ B B
.
hi = hi i =
Z1 =1
2
Esta ecuaci
on trascendente puede tener soluci
on no nula para B = 0, como puede verificarse gr
aficamente.
Tambien se deja como ejercicio comprobar que existe una temperatura crtica por encima de la cual las soluciones
no triviales no existen, cuyo valor es Tc = J/(2k).
Por supuesto como esta descripcion del fenomeno del ferromagnetismo no depende de la dimension de nuestro
problema, resulta inadecuada para un sistema unidimensional.
De la ecuaci
on de Curie-Weiss correspondiente a B = 0


J
hi = tgh
hi
2kT
podemos hallar (numericamente) el comportamiento del momento magnetico por n
ucleo m B hi en funcion
de la temperatura. Pueden encontrarse las aproximaciones asint
oticas para T bajas
m/B 1 2e
y para T Tc (por debajo, mavaleria)

Jm
kT
B

s 

T
m/B 3 1
.
Tc

De este modo pueden analizarse todos los exponentes crticos, relacionados con los comportamientos de los
diferentes par
ametros cerca del punto crtico.
8.3.3.

El potencial de Gibbs

A partir de la funcion particion es posible escribir una expresi


on para la energa libre de Gibbs para (T < Tc )


 
Jhi
+ B B
,
G(T, B, N ) = kT N ln 2 cosh
2
en particular para B = 0. En ese caso, para T > Tc , G = kT N ln 2 (pues hi = 0). La expresi
on anterior
presenta la particularidad de que representa una funcion de T convexa, y por lo tanto no satisface los criterios
de estabilidad termodin
amica (local). Para corregir este inconveniente, tomamos un hamiltoniano de prueba
b o . Denotando
H
X
Zo =
eHo ,
{i }

b puede evaluarse como


la funcion particion del sistema real (descripto por el hamiltoniano H)
D
E
X
X
Z=
eH =
eHo e(HHo ) = Zo e(HHo )
,
{i }

{i }

donde
hf io

1 X Ho
.
fe
Zo
{i }

Como e 1 + x x, para cualquier variable aleatoria y se cumple


E
D
hey i = ehyi eyhyi ehyi ,
de manera que

Z Zo ehHHo io ,
es decir
G Go + hH Ho io .

52

GAS DE FERMI-DIRAC

Como esto
Pdebe valer para cualquier Ho de prueba, elegimos el correspondiente a espines no interactuantes
Ho = i i . De este modo
G () Go + hH Ho io .
Buscamos entonces minimizar para cada valor de T con B = 0. Sabemos de antemano que
Go = kT N ln [2 cosh()]

hi io = mo /B = tgh() ,

con lo cual
hHo io = N mo /B ,
mientras que

hHio = J

hiji

hi j io =

J
N hi io hj io .
2

En el u
ltimo paso usamos el hecho de que se trata de espines no interactuantes. Entonces tenemos
hHio =

J
mo 2
N
,
2
B 2

de manera que
() =

mo
JN mo 2
N
+ N
ln [2 cosh()]
.

2 B 2
B

El mnimo de esta expresi


on se dar
a cuando
N tgh() JN

mo mo
mo
N mo
+N
+
=0.
2
B
B
B

El primer termino se cancela con el tercero, de modo el valor que minimiza es = Jmo /B , con lo cual
mo /B = tgh(Jmo /B ) ,
es decir, reobtenemos as la ecuaci
on de Curie-Weiss (excepto por un factor 2).
De esta manera, nuestra mejor estimacion para G es ( )




2
T i c mo
kTc mo
G(T, B = 0, N ) = N kT ln 2 cosh
+N
.
T B
2
B
Afortunadamente, esta funcion es termodin
amicamente concava, como puede verificarse directamente.

8.4.

Gas de red

Una aplicaci
on interesante del modelo de Ising es el de un gas imaginado como un conjunto de N sitios de red
(de Bravais) fijos, en los cuales pueden acomodarse las moleculas que conforman el gas. La energa cinetica de
las moleculas no es tenida en cuenta, y se considera que el potencial de interaccion entre las partculas depende
s
olo de la distancia entre ellas r |r j r i |. Si tomamos el par
ametro de red como la unidad, el potencial puede
expresarse como

si r = 0
si r = 1
v(r) =

0 para otros valores

A cada sitio i entonces podemos asociar un n


umero de ocupacion ni = 0 o 1 (vaco o con una sola partcula). Para una determinada configuraci
on {n1 , . . . , nN } los autovalores del hamiltoniano correspondiente a este
sistema estaran dados por
X
Hg =
ni nj .
hiji

Como se trata de un sistema abierto, podemos evaluar la gran particion como


!
N X
N
X
X
(Hg n)
e
ni = n .
Zg =
con
n=0 {ni }

i=1

8.4

Gas de red

53

Mediante la sustitucion ni = 12 (1 + i ), con i = 1, podemos reescribir

X
X
X
N

X
(i + j ) +
i +
i j
i j
=
.
Hg =
4
8
4
8
i
hiji

De este modo

Hg

hiji

N
X
i=1

ni =

hiji

N
  X

N
X
+
,
+
i
i j
4
2
4 i=1
2
4
hiji

de donde
Zg = e

N
2

ZI ,

donde ZI corresponde a la funcion particion del modelo de Ising para un sistema con J = /4 y B = /2+/4.
El gran potencial para el gas de red resulta entonces
g (T, V, ) = GI (T, B =


N

+
.
+ , N)
2
4
2
4

En este gas de red la densidad de partculas por unidad de volumen hni/N debe asociarse con la cantidad
= /2 + /4)]. Aunque el modelo es muy simple, se predicen adecuadamente isotermas similares
a las del gas de Van der Waals, recurriendo a la identidad g = P V .
1
2 [1 + m(T, B

S-ar putea să vă placă și