Sunteți pe pagina 1din 81

MECÁNICA CUÁNTICA II

L. L. Salcedo
Departamento de Fı́sica Atómica, Molecular y Nuclear,
Universidad de Granada, E-18071 Granada, Spain
E-mail: salcedo@ugr.es

3 de octubre de 2016

Resumen

Apuntes incompletos de la asignatura. Versión v1.6, 2010-2016.


Se ruega comunicar los errores o imprecisiones que puedan encontrarse a salcedo@ugr.es
http://www.ugr.es/local/salcedo/public/mc2/curso.pdf

Índice

1. Simetrı́as 5

1.1. Simetrı́as en mecánica cuántica. Grupos de Lie y representaciones. . . . . . . . . . . 5

2. Integral de caminos de Feynman 7

2.1. Ecuación de Hamilton-Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2.2. Operador de evolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

2.2.1. Operador cronológico y expresión explı́cita del operador de evolución . . . . 10

1
2.2.2. Propagador de la partı́cula libre . . . . . . . . . . . . . . . . . . . . . . . . 12

2.2.3. Relación con el propagador y la integral de caminos . . . . . . . . . . . . . 14

2.3. Integral de caminos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15

2.3.1. Integral de caminos en el espacio de las fases . . . . . . . . . . . . . . . . . 16

2.3.2. Integral de caminos en el espacio de configuración . . . . . . . . . . . . . . 17

2.3.3. Integral de caminos para A partı́culas . . . . . . . . . . . . . . . . . . . . . 18

2.3.4. Integral de caminos en teorı́as de campos cuánticos . . . . . . . . . . . . . 18

2.3.5. Integral de caminos en tiempo imaginario . . . . . . . . . . . . . . . . . . . 20

2.4. Desarrollo semiclásico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.4.1. Principio de Hamilton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2.5. La ecuación de Schrödinger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

2.6. Partı́cula en un campo electromagnético . . . . . . . . . . . . . . . . . . . . . . . 28

2.6.1. Invariancia gauge . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.6.2. Partı́cula cargada cuántica . . . . . . . . . . . . . . . . . . . . . . . . . . . 29

2.6.3. Ordenación de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . 31

2.7. Efecto Aharonov-Bohm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.8. Acciones cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34

2.8.1. Propagador de acciones cuadráticas . . . . . . . . . . . . . . . . . . . . . . 34

2.8.2. Lagrangianos cuadráticos . . . . . . . . . . . . . . . . . . . . . . . . . . . 36

2.8.3. Oscilador armónico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38

2.8.4. Determinante de operadores diferenciales . . . . . . . . . . . . . . . . . . . 39

2
2.9. Propiedades espectrales del propagador . . . . . . . . . . . . . . . . . . . . . . . . 40

2.9.1. Propagador retardado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40

2.9.2. Oscilador armónico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41

2.9.3. Partı́cula en una semirrecta . . . . . . . . . . . . . . . . . . . . . . . . . . 42

2.9.4. Propagador euclı́deo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43

2.9.5. Dominancia del estado fundamental . . . . . . . . . . . . . . . . . . . . . . 43

2.10. Caminos brownianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

2.10.1. Movimiento browniano y ecuación de difusión . . . . . . . . . . . . . . . . . 45

2.10.2. Relación con la integral de caminos de una partı́cula libre . . . . . . . . . . 49

2.10.3. Fórmula de Feynman-Kac . . . . . . . . . . . . . . . . . . . . . . . . . . . 52

2.10.4. Cálculo de Itō . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56

2.10.5. Principio de incertidumbre . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

2.11. Inserción de operadores y valores esperados . . . . . . . . . . . . . . . . . . . . . . 58

2.11.1. Inserción de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

2.11.2. Cálculo con integral de caminos . . . . . . . . . . . . . . . . . . . . . . . . 59

2.11.3. Valores esperados en el estado fundamental . . . . . . . . . . . . . . . . . . 61

2.12. Método Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

2.12.1. Método Monte Carlo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65

2.12.2. Muestreo de distribuciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 66

2.12.3. Métodos markovianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68

2.12.4. Algoritmo de Metropolis . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71

3
2.12.5. Aplicación a la integral de caminos . . . . . . . . . . . . . . . . . . . . . . 73

2.13. Cuantización estocástica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74

2.13.1. Ecuación de Langevin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

2.13.2. Ecuación de Fokker-Planck . . . . . . . . . . . . . . . . . . . . . . . . . . 76

2.13.3. Diagramas estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

4
1. Simetrı́as

1.1. Simetrı́as en mecánica cuántica. Grupos de Lie y representaciones.

En mecánica cuántica un sistema fı́sico tiene asociado un espacio de Hilbert complejo separable
H con vectores |ψi. Cada estado viene representado por un rayo ψ̂ (subespacio de dimensión 1 de
H)
ψ̂ = {λ|ψi, λ ∈ C}. (1.1)
El conjunto de rayos forma el espacio proyectivo Ĥ. El vector |ψi es un representante de ψ̂ (es
decir |ψi ∈ ψ̂) que a menudo se elige normalizado, quedando entonces la ambigüedad de una fase
(número complejo de módulo 1).

Se denomina transformación del sistema a toda biyección g de Ĥ en Ĥ

g : Ĥ → Ĥ
(1.2)
ψ̂ 7→ ψ̂ g

El conjunto de transformaciones forma un grupo.

La probabilidad de transición entre los estados ψ̂ y φ̂, es decir, la probabilidad de encontrar el


estado φ̂ cuando se mide el sistema en estado ψ̂, es

|hφ|ψi|2
Tφ̂,ψ̂ = . (1.3)
||φ||2 ||ψ||2

Por ejemplo, hx|pi = eipx/~ proporciona la amplitud de probabilidad de encontrar una partı́cula con
momento p en el punto x.

Un transformación g es de simetrı́a cuando deja invariante las probabilidades de transición, es


decir,
∀ψ̂, φ̂ Tφ̂,ψ̂ = Tφ̂g ,ψ̂g (simetrı́a). (1.4)
Las transformaciones de simetrı́a forman el grupo de simetrı́a del sistema.1

Si la transformación g se realiza en H mediante un operador unitario U , se deduce automática-


mente que g define una simetrı́a. Esto es ası́ tanto si U es lineal como si es antilineal. Recordemos
1
Dado un conjunto cualquiera A, el conjunto de biyecciones de A en A que deja invariante un propiedad
obviamente siempre forma un subgrupo del grupo de todas las biyecciones.

5
que, para un operador A

λA|ψi + µA|φi, (lineal)
A(λ|ψi + µ|φi) = ∗ ∗ (1.5)
λ A|ψi + µ A|φi, (antilineal)
y también 
† hAψ|φi = hφ|A|ψi∗ , (lineal)
hψ|A |φi = (1.6)
hAψ|φi∗ = hφ|A|ψi, (antilineal)
Por otro lado U unitario significa
U −1 = U † (unitario). (1.7)
Lo cual implica
U U † = U † U = 1, (1.8)
donde 1 denota el operador identidad en H.

Si g se representa por un operador unitario U ,


|ψi 7→ U |ψi = |ψ g i, |ψi ∈ ψ̂, |ψ g i ∈ ψ̂ g , (1.9)
e induce una transformación bien definida a nivel de rayos. Además es inmediato que

g g hφ|U † U |ψi = hφ|ψi, (lineal)
hφ |ψ i = hU φ|U ψi = † ∗ ∗ (1.10)
hφ|U U |ψi = hφ|ψi , (antilineal)
y en ambos casos la relación (1.4) se satisface.

Por tanto, los operadores unitarios en H inducen transformaciones de simetrı́a en Ĥ. De acuerdo
con el teorema de Wigner también se cumple el recı́proco: todas las transformaciones de simetrı́a
se realizan mediante operadores unitarios en H [1].2 Además, el teorema establece que dada una
simetrı́a g el operador unitario U asociado es único salvo a lo sumo una fase.3 En efecto, los
operadores U y U ′ = wU producen vectores estado transformados que difieren en una fase y son
por tanto equivalentes.

En la práctica lo más usual es que la simetrı́a se realice mediante un operador lineal. Sólo
se requieren operadores unitarios antilineales (o también, antiunitarios) cuando la transformación
involucra inversión temporal. De modo que mientras no se diga lo contrario supondremos que los
operadores requeridos son lineales.
2
Es notable que la noción de linealidad o antilinealidad no aparece en la definición de transformación de
simetrı́a. Sin embargo, de acuerdo con el teorema, el requerimiento de simetrı́a resulta ser extraordinariamente
restrictivo.
3
Una fase se refiere a un número w ∈ C, |w| = 1.

6
2. Integral de caminos de Feynman

2.1. Ecuación de Hamilton-Jacobi

Veamos un argumento semiclásico. Partimos de la ecuación de Schrödinger de una partı́cula en


un potencial
~2 2
 
− ∇ + V (x, t) ψ(x, t) = i~∂t ψ(x, t). (2.1)
2M
Nos interesa el lı́mite ~ → 0 pero ψ no se comporta bien en ese lı́mite (no tiene un comportamiento
analı́tico en ~). Definimos la nueva variable φ mediante la relación
ψ(x, t) = eiφ(x,t)/~ . (2.2)
La ec. de Schrödinger toma la siguiente forma
1 i~
0 = ∂t φ + (∇φ)2 − (∇2 φ) + V (x, t). (2.3)
2M 2M
Esta ecuación es no lineal, pero es mejor comportada con ~. En el lı́mite clásico ~ → 0
1
0 = ∂t φ + (∇φ)2 + V (x, t), (2.4)
2M
que es la ec. de Hamilton-Jacobi de la mecánica clásica. Para un hamiltoniano clásico más general,
H(x, p, t), la ecuación es
0 = ∂t φ + H(x, ∇φ, t). (2.5)
∇ψ
Obsérvese que aquı́ p = ∇φ = ∇(−i~ log ψ) = −i~ ó pψ − i~∇ψ.
ψ
Una solución de la ecuación es la llamada función principal de Hamilton, que es la acción evaluada
sobre el camino clásico. Más concretamente, sea L(x, ẋ, t) el lagrangiano asociado a H(x, p, t)
∂L
H(x, p, t) = ẋ · p − L(x, ẋ, t), p= . (2.6)
∂ ẋ
Sea W [x(t)] la acción asociada a un camino x(t) que empieza en (xi , ti ) y acaba en (xf , tf )4
Z tf
W [x(t)] = dt L(x(t), ẋ(t), t). (2.7)
ti
4
Estrictamente hablando, se denomina camino a la aplicación t ∈ [ti , tf ] 7→ x(t) ∈ R3 . La trayectoria de ese
camino es la imagen de la aplicación, es decir el conjunto de los puntos por donde pasa la partı́cula. El camino
depende además de a qué velocidad se recorre la trayectoria en cada instante. Sin embargo, también es frecuente
usar “trayectoria” para referirse a un camino.

7
(Nótese que W [x(t)] en realidad no depende de “t” sino que es un funcional del camino completo.)
Y sea xcl (t) el camino clásico que une (xi , ti ) con (xf , tf ), es decir, el que satisface las ecuaciones
de movimiento (Euler-Lagrange)
d ∂L ∂L
= , (2.8)
dt ∂ ẋ ∂x
o equivalentemente, satisface el principio de Hamilton

δW [x(t)] = 0, con δx(ti ) = δx(tf ) = 0. (2.9)

Si denominamos a
Wcl (xf , tf ; xi , ti ) = W [xcl (t)], (2.10)
la acción clásica entre (xi , ti ) y (xf , tf ), la función principal de Hamilton es

φ(x, t) = φ(x0 , t0 ) + Wcl (x, t; x0 , t0 ). (2.11)

Es inmediato que ésta es una solución de la ec. de Hamilton-Jacobi debido a las relaciones

∇x Wcl (x, t; x0 , t0 ) = pcl (x, t), ∂t Wcl (x, t; x0 , t0 ) = −H(x, pcl (x, t), t). (2.12)

Demostración:
En efecto, si en Wcl (xf , tf ; xi , ti ) movemos (xf , tf ) a (xf + δxf , tf ) (sin cambiar xi , ti , tf ) el
camino clásico se modifica
Z tf Z tf  
∂L ∂L
δxf Wcl (xf , tf ; xi , ti ) = dt δL(x, ẋ, t) = dt δx + δ ẋ
ti ti ∂x ∂ ẋ
Z tf    
∂L d ∂L d ∂L ∂L
= dt − δx + δx = δx = pcl · δxf .
ti ∂x dt ∂ ẋ dt ∂ ẋ ∂ ẋ tf
(2.13)

Esto demuestra la primera relación. Igualmente para la segunda relación, cambiamos (xf , tf ) a
(xf , tf + δtf )
 
δtf Wcl (xf , tf ) = Wcl (xf +δxf , tf +δtf )−Wcl (xf , tf ) − Wcl (xf +δxf , tf +δtf )−Wcl (xf , tf +δtf )
(2.14)
y tomamos δxf sobre xcl , es decir, δxf = ẋcl δtf . Por tanto la primera variación es la derivada total
de la acción respecto de tf y la segunda la hemos calculado ya antes:

δtf Wcl (xf , tf ) = Lδtf − pcl · ẋcl δtf = −Hδtf . (2.15)

Esto demuestra la segunda relación.

8
Lo que se deduce es que, en la aproximación clásica,

ψ(x, t) ∼ eiWcl (x,t;x0 ,t0 )/~ ψ(x0 , t0 ) (2.16)


~→0

Es decir, cuando una partı́cula en el lı́mite clásico se mueve sobre la trayectoria clásica de (x0 , t0 ) a
i
(x, t), la fase de su función de onda cambia de acuerdo con exp( Wcl ).
~
Lo que encuentra Feynman [10] es que la función de onda ψ(xf , tf ) de una partı́cula que estaba
en xi en ti puede expresarse como
X
ψ(xf , tf ) = eiW [x(t)]/~ , (2.17)
x(t), i→f

donde la suma es sobre todos los caminos x(t) (clásicos o no) tales que x(ti ) = xi y x(tf ) = xf .
Nótese que W [x(t)] es la acción y es exactamente el mismo funcional que aparece en mecánica
clásica. A pesar de esto, este resultado es exacto (no semiclásico).5 Cada camino produce una fase
y su suma coherente es la que produce una mayor o menor amplitud de probabilidad de hallar la
partı́cula en un punto xf en tf . Sin embargo, comparado con una integral ordinaria sobre Rn , la suma
sobre caminos equivale a una integral en un espacio de dimensión infinita, una integral funcional y
requiere una definición precisa.

La relación (2.17) describe la amplitud de probabilidad (o función de onda) de que la partı́cula


se propague hasta xf en tf sabiendo que está con seguridad en xi en ti . Denotaremos hxf , tf |xi , ti i
a la amplitud de probabilidad de propagación o propagador desde (xi , ti ) hasta (xf , tf ). Es decir,
la fórmula de Feynman expresa la relación
X
hxf , tf |xi , ti i = eiW [x(t)]/~ . (2.18)
x(t), i→f

Más generalmente, para un ti dado la partı́cula tendrá una cierta amplitud de probabilidad
ψ(xi , ti ) de hallarse en xi . Entonces la amplitud de probabilidad de hallarla en xf en tf sigue las
mismas reglas que la probabilidad condicionada
X
P (A) = P (A|Bi )P (Bi ), ∪i Bi = Ω, Bi ∩ Bj = ∅ (i 6= j), (2.19)
i

5
La demostración de la fórmula a partir del formalismo canónico usual requiere que el hamiltoniano sea
cuadrático en p.

9
y para la amplitud Z
ψ(xf , tf ) = d3 xi hxf , tf |xi , ti i ψ(xi , ti ). (2.20)
Nótese, sin embargo que hay importantes diferencias entre probabilidad y amplitud de probabilidad, aparte
de que la primera es real y no negativa y la segunda es compleja en general. La probabilidad está definida
para cualquier proposición del álgebra de Boole de proposiciones, mientras que la amplitud de probabilidad
sólo está definida para estados completamente bien definidos. Ası́, por ejemplo, para un t dado existe
P (||x|| < R) pero no ψ(||x|| < R). Si la partı́cula tiene espı́n 1/2 existe la amplitud de probabilidad de
estar en x con espı́n +1/2 según el eje z, pero no la de estar en x con espı́n arbitrario.

2.2. Operador de evolución

La suma sobre caminos es en realidad muy natural en mecánica cuántica. Sea |ψ(t)i el estado
evolucionando en el tiempo en la representación de Schrödinger, de acuerdo con la ecuación de
Schrödinger
i~∂t |ψ(t)i = H(t)|ψ(t)i. (2.21)
Por ser esta ecuación lineal y de primer orden en t (el estado en un tiempo ti determina completa-
mente el estado en cualquier otro tiempo) define un operador de evolución U (tf , ti ) que es lineal e
invertible y tal que
|ψ(tf )i = U (tf , ti )|ψ(ti )i. (2.22)
Por ser H(t) hermı́tico, la norma del estado se conserva, de modo que el operador de evolución es
unitario
U (tf , ti )−1 = U (tf , ti )† . (2.23)
Además, por su definición cumple
U (tc , tb )U (tb , ta ) = U (tc , ta ), U (t, t) = 1, U (tf , ti ) = U (ti , tf )−1 , (2.24)
ası́ como la ecuación de Schrödinger por ambos lados
i~∂t U (t, t0 ) = H(t)U (t, t0 ) , i~∂t U (t0 , t) = −U (t0 , t)H(t) . (2.25)

2.2.1. Operador cronológico y expresión explı́cita del operador de evolución

Cuando H no depende del tiempo (hamiltoniano conservativo) la ecuación se puede integrar


trivialmente:
U (tf , ti ) = e−i(tf −ti )H/~ . (2.26)

10
Para estudiar el caso más general de H(t) no conservativo, consideremos primero el caso infini-
tesimal. Para ∆t = ǫ pequeño,
|ψ(t + ǫ)i = |ψ(t)i + ǫ∂t |ψ(t)i + O(ǫ2 ). (2.27)
Usando al ecuación de Schrödinger
 
i
|ψ(t + ǫ)i = 1 − H(t)dt |ψ(t)i + O(ǫ2 ) = e−iǫH(t)/~ |ψ(t)i + O(ǫ2 ), (2.28)
~
que implica
U (t + ǫ, t) = e−iǫH(t)/~ + O(ǫ2 ). (2.29)
Para el caso finito, supondremos tf ≥ ti (el caso tf < ti se sigue de éste por U (tf , ti ) = U (ti , tf )−1 )
y dividimos el intervalo [ti , tf ] en N subintervalos
tf − ti
tj = ti + ǫj , j = 0, 1, 2, . . . , N , t0 = ti , tN = tf , ǫ= . (2.30)
N
Por tanto,
U (tf , ti ) = U (tN , tN −1 )U (tN −1 , tN −2 ) · · · U (t2 , t1 )U (t1 , t0 ), (2.31)
y vamos a considerar el lı́mite N → ∞ (ǫ → 0)
U (tf , ti ) = lı́m e−iǫH(tN −1 )/~ e−iǫH(tN −2 )/~ · · · e−iǫH(t1 )/~ e−iǫH(t0 )/~ (N factores). (2.32)
ǫ→0

Los N factores introducen un factor corrector (1+O(ǫ2 ))N = 1+O(N ǫ2 ) = 1+O(ǫ) que desaparece
en el lı́mite N → ∞.

En este punto es conveniente introducir el operador de ordenación temporal u operador cronológi-


co, T . En realidad se trata no de un operador sino de una notación, tal que, independientemente
del orden en que es escrito un producto de operadores con etiquetas temporales, se entienden orde-
nados de modo que actúan antes como operadores (están más a la derecha) los que están antes en
el tiempo (de acuerdo con su etiqueta temporal). Ası́ por ejemplo

AB si t1 > t2
T [A(t1 )B(t2 )] = = Θ(t1 − t2 )AB + Θ(t2 − t1 )BA . (2.33)
BA si t2 > t1
(Aquı́ Θ(x) es la función escalón o de Heaviside, 1 para x > 0 y 0 si x < 0.) Más generalmente6
T [A1 (t1 ) · · · An (tn )] = Ap1 Ap2 · · · Apn
(2.34)
siendo p ∈ Sn la permutación tal que tp1 > tp2 > · · · > tpn .
6
La definición debe completarse adecuadamente cuando hay tiempos iguales. A menudo los operadores con-
mutan en ese caso y no hay ambigüedad. También hay que tener introducir signos menos cuando hay operadores
fermiónicos. Ninguno de estos problemas aparece en nuestro caso.

11
El operador cronológico aparece de forma natural en aplicaciones (operadores actuando sucesi-
vamente como operadores representan acciones actuando sucesivamente en el tiempo). Una impor-
tante propiedad práctica del operador cronológico es que dentro de T los operadores conmutan.7
Por ejemplo, es evidente que

T [A(t1 )B(t2 )] = T [B(t2 )A(t1 )]. (2.35)

El orden lo dicta la etiqueta temporal y no el orden en que están escritos. Como consecuencia directa
se tiene también T [eA eB ] = T [eA+B ]. Esta propiedad permite reescribir el operador de evolución
como8   i Z tf 
U (tf , ti ) = T exp − dt H(t) (tf ≥ ti ). (2.36)
~ ti
Evidentemente, cuando H es conservativo, esta expresión se reduce a la usual. El significado de la
ec. (2.36) es multiplicar ordenadamente cada exponencial infinitesimal. Pero dado que los operadores
conmutan también se puede proceder a desarrollar en serie la exponencial
∞  n Z t f Z tf
X 1 i
U (tf , ti ) = − dt1 · · · dtn T [H(t1 ) · · · H(tn )] (tf ≥ ti ). (2.37)
n=0
n! ~ t i t i

El concepto de producto ordenado de operadores se puede extender a operadores A(s) que


dependen de un parámetro s cualquiera, no necesariamente el tiempo.

2.2.2. Propagador de la partı́cula libre

Usando el operador de evolución podemos expresar el propagador como

hxf , tf |xi , ti i = hxf |U (tf , ti )|xi i. (2.38)

p2
Calculemos el propagador para una partı́cula libre con hamiltoniano H0 =
2M
hxf , tf |xi , ti i0 = hxf |e−i(tf −ti )H0 /~ |xi i. (2.39)

Nótese que aquı́ no suponemos tf ≥ ti (supondremos tf 6= ti ).


7
Que los operadores conmuten dentro de T no es exactamente equivalente a que “todo” conmuta. Ası́ si
por ejemplo tenemos matrices cuyos elementos de matriz son operadores, estos conmutan, como lo hacen los
c-números, pero el producto de matrices sigue siendo no conmutativo como siempre.
8
Para el caso tf < ti se puede usar U (ti , tf ), o bien introducir un operador anticronológico T ′ .

12
En lo que sigue vamos a trabajar en L2 (Rn ) ya que cuesta lo mismo. Y vamos a utilizar las
siguientes normalizaciones
hx1 |x2 i = δ(x1 − x2 ), hp1 |p2 i = (2π~)n δ(p1 − p2 ),
dn p (2.40)
Z Z
n
1 = d x|xihx| = n
|pihp|, hx|pi = eix·p/~ .
(2π~)

Como el propagador libre sólo depende de tf − ti , y xf − xi , tomamos

hx, t|0, 0i0 = hx|e−itH0 /~ |0i. (2.41)

Insertamos la identidad en espacio de momentos


dn p dn p −itp2 /(2M ~)+ixp/~
Z Z
−itp2 /(2M ~)
hx, t|0, 0i0 = hx|pie hp|0i = e . (2.42)
(2π~)n (2π~)n
Completando cuadrados en la forma cuadrática en la exponencial,
tp2 t(p − M x/t)2 M x2
− xp = − , (2.43)
2M 2M 2t
la expresión puede reescribirse como
dn p −it(p−M x/t)2 /(2M ~)
Z
iM x2 /(2~t)
hx, t|0, 0i0 = e e . (2.44)
(2π~)n
Introducimos el cambio de variable (para futura referencia)
Mx
p=q+ (2.45)
t
de modo que, usando que cada dimensión cartesiana da el mismo resultado al integrar,
dn q −itq2 /(2M ~)
Z
iM x2 /(2~t) 2
hx, t|0, 0i0 = e n
e = eiM x /(2~t) I(t)n , (2.46)
(2π~)
donde9  1/2
dx −itx2 /(2M ~) M t
Z
I(t) = e = e−iǫ(t)π/4 , ǫ(t) = . (2.47)
2π~ 2π~|t| |t|
2
9
Se trata de una integral de Fresnel. Es condicionalmente convergente. Para t > 0, partiendo de dx e−tx =
R
p p 2
π/t, definimos los nuevos caminos de integración z(s) = e±iπ/4 s, s ∈ R. π/t = ds e±iπ/4 e∓its , es decir
R
2 p 2 p
dx e∓itx = e∓iπ/4 π/t. Se deduce, dx e−itx = e−iǫ(t)π/4 π/|t| para t real no nulo.
R R

13
Usamos ǫ(x) para denotar el signo de x. El resultado se suele escribir simplemente
 n/2
M 2 /(2~t)
hx, t|0, 0i0 = eiM x , (2.48)
2πi~t
r
1 p p
donde se sobreentiende que := e−iǫ(t)π/4 / |t|, (es decir, Re ( 1/it) > 0).
it
2 /(2~t)
Nótese que el factor dependiente de x, eiM x , no es más que eiWcl (x,t;0,0)/~ .

2.2.3. Relación con el propagador y la integral de caminos

Usando (2.38) podemos demostrar fácilmente la ec. (2.20):


Z
ψ(xf , tf ) = hxf |ψ(tf )i = hxf |U (tf , ti )|ψ(ti )i = dn xi hxf |U (tf , ti )|xi ihxi |ψ(ti )i
Z (2.49)
= dn xi hxf , tf |xi , ti i ψ(xi , ti ).

Por otro lado la representación de Feynman del propagador como suma sobre caminos satisface
trivialmente la importante propiedad de consistencia del operador de evolución

U (tc , ta ) = U (tc , tb )U (tb , ta ). (2.50)

En efecto, tomando elementos de matriz e insertando la identidad 1 = dn xb |xb ihxb |, esta propie-
R

dad se puede reescribir en términos del propagador


Z
hxc , tc |xa , ta i = dn xb hxc , tc |xb , tb i hxb , tb |xa , ta i. (2.51)

A la derecha de la ecuación, en hxb , tb |xa , ta i se suma sobre todos los caminos xa → xb y en


hxc , tc |xb , tb i sobre todos los caminos xb → xc , cuando se suma sobre todos los posibles xb esto
produce todos los caminos xa → xc . Además, la acción es aditiva:

W [a → b] + W [b → c] = W [a → c], (2.52)

por lo que las fases se multiplican. Por tanto se reproduce el resultado hxc , tc |xa , ta i del lado
izquierdo.

14
También se ve que iterando la ec. (2.51), con la división en subintervalos de antes, ec. (2.30),
Z Z Z
hxf , tf |xi , ti i = d xN −1 · · · d xj · · · dn x1
n n
(2.53)
× hxf , tf |xN −1 , tN −1 i · · · hxj+1 , tj+1 |xj , tj i · · · hx1 , t1 |xi , ti i.
Esta expresión es válida para N finito y se puede representar por caminos poligonales entre (xi , ti )
y (xf , tf ). En el lı́mite N → ∞ produce una integral sobre caminos x(t). La condición U (t, t) = 1
implica hxf , t|xi , ti = δ(xf − xi ) lo cual indica que en ese lı́mite los caminos son continuos (la
amplitud de probabilidad de un salto finito xj → xj+1 tiende a cero con ǫ = ∆t → 0).

2.3. Integral de caminos

Para obtener la integral de caminos partiendo del formalismo canónico, empezamos con la
ec. (2.53)
Z NY
−1 N
Y −1
hxf , tf |xi , ti i = d n xj hxj+1 , tj+1 |xj , tj i, donde 0 = i, N = f. (2.54)
j=1 j=0

Aquı́
d n pj
Z
hxj+1 , tj+1 |xj , tj i = hxj+1 |U (tj+1 , tj )|xj i = hxj+1 |U (tj+1 , tj )|pj ihpj |xj i. (2.55)
(2π~)n

Aquı́ hemos elegido insertar la identidad en espacio de momentos a la derecha de U (tj+1 , tj ). Se


obtienen fórmulas análogas (pero no idénticas) si se inserta a la izquierda. Para tratar el elemento
de matriz hx|U |pi tomamos el lı́mite de ǫ pequeño
hx|U (t + ǫ, t)|pi = hx|e−iǫH(t)/~ |pi + O(ǫ2 )
h ǫ i
= hx| 1 − i H(t) |pi + O(ǫ2 )
h ~ ǫ i (2.56)
= hx|pi 1 − i H(x, p, t) + O(ǫ2 )
~
= hx|pie −iǫH(x,p,t)/~
+ O(ǫ2 ),
donde se ha introducido el sı́mbolo del operador H(t)10
hx|H(t)|pi
H(x, p, t) = . (2.57)
hx|pi
10
Dada una función f (x, p), el sı́mbolo le asocia un operador fˆ. En este sentido define una prescripción para
cuantizar observables clásicos, pero f (x, p) real no garantiza hermiticidad de fˆ. Una versión de sı́mbolo que
sı́ tiene esta propiedad es la transformada de Wigner.

15
Alternativamente para H(t) = K + V (t) (energı́a cinética más potencial),

hx|U (t + ǫ, t)|pi = hx|e−iǫ(K+V (t))/~ |pi + O(ǫ2 )


= hx|e−iǫV (t)/~ e−iǫK/~ |pi + O(ǫ2 ) (2.58)
−iǫp2 /(2M ~)
= hx|pie−iǫV (x,t)/~ e + O(ǫ2 ),

donde se ha utilizado Campbell-Hausdorff en la segunda igualdad. Por este procedimiento se pueden


acotar los errores y llegar a un resultado riguroso para potenciales suficientemente regulares [11].

Insertando el resultado en la ec. (2.55), se tiene

d n pj
Z
hxj+1 , tj+1 |xj , tj i = hxj+1 |pj ie−iǫH(xj+1 ,pj ,tj )/~ hpj |xj i + O(ǫ2 )
(2π~)n
(2.59)
dn pj −iǫH(xj+1 ,pj ,tj )/~ i(xj+1 −xj )pj /~
Z
= e e + O(ǫ2 ).
(2π~)n

2.3.1. Integral de caminos en el espacio de las fases

De nuevo, cada uno de los N factores en (2.54) tiene un error relativo O(ǫ2 ), lo cual equivale a
un error relativo total O(ǫ). De modo que
Z NY−1 n
" N −1  #
d xj d n p j d n p 0 iǫ X (xj+1 − xj )pj
hxf , tf |xi , ti i = lı́m exp − H(xj+1 , pj , tj ) .
N →∞
j=1
(2π~)n (2π~)n ~ j=0 ǫ
(2.60)

Esta expresión puede escribirse de forma más sugerente, como una integral de caminos en el
espacio de las fases (que no es todavı́a la integral de caminos usual). Para ello, usamos una notación
de caminos continuos
Z (xf ,tf )  Z tf 
i 
hxf , tf |xi , ti i = D(x(t), p(t)) exp dt ẋ(t)p(t) − H(x(t), p(t), t) . (2.61)
(xi ,ti ) ~ ti
R
Teniendo en cuenta que ẋp − H = L y W = dtL,
Z (xf ,tf )
i
hxf , tf |xi , ti i = D(x(t), p(t)) e ~ W [x(t),p(t)] . (2.62)
(xi ,ti )

16
Esta integral de caminos en el espacio de las fases es muy mal comportada matemáticamente y debe
tratarse con sumo cuidado [4].

2.3.2. Integral de caminos en el espacio de configuración

Para obtener la integral de caminos propiamente dicha consideramos una partı́cula (no relativista)
en un potencial
p2
H(t) = + V (x, t) (operadores). (2.63)
2M
Para este hamiltoniano el sı́mbolo es simplemente
p2
H(x, p, t) = + V (x, t) (c-números), (2.64)
2M
(cuadrático en p). Podemos hacer inmediatamente las integrales sobre pj (j = 0, 1, . . . , N − 1) en
la ec. (2.60), ya que son las mismas que aparecı́an para el propagador libre
n/2
dn pj iǫ/~ (xj+1 −xj )pj /ǫ−p2j /(2M )
 
M
Z
2

n
e = eiM (xj+1 −xj ) /(2~ǫ) (2.65)
(2π~) 2πi~ǫ

De este modo se obtiene finalmente la expresión de la integral de caminos


 nN/2 Z NY−1
" N −1  2 !#
M n iǫ X M xj+1 − xj
hxf , tf |xi , ti i = lı́m d xj exp − V (xj+1 , tj ) .
N →∞ 2πi~ǫ j=1
~ j=0 2 ǫ
(2.66)

Esta es la expresión literal. Podemos reescribirla usando una notación más sugestiva, con las
siguientes identificaciones
N −1 Z tf
xj+1 − xj X
tj → t, xj → x(t), → ẋ(t), ǫ→ dt,
ǫ j=0 t i

 nN/2 Z NY −1 Z (xf ,tf ) (2.67)


M
d n xj → Dx(t)
2πi~ǫ j=1 (xi ,ti )

Entonces
Z (xf ,tf ) R tf
dt ( M ẋ(t)2 −V (x(t),t))
hxf , tf |xi , ti i = Dx(t)ei/~ ti 2

(xi ,ti )
Z (xf ,tf )
(2.68)
= Dx(t)eiW [x(t)]/~ (tf > ti ).
(xi ,ti )

17
Aunque la deducción de (2.66) vale en todo caso, la interpretación más directa corresponde a tf > ti .
La ec. (2.68) expresa que la amplitud de probabilidad de encontrar la partı́cula en (xf , tf ), si estaba
en (xi , ti ), se obtiene sumando sobre caminos i → f cada uno con un peso eiW/~ . La normalización
de la “medida” Dx(t) está fijada por la condición
hx′ , t|x, ti = δ(x′ − x). (2.69)

En caso de ambigüedad, por definición la ec. (2.68) es una forma breve de ec. (2.66). La integral
sobre caminos continuos x(t) como tal no existe en sentido estricto pero se le puede dar sentido
riguroso en la formulación de tiempo imaginario.

En la formulación de integral de caminos de Feynman no hay operadores, sólo c-números. Sin


embargo es completamente equivalente al formalismo canónico. A menudo la formulación de Feyn-
man se considera más intuitiva y el lı́mite clásico más natural. La formulación canónica está basada
en el hamiltoniano, la de integral de caminos está basada en el lagrangiano.

2.3.3. Integral de caminos para A partı́culas

La extensión de la integral de caminos al caso de A partı́culas es inmediato. Para


A
X p(k)2
H(t) = (k)
+ V (x(1) , . . . , x(A) , t), (2.70)
k=1
2M

se aplica ec. (2.66) casi directamente. Basta considerar que el espacio de configuración ahora es
RnA y modificar la energı́a cinética,
(k) (k) 2
A
!
X M (k) xj+1 − xj
. (2.71)
k=1
2 ǫ

2.3.4. Integral de caminos en teorı́as de campos cuánticos

Un campo es un sistema mecánico con infinitos grados de libertad (generalmente un conjunto


continuo de grados de libertad). Supongamos un campo real, φ ∈ R. La configuración (espacial)
del campo viene dada por el valor del campo en cada punto del espacio φ(x), x ∈ R3 . Un camino
corresponde a una configuración espacial en cada instante t ∈ [ti , tf ], lo cual equivale a una confi-
guración espacio-temporal φ(x, t) = φ(x), x ∈ R4 . El camino une las configuración espacial inicial
φi (x) = φ(x, ti ) con la configuración espacial final φf (x) = φ(x, tf ).

18
Para una densidad lagrangiana (Klein-Gordon con interacción)
1
L(x) = ∂µ φ(x)∂ µ φ(x) − V (φ(x)), (2.72)
2
d3 x L(x) y la acción
R
el lagrangiano es L(t) = R3

tf  
1
Z Z
µ
4
W [φ] = dt L(t) = d x ∂µ φ(x)∂ φ(x) − V (φ(x)) . (2.73)
ti R3 ×[ti ,tf ] 2

La amplitud de probabilidad de propagación de (φi , ti ) a (φf , tf ) admite una integral de caminos,


Z (φf ,tf )
hφf , tf |φi , ti i = Dφ(x) eiW [φ]/~ (2.74)
(φi ,ti )

donde la integral funcional es sobre todas la configuraciones espacio-temporales del campo tales que
φi (x) = φ(x, ti ) y φf (x) = φ(x, tf ).

Nótese que si se aproxima R3 por n puntos x(k) (para eventualmente tomar n → ∞), el
campo pasa a ser equivalente a un vector n-dimensional φ(k) = φ(x(k) ) y la configuración espacio-
temporal es un camino en Rn , φ(k) (t) = φ(x(k) , t). La integral de caminos del campo discretizado
es completamente equivalente a la de una partı́cula en un espacio n-dimensional.

Por otro lado podemos generalizar a n campos, φA (x), A = 1, . . . , n, en d + 1 dimensiones


(x ∈ Rd ),
Z (φf ,tf ) n Pn
dd+1 x [ 12 ∂µ φA (x)∂ µ φA (x)−V (φ(x))]
Y R
hφf , tf |φi , ti i = DφA (x) ei/~ A=1 . (2.75)
(φi ,ti ) A=1

Resulta evidente que el camino x(t) de una partı́cula en Rn no es más que un campo con n
componentes en 0 + 1 dimensiones. La mecánica cuántica de un número finito de grados de libertad
(o simplemente mecánica cuántica) se puede ver como una teorı́a de campos 0 + 1 dimensional. A
su vez una integral ordinaria en Rn se puede ver como una teorı́a de campos en 0 + 0 dimensiones.
Al aumentar la dimensión del espacio-tiempo la integral funcional incluye más y más configuraciones
y se comporta peor, lo cual se manifiesta en divergencias ultravioleta. En 0 + 1 estas divergencias
son más suaves y pueden fijarse con prescripciones que proporciona el formalismo canónico, basado
en operadores. Para teorı́as de campos en dimensiones mayores esto no basta; hay que extender la
discretización ∆t = ǫ a x y hacer depender los parámetros del lagrangiano en ǫ para que el lı́mite
ǫ → 0 exista, en el proceso denominado renormalización.

19
En mecánica cuántica de un número finito de grados de libertad es más usual utilizar el formalismo
hamiltoniano. En teorı́as de campos es mucho más corriente usar el formalismo lagrangiano ya que
la acción es un escalar Lorentz, mientras que el hamiltoniano es una componente de un cuadrivector.

2.3.5. Integral de caminos en tiempo imaginario

Aquı́ suponemos H conservativo. La idea es, en lugar de e−itH/~ , considerar el operador de


evolución euclı́deo
UE (τ ) = e−τ H/~ τ > 0, (2.76)
y luego recuperar e−itH/~ mediante prolongación analı́tica (denominada
rotación de Wick) con τ = it de modo que τ es imaginario cuando t
τ=it es real (el caso de interés fı́sico). Es importante resaltar que, a pesar
del nombre, τ es real y positivo cuando se utiliza en e−τ H/~ .
t>0 τ En general H está acotado inferiormente pero no superiormente. En
este caso la condición τ ≥ 0 es necesaria para que el operador e−τ H/~
τ exista en un dominio suficientemente grande. [En hamiltonianos re-
lativistas, con una rama de energı́as negativas, hay que usar τ < 0 en
τ> 0 esa rama.] Ası́ si

H|ni = En |ni , E0 < E1 < · · ·


t<0 X X
|ψi = ψn |ni, |ψn |2 < ∞
n n (2.77)
X
Rotación de Wick. hψ|e−τ H/~ |ψi = |ψn |2 e−τ En /~ ,
n
el valor esperado existe en el semiplano Re (τ ) > 0 y de ahı́ se extiende al resto del plano complejo τ
(generalmente con multivaluación y singularidades en τ ≤ 0). En tiempo real se obtienen expresiones
condicionalmente convergentes y el postulado euclı́deo (es decir, empezar con tiempo imaginario y
luego rotar a tiempo real) proporciona una prescripción para ellas. Ası́ el propagador de la partı́cula
libre en tiempo imaginario se obtiene partiendo de

hx, τ |0, 0i0,E = hx|e−τ H0 /~ |0i, (τ > 0). (2.78)

La integral sobre momentos es gaussiana y absolutamente convergente


n/2
dn p −τ p2 /(2M ~)+ixp/~

M
Z
2 /(2~τ )
hx, τ |0, 0i0,E = e = e−M x . (2.79)
(2π~)n 2π~τ
El resultado de tiempo real se obtiene aplicando la rotación de Wick aquı́. El postulado euclı́deo

20
implica que en caso de ambigüedad debe usarse la prescripción t → t − i0+ [o t + i0+ en una rama
de energı́as negativas de H].

Para H(τ ) el operador de evolución euclı́deo está asociado a la ecuación de Schrödinger en


tiempo imaginario
1 τf
 Z 
−~∂τ |ψ(τ )i = H(τ )|ψ(τ )i , UE (τf , τi ) = T exp − dτ H(τ ) (τf > τi ), (2.80)
~ τi

donde T ordena los operadores de acuerdo con τ creciente. (Este es el orden natural, de modo que
∆τ > 0. Como se ha dicho ∆τ < 0 debe obtenerse por extensión analı́tica.)

Los elementos de matriz de UE (τf , τi ) proporcionan el propagador euclı́deo

hxf , τf |xi , τi iE = hxf |UE (τf , τi )|xi i. (2.81)

El propagador euclı́deo admite una integral de caminos que puede obtenerse siguiendo los mismos
pasos que antes o bien haciendo la rotación de Wick en el resultado final:
dx dx
Z Z
it → τ, → i , i dt → dτ (2.82)
dt dτ
produce
Z (xf ,τf )
hxf , τf |xi , τi iE = Dx(τ )e−WE [x(τ )]/~ (τf > τi ). (2.83)
(xi ,τi )

donde τf  
M
Z
2
WE [x(τ )] = dτ ẋ(τ ) + V (x(τ ), τ ) , (2.84)
τi 2
es la acción euclı́dea. (Para el caso de una partı́cula no relativista en un potencial, el lagrangiano
euclı́deo tiene el mismo aspecto que la energı́a usual, pero esta no es una propiedad general.)

Igualmente, la integral de caminos en el espacio de las fases en tiempo imaginario tiene la forma
Z (xf ,τf )
1 τf
 Z 

hxf , τf |xi , τi i = D(x(τ ), p(τ )) exp − dτ H(x(τ ), p(τ ), τ ) − iẋ(τ )p(τ ) .
(xi ,τi ) ~ τi
(2.85)

El adjetivo euclı́deo deriva de que bajo la rotación de Wick la métrica de Minkowski pasa a ser
la métrica euclı́dea
gµν xµ xν = −t2 + x2 → τ 2 + x2 = δµν xµE xνE . (2.86)

21
La construcción con tiempo imaginario tiene ventajas matemáticas y prácticas. Desde el punto
de vista matemático, permite una formulación rigurosa de la integral de caminos para el caso libre
sobre caminos continuos x(τ ) (sin referencia a discretización y paso al lı́mite). La medida
dτ 21 ẋ2
R
dµW [x(τ )] = Dx(τ ) e− (2.87)

es la medida de Wiener [11]. Como se verá más adelante, los caminos tı́picos son de tipo browniano.
Son caminos continuos pero no derivables en ningún punto (con probabilidad 1). Éste es el origen del
principio de incertidumbre en este formalismo. La medida se puede extender al caso de potenciales
suficientemente regulares.

Desde el punto de vista práctico, a diferencia de Dx(τ )eiW [x(t)]/~ , Dx(τ )e−WE [x(τ )]/~ es una
medida real y positiva a la que se puede aplicar el método Monte Carlo, es decir, hacer un muestreo
sistemático de caminos x(τ ) y utilizarlos para obtener observables fı́sicos. Esto es especialmente útil
en teorı́a complicadas en las que otros métodos son menos eficientes.

Es interesante que el propagador euclı́deo es manifiestamente simétrico bajo intercambio de xf


y xi :
hxf , τf |xi , τi iE = hxi , τf |xf , τi i′E , (2.88)
donde a la izquierda se utiliza el potencial V (x, τ ) mientras que a la derecha se utiliza el potencial
reflejado V ′ (x, τ ) = V (x, τi + τf − τ ). Esto es ası́ porque los caminos x(τ ) y x′ (τ ) = x(τi + τf − τ )
tienen la misma acción en ambos casos. En particular, para potenciales conservativos el propagador
euclı́deo hxf |xi ; τ iE es directamente simétrico.

Debe notarse que para el problema considerado de una partı́cula en un potencial, WE es real
(y acotado inferiormente si V (x, τ ) lo está). Para teorı́as más generales, no está garantizado que
e−WE /~ sea real, y viceversa, no todo peso e−WE /~ da lugar, bajo rotación de Wick, a una teorı́a
unitaria (es decir, con hamiltoniano hermı́tico).

Conexión con mecánica estadı́stica clásica. Nótese también la similitud entre la expresión del
propagador euclı́deo, con una suma sobre caminos, y la función de partición de mecánica estadı́stica
clásica, en la que hay una suma sobre configuraciones. En esta analogı́a, los caminos serı́an las
configuraciones, WE corresponderı́a al hamiltoniano y ~ a la temperatura. En esta imagen, las
fluctuaciones térmicas corresponderı́an a las fluctuaciones cuánticas (en tiempo imaginario).

22
2.4. Desarrollo semiclásico

2.4.1. Principio de Hamilton

Las ecuaciones de movimiento de la mecánica clásica se pueden hacer derivar del principio de
Hamilton: dados (xi , ti ) y (xf , tf ), el camino clásico (solución de las ecuaciones) xcl (t) es un
extremo de la acción, es decir, la deja estacionaria en primero orden

δW [x(t)] = 0, para xcl (t) → xcl (t) + δx(t), δx(ti ) = δx(tf ) = 0. (2.89)

Como se ha visto el lı́mite clásico (en la forma de ecuación de Hamilton-Jacobi) se puede obtener
a partir del formalismo canónico. Se obtiene en forma muy directa (e instructiva) también a partir de
la integral de caminos. En efecto, en unidades naturales ~ = 1 y un sistema es clásico porque tiene
una acción (adimensional) muy grande. Alternativamente, se pueden usar unidades macroscópicas
(humanas) en las que ~ es pequeña. Entonces una forma práctica de tomar el lı́mite clásico es
introducir ~ en las expresiones y hacer ~ → 0 en ellas.

Consideremos un conjunto de caminos x(k) (t) próximos entre sı́, que unan (xi , ti ) con (xf , tf ).
Su contribución a la suma sobre caminos será
(k)
X
eiW /~ . (2.90)
k

Cuando estos caminos están lejos de xcl (t) la acción no es estacionaria y varı́a substancialmente de
(k) (k′ )
un camino a otro. Como consecuencia la fase relativa entre ellos ei(W −W )/~ se vuelve aleatoria
en el lı́mite ~ → 0, su promedio es cero en este lı́mite. En cambio, cuando los caminos son próximos
a xcl (t) las variaciones en W de un camino a otro son pequeñas (cero en primer orden de δx(k) =
x(k) − xcl ) y los sumandos producen una interferencia constructiva (se suman con la misma fase).
La suma de caminos tiene interferencia destructiva fuera del camino clásico y en el lı́mite ~ → 0 la
solución clásica domina la integral de caminos.

El efecto es más evidente incluso en tiempo imaginario.


X En este caso el camino “clásico” es la
−W (k) /~
solución de δWE [x(τ )] = 0. Cuando ~ → 0, la suma e está dominada por el camino
k
con mı́nima acción, ya que para cualquier camino que no sea clásico, el peso relativo tiende a cero
exponencialmente
(k)
e−(W −Wcl )/~ → 0, W (k) > Wcl . (2.91)
~→0

23
De hecho en estas ideas se basan los métodos de la fase estacionaria (tiempo real) y de punto
de silla o de Laplace (tiempo imaginario), para evaluar integrales del tipo (usualmente en varias
dimensiones)
Z +∞ Z +∞
iλf (s)
F (λ) = ds e , FE (λ) = ds e−λf (s) , λ → ∞. (2.92)
−∞ −∞

λ corresponde a 1/~ y en el lı́mite λ → ∞ estas integrales están dominadas por el valor de f (s0 )
siendo s0 un punto estacionario (o crı́tico), es decir, tal que f ′ (s0 ) = 0, y que corresponde a la
solución clásica:
F (λ) ≈ eiλf (s0 ) ∆s0 (λ), (f ′ (s0 ) = 0), (2.93)
donde ∆s0 (λ) representa el tamaño tı́pico del intervalo alrededor de s0 tal que f ′ (s) ≈ 0 a efectos
de la integral. Si hay varios puntos estacionarios hay una contribución por cada uno de ellos.

Para ver esto en más detalle consideramos el caso euclı́deo y modelamos la integral de caminos
con una integral en una dimensión:
Z +∞
1
Z= dx e− ~ W (x) , (2.94)
−∞

donde ~ > 0 es un parámetro y W (x) es independiente de ~.11

Queremos estudiar el desarrollo semiclásico de Z, es decir, su comportamiento para ~ pequeño.


Suponemos W real, acotada inferiormente y con un punto estacionario en el que la derivada segunda
no se anula,
mı́nimo en x0 , W ′ (x0 ) = 0, W ′′ (x0 ) > 0. (2.95)
Puesto que en el lı́mite ~ → 0 la integral está dominada por el valor en x0 desarrollamos W (x) en
torno al mı́nimo:
1 1 1 (4)
W (x) = W0 + (x − x0 )2 W0′′ + (x − x0 )3 W0′′′ + (x − x0 )4 W0 + O((x − x0 )5 ) (2.96)
2 3! 4!
La idea es insertar esta expresión en la integral de Z, tratar la parte cuadrática de forma exacta y
el restopde forma perturbativa. La parte cuadrática es una gaussiana centrada en x0 con anchura
∆x ∼ ~/W0′′ :
Z ≈ e−W0 /~ ∆x. (2.97)
11
Las fórmulas siguientes se pueden adaptar al caso W (x, ~) si la dependencia en ~ es analı́tica.

24
Para hacer un desarrollo sistemático y llevar las cuentas de potencias de ~ hacemos un cambio a
una variable ξ tal que ∆ξ ∼ 1
(n)
r
W0′′ W0
ξ := (x − x0 ) , wn := , n = 3, 4, . . . (2.98)
~ (W0′′ )n/2
En función de esta variable
Z +∞ s  
−W0 /~ ~ 1 2 1 1/2 3 1 4 3/2
Z=e dξ exp − ξ − ~ w3 ξ − ~w4 ξ + O(~ )
−∞ W0′′ 2 3! 4!
s
~ −W0 /~ +∞
 
1 1/2 1 1
Z
−ξ 2 /2 3 4 2 6 3/2
= e dξe 1 − ~ w3 ξ − ~w4 ξ + ~w ξ + O(~ ) .
W0′′ −∞ 3! 4! 2 × 3!2 3
(2.99)

Las integrales pueden hacerse con


Z +∞ r
1 2 2π b2 /(2a) 2 /(2a)
dxe− 2 ax +bx = e , hebx ia = eb ,
−∞ a
∞ ∞ (2.100)
X bm m X 1 b2n 2n (2n − 1)!!
hx ia = , hx ia = .
m! 2n n! an an
m=0 n=0

En nuestro caso
R +∞ 2 /2
√ dξ e−ξ ξn
Z +∞ 
2 −∞ (n − 1)!! n par
dξe−ξ /2 = 2π n
hξ i = R +∞ = (2.101)
−∞ dξ e−ξ2 /2 0 n impar
−∞
s  
2π~ −W0 /~ 1 1/2 3 1 4 1 2 6 2
Z= e 1 − ~ w3 hξ i − ~w4 hξ i + ~w hξ i + O(~ ) , (2.102)
W0′′ 3! 4! 2 × 3!2 3
con hξ 3 i = 0, hξ 4 i = 3, hξ 6 i = 15. A todos los órdenes, los términos con potencias semienteras de
~ llevan potencias impares de ξ y por tanto se anulan.

Una forma práctica de escribir el resultado es términos de la acción efectiva, Γ,

Z = e−Γ/~ (2.103)

con
W ′′
 
~ 1 5 2
Γ = W0 + log 0 + ~2 w4 − w3 + O(~3 ). (2.104)
2 2π~ 8 24

25
Figura 1: Los dos primeros diagramas son W0 y la corrección a un loop. El tercero es el término
con w4 y los dos últimos términos con w3 .

En el lı́mite clásico la acción efectiva (o acción cuántica) se reduce a la clásica. Nótese que esta
estimación no tiene las dimensiones correctas (Z no es adimensional si x no lo es) y eso se arregla
con la primera corrección cuántica, O(~). El resultado para la acción efectiva se puede expresar
en términos de diagramas de Feynman (más útiles en problemas multidimensionales). En estos
diagramas cada nueva potencia de ~ corresponde a un loop más por tanto el contaje en potencias
de ~ es un desarrollo en número de loops. Los términos wn producen vértices de n puntos. Los
diagramas son conexos para Γ.

Debe notarse que en general los desarrollos semiclásicos no son convergentes sino sólo asintóticos:
si Rn (~) es el resto después guardar hasta O(~n ) inclusive, Rn (~) = O(hn+1 ) (es decir, |Rn | < Kn ~n
en un entorno de ~ = 0), pero lı́mn→∞ Rn (para ~ fijo) puede no existir o no ser necesariamente
cero. Tı́picamente, el error de truncación es del orden del último término considerado y en las series
asintóticas los términos empiezan a crecer a partir de cierto n dependiente de ~ (menor cuanto mayor
sea ~), por lo que la estimación empeora si se añaden más términos. Que la serie sea asintótica
implica que el error se puede reducir tomando ~ más pequeño.

2.5. La ecuación de Schrödinger

De acuerdo con la integral de caminos la amplitud de probabilidad de encontrar la partı́cula en


un punto evoluciona con
Z Z x(tf )=xf
i tf
Dx(t)e ~ ti dt [ 2 ẋ −V (x(t),t)] ψ(xi , ti ).
M 2
R
n
ψ(xf , tf ) = d xi (2.105)
x(ti )=xi

Queremos ver que ψ(xf , tf ), dado por esta fórmula, cambia con tf según la ecuación de Schrödin-
ger. Ya vimos que la integral de caminos es compatible con la existencia de un operador de evolución,
ası́ que basta ver la variación de la función de onda en un dt:
ti = t, tf = t + ǫ, ǫ → 0+ , x := xf , y := xi . (2.106)

26
Como ǫ es pequeño supondremos que la integral de caminos se puede estimar por un camino tı́pico
pesado por un factor N (ǫ) que tiene en cuenta el número (o peso) de los caminos relevantes.12 En
la práctica tomamos
Z
iǫ M x−y 2
h i
2 ( ǫ )
n −V (y ′ ,t′ )
ψ(x, t + ǫ) = N (ǫ) d ye ~
ψ(y, t), (2.107)

donde han tomado un punto y tiempo intermedios para estimar el promedio del potencial sobre el
camino:13
y ′ = y + λs (x − y), t′ = t + λt ǫ, 0 ≤ λs,t ≤ 1. (2.108)
Debido a las grandes oscilaciones
√ en la fase de la gaussiana imaginaria, el integrando sólo será rele-
vante cuando |x − y|p∼ ǫ. (El argumento es más directo en tiempo imaginario, donde la gaussiana
es real con anchura ǫ~/M .) Para llevar las cuentas en potencias de ǫ es conveniente usar una
variable normalizada ξ = O(1)
y−x √ √
ξ= √ , y =x+ ǫξ, y ′ = x + (1 − λs ) ǫξ, dn y = ǫn/2 dn ξ. (2.109)
ǫ

Z √
iM 2 iǫ
n/2
ψ(x, t + ǫ) = N (ǫ)ǫ dn ξe 2~ ξ e− ~ V (x+(1−λs ) ǫξ, t+λt ǫ)
ψ(x + ǫξ, t). (2.110)

Desarrollamos en potencias de ǫ1/2 los dos factores del integrando.


iǫ iǫ
1/2 ))
“eV ” = e− ~ (V (x,t)+O(ǫ V (x, t) + O(ǫ3/2 ),
=1−
~ (2.111)
√ 1
“ψ” = ψ(x, t) + ǫξ∇ψ(x, t) + ǫξi ξj ∇i ∇j ψ(x, t) + O(ǫ3/2 )
2
 
ǫ iǫ
Z
iM 2
n/2 n ξ 2
ψ(x, t + ǫ) = N (ǫ)ǫ d ξe 2~ ψ + ξi ξj ∇i ∇j ψ − V ψ + O(ǫ )
2 ~
  (2.112)
ǫ iǫ
Z
iM 2
2 n/2
= ψ + hξi ξj i∇i ∇j ψ − V ψ + O(ǫ ) N (ǫ)ǫ dn ξe 2~ ξ
2 ~ (x,t)

Aquı́ se ha usado que las potencias semienteras de ǫ siempre van con un número impar de ξ y por
tanto se anulan al integrar (el error pasa de O(ǫ3/2 ) a O(ǫ2 )), y se ha definido
R n iM ξ2
d ξ e 2~ f (ξ)
hf (ξ)i = R iM 2 (2.113)
dn ξ e 2~ ξ
12
Alternativamente, puede tomarse ec. (2.66) y probar que esa expresión reproduce la ecuación de Schrödinger.
13
Otras opciones son V ∼ λs V (x) + (1 − λs )V (y), etc.

27
Algunas integrales:
√ 2π n/2
Z +∞ Z  
2 −aξ2 /2
dx e−x /2 = 2π, d ξe n
=
−∞ a
1 2π n/2
 Z  
1 1 ∂
Z Z
n −aξ2 /2 n −aξ2 /2 2 n −aξ2 /2
d ξe ξi ξj = δij d ξ e ξ = δij −2 d ξe = δij
n n ∂a a a
1
hξi ξj ia = δij .
a
(2.114)

M
En nuestro caso a = i~
. Evidentemente, para que ambos lados de (2.112) coincidan cuando
ǫ → 0 hace falta que
 n/2
M
Z
iM
n/2 n ξ2
1 = N (ǫ)ǫ d ξe 2~ , N (ǫ) = . (2.115)
2πi~ǫ
Por otro lado
i~
hξi ξj i = δij . (2.116)
M
ǫ i~ 2 iǫ
ψ(x, t + ǫ) = ψ(x, t) + ∇ ψ(x, t) − V (x, t)ψ(x, t) + O(ǫ2 ) (2.117)
2M ~
Comparando con
ψ(x, t + ǫ) = ψ(x, t) + ǫ∂t ψ(x, t) + O(ǫ2 ), (2.118)
se deduce
~2 2
 
i~∂t ψ(x, t) = − ∇ + V (x, t) ψ(x, t) (2.119)
2M
que es la ecuación de Schrödinger. Nótese que la normalización divergente N (ǫ) es un tipo de
renormalización ultravioleta que se soslaya en el formalismo canónico por la condición U (t, t) = 1.
También se ve que la elección concreta de los parámetros λs y λt no es relevante en el lı́mite del
continuo (lı́mite ǫ → 0). Como se verá la cosa cambia en presencia de un potencial vector.

2.6. Partı́cula en un campo electromagnético

El lagrangiano de una partı́cula no relativista de carga q en un campo electromagnético externo


es
M 2 q
L(x, ẋ, t) = ẋ + ẋA(x, t) − qΦ(x, t) (2.120)
2 c
28
(unidades en el sistema cgs, c es la velocidad de la luz), donde Φ y A son el potencial escalar y
vector.

La ecuación de movimiento resultante es


q
M ẍ = qE(x, t) + ẋ × B(x, t) := FLorentz , (2.121)
c
donde
1
E = −∇Φ − ∂t A, B = ∇ × A, (2.122)
c
son el campo eléctrico y magnético respectivamente.

2.6.1. Invariancia gauge

Tanto E como B son invariantes gauge, es decir, los nuevos potenciales


1
Φ′ (x, t) = Φ(x, t) − ∂t Λ(x, t), A′ (x, t) = A(x, t) + ∇Λ(x, t), (2.123)
c
producen los mismos campos E y B que (Φ, A). Aquı́ Λ(x, t) es una función arbitraria. Nótese que
q no aparece ya que el campo electromagnético existe independientemente de las partı́culas cargadas
y se acopla a cada partı́cula de acuerdo con la carga de ésta.

Como la fuerza de Lorentz es invariante gauge, se deduce que a nivel clásico una transformación
gauge no tiene efecto ya que no modifica la solución clásica xcl (t).

2.6.2. Partı́cula cargada cuántica

A nivel cuántico la forma más fácil de ver el efecto de una transformación de gauge sobre la
función de onda es usando el formalismo lagrangiano, es decir, la integral de caminos. Suponemos
que las fórmulas derivadas para una partı́cula en un potencial se extienden al caso de un campo
electromagnético:
Z (xf ,tf )
hxf , tf |xi , ti i = Dx(t)eiW [x(t)]/~ . (2.124)
(xi ,ti )

Bajo una transformación de gauge el lagrangiano se transforma ası́


M 2 q dq
L(x, ẋ, t) → L′ (x, ẋ, t) = ẋ − qΦ′ (x, t) + ẋA′ (x, t) = L(x, ẋ, t) + Λ(x, t), (2.125)
2 c dt c

29
d
donde = ∂t + ẋ∇ es la derivada total con respecto de t. Como es sabido, sumar una derivada
dt
total a un lagrangiano no afecta a las ecuaciones de Euler-Lagrange asociadas.14 El cambio en la
acción es
Z tf Z tf
′ ′ dq
W [x(t)] → W [x(t)] = dt L (x, ẋ, t) = W [x(t)] + dt Λ(x, t)
ti ti dt c (2.126)
q q
= W [x(t)] + Λ(xf , tf ) − Λ(xi , ti ).
c c
Se deduce que la transformación gauge de la acción es independiente del camino concreto seguido
y sólo depende de los extremos (xi , ti ) y (xf , tf ).

La modificación en el propagador se obtiene fácilmente


Z (xf ,tf )
′ [x(t)]/~

hxf , tf |xi , ti i = Dx(t)eiW
(xi ,ti )
Z (xf ,tf )
q q (2.127)
= Dx(t)ei(W [x(t)]+ c Λ(xf ,tf )− c Λ(xi ,ti ))/~
(xi ,ti )
iq iq
= e ~c Λ(xf ,tf ) e− ~c Λ(xi ,ti ) hxf , tf |xi , ti i.

Puesto que al variar xf lo que se obtiene es la función de la partı́cula en tf (que estaba en xi en


ti ) se deduce que bajo transformaciones de gauge la función de onda se transforma según
iq
ψ ′ (x, t) = e ~c Λ(x,t) ψ(x, t). (2.128)

Se puede interpretar como una transformación pasiva, en la que se cambia localmente la fase de
cada estado localizado |xi
iq
|xi′ = e− ~c Λ(x,t) |xi. (2.129)
Cada partı́cula responde a la transformación de gauge de acuerdo con su carga eléctrica.

Para ver esto en el formalismo canónico, obtenemos el hamiltoniano (clásico) mediante la trans-
formada de Legendre del lagrangiano. Se obtiene
1  q 2
H= p − A(x, t) + qΦ(x, t). (2.130)
2M c
14
Como se ve a continuación, la acción cambia por una contribución que depende de (xi , ti ) y (xf , tf ) pero
no del camino x(t), por tanto no modifica δW en el principio de Hamilton.

30
El hamiltoniano cuántico debe proponerse atendiendo a criterios de consistencia matemática y fe-
nomenológica. Para tener un buen lı́mite clásico, tı́picamente se sustituyen p y x por sus versiones
cuánticas eligiendo el orden de modo que H sea hermı́tico. En nuestro caso además se quiere que
se respete invariancia gauge: que usar (Φ, A) o (Φ′ , A′ ) difiera en una transformación de simetrı́a.
H con A y p ordenados como en (2.130) satisface esta propiedad,15

q2 2
 
1 2 q
H= p − (pA + Ap) + 2 A (x, t) + qΦ(x, t). (2.131)
2M c c

Queremos verificar que si ψ(x, t) es una solución de la ecuación de Schrödinger para (Φ, A),
ψ ′ (x, t) en (2.128) lo es para (Φ′ , A′ ). En efecto, introduciendo la derivada covariante
iq
Dµ = ∂ µ + Aµ , Aµ = (cΦ, A), A′µ = (cΦ′ , A′ ) = Aµ − ∂ µ Λ, (2.132)
~c
la ecuación de Schrödinger se puede escribir

~2 2
i~Dt ψ(x, t) = − D ψ(x, t). (2.133)
2M
Entonces16
iq ′ iq iq iq iq iq
Dµ′ ψ ′ = (∂µ + Aµ )(e ~c Λ ψ) = e ~c Λ (∂µ + A′µ + ∂µ Λ)ψ = e ~c Λ Dµ ψ. (2.134)
~c ~c ~c
iq
Igualmente D ′2 ψ ′ = e ~c Λ D 2 ψ, y se verifica que la transformación de gauge es una simetrı́a.

El hamiltoniano en (2.133) se obtiene del hamiltoniano libre aplicando la prescripción de aco-


plamiento mı́nimo, es decir, con las sustitución ∂µ → Dµ . Esta prescripción garantiza invariancia
gauge. En general puede haber términos adicionales invariantes gauge no mı́nimos, por ejemplo,
µSB, siendo S un espı́n.

2.6.3. Ordenación de operadores

Al pasar de una teorı́a clásica a su versión cuántica hay una ambigüedad en cómo ordenar los
operadores. Aunque en la integral de caminos intervienen c-números, esas ambigüedades siguen
15
Hermiticidad y lı́mite clásico no fijan H. Por ejemplo se puede añadir λ[pA, Ap] que es hermı́tico para λ
real y se anula en el lı́mite clásico, pero no es invariante gauge.
16
La derivada es covariante porque Dµ ψ, a diferencia de ∂µ ψ, se transforma igual que ψ bajo transformaciones
gauge.

31
presentes en la forma de definir con precisión el significado de la integral funcional. Esto se puede
ver en el caso de una partı́cula en un campo electromagnético. Supongamos que discretizamos la
integral de caminos y queremos ver qué hamiltoniano produce (seguimos los pasos de la sec. ):
Z
iǫ M x−y 2 q x−y
 
2 ( ǫ )
n + c ( ǫ )A(y ′ ,t′ )−qΦ(y ′ ,t′ )
ψ(x, t + ǫ) = N (ǫ) d ye ~
ψ(y, t), (2.135)

con y ′ = y + λs (x − y), t′ = t + λt ǫ. Cambiando a variable ξ = (y − x)/ ǫ,

Z
iM 2 iq √ √ iǫq √
n/2
ψ(x, t + ǫ) = N (ǫ)ǫ dn ξe 2~ ξ e− ~c ǫξA(x+(1−λs ) ǫξ ,t+λt ǫ)− ~ Φ(x+(1−λs ) ǫξ ,t+λt ǫ) ψ(x + ǫξ, t)

√ √
(2.136)
iq
A − ~c ǫξi (Ai +(1−λs ) ǫξj ∇j Ai )+O(ǫ3/2 )
“e ” = e
iq √ iq q2
=1− ǫξi Ai − (1 − λs )ǫ ξi ξj (∇j Ai ) − 2 2 ǫ ξi ξj Ai Aj + O(ǫ3/2 )
~c ~c 2~ c
iǫq (2.137)
“eΦ ” = 1 − Φ + O(ǫ3/2 )
~
√ 1
“ψ” = ψ + ǫξi ∇i ψ + ǫ ξi ξj ∇i ∇j ψ + O(ǫ3/2 ).
2
Sustituyendo y tomando los promedios, se ve que N (ǫ) toma el mismo valor que antes y

ψ(x, t + ǫ) = h“eA ”“eΦ ”“ψ”i


~2 2 q2 (2.138)
  
iǫ 2 i~q
= 1− − ∇ + qΦ + 2
A + (A∇ + (1 − λs )(∇A)) ψ
~ 2M 2M c Mc

Teniendo en cuenta que (∇A) = [∇, A] y ∇ = ip/~, se deduce que el hamiltoniano es

p2 q q2
A2 + qΦ.

H= − λs Ap + (1 − λs )pA + 2
(2.139)
2M Mc 2M c
1
Si se elige λs = 2
1  q 2
H= p − A(x, t) + qΦ(x, t), (2.140)
2M c
que garantiza una dinámica unitaria (H hermı́tico) e invariante gauge. Se deduce que el resultado
final difiere por términos finitos que sobreviven al lı́mite del continuo ǫ → 0, dependiendo de cómo se
discretice en detalle. Esto no ocurrı́a con el potencial escalar solo pero sı́ con el potencial vector. El
origen es una divergencia ultravioleta presente en la integral de caminos. El término más divergente
es la energı́a cinética ẋ2 , que lleva dos derivadas y por tanto requiere más potencias de ǫ en el
denominador. Esta divergencia se cancela con N (ǫ). La siguiente divergencia es el término ẋA que

32
tiene una derivada. Es divergente pero sólo requiere una prescripción (cómo ordenar los operadores)
para fijarlo. El término con Φ no introduce divergencias y no es sensible a cómo se regule a través
de λs,t .

2.7. Efecto Aharonov-Bohm

Supongamos que en R3 hay una región C cilı́ndrica y de longitud infinita en la cual la partı́cula
no puede penetrar. En este caso el espacio disponible para la partı́cula, R3 − C, no es simplemente
conexo. Como consecuencia el propagador puede descomponerse de forma natural del siguiente
modo: X
hxf , tf |xi , ti i = hxf , tf |xi , ti in (2.141)
n∈Z

donde la componente n-ésima sólo suma sobre caminos que dan exactamente n vueltas alrededor
de la zona excluida antes de llegar a xf .17 Fijado xi se tiene
X
ψ(xf , tf ) = ψn (xf , tf ). (2.142)
n∈Z

Efectivamente la función de onda es multivaluada y se puede pasar de la rama n-ésima a la n′ -ésima


haciendo que xf dé n′ − n vueltas alrededor del cilindro y vuelva al mismo punto.18

Suponemos que xi y xf están en lados opuestos del cilindro y para simplificar sólo consideramos
los caminos que rodean el cilindro por la “derecha” o por la “izquierda” (sin vueltas adicionales),
X
ψ(xf , tf ) = ψR (xf , tf ) + ψL (xf , tf ), ψR,L = eiW [xR,L (t)]/~ . (2.143)
xR,L (t)

Supongamos que hay un solenoide dentro del cilindro de modo que se puede hacer pasar un flujo
magnético ΦB por su interior. No hay campo magnético en el exterior y suponemos un régimen
estacionario. La acción a lo largo de un camino x(t) será

q xf
Z
W [x(t)] = W0 [x(t)] + Wm [x(t)], Wm [x(t)] = dxA, (2.144)
c xi
17
Una de las dos direcciones del eje del cilindro es “hacia arriba” por definición. Vueltas en sentido antihorario
(visto desde arriba) dan un n positivo.
18
Alternativamente se puede trabajar en la “superficie de Riemann” o espacio recubridor de R3 − C. Cada
punto x ∈ R3 − C alcanzado después de dar n vueltas es un punto distinto xn del espacio recubridor. En el
espacio recubridor la función de onda es univaluada y R3 − C multivaluado.

33
donde W0 es la acción en ausencia de campo magnético. Nótese que la contribución magnética
sólo depende de la trayectoria. Todos los caminos por la derecha [resp. izquierda] dan la misma
contribución magnética Wm,R [ resp. Wm,L ] ya que entre dos de esos caminos no se rodea flujo
magnético. Por tanto
ψ = ψ0,R eiWm,R /~ + ψ0,L eiWm,L /~ . (2.145)
En cambio entre R y L sı́ se rodea flujo (independiente de las trayectorias concretas):
Z Z 
q q
I Z
Wm,R − Wm,L = − dxA = dxA = dSB = ΦB . (2.146)
c R L S c
Para la función de onda  iq

ψ = eiWm,L /~ ψ0,R e ~c ΦB + ψ0,L (2.147)
La fase global no influye en la densidad de probabilidad de detectar la partı́cula en xf . De hecho
es posible elegir el gauge de modo que Wm,L se anule, o Wm,R se anule, pero no ambos a la vez si
ΦB 6= 0, ya que el flujo es un invariante gauge. Más generalmente
X iqn
ψ(xf , tf ) = ψ0,n (xf , tf )e ~c ΦB . (2.148)
n∈Z

La suma sobre n produce un patrón de interferencia que se puede modificar variando ΦB . Implica
que la probabilidad de detectar la partı́cula en un punto depende del flujo magnético que atraviesa
por el cilindro, incluso aunque la partı́cula no está en ningún momento sometida al campo magnético
(efecto Aharonov-Bohm). Esto demuestra que una partı́cula cuántica es sensible a Aµ (aunque de
forma invariante gauge) y no sólo a la fuerza de Lorentz.

2.8. Acciones cuadráticas

2.8.1. Propagador de acciones cuadráticas

Supongamos que tenemos una integral en n dimensiones del tipo


1
Z
Z = dn x e−W (x) , W (x) = aij xi xj + bi xi + c, (2.149)
2
es decir, la función W es a lo sumo cuadrática, y sea x0 el punto estacionario, ∇W (x0 ) = 0.
Desarrollando en serie W entorno a x0
1
W (x) = W (x0 ) + aij (xi − xi0 )(xj − xj0 ) := W (x0 ) + W2 (x − x0 ), (2.150)
2
34
donde W2 (x) = 21 aij xi xj denota la parte cuadrática de W . Se deduce
Z
−W (x0 )
Z=e dn x e−W2 (x) = Zcl Z2 , (2.151)

el primer factor sólo depende de W en el punto estacionario y el segundo sólo depende de la parte
cuadrática de W .

Esto se puede extender de forma inmediata a la integral de caminos para una acción a lo sumo
cuadrática en x(t)
Z tf Z tf
′ 1 ′ i j ′
W [x(t)] = dtdt Aij (t, t )x (t)x (t ) + dtBi (t)xi (t) + C
ti 2 ti (2.152)
= W [xcl (t)] + W2 [x(t) − xcl (t)],
Donde xcl (t) es la solución clásica (que deja estacionaria la acción) que conecta (xi , ti ) con (xf , tf ).
Definiendo la fluctuación respecto de la solución clásica como
y(t) = x(t) − xcl (t), (2.153)
es inmediato que para la fluctuación
y(ti ) = y(tf ) = 0, (2.154)
ya que los extremos están fijos para todos los caminos x(t) en la integral. En consecuencia
Z (xf ,tf )
hxf , tf |xi , ti i = Dx(t) eiW [x(t)]/~
(xi ,ti )
(0,tf )
(2.155)
Z
iW [xcl (t)]/~
=e Dy(t)eiW2 [y(t)]/~
(0,ti )

:= hxf , tf |xi , ti icl h0, tf |0, ti i2 .


Este resultado es exacto. El primer factor sólo depende de la acción sobre el camino clásico. El
segundo contiene las fluctuaciones cuánticas pero sólo depende de la parte cuadrática de la acción
y no depende de los extremos xi y xf .

La relación (2.152) se puede obtener mediante desarrollo en serie funcional:


δW [x(t)] i 2
′ 1 δ W [x(t)]
Z Z
W [x(t) + y(t)] = W [x(t)] + dt y (t) + dtdt y i (t)y j (t′ ). (2.156)
δxi (t) 2 δxi (t)δxj (t′ )
La serie se trunca por ser la acción a lo sumo cuadrática. La derivada segunda es Aij (t, t′ ) y es
independiente de x(t), y ese término coincide con W2 [y(t)]. Desarrollando en torno a x(t) = xcl (t),
el término lineal en y se anula.

35
2.8.2. Lagrangianos cuadráticos

Ejemplos de lagrangianos a lo sumo cuadráticos son los del tipo


1 1
L = mij (t)ẋi (t)ẋj (t)+ ωij (t)xi (t)xj (t)+bij (t)ẋi (t)xj (t)+hi (t)ẋi (t)+fi (t)xi (t)+b(t). (2.157)
2 2
(Por ejemplo, el término ẋi xj corresponde a Aij (t, t′ ) = −bij (t′ )δ ′ (t − t′ ).)

Vamos a considerar en más detalle el problema unidimensional19


1 1
L = M ẋ2 − c(t)x2 + f (t) x. (2.158)
2 2
La ecuación de movimiento
M ẍ + c(t)x = f (t) (2.159)
proporciona la solución clásica y permite calcular el primer factor, hxf , tf |xi , ti icl . Respecto del
segundo factor
Z (0,tf ) R tf
Dy(t)e 2~ ti [M ẏ −c(t)y ]dt ,
i 2 2
h0, tf |0, ti i2 = (2.160)
(0,ti )

para calcularlo discretizamos el intervalo temporal en N + 1 subintervalos de tamaño ǫ:


 (N +1)/2
M
Z PN
h0, tf |0, ti i2 = lı́m dy1 · · · dyN
i
e 2~ j=0 [ Mǫ (yj+1 −yj )2 −ǫc(tj )yj2 ] (2.161)
N →∞ 2πi~ǫ

donde y0 = yN +1 = 0. Por conveniencia definimos nuevas variables


r
M
zj = yj , z0 = zN +1 = 0, (2.162)
~iǫ
de modo que
r
M dz1 · · · dzN − PNj=0 12
Z h 2
i
ǫ
(zj+1 −zj )2 − M c(tj )zj2
h0, tf |0, ti i2 = lı́m e (2.163)
N →∞ 2πi~ǫ (2π)N/2
 
19 d 1 2
De hecho, términos del tipo b(t)ẋx+h(t)ẋ se pueden generar mediante bx + hx . En tres dimensiones
dt 2
la parte antisimétrica de bij no se puede eliminar ası́ y corresponde a un campo magnético uniforme.

36
La exponencial puede escribirse como exp(− 12 Kij z i z j ) donde K es una matriz tridiagonal real y
simétrica de dimensión N ,
 
a1 −1 0 ··· 0 0
−1 a2 −1 ··· 0 0 
 
 0 −1 a3 ··· 0 0  ǫ2
K =  .. .. .. .. .., aj = 2 − c(tj ). (2.164)
 
 . ... M
 . . . .

0 0 0 ··· aN −1 −1
0 0 0 ··· −1 aN

La integral
dN z
Z
1 T
I= N/2
e− 2 z Kz (2.165)
(2π)
puede calcularse haciendo una rotación ortogonal a la base en la que K es diagonal,

K = RT KD R, R ∈ SO(N ), KD = diag(λ1 , . . . , λN ). (2.166)

ξ = Rz, y z T Kz = ξ T KD ξ. El jacobiano del cambio es 1.


N
s
dN ξ 1
Z PN 1 j j
Y
I= N/2
e− j=1 2 λj ξ ξ = = (det K)−1/2 . (2.167)
(2π) j=1
λ j

r
M
h0, tf |0, ti i2 = lı́m . (2.168)
N →∞ 2πi~ǫ det K

Para calcular det K, definimos Kj como la submatriz j × j formada por la primeras j filas y
columnas de K. Por inspección de la forma de las Kj se deduce la siguiente recurrencia

det Kj = aj det Kj−1 − (−1)2 det Kj−2 , (2.169)

junto con las condiciones iniciales

det K0 = 1, det K1 = a1 , det K = det KN . (2.170)

Teniendo en cuenta que lo que tiene lı́mite finito es ǫ det K, introducimos una función ϕ(t) tal que

ϕ(tj ) = ǫ det Kj , ϕ(tf ) = ǫ det K, (2.171)

37
que cumple
ǫ2
 
ϕ(tj+1 ) − 2ϕ(tj ) + ϕ(tj−1 ) c(tj+1 )
2
=− ϕ(tj ), ϕ(ti ) = ǫ, ϕ(ti + ǫ) = ǫ 2 − c(ti + ǫ) .
ǫ M M
(2.172)
En el lı́mite ǫ → 0
M ϕ̈(t) + c(t)ϕ(t) = 0, ϕ(ti ) = 0, ϕ̇(ti ) = 1. (2.173)
Resolviendo la ecuación con las condiciones de contorno indicadas se obtiene finalmente
s
M
hxf , tf |xi , ti i = eiWcl (xf ,tf ;xi ,ti )/~ . (2.174)
2πi~ϕ(tf )

Nótese que la ecuación de ϕ no es más que la ecuación clásica de movimiento de la parte


cuadrática de la teorı́a y de esta forma el resultado se extiende a otras teorı́as cuadráticas. Una
fórmula alternativa [10] es
r s
1 ∂ 2 Wcl (xf , tf ; xi , ti )
h0, tf |0, ti i2 = − . (2.175)
2πi~ ∂xf ∂xi

(Wcl también es a lo sumo cuadrática en (xf , xi ) y por tanto la derivada segunda no depende de
xf y xi .)

2.8.3. Oscilador armónico

El lagrangiano del oscilador armónico isótropo n-dimensional es


1 1
L = M ẋ2 − M Ω2 x2 . (2.176)
2 2

El camino clásico entre (xi , ti ) y (xf , tf ) se calcula fácilmente, y la correspondiente acción es


MΩ
cos(Ω(tf − ti ))(x2f + x2i ) − 2xf xi .
 
Wcl (xf , tf ; xi , ti ) = (2.177)
2 sen(Ω(tf − ti ))
Nótese que como cada coordenada cartesiana va por separado, el propagador también factoriza y
lo mismo se aplica a los factores h | icl y h | i2 . Por tanto, el factor h | i2 se obtiene inmediatamente
resolviendo la ecuación de movimiento en una dimensión y aplicando un factor por cada dimensión:
 3/2
MΩ
h0, tf |0, ti i2 = . (2.178)
2πi~ sen(Ω(tf − ti ))

38
En el lı́mite Ω → 0 se recupera el propagador libre.

2.8.4. Determinante de operadores diferenciales

La relación
dN z
Z
1 T

N/2
e− 2 z Kz = (det K)−1/2 , (2.179)
(2π)
indica que
−1/2 s
(0,tf )
d2

M
Z R tf
det M 2 + c(t) ∝ Dy(t)e
i
2~ ti [ M ẏ 2 −c(t)y 2 ]dt = (2.180)
dt (0,ti ) 2πi~ϕ(tf )
2
Aquı́ M dtd 2 + c(t) es el operador diferencial definido en el espacio
Q de funciones ϕ(t), t ∈ [ti , tf ] con
ϕ(ti ) = ϕ(tf ) = 0. Su determinante se puede definir como n λn , siendo λn los valores propios
correspondientes a las funciones propias ϕn (t). El determinante tal cual es divergente ultravioleta,
pero la divergencia proviene de los valores altos de n y está dominada por la energı́a cinética, de
modo que es un factor divergente pero independiente de c(t). Por tanto el cociente
2
det(M dtd 2 + c(t)) ϕ(tf )
d2
= , (2.181)
det(M dt2
) tf − ti
es finito.

En teorı́as de campos en d + 1 dimensiones (en vez de 0 + 1) aparecen operadores diferenciales


con derivadas parciales. Las divergencias son mayores y no basta con extraer un factor constante
(infinito). Una de las técnicas que se aplica es la basada en la función ζ de Riemann.20 Para un
operador diferencial A de orden m
X
ζA (s) := Tr A−s = λ−s
n . (2.182)
n
−s
z
Z
La potencia A−s se puede obtener mediante dz donde Γ encierra el espectro de A.
Γ (z − A)

La función ζA (s) converge si Re (s) > (d + 1)m. Su extensión analı́tica es regular en s = 0 (y


tiene un número finito de polos simples sobre el eje real positivo). Entonces
d
log Det A = Tr log A = − ζA (s) (2.183)

ds s=0
20
P∞
ζ(s) = n=1 n−s . Se define por extensión analı́tica desde Re (s) > 1. Es analı́tica en el plano complejo s
excepto por un polo simple en s = 1.

39
proporciona un valor renormalizado.

2.9. Propiedades espectrales del propagador

2.9.1. Propagador retardado

En vez de hxf , tf |xi , ti i es más conveniente usar el propagador retardado o causal, definido por

GR (xf , tf ; xi , ti ) = hxf , tf |xi , ti iΘ(tf − ti ) (2.184)

ya que es mejor comportado matemáticamente. Ası́ como la amplitud hxf , tf |xi , ti i es una solución
de la ecuación de Schrödinger respecto de (xf , tf ), el propagador retardado es una función de Green
de esa ecuación:
~2 2
 
i~∂t + ∇ − V (x, t) GR (x, t; x0 , t0 ) = hx, t|x0 , t0 ii~∂t Θ(t − t0 ) = i~δ(x − x0 )δ(t − t0 ).
2M
(2.185)

Para estudiar propiedades espectrales suponemos que H es conservativo.

H|n, αi = En |n, αi n = 0, 1, 2, . . . , α = 1, . . . , gn , E0 < E1 < · · · ,


(2.186)
ϕn,α (x) = hx|n, αi, hn, α|n′ , α′ i = δnn′ δαα′ .

Dado que el propagador asociado es invariante bajo traslaciones temporales lo denotamos GR (xf , xi ; t)
siendo t = tf − ti .
gn
XX
−itH/~ −itH/~
GR (x, x0 ; t) = hx|e Θ(t)|x0 i = hx|e Θ(t) |n, αihn, α|x0 i
n≥0 α=1
gn (2.187)
XX
−itEn /~
= e Θ(t)ϕn,α (x)ϕ∗n,α (x0 ).
n≥0 α=1

El propagador contiene toda la información sobre el espectro y las funciones de onda. Esta informa-
ción se puede extraer haciendo un análisis en frecuencias. El convenio es
Z +∞ Z +∞
dω −iωt/~ ˜ ˜
f (t) = e f (ω), f (ω) = dteiωt/~ f (t). (2.188)
−∞ 2π~ −∞

40
En nuestro caso21
Z +∞ +∞
i~
Z
iωt/~ −itEn /~
dte e Θ(t) = lı́m+ dteiωt/~ e−itEn /~ e−ηt = . (2.189)
−∞ η→0 0 ω − En + i0+
Cuando se integra sobre ω para invertir la transformada de Fourier la prescripción ω+i0+ proporciona
el resultado causal Θ(t). Aplicado al propagador
gn
XX i~ ϕn,α (x)ϕ∗n,α (x0 )
G̃R (x, x0 ; ω) = . (2.190)
n≥0 α=1
ω − En + i0+

La posición de los polos de G̃R (x, x0 ; ω) como función de ω proporciona el espectro, y el residuo
proporciona la función de onda (manteniendo x0 fijo y variando x).

También se puede trabajar a nivel de operadores, y luego tomar elementos de matriz


GR (t) = e−itH/~ Θ(t), (i~∂t − H)GR (t) = i~δ(t)
i~ (2.191)
Z
G̃R (ω) = dt eiωt/~ GR (t) = .
ω − H + i0+

El espectro también se puede obtener (aunque no las funciones de onda) trabajando sólo con la
traza del propagador:
Z X
tr GR (t) = dn x GR (x, x, t) = gn e−itEn /~ Θ(t)
n
(2.192)
i~ gn
Z X
n
tr G̃R (ω) = d x G̃R (x, x, ω) = .
n
ω − En + i0+

La traza da menos información pero a menudo es más fácil de obtener que el propagador completo.

2.9.2. Oscilador armónico

Por ejemplo, para el oscilador armónico en 1 dimensión


s  
MΩ iM Ω 2 2

GR (x, y; t) = exp (x + y ) cos(Ωt) − 2xy Θ(t), (2.193)
2πi~ sen(Ωt) 2~ sen(Ωt)
Z +∞
21
En ausencia de Θ(t), se tiene dt eiωt/~ e−itEn /~ = 2π~δ(ω − En ). Este resultado es consistente con la
−∞
identidad (x ± i0+ )−1 = P x−1 ∓ iπδ(x), donde P indica valor principal de Cauchy.

41
Podemos calcular la traza22

1 e−iΩt/2
Z
1
X
dx GR (x, x; t) = = = e−i(n+ 2 )Ωt , t>0 (2.194)
2i sen(Ωt/2) 1−e −iΩt
n=0

gn e−itEn /~ Θ(t) se deduce


P
Comparando con tr GR (t) = n

En = ~Ω n + 21 , gn = 1, n = 0, 1, 2, . . .

(2.195)

En realidad aquı́ se ha utilizado el postulado euclı́deo para introducir la serie, que no es convergente.
En efecto, igualmente se podrı́a escribir

1 eiΩt/2 X 1
= iΩt =− ei(n+ 2 )Ωt , (2.196)
2i sen(Ωt/2) e −1 n=0

(que conllevarı́a gn = −1, En = −~Ω n + 12 ). Por supuesto el criterio correcto es el primero ya




que con él la serie es convergente cuando it = τ > 0 (postulado euclı́deo).

2.9.3. Partı́cula en una semirrecta

Consideremos una partı́cula que se mueve en R con un potencial 0 para x > 0 y +∞ para
x < 0. El propagador de la partı́cula libre en R, GR,0 (xf , xi , t) en (2.48), se obtiene calculando la
suma sobre estados en (2.187). Estos estados son ondas planas o equivalentemente senos y cosenos,
eligiendo estados propios con paridad definida. Para obtener el propagador en la semirrecta hay
que hacer dos cambios: 1) incluir sólo los√ estados impares (sen(kx)) y 2) poner a cero la función
para x < 0 y reescalarla por un factor 2 en x > 0 para que en la semirrecta tengan la misma
normalización que antes tenı́a en toda la recta. Por tanto

GR (xf , xi , t) = GR,0 (xf , xi , t) − GR,0 (−xf , xi , t) Θ(xf )Θ(xi ). (2.197)

Se comprueba (usando las propiedades análogas para el propagador libre) que GR (xf , xi , 0) =
δ(xf − xi )Θ(xf )Θ(xi ) y que GR (xf , xi , t) satisface la condición de consistencia (2.51).

El procedimiento se puede extender a una partı́cula libre en Rd restringida a moverse a la


“derecha” de k planos ortogonales, con k ≤ d.
22
Usando sen α = 2 sen(α/2) cos(α/2) y cos α = 1 − 2 sen2 (α/2) para simplificar el resultado

42
2.9.4. Propagador euclı́deo

En la versión euclı́dea
Z +∞
−τ H/~ ~
GE (τ ) = e Θ(τ ), G̃E (ωE ) = dτ eiωE τ /~ e−τ H/~ = . (2.198)
0 H − iωE
gn
XX
GE (x, x0 ; τ ) = e−τ En /~ Θ(τ )ϕn,α (x)ϕ∗n,α (x0 ),
n≥0 α=1
gn (2.199)
X X ~ ϕn,α (x)ϕ∗n,α (x0 )
G̃E (x, x0 ; ωE ) = .
n≥0 α=1
En − iωE

(Por supuesto el espectro y funciones de onda son los mismos en tiempo real e imaginario.) En la
formulación euclı́dea ωE es real. La relación rotación de Wick para frecuencias es (e−itω = e−iτ ωE )

ω = iωE − i0+ , iG(ω) = GE (ωE ). (2.200)

2.9.5. Dominancia del estado fundamental

En el lı́mite τ → +∞ el estado fundamental se hace dominante en el propagador euclı́deo. En


efecto, primero separamos la contribución del estado fundamental
" #
X XX
−τ E0 /~ ∗ ∗ −τ (En −E0 )/~
GE (x, x0 ; τ ) = e ϕ0,α (x)ϕ0,α (y) + ϕn,α (x)ϕn,α (y)e . (2.201)
α n>0 α

Los estados excitados van haciéndose más irrelevantes (están exponencialmente suprimidos) en el
propagador a medida que τ crece, con una vida media τn = ~/(En − E0 ). Si el espectro tiene una
separación (gap) entre E0 y los demás estados, ∆ = E1 − E0 > 0, el estado fundamental domina
el propagador para τ ≫ τ1 = ~/∆,
X
GE (x, x0 ; τ ) = e−τ E0 /~ ϕ0,α (x)ϕ∗0,α (y) (1 + O(e−∆τ /~ )). (2.202)
α

(Nótese que frecuentemente el estado fundamental no está degenerado.) Igualmente

tr GE (τ ) = g0 e−τ E0 /~ (1 + O(e−∆τ /~ )). (2.203)

43
La energı́a del estado fundamental se obtiene tomando el lı́mite τ → +∞, bien en la expresión
con traza, bien en el propagador para puntos x, x0 arbitrarios (no requiere integrar).
τ E0
log GE (x, y, τ ) = − + O(1) (τ → +∞). (2.204)
~
Ası́, para el oscilador armónico en tiempo euclı́deo
s  
MΩ MΩ 2 2

GE (x, y; τ ) = exp − (x + y ) cosh(Ωτ ) − 2xy Θ(τ ),
2π~ senh(Ωτ ) 2~ senh(Ωτ )
(2.205)
1
tr GE (τ ) = ,
2 senh(Ωτ /2)
se puede tomar x = y = 0 s
MΩ
GE (0, 0; τ ) = . (2.206)
2π~ senh(Ωτ )
Se obtiene E0 = ~Ω/2 usando senh(x) ∼ 1 ex .
x→+∞ 2

El gap ∆ controla la relajación al estado fundamental. Ası́ para una partı́cula libre, ec. (2.79),
el comportamiento para τ grande no es exponencial sino tipo potencia, ya que el espectro p2 /2M
no tiene un gap. (Aun ası́ − τ~ log GE (x, y, τ ) → E0 = 0.)
p
El estado de una partı́cula de masa M , E = p2 + M 2 tiene un gap ∆ = M sobre el estado
vacı́o. En consecuencia el propagador se comporta como e−τ M , para τ grande. Dado que en métrica
euclı́dea tiempo y espacio son equivalentes, el propagador va como e−rM para r (distancia recorrida)
grande. Esto produce la interacción tipo Yukawa por intercambio de partı́culas virtuales de masa M .
Si M = 0 no hay gap y el potencial es tipo potencia (Coulomb).

El lı́mite τ → +∞ también proporciona la función de onda del estado fundamental. Ası́, para el
oscilador armónico
s  
MΩ M Ω cosh(Ωτ ) 2
GE (x, 0; τ ) = exp − x
2π~ senh(Ωτ ) 2~ senh(Ωτ )
r   (2.207)
M Ω M Ω
∼ e−Ωτ /2 exp − x2 = e−τ E0 /~ ϕ0 (x)ϕ∗0 (0),
τ →+∞ π~ 2~
es decir,  1/4  
MΩ MΩ 2
ϕ0 (x) = exp − x . (2.208)
π~ 2~

44
En principio el método de filtrado por τ grande se puede extender al primer estado excitado,
simplemente sustrayendo la contribución del estado fundamental en el propagador con lo que el
primer estado excitado pasa a ser dominante. Y ası́ sucesivamente para los demás estados. En la
práctica esto no es viable a menos que se conozca el propagador de forma exacta.

Sı́ se puede acceder al primer estado excitado si tiene distintos números cuánticos que el fun-
damental, debido a alguna simetrı́a del problema. Ası́, en el caso de un potencial unidimensional
par, V (−x) = V (x), los estados propios se clasifican en pares e impares, ϕn (−x) = (−1)n ϕn (x).
Entonces,
1 X1
(GE (x, y, τ ) − GE (−x, y, τ )) = (ϕn (x) − ϕn (−x))ϕ∗n (y)e−τ En /~
2 n≥0
2
X (2.209)
∗ −τ En /~
= ϕn (x)ϕn (y)e .
n impar
Más generalmente, si el espacio de Hilbert se descompone como suma de espacios con distintas
representaciones irreducibles µ, se puede proyectar el propagador a un sector µ y obtener el estado
más bajo de ese sector. Por ejemplo, el estado más bajo de una onda parcial ℓ, si hay invariancia
bajo rotaciones:
Z
d2 x̂ Yℓm

(x̂)GE (x, y) ∼ e−τ E0,ℓ /~ R0,ℓ (rx )R0,ℓ

(ry )Yℓm (ŷ). (2.210)
τ →+∞

2.10. Caminos brownianos

La integral de caminos de una partı́cula libre en tiempo imaginario es en realidad equivalente al


llamado proceso de Wiener, estudiado por Wiener (1923) en el contexto de procesos estocásticos,
concretamente para caminantes brownianos (random walk). Este punto de vista arroja luz sobre la
naturaleza de la integral de caminos (y al revés).

2.10.1. Movimiento browniano y ecuación de difusión

Consideremos primero el caso unidimensional. Definimos un caminante browniano como uno que
se mueve por saltos aleatorios ∆x = ±λ, con igual probabilidad, cada ∆t = ǫ. En cada tic del
reloj el caminante salta a la derecha o a la izquierda con probabilidad 1/2. El proceso de Wiener
propiamente dicho se obtiene en un lı́mite (λ, ǫ) → (0, 0) adecuadamente elegido.

Si en t = 0 el caminante está en x = 0, los tiempos y posiciones permitidas son tN = ǫN y


xj = jλ, para N = 0, 1, 2, . . . y j ∈ Z (con |j| ≤ N y N − j par). Denotando por p(j, N ) la

45
probabilidad de hallarlo en (j, N ), se tiene
  
1 N
N − j par
p(j, N ) = GB (j, N ) := 2N N2−j , si p(j, 0) = δj,0 . (2.211)
0 N − j impar

Evidentemente usando este resultado se puede obtener la evolución temporal de cualquier otra
distribución inicial de probabilidad:
X
p(j, N ) = GB (j − k, N )p(k, 0). (2.212)
k

Es importante señalar que el camino seguido por el caminante, x(tj ), es una variable aleatoria:
en la práctica esto quiere decir que {x(tj )}N
j=0 puede generarse tirando N veces una moneda no
sesgada, y en cada nueva simulación independiente se pueden obtener resultados distintos, siguiendo
una distribución de probabilidad bien definida.
2
√ 23 en j = 0, no es difı́cil probar que hji = 0 y hj i = N , es
Volviendo al caminante inicialmente
decir, la dispersión de j es σj = N . Por otro lado, usando la aproximación de Stirling

log n! = n(log n − 1) + log( 2πn) + O(1/n), (2.213)
se comprueba que para j 2 y N grandes y comparables,
1 1 1 j2
2 j2
ḠB (j, N ) = (GB (j, N ) + GB (j + 1, N )) ∼ √ e− 2 N (j , N → ∞ con = cte).
2 2πN N
(2.214)
Para N grande la probabilidad se reparte y (promediando entre puntos pares e impares) tiene un
aspecto continuo respecto de j y concretamente gaussiano. En el lı́mite ǫ → 0 los tiempos tN = N ǫ
tienden a formar una variable continua y lo mismo las posiciones xj = jλ en el lı́mite λ → 0. Dada
una distribución (promediada) p̄(j, N ), podemos asociar una densidad de probabilidad respecto de
x: X 1 1
X Z
1= p̄(j, N ) = λ p̄(j, N ) ∼ dxρ(x, t), ρ(x, t) ↔ p̄(j, N ). (2.215)
j j
λ λ
Entonces (usando N = t/ǫ y j = x/λ)
λ2
r
ǫ − 21 ǫx2
2
1 −x2 /(4Dt)
GB (x, t) = e λ t = √ e , D := . (2.216)
2πλ2 t 4πDt 2ǫ
   
23 N N
Basta usar la identidad (x∂x )n (1 + x)N = n k
P
kk xk
. El número combinatorio
k
se anula fuera de
0 ≤ k ≤ N por 1/Γ(−k) = 0, k = 0, 1, 2, . . ., y por tanto no es necesario especificar los lı́mites de la suma.

46
D se denomina coeficiente de difusión. Para que en el lı́mite del continuo la distribución no sea
singular (plana o delta), basta elegir ǫ → 0 y λ → 0 manteniendo D constante. La distribución
está normalizada y en t = 0 es una delta de Dirac centrada x = 0.

ρ(x, t) representa la densidad de probabilidad de hallar al caminante en x en tiempo t. A menudo


un punto de vista conveniente es considerar una gran cantidad de caminantes de modo que ρ(x, t)dd x
es proporcional al número de caminantes en el volumen dd x en t.

Es interesante notar que el movimiento browniano visto a nivel macroscópico (x y t de orden 1)


es continuo pero no ası́ su velocidad:
∆x λ
v= = = O(ǫ−1/2 ) → ∞. (2.217)
∆t ǫ
El camino browniano x(t) es continuo pero no diferenciable (con probabilidad 1). Si se hubiera
tomado λ = vǫ con v constante, los caminantes no se moverı́an a nivel macroscópico.
√ En realidad, las
idas y venidas hacen que el caminante avance a un ritmo proporcional
√ a N en vez de proporcional
a N y hay que compensarlo con saltos más grandes λ ∝ ǫ.

Veamos otra forma de deducir el resultado en el continuo. Dada una distribución de probabilidad
p(j, N ) es inmediato calcular la nueva distribución en tiempo N + 1, sabiendo que ∆j = 1 y
∆j = −1 tienen ambos probabilidad 1/2,
1 1
p(j, N + 1) = p(j − 1, N ) + p(j + 1, N ). (2.218)
2 2
Si expresamos esta recurrencia en términos de ρ(x, t) con el fin de tomar el lı́mite al continuo24
1 1
ρ(x, t + ǫ) = ρ(x − λ, t) + ρ(x + λ, t), (2.219)
2 2
y desarrollamos en serie de Taylor para λ y ǫ pequeños
1
(1 + ǫ∂t + O(ǫ2 ))ρ(x, t) = (1 + λ2 ∂x2 + O(λ4 ))ρ(x, t) (2.220)
2
que implica
λ2 2 1
∂t ρ(x, t) = ∂x ρ(x, t) + O(ǫ) + O(λ4 ). (2.221)
2ǫ ǫ
24
p(j, N ) no es suave si la condición inicial es una delta (se anula en los términos con paridad incorrecta)
pero podemos suponer una condición inicial suave, o bien trabajar con p̄(j, N ). Si la distribución es suave la
recurrencia tiende a suavizarla aún más.

47
La ecuación es no trivial o no singular cuando λ → 0 y ǫ → 0 manteniendo D fijo. En este caso
O(λ4 /ǫ) = O(ǫ). La ecuación queda

∂t ρ(x, t) = D∂x2 ρ(x, t). (2.222)

Su solución con la condición de contorno ρ(x, 0) = δ(x) proporciona GB (x, t).

Este método se extiende inmediatamente al movimiento browniano en d dimensiones. En este


caso, el caminante puede saltar a cualquiera de las 2d posiciones vecinas con igual probabilidad, y
salta λ cada ǫ. Escribiendo la recurrencia en d dimensiones y tomando el lı́mite del continuo

λ2
λ → 0, ǫ → 0, D := = cte (2.223)
2dǫ
produce
∂t ρ(x, t) = D∇2 ρ(x, t), (2.224)
que es la ecuación de difusión o del calor. La ecuación de difusión aparece por doquier y representa
un proceso en el que la sustancia representada por la densidad ρ tiende a desparramarse o difundirse.
El laplaciano hace que ρ aumente en los puntos x tales que la densidad es mayor a su alrededor
y viceversa, de modo que la densidad tiende a igualarse.25 D controla el ritmo de difusión. (Para
una sola sustancia, como aquı́, D se puede eliminar mediante una elección de unidades de tiempo o
espacio.) La ecuación es irreversible (no invariante bajo t → −t) y de hecho ∂t hx2 i = 2dD > 0.

La solución de la ecuación de difusión con una condición de contorno tipo delta es


1 2
GB (x, t) = d/2
e−x /(4Dt) , GB (x, 0) = δ(x), (2.225)
(4πDt)

y la solución general es
Z
ρ(x, t) = GB (x − y, t − t0 )ρ(y, t0 )dd y (t > t0 ). (2.226)

GB (x, t) es la función de Green retardada de la ecuación de difusión.

Para posterior referencia, notemos que el cuadrado de la distancia media recorrida por el cami-
nante browniano es
h(∆x)2 i = 2dD∆t,
25
Se puede derivar a partir de la ley de Fick J = −D∇ρ (el flujo va de las zona de mayor densidad a menor)
junto con la ecuación de continuidad ∂t ρ + ∇J = 0 (los caminantes no desaparecen).

48
mientras que la variación de cada coordenada es 1/d de esto

h∆xi ∆xj i = 2D∆t δij .

Coincide con la estimación microscópica en un paso ∆t = ǫ, h(∆x)2 i = λ2 = 2dDǫ, y h∆xi ∆xj i =


λ2 /d = 2Dǫ δij (ya que sólo se mueve según cada eje xi una de cada d de las veces).

También es interesante otro punto de vista. Primero notemos que la densidad de probabilidad
en x se puede ver como un valor esperado, a saber, de la función que es 1 si x ∈ dd x y 0 en otro
caso (función caracterı́stica) y luego dividido por dd x, o equivalentemente,

ρ(xf ) = hδ(x(τf ) − xf )i. (2.227)

Como se ha dicho GB (xf − xi , tf − ti ) es la densidad de probabilidad de hallar la partı́cula en


(xf , tf ) si inicialmente se encontraba en (xi , ti ). Esto se puede expresar como

GB (xf − xi , tf − ti ) = E[ δ x(tf ) − xf | x(ti ) = xi ], (2.228)

es decir, el valor esperado de δ x(tf ) − xf sobre todos los caminos brownianos x(t) que pasan por
xi en ti y con coeficiente de difusión D. Aquı́ se enfatiza que el propio camino x(t) es una variable
aleatoria. Tal y como se ha construido, el proceso de Wiener es markoviano: las probabilidades
asociadas a x(t) en tiempos t > t1 , sabiendo que x1 = x(t1 ), son completamente independientes
de la historia previa, es decir, de los valores de x(t) en t < t1 . Por tanto, el promedio sobre caminos
que empiezan en (xi , ti ) coincide con el promedio sobre caminos que pasan por (xi , ti ), de entre
todos los caminos brownianos con coeficiente de difusión D iniciados en t = −∞ y en todos los
puntos.

2.10.2. Relación con la integral de caminos de una partı́cula libre

La ecuación de difusión coincide con la ecuación de Schrödinger de una partı́cula libre en tiempo
imaginario. En efecto, en tiempo imaginario (τ = it)

~2 2
−~∂τ ψ(x, τ ) = − ∇ ψ(x, τ ), (2.229)
2M
coincide con la ecuación de difusión con la identificación
~
D= . (2.230)
2M

49
Consecuentemente las funciones de Green coinciden, ya que siguen la misma ecuación diferencial
con la misma condición inicial:
 d/2
M 2
GE,0 (x, τ ) = e−M x /(2~τ ) . (2.231)
2π~τ
Para la teorı́a browniana la identificación implica que la densidad de caminantes se puede expresar
mediante una integral de caminos con extremos fijos, con el peso adecuado dado por la “energı́a
cinética” Z (xf ,tf ) R tf
1
ẋ(t)2 dt
GB (xf − xi , tf − ti ) = Dx(t)e− 4D ti
. (2.232)
(xi ,ti )
La integral sobre caminos produce la densidad de probabilidad de hallar al caminante en xf en tf si
estaba en xi en ti . El integrando define una medida en el conjunto de caminos que es la medida de
Wiener:
1
R 2
dµW [x(t)] = Dx(t)e− 4D ẋ (t) dt . (2.233)
El camino browniano x(t) es una variable aleatoria: tirando una moneda repetidamente se genera
un camino distinto cada vez con cierta probabilidad dada por dµW [x(t)].

Por otro lado el aspecto browniano también aporta un nuevo punto de vista para la teorı́a
cuántica. Como acabamos de ver, la función de onda de una partı́cula cuántica libre evolucionando en
tiempo imaginario se puede reproducir mediante un conjunto de caminantes brownianos, ajustando el
coeficiente de difusión (o equivalentemente λ y ǫ) de modo que D = ~/2M . Podemos entonces hacer
la siguiente construcción: se consideran caminos aleatorios x(τ ) con condición inicial x(τi ) = xi fijo
y extremo final libre, es decir, acaba donde sea que lleve el camino aleatorio en cada caso, x(τf ) es
una variable aleatoria. La función de onda ψ(xf , τf ) = GE,0 (xf −xi , τf −τi ), para cada xf dado, no
es más que la densidad de probabilidad de que el caminante se encuentre en ese xf cuando τ = τf .
Es decir, la probabilidad infinitesimal dP de acabar en un entorno dd x de xf es dP = ψ(xf , τf )dd x.

La construcción que se acaba de mencionar corresponde a la función de onda con condición inicial
ψ(x, τi ) = δ(x − xi ). La construcción se puede generalizar para un ψi (x) = ψ(x, τi ) cualquiera.
Supongamos primero que ψi (x) es una densidad de probabilidad (real no negativa y normalizada
1 = dd xψi (x)). En este caso, simplemente se generan los caminantes en τ = τi aleatoriamente de
R

modo que muestreen esa distribución, xi ∼ ψi y se dejan evolucionar. En todo instante τ la densidad
de probabilidad de caminantes en x coincidirá con ψ(x, τ ) (solución de la ecuación de Schrödinger
euclı́dea libre con condición de contorno ψ(x, τi ) = ψi (x)). En fórmulas
Z
ψ(xf , τf ) = GE,0 (xf , τf ; xi , τi ) ψi (xi ) dd xi
Z
= E[ δ x(τf ) − xf | x(τi ) = xi ] ψi (xi ) dd xi
 (2.234)

= E[ δ x(τf ) − xf | x(τi ) ∼ ψi ],

50
(es decir promedio sobre caminos brownianos con D = ~/2M y con distribución ψi en τi .)
Caminantes pesados. Calcular el valor esperado indicado requiere contar el número de veces
que el caminante acaba en x ∈ dd x (en distintas simulaciones) o equivalentemente el número de
caminantes que acaba en dd x en una simulación con muchos caminantes. Este número se incrementa
en una unidad por cada nuevo evento favorable. Podemos entonces generalizar esta idea dando un
peso distinto w a cada caminante, peso que puede ser complejo en general. La llegada del caminante
k-ésimo a dd x aumenta la cuenta de ese elemento de volumen en wk . Un procedimiento válido (entre
otros) para calcular ψ(x, τ ) con condición inicial ψ(x, τi ) = ψi (x) arbitraria, es el siguiente: tomar
una densidad de probabilidad auxiliar ρ0 (x), generar una muestra de caminantes distribuidos según
esta densidad, xi ∼ ρ0 , y darles a cada uno un peso w = ψi (xi )/ρ0 (xi ). Según la elección de ρ0 ,
los caminantes se generarán inicialmente con más o menos probabilidad en cada punto x pero eso
se compensará dando al caminante un peso menor o mayor, respectivamente. El resultado final para
el valor esperado no depende de la elección de ρ0 . (Sin embargo las fluctuaciones alrededor de la
media en cada simulación sı́ dependen. La dispersión tiende a reducirse cuanto más parecidos sean
los pesos. Ası́, cuando ψi (x) es una densidad de probabilidad lo óptimo es tomar ρ0 = ψi .)
En fórmulas
Z
ψ(xf , τf ) = GE,0 (xf , τf ; xi , τi ) ψi (xi ) dd xi
ψi (xi )
Z
ρ0 (xi ) dd xi

= E[ δ x(τf ) − xf | x(τi ) = xi ] (2.235)
ρ0 (xi )
 ψi (x(τi ))
= E[ δ x(τf ) − xf | x(τi ) ∼ ρ0 ].
ρ0 (x(τi ))

Inciso: evolución en tiempo real e imaginario


Según se ha visto, al menos para la partı́cula libre, la densidad de probabilidad browniana, ρ(x, t),
evoluciona igual que la función de onda en tiempo imaginario, ψ(x, τ ). Esta densidad de probabilidad
no debe confundirse con la densidad de probabilidad cuántica que es |ψ(x, t)|2 , para la evolución en
tiempo real.
En tiempo real e imaginario (con o sin potencial)
X Z X
ψ(x, t) = cn e−itEn /~ ϕn (x), dd x|ψ(x, t)|2 = |cn |2 = cte
n n
X Z X
ψ(x, τ ) = cn e−τ En /~ ϕn (x), dd x|ψ(x, τ )|2 = |cn |2 e−2τ En /~ ∼ |c0 |2 e−2τ E0 /~
τ →+∞
n n
(2.236)

La evolución en tiempo imaginario R es irreversible y la norma no se conserva. De hecho, para la


d
partı́cula libre en tiempo euclı́deo d x ψ(x, τ ) = cte.

51
2.10.3. Fórmula de Feynman-Kac

Más generalmente, en presencia de un potencial, la integral de caminos expresa el propagador


euclı́deo como una suma de caminos (xi , ti ) → (xf , tf ) con un peso que depende de la acción
Z (xf ,τf ) R τf
1
dτ ( M ẋ(τ )2 +V (x(τ ),τ ))
GE (xf , τf ; xi , τi ) = Dx(τ )e− ~ τi 2 (τf > τi ). (2.237)
(xi ,τi )

Podemos definir un promedio sobre caminos pesados con la parte libre, es decir sobre caminos
brownianos de tipo D = ~/2M
R (xf ,τf ) 1
R τf
dτ M ẋ(τ )2 Rf
(xi ,τi )
Dx(τ ) e− ~ τi 2 F [x(τ )] dµW [x(τ )] F [x(τ )]
i
hF [x(τ )]ii→f = R (xf ,τf ) R τf = Rf (2.238)
− ~1 dτ M
ẋ(τ )2 dµW [x(τ )]
(xi ,τi )
Dx(τ ) e τi 2
i

En este caso, el propagador se escribe


D 1 R τf E
GE (xf , τf ; xi , τi ) = GE,0 (xf , τf ; xi , τi ) e− ~ τi dτ V (x(τ ),τ ) . (2.239)
i→f

Esta es la fórmula de Feynman-Kac. Según esta fórmula el propagador R euclı́deo en presencia de un


potencial, difiere del libre por un factor que es el promedio de e− dτ V /~ sobre caminos brownianos
entre (xi , τi ) y (xf , τf ). El promedio será más pequeño cuando los caminos brownianos atraviesan
zonas con potencial más repulsivo y mayor cuando pasen por zonas más atractivas.26

El operador de evolución euclı́deo es un operador positivo, pero en general que un operador A


sea positivo no implica que los elementos de matriz no diagonales de A también tengan que ser
positivos (en general pueden ser complejos y dependen de la base). La fórmula de Feynman-Kac
implica que el propagador euclı́deo es una función positiva y esta es una propiedad especı́fica del
operador de evolución euclı́deo y de la base |xi. En realidad, la positividad del propagador euclı́deo
ya se deducı́a de la fórmula de Feynman, pero la de Feynman-Kac, basada en la medida de Wiener
en vez de sobre Dx(t), permite un tratamiento matemáticamente riguroso.

Una consecuencia inmediata de la positividad del propagador euclı́deo es que si el estado funda-
mental es no degenerado, su función de onda es una función positiva (o no negativa) salvo fase. En
efecto, esto se deduce de que para τ → +∞, el propagador tiende a e−E0 τ /~ ϕ0 (xf )ϕ∗0 (xi ) ∝ ϕ0 (xf ).
26
Evidentemente todas las fórmulas con covariantes bajo un cambio de origen de energı́as del potencial, por
tanto que V sea positivo o negativo en sı́ mismo no puede tener consecuencias concretas, lo que importa es si
V crece o decrece al moverse de unas zonas a otras.

52
En el formalismo canónico se puede escribir una fórmula parecida:
1
R τf 1
R τf 1
R τf
dτ H(τ )
GE (xf , τf ; xi , τi ) = hxf |T e− ~ τi
|xi i = hxf |T e− ~ τi dτ H0 (τ ) e− ~ τi dτ V (x(τ ),τ )
|xi i
1 τf
D R E
= GE,0 (xf , τf ; xi , τi ) T e− ~ τi dτ V (x(τ ),τ ) ,
i→f
(2.240)
donde ahora R τf
1
dτ H0 (τ )
hxf |T e− ~ τi
F [x(τ )]|xi i
hF [x(τ )]ii→f := R τf , (2.241)
− ~1 dτ H0 (τ )
hxf |T e τi
|xi i
y x(τ ), H0 (τ ) representan los operadores x y H0 insertados en tiempo τ , a efectos del operador
cronológico T (no los operadores en imagen de Heisenberg, ni tampoco un camino.)

La fórmula de Feynman-Kac nos dice cómo calcular el propagador sin operadores, sólo tirando
una moneda para generar los caminos brownianosR (tomando ǫ suficientemente pequeño). Cada
− dτ V /~
caminante que llegue a xf tiene un peso e que depende del camino que haya seguido y
se promedia entre ellos. Una forma de hacer esta simulación Monte Carlo es que cada caminante
empiece con peso uno en xi y ese peso se actualice por un factor e−ǫV /~ (no hay integral) en cada
paso de tiempo dτ = ǫ.27 Los caminantes que pasen por zonas atractivas valdrán más y los que
hayan pasado por zonas repulsivas valdrán menos. Si un caminante acaba valiendo, por ejemplo,
1.2, se puede decir que el número de caminantes no se conserva en presencia de un potencial. Eso
mismo se sigue de la ecuación de Schrödinger en tiempo euclı́deo:
~ 1
∂τ ψ(x, τ ) = ∇2 ψ(x, τ ) − V (x, τ )ψ(x, τ ). (2.242)
2M ~
~
Definiendo J (x, τ ) = − ∇ψ(x, τ ), y ρ = ψ, la ecuación es
2M
1
∂τ ρ(x, τ ) + ∇J (x, τ ) = − V (x, τ )ρ(x, τ ). (2.243)
~
Las zonas de potencial repulsivo representan un sumidero de caminantes y las atractivas una fuente
 
d 1
Z Z Z
d d
d xρ = − dSJ + d x − V ρ. (2.244)
dτ V ∂V V ~
Más especı́ficamente, la ecuación dice que en un paso dτ el número de caminantes en x cambia por
dτ ǫ
un factor 1 − V (x, τ ). Esto coincide con el factor e− ~ V de antes.
~
27
Recuérdese que en la integral de caminos la contribución de V es robusta frente a detalles de la discretización.

53
Técnicamente, el método apuntado antes de generar caminantes y actualizar sus pesos no es
óptimo porque los caminos brownianos no está correlacionados con el potencial y eso implica que
muchos caminantes irán por zonas prohibidas y tendrán un peso despreciable por lo que es un
desperdicio usar los recursos en seguirlos. Un método más eficiente [12] es que los caminantes tengan
siempre peso uno pero puedan desaparecer o por el contrario replicarse. En cada paso se genera el
ǫ
factor w = e− ~ V , si w < 1 el caminante es eliminado con probabilidad 1 − w, si 1 ≤ n < w < n + 1,
se crean n − 1 nuevos caminantes en ese mismo punto y uno más con probabilidad w − n. Para
tiempos grandes el número total de caminantes escala como e−τ E0 /~ y es conveniente ajustar el origen
de potencial para que E0 = 0, de modo que el número de caminantes no cambie en promedio.

La ec. (2.243) describe un fluido con densidad ρ(x, t). Más generalmente, para un fluido se tiene

J (x, t) = ρ(x, t)v(x, t) − D∇ρ(x, t) (2.245)

donde v(x, t) es un campo de velocidades que produce un término de arrastre (o deriva), frente al
término de difusión. En ausencia de difusión lo que se tendrı́a es un flujo laminar, es decir ordenado,
de modo que si ρ(x, t0 ) = δ(x − x0 ), para t > t0 se tiene ρ(x, t) = δ(x − x(t)), siendo x(t)
la solución de la ẋ(t) = v(x(t), t) con condición inicial x(t0 ) = x0 . Por efecto de la difusión las
partı́culas próximas tienden a separarse y la delta de Dirac pasa a una gaussiana.

Es posible añadir un término de arrastre en ec. (2.243) de modo que se puede simular ρ(x, t)
sin pesos ni réplicas, pero construir el v(x, τ ) apropiado requiere conocer de antemano la función
de onda del estado fundamental.
R
V dt/~
Puesto que en presencia de un potencial cada caminante adquiere un peso e− , la fórmula
de Feynman-Kac para el propagador también se puede escribir
1
R τf
V (x(τ ),τ )dτ (2.246)
GE (xf , τf ; xi , τi ) = E[ e− ~

τi
δ x(τf ) − xf | x(τi ) = xi ].

Si en vez del propagador (ψ(x, τi ) = δ(x − xi )) se quiere obtener la función de onda ψ(x, τ ) con
una condición inicial arbitraria ψ(x, τi ) = ψi (x), se puede proceder como se indicó antes para el
caso libre, generando en τi caminantes de acuerdo con una densidad auxiliar ρ0 y dando inicialmente
un peso distinto a cada caminante igual a ψi /ρ0 . La diferencia es que ahora el peso no se mantiene
constante durante la evolución sino que se actualiza de acuerdo con el factor del potencial:

1
R τf
V (x(τ ),τ )dτ
 ψi (x(τi ))
ψ(xf , τf ) = E[ e− ~ τi
δ x(τf ) − xf | x(τi ) ∼ ρ0 ]. (2.247)
ρ0 (x(τi ))

54
También se puede usar el siguiente método alternativo: como se vio en (2.88), el propagador de
(xi , τi ) → (xf , τf ) para V es el mismo que de (xf , τi ) → (xi , τf ) para el potencial reflejado
V ′ (x, τ ) = V (x, τi + τf − τ ). Por tanto
Z
ψ(xf , τf ) = GE (xf , τf ; xi , τi ) ψi (xi ) dd xi
Z
= ψi (xi ) G′E (xi , τf ; xf , τi ) dd xi (2.248)

1
R τf
V ′ (x(τ ),τ )dτ
= E[ ψi (x(τf )) e− ~ τi
| x(τi ) = xf ].

Es decir, ψ(xf , τf ) se obtiene generando muchos caminantes brownianos en tiempo τi todos ellos en el
mismo punto xf . Estos caminantes evolucionan hasta τf y cada uno alcanzará una posición aleatoria
1
R τf ′
x(τf ). ψ(xf , τf ) coincide con el valor esperado de ψi (x(τf ))e− ~ τi V (x(τ ),τ ) dt . Este método tiene
la ventaja de que no involucra ninguna densidad de probabilidad auxiliar ρ0 (x). La desventaja es que
requiere una nueva simulación para cada valor de (xf , τf ).

Ejemplo. (Partı́cula en una semirrecta.) Como se vio en (2.197), para una partı́cula restringida
ax>0

GE (xf , xi , τ ) = GE,0 (xf , xi , τ ) − GE,0 (−xf , xi , τ ) Θ(xf )Θ(xi )
 (2.249)
= GE,0 (xf , xi , τ ) − GE,0 (xf , −xi , τ ) Θ(xf )Θ(xi ).

Esta fórmula se puede interpretar de la siguiente forma: los caminantes brownianos parten de (xi , 0)
(xi > 0). Los que llegan a x < 0 pasan a tener peso cero (por el potencial +∞ en x < 0). Por
tanto GE (xf , xi , τ ) es GE,0 (xf , xi , τ ) quitando los caminantes que tocan x = 0 antes de τ . Estos
son los mismos que llegarı́an a x = 0 partiendo de x = −xi , de modo que una forma práctica de
llevar las cuentas es poner caminantes partiendo de xi con peso 1, y la misma cantidad partiendo
de −xi con peso −1. Aquı́ es importante el carácter markoviano: los caminantes que llegan a x = 0
desde x > 0 son indistinguibles (en su evolución posterior) de los que llegan desde x < 0.

Ejemplo. (Partı́cula en un potencial simétrico.) Consideremos una partı́cula confinada en un


potencial unidimensional conservativo y simétrico, V (x) = V (−x), y su propagación entre dos
puntos simétricos a y −a. Según la fórmula de Feynman-Kac, (2.239),
D 1 Rτ E
e− ~ 0 V (x(t))dt
M (2a) GE (−a, a, τ )
2
D 1 Rτ E(a,0)→(−a,τ ) = e+ 2~ τ := F0 F∆ . (2.250)
e− ~ 0 V (x(t))dt GE (a, a, τ )
(a,0)→(a,τ )

55
Cada uno de los factores a la derecha tiende a 1 para τ → +∞, F0 por encima de 1 y F∆ por
debajo:
( n par − n impar )ϕn (a)2 e−En τ /~
P P
GE (−a, a, τ )
F∆ = = P P < 1, (2.251)
GE (a, a, τ ) ( n par + n impar )ϕn (a)2 e−En τ /~
Además
F0 ∼ 1 + O(τ −1 ), F∆ ∼ 1 + O(e−∆τ /~ ), ∆ = E1 − E0 . (2.252)
τ →+∞ τ →+∞

Dado que la convergencia exponencial es más rápida se deduce que F0 F∆ > 1 para τ grande, es
decir,
D 1 Rτ E D 1 Rτ E
e− ~ 0 V (x(t))dt > e− ~ 0 V (x(t))dt (τ → +∞). (2.253)
(a,0)→(−a,τ ) (a,0)→(a,τ )

Supongamos que V presenta una barrera en x = 0. Se obtiene ası́ un resultado un tanto


paradójico: los caminos brownianos que empezando en a acaban en −a encuentran en promedio
un potencial menor que los que vuelven a a, aunque claramente los primeros tienen que atravesar
la barrera al menos una vez (un número impar de veces) y los segundos no (cruzan la barrera un
número par de veces). [Si al lector le gustan los rompecabezas puede preferir buscar la solución por
sı́ mismo antes de seguir leyendo.]

Para aclarar qué ocurre, podemos considerar un pozo cuadrado infinito (de momento no hay
barrera). Los caminos que tocan las paredes del pozo pasan a tener peso cero, y tienen peso 1 si
nunca lo hacen antes de τ . La desigualdad (2.253) indica que los caminos que acaban en −a tienen
menos probabilidad de tocar las paredes que los que vuelven a a. Esto es razonable ya que x = 0 es
el punto más alejado de las paredes y estar forzados a pasar por ahı́ reduce la probabilidad de tocar
las paredes. Si ahora colocamos una barrera en x = 0, debe esperarse que el cociente en (2.250)
disminuya (se penalice pasar por x = 0). Eso lo indica correctamente el factor F∆ que decrece,
ya que el gap tiende a disminuir al aumentar la barrera. [En el caso lı́mite de barrera infinita los
estados fundamental (simétrico) y primer excitado (antisimétrico) tienden a degenerarse: hay un
estado fundamental a la derecha y otro a la izquierda y con igual energı́a.]

2.10.4. Cálculo de Itō

Como se vio, la invariancia gauge para la amplitud de una partı́cula resulta de


Z f Z f Z f Z f
µ µ
dt (ẋA + cΦ) = dx Aµ → dx (Aµ − ∂µ Λ) = dxµ Aµ − Λ(xf ) + Λ(xi ). (2.254)
i i i i

56
Pero esto es sólo formal, es decir, sólo verifica que se cumple una condición necesaria para la inva-
riancia gauge, pero no constituye una condición suficiente. Para que el argumento formal realmente
funcione hace falta discretizar la acción usando la regla del punto medio (u otra equivalente) en la
integral de caminos:
A(x′ , t) → A( 21 (xj + xj+1 )). (2.255)
El hecho de que el resultado dependa de la prescripción concreta se debe directamente a que los
caminos tı́picos son brownianos y por tanto no suaves. A su vez esto es consecuencia de la energı́a
caminos” contenidos en Dx(τ ), sólo permite los brownianos: los caminos
cinética, que de “todos los √
que saltan más que ∆x ∼ ∆τ tienen tanta energı́a cinética que tienen peso cero en la integral de
caminos.

Como ya se comentó la discretización concreta es menos relevante para el potencial escalar que
para el vector debido a que el potencial vector se acopla a la velocidad y por ello es más divergente
en el lı́mite del continuo ǫ → 0. El término más divergente ultravioleta es la energı́a cinética y es
el que fija el coeficiente de difusión D = ~/2M , es decir, cómo de poco suaves son los caminos
permitidos.
Rt
La dependencia en la forma de discretizar implica una ambigüedad al definir tif dt ẋ(t)F (x(t))
siendo x(t) browniano (nótese que F es una función ordinaria, no un funcional). Podemos definir
tf − ti
xj = x(tj ), tj = ti + jǫ, ǫ = , x0 = xi , xN = xf ,
N
Z xf N
X −1 (2.256)
F (x(t))dx = lı́m (xj+1 − xj )F (xθj ), xθj = (1 − θ)xj + θxj+1 , 0 ≤ θ ≤ 1.
xi ,θ N →∞
j=0

Las elecciones θ = 0 y θ = 21 corresponden a las integrales en el sentido de Itō y de Stratonovich,


respectivamente. Para un x(t) suave el valor de θ no serı́a relevante, pero sı́ lo es para x(t) browniano:
N
X −1

ϕ(xf ) − ϕ(xi ) = ϕ(xj+1 ) − ϕ(xj )
j=0
N −1   (2.257)
X 1
= ϕ ′
(xθj )(xj+1 − xj ) + ϕ′′ (xθj )(xj+1 − xj )2 (1 − 2θ) + · · ·
j=0
2

donde se ha usado xj = xθj − θ(xj+1 − xj ) y xj+1 = xθj + (1 − θ)(xj+1 − xj ). Cuando x(t)


es derivable, ∆x = O(∆t) y el segundo término tiene una contribución despreciable en el lı́mite
N → ∞. Sin embargo, en el caso browniano ∆x2 = 2D∆t, por tanto
Z xf Z tf 2
dϕ(x(t)) d ϕ(x(t))
ϕ(xf ) − ϕ(xi ) = dx + (1 − 2θ)D dt. (2.258)
xi ,θ dx ti dx2

57
R xf dϕ(x(t))
Si D > 0 sólo se recupera el resultado ϕ(xf ) − ϕ(xi ) = xi dx
dx eligiendo θ = 21 .

2.10.5. Principio de incertidumbre

El carácter browniano de x(τ ) (integral de caminos en tiempo euclı́deo) es el que da lugar a la


no conmutación de x y p cuánticos, y a su vez al principio de incertidumbre. Con el fin de modelar
el conmutador [x, ẋ] ordenamos los operadores siguiendo la idea del operador cronológico

xj+1 − xj xj+1 − xj (xj+1 − xj )2 ∆x2 ~


[x, ẋ] = xj+1 − xj = = = 2D = , (2.259)
τj+1 − τj τj+1 − τj τj+1 − τj ∆τ M
y por tanto
~ dx dx 1
= [x, ] = [x, ]= [x, p], (2.260)
M dτ i dt iM
es decir, [x, p] = i~. La no conmutación es consecuencia directa del efecto de difusión browniano.

2.11. Inserción de operadores y valores esperados

2.11.1. Inserción de operadores

Supongamos que queremos calcular el valor esperado de un observable A en un tiempo tA , con


ti < tA < tf :

hAitA = hψ(tA )|A|ψ(tA )i = hψi |U (ti , tA )AU (tA , ti )|ψi i


= hψi |U (ti , tf )U (tf , tA )AU (tA , ti )|ψi i
Z (2.261)
= ψi∗ (x′i )hx′i , ti |xf , tf ihxf |U (tf , tA )AU (tA , ti )|xi iψi (xi ) dd x′i dd xf dd xi .

Por conveniencia, en lugar de llegar sólo hasta tA , se ha extendido la evolución hasta tf . El elemento
de matriz de interés es
 i R tf
hxf , tf |A(tA )|xi , ti i = hxf |T e− ~ ti dt H(t) A(tA ) |xi i.

(2.262)

La ordenación cronológica inserta el operador A en el tiempo tA en el que actúa. (A(tA ) no quiere


decir que el operador tenga dependencia explı́cita en t, simplemente indica el tiempo a efectos de
ordenarlo.) Más generalmente, puede haber varios operadores Ak actuando a distintos tiempos tk y

58
tf

tA

τi τ’i

ti ti −i0 +

Figura 2: Recorrido de t visto en el plano complejo τ . El postulado euclı́deo ∆τ > 0, requiere


Im ∆t < 0, de modo que entre ti y t′i hay un −iη (η → 0+ ). Este recorrido se puede obtener
por extensión analı́tica de τi → τi′ .

T se encarga de colocarlos cada uno es su tiempo:


n n
Y Y 
hxf , tf |T [A1 (t1 ) · · · An (tn )]|xi , ti i = hxf |T U (tk+1 , tk ) Ak (tk ) |xi i
k=0 k=1 (2.263)
R tf
− ~i dt H(t)
 
= hxf |T e ti
A1 (t1 ) · · · An (tn ) |xi i.

Como vamos a ver estos elementos de matriz pueden calcularse mediante integral de caminos, y
contienen toda la información sobre los operadores. Por ejemplo, se puede extraer el conmutador:
GA,B (tA , tB ) := hxf , tf |T [A(tA )B(tB )]|xi , ti i
GA,B (t+ , t) = hxf |U (tf , t)A(t)B(t)U (t, ti )|xi i
(2.264)
GA,B (t− , t) = hxf |U (tf , t)B(t)A(t)U (t, ti )|xi i
GA,B (t+ , t) − GA,B (t− , t) = hxf , tf | [A, B](t) |xi , ti i.
Un conmutador no nulo se manifiesta en una discontinuidad de salto en la función GA,B .

2.11.2. Cálculo con integral de caminos

Consideremos el cálculo con un solo operador A insertado en tiempo tA , ya que para más

59
operadores es cualitativamente igual. Como siempre dividimos [ti , tf ] en N subintervalos de tamaño
ǫ. Dado que el resultado es una función continua de tA , en el lı́mite del continuo, ǫ → 0, se puede
suponer que tA es uno de los tj :

hxf , tf |A(tA )|xi , ti i = hxf |U (tf , tf −ǫ) · · · U (tA +ǫ, tA )AU (tA , tA −ǫ) · · · U (ti +ǫ, ti )|xi i. (2.265)

A continuación se inserta una identidad 1 = dd xj |xj ihxj | en cada tiempo tj . En el caso tA


R

optamos por insertarlo a la derecha de A. Comparado con la integral sin A se tiene entonces

hxj+1 |U (tA + ǫ, tA )|xj i → hxj+1 |U (tA + ǫ, tA )A|xj i = hxj+1 |U (tA + ǫ, tA )|xj iFA ,
iǫ p2
hxj+1 |U (tA + ǫ, tA )A|xj i hxj+1 |e− ~ 2M A|xj i (2.266)
FA = = p2
+ O(ǫ2 ).
hxj+1 |U (tA + ǫ, tA )|xj i − iǫ
hxj+1 |e ~ 2M |xj i
Sin pérdida de generalidad se puede suponer que A es factorizable del tipo f (p)h(x)
dd p i iǫ p2
e ~ p(xj+1 −xj ) e− ~ 2M f (p)h(xj )
R
(2π~)d
FA = i 2 + O(ǫ2 )
dd p p(xj+1 −xj ) − iǫ p
R
(2π~)d
e ~ e ~ 2M

R dd q iǫ q 2 x −x
e− ~ 2M f (q + M j+1ǫ j )h(xj )
(2π~)d (2.267)
= R dd p − iǫ q2 + O(ǫ2 )
(2π~)d
e ~ 2M
 
xj+1 − xj
= f (q + M ) h(xj ) + O(ǫ2 ).
ǫ q

Éste es el factor a añadir en el integrando de la integral de caminos. Si el operador A es sólo función


de x basta añadir un factor A(x(tA )) en la integral. Si lo que se quiere es representar el operador
p, se obtiene  
xj+1 − xj xj+1 − xj
p(tA ) → q + M =M . (2.268)
ǫ q ǫ
Para la energı́a cinética, un cálculo similar proporciona (usando (2.114))
* 2 +
2
M (xj+1 − xj )2 i~d

p (tA ) 1 xj+1 − xj
→ q+M = − . (2.269)
2M 2M ǫ 2 ǫ2 2ǫ
q

Este resultado se entiende mejor en tiempo euclı́deo iǫ → ǫ (it = τ )

M (xj+1 − xj )2 ~d
− + , (2.270)
2 ǫ2 2ǫ
60
teniendo en cuenta que ∆x2 ∼ 2dD∆τ = ǫ~d/M , lo que se tiene es un resultado del tipo ∞ − ∞
cuando ǫ → 0. La diferencia es finita y proporciona la energı́a cinética, sin embargo numéricamente
este estimador es claramente mal comportado. Un estimador más adecuado para la energı́a cinética
se obtiene [13] insertando los dos p de p2 /2M uno en tiempo tA y otro en tA − ǫ, por ejemplo.
Esto proporciona la regla
p2 (tA ) M (xj+1 − xj ) (xj − xj−1 )
→ (2.271)
2M 2 ǫ ǫ
que ya no involucra cancelación de infinitos.

En general para varios operadores se tiene


Z xf ,tf
hxf , tf |T [A1 (t1 ) · · · An (tn )]|xi , ti i = Dx(t)e−W [x(t)]/~ A1 (t1 ) · · · An (tn ), (2.272)
xi ,ti

donde Ak (tk ) se refiere a Ak (x(tk )) si Ak es función de x o más generalmente al estimador FA


asociado. Nótese que las Ak son c-números a ambos lados de la ecuación.

2.11.3. Valores esperados en el estado fundamental

La integral de caminos en tiempo euclı́deo se puede usar para calcular valores esperados de
observables en el estado fundamental de un hamiltoniano conservativo. Este tipo de cálculos son
especialmente útiles en teorı́as de campos, como una alternativa a métodos perturbativos.

Para un observable A (que suponemos independiente del tiempo)


hxf , τf |A(τA )|xi , τi i = hxf |e−(τf −τA )H/~ Ae−(τA −τi )H/~ |xi i
X
= e−(τf −τA )En /~ ϕn (xf )hn|A|n′ iϕ∗n′ (xi )e−(τA −τi )En′ /~
n,n′ (2.273)
∼ e−(τf −τi )E0 /~ ϕ0 (xf )ϕ∗0 (xi )h0|A|0i,
τf →+∞
τi →−∞

donde se ha supuesto que h0|A|0i 6= 0 y que la función de onda del estado fundamental no se anula
justamente en los puntos xi y xf elegidos. Dividiendo por la misma expresión con A = 1 se obtiene
hxf , τf |A(τA )|xi , τi i
h0|A|0i = lı́m
τf →+∞ hxf , τf |xi , τi i
τi →−∞
R (xf ,τf ) (2.274)
(xi ,τi )
Dx(τ )e−WE [x(τ )]/~ A(τA )
= lı́m R (xf ,τf ) := h A(τA ) iWE .
τf →+∞
τi →−∞ (xi ,τi )
Dx(τ )e−WE [x(τ )]/~

61
En el lı́mite indicado de tiempos euclı́deos grandes, el promedio sobre caminos no depende de la
elección concreta de xi y xf ni del valor de τA , con tal de que τA se mantenga fijo en ese lı́mite, por
ejemplo se puede tomar τA = 0. Dada esta independencia, una elección usual es tomar xi = xf , e
integrar sobre este punto para obtener la traza
 R +∞ 
− ~1 −∞ H(τ )dτ
tr T e A(τA )
h0|A|0i =  +∞

− ~1 −∞
R
H(τ )dτ
tr T e (2.275)
−WE [x(τ )]/~
R
Dx(τ )e A(τA )
= R = h A(τA ) iWE ,
Dx(τ )e−WE [x(τ )]/~
donde la integral es sobre caminos cerrados x(−∞) = x(+∞).

El procedimiento consiste en generar caminos x(τ ) de i a f , pesados con Dxe−WE /~ (es decir,
con probabilidad proporcional a e−WE /~ , más probables cuanto menor sea su acción ). Por tanto
x(τ ) es aquı́ una variable aleatoria que muestrea la medida Dxe−WE /~ . Para cada camino x(τ ) se
construye el estimador A(τA ), que es una variable aleatoria derivada, y su promedio sobre caminos
proporciona h0|A|0i para tiempo euclı́deos grandes antes y después de τA . El motivo de que este
valor esperado no dependa de las condiciones iniciales ni de τA es que en τA el camino se distribuye
de acuerdo con el estado fundamental
P y ha perdido todo recuerdo de las condiciones en los extremos.
Inicialmente el estado es |xi i = n ϕ∗n (xi )|ni pero después de un tiempo τ1 = ~/∆ (∆ = E1 −E0 )
sólo queda el estado fundamental y lo mismo cerca de τf . Por tanto en el lı́mite τf − τi → ∞, casi
todo la acción proviene de caminos termalizados con el estado fundamental.

Más concretamente, si como es frecuente A es función de x, lo que se tiene es


h0|A|0i = h A(x(τA )) iWE . (2.276)
A la derecha de la ecuación se tiene el promedio sobre caminos del valor de A en x(τA ). La variable
aleatoria x(τA ) tiene una cierta densidad de probabilidad ρ(x) (independiente de A)28
Z
h A(x(τA )) iWE = dd xρ(x)A(x). (2.277)

A la izquierda se tiene el promedio cuántico en el estado fundamental que se puede escribir


Z
h0|A|0i = dd x|ϕ0 (x)|2 A(x). (2.278)

28
Esta densidad se puede obtener considerando los valores esperados de todos los observables A(x), o alter-
nativamente
ρ(x) = h δ(x − x(τA )) iWE .

62
Se deduce que ρ(x) = |ϕ0 (x)|2 . Es decir, x(τA ) (o x(τ ) para τ finito cualquiera) se distribuye como
la densidad de probabilidad cuántica del estado fundamental.

Se puede proceder de manera alternativa, generando caminos brownianos, es decir, haciendo sólo
un muestreo de la energı́a cinética, e incluir el efecto del potencial como un peso extra:
D Rf E
Rf − if dτ V /~
R
e− i dτ V /~ A(x(τA ))
dµW e A(x(τA )) WE,0
h0|A|0i = lı́m i R f = . (2.279)
− if dτ V /~
R D Rf E
τf →+∞
τi →−∞ i
dµ W e e − i dτ V /~
WE,0

(Este método es menos eficiente que un muestreo directo de Dxe−WE /~ , y esto es general para
todos los métodos Monte Carlo, ec. (2.292).)
R
Por lo que hemos visto, después de pesar cada caminante con e− dτ V /~ , x(τA ) se distribuye
de acuerdo conR |ϕ0 (x)|2 . En cambio, según la fórmula de Feynman-Kac la variable aleatoria x(τf )
pesada con e− dτ V /~ se distribuye de acuerdo con ϕ0 (x) para τf grande. La diferencia entre ambos
resultados reside en que el segundo caso es del tipo (se puede reformular como) τi → τA , con
τA finito y τi → −∞, en cambio en el primero τi R→ τA → τf con τi → −∞ y τf → +∞. En
Feynman-Kac (τi → τA ) se mide en τA y el peso e− dτ V /~ sólo incluye la historia del
R camino hasta
τA . En el otro caso (τi → τA → τf ) también se mide x(τ ) en τA pero el peso e− dτ V /~ incluye el
camino completo (antes y después de τA ). El factor adicional del camino después de τA da lugar al
factor ϕ∗0 (x) extra. (En general, bajo rotación de Wick, la propagación hasta tA da la función de
onda y la propagación después de tA da la función de onda conjugada.)
R
Según el argumento que se acaba de dar, cuando V = 0 (o constante) el peso e− dτ V /~ = 1
no distinguirı́a entre τi → τA → τf y τi → τA , y por tanto ϕ0 y |ϕ0 |2 deberı́an llevar a la misma
distribución de la variable x. Esto es efectivamente ası́ ya que para la partı́cula libre el estado
fundamental es una función constante correspondiente al estado de momento 0.

Para calcular Rla energı́a del estado fundamental (una vez fijado el origen de energı́as), en principio
bastarı́a calcular Dxe−WE /~ con extremos fijos y τf −τi → +∞, ya que ese propagador se comporta
como e−(τf −τi )E0 /~ . Sin embargo, el cálculo numérico de una integral en muchas dimensiones requiere
un método Monte Carlo y éste sólo es práctico para obtener promedios (cocientes de integrales),
más que los valores de las integrales en términos absolutos. Lo más práctico es utilizar la relación
 2 
p
E0 = h0|H|0i = h0| + V (x) |0i. (2.280)
2M

El cálculo del valor esperado de energı́a cinética se puede reducir al de un operador dependiente de

63
x mediante el teorema del virial: Para un estado |ψi que sea propio de H

p2 1
h iψ = h x · ∇V (x)iψ . (2.281)
2M 2
En efecto, la ecuación de autovalores de H se puede obtener de

δhHiψ = 0, (2.282)

para una variación arbitraria de |ψi. En particular tomando ψ(x) → ψ(λx):


d
hHiψλ = λ2 hKiψ + hV (λ−1 x)iψ , 0= hHiψλ = 2hKiψ − hx · ∇V (x)iψ . (2.283)

dλ λ=1

Para obtener la energı́a del primer estado excitado, un método es buscar un operador tal que
h0|A|0i = 0 (pero h1|A|0i 6= 0). En este caso se calcula con la integral de caminos
R (xf ,τf )
hxf , τf |T [A(τ )A(0)]|xi , τi i (xi ,τi )
Dx(τ ) e−WE [x(τ )]/~ A(τ )A(0)
= R (xf ,τf ) = h A(τ )A(0) iWE . (2.284)
hxf , τf |xi , τi i Dx(τ ) e−WE [x(τ )]/~
(xi ,τi )

Nos interesa el lı́mite τi → −∞, τf → +∞, y τ > 0. Por dominancia del estado fundamental

hxf |e−(τf −τ )H/~ Ae−τ H/~ Aeτi H/~ |xi i


h A(τ )A(0) iWE = lı́m
τf →+∞ hxf |e−(τf −τ )H/~ e−τ H/~ eτi H/~ |xi i
τi →−∞

hxf |e−(τf −τ )H/~ |0ih0|Ae−τ H/~ A|0ih0|eτi H/~ |xi i


= lı́m (2.285)
τf →+∞ hxf |e−(τf −τ )H/~ |0ih0|e−τ H/~ |0ih0|eτi H/~ |xi i
τi →−∞

h0|Ae−τ H/~ A|0i


= .
h0|e−τ H/~ |0i
Insertando de nuevo un conjunto completo de estados y tomando ahora el lı́mite τ → +∞
X
h A(τ )A(0) iWE = |h0|A|ni|2 e−τ (En −E0 )/~ ∼ |h1|A|0i|2 e−τ (E1 −E0 )/~ . (2.286)
τ →+∞
n

De aquı́ se extrae E1 − E0 . En principio, esto se puede hacer siempre usando cualquier operador A′
y tomando A = A′ − h0|A′ |0i (donde h0|A′ |0i se ha obtenido previamente). Por construcción este
operador cumple h0|A|0i = 0 y el primer estado excitado pasa a ser dominante. Sin embargo, en
cálculos numéricos la sustracción no será exacta y el estado fundamental todavı́a tendrá una gran
influencia.

64
En la práctica el método es eficiente si H tiene una simetrı́a, de modo que |0i y |1i caen
en distintas representaciones irreducibles, conectadas por A. Por ejemplo, para un potencial unidi-
mensional par, el operador A = x cumple estas condiciones. Más generalmente, para estudiar un
observable asociado a un estado que no sea el vacı́o (por ejemplo la propagación de un nucleón en
QCD) es necesario crear ese estado previamente actuando sobre el vacı́o con un operador que tenga
los números cuánticos apropiados.

2.12. Método Monte Carlo

Para calcular la integral de caminos se introduce una discretización de modo que el camino x(t)
se aproxima por un vector en Rn (con n = dN ). Si además se trabaja en tiempo euclı́deo, el peso
e−WE /~ es no negativo (al menos para el caso de partı́culas interaccionando con un potencial).

Si denotamos por x el vector en Rn que representa un camino completo, por w(x) el peso
positivo y A(x) los observables, el cálculo de valores esperados toma la forma
R n
d x w(x)A(x) 1
Z Z
hAiw = R n n
= d xρ(x)A(x), ρ(x) = w(x), N = dn xw(x). (2.287)
d x w(x) N
ρ es el peso normalizado. En general las integrales están restringidas a regiones Ω ⊂ Rn de valores
aceptables
R de x, pero podemos trabajar en Rn a base de poner a cero el peso w(x) fuera de Ω. En
realidad dn x w(x) no es conocido casi nunca, y se debe trabajar con w(x) directamente.

Ejemplo. Cómo estimar el volumen de una región Ω ⊂ [0, L]n mediante Monte Carlo. Se genera
una gran número N de puntos xk equidistribuidos en [0, L]n . En este caso
Vol(Ω) núm(x ∈ Ω)
n
≈ . (2.288)
L N

El error relativo de la estimación mejora con N como 1/ N .

2.12.1. Método Monte Carlo

El método Monte Carlo (Ulam, Von Neumann) se basa en tratar ρ(x) como una densidad de
probabilidad y construir una variable aleatoria x distribuida de acuerdo con ρ, x ∼ ρ. Que x
esté distribuida según ρ quiere decir que
Z Z
n
∀Ω ⊂ R Prob(x ∈ Ω) = d x ρ(x) = dn x ρ(x)Θ(x ∈ Ω),
n
(2.289)

65
o dicho de otra forma, el número de veces que la variable x toma un valor x1 frente a otro valor
x2 debe estar precisamente en la proporción ρ(x1 )/ρ(x2 ) = w(x1 )/w(x2 ).

Por construcción la esperanza matemática de A(x) sobre x ası́ generado coincide con hAiρ .
Para estimar ese valor esperado se generan N copias 29 estadı́sticamente independientes de x ∼ ρ,
{xk }N
k=1 , de modo que con probabilidad 1

N
1 X
hAiρ = lı́m A(xk ). (2.290)
N →∞ N
k=1

Por el teorema del lı́mite central, para N finito pero grande la media aritmética es una variable
con distribución que tiende a una gaussiana centrada en hAiρ y con anchura que decrece
aleatoria √
como 1/ N :
N
1 X σA
A(xk ) = hAiρ ± √ , (2.291)
N k=1 N
donde σA2 = hA2 iρ − hAi2ρ = h(A − hAiρ )2 iρ .

El ritmo de convergencia es más bien lento, ya que por ejemplo para reducir el error en un factor
10 hay que multiplicar el número de puntos muestrales por 100. En comparación, una integral con
el método de Simpson tiene error O(h4 ) y por tanto el error disminuye como N −4 con el número
de puntos. Sin embargo, la comparación cambia cuando se trata de una integral multidimensional.
Ası́ en n dimensiones, si se usa un Simpson con N1 puntos en cada dirección, el error irá como
O(h4 ) = O(N1−4 ) y el número de puntos total irá como N = N1n , por tanto el error escala como
O(N −4/n ). Para n grande este error disminuye a un ritmo extraordinariamente lento al aumentar N ,
mientras que para el método Monte Carlo sigue siendo O(N −1/2 ) en todo caso. En un caso tı́pico
de QCD en una red 164 , el número de dimensiones es d = (3 × 3 × 4 × 2 + 8 × 4) × 164 = 6815744.

2.12.2. Muestreo de distribuciones

Hay varias técnicas para generar puntos xk distribuidos según un w dado. Todas ellas requieren
tener un generador de números aleatorios con distribución uniforme en el intervalo (0, 1), x ∼ U (0, 1)
(o se pueden reducir a dicho generador). En la práctica esto se consigue de forma aproximada, usando
números pseudoaleatorios generados por un ordenador.

Si se sabe muestrear una distribución w0 (x) parecida a w(x), un método Monte Carlo mixto es
29
Éste N no está relacionado con el N = número de subintervalos de la integral de caminos

66
el siguiente R n R n
d x wA d x w0 (w/w0 )A h(w/w0 ) Ai0
hAi = R n = R n = . (2.292)
d xw d x w0 (w/w0 ) h(w/w0 )i0
El problema de este método es que pone los puntos según ρ0 no ρ y eso debe compensarlo con pesos
w/w0 que pueden ser muy variados (muy grandes cuando x sea relevante para w pero no para w0 y
muy pequeños en el caso contrario). Como consecuencia la dispersión en numerador y denominador
son muy grandes y se pierde toda la señal sobre el fondo. Sólo es útil cuando se puede ajustar w0
para que se parezca mucho a w (problema de muestreo relevante).30

La técnica más directa para generar x ∼ w es la de aceptación/rechazo. Supongamos que el


soporte de w(x) está contenido en el hipercubo [0, L]n y que máxx w < K. Entonces, podemos
generar puntos uniformemente en [0, L]n × [0, K] ∋ (x, t). El punto x es aceptado si y sólo si
t < w(x). [Para obtener t generamos ut ∼ U (0, 1) y tomamos t = ut K. Para las otras coordenadas
se hace análogamente, usando n variables ui ∼ U (0, 1) independientes y xi = ui L.] Los puntos x
ası́ obtenidos están distribuidos según w. El problema con este método (incluso después de mejoras
obvias, a saber, mejorar la base y mejorar la altura) es que generalmente w varı́a enormemente,
por muchos órdenes de magnitud, de un punto a otro, de modo que incluso en el caso óptimo
K = máxx w, la inmensa mayorı́a de puntos son rechazados y el método es muy ineficiente: hace
falta hacer muchas llamadas a w(x) para generar unos pocos puntos válidos, N es pequeño.

Si w(x) es separable se puede generar cada coordenada por separado y equivale a n problemas
unidimensionales. Para una w(x) en una dimensión lo más eficiente
Rx es hacer un cambio de variable
x = x(y) de modo que y ∼ U (0, 1). Especı́ficamente y(x) = −∞ dx′ ρ(x′ ).
+∞ 1
dy
Z Z
= ρ, A(x)ρ(x)dx = A(x(y))dy. (2.293)
dx −∞ 0

Ejemplo. Elegir entre n opciones con P probabilidadesPpi , i = 1, . . . , N . Para ello se genera u ∼


U (0, 1) y se elige la opción i-ésima si j<i pj < u < j≤i pj .

Ejemplo. Generar puntos x equidistribuidos en una bola n-dimensional de radio R. Para ello se
generan n números ui ∼ U (0, 1) independientes. La componente i-ésima de x es xi = (2ui − 1)R.
Ahora x está equidistribuido en el hipercubo [−R, R]n . Finalmente, nos quedamos sólo con aquellos
x tales que x2 < R2 .

Ejemplo. Generar variables gaussianas con hxi = 0 y hx2 i = 1. La distribución es ρ(x) =


2
(2π)−1/2 e−x /2 . Se puede usar el método de Box-Muller que consiste en generar un par de variables
30
Cuando el peso w es complejo a menudo se usa esta técnica con w0 = |w|, ya que el método Monte Carlo
puro no puede usarse.

67
2 +y 2 )/2
(x, y) ∼ (2π)−1 e−(x y pasar a coordenadas polares (r, φ):
2π ∞ 2π ∞ 1 1
dxdy −(x2 +y2 )/2 dφ dφ
Z Z Z Z Z Z Z
−r 2 /2 −r 2 /2
1= e = drre = de = duφ dur
2π 0 2π 0 0 2π 0 0 0
(2.294)
2 /2
con uφ = φ/2π y ur = e−r . Por tanto, generando dos números uφ y ur equidistribuidos en (0, 1)
p p
x = cos(2πuφ ) −2 log ur , y = sen(2πuφ ) −2 log ur . (2.295)

Ejemplo. Volumen de una esfera n-dimensional inscrita en un cubo de volumen unidad. Primero
calculamos el ángulo sólido n-dimensional:
n

2π 2
Z Z
n
n/2 n −x2 /2 n−1 −r 2 /2
(2π) = d xe = Sn−1 drr e = Sn−1 Γ( n2 )2 2 −1 , Sn−1 = . (2.296)
0 Γ( n2 )

Entonces para el volumen de la esfera de radio 12 :


1/2
Sn−1 (π/4)n/2
Z Z
n
V = d x Θ( n2 − |x|) = Sn−1 drrn−1 = = . (2.297)
0 n 2n Γ( n2 + 1)

Como se ve de la expresión, el volumen ocupado por la esfera disminuye muy rápidamente a medida
que la dimensión aumenta, lo cual ilustra la necesidad de hacer un muestreo relevante.

2.12.3. Métodos markovianos

Para w multidimensional general se suelen usar métodos de tipo markoviano. La idea es generar
un caminante x(t) que recorra Rn ergódicamente, es decir, queR a la larga el tiempo que se pasa
en una región Ω ⊂ Rn cualquiera sea proporcional a Prob(Ω) = Ω dn ρ(x). Se cambia el promedio
sobre x por un promedio temporal:

1 T
Z
hAi = lı́m dtA(x(t)). (2.298)
T →∞ T 0

En la mayor parte de las implementaciones el tiempo es una variable discreta, k, y el caminante


pasa sucesivamente por puntos x1 , x2 , . . . , xk , . . .. El salto xk → xk+1 se rige por cierta regla
aleatoria prefijada
Prob(xk+1 = y|xk = x) = Wk (y, x). (2.299)

68
Wk (y, x) es la (densidad de) probabilidad de saltar a y si en tiempo k el caminante estaba en x y
evidentemente Wk debe estar normalizada y ser no negativa
Z
dn y Wk (y, x) = 1, Wk (y, x) ≥ 0. (2.300)

A menudo la función Wk no depende k. El adjetivo markoviano se refiere a que la probabilidad


de xk → xk+1 no depende de la historia anterior, es decir, depende sólo del valor de xk y no de los
xj , j < k. Estos son los procesos más sencillos y mejor estudiados.

Eligiendo Wk adecuadamente se consigue que a la larga x ∼ w. Es decir, si ρk (x) indica la


distribución de caminantes a tiempo k,
lı́m ρk (x) = ρ(x) (2.301)
k→∞

en sentido de valores esperados (débil). Generalmente, se empieza con un caminante generado con
una distribución ρ1 que no se parece a ρ, por lo que hay que esperar un cierto número de pasos k0
hasta que la distribución se termalice a la de equilibrio, ρ. Después de este periodo transitorio se
tiene xk0 ∼ ρ. Los siguientes puntos también están distribuidos según ρ pero no son independientes
de xk0 (no se han olvidado de esa posición) hasta pasado un cierto número de pasos r, denominado
tiempo de autocorrelación. Ese tiempo hay que dejarlo entre cada dos medidas para que los valores
sean independientes.31 De este modo
N
1 X σA
hAi = A(xk0 +rj ) ± √ . (2.302)
N j=1 N

Para estimar el tiempo de relajación al equilibrio, k0 , se puede empezar con distribuciones varias ρ1
muy distintas entre sı́ y ver cuánto tardan en termalizarse a valores parecidos de los observables.
Para estimar el tiempo de autocorrelación r se puede estudiar el comportamiento de estimado-
res construidos con x. Por ejemplo (suponiendo que las distintas componentes tienen la misma
naturaleza) P i i P iP i
i xk xk+t x x
C(t) = − i k i k+t ∼ C(0)e−t/r , (2.303)
n n n
donde xi indica la componente i-ésima de x. Alternativamente, se puede considerar una colectividad
de caminantes (independientes) y estudiar

C ij (t) = xik xjk+t − xik xjk+t ∼ C ij (0)e−t/r , (2.304)


31
Usar N puntos seguidos no introduce un sesgo en el resultado (es decir,
p no modifica el√valor esperado) pero
como sólo N/r puntos son realmente independientes el error va como r/N en vez de 1/ N .

69
donde la barra horizontal indica promedio sobre caminantes de la colectividad. Después de un tiempo
t > r los valores de x en tiempos k y k + t dejan de estar correlacionados.

Los valores de k0 y r dependen de la elección de Wk (y, x) y conviene elegir esta función para
minimizar sus valores, y al mismo tiempo que generar cada nuevo punto sea lo menos costoso posible
en tiempo de computación.

Para que a la larga el proceso markoviano muestree una ρ dada, hay dos condiciones claramente
necesarias:
a) La función Wk (y, x) debe ser tal que en principio el caminante pueda ir (enlazando saltos)
desde cualquier punto del soporte de w(x) a cualquier otro.

b) En cada nuevo paso xk → xk+1 , la distribución de x se actualiza de ρk (x) a ρk+1 (x):


Z
ρk+1 (y) = Wk (y, x)ρk (x)dn x. (2.305)

Entonces, si en algún momento la colectividad de caminantes está distribuida según ρ(x), su


distribución no debe cambiar en tiempos posteriores. Es decir,
Z
Wk (y, x)ρ(x)dn x = ρ(y). (2.306)

Notablemente estas condiciones también son suficientes para que se satisfaga (2.301) [14].

Es relativamente fácil probar que cada paso markoviano acerca ρk a ρ:


Z Z Z
n n n

||ρk+1 − ρ|| := d y|ρk+1 (y) − ρ(y)| = d y d xWk (y, x) ρk (x) − ρ(x)
Z Z Z
(2.307)
≤ dn y dn xWk (y, x) |ρk (x) − ρ(x)| = dn x |ρk (x) − ρ(x)|

= ||ρk − ρ||.

Una forma práctica de garantizar que W deja invariante ρ es imponer la condición de balance
detallado
Wk (y, x)ρ(x) = Wk (x, y)ρ(y), (2.308)
que implica (2.306) usando (2.300). La misma ecuación se puede escribir usando w(x) y equivale a
decir que Fk (y, x) ≡ Wk (y, x)ρ(x) es una función simétrica.

70
2.12.4. Algoritmo de Metropolis

Este método fue inventado por Rosenbluth para aplicarlo a la distribución de Boltzmann y
extendido a una distribución general por Hastings. Tiene la virtud de que es muy flexible ya que
no requiere propiedades especı́ficas de w(x), sólo saber calcular esta función en cada punto que se
pida.

Para aplicar el método se necesita una densidad de probabilidad auxiliar Qk (z, x) (no negativa
y normalizada respecto de z). Esta probabilidad dice cómo proponer un candidato z a la nueva
posición del caminante cuando éste se encuentra en x. No debe confundirse Qk (z, x) con la función
Wk (y, x). Esta última se construye indirectamente mediante el algoritmo de Metropolis y no se
necesita en forma explı́cita.

Dadas la funciones Qk (z, x) y w(x), el algoritmo de Metropolis para actualizar el valor de xk


al siguiente valor en la cadena markoviana, xk+1 , es:
1) Dado xk se genera una propuesta z con Qk (z, xk ), y se genera un número aleatorio u ∼
U (0, 1).
2) Se actualiza la posición de acuerdo con la regla
(
xk , si w(z) < u w(xk ) (la propuesta es rechazada)
xk+1 = (2.309)
z , si w(z) > u w(xk ) (la propuesta es aceptada)
Equivalentemente se puede decir que si w(z) > w(xk ) (z es “más probable” que xk ) el nuevo
punto se acepta inmediatamente, en caso contrario se acepta con probabilidad w(z)/w(xk ).32 Por
supuesto, “más probable” es una forma de hablar, ya que la relación w(z) >
< w(x), para los mismos
puntos z y x depende del sistema de coordenadas.

La función Qk (z, x) se puede elegir de muchas formas con tal de que satisfaga las dos condiciones
siguientes:
a) (irreducibilidad) que la función Qk (x, z) sea tal que mediante saltos sucesivos se pueda llegar
a cualquier punto del soporte de la función w(x), y
b) (simetrı́a) que la función Qk (x, z) sea simétrica
Qk (z, x) = Qk (x, z). (2.310)
32
Es importante enfatizar que cuando el candidato es rechazado, el nuevo punto xk+1 coincide con xk . Esto no
es lo mismo que volver a generar nuevos candidatos hasta que uno sea aceptado y tomarlo como el nuevo xk+1 .
Esta otra prescripción no produce una cadena markoviana con x ∼ ρ, sino que se termaliza a otra distribución
de equilibrio ρ′ que depende de la elección de Qk , y por tanto produce valores esperados incorrectos.

71
Es decir, la probabilidad de proponer z estando en x debe ser igual a la de proponer x estando
en z.

Por ejemplo, una Qk válida es un salto aleatorio dentro de una bola de radio R

Qk (z, x) ∝ Θ(R − ||z − x||). (2.311)

Una elección tı́pica es un salto gaussiano de tamaño R a elegir. Con cualquier elección, la función
Qk producirá un cierto salto tı́pico ||z − x|| ∼ R. Aunque teóricamente el método converge en todo
caso, si el valor de R se toma demasiado pequeño, y el caminante está lejos de la zona relevante, los
candidatos serán aceptados pero el caminante tardará mucho en recorrer la distribución para poder
muestrearla. Si por el contrario R es demasiado grande y el caminante ya está en la zona relevante, los
candidatos serán casi siempre rechazados y el caminante se moverá poco, lo que también dificulta que
explore la función w(x). Más importante, en ambos casos el tiempo de autocorrelación será grande.
Para la eficiencia del método es necesario que R se ajuste de modo que la proporción de candidatos
aceptados esté lejos de 0 % o 100 %. Un valor tı́pico es ajustar la proporción de aceptación/rechazo
al 50 % (o a un valor más adecuado haciendo las pruebas necesarias).

La función Wk (y, x) construida mediante el algoritmo de Metropolis es


Z 1 Z h i
n
 
Wk (y, x) = du d z Qk (z, x) Θ uw(x) − w(z) δ(y − x) + Θ w(z) − uw(x) δ(y − z) .
0
(2.312)

Es inmediato que dn y Wk (y, x) = 1 por dn y δ(y − x) = 1 y Θ(x) + Θ(−x) = 1. También


R R
satisface balance detallado.
En efecto, para ver esto separamos Wk en las dos componentes correspondientes a rechazo y acep-
tación de la propuesta

Wk = Wr + Wa ,
 Z 
Wr (y, x) = δ(y − x) 1 − dn z Wa (z, x) ,
(2.313)
 
 ρ(y) 
Wa (y, x) = Qk (y, x) Θ ρ(y) − ρ(x) + Θ ρ(x) − ρ(y) .
ρ(x)

(Para obtener Wa se ha integrado primero sobre z y luego sobre u.) La función Wr es del tipo
δ(y − x)f (x), por tanto satisface balance detallado:

Wr (y, x)ρ(x) = δ(y − x)f (x)ρ(x) = δ(x − y)f (y)ρ(y) = Wr (x, y)ρ(y). (2.314)

72
Para Wa , la función
  
Fa (y, x) ≡ Wa (y, x)ρ(x) = Qk (y, x) ρ(x)Θ ρ(y) − ρ(x) + ρ(y)Θ ρ(x) − ρ(y) (2.315)

es manifiestamente simétrica bajo intercambio de x e y si Qk (y, x) lo es.

Por lo tanto, el algoritmo satisface la condición de balance detallado y a larga produce xk ∼ w.


También es posible usar una función Qk (z, x) asimétrica. En este caso la probabilidad de aceptación
pasa a ser
 
Qk (xk , z) w(z)
p = mı́n 1, , (2.316)
Qk (z, xk ) w(xk )
es decir, se acepta si u < p. Esta versión es covariante bajo cambios de coordenadas.

2.12.5. Aplicación a la integral de caminos

En la aplicación a integral de caminos, se trabaja en tiempo euclı́deo, se discretiza el intervalo


temporal [τi , τf ] con pasos ǫ, de modo que cada camino equivale a un vector X = {xi (τj )} de
dimensión dN . Generalmente se trabaja con la traza del operador de evolución, lo cual equivale a
usar caminos cerrados x(τi ) = x(τf ) y dejar libre ese punto.

El camino X se termaliza de acuerdo con el peso w(X) = e−WE [X]/~ , usando un algoritmo de
Metropolis. Debido al carácter exponencial del peso, la región de caminos relevantes es relativamente
pequeña, por tanto los saltos han de ser muy moderados para que la aceptación no se desplome.
Generalmente se procede a “tocar” el valor de x(τj ) sólo para uno de los tiempos del camino (el
cambio puede ser aceptado o rechazado), luego se pasa al siguiente tiempo τj+1 , y ası́ sucesivamente
hasta que se ha hecho un barrido completo de todos los τj , j = 1, N . Cada barrido produce un Xk
de la cadena markoviana.

En los métodos Monte Carlo es esencial que cada paso sea poco costoso (ya que hay que hacer
muchos pasos). Eso se cumple en las acciones de las teorı́as fı́sicas porque los lagrangianos son
locales: si el campo φ(x) o camino x(t) cambia sólo en una zona, sólo hay que comparar el cambio
de la acción en esa zona, no es necesario calcular la acción completa, lo cual serı́a prohibitivo.
Concretamente, para una partı́cula en un potencial, al aplicar Metropolis se requiere comparar la
acción para el camino actual X y la propuesta Z. La probabilidad de aceptación depende del cociente

w(Z) e−WE [Z]/~


= −W [X]/~ = e(WE [X]−WE [Z])/~ . (2.317)
w(X) e E

73
Como se ha dicho X y Z coinciden para todo los tiempos τj excepto uno de ellos, digamos τk .
(
xj , si j 6= k
zj = , (2.318)
xk + ξ , si j = k
entonces
X  M (xj+1 − xj )2  X
M (zj+1 − zj )2

WE [X] − WE [Z] = + ǫV (xj ) − + ǫV (zj )
j
2 ǫ j
2 ǫ
M  
= xk+1 + xk−1 − 2xk − ξ ξ + ǫ V (xk ) − V (xk + ξ) .
ǫ
(2.319)
Sólo depende de los puntos próximos y el único cálculo nuevo que requiere es V (zk ).

Evidentemente, tratándose de un cálculo numérico, hay que controlar los valores de τf − τi y ǫ


ası́ como el tamaño tı́pico del salto zk − xk ∼ R para tener una proporción de propuestas aceptadas
del orden del 50 %. Estos detalles se discuten en [15].

2.13. Cuantización estocástica

Suponemos grados de libertad bosónicos φi para simplificar y utilizamos la notación de DeWitt.


Esto quiere decir que i incluye todas las etiquetas, incluido xµ , ı́ndices Lorentz y Dirac, ı́ndices
de tipo de partı́cula, etc. En particular, en integral de caminos x(t) = xk (t), i es el par (k, t).
Además i se trata (a efectos de notación) como un ı́ndice discreto. Ası́ φ representa la configuración
espacio-temporal completa del campo o camino.

La acción del sistema (en tiempo euclı́deo) se puede escribir


1 1
W (φ) = c + hi φi + mij φi φj + gijk φi φj φk + · · · . (2.320)
2! 3!
Los tensores mij , gi1 i2 ···in son completamente simétricos, y suponemos que son reales después de
la rotación de Wick. Como se vio en la sec. la información sobre el sistema se puede extraer de la
función de partición. Para caminos
 R +∞  Z
− ~1 −∞ H(τ )dτ
Z = tr T e = Dx(τ )e−WE [x(τ )]/~ , (2.321)

y en general
Z
Z= [dφ] P (φ), P (φ) = e−W (φ)/~ . (2.322)

74
Los valores esperados de los observables, A(φ), corresponden a
1
Z
hAi = [dφ] P (φ) A(φ). (2.323)
Z
Nótese que A(φ) es un funcional general por tanto incluye el producto de operadores en distintos
tiempos (o distintos puntos, en una teorı́a de campos).

El promedio en φ se puede hacer muestreando P (φ), φ ∼ P , de modo que


N
1 X
hAi = lı́m A(φk ). (2.324)
N →∞ N
k=1

2.13.1. Ecuación de Langevin

Lo caracterı́stico del método de cuantización estocástica [16] es que el muestreo se hace resol-
viendo una ecuación diferencial estocástica o ecuación de Langevin. φ sigue un camino aleatorio
φ(t) de modo que

1 T
Z
hAi = lı́m A(φ(t)) dt. (2.325)
T →∞ T 0

t representa el tiempo ficticio de la simulación (no el tiempo fı́sico, real o euclı́deo). La ecuación es

φ̇(t) = −∇W (φ(t)) + η(t). (2.326)

o equivalentemente

φ̇i (t) = −∂i W (φ(t)) + η i (t). (2.327)

donde ∂i = ∂/∂φi , y el ruido blanco η i (t) es una variable aleatoria gaussiana centrada independiente
por cada i y t, con normalización

hhη i (t)η j (t′ )ii = 2~δij δ(t − t′ ), hhη i (t)ii = 0. (2.328)

hh ii indica promedio sobre el ruido, para distinguirlo del promedio cuántico.

La ecuación tiene una parte determinista (de arrastre) y una parte aleatoria (de difusión). La parte
determinista llevarı́a φ al mı́nimo de la acción W (φ), la parte aleatoria introduce las fluctuaciones

75
cuánticas. Tomar el lı́mite ~ → 0 equivale a quitar el ruido blanco η(t), φ̇(t) = −∇W (φ(t)). En
el lı́mite relevante de t → +∞, φ(t) acaba en el mı́nimo de W , φ̇(t) → 0 y

0 = ∇W (φ(t)), (2.329)

que no son más que las ecuaciones de movimiento clásicas.

Para dar sentido a la ecuación de Langevin discretizamos el tiempo ficticio t en pasos ǫ, y


posteriormente ǫ → 0. En cada paso temporal

φ(tj+1 ) = φ(tj ) − ǫ ∇W (φ(tj )) + 2~ǫ η̂(tj ), (2.330)

o equivalentemente

φi (tj+1 ) = φi (tj ) − ǫ ∂i W (φ(tj )) + 2~ǫ η̂ i (tj ), (2.331)

donde las η̂ i (tj ) son variables gaussianas centradas normalizadas e independientes



hhη̂ i (tj )η̂ i (tj ′ )ii = δii′ δjj ′ , hhη̂ i (tj )ii = 0. (2.332)

Nótese que cuando se quita el efecto de arrastre, φ(tj+1 ) − φ(tj ) = 2~ǫ η̂(tj ), la variable φ(tj )
simplemente sigue un movimiento browniano con D = ~ (ya que hh∆φi ∆φj ii = 2~ǫδij en cada
dirección). Entonces, la relación φ̇(t) = η(t), indica que el ruido blanco η(t) es la derivada temporal
1
R 2
del proceso de Wiener. Además, usando (2.233), se ve que la medida de η(t) es Dη(t)e− 4~ η (t) dt ,
es decir 1
R 2
Dη(t)e− 4~ η (t) dt F [η(t)]
R
hhF [η(t)]ii = 1
R
2
. (2.333)
Dη(t)e− 4~ η (t) dt
R

También, derivando con respecto t y t′ en


hh φi (t) − φi (t′ ) φj (t) − φj (t′ ) ii = 2~δij |t − t′ |
 
(2.334)
e invocando invariancia rotacional, se obtiene
hhη i (t)η j (t′ )ii = 2~δij δ(t − t′ ). (2.335)

2.13.2. Ecuación de Fokker-Planck

Pasemos a demostrar que en efecto una colección de caminantes que obedezca la ecuación de
Langevin hace un muestreo ergódico de P (φ) = e−W (φ)/~ . Denominemos Q(φ, t) la distribución de
φ en cada instante t, 
Q(φ, t) = hhδ φ − φ(t) iit . (2.336)

76
Para ver cómo evoluciona Q, lo mejor es seguir la evolución de los valores esperados
Z
hhAiit = A(φ)Q(φ, t)[dφ]. (2.337)

En un paso t → t + ǫ,

hhA(φ)iit+ǫ = hhA(φ + dφ)iit


1
= hhA(φ) + dφi ∂i A(φ) + dφi dφj ∂i ∂j A(φ) + O(dφ3 )iit
2!
√ 1
= hhA + − ǫ ∂i W + 2~ǫ η̂ i (t) ∂i A + 2~ǫη̂ i (t)η̂ j (t)∂i ∂j A(φ) + O(ǫ3/2 )iit .

2!
(2.338)

En hhA(φ)iit+ǫ se tiene el promedio sobre los η̂(t′ ) hasta t que ya producen hhA(φ)iit y el promedio
sobre η̂(t) que es nuevo. Tomando este último promedio, (y teniendo en cuenta que el término
O(ǫ3/2 ) es impar en η̂(t)) se obtiene

hhAiit+ǫ = hhAiit + ǫ hh − ∂i W ∂i A + ~δij ∂i ∂j Aiit + O(ǫ2 ),


(2.339)
∂t hhAiit = hh − ∇W ∇A + ~∇2 Aiit

Por otro lado atribuyendo ∂t hhAiit a la variación de Q(φ, t) se deduce


Z Z
−∇W ∇A + ~∇2 A Q [dφ]

A∂t Q [dφ] =
Z (2.340)
= A ∇(Q∇W ) + ~∇2 Q [dφ].


Como esto vale para cualquier A(φ), debe cumplirse

∂t Q = ~∇2 Q + ∇(Q∇W ) (Ecuación de Fokker-Planck). (2.341)

Esta ecuación equivale a una ecuación de continuidad con flujo J = −Q∇W − ~∇Q, es decir, con
arrastre (campo de velocidades) −∇W y coeficiente de difusión D = ~.

Es importante volver a notar que aquı́ que t no es el tiempo fı́sico sino el tiempo de simulación o
tiempo Langevin. El tiempo fı́sico (o su versión euclı́dea) está contenido en φ, φ describe una historia
espacio-temporal completa. Ası́, para una teorı́a de campos en d + 1 dimensiones (d espaciales y
una temporal), φ es una función de d + 1 variables y φ(t) es un campo en d + 2 dimensiones. En
el lı́mite t grande φ(t) es una variable aleatoria que se va a distribuir de acuerdo con P (φ).

77
La ecuación de Fokker-Planck se puede reescribir usando P = e−W/~ :
  
Q
∂t Q = ~∇ P ∇ , (2.342)
P

que implica que Q = P es una solución de equilibrio de la ecuación de evolución.

Falta verificar que la evolución lleva cualquier Q inicial a la distribución de equilibrio. Aquı́ hay que
suponer que P es suficientemente bien comportada (en particular real no negativa y normalizable).
La forma de ver esto es llevar la ecuación de Fokker-Planck a forma hermı́tica (tipo ecuación de
Schrödinger). Para ello definimos la función de onda Ψ(φ, t)

Q(φ, t) = Ψ(φ, t)Ψ0 (φ, t), Ψ0 := P 1/2 = e−W/2~ . (2.343)

Simplemente reescribimos la ecuación de P como una ecuación para Ψ:

∂t Q = Ψ0 ∂t Ψ,
∇ (P ∇ (Q/P )) = ∇ Ψ20 ∇ (Ψ/Ψ0 ) = ∇ (Ψ0 ∇Ψ − Ψ∇Ψ0 )

(2.344)
= Ψ0 ∇2 Ψ − Ψ∇2 Ψ0 .

Entonces
~ 2 ∇2 Ψ 0
−~ ∂t Ψ = −~2 ∇2 + V Ψ,

V (φ) = . (2.345)
Ψ0

Es una ecuación de Schrödinger en tiempo imaginario con masa 1/2 y potencial V = 41 (∇W )2 −
~
2
∇2 W . Por construcción Ψ0 es un estado propio del hamiltoniano con energı́a cero. Éste es también
el estado fundamental, ya que H se puede reescribir en la forma
1
H = S † S, S = ~∇ + ∇W, (2.346)
2
y por tanto H ≥ 0. Esto implica que HΨn = En Ψn con En ≥ 0 y hΨn |Ψn′ i = δnn′ ,
X
Ψ(φ, t) = cn Ψn (φ)e−tEn /~ (2.347)
n≥0

y para Q X
Q(φ, t) = cn Qn (φ)e−tEn /~ , Qn (φ) = Ψn (φ)Ψ0 (φ). (2.348)
n≥0

78
Las componentes transitorias Qn (n > 0) no contribuyen a la normalización, sólo afectan a la
distribución de φ: Z Z
[dφ]Qn = [dφ]Ψ0 Ψn = δn0 . (2.349)

Para t grande Q → Q0 = P (salvo normalización) independientemente de la distribución inicial, ya


que E0 = 0 y los demás estados son transitorios.

Nótese que las ecuaciones de Langevin o de Fokker-Planck, tal y como están, no son covariantes
bajo cambios de coordenadas (φi ). El espectro En y el ritmo de convergencia dependerá del sistema
de coordenadas, aunque no la distribución de equilibrio [dφ]P (φ). Existen versiones covariantes,
introduciendo una métrica gij (φ), denominada kernel en este contexto.

2.13.3. Diagramas estocásticos

φ η h

Figura 3: Diagramas de la cuantización estocástica para φ(t).

Supongamos que sólo hay vértices de tres puntos: gi1 ...in = 0 para n > 3.
1
∂t φi = −hi − mij φj − gijk φj φk + η i ,
2! (2.350)
1
φl (t) = (∂t + m)−1li (η i − hi − gijk φj φk ).
2!

Para la teorı́a libre, gijk = hi = 0 (y m > 0)


−1
φl (t) = ∂t + m li η i ,
Z t l (2.351)
l −tm l ′ −(t−t′ )m ′
φ (t) = (e φ(0)) + dt e η(t ) .
0

79
Figura 4: Diagramas para hhφk (t)φl (t)ii en presencia de interacción.

El primer término es transitorio. Para la función de dos puntos o propagador se tiene


DD Z t k Z t l EE
k l ′ −(t−t1 )m ′ −(t−t2 )m
hhφ (t)φ (t)ii ∼ dt e η(t1 ) dt e η(t2 )
t→∞ 0 0
Z t (2.352)
2
= lı́m dt1 2 e−(t−t1 )m kl = (m−1 )kl .
t→∞ 0

Que coincide correctamente con el resultado usual

hφk φl i = (m−1 )kl . (2.353)

Para más detalles sobre cuantización estocástica consúltese [17].

Referencias
[1] A. Galindo y P. Pascual, Mecánica Cuántica, vols. I y II, Eudema Universidad, 1989

[2] J. Schwinger Particles, Sources and Fields, vol. I. Addison-Wesley, 1970

[3] W. Greiner Relativistic quantum mechanics: wave equations Springer, 1990

[4] L. S. Schulman Techniques and Applications of Path Integration John Wiley & Sons, 1981

[5] J. W. Negele y H. Orland Quantum Theory of Many Particle Systems Addison Wesley, 1988

[6] B. G. Adams, Algebraic approach to simple quantum systems, Springer-Verlag, 1994

[7] R. H. Landau, Quantum Mechanics II, John Wiley & Sons, 1996

[8] H. Kleinert, Path integrals in Quantum Mechanics, Statistics and Polymer Physics, World
Scientific, 1990

80
[9] A. L. Fetter y J.D. Walecka, Quantum theory of many-body particle systems,
McGraw-Hill, 1971.

[10] R. P. Feynman, Rev. Mod. Phys. 20 (1948) 367.

[11] J. Glimm y A. Jaffe, Quantum Physics, Springer-Verlag, 1987.

[12] S. A. Chin, J. W. Negele and S. E. Koonin, Annals Phys. 157 (1984) 140.

[13] R. P. Feynman y A. R. Hibbs, Quantum Mechanics and Path Integrals, McGraw-Hill, 1965.

[14] N. Madras, Lectures on Monte Carlo Methods, The Fields Institute For Research in Mathe-
matical Sciences, American Mathematical Society, 2002.

[15] M. Creutz and B. Freedman, Annals Phys. 132 (1981) 427.

[16] G. Parisi and Y.-s. Wu, Sci. Sin. 24 (1981) 483.

[17] P. H. Damgaard and H. Huffel, Phys. Rept. 152 (1987) 227.

81

S-ar putea să vă placă și