Sunteți pe pagina 1din 21

Capítulo II: Herramientas matemáticas para la Mecánica Cuántica

En este capítulo se hará una revisión general de la matemática básica que se usa en los desarrollos
de la mecánica cuántica.

En el capítulo anterior se dio la interpretación probabilística de la función de onda (r,t) de una


 2
partícula:  r , t  d 3r representa la probabilidad de encontrar, en un tiempo t, la partícula en un
volumen d3r = dxdydz alrededor del punto r. La probabilidad total de encontrar la partícula en algún
lugar en el espacio es igual a 1, tal que:


 d r r , t 
2
3
1 (2.1)

Donde la integración se extiende sobre todo el espacio.

Lo anterior implica que hemos llevado el estudio a un grupo de funciones de cuadrado integrable,
funciones para las que la integral (2.1) converge. Vamos a denominar F al conjunto de funciones que
cumplan con este requisito.

2.1 Estructura de la función de onda espacial F

a) F como espacio vectorial

Es fácil mostrar que F satisface todos los criterios de un espacio vectorial. Como ejemplo, si 1(r) y
2(r) pertenecen a F, entonces:
  
 r   1 1 r   2 2 r  F (2.2)

Donde 1 y 2 son dos números complejos arbitrarios.

Para mostrar que (r) es de cuadrado integrable:


      
 r   1  1 r   2  2 r   12 1 r  2 r   1*2 1 r  2 r 
2 2 2 2 2
(2.3)

Los dos últimos términos de (2.3) tiene el mismo módulo, que tiene como límite superior:

 
1 2  1 r    2 r 
2 2 2  2

 2
Por tanto  r  es menor que una función cuya integral converge, ya que 1 y 2 son de cuadrado
integrable.

b) El producto escalar
Con cada par de elementos de F, (r) y (r), tomadas en ese orden, se asocia un número complejo,
denotado por (,), que, por definición, es igual a:

 ,    d 3r   (r) (r) (2.4)

(,) es el producto escalar de (r) por (r).

 Propiedades:

1. De (2.4) se tiene que:

 ,    , 
 , 1 1  2 2   1  , 1   2  , 2  (2.5)
11  2 2 ,   1 1 ,   2  2 , 
2. Si (,)=0, (r) y (r) son ortogonales

3.  ,    d 3r   (r ) (r ) (2.6)

(2.6) da como resultado un número real, positivo, que es cero si y sólo si (r)=0.

4. Finalmente, la desigualdad de Schwarz:

 1 , 2    1 , 1   2 , 2  (2.7)

Esta desigualdad se vuelve igualdad sólo en el caso de que las dos funciones  y  sean
proporcionales.

c. Operadores Lineales.

Por definición, un operador lineal A es una entidad que asocia con cada función (r) que pertenece
a F otra función ´(r), de una forma lineal:

 ´( r )  A ( r )
(2.8)
A1 1 ( r )  2 2 ( r )  1 A 1 ( r )  2 A 2 ( r )

Veamos algunos ejemplos de operadores lineales:

 El operador paridad  cuya definición es:

ˆ  ( x , y , z )   (  x , y , z )
 (2.9)

 El operador que actúa multiplicando por x, que es simbolizado como X, y que es definido por:
Xˆ ( x, y, z )  x ( x, y, z ) (2.10)

 El operador que diferencia con respecto a x, que denotamos con Dx y cuya definición es

 ( x , y , z )
Dˆ x ( x , y , z )  (2.11)
x

Si se tienen dos operadores lineales A y B, su producto AB está definido como:



 
( Aˆ Bˆ ) ( r )  Aˆ Bˆ  ( r )  (2.12)

De acuerdo con (2.12), primero actúa B sobre (r) dando como resultado una nueva función (por
ejemplo, B(r) = (r)) y luego actúa A sobre la nueva función (r). En general AB≠BA, por lo anterior,
se denomina conmutador de A y B al operador escrito como [A,B], definido por:

Aˆ , Bˆ   Aˆ Bˆ  Bˆ Aˆ (2.13)

A modo de ejemplo, calculemos el conmutador [X, Dx] utilizando una función arbitraria (r):

Xˆ , Dˆ  (r )   x x  x x  (r )


x
 
   
 x  ( r )  [ x ( r )]
x x
 
 ( r )   ( r )
x  ( r )  x
x x
ˆ ˆ 
 
X , Dx  ( r )   ( r )

Ya que lo anterior es verdadero para todo (r), se deduce que

Xˆ , Dˆ   1
x (2.14)

2.2. Mecánica Cuántica Matricial: La Notación Dirac.

La mecánica matricial es una formulación de la mecánica cuántica creada por Werner Heisenberg,
Max Born y Pascual Jordan en 1925. Fue la primera definición completa y correcta de la mecánica
cuántica. Extiende el modelo de Bohr al describir cómo ocurren los saltos cuánticos, interpretando
las propiedades físicas de las partículas como matrices que evolucionan en el tiempo. Es el
equivalente a la formulación ondulatoria planteada por Erwin Schrödinger y es la base de la notación
bra-ket de Paul Dirac para la formulación matricial.

Heisenberg anunció al mundo su descubrimiento en julio de 1925. Pero ese


descubrimiento estaba notoriamente incompleto. Heisenberg no se había dado
cuenta de que sus arreglos cuadráticos en realidad eran matrices, y de que su regla
era el resultado obtenido de una multiplicación de matrices. Más aún, la derivación
de su regla provenía de la manipulación de la coordenada de la posición expresada
en términos de una serie de Fourier, no se le había ocurrido hacer lo mismo en
términos del momentum, como tampoco se le había ocurrido la posibilidad de que
ambas cantidades pudieran estar inextricablemente ligadas.
En un resumen de memorias y recuerdos compartidos con su auditorio con motivo
de su Premio Nóbel de Física el 11 de diciembre de 1954, Max Born mencionó lo
siguiente en torno a su posterior intervención para tomar en sus manos lo que
Heisenberg había dejado pendiente:
“En Göttingen también tomamos parte en los intentos para destilar la mecánica
desconocida del átomo extrayéndola de los resultados experimentales. La dificultad
lógica se volvió cada vez más aguda... El arte de adivinar fórmulas correctas... fue
llevado a una perfección considerable.
Este período fue llevado a una súbita conclusión por Heisenberg. Él... reemplazó el
trabajo al tanteo por una regla matemática... Heisenberg proscribió la imagen de
órbitas electrónicas de radios orbitales y períodos de rotación bien definidos, porque
estas cantidades no son observables; él exigía que la teoría estuviese construida hacia
arriba mediante arreglos cuadráticos... de transiciones de probabilidad... Para mí la
parte decisiva de su trabajo es el requerimiento de que uno debe encontrar una regla
mediante la cual a partir de un arreglo dado... el arreglo para el cuadrado (de la
cantidad) pueda ser encontrado (o, en general, la multiplicación de tales arreglos).
Mediante la consideración de... ejemplos... él encontró esta regla... Esto fue en el verano
de 1925. Heisenberg... tomó su descanso sabático... y me entregó su documento a mí
para su publicación.
La regla de multiplicación de Heisenberg no me dejó en paz, y tras una semana de
pensamientos y reflexiones intensas, de pronto recordé una teoría algebraica... Tales
arreglos cuadráticos son bastante familiares para los matemáticos y se llaman
matrices, en relación con una regla bien definida para la multiplicación. Apliqué esta
regla a la condición cuántica de Heisenberg y encontré que estaba de acuerdo para los
elementos diagonales. Era fácil adivinar cuáles deberían de ser los elementos que
faltaban, a decir, nulos; e inmediatamente tuve ante mí la fórmula extraña:
ih
QP  PQ  ”
2
Cuando al darse cuenta Max Born de que lo que Heisenberg había obtenido era en
esencia algo que tenía que ver con operaciones matriciales, fue entonces cuando se
le ocurrió también representar ambas coordenadas generalizadas de la mecánica
clásica (q y p) como matrices Q y P, y para entonces ya estaba en su camino para
establecer la relación de conmutación fundamental de la Mecánica Cuántica
Matricial, su “extraña ecuación”1.

En el capítulo I partimos del siguiente postulado: el estado cuántico de una partícula es definido, en
un instante dado, por una función de onda (r). La interpretación probabilística de esta función de

1 http://la-mecanica-cuantica.blogspot.com.co/2009/08/de-la-mecanica-clasica-la-mecanica.html
onda requiere que sea de cuadrado integrable. Esta función puede ser representada por distintos
grupos de componentes, correspondiendo cada uno a la elección de una base (representación de los
momentos, o de las posiciones).

Lo anterior es análogo a lo encontrado en el espacio, R3: la posición de un punto en el espacio puede


ser descrita por un grupo de tres números, que son sus coordenadas con respecto al sistema de ejes
definido previamente. Si se cambian los ejes, otro grupo de coordenadas corresponde al mismo
punto. El concepto geométrico de vector y cálculos vectoriales nos permiten evitar referirnos a un
sistema de ejes; esto simplifica considerablemente tanto las fórmulas como los análisis

Usaremos un enfoque similar aquí: cada estado cuántico de una partícula puede ser caracterizado
por un “vector de estado” perteneciente a un espacio abstracto Er, llamado el espacio de estado de la
partícula.

Realmente, la introducción del vector de estado y espacios de estado lo que hace es simplificar el
formalismo. También permite una generalización del formalismo. De hecho, existen sistemas físicos
cuya descripción cuántica no puede ser hecha con base en una función de onda, es el caso cuando se
toman en cuenta los grados de libertad del espín de una partícula. En consecuencia, el primer
postulado que se establecerá es el siguiente: el estado cuántico de un sistema físico está caracterizado
por un vector de estado, que pertenece a un espacio E, que es el espacio de estado del sistema.

(a) Vectores “Ket” y vectores “bra”

Un elemento, o vector del espacio E, es llamado un vector ket, o más simple, un ket. Se representa por
el símbolo , en cuyo interior se coloca un signo distintivo que nos permite distinguir el
correspondiente ket de otros, por ejemplo  .

Con cada par de kets  y  , tomados en este orden, asociamos un número complejo que es su
producto escalar, (  ,  ), y que satisface las propiedades ya descritas.

Un elemento, o vector, del espacio conjugado E * es llamado vector bra, o más simplemente, bra. Se
simboliza por . Por ejemplo, el bra  designa una función lineal  y a partir de ahora usaremos
la notación   para representar el número obtenido al actuar con la función lineal  , que
pertenece a E *, sobre el ket  que pertenece a E.:

( )    (2.15)

El origen de esta terminología es la palabra inglesa “bracket” (paréntesis).

Nota:

Tratemos algunas ideas generales de la mecánica cuántica. Algunos de los asertos serán bastante
precisos, otros lo serán sólo parcialmente. Los tratamientos posteriores no son tan imprecisos, de
hecho uno de los aspectos más bellos de la mecánica cuántica es cuánto se puede deducir de tan poca
cosa. (tomado de Feynman, Vol III)

Comencemos discutiendo de nuevo la superposición de las amplitudes de probabilidad. Como


ejemplo nos referiremos al experimento descrito en el capítulo I, mostrando nuevamente la figura
1.1.

Figura 2.1 Experimento de interferencia con electrones.

Hay una fuente s de partículas, digamos electrones; hay una pared que posee dos rendijas; detrás de
la pared hay un detector colocado en cierta posición x. Nos preguntamos por la probabilidad de que
una partícula sea encontrada en x. Nuestro primer principio general de la mecánica cuántica es que la
probabilidad de que una partícula llegue a x, cuando sale de la fuente s, se puede representar
cuantitativamente por el cuadrado del valor absoluto de un número complejo llamado una amplitud
de probabilidad; en este caso, la “amplitud de que una partícula de s llegue a x”. Usaremos la notación
Dirac para representar esta idea:

Partícula que llega a x Partícula que sale de s (N.1)

En otras palabras, los dos corchetes < > son un signo equivalente a “la amplitud de que”; la expresión
a la derecha de la línea vertical siempre da la condición inicial, y la otra a la izquierda la condición
final. La forma abreviada de escribirlo es

xs (N.2)

Hay que enfatizar en que una amplitud de esta clase es simplemente un número (un número
complejo).

Ya hemos visto en el capítulo I que cuando existen dos caminos para que la partícula alcance al
detector, la probabilidad resultante no es la suma de las dos probabilidades, sino que se debe escribir
como el cuadrado del valor absoluto de la suma de las dos amplitudes. Teníamos que la probabilidad
de que un electrón llegue al detector cuando ambos caminos están abiertos es:

P12  1  1
2
(N.3)

Deseamos poner ahora este resultado en términos de la nueva notación (Dirac). Antes, sin embrago,
queremos establecer nuestro segundo principio general de la mecánica cuántica: cuando una partícula
puede alcanzar un estado dado por dos caminos posibles, la amplitud total para el proceso es la suma
de las amplitudes de los dos caminos considerados separadamente. Entonces:

xs ambos agujerosabiertos
 xs a través de 1
 xs a través de 2
(N.4)

Incidentalmente, vamos a suponer que los agujeros 1 y 2 son lo suficientemente pequeños para que
cuando digamos que un electrón pasa por un agujero no tengamos que discutir por qué parte de él.
Ahora queremos explicar detalladamente lo que podemos decir acerca de la amplitud del proceso en
el cual el electrón alcanza el detector en x pasando por el agujero 1. Podemos hacer esto usando
nuestro tercer principio general: cuando una partícula sigue un camino determinado, la amplitud para
este camino se puede escribir como el producto de ir parte del camino por la amplitud del resto del
camino. Para la figura 2.1, la amplitud de ir desde s hasta x por el agujero 1, es igual a la amplitud de
ir de s hasta 1, multiplicada por la amplitud de ir desde 1 hasta x:

xs vía 1
 x1 1s (N.5)

Notarán que la ecuación (N.5) parece que está escrita en orden inverso. Debe ser leída de derecha a
izquierda: el electrón va de s a 1 y luego de 1 a x. En resumen, si los hechos ocurren en sucesión (es
decir, si se puede analizar uno de los caminos de la partícula diciendo que hace esto, luego esto y
luego aquello) la amplitud resultante por ese camino se calcula multiplicando en sucesión la amplitud
para cada uno de los pasos sucesivos. Usando esta ley, podemos volver a escribir la ecuación (N.4)
así:

xs ambos
 x1 1s  x 2 2s

Ahora es interesante mostrar que usando sólo estos principios podemos calcular un problema mucho
más complicado, como el mostrado en la figura 2.2.

Figura 2.2 Experiencia de interferencia con más rendijas

Aquí tenemos dos paredes, una con dos agujeros, 1 y 2, y otra que tiene tres agujeros, a,b,c. Detrás de
la segunda pared tenemos un detector en x y queremos conocer la amplitud de que una partícula
llegue a él. Un modo de hacerlo es calculando la superposición (interferencia) de las ondas que pasan;
otra forma es diciendo que existen seis posibles caminos y superponiendo una amplitud por cada
uno. El electrón puede atravesar el agujero 1, luego el a y llegar a x; o podría atravesar el agujero 1,
luego el b y llegar a x; y continuar de este modo. De acuerdo con nuestro segundo principio, las
amplitudes para diferentes caminos se suman, luego, podríamos escribir la amplitud de ir desde s
hasta x como una suma de seis amplitudes separadas. Pero además, usando el tercer principio, cada
una de estas amplitudes separadas se puede escribir como el producto de tres amplitudes:

x s  x a a1 1s  x b b1 1s  x c c1 1s  x a a 2 2 s  x b b 2 2 s  x c c 2 2 s
O, de forma abreviada:

x s   x  i i s (N.6)
i 1, 2
  a ,b , c

(b) Correspondencia entre kets y bras

A cada ket le corresponde un bra:

  ( , ) (2.16)

La correspondencia (2.16) es antilineal con respecto al primer vector. Esto es expresado por:

1 1  2  2 ,    1 ( 1 ,  )  2 (  2 ,  )


 1 1   2  2  (2.17)
 1 1  2  2 ,  
De (2.17) se tiene que la correspondencia entre bra y ket es antilineal:

1 1  2  2  1 1  2  2 (2.18)

(c) Notación Dirac para el producto escalar.

En adelante para el producto escalar usaremos sólo la notación Dirac:   , cuyas propiedades son:


   
 1 1  2 2  1   1  2   2
(2.19)
11  2 2   1 1   2  2 
  real, positivo; es nulo si y sólo si   0

Reescribamos ahora la desigualdad de Schwarz (ecuación 2.7) haciendo uso de la notación Dirac:

Para un ket  que pertenece al espacio de estados E, se tiene que:

 real 0 (S.1)
  es cero sólo si  es un vector nulo. Basándonos en la desigualdad (S.1) vamos a escribir la
desigualdad de Schwarz, que establece que, si 1 y  2 son vectores arbitrarios de E, entonces:

2
1 2  1 1 2 2 (S.2)

Siendo que S.2 es una igualdad si y sólo si 1 y  2 son proporcionales.

Dando 1 y  2 , consideremos el ket  definido por:

  1    2 (S.3)

Donde  es un parámetro arbitrario. Independiente de  se tiene que:

    1    2  1    2   0
(S.4)
 1 1   1  2    2 1    2  2  0

Y ya que  es un número cualquiera, se elige un valor arbitrario:

 2 1

2 2
(S.5)
 
  1 2

2 2

Se tiene que

 2 1    
   1 1  1  2  1 2  2 1  2 1 1  2  0 (S.6)
2 2 2 2 2 2

De donde

1  2
1 1   2 1  0 (S.7)
2 2

1 1  2  2  1  2  2 1

 1  2 1  2 (S.8)
2
1 1  2  2  1  2

Quedando probada la desigualdad de Schwarz.

(d) Operadores Lineales.


La definición es completamente análoga a lo ya visto. Un operador lineal A asocia con cada ket 
que pertenece a E, otro ket  ´ que también pertenece a E, con una correspondencia lineal:

 ´  Aˆ 
(2.20)
Aˆ 1  1  2  2   1 Aˆ  1  2 A  2

El producto de dos operadores lineales A y B, escrito como AB, se define de la siguiente forma:

 AB   AB  2  (2.21)

Primero actúa B sobre  para dar como resultado el ket B  ; posteriormente A actúa sobre este
nuevo ket. En general AB ≠ BA. Por lo anterior, se define el conmutador [A,B] de A y B como:

A, B  AB  BA (2.22)

Sean dos kets  y  . Llamamos los elementos de matriz de A entre  y  , al producto escalar:

 A   (2.23)

Como consecuencia, esto es un número a que depende linealmente de  y antilinealmente de  .

Ilustremos la definición de operador lineal con un caso sencillo. Consideremos un sistema de


coordenadas x – y, y un punto P en ese sistema. Supongamos ahora que decidimos cambiar los ejes
de coordenadas a un nuevo sistema x´ - y´, mediante una rotación a través de un ángulo , tal como
se ilustra en la figura 2.3

Figura 2.3 Representación de coordenadas de un punto P en x – y en x´ - y´ por rotación.

Con un poco de geometría analítica se puede demostrar que las coordenadas del punto P, respecto al
sistema x´ - y´ se pueden expresar en términos de las coordenadas de P respecto al sistema x – y en
la siguiente forma:

x´ x cos   ysen


(E.1)
y´  xsen  y cos 

Usando matrices, estas dos ecuaciones se pueden escribir en la siguiente forma:


 cos  sen  x   x´ 
      (E.2)
  sen cos   y   y´ 

Pero x y y pueden considerarse como las componentes del vector OP respecto al sistema x – y y lo
mismo se puede hacer con x´ - y´, de manera que las dos matrices columna representan vectores que
pertenecen a E y la matriz cuadrada representa un operador o transformación lineal que transforma
cada vector u  ( x, y ) en un vector v  A u  ( x´, y´) .

 Comentarios importantes acerca de la notación Dirac:

Hemos visto la simplicidad y conveniencia del formalismo Dirac. Por ejemplo,  representa una
función lineal (o bra) y  1  2 , el producto escalar de dos kets  1 y  2 . El número asociado con
la función lineal  con un ket arbitrario  es entonces escrito simplemente yuxtaponiendo los
símbolos  y  :   . Esto es el producto escalar de  por el ket  correspondiente a 
(lo que muestra la utilidad de tener la correspondencia uno a uno entre kets y bras).

Asumamos ahora que escribimos  y  en el orden opuesto:

  (2.24)

Si nos atenemos a la regla de la yuxtaposición de símbolos, esta expresión representa un operador,


veamos: elijamos un ket arbitrario  y consideremos:

   (2.25)

Ya sabemos que   es un número complejo; en consecuencia, (2.25) es un ket, obtenido de


multiplicar  por el escalar   . Entonces,   aplicado a un ket arbitrario, da otro ket: esto
es un operador.

Así, vemos que el orden de los símbolos es de importancia crítica. Sólo los números pueden ser
movidos (ubicados) sin cuidado especial. Pero, para kets, bras y operadores, se debe tener siempre
cuidado de respetar el orden cuando se escriben las fórmulas. De hecho, si  es un número:

   
  
(2.26)
A    A  con A siendo un operador lineal
         
 El operador adjunto A+ de un operador lineal2

Las transformaciones lineales más importantes en mecánica cuántica están representadas por los
llamados operadores auto-adjuntos, que definiremos pronto, antes definamos el adjunto de un
operador lineal. El adjunto de un operador A puede ser también llamado hermitiano adjunto,
hermitiano conjugado o hermitiano traspuesto.

Sea  un ket arbitrario. El operador A asocia con este ket otro ket  ´  A  . Al ket  le
corresponde un bra  ; de la misma forma, a  ´ le corresponde un  ´ . Esta correspondencia
entre kets y bras permite definir la acción de un operador A+ sobre los bras: el operador A+ asocia
con el bra  , correspondiente al ket  , el bra  ´ , corresponde al ket  ´  A  . Escribimos
entonces:  ´   A . La figura 2.3 representa la definición de operador adjunto usando la
correspondencia entre kets y bras.

Figura 2.3. Definición del operador adjunto A+ de un operador A usando la correspondencia entre kets y bras.

A+ es un operador lineal, definido por:

 ´  A    ´   A (2.27)

De (2.27) es fácil deducir otra relación importante que satisface el operador A+. Usando la propiedad
de producto escalar, se puede escribir:

´    ´ (2.28)

Usando (2.27) para  ´ y para  ´ , se obtiene:


 A    A  (2.29)

Relación que es válida para todo  y  .

2 En álgebra lineal, matriz adjunta puede referirse a la matriz traspuesta conjugada, o matriz obtenida a partir de otra calculando su
matriz traspuesta y a esta calcularle la matriz conjugada. Es decir, para obtener la matriz adjunta, se cambian las filas por las columnas
(traspuesta) y se toma el conjugado de cada elemento.
Hemos escrito notación que puede llevar a confusión:  y  , donde  es un escalar. El mismo
problema se puede tener con las expresiones A y A , donde A es un operador lineal. A es
otra forma de designar al ket A  :

A  A  (2.30)

A es el bra asociado con el ket A . Usando (2.30) y (2.27), tenemos:

A   A  (2.31)

Cuando un operador A se toma fuera del símbolo bra, debe ser sustituido por su adjunto A+ (y
colocado al lado derecho del bra).

La correspondencia entre un operador y su adjunto está dado por:

A 
 
A
A   A (2.34)
 A  B   A  B 
Calculemos (AB)+. Para hacerlo, consideremos un ket   AB  . Escribámoslo en la forma,
  A  , siendo que   B  , entonces:

   ( AB)    A   B  A

Ya que    B  . De esto se deduce que:

( AB)   B  A (2.35)

Note que el orden cambia cuando uno toma el adjunto de un producto de operadores.

 Valores propios y vectores propios

Un escalar es un valor propio y un vector no nulo x es un vector propio de un operador lineal A, si:

A x  x (2.36)

O, en otros términos, cuando x es vector propio de A, todo lo que A hace al operar sobre x es
multiplicarlo por una constante (su valor propio), sólo produciendo un posible cambio en su
magnitud.
Ilustremos ahora cómo se podrían determinar los valores y los vectores propios de un operador A.
Supongamos que A está representado por una matriz (n x n) y por tanto x estaría representando
por un vector columna. La ecuación (2.36) asumiría entonces la forma:

 a11 a12 ... a1n  x1   x1 


    
 a 21 a 22 ... a 2 n  x 2   x2 
. . .   .  . 
       (2.37)
. . .  .  . 
. . .   .  . 
    
a
 n1 an 2 a nn  xn  x 
 n

Esto no es otra cosa que una manera eficiente de escribir n ecuaciones lineales. Formalmente
podemos escribirlas en forma aún más compacta:

a11 -  a12 ... a1n


a 21 a 22 -  ... a2n
. . .
0 (2.38)
. . .
. . .
a n1 an 2 a nn - 

A esta ecuación se le conoce con el nombre de “ecuación característica” para A: det(A-I)=0. Es


simplemente un polinomio de orden n para el que  tendrá n raíces, generalmente denotadas por i.
Al conjunto de valores propios i se le llama el espectro de A. Si un valor propio dado es una raíz
múltiple del polinomio característico, se dice que el espectro es degenerado.

Una vez determinados los valores propios i, se remplazan uno a uno en la ecuación (2.37) para
obtener los vectores propios. Note que cualquier combinación lineal de vectores propios que
pertenezcan al mismo valor propio es también un vector propio que corresponde al mismo valor
propio:

A x  x y A y  y , entonces:

Aa x  b y   aA x  bA y
 a x  b y
  a x  b y 
 Operador Hermítico
Un operador hermítico (también llamado hermiciano) definido sobre un espacio de Hilbert3 es un
operador lineal que, sobre un cierto dominio, coincide con su propio operador adjunto: A=A+. Una
propiedad importante de estos operadores es que sus autovalores son siempre números reales.

Cuando el dominio de un operador hermítico y el de su operador adjunto coinciden totalmente se


dice entonces que es un operador autoadjunto. Los operadores que corresponden a cantidades físicas
observables en mecánica cuántica son siempre operadores hermiticos.

Teorema:

Si A y B son autoadjuntos, entonces AB también lo es sí y sólo sí A y B conmutan (esto es, si su


conmutador es cero).

Demostración:

Si AB = BA, entonces: (AB)+=B+A+=BA=AB, por tanto (AB)+=AB, es decir, AB es autoadjunto (o


hermítico, o hermiciano) .

Por otro lado, si AB = (AB)+ = B+A+ = BA, por tanto, [AB-BA]=0, es decir, si AB es hermítico, el
conmutador de A y B es cero.

Teorema:

Un operador lineal A es hermítico sí y sólo sí x A x es real para todo x

Demostración:

x A x  x A x
*
De acuerdo con (2.29)


Si A es hermítico A = A+, entonces: x Ax  x Ax

Lo que significa que x A x es real.


Inversamente, si x A x es real, entonces: x A x  x A x , que, por (2.29) es equivalente a

x A x  x A x , de donde se tiene que x A x  x A x , o A=A+, es decir, A es hermítico.

 Valores propios y vectores propios de operadores hermíticos

Los valores propios de un operador hermítico son siempre reales:

3
El concepto de espacio de Hilbert es una generalización del concepto de espacio euclidiano, que permite que nociones y técnicas
algebraicas y geométricas aplicables a espacios de dimensión dos y tres se extiendan a espacios de dimensión arbitraria, incluyendo a
espacios de dimensión infinita. Ejemplos de tales nociones y técnicas son la de ángulo entre vectores, ortogonalidad de vectores,
el teorema de Pitágoras, proyección ortogonal, distancia entre vectores y convergencia de una sucesión. El nombre dado a estos
espacios es en honor al matemático David Hilbert quien los utilizó en su estudio de las ecuaciones integrales.
A x  x  x A x  x x  x
2

x Ax
  2
x

Y de acuerdo con el teorema anterior, x A x es real, de donde,  es real. Una forma alternativa de
demostrar este teorema es la siguiente:

x A x  x x   x x (i)

Pero también podemos dejar que A opere sobre el bra en vez de hacerlo sobre el ket, así:

x A x  x x   x x (ii)

Restando (i) y (ii):

 x x   x x  (   ) x x  0

Y ya que x  0 , necesariamente =*, y por lo tanto, es real: los valores propios de un operador
hermítico son reales.

Teorema

Si A es un operador autoadjunto, los vectores propios de A, pertenecientes a valores propios


diferentes, son ortogonales.

Demostración

Supongamos que

A x1  1 x1 A x 2  2 x 2 con 1  2 ,

entonces, multiplicando por x2 y por x1 respectivamente las relaciones anteriores, tenemos:

x2 A x1  1 x2 x1 (i1)

x1 A x2  2 x1 x2 (i2)

Sacando el conjugado a la ecuación (i1) y usando la relación (2.29) podemos transformar (i1):

 1 x2 x1 
 
x2 A x1  x1 A x2  1 x1 x2 ya que A=A+
pero como los valores propios del operador A deben ser reales, se tiene:

x1 A x2  1 x1 x2 (i3)

ahora, restando (i3) e (i2), tenemos

1  2  x1 x2  0

Por hipótesis, 1  2 entonces x1 x2  0 , es decir, los vectores propios de A, x1 y x2 , son


ortogonales.

Teorema

Dos operadores hermicianos B y C conmutan si y sólo si existe un conjunto completo de vectores


propios ortonormales que sean comunes a ambos operadores.

Demostración parcial

Supongamos que existe un conjunto completo ortonormal de vectores propios  xi  común a los
operadores B y C (por común queremos decir que cada x i es vector propio de ambos operadores,
pero el valor propio correspondiente no es el mismo). Tenemos entonces:

B xi  bi xi y C xi  ci xi

Por lo tanto : BC xi  B ci xi  c B x


i i  ci bi xi y

CB xi  C bi xi  bC x
i i  bi ci xi Por tanto

B, C  xi  ( BC  CB) xi  ci bi xi  bi ci xi  0 para cualquier x i , de donde BC  CB .

La importancia de este teorema puede verse fácilmente. Los valores propios de operadores que
representan variables dinámicas son simplemente los valores esperados de estas variables (es decir,
su valor medio), cuando el estado del sistema está descrito por los vectores propios. Explícitamente,
si A representa una cantidad observable (posición, momentum, energía, etc) y tenemos una base
ortonormal constituida por los vectores propios de A,  xi , entonces:

A xi  a i xi ⇒ A  x i A x i  a i x i xi  a i

También:

A2 xi  ai2 xi ⇒ A2  xi A2 xi  ai2 xi xi  ai2

Y la incertidumbre en la medición de A, será:


A2  A2  A
2
 ai2  ai2  0

Si el conjunto de los x i son también vectores propios de otro operador B, entonces el valor esperado
de B será bi y la incertidumbre en su medición también es cero. De manera que la conmutatividad
está íntimamente relacionada con el principio de incertidumbre. Ya hemos visto que los operadores
posición y momentum no conmutan, con lo anterior relacionamos este hecho con el principio de
incertidumbre.

Principio de Incertidumbre

Si tenemos dos operadores que no conmutan, podemos representar su conmutador por un operador,
así: AB-BC=iC. Si A y B son hermicianos, C también lo será. Si el estado de un sistema está
representando por cualquier vector x (que no tiene que ser vector propio de A o de B), las varianzas
de los valores esperados de A y B se definen como:

A2  x A  A  B 2  x B  B 
2 2
x x (2.39)

Que podemos también escribir en la siguiente forma:

A2  x A  A  A  A x  u u

B 2  x B  B  B  B x  v v

Siendo

u  A  A  x y v  B  B x
Ahora hacemos uso de la desigualdad de Schwarz (ecuación S.2):

A2 B2 
2 2
uv  uu vv ⇒ uu vv  uv (2.40)

siendo

u v  x A  A  B  B x

El operador que tenemos en esta última expresión puede escribirse en términos del conmutador en
la siguiente forma:

A  A B  B  
A  A B  B   B  B A  A   iC
2 2
iC
F
2
Llevando este resultado a (2.40) obtenemos:
2

A B  A  A B  B  i


2
  F C
2 2

2
2 1 2
 F  C
4

Y ya que <F>2 ≥0,

A2 B 2  1 C
2
o AB   1 C (2.41)
4 2

Veamos un caso concreto. Supongamos que A=X y B=Px, por tanto,

A, B   iC  X , PX   iI
De donde, C  I , entonces:

X P x   
2

Álgebra de conmutadores:

Como acabamos de ver el conmutador de dos operadores hermicianos desempeña un papel


importante en la estructura de la mecánica cuántica y por lo tanto es conveniente enunciar algunas
reglas algebraicas aplicables a conmutadores:

A , B   B , A  0
A , A   0
 A , B  C   A , B    A , C 
A  B , C   A , C   B , C  (2.42)
A , BC   A , B C  BA , C 
AB , C   A , C B  AB , C 
A , B , C   C , A , B   B , C , A  0
Nota:

Tenemos un operador diferencial que representa a la energía cinética de la partícula, la cual sabemos
que está relacionada clásicamente con el momentum a través de la relación E=P²/2m. Usando la
relación clásica como guía, esto nos permite establecer las siguientes comparaciones:
P2 1 2
E  P
2m 2m

2 d 2
 ?
2m dx 2

Puesto de otra manera, si clásicamente la energía E puede ser obtenida del momentum P mediante
la relación E = P²/2m, ¿cómo podemos obtener el operador diferencial que corresponde a la energía
del sistema, de la aplicación repetida de un operador diferencial momentum P que dividido entre 2m
nos produzca el término diferencial que ya tenemos identificado como el operador energía? Nos
puede ayudar en nuestra búsqueda el reescribir el operador energía de la siguiente manera
haciéndolo que se parezca un poco más a la relación clásica:

1 2 d2
 
2m dx 2

Tenemos una constante ħ² que puede ser obtenida simplemente multiplicando a ħ consigo misma. Y
tenemos una derivada de segundo orden que, operacionalmente hablando, puede ser considerada
como la doble aplicación sucesiva del operador diferencial d/dx, o sea d²/dx² = (d/dx)(d/dx). Esto nos
sugiere que podemos hacer la siguiente “factorización”:

1  d  d 
     
2m  dx  dx 

Si removemos los paréntesis obtendremos el operador diferencial para la energía con el que
habíamos empezado. Pero más importante aún es que podemos establecer la siguiente
correspondencia:

1 2 1   d   d 
P    
2m 2m  i dx  i dx 

Definiendo a la cantidad entre los paréntesis como Px en atención al hecho de que la definición se ha
hecho para un movimiento unidimensional a lo largo de un solo eje coordenado, podemos entonces
escribir lo siguiente:

 d
Px 
i dx

Si queremos extender nuestra definición hacia un espacio tridimensional, lo podemos hacer sin
problema alguno recurriendo a las derivadas parciales, con lo cual podemos asentar las siguientes
relaciones:
La disponibilidad de un operador diferencial para el momentum lineal nos permite llegar a un
resultado extraordinariamente importante.

x , Px   xPx  Px x   xPx  Px x 


     
 x  -i    -i x 
 x   x 
   x 
  ix  i
x x
   x 
  ix  i  x  
x  x x 
 
  ix  ix  i 
x x
 i

Si prescindimos de la función de onda ψ concentrándonos únicamente en el aspecto operacional del


operador combinado que fue definido con la ayuda del conmutador, lo que tenemos
(operacionalmente hablando) es lo siguiente:

S-ar putea să vă placă și