Documente Academic
Documente Profesional
Documente Cultură
Índice
1. Operadores Lineales 2
1.1. Espacio Vectorial de Operadores Lineales . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Composición de Operadores Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Proyectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4. Espacio Nulo e Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5. Operadores Biyectivos e Inversos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.6. Operadores Hermı́ticos Conjugados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.7. Operadores Unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
4. Algebra de Matrices 20
*
ADVERTENCIA: El presente documento constituye una guı́a para los estudiantes de Métodos
Matemáticos de la Fı́sica de la Universidad de Los Andes. Es, en el mejor de los casos, un FORMU-
LARIO y de ninguna manera sustituye a los lı́bros de texto del curso. La bibliografı́a de la cual han
surgido estas notas se presenta al final de ellas y debe ser consultada por los estudiantes.
**
e-mail: nunez@ula.ve Web: http://webdelprofesor.ula.ve/ciencias/nunez/
1
Formulario de Métodos Matemáticos 1 Transformaciones Lineales
5. Representación Diagonal 22
7. Operadores Hermı́ticos 23
10.Traza de Operadores 25
10.1. Invariancia de la Traza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
10.2. Propiedades de la Traza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
12.Diferenciación de Operadores 29
12.1. Reglas de Diferenciación de Operadores Lineales . . . . . . . . . . . . . . . . . . . . 29
12.2. La Fórmula de Glauber . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
1. Operadores Lineales
Definiremos como operador lineal (o transformaciones lineales) a una operación que asocia un
vector |vi ∈ V1 un vector |v0 i ∈ V2 y que respeta la linealidad, es decir esta función de V1 →V2
cumple con
¯ 0®
¯v = A |vi 3 A [α |v1 i + β |v2 i] = α A |v1 i + β A |v2 i ∀ |vi , |v1 i y |v2 i ∈ V1
Sencillamente algo que actúe sobre una suma de vectores y que sea equivalente a la suma de sus
actuaciones sobre los vectores suma.
Ejemplos
Las siguientes transformaciones
¯ 0® ¡ 0 0 0¢
¯x = T |xi → x , y , z = T {(x, y, z)}
claramente son lineales
Cosas tan sencillas como multiplicación por un escalar es una transformación (u operador)
lineal T : V →V tal que ¯ ®
T |vi = ¯v0 = α |vi
Claramente,
T [a |vi + b |wi] = aT |vi + bT |wi = aα |vi + bα |wi
Obviamente, si α = 1 tenemos la transformación identidad que transforma todo vector en
sı́ mismo; si α = 0 tendremos la transformación cero, vale decir que lleva a todo |vi ∈ V a al
elemento cero |0i
La definición de producto interno también puede ser vista como una transformación (opera-
dor) lineal T : V → R
T |vi = α ha |vi ≡ α
Otra vez:
T [a |vi + b |wi] = ha| [a |vi + b |wi] = a ha |vi + b ha |wi
por lo tanto es lineal. Esto implica que también la proyección de un determinado |vi ∈ V
sobre un subespacio S es un operador lineal, y lo denotaremos como
esta idea se extiende fácil si para un proyector T : Vm → Sn con m > n de tal modo que para
un vector |vi ∈ Vm
¡ ¯ ¢
Pm |vi ≡ |ui i ui ¯m |vi = ui |vim |ui i = |vm i
con {hui |} base de Sn .Es claro que estamos utilizando la convención de Einstein para la suma
de Índices
Las ecuaciones lineales también pueden verse como transformaciones lineales. Esto es, con-
sidere una transformación lineal T : Vn → Vm Por lo tanto asociaremos
¡ 1 2 3 ¢ ©¡ ¢ª
|yi = T |xi → y , y , y , · · · , y m = T x1 , x2 , x3 , · · · , xn
A+B=B+A
se le asigna a el vector |0i ∈ V2 ∀ |vi ∈ V1 , entonces el operador lineal 0 será el elemento neutro
respecto a la suma de operadores. Finalmente, el elemento simétrico queda definido por
Con ello queda demostrado que los operadores lineales forman un espacio vectorial el cual de ahora
en adelante denominaremos L (V1 , V2 ) .
1 |vi = |vi =⇒ A1 = 1A = A;
[A, B] = − [B, A]
[A, (B + C)] = [A, B] + [A, C]
[A, BC] = [A, B] C + B [A, C]
0 = [A, [B, C]] + [B, [C, A]] + [C, [A, B]]
Dados dos vectores |v1 i y |v2 i definiremos como el elemento de matriz del operador A al producto
interno de dos vectores
hv2 | (A |v1 i) ≡ A(|v1 i,|v2 i)
es claro que A(|v1 i,|v2 i) será en general un número complejo.
Ejemplos
Es claro que las potencias de operadores cumplen las propiedades estándares de las potencias
de números
An+m = An Am ; (An )m = Anm
Llamaremos operadores nilpotentes de grado n a los operadores An 6= 0, del tipo
An |vi = |0i ∀ |vi ∈ V1 al vector nulo, |0i ∈ V2 . Es decir un operador que lleva cualquier
vector |vi al elemento neutro de V2 . El ejemplo más emblemático es el operador diferencial
¯ ® dn dn £ i ¤
Dn ¯Pn−1 = |0i ¿ P n−1 (x) = ai x = 0
dxn dxn
¯ ®
con ¯Pn−1 perteneciente al espacio de polinomios de grado n − 1
En este caso hay que hacer una acotación, dado que, en general, [A, B] 6= 0 =⇒ eA eB 6=
eB eA 6= eA+B esta afirmación se corrobora de manera inmediata al desarrollar las exponen-
ciales
"∞ #" ∞ # "∞ ∞ #
X An X Bm X X An Bm
eA eB |vi = |vi = |vi
n! m! n! m!
n=0 m=0 n=0 m=0
" ∞
#" ∞
# "∞ ∞ #
X Bn X Am X X Bn Am
B A
e e |vi = |vi = |vi
n! m! n! m!
n=0 m=0 n=0 m=0
" ∞
#
X (A + B)n
eA+B |vi = |vi
n!
n=0
1.3. Proyectores
La notación de Dirac se hace particularmente conveniente para representar proyectores. Hasta
ahora, hemos relacionado un funcional lineal, un bra hw| del espacio dual V∗ , con un vector ket
|vi del espacio vectorial V a través de su producto interno hw| vi ∈ C el cual es, en general, un
número complejo. Si ahora escribimos esta relación entre vectores y formas diferenciales de una
manera diferente. Ası́, la relación entre hw|, y |vi un ket |Ψi o un bra hΦ| arbitrarios serán
|vi hw| Ψi
|vi hw| =⇒
hΦ |vi hw|
La primera será la multiplicación del vector |vi por el número complejo hw| Ψi ,mientras que la
segunda relación será la multiplicación de la forma hw| por el complejo hΦ |vi . Es imperioso señalar
que el orden en la escritura de los vectores y formas es crı́tico, sólo los números complejos λ se
pueden mover con impunidad a través de estas relaciones
Por lo tanto, dado un vector |vi , podemos construir un proyector P|vi a lo largo del vector |vi
Ası́ el operador P|vi actuando sobre el vector |Ψi representará la proyección de |Ψi a lo largo de
|vi
P|vi |Ψi = |vi hv| Ψi ≡ hv| Ψi |vi
P2q |vi = |ej i ej |vi ≡ Pq |vi ∀ |vi ∈ V
Es claro que si V de dimensión finita, A {V} = n también será de dimensión finita n y tendremos
que
dim [ℵ (A)] + dim [= (A)] = dim [V]
vale decir que la dimensión del núcleo más la dimensión del recorrido o imagen de una transforma-
ción lineal es igual a la dimensión del dominio.
Para demostrar esta afirmación supongamos que dim [V] = n y que
{|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V es una base de ℵ (A) , donde k = dim [ℵ (A)] ≤ n.
Como {|e1 i , |e2 i , |e3 i · · · |ek i} ∈ V estos elementos forman base y por lo tanto son linealmente
independientes, necesariamente ellos formarán parte de una base mayor de V.
Esto es {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} ∈ V será una base de V donde
k+r =n
Es esquema de la demostración será:
primero probaremos que {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} forman una
base para A {V}
luego demostraremos que dim [A {V}] = r y como hemos supuesto que k + r = n habremos
demostrado la afirmación anterior.
Si los r elementos {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V} en-
tonces cualquier elemento
Ahora bien, analicemos con cuidado los lı́mites de la suma implı́cita del ı́ndice i = 1, 2, · · · , k + r
Por lo tanto {A {|ek+1 i} , A {|ek+2 i} , · · · , A {|ek+r−1 i} , A {|ek+r i}} expanden A {V} . Ahora bi-
en, para demostrar que son base, demostraremos que son linealmente independientes, para ello
supondremos que
n o
∃ C k+1 , C k+2 , · · · , C k+r 3 C i |Aei i = 0 con i = k + 1, k + 2, · · · , k + r
por lo tanto el elemento |vi = C i |ei i ∈ ℵ (A) con i = k + 1, k + 2, · · · , k + r. Con lo cual dado
i
que ∀ |vi ∈ ℵ (A) , |vi = C |ei i con i = 1, 2, · · · , r, entonces se puede hacer la siguiente resta
k
X k+r
X
i
|vi − |vi = C |ei i − C i |ei i
i=1 i=k+1
y como los {|e1 i , |e2 i , |e3 i , · · · , |ek i , |ek+1 i , · · · , |ek+r−1 i , |ek+r i} son una base de V entonces
las C k+1 = C k+2 = · · · = C k+r = 0
Ejemplos
Ecuaciones diferenciales ordinarias. Sea C[−∞,∞]2 el espacio vectorial de todas las fun-
2
ciones continuas doblemente diferenciables. Definimos A :C[−∞,∞] −→ C[−∞,∞] como la trans-
¡ 2 ¢ 2
formación lineal D − 1 tal que para todas las y(x) ∈ C[−∞,∞] se cumple
µ ¶
¡ 2 ¢ d2
A |xi = |0i ¿ D − 1 y(x) = 0 ¿ − 1 y (x) = y 00 − y = 0
dx2
por lo tanto el núcleo o espacio nulo de A,ℵ (A) lo constituyen el conjunto de soluciones para
la mencionada ecuación diferencial. Por lo tanto el problema de encontrar las soluciones de
la ecuación diferencial es equivalente a encontrar los elementos del núcleo de A.
Ahora bien, un operador lineal A tendrá inverso sı́ y sólo sı́ para cada vector |v0 i ∈ V2 ∃!
|vi ∈ V1 3 A |vi = |v0 i . Es decir cada vector |v0 i está asociado con uno y sólo un vector |vi a través
de la transformación lineal A. Dejaremos sin demostración esta afirmación pero lo importante es
recalcar que para que exista inverso la transformación lineal A,tiene que ser biyectiva y esto implica
que se asocia uno y solo un vector de V1 con otro de V2 .
Todavı́a podemos añadir algunas demostraciones consecuencias de las afirmaciones anteriores.
Sea la transformación lineal T : V1 → V2 supongamos además que T ∈ L (V1 , V2 ) Entonces las
siguientes afirmaciones son válidas y equivalentes
1. T es Biyectiva en V1
3. ∀ |vi ∈ V1 , T {|vi} = |0i =⇒ |vi = |0i esto es, el espacio nulo ℵ (T) únicamente contiene al
elemento neutro de V1 .
Si ahora suponemos que V1 tiene dimensión finita, digamos dim [V1 ] = n, las siguientes afir-
maciones serán válidas y equivalentes
1. T es Biyectiva en V1
2. Si {|u1 i , |u2 i , |u3 i , · · · |un i} ∈ V1 son linealmente independientes entonces, {T {|u1 i} , T {|u2 i} , T {|u
T {V1 } también serán linealmente independientes.
3. dim [T {V1 }] = n
4. Si {|e1 i , |e2 i , |e3 i · · · |en i} ∈ V1 es una base de V1 , entonces {T {|e1 i} , T {|e2 i} , T {|e3 i} · · · T {|en i}}
T {V1 } es una base de T {V1 }
por lo cual lo que estamos diciendo es que el elemento de matriz para el operador, A, es el mismo,
y no importa donde opere A.De esta manera, dado cada vector en V, tiene asociado un vector en
V∗ podemos demostrar que A operando sobre los bra es lineal. Esto es dado
Siguiendo con esta lógica podemos construir la acción del operador hermı́tico conjugado, A† . Para
ello recordamos que igual que a cada vector (ket) |vi le está asociado una forma lineal (bra) hv| ,a
cada ket transformado A |vi = |v0 i le corresponderá un bra transformado hv0 | = hv| A† . Por lo
tanto
|vi ⇐⇒ hv|
¯ 0® 0¯
¯v = A |vi ⇐⇒ v ¯ = hv| A†
ahora bien,si A es lineal, A† también lo será. Dado que a un vector |wi = λ1 |z1 i + λ2 |z2 i
le corresponde un bra hw| = λ∗1 hz1 | + λ∗2 hz2 | (la correspondencia es antilineal). Por lo tanto,
|w0 i = A |wi = λ1 A |z1 i + λ2 A |z2 i , por ser A lineal, entonces
¯ 0® ¯ ¯ ¯
¯w ⇐⇒ w0 ¯ ≡ hw| A† = (λ∗1 hz1 | + λ∗2 hz2 |) A† ≡ λ∗1 z01 ¯ + λ∗2 z02 ¯ = λ∗1 hz1 | A† + λ∗2 hz2 | A†
A partir de propiedades anteriores se deriva una más útil relacionada con el conmutador de dos
operadores hermı́ticos h i h i
†
[A, B]† = − A† , B = B† , A†
Cambie los kets por sus bras asociados y viceversa (bras por kets): |vi ¿ hv|
De este modo
(|vi hw|)† = |wi hv|
que se deduce fácilmente de la consecuencia de la definición de producto interno
³ ´†
hx| |vi hw| |yi = hy| (|vi hw|) |xi∗ = hy| |vi∗ hw| |xi∗ = hx| |wi hv| |yi
1. Si acordamos que los ı́ndices de arriba indican filas podemos representar los vectores como
un arreglo vertical de sus componentes
1
x
x2
|xi → .
..
xn
y las cantidades
A11 A12 ··· A1j ··· A1n
A21 A22 A2j A2n
.. .. ..
. . .
Ai →
α
Aα Aα
1 2 Aαj An
α
. .. ..
.. . .
Am1 A m
2 Am
j
m
An
de tal modo que se cumpla
x̃1 A11 A12 ··· A1j ··· A1n x1
x̃2 A21 A22 A2j A2n
x2
.. .. .. ..
..
. . . . .
|x̃i → =
x̃α Aα1 Aα2 Aαj Aαn
xj
.. .. ..
.
. .
x̃m Am A m Am Am xn
1 2 j n
Nótese que los ı́ndices arriba indican fila y los de abajo columnas. Las cantidades Aαj es la rep-
resentación del operador A en las bases {|e1 i , |e2 i , |e3 i , · · · |en i} y {|ẽ1 i , |ẽ2 i , |ẽ3 i , · · · |ẽm i}
de V y W respectivamente. Es decir una matriz Aij es un arreglo de números
A11 A12 ··· A1n
A21 A22 A2n
Aij = .. ..
. .
An1 An2 Ann
3. Si suponemos {|e1 i , |e2 i , |e3 i , · · · |en i} y {|ẽ1 i , |ẽ2 i , |ẽ3 i , · · · |ẽm i} bases ortonormales
¡ ¢
x̃α = hẽα |x̃i = hẽα | A |xi = hẽα | A xi |ei i =xi hẽα | A |ei i
queda claro que Aαi ≡ hẽα | A |ei i será la representación matricial
4. Los vectores |ek i transforman de la siguiente manera
A |ei i = |w̃i i = Aji |ẽj i =⇒
donde {|e1 i , |e2 i , |e3 i , · · · |en i} y {|ẽ1 i , |ẽ2 i , |ẽ3 i , · · · |ẽn i} son las bases para V y W re-
spectivamente.
Definitivamente, las matrices son uno de los objetos más útiles de las Matemáticas. Ellas per-
miten aterrizar conceptos y calcular cantidades. La palabra matriz fue introducida en 1850 por
James Joseph Sylvester1 y su teorı́a desarrollada por Hamilton2 y Cayley3 . Si bien los fı́sicos
las consideramos indispensables, no fueron utilizadas de manera intensiva hasta el aparición de la
Mecánica Cuántica alrededor de 1925.
Más aún cambiando el orden en el cual se presenta una base, cambia la representación matricial
del operador. Los siguientes ejemplos tratarán de ilustrar estas situaciones
Si tenemos un matriz 2 × 3, B de la forma
µ ¶
3 1 −2
B=
1 0 4
y supongamos las bases canónicas para V 3 y V 2 : {|e1 i , |e2 i , |e3 i} y {|e1 i , |e2 i} . Entonces la
matriz B representan la transformación B :V 3 → V 2 que lleva un vector genérico |xi = (x1 , x2 , x3 )
en un vector genérico |yi = (y1 , y2 ) tal que
µ ¶ µ ¶ x1 µ ¶
3 1 −2 3 1 −2 y1
B= =⇒ B |xi = |yi =⇒ x2 =
1 0 4 1 0 4 y2
x3
y esto es
y1 = 3x1 + x2 − 2x3
y2 = x1 + 0x2 + 4x3
Para enfatizar que los elementos de matriz, no sólo dependen de la base sino del
© ordenªen el
2 2
cual la base se presente. Consideremos que la base de P viene representadas por x , x, 1 . La
representación matricial del operador D (·) = d(·)
dx será
i¯ i ¯¯ E 0 0 0 3
P ¯ D |Pj i = P ¯P̃j = 0 0 2 0
0 1 0 0
aunque
1
0 1 0 0 1
1
0 0 2 0 = 2
1 =⇒1 + 2x + 3x2
0 0 0 3 3
1
equivalentemente
1
0 0 0 3 3
0 0 2 0 1 = 2 =⇒1 + 2x + 3x2
1
0 1 0 0 1
1
¡Es el mismo polinomio!
Recuerde que las componentes del vector multiplican a los vectores bases en el mismo orden.
© Si ahora construimos la representación
ª © para 2elª mismo3 operador D (·) = d(·)
dx en la siguiente base
2 2 3 2
1, 1 + x, 1 + x + x , 1 + x + x + x y 1, x, x de P y P , respectivamente.
d(1)
= 0 = 0 · 1 + 0 · x + 0 · x2
dx
d(1+x)
¯ E = 1 = 1 · 1 + 0 · x + 0 · x2
¯ dx
D |Pj i = ¯P̃j =⇒ d(1+x+x2 )
= 1 + 2x = 1 · 1 + 2 · x + 0 · x2
dx
d(1+x+x2 +x3 )
dx = 1 + 2x + 3x2 = 1 · 1 + 2 · x + 3 · x2
con lo cual
i¯ ¯ ¯ E 0 1 1 1
P ¯ D |Pj i = P i ¯P̃j = 0 0 2 2
0 0 0 3
4. Algebra de Matrices
Por comodidad supongamos que dim (V ) = dim (W ) = n y consideremos la base ortogonal
{|e1 i , |e2 i , |e3 i , · · · |en i} .De este modo es claro, que se reobtienen las conocidas relaciones para
matrices cuadradas
i¯ ¯ ¯ D ¯
¯
e ¯ A + B |ej i = ei ¯ A+B |ej i = ei ¯ A |ej i + ei ¯ B |ej i = Aij + Bji
en forma compacta puede demostrarse Aij + Bji = (A + B)ij con lo cual es directo la demostrar la
igualdad de matrices
1
A1 + B11 A12 + B21 · · · A1n + Bn1
A2 + B 2 A2 + B 2 A2n + Bn2
1 1 2 2
.. .. . . =0
. . .
n
A1 + B1n n
An + Bn n
⇓
A11 A12 ··· A1n B11 B21 · · · Bn1
A21 A22 A2n B12 B22 Bn2
.. .. = .. ..
. . . .
An1 An2 Ann B1n B2n n
An
5. Representación Diagonal
Finalmente mostraremos que dado un operador lineal A ∈L (V, W ) donde dim (V ) = dim (W ) =
n y sea {|u1 i , |u2 i , |u3 i , · · · |un i} una base ortonormal para V y W . Si adicionalmente se da el
caso que
A |ui i = |ui i
la representación matricial es diagonal
j¯
u ¯ A |ui i = Aji = uj |ui i = δij
Esta afirmación también es válida para dim (V ) 6= dim (W ) pero por simplicidad seguimos traba-
jando con matrices cuadradas.
En lenguaje de ı́ndices estaremos diciendo que
D1 0 0 0
0 D2 0 0
Dji = Dk δlk δjl δki =
0
0 D3 0
0 0 0 D4
Concretemos en un ejemplo
2x + 3y − z = 5 2 3 −1 x 5
4x + 4y − 3z = 3 =⇒ 4 4 −3 y = 3
−2x + 3y − z = 10 −2 3 −1 z 1
7. Operadores Hermı́ticos
La representación matricial de un operador hermı́tico,
³ ´i ¯ ¯ ³ ´∗
A† = ei ¯ A† |ej i = ej ¯ A |ei i∗ = Aji
j
Es claro que
³ ´† ³ ¯ ´† µ³ ´i ¶† ³³ ´∗ ´†
A † i¯ †
→ e A |ej i = A† = Aji = Aij
j
y ¯ ¯ ¯ ¯
(λA)† → ei ¯ λA† |ej i = ej ¯ λA |ei i∗ = λ∗ ej ¯ A |ei i∗ = λ∗ ei ¯ A† |ej i = λ∗ A†
pero más interesante es
¯ ³ ´†
† †
(AB)† → ei ¯ (AB)† |ej i = Aik Bjk = Aj∗ k∗ k∗ i∗ i∗ k∗
k Bi = Aj Bk = Bk Aj → B A
Como un ejemplo
¯ ¯
2 3 4 ¯¯ 1 0 0 2 3 4 ¯¯ 1 0 0
2 1 1 ¯ 0 1 0 → 0 2 3 ¯ 1 −1 0 →
¯ ¯
−1 1 2 ¯ 0 0 1 −1 1 2 ¯ 0 0 1
¯
2 3 4 ¯¯ 1 0 0
0 2 3 ¯ 1 −1 0 →
¯
0 5 8 ¯ 1 0 2
Dadas dos base discretas ortonormales {|ui i} y {|ti i}, entonces un vector cualquiera
D ¯ m ¯
¡¯ k ® ¢ k¯ ht |Ψi = uk ¯ Ψi htm |uk i
¯
|Ψi = u huk | |Ψi = u ¯ Ψi |uk i
| {z }
| {z }
Skm
ck
=⇒ D
uk |Ψi = htm | Ψi uk |t i
m m
|Ψi = (|t i htm |) |Ψi = ht | Ψi |tm i
m
| {z }
| {z }
c̃m k
S̃m
con lo cual, una vez más, tendremos que la expresión de transformación de componentes de un
vector
c̃m = Skm ck ⇐⇒ ck = S̃m k m
c̃
y Skm (o S̃m
k ) será la matriz de transformación, cambio de base o cambio de representación. Ahora
D
ck = Sm
k† m
c̃ =⇒ uk |Ψi = Sm
k† m
ht | Ψi
por lo tanto,
Ãij = Ski Akm Sjm†
donde Ãij es la representación del operador A respecto a la base {|tj i} y Akm su representación en
la base {|um i}
Ası́
1 2 3
Aij = 4 5 6 =⇒ Tr (A) = Aii = 15
7 8 9
ya que
¯
D D ¯ D ¯
k¯ k¯ ¯
Tr (A + λB) = u ¯ A + λB |uk i = u ¯ A |uk i + λ uk ¯ B |uk i = Tr (A) + λ Tr (B)
Tr (AB) = Tr (BA)
y es fácilmente demostrable
D ¯ D ¯ D ¯
¯ ¯ ¯
Tr (AB) = uk ¯ AB |uk i = uk ¯ A|um i hum |B |uk i = uk ¯ B|um i hum |A |uk i = Tr (BA)
| {z } | {z }
1 1
¯ ¯
Recuerde que uk ¯ B |um i y uk ¯ A |uk i son números que pueden ser reordenados.
Del mismo modo es fácil demostrar que la traza de un triple producto de matrices respeta la
ciclicidad del orden de la matrices en el producto
en otras palabras, cada operador lineal sigue actuando en el espacio en el cual viene definido. La
“extensión” de un operador A(1) :E1 → Ẽ1 para que actúe en E (y equivalentemente B(2) :E2 → Ẽ2 )
es inmediata
A = A(1) ⊗ 1(2) y B = 1(1) ⊗ B(2)
Donde 1(1) y 1(2) son los operadores identidad para E1 y E2 , respectivamente.
Es muy fácil demostrar que [A, B] = 0, vale decir que los operadores A y B conmutan. Ası́
?
AB |ϕ(1)χ(2)i = BA |ϕ(1)χ(2)i
exactamente equivalente.
y {|ui (1)i} y {|vi (2)i} son bases ortogonales discretas para E1 y E2 , respectivamente. La repre-
sentación matricial del operador producto tensorial C = A(1) ⊗ B(2) vendrá dada por
D¯ E¯ D ¯£ ¤
¯ k ¯ k,l ¯
¯u (1)v l (2) ¯ C |ui (1)vj (2)i = Ci,j = uk (1)v l (2)¯ A(1) ⊗ B(2) |ui (1)vj (2)i
por lo tanto
D ¯£ ¤ D ¯¡ ¢
k,l ¯ ¯
Ci,j = uk (1)v l (2)¯ A(1) ⊗ B(2) |ui (1)vj (2)i = uk (1)v l (2)¯ A(1) |ui (1)i ⊗ B(2) |vj (2)i
D ¯ E D D ¯ E D ¯ D ¯
¯ ¯ ¯ ¯
= uk (1)v l (2) ¯ã(1)b̃(2) = uk (1) |ã(1)i v l (2) ¯b̃(2) = uk (1)¯ A(1) |ui (1)i v l (2)¯ B(2) |vj (2)i
k,l
Ci,j = Aki Bjl
entonces
µ ¶ A11 B11 A11 B21 A12 B11 A12 B21
i,k A11 Bji A12 Bji A11 B12 A11 B22 A12 B12 A12 B22
Cj,l = =
A21 B11
A21 Bji A22 Bji A21 B21 A22 B11 A22 B21
A21 B12 A21 B22 A22 B12 A22 B22
por lo tanto para dos matrices de Pauli
µ ¶ µ ¶
0 1 1 0
σ1 = y σ3 =
1 0 0 −1
nos quedará
µ ¶ 0 0 1 0
0σ3 1σ3 0 0 0 −1
σ1 ⊗ σ3 = =
1 0
1σ3 0σ3 0 0
0 −1 0 0
Esto es ¡ ¢ ³ ´ ³ ´ ³ ´ ³ ´
k,l
Tr A(1) ⊗ B(2) = Tr Ci,j = Tr Aki Bjl = Aii Bjj = Tr Aki Tr Bjl
Claramente el producto tensorial es distributivo
¡ ¢
A(1) + B(1) ⊗ C(2) = A(1) ⊗ C(2) + B(1) ⊗ C(2)
Dejamos al lector la demostración de esta propiedad
tendremos que
"∞ # "∞ #
deAt d X (At)n X d µ (At)n ¶
|vi = |vi = |vi
dt dt n! dt n!
n=0 n=0
"∞ # "∞ #
X ntn−1 An X tn−1 An−1
= |vi = A |vi
n! (n − 1)!
n=0 n=0
| {z }
eAt
Nótese que la suma es hasta infinito, por lo tanto al cambiar de ı́ndice p = n − 1, p sigue variando
hasta infinito y la serie es la misma que la anterior. Entonces
deAt
|vi = eAt A |vi ≡ AeAt |vi
dt
también fı́jese que si un solo operador esta siendo derivado el orden de presentación de los operadores
es indiferente. Ahora bien, cuando se presenta la siguiente situación
¡ ¢
d eAt eBt deAt Bt deBt
|vi = e |vi + eAt |vi = AeAt eBt |vi + eAt BeBt |vi
dt dt dt
= eAt AeBt |vi + eAt eBt B |vi
£ ¤
con A 6= A (t) y B 6= B (t) y siempre eBt , B = 0. Con lo cual, sólo para el caso en el cual
[A, B] = 0 podremos factorizar eAt eBt y
¡ ¢
d eAt eBt
|vi = (A + B) eAt eBt |vi
dt
Si [A, B] 6= 0 el orden de aparición de los operadores es MUY
h importante.i
dA(t)
Para el caso en el cual A = A (t) no necesariamente A (t) , e dt = 0. Veamos:
"∞ # "∞ µ #
deA(t) d X (A (t))n X 1 d (A (t))n ¶
|vi = |vi = |vi
dt dt n! n! dt
n=0 n=0
"∞ µ ½ ¾¶#
X 1 d (A (t)) n−1 d (A (t)) n−2 n−1 d (A (t))
= A (t) + A (t) A (t) · · · A (t) |vi
n! dt dt dt
n=0
Adicionalmente
dF (B)
si [A, [A, B]] = [B, [A, B]] = 0 =⇒ [A, F (B)] = [A, B]
dt
Esta relación es fácilmente demostrable para el caso en el cual [A, B] = 1 el operador identidad,
en ese caso tenı́amos que ABn − Bn A = nBn−1
para demostrar esta relación “desarrollemos en Serie de Taylor” la función F (B) . Esto es
" ∞
# ∞ ∞ ∞
X Bn X [A, Bn ] X nBn−1 X Bn−1
[A, F (B)] = A, fn = fn = [A, B] fn = [A, B] fn
n! n! n! (n − 1)!
n=0 n=0 n=0 n=0
dF (B)
= [A, B]
dt
? dF (B)
si [A, C] = [B, C] = 0 con C = [A, B] =⇒ [A, F (B)] = [A, B]
dt
Probaremos primero que
Tendremos que
Para demostrarla, procedemos a considerar un operador F (t) = eAt eBt , por lo tanto
entonces £ At ¤
e , B = t [A, B] eAt =⇒ eAt B = BeAt + t [A, B] eAt
por lo cual
dF (t) ¡ ¢ ¡ ¢
|vi = A + eAt Be−At F (t) |vi = A + B + t [A, B] eAt F (t) |vi
dt
por tanteo uno puede darse cuenta que
n 2
o
(A+B)t+ t2 [A,B]
F (t) = e
cumple con la ecuación anterior, por lo tanto absorbiendo t en los operadores correspondientes
llegamos a la fórmula de Glauber
1
eA eB = eA+B e 2 [A,B]
Referencias
[1] Apostol, T. M. (1972) Calculus Vol 2 (Reverté Madrid ) QA300 A66C3 1972
[2] Arfken, G. B. y Weber, H. (2000) Mathematical Methods for Physicists 5ta Edición (Aca-
demic Press, Nueva York)
[3] Cohen-Tannoudji, C., Diu B. y Laloë (1977) Quantum Mechanics Vol 1 (John Wiley Inter-
science, Nueva York )
[4] Gel´fand, I.M. (1961) Lectures on Linear .Algebra (John Wiley & Sons Interscience, Nueva
York ).
[5] Jordan, T.F. (1969) Linear Operator for Quantum Mechanics (John Wiley & Sons In-
terscience, Nueva York ).