Sunteți pe pagina 1din 37

Representaciones de grupos y álgebras de Lie en cuántica no

relativista
Facundo Rost

07/09/2018

Resumen
En el presente trabajo, se muestran en las secciones 1 y 2 (y en el apéndice A) una muy fugaz
enumeración de definiciones, propiedades y teoremas sin demostraciones (pero referenciadas en
la bibliografı́a) de la teorı́a de grupos y álgebras de Lie y sus representaciones. Y en las secciones
3 y 4 se explican diversas aplicaciones de lo visto en las anteriores secciones a la teorı́a de fı́sica
cuántica no relativista. Puesto que es necesario saber algo de geometrı́a diferencial y teorı́a
de grupos para comprender la sección 1, se muestra en el apéndice A una versión de dicha
sección que no requiere (casi) conocimientos de geometrı́a diferencial ni de teorı́a de grupos.
Está dirigida en especial a fı́sicos que no sepan de dichos temas.

Índice
1. Introducción de grupos y álgebras de Lie. 2

2. Representaciones de grupos y álgebras de Lie 6

3. Introducción a la fı́sica cuántica 9


3.1. Lo básico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
3.2. Operadores hermı́ticos y unitarios. Teorema de Noether cuántico . . . . . . . . . 10

4. Aplicación a momento angular orbital y de spin 11


4.1. Representaciones irreducibles de so(3) . . . . . . . . . . . . . . . . . . . . . . . . 11
4.2. Representación natural de SO(3) en L2 (R3 ) . . . . . . . . . . . . . . . . . . . . . 16
4.3. Spin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4.4. Representaciones proyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.5. Momento angular total del sistema . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.6. Tensores esféricos y teorema de Wigner-Eckart . . . . . . . . . . . . . . . . . . . 26

A. Introducción de teorı́a de grupos, y grupos de Lie matriciales y álgebras de


Lie, casi sin geometrı́a diferencial 30
A.1. Relaciones de equivalencia y teorı́a de grupos . . . . . . . . . . . . . . . . . . . . 30
A.2. Teorı́a de grupos de Lie matriciales y álgebras de Lie . . . . . . . . . . . . . . . . 31

Referencias 37

1
1. Introducción de grupos y álgebras de Lie.
En ésta sección se muestra una introducción a la teorı́a básica de grupos y álgebras de Lie,
explicada según [1]. Es necesario saber algo de geometrı́a diferencial y de teorı́a de grupos (y
relaciones de equivalencia) para comprender ésta sección. Si éste no es el caso, el lector puede
aprender lo más básico de geometrı́a diferencial leyendo los primeros tres capı́tulos de [1], y lo
más básico de teorı́a de grupos (y relaciones de equivalencia) leyendo el capı́tulo 2 del [2] (ó la
sección A.1 del apéndice del presente trabajo).
Y si no tiene ganas ni tiempo de aprender éste tema, puede saltear ésta sección y en su lugar
leer el apéndice A de éste trabajo, que es una versión de la presente sección que no requiere
(casi) conocimientos de geometrı́a diferencial ni de teorı́a de grupos. Está dirigida en especial
a fı́sicos que no sepan de dichos temas. En dicho apéndice, primero se estudian las relaciones
de equivalencia y la teorı́a de grupos, y luego se estudia la teorı́a de grupos y álgebras de Lie
restringida únicamente a grupos de Lie matriciales (ver definición A.13), explicada según [3]; de
todos modos veremos que no se pierde mucha generalidad al hacer ésta restricción.

Definición 1.1. Un grupo de Lie es una variedad diferencial G que a su vez es un grupo, tal
que las operaciones m : G × G → G / m(g, h) = g.h y i : G → G / i(g) = g −1 son suaves (C ∞ )

Definición 1.2. Un álgebra de Lie (sobre un cuerpo K; consideramos K = R ó C) es un


espacio vectorial g (sobre K) dotado de un mapa [, ] : g × g → g denotado como (X, Y ) → [X, Y ]
y denominado como ’corchete’ que verifica ∀ X, Y, Z ∈ g:
1. Es bilineal: [aX + bY, Z] = a[X, Z] + b[Y, Z]; y [Z, aX + bY ] = a[Z, X] + b[Z, Y ] ∀ a, b ∈ K.
2. Es antisimétrico: [X, Y ] = −[Y, X].
3. Verifica la identidad de Jacobi: [X, [Y, Z]] + [Y, [Z, X]] + [Z, [X, Y ]] = 0.

Definición 1.3. Sea {X1 , (...), Xn } una base de un álgebra de Lie de dimensión finita n (que es
en particular un espacio vectorial), se puede determinar el corchete del álgebra sólo especificando
Xn
k k se denominan constantes
el corchete entre elementos de la base: [Xi , Xj ] = Cij Xk . Las Cij
k=1
de estructura.

Ejemplo 1.4 (Ver sección ’Vector Fields as Derivations of C ∞ (M )’ en el capı́tulo 8 de [1]).


Consideremos el conjunto de campos de vectores suaves de una variedad diferencial X(M ). Si
los consideramos como derivaciones en C ∞ (M ) = {f : M → R/ f es C ∞ } (X : C ∞ (M ) →
C ∞ (M )/X(f.g) = X(f )g + f X(g) y es lineal en R), entonces X(M ) es un álgebra de Lie real
con el corchete dado por [X, Y ](f ) = X(Y (f )) − Y (X(f )).

Ejemplo 1.5. El conjunto gl(n, C) := Mn (C) := Cn×n de matrices complejas de n × n, es un


álgebra de Lie real con el corchete canónico [A, B] = AB − BA.

Proposición 1.6 (Ver demostración en sección ’The Lie Algebra of a Lie Group’ en el capı́tulo
8 de [1]). Sea G un grupo de Lie. Consideremos los mapas de multiplicación por izquierda
Lg : G → G/Lg (h) = g.h, que se puede demostrar que son suaves. Puesto que Lg (e) = g, el
diferencial (dLg )e : Te G → Tg G nos puede extender un vector tangente v ∈ Te G a un campo de
vectores suave de la forma l : Te G → l(Te G) ⊆ X(G)/(l(v))(g) = (dLg )e (v) ∈ Tg G. El mapa l
es un isomorfismo de espacios vectoriales, con inversa dada por evaluar el campo de vectores
 : l(Te G) ⊆ X(G) → Te G/(X) = X(e), por lo que dim(l(Te G)) = dim(Te G) = dim(G). El
conjunto l(Te G) es igual al conjunto de los campos de vectores suaves X que son invariantes por
izquierda (i.e. verifican (dLg )g0 Xg0 = Xgg0 ∀ g, g 0 ∈ G). El subespacio l(Te G) ⊆ X(G) es cerrado
ante el corchete del ejemplo 1.4, y es por lo tanto un álgebra de Lie real con dicho corchete (se
dice que es un subálgebra de Lie de X(G)). Por ésto, se lo denomina como el álgebra de Lie del
grupo G: Lie(G) := l(Te G). A veces se lo denota como g.

2
Ejemplo 1.7. El conjunto GL(n, C) := {A ∈ Cn×n /det(A) 6= 0} de matrices complejas inver-
sibles de n × n, es un grupo de Lie con el producto de matrices, y su álgebra de Lie es isomorfa
(como álgebras de Lie, es decir hay un mapa lineal biyectivo que preserva el corchete) a gl(n, C).
Por lo que, se puede considerar que el álgebra de Lie de GL(n, C) es gl(n, C).

Teorema 1.8 (Ver demostración en teorema 8.44 de [1]). Sea F : G → H un morfismo de


grupos de Lie (i.e. un morfismo de grupos que es C ∞ entre grupos de Lie). El mismo induce un
morfismo de álgebras de Lie (i.e. una transformación lineal que preserva el corchete φ([X, Y ]) =
−1
[φ(X), φ(Y )]) F∗ : g → h de la forma F∗ = lH ◦ (dF )e ◦ lG = lH ◦ (dF )e ◦ G ⇐⇒ F∗ (X) =
lH ((dF )e (Xe )) ∀ X ∈ g (lG y lH son los mapas utilizados en la proposición 1.6).

Observación. Tenemos un functor (covariante) de la categorı́a de los grupos de Lie a la cate-


gorı́a de las álgebras de Lie reales de dimensión finita que manda G → g ∧ F → F∗ .

Teorema 1.9 (Ver demostración en teorema 20.1 de [1]). Todos los subgrupos uniparamétri-
cos de G (i.e. los morfismos de grupos de Lie γ : R → G que parten del grupo (R, +)), son
precisamente las curvas integrales maximales de los campos de vectores de Lie(G) empezando
desde la identidad (i.e. La curva integral maximal de X es la curva γX : I ⊆ R → G que
verifica la ecuación diferencial XγX (s) = γX0 (s) con condición inicial γ (0) = e; y al ser ma-
X
ximal, es tal que no se puede extender el dominio a un conjunto más grande que I; en este
caso, el teorema asegura que las curvas son completas: I = R). Es decir, hay una correspon-
dencia biyectiva entre {Subgrupos uniparamétricos de G} ←→ Lie(G) ←→ Te G. Entonces, un
campo de vectores X ∈Lie(G) genera un único subgrupo uniparamétrico γX : R → G y vale que
Xe = γX 0 (0) = (dγ ) (d/dt| ) y X 0
X 0 0 γX (s) = γX (s).

Proposición 1.10 (Ver demostraciones en propiedades 20.5 y 20.8 de [1]). Sea G grupo de
Lie con álgebra de Lie g. El mapa exponencial de G se define como el mapa exp : g → G tal
que exp(X) = γX (1), siendo γX el subgrupo unipáramétrico generado por X (su curva integral
maximal empezando desde la identidad). Verifica las siguientes propiedades:
1. Es C ∞
2. El subgrupo uniparamétrico γX generado por X ∈ g viene dado por γX (s) = exp(s.X)

d
3. dt exp(tX) 0 (t ) = X
= γX d 0 (0) = X
γX (t0 ) , en particular: dt exp(tX) = γX

0 e
t=t0 t=0
4. (exp(X))−1 = exp(−X)
5. exp(X + Y ) = exp(X)exp(Y ) si [X, Y ] = XY − Y X = 0, en particular: exp(tX + sX) =
exp(tX)exp(sX)
6. Sea F : G → H morfismo de grupos de Lie, el siguiente diagrama conmuta:
F∗
g h
exp exp
F
G H
O en otras palabras: F (exp(X)) = exp(F∗ (X)) ∀ X ∈ g.
7. El mapa exponencial restringido a un cierto entorno de 0 ∈ g es un difeomorfismo, cuya
imagen es un cierto entorno de e ∈ G.

Proposición 1.11 (Ver demostraciones en propiedades 20.2 de [1] y propiedades 2.1, 2.3 y 2.4
de [3]). Para el grupo de Lie GL(n, C), si se considera a gl(n, C) como su álgebra de Lie, el mapa
X∞
exponencial viene dado por e : gl(n, C) = Mn (C) → GL(n, C)/eA = Ak /k! (es por ésto que
k=0
se denomina mapa exponencial). Vale entonces que ésta serie converge para toda A ∈ Mn (C).
También valen todas las propiedades del mapa exponencial enumeradas en la proposición 1.10
d tX
(cambiando exp(.) por e(.) ), excepto por el item 3 que se reformula como: dt e = XetX , en

3


particular: d tX
dt e t=0 = X. Además vale que det(eA ) = etr(A) y (eA )† = eA (la daga † denota
adjuntar: conjugar y transponer).

Proposición 1.12 (Ver demostración en proposición 20.9 y teorema 20.12 de [1]). Sea G un
subgrupo cerrado de GL(n, C) (i.e. un grupo de Lie matricial). Es un grupo de Lie, y su álgebra
de Lie es isomorfa como álgebra de Lie a Te G = g = {A ∈ gl(n, C) = Cn×n /eA ∈ G}, con el
corchete canónico de matrices [A, B] = AB − BA. Y su mapa exponencial (considerando a g
X∞
A
como su álgebra de Lie) viene dado por la exponencial de matrices e : g → G/e = Ak /k!.
k=0
Puesto que el álgebra de Lie es igual al espacio tangente en la identidad, entonces el álgebra,
con su estructura de corchete, codifica todas las transformaciones infinitesimales posibles. Para
más detalles, ver la observación A.21 en el apéndice.

Ejemplo 1.13. Se puede verificar con las anteriores propiedades que, considerando al álgebra
de Lie de un grupo matricial según la proposición 1.12:
1. Sea U (n) = {U ∈ GL(n, C)/U † U = Id ⇐⇒ U † = U −1 } el grupo de Lie matricial de las
matrices unitarias; su álgebra de Lie es u(n)= {iA ∈ Mn (C)/A = A† (A es hermı́tica)}
2. Sea SU (n) = {U ∈ GL(n, C)/U † U = Id ∧ det(U ) = 1} el grupo de Lie matricial de
las matrices unitarias unimodulares; su álgebra de Lie es su(n)= {iA ∈ Mn (C)/A =
A† ∧ tr(A) = 0}. En particular,  {iσ1 /2, iσ2 /2, iσ3 /2} son base de su(2), con
las matrices
σ1 = 01 10 , σ2 = 0i −i 1 0

0 y σ3 = 0 −1 denominadas matrices de Pauli; y vale que
n
X
[iσl /2, iσj /2] = −ljk iσk /2 =⇒ Cljk = −ljk , con ljk = 1, −1 si (l, j, k) es una
k=1
permutación par o impar (respectivamente) de (1, 2, 3), y en cualquier otro caso es 0.
3. Sea SO(n) = {U ∈ GL(n, R)/U t U = Id ∧ det(U ) = 1} el grupo de Lie matricial de las ma-
trices ortogonales unimodulares reales; su álgebra de Lie es so(n)=n{iA ∈ M t =
 0n (R)/(iA)
0 0

−iA (iA es antisimétrica)}. En particular, una base de so(3) es F1 = 0 0 1 , F2 =
 0 0 −1   0 1 0 o 0 −1 0
k
, y sus constantes de estructura son también Clj = −ljk .
0 0 0 , F3 = −1 0 0
10 0 0 00

Teorema 1.14 (Ver demostración en teorema 20.19 de [1]). Sean G y H grupos de Lie con
álgebras de Lie g y h, respectivamente. Sea f : g → h un morfismo de álgebras de Lie. Si G es
simplemente conexo (i.e. se puede deformar continuamente toda curva cerrada a un punto de
la misma; ver definición A.27), ∃! F : G → H morfismo de grupos de Lie /F∗ = f .

Definición 1.15. Sea G un grupo de Lie conexo. Un cubrimiento universal de G es un grupo


de Lie (que puede o no ser matricial si G es matricial) G̃ simplemente conexo junto con un
morfismo de grupos de Lie Φ : G̃ → G (mapa del cubrimiento universal) tal que Φ∗ = φ : g̃ → g
es un isomorfismo de álgebras de Lie.

Teorema 1.16 (Ver demostración en teorema 21.31 en [1]). Sean G y H grupos de Lie conexos,
y sea un morfismo de grupos de Lie F : G → H. Son equivalentes:
1. F es sobreyectiva y su núcleo es un subgrupo (normal) discreto de G (i.e. Su topologı́a
como subconjunto de G, es discreta).
2. F es un difeomorfismo local
3. F∗ : g → h es un isomorfismo de álgebras de Lie.

Ejemplo 1.17. Sea φ : su(2) → so(3) transformación lineal definida por φ(iσj /2) = Fj , como
las bases de su(2) y so(3) dadas por el ejemplo 1.13, poseen las mismas constantes de estructura:
φ es un isomorfismo de álgebras de Lie (ya que preserva los corchetes y es biyectiva). Como
SU(2) es homeomorfo a S 3 (esfera en R4 ; ver ejemplo A.16 en el apéndice, ó sección 8.2 en
[2]), es simplemente conexo (ya que S 3 lo es); entonces, por el teorema 1.14 ∃! Φ : SU (2) →

4
SO(3) morfismo de grupos de Lie/Φ∗ = φ, y entonces SU(2) es un cubrimiento universal de
SO(3). Se puede verificar que Nú(Φ) = {Id, −Id}, por lo que SO(3)'SU(2)/{Id, −Id} (de no
saber qué es una relación de equivalencia o el cociente por una relación de equivalencia, ver
sección A.1 del apéndice).

Teorema 1.18 (Ver demostración en teorema 5.25 de [3] y teoremas 20.21 y 21.32 de [1]).
Sea g un álgebra de Lie real de dimensión finita. Existe un grupo de Lie matricial conexo G
tal que g es su álgebra de Lie. Se puede demostrar (teorema de correspondencia de Lie) que
hay una correspondencia biyectiva entre las clases de isomorfismos de álgebras de Lie reales de
dimensión finita y las clases de isomorfismos de grupos de Lie simplemente conexos (no todos
son matriciales). Además, todos los grupos de Lie conexos con álgebra de Lie isomorfa a g son
aquellos que tienen al grupo de Lie simplemente conexo que le corresponde a g como cubrimiento
universal. Por lo que siempre existe un cubrimiento universal de un grupo de Lie conexo G por
un grupo de Lie simplemente conexo G̃ y es único (a menos de isomorfismos), pero no siempre
dicho grupo de Lie es matricial.

Observación 1.19. Sean G y H dos grupos de Lie con álgebras de Lie g y h, respectivamente.
Sea f : g → h un morfismo de álgebras de Lie (ver figura 1). Supongamos que G es conexo y
posee un cubrimiento universal G̃ (simplemente conexo) con mapa de cubrimiento Φ : G̃ → G,
por lo que Φ∗ = φ : g̃ → g es un isomorfismo de álgebras de Lie (por el teorema 1.18, todo grupo
de Lie conexo posee un cubrimiento universal, único a menos de isomorfismos, que puede no
ser un grupo de Lie matricial). Esto significa que las dos primeras columnas del diagrama de la
figura 1 conmutan (ver teorema 1.8). Luego, como G̃ es un grupo de Lie simplemente conexo,
entonces por el teorema 1.14 ∃! Γ : G̃ → H/Γ∗ = f ◦ φ. De esta forma, se puede empujar un
morfismo de álgebras de Lie f : g → h a un morfismo Γ : G̃ → H cuyo dominio es el grupo
simplemente conexo que le corresponde a g según la correspondencia de Lie (teorema 1.18).
Pero no siempre se puede empujar f a un morfismo de grupos de Lie Γc : G → H que parta del
grupo de Lie conexo G (ver en figura 1 con lı́neas punteadas). Como G es isomorfo a G̃/Nú(Φ),
no es difı́cil ver que (sólo) si Γ es una función de clase (respecto a la relación de equivalencia
que impone el cociente G̃/Nú(Φ); ésta condición es equivalente a que Nú(Φ) ⊆Nú(Γ)), existe
una función Γc : G → H tal que Γ = Γc ◦ Φ que estarı́a bien definida ya que Γ serı́a una función
de clase.

f ◦φ=Γ∗

φ=Φ∗ f
g̃ g h
φ−1
exp exp exp

Φ Γc
G̃ G H
Γ

Figura 1: Diagrama conmutativo de la observación 1.19

5
2. Representaciones de grupos y álgebras de Lie
Definición 2.1. Una representación de un grupo de Lie G es un morfismo de grupos de Lie
ρ : G → GL(V ) para algún espacio vectorial V (GL(V) es el grupo de Lie de las autotrans-
formaciones lineales inversibles de V). De forma análoga se define una representación de un
álgebra de Lie g, como un morfismo de álgebras de Lie f : g → gl(V ) =TL(V) (TL(V) es el
conjunto de autotransformaciones lineales de V, y es el álgebra de Lie de GL(V) con el corchete
[h, k] = h ◦ k − k ◦ h). Si V es de dimensión finita y es un espacio vectorial real o complejo,
se dice que la representación (del grupo o del álgebra) es de dimensión finita y real o compleja
(respectivamente). Si ρ (ó f ) es inyectiva se dice que la representación es fiel.
Observación 2.2. Notemos que, tomando H = GL(V ) ∧ h = gl(V ), podemos aplicar la obser-
vación 1.19 para concluir que una representación f de un álgebra de Lie g se puede empujar
siempre a una representación Γ : G̃ → GL(V ) del grupo simplemente conexo G̃ que le corres-
ponde según la correspondencia de Lie, pero no siempre se puede empujar a una representación
univaluada Γc : G → GL(V ) de un grupo conexo G con dicha álgebra de Lie (ver figura 2). Ésto
último sólo se puede hacer si Nú(Φ) ⊆Nú(Γ).
En cambio, supongamos que no ocurre ésta última condición. Entonces a cada elemento g ∈
G, le corresponden en G̃ todos los elementos del coset Φ−1 (g) = g̃0 .Nú(Φ) = {g̃/Φ(g̃) = g} ⊆ G̃
para un cierto g̃0 /Φ(g̃0 ) = g, y en consecuencia le corresponden en GL(V) todos los elementos
dentro del subconjunto Γ ◦ Φ−1 (g) = {Γ(g̃)/Φ(g̃) = g} = {Γ(g̃0 )Γ(g̃N )/g̃N ∈ Nú(Φ)} ⊆ GL(V ).
Puesto que a cada g ∈ G le corresponderı́an múltiples elementos en GL(V), se dice que la
representación f del álgebra de Lie g (ó la representación Γ del grupo de cubrimiento G̃) induce
una representación multivaluada Γc de G.

Γ∗ =f ◦φ

φ=Φ∗ f
g̃ g gl(V )
φ−1
exp exp exp

Φ Γc
G̃ G GL(V )
Γ

Figura 2: Diagrama conmutativo de la observación 2.2

Definición 2.3. Sea ρ : G → GL(V ) una representación de un grupo de Lie G, un subespacio


W de V se dice invariante ante la representación si ρ(g)(W ) ⊆ W ∀ g ∈ G. Una representación
se dice irreducible si los únicos subespacios invariantes ante la misma son los triviales: V y {~0}.
Todo se define de forma análoga para representaciones de álgebras de Lie.
Definición 2.4. Sean (ρ1 , V1 ) y (ρ2 , V2 ) dos representaciones de un grupo de Lie G, un mapa
Φ : V1 → V2 es un morfismo de representaciones si Φ(ρ1 (g)(v1 )) = ρ2 (g)(Φ(v1 )) ∀ v1 ∈ V1 ∧ g ∈
G. Si dicho mapa es biyectivo, se dice que es un isomorfismo y que las representaciones son
equivalentes. Todo se define de forma análoga para representaciones de álgebras de Lie.
Proposición 2.5 (Ver demostración en proposición 4.5 de [3]). Sea G un grupo de Lie conexo,
(ρ, V ) una representación del mismo, y (ρ∗ , V ) la representación inducida del álgebra de Lie de
G. Un subespacio W es invariante ante la representación del grupo si y sólo si es invariante
ante la representación del álgebra. En particular, una representación del grupo es irreducible

6
si y sólo si la representación inducida del álgebra es irreducible. Además dos representaciones
de grupo son equivalentes si y sólo si las dos representaciones inducidas de álgebra de Lie son
equivalentes.

Teorema 2.6 (Lema de Schur; ver demostración en teorema 4.29 de [3]). Sean V1 y V2 dos
representaciones irreducibles de un grupo ó álgebra de Lie. Si Φ : V1 → V2 es un morfismo de
representaciones, entonces Φ = 0 ó Φ es un isomorfismo. Por otro lado, sean Φi : V1 → V2
(i = 1, 2) dos morfismos de representaciones complejas no nulos, entonces Φ1 = λΦ2 para algún
λ ∈ C; en particular, si V2 = V1 vale que Φ = λId, para algún λ ∈ C (Φ es una representación
compleja).

Corolario 2.6.1 (Ver demostración en corolario 4.30 de [3]). Sea (ρ, V ) una representación
irreducible compleja de un grupo de Lie G. Si A está en el centro de G (i.e. Ag = gA ∀ g ∈ G)
, vale que ρ(A) = λId. Vale el resultado análogo para álgebras de Lie (considerando que A está
el centro de g si y sólo si [X, A] = 0 ∀ X ∈ g).

Definición 2.7. Sean (ρ1 , V1 ) y (ρ2 , V2 ) dos representaciones de un grupo de Lie G. La suma
directa y el producto tensorial de las representaciones es la representación ρ1 ⊕ρ2 : G → GL(V1 ⊕
V2 ) / (ρ1 ⊕ ρ2 )(g) = ρ1 (g) ⊕ ρ2 (g) y ρ1 ⊗ ρ2 : G → GL(V1 ⊗ V2 ) / (ρ1 ⊗ ρ2 )(g) = ρ1 (g) ⊗ ρ2 (g),
respectivamente. Análogamente la suma directa y el producto tensorial de las representaciones
(f1 , V1 ) y (f2 , V2 ) de un álgebra de Lie g es la representación f1 ⊕ f2 : G → GL(V1 ⊕ V2 ) / (f1 ⊕
f2 )(X) = f1 (X) ⊕ f2 (X) y f1 ⊗ f2 : G → GL(V1 ⊗ V2 ) / (f1 ⊗ f2 )(X) = f1 (X) ⊗ Id + Id ⊗ f2 (X),
respectivamente.

Observación 2.8. La razón por la que se define distinto la representación del producto tensorial
d s(ρ ⊗ρ ) (X)

de álgebras de Lie (respecto a la de los grupos) es que (ρ1 ⊗ ρ2 )∗ (X) = ds e 1 2 ∗
=
s=0
d (ρ1 ⊗ρ2 )∗ (sX) d
(ρ1 ⊗ ρ2 )(esX ) d
ρ1 (esX ) ⊗ ρ2 (esX ) d
esρ1∗ (X) ⊗
  
ds e = ds = ds = ds


s=0 s=0 s=0
esρ2∗ (X)

= ρ1∗ (X) ⊗ Id + Id ⊗ ρ2∗ (X) (es decir, (ρ1 ⊗ ρ2 )∗ (X) = ρ1∗ (X) ⊗ Id + Id ⊗ ρ2∗ (X)
s=0
es el generador infinitesimal del subgrupo uniparamétrico (ρ1 ⊗ ρ2 )(esX ))

Proposición 2.9 (Ver demostración en proposición 4.8 de [3]). Sea (ρ, H) una representación de
un grupo de Lie que es unitaria en un espacio de Hilbert H de dimensión finita (i.e. ρ(g) ∈ U (H)
(es unitaria, preserva el producto interno) ∀ g ∈ G, o en otras palabras: ρ : G → U (H)).
Entonces ρ∗ (X) ∈ u(H)= {iA/ A es hermı́tica} ∀ X ∈ g. En cambio, para que valga la vuelta
hay que pedir que G sea conexo: si G es conexo y ρ∗ (X) ∈ u(H) ∀ X ∈ g, entonces ρ(g) ∈
U (H) ∀ g ∈ G.

Proposición 2.10 (Ver demostración en proposición 4.27 y 4.28 de [3]). Toda representación
unitaria de un grupo ó álgebra de Lie es completamente reducible (i.e. se puede descomponer
como suma directa de representaciones irreducibles). Además vale que toda representación de
un grupo de Lie compacto es equivalente a una unitaria, y entonces es completamente reducible.

Proposición 2.11 (Ver demostración en proposición 16.44 de [4]). El grupo proyectivo unitario
de Lie sobre H (espacio de Hilbert de dimensión finita n) dado por P U (H) = U (H)/{eiθ Id, θ ∈
R}, es isomorfo a un grupo de Lie matricial. Sea Q : U (H) → P U (H) la proyección al cociente,
entonces el morfismo de álgebras de Lie inducido Q∗ : u(H) → pu(H) es sobreyectivo con
núcleo {iaId/a ∈ R}, por lo que el álgebra de Lie pu(H) 'u(H)/{iaId/a ∈ R}. Y además
pu(H) 'su(n).

Proposición 2.12 (Ver demostración en proposición 16.46 de [4]). Sea (ρ, H) una representa-
ción proyectiva unitaria de un grupo de Lie G (i.e. ρ : G → P U (H)). Existe una representación
unitaria del álgebra de Lie g de G, ς : g →u(H), tal que q(ς(X)) = ρ∗ (X) ∀ X ∈ g (ver figura 3).
Existe una única representación unitaria ς que verifica lo anterior y que tr(ς(X)) = 0 ∀ X ∈ g.
Finalmente, si [g, g] = g (i.e. el mapa dado por el corchete [, ] es sobreyectivo), entonces la única
ς que verifica q(ς(X)) = ρ∗ (X) ∀ X ∈ g es la que posee traza nula.

7
ς

ρ∗
g pu(H) Q∗
u(H)
exp exp exp
ρ
G P U (H) Q
U (H)
Figura 3: Diagrama conmutativo de la proposición 2.12

Teorema 2.13 (Ver demostración en teorema 16.47 de [4]). Sea G un grupo de Lie y G̃ un
cubrimiento universal de G con mapa Φ. Y H un espacio de Hilbert de dimensión finita
1. Sea ρ : G → P U (H) una representación proyectiva unitaria de un grupo de Lie G. Exis-
te una representación unitaria del cubrimiento G̃, Γ : G̃ → U (H), tal que ρ(Φ(g̃)) =
Q(Γ(g̃)) ∀ g̃ ∈ G̃ (ver figura 4). Γ es irreducible si y sólo si ρ es irreducible (i.e. los únicos
subespacios W que son invariantes ante todo elemento D ∈ ρ(g) ∀ g ∈ G, son los trivia-
les H y {~0}). Existe una única representación unitaria Γ que verifica lo anterior y que
det(Γ(g̃)) = 1 ∀ g̃ ∈ G̃.
2. Sea Γ : G̃ → U (H) una representación unitaria irreducible de G̃. Entonces Nú(Φ) ⊆Nú(Q◦
Γ) y por lo tanto hay una representación proyectiva unitaria de G inducida por Γ, dada
por ρ : G → P U (H) tal que ρ(g) = Q ◦ Γ(g̃), con Φ(g̃) = g que está bien definida.

Γ∗ =ς◦φ

φ=Φ∗ ρ∗
g̃ g pu(H) Q∗
u(H)
φ−1
exp exp exp exp

Φ ρ
G̃ G P U (H) Q
U (H)

Figura 4: Diagrama conmutativo del teorema 2.13

Observación 2.14. Notemos que hay una correspondencia biyectiva entre representaciones
proyectivas unitarias de G y representaciones unitarias unimodulares (con determinante 1) del
cubrimiento universal G̃. Además, notemos que nada de esto vale si la dimensión de H es
infinita; en ese caso, el resultado análogo (pero más limitado) es el Teorema de Bargmann [5].

8
3. Introducción a la fı́sica cuántica
3.1. Lo básico
La base conceptual de la fı́sica cuántica es la dualidad onda-partı́cula que se observó expe-
rimentalmente a fines del siglo XIX y principios del siglo XX.
Clásicamente, las partı́culas se describen con las cantidades E, p~, ~x, L ~ = ~x × p~ (energı́a,
momento lineal, posición y momento angular, respectivamente). Su movimiento se determina
2
con la relación E = H(~x, p~) = 2p~m + V (~x), siendo H(~x, p~) el hamiltoniano del sistema.
En cambio, las ondas se describen clásicamente con funciones de onda
ZZZZ
~
ψ(~x, t) = Aω,~k ei(k.~x−ωt) d3 k dω ,
| {z }
Modo normal ψω,~k (~
x,t)

que son combinación lineal de modos normales (ondas planas con frecuencia temporal ω y
espacial ~k).
La forma en la que se mezclan la descripción clásica de partı́culas y ondas en cuántica
viene dada por las relaciones de De Broglie: E = ~ω ∧ p~ = ~~k (siendo ~ una constante,
la constante de planck h dividido 2π). Como, para cada modo normal vale que: E/~ ψω,~k =
ωψ ~ = i ∂ ψ ~ ∧ p~/~ ψ ~ = ~kψ ~ = −i∇ψ
ω,k ∂t ω,k ω,k
~
ω,k ω,k
3
~ , entonces al integrar en d k dω y considerar
toda la función de onda ψ(~x, t), se tiene que la energı́a E y el momento lineal p~ en cuántica
están asociados a operadores Ĥ y p~ˆ tales que:

Ĥψ(~x, t) = i~ ψ(~x, t) y p~ˆψ(~x, t) = −i~∇ψ(~
~ x, t) (1)
∂t
La interpretación Rfı́sica que se realiza de la función de onda (que determina el estado fı́sico de la
partı́cula) es que V |ψ(~x, t)|2 dV =Probabilidad de hallar a la partı́cula cuántica en el volumen
V a tiempo t. Por lo que las funciones de onda deben estar normalizadas: R3 |ψ(~x, t)|2 dV = 1,
R

lo que implica: ψ ∈ L2 (R3 ) = H. H es un espacio de Hilbert con producto interno dado por:
hφ|ψi = R3 φ (~x, t)ψ(~x, t)dV . Como hψ|ψi = 1 =⇒ ψ ∈ S H .

R
ˆ2
La función de onda viene determinada por la relación Ĥ(~x, p~ˆ) = p~ + V (~x) importada
2 m
de la descripción clásica de las partı́culas (asumiendo que Ĥ no depende explı́citamente del
tiempo), puesto que determina una ecuación diferencial para obtener ψ, denominada ecuación
de Schrodinger:


p
z }| {
∂  ~ 2
(−i~∇)  ~2 2
i~ ψ(~x, t) = + V (~x) ψ(~x, t) = − ∇ ψ(~x, t) + V (~x)ψ(~x, t) (2)
∂t | 2 m {z } 2m
Ĥ(~ ~ˆ)
x,p

Por otro lado, las funciones de onda dadas por


ˆ.~
ψ(~x, t) = |e−i{z
Ĥt/~
} ψ(~x, 0) y ψ(~x, t) = e|ip~{zx/~ ~
} ψ(0, t) (3)
UH (t) D(~
x)

son soluciones de las ecuaciones 1 (respectivamente), ya que debido a la proposición 1.11 (item 3

reformulado): i~ ∂t UH (t)ψ(~x, 0) = i~(−i)/~ ĤUH (t)ψ(~x, 0) = ĤUH (t)ψ(~x, 0), y análogamente
con D(~x). Los operadores UH (t) y D(~x) se denominan operadores de evolución temporal y
espacial, respectivamente.
Observación 3.1. H = L2 (R3 ) tiene dimensión infinita. Para simplificar y no entrar en terreno
de análisis funcional, se considerará que H tiene dimensión finita (a menos que se aclare lo
contrario). Para entrar en dicho terreno aplicado a la cuántica, se puede ver la referencia [4],
ó se puede ver el volumen I de la referencia [6].

9
3.2. Operadores hermı́ticos y unitarios. Teorema de Noether
cuántico
En cuántica, las cantidades fı́sicas están asociados a operadores en el espacio de Hilbert:
~ p~ˆ, Ĥ, Â. Los posibles valores que uno puede medir de una cantidad fı́sica A son los autova-
X,
lores a de  (que son discretos en general), con probabilidad Pa = hψ|πˆa |ψi =Probabilidad de
medir el autovalor a de Â, siendo πˆa el proyector sobre el subespacio de autovectores de  con
autovalor a. El valor medio de A viene dado por: hÂiψ = hψ|Â|ψi.
Como a es un posible valor de medición, debe ser real: Todos los autovalores de  son
reales ⇐⇒  = † ( es hermı́tico). Es por esto que las cantidades fı́sicas están asociadas a
operadores hermı́ticos en fı́sica cuántica.
Además, las probabilidades de transición entre estados en cuántica dependen del módulo
| hχ|ψi |, con χ, ψ ∈ S H .

Observación 3.2. Un cambio de fase ψ → eiθ ψ (θ ∈ R) en el vector ψ ∈ S H no tiene nunca una


implicancia fı́sica (ya que Pa = hψ|πˆa |ψi, hψ|Â|ψi y | hχ|ψi | no cambian): ψ y eiθ ψ representan
el mismo estado fı́sico.
Una forma de eliminar ésta indeterminación por cambios de fase es plantear que el conjunto
de estados fı́sicos posibles viene dado por el espacio proyectivo P H = (H − {~0})/(v ∼ w ⇐⇒
|hu|vi|
v = λw, λ ∈ C − {~0}), con un producto interno (u, v) = kukkvk . Pero en la práctica se trabaja
con un espacio de Hilbert común teniendo presente que dos vectores son equivalentes fı́sicamente
si difieren en una fase global.

Por otro lado, puesto que el álgebra de Lie del grupo de matrices unitarias U (n) son las
matrices iA con A hermı́tica (ver ejemplo 1.13 item 1), los generadores infinitesimales de las
transformaciones unitarias están asociados a cantidades fı́sicas. Lo observamos en los casos vistos
en la ecuación 3, ya que los generadores infinitesimales de los operadores de evolución temporal
UH (t) y espacial D(~x) son Ĥ y p~ˆ.
Más generalmente, hay una correspondencia biyectiva entre subgrupos uniparamétricos uni-
tarios y operadores autoadjuntos U (s) = eisÂ/~ ←→ Â. No es difı́cil ver esto a partir del
teorema 1.9 aplicado a U (n). La versión válida de esta afirmación si H tiene dimensión infinita
es el Teorema de Stone (ver teorema 10.15 de [4]).
Decimos que un subgrupo uniparamétrico unitario U (s) es una simetrı́a hamiltoniana del
sistema si U (s)UH (t)ψ0 = UH (t)U (s)ψ0 ∀ ψ0 ∈ S H , s, t ∈ R ⇐⇒ [U (s), UH (t)] = 0 ∀ s, t ∈ R
(es decir, si evolucionar temporalmente primero y evolucionar con U (s) después da igual que
hacerlo al revés). Sea  el único operador hermı́tico tal que U (s) = eisÂ/~ , si se deriva la ex-
presión U (s)UH (t) = UH (t)U (s) respecto a s y se evalúa en s = 0: ÂUH (t) = UH (t)Â ⇐⇒
[A, UH (t)] = 0. Y si se deriva la última expresión respecto a t y se evalúa en t = 0: [Â, Ĥ] = 0. A
su vez, esta última condición implica (utilizando la proposición 1.10 item 5) que [U (s), UH (t)] =

0 ∀ s, t ∈ R. Y si [A, UH (t)] = 0 ⇐⇒ hAi (t) = hψ(t)|A|ψ(t)i = hψ(0)|UH (t)AUH (t)|ψ(0)i =
H
hψ(0)|A|ψ(0)i = hAi (0) =cte ∀ ψ(0) ∈ S . Vemos entonces que U (s) es una simetrı́a hamilto-
niana del sistema si y sólo si la cantidad fı́sica A (asociada al generador infinitesimal de U (s))
es una constante de movimiento. Ésta es la versión cuántica del Teorema de Noether.

10
4. Aplicación a momento angular orbital y de spin
Concentrémonos en las representaciones de SO(3) en nuestro espacio de Hilbert H de di-
mensión finita. Por la observación 2.2, una representación ρ de SO(3) induce una representación
ρ∗ del álgebra de Lie so(3) que, como vimos en el ejemplo 1.17, es isomorfa a su(2) (siendo
φ : su(2)→so(3) el isomorfismo descripto en el ejemplo 1.17). Y como ésta última es el álgebra
de Lie del grupo SU(2) que es simplemente conexo, por la observación 2.2 existe una única
representación Γ de SU(2) (a menos de isomorfismos) tal que Γ∗ = ρ∗ ◦ φ.
Y si partimos de una representación f de so(3) ' su(2), razonando análogamente, hay una
única representación de SU(2) Γ tal que Γ∗ = f ◦ φ. Notemos que f puede no provenir de una re-
presentación ρ de SO(3) ya que SO(3) no es simplemente conexo. Proviene de una representación
de SO(3) sólo si {Id, −Id} ⊆Nú(Γ) ⇐⇒ Γ(−Id) = Id (recordar observación 1.19).
Además, dada una representación f de so(3), al tener una representación Γ del grupo de
Lie SU(2), entonces Γ es equivalente a una representación unitaria ya que SU(2) es compacto
(ver proposición 2.10), por lo que tenemos una representación equivalente unitaria T de SU(2)
que inducirá una representación unitaria T∗ :su(2) → u(H) equivalente a f. Entonces, toda
representación de su(2) ó SU(2) es equivalente a una representación unitaria de su(2) ó de
SU(2) (respectivamente), que poseen la propiedad de ser completamente reducibles y poder
descomponerse en suma directa de representaciones irreducibles (ver proposición 2.10). Es por
esto que basta estudiar las representaciones unitarias irreducibles de so(3)'su(2) ó de SU(2).

4.1. Representaciones irreducibles de so(3)


Teorema 4.1. Sea πj : so(3) → gl(Vj ) una representación irreducible compleja de so(3) de
dimensión finita, siendo j := (dim(Vj ) − 1)/2 ∈ {0, 1/2, 1, 3/2, (...)} definido por conveniencia.
Sean los operadores de momento angular Ji := i~πj (Fi ) (i = 1, 2, 3), el operador J~2 := J12 + J22 +
J32 y los operadores de subida y bajada J± := J1 ± iJ2 = i~(πj (F1 ) ± iπj (F2 )) (respectivamente).
Existe una base de Vj de autovectores de J3 dada por B = {|j, mi /m ∈ {−j, −j+1, (...), j−1, j}}
tal que (considerando |j, j + 1i = |j, −j − 1i = ~0):

J3 |j, mi = m~ |j, mi
p
J− |j, mi = ~ (j + m)(j − m + 1) |j, m − 1i := c− (j, m) |j, m − 1i (4)
p
J+ |j, mi = ~ (j − m)(j + m + 1) |j, m + 1i := c+ (j, m) |j, m + 1i
La verificación de éstas ecuaciones implica que:

J~2 |j, mi = ~2 j(j + 1) |j, mi (5)

Ésta base es única a menos de una constante global D(j) que multiplique a los |j, mi.
Y si Vj posee un producto interno, entonces se puede elegir dicha constante global (inde-
terminada a menos de un cambio de fase) de forma que hj, j|j, ji = 1 = k |j, ji k. Con dicha
elección, la base B es ortonormal si y sólo si la representación es unitaria (πj (X) es antihermı́ti-
ca ∀ X ∈ so(3)), lo que ocurre si y sólo si los operadores de momento angular Ji son hermı́ticos

(ésto a su vez ocurre si y sólo si J3 es hermı́tico y J± = J∓ ).

Demostración. Parte 1: Existencia


3
X
No es difı́cil ver a partir de las relaciones de conmutación de so(3) ([Fi , Fl ] = −ilk Fk )
k=1
3
X
que [Ji , Jl ] = i~ilk Fk y que [J3 , J± ] = ±~J± ∧ [J+ , J− ] = 2~J3 .
k=1
Como el espacio vectorial Vj es complejo (un cuerpo algebraicamente cerrado), entonces J3
posee al menos un autovector vα con un cierto autovalor α~. Si aplicamos J3 a J± v, tenemos
que: J3 J± vα = (J± J3 + [J3 , J± ])vα = (J± ~α ± ~J± )vα = ~(α ± 1)J± vα , por lo que J± vα es el

11
vector nulo o es el autovector vα±1 de J3 con autovalor (α ± 1)~, y es por lo tanto linealmente
independiente a vα . No es difı́cil ver por inducción entonces que, si (J± )k vα no es el vector
nulo, entonces vα±k = (J± )k vα y todos los vα±b = (J± )b vα con 0 ≤ b ≤ k son linealmente
independientes entre sı́.
Pero como la dimensión del espacio vectorial es finita (dim(Vj ) = 2j + 1), entonces J3
sólo tiene finitos autovalores (2j + 1 a lo sumo), y en consecuencia finitos autovectores (con
distintos autovalores). Por lo que, debe ocurrir que ∃ k ∈ N0 / vµ = (J+ )k vα 6= ~0, pero
(J+ )k+1 vα = J+ vµ = ~0, con µ = α + k. Entonces, es válido que vµ−r = (J− )r vµ para
r ∈ N0 . Se puede demostrar también por inducción que J+ vµ−r = ~2 r(2µ + 1 − r)vµ−r+1
(ya que J+ vµ−r = J+ J− vµ−(r−1) = J− J+ vµ−(r−1) + [J+ , J− ]vµ−(r−1) , y por hipótesis inductiva:
J+ vµ−r+1 = ~2 (r − 1)(2µ + 1 − (r − 1))vµ−r+2 , entonces: J+ vµ−r = J− ~2 (r − 1)(2µ + 1 − (r −
1))vµ−r+2 + [J+ , J− ]vµ−(r−1) = ~2 (r − 1)(2µ + 1 − (r − 1))vµ−r+1 + 2~J3 vµ−(r−1) = ~2 (r − 1)(2µ +
2 − r)vµ−r+1 + ~2 (2µ + 2 − 2r)vµ−r+1 = ~2 r(2µ + 2 − r − 1)vµ−r+1 = ~2 r(2µ + 1 − r)vµ−r+1 , y
como vale para r = 0, vale ∀ r ∈ N0 ).
Razonando análogamente, debe ocurrir que ∃ n ∈ N0 / vµ−n = (J− )n vµ 6= ~0 (y por lo tanto
los n + 1 vectores vµ−b = (J− )b vµ con 0 ≤ b ≤ n, son no nulos e linealmente independientes
entre sı́ y en consecuencia n + 1 ≤ dim(Vj ) = 2j + 1) pero vµ−n−1 = (J− )n+1 vµ = J− vµ−n = ~0.
Por lo que, utilizando la anterior propiedad deducida por inducción y que vµ−(n+1) = ~0, se tiene
que J+ vµ−(n+1) = ~0 = ~2 (n + 1)(2µ + 1 − (n + 1))vµ−(n+1)+1 = ~2 (n + 1)(2µ − n)vµ−n = ~0, y
como vµ−n 6= ~0 y ~2 (n + 1) 6= 0 entonces 2µ − n = 0 =⇒ µ = n/2 ∈ {0, 1/2, 1, 3/2, (...)}.
Se tiene entonces que los n+1 = 2µ+1 vectores linealmente independientes vµ−b con 0 ≤ b ≤
n, son los n + 1 = 2µ + 1 vectores v−µ , v−µ+1 , (...), vµ−1 , vµ . No es difı́cil ver que el subespacio
S generado por estos vectores (de dimensión 2µ + 1) es invariante ante la representación ya
que todos son autovectores de J3 (y por lo tanto S es invariante respecto a J3 ) y además son
invariantes respecto a J+ y J− (ya que J− vµ−r = vµ−r−1 ∈ S y J+ vµ−r = ~2 r(2µ+1−r)vµ−r+1 ∈
S) y por lo tanto son invariantes respecto a J1 = (J+ +J− )/2 y a J2 = (J+ −J− )/(2i). Pero como
la representación es irreducible por hipótesis, y vµ 6= ~0, entonces S 6= {~0} y en consecuencia
S = Vj . Por lo tanto, dim(S) = 2µ + 1 = dim(Vj ) = 2j + 1 =⇒ µ = j. Y entonces se tiene que
existen una base de Vj de autovectores de J3 dada por {vm /m ∈ {−j, −j+1, (...), j−1, j}} tal que
J3 vm = m~vm , J− vm = vm−1 y J+ vm = ~2 (j − m)(j + m + 1)vm+1 . Y como J~2 = J12 + J22 + J32 =
J12 + J22 − i[J1 , J2 ] + i[J1 , J2 ] + J32 = (J1 + iJ2 )(J1 − iJ2 ) + J32 − ~J3 = J+ J− + J32 − ~J3 entonces
J~2 vm = J+ J− vm + J32 vm − ~J3 vm = J+ vm−1 + m2 ~2 vm − ~2 mvm = ~2 (j − m + 1)(j + m)vm +
~2 m(m − 1)vm = ~2 (j(j + 1) + mj − mj − m(m − 1) + m(m − 1))vm = ~2 j(j + 1)vm =⇒ J~2 vm =
~2 j(j + 1)vm . p
Recordemos la definición de c± (j, m) := ~ (j ∓ m)(j + 1 ± 1) y observemos que c± (j, m ∓
1) = c∓ (j, m). Luego, por conveniencia se realiza la siguiente renormalización de la base:
Yj
vm → |j, mi = C(j, m)c vm , con (C(j, m)) = −1 c− (j, s) (considerando C(j, j) = 1) y
s=m+1
c = (hvj |vj i)−1/2 = kvj k−1 si hay un producto interno en Vj y c = 1 si no lo hay; son to-
das constantes reales positivas. Nótese que satisfacen la relación de recurrencia: C(j, m + 1) =
c− (j, m + 1)C(j, m) = c+ (j, m)C(j, m). Entonces J− |j, mi = cC(j, m)J− vm = C(j, m)c vm−1 =
c− (j, m)C(j, m−1)c vm−1 = c− (j, m) |j, m − 1i; también J+ |j, mi = C(j, m)cJ+ vm = C(j, m)c~2 (j−
m)(j+m+1)vm+1 = c+ (j, m)2 C(j, m)cvm+1 = c+ (j, m)(c+ (j, m)C(j, m))cvm+1 = c+ (j, m)C(j, m+
1)c vm+1 = c+ (j, m) |j, m + 1i, y finalmente no es difı́cil ver que J3 |j, mi = m~ |j, mi y
J~2 |j, mi = ~2 j(j + 1) |j, mi.
Parte 2: Unicidad y unitariedad
Supongamos que otra base B’ de Vj formada por vectores wm , −j ≤ m ≤ j verifica las
condiciones 4 (con wm en lugar de |j, mi). Entonces como wm y el vector |j, mi hallado ante-
riormente son ambos autovectores de J3 con autovalor m~, y el subespacio de autovectores con
dicho autovalor es de dimensión 1, entonces wm = D(j, m) |j, mi para alguna constante D(j, m)
compleja que depende de m. Y como J± wm = c± (j, m)wm±1 = c± (j, m)D(j, m ± 1) |j, m ± 1i =
D(j, m ± 1)J± |j, mi = J± wm = J± D(j, m) |j, mi =⇒ (D(j, m ± 1) − D(j, m))J± |j, mi = ~0 ∀ −

12
j ≤ m ≤ j. En particular, como J− |j, mi 6= ~0 ∀ − j + 1 ≤ m ≤ j =⇒ D(j, m − 1) = D(j, m);
y por inducción no es difı́cil ver que D(j, m) = D(j, j) := D(j) no depende de m. Entonces
cualquier otra base B’ que verifique las condiciones 4, es igual a la base original B con sus
vectores multiplicados por una constante global D(j).
Y si el espacio vectorial Vj posee un producto interno, entonces eligiendo la base B (o
equivalentemente tomando D(j) = 1; también es válido y equivalente fı́sicamente tomar D(j) =
eiθ por la observación 3.2), se tiene que k |j, ji k = kC(j, j)c vj k = |C(j, j)||c|kvj k. Y como
se eligió C(j, j) = 1 y c = kvj k−1 si hay un producto interno en Vj , entonces hj, j|j, ji1/2 =
k |j, ji k = |C(j, j)||c|kvj k = kvj k−1 kvj k = 1. La base B verifica que k |j, ji k = 1 = hj, j|j, ji.
Ahora veamos que la base B es ortonormal sı́ y sólo si πj es unitaria.
Veamos la ida: si la base B es ortonormal se tiene que hj, m0 |j, mi = δm0 m . Debe ocurrir que
πj (Fi ) sea antihermı́tica, o equivalentemente Ji = i~πj (Fi ) debe ser hermı́tica (i = 1, 2, 3), y
a su vez esta condición es equivalente a que J3 sea hermı́tica y J±† = J∓ (la ida es trivial; la
vuelta: J1 † ∓iJ2 † = J1 ∓iJ2 , y si sumo y resto estas ecuaciones llego a Ji† = Ji con i = 1, 2). Em-
pecemos viendo que J3 es hermı́tica: hj, m0 |J3 |j, mi = m~ hj, m0 |j, mi = m~δm0 m = m0 ~δm0 m =
m0 ~ hj, m0 |j, mi = hJ3 (j, m0 )|j, mi = hj, m0 |J3† |j, mi ∀ − j ≤ m, m0 ≤ j =⇒ J3 = J3† es
hermı́tica. Y luego, recordando que c± (j, m ∓ 1) = c∓ (j, m), veamos que hj, m0 |J± |j, mi =
c± (j, m) hj, m0 |j, m ± 1i = c± (j, m)δm0 ,m±1 = c± (j, m0 ∓ 1)δ(m0 ∓1)m = c∓ (j, m0 )δ(m0 ∓1)m =
c∓ (j, m0 ) hj, m0 ∓ 1|j, mi = hJ∓ (j, m0 )|j, mi = hj, m0 |J∓† |j, mi ∀ −j ≤ m, m0 ≤ j =⇒ J± = J∓† .
Por lo que πj es unitaria. Se utilizó la notación de brakets de Dirac, según la cual si A |vi =
|wi =⇒ (Av)† := hAv| = hv| A† .
Ahora veamos la vuelta: si πj es unitaria, entonces J3 es hermı́tica y J±† = J∓ . Entonces
hj, m0 |J3 |j, mi = m~ hj, m0 |j, mi = hj, m0 |J3† |j, mi = hJ3 (j, m0 )|j, mi = m0 ~ hj, m0 |j, mi =⇒
(m0 − m)~ hj, m0 |j, mi = 0, por lo que, si m0 6= m entonces hj, m0 |j, mi = 0; o en otras pa-
labras: hj, m0 |j, mi = f (j, m)δm0 m , y en particular hj, j|j, ji = f (j, j) = 1 (ya que la base
B verificaba eso). Sólo falta calcular hj, m|j, mi para cada m. Y si considero hj, m0 |J± |j, mi =
c± (j, m) hj, m0 |j, m ± 1i = c± (j, m)f (j, m±1)δm0 (m±1) = c± (j, m)f (j, m±1)δ(m0 ∓1)m = c± (j, m0 ∓
1)f (j, m ± 1)δ(m0 ∓1)m = c∓ (j, m0 )f (j, m ± 1)δ(m0 ∓1)m = hj, m0 |J∓† |j, mi = hJ∓ (j, m0 )|j, mi =
c∓ (j, m0 ) hj, m0 ∓ 1|j, mi = c∓ (j, m0 )f (j, m)δ(m0 ∓1)m =⇒ (f (j, m±1)−f (j, m))c∓ (j, m0 )δ(m0 ∓1)m =
(f (j, m ± 1) − f (j, m))c± (j, m)δ(m0 ∓1)m = 0. En particular, si m0 = m − 1 y −j + 1 ≤ m ≤ j, en-
p
tonces ~ (j + m)(j + 1 − m)δ(m0 +1)m = c− (j, m)δ(m0 +1)m 6= 0 y en consecuencia f (j, m − 1) =
f (j, m) ∀ −j+1 ≤ m ≤ j. No es difı́cil ver por inducción que f (j, m) = f (j, j) = 1 ∀ −j ≤ m ≤ j,
entonces hj, m0 |j, mi = δm0 m , y la base B es ortonormal.

Observación 4.2. El operador J~2 es igual a −~2 Kj , siendo Kj es la representación del inva-
riante cuadrático de Casimir del álgebra de Lie so(3) como operador lineal en Vj .
En general, sea un álgebra de Lie g, su forma de Killing es una forma bilinear simétrica en
g definida por B(X, Y ) = tr(adX adY ) = B(Y, X) (con adX (W ) = [X, W ]) y componentes en
una base {e1 , (...), eN } dados por gij = B(ei , ej ) = Cidk C d = g (se utilizó la notación ı́ndices
jk ji
repetidos de Einstein). Y se puede demostrar que el álgebra de Lie es semisimple (i.e. es suma
directa de álgebras de Lie simples; un álgebra de Lie g es simple si sus únicos ideales son los
triviales {~0} y g; un subespacio h de g es un subálgebra de Lie si es cerrado bajo el corchete
([h, h] ⊆ h) y es un ideal si satisface [g, h] ⊆ h) si y sólo si la forma de Killing es no degenerada
(criterio de Cartan). Además un grupo de Lie semisimple es compacto si y sólo si la forma
de Killing de su álgebra de Lie es negativa definida; y existe una base del álgebra de Lie de
cualquier grupo de Lie semisimple compacto tal que gij = −δij .
k Cd = 
En particular para so(3) se tiene que gij = Cid jk idk jkd = −2δij es negativa definida
(y por lo tanto no degenerada), por lo que so(3) es el álgebra de Lie de un grupo semisimple
compacto, que es SU(2) (que en rigor es simple).
Y la representación del invariante cuadrático de Casimir de un álgebra de Lie g semisimple
es un operador en el espacio vectorial de la representación Vj dado por Kj = g il πj (Xi )πj (Xl ),
que conmuta con los generadores del álgebra de Lie: [Kj , πj (Xi )] = 0 ∀ i. Y por lo tanto pertenece

13
al centro del álgebra de Lie. En consecuencia, por el corolario 2.6.1 del lema de Schur, J~2 es
un múltiplo escalar de la identidad; y evaluando en algún vector se puede mostrar que es igual
a ~2 j(j + 1)Id.
Observación 4.3. Esta construcción de una base del espacio vectorial donde está representado
el grupo en la que se conoce cómo actúa el mismo, se generaliza formidablemente con la teorı́a
de representaciones de álgebras de Lie semisimples que involucran definiciones como subálgebra
de Cartan, raı́ces, pesos, diagramas de Dynkin, etcétera.
De hecho, una de las claves de ésta teorı́a es complexificar el álgebra de Lie: Pasar del álgebra
de Lie real su(2) (con base {iσ1 /2, iσ2 /2, iσ3 /2}) al álgebra de Lie compleja su(2)C dada por
tomar las combinaciones lineales complejas de los elementos de su(2) y extender el corchete de
forma [A + iB, C + iD] = [A, C] − [B, D] + i([B, C] + [A, D]); Y en vez de considerar la base
anterior (con combinaciones lineales complejas) se pasa a la base dada por {iσ+ /2, iσ− /2, iσ3 /2}
(con σ± = σ1 ±iσ2 ). El álgebra de Lie compleja su(2)C es isomorfa a sl(2, C) (matrices complejas
de C2×2 de traza nula).
Puede leerse un pantallazo en las últimas dos secciones del capı́tulo 5 de [6], o puede estu-
diarse el tema de forma más detallada leyendo la parte II de [3].
Teorema 4.4. Para todo número natural N existe una representación unitaria irreducible com-
pleja de so(3) πj : so(3) → gl(Vj ) de dimensión dim(Vj ) = N = 2j + 1, siendo j = (N − 1)/2 ∈
{0, 1/2, 1, 3/2, (...)} y Vj un espacio vectorial complejo con un producto interno. Y cualquier
representación irreducible compleja πj0 de igual dimensión de so(3) es equivalente a πj ; y si πj0
es unitaria, entonces es unitariamente equivalente a πj (i.e. el isomorfismo de representaciones
preserva el producto interno: hφ(v 0 )|φ(v)i = hv 0 |vi ∀ v, v 0 ∈ Vj0 ). Entonces la representación πj
unitaria irreducible compleja de so(3) de dimensión 2j + 1 es única a menos de una equivalencia
unitaria.
Demostración. Sea una base ortonormal {w− j, w−j+1 , (...), wj } del espacio vectorial complejo
con producto interno Vj (que existe por Gram-Schmidt; como es ortonormal: hwr |ws i = δrs ),
entonces se define pla representación compleja de so(3) πj : so(3) → gl(Vj ) de forma que J3 wr =
r~wr y J± wr = ~ (j ∓ r)(j + 1 ± r)wr±1 (considerando w−1 = w2j+1 = ~0 y considerando las
definiciones del teorema 4.1). No es difı́cil ver que πj es efectivamente un morfismo de álgebras
de Lie verificando que J3 , J+ y J− verifican las reglas de conmutación inducidas por so(3).
Nótese que J+ y J− son nilpotentes y que sus núcleos son los subespacios generados por w−j y
wj , respectivamente.
Veamos que πj es irreducible. Sea W un subespacio no nulo de Vj que es invariante ante
la representación, entonces existe un vector no nulo w ∈ W . No es difı́cil ver que, como J+ es
nilpotente, ∃ n ∈ N0 /(J+ )n w := w̃ 6= ~0 y (J+ )n+1 w = J+ w̃ = ~0. Entonces, w̃ ∈ Nú(J+ ) =
gen(wj ) =⇒ w̃ = c wj , c ∈ C. Como W es invariante ante la representación: w ∈ W =⇒
w̃ = c wj = (J+ )n w ∈ W , por lo que wj ∈ W ; y como wr = cr (J− )j−r wj para alguna constante
compleja cr , entonces wr ∈ W ∀ − j ≤ r ≤ j, por lo que W ⊆ Vj =gen(w−j , (...), wj ) ⊆ W =⇒
W = Vj . Entonces la representación es irreducible ya que los únicos subespacios invariantes son
los triviales.
Como la base es ortonormal, entonces por el teorema 4.1, la representación es unitaria.
Sea otra representación irreducible compleja de so(3) de igual dimensión 2j + 1 dada por
πj0 : so(3) →gl(Vj0 ). Por el teorema 4.1, hay una base B’ de Vj0 dada por |j, mi := vm 0 con

−j ≤ m ≤ j que verifica las ecuaciones 4. Sea la transformación lineal φ : Vj0 → Vj defini-


da por φ(vs ) = ws para cada −j ≤ s ≤ j, es trivialmente un isomorfismo. Veamos que es
un isomorfismo de representaciones: φ(πj0 (F3 )(vs )) = φ(J30 /(i~)vs ) = −isφ(vs ) = −isws =
J3 /(i~)ws = πj (F3 )(φ(vs )) ∀ s =⇒ φ ◦ πj0 (F3 ) = πj (F3 ) ◦ φ; por otro lado, φ(J± 0 v ) =
s
0
c± (j, s)φ(vs±1 ) = c± (j, s)ws±1 = J± ws = J± (φ(vs )) ∀ s =⇒ φ ◦ J± = J± ◦ φ. Y como to-
das las transformaciones son lineales y J1 = (J+ + J− )/2 y J2 = (J+ − J− )/(2i), entonces
φ ◦ Ji0 = Ji ◦ φ =⇒ φ ◦ πj0 (Fi ) = πj (Fi ) ◦ φ con i = 1, 2, y como vimos ésto también valı́a para
i = 3. Entonces φ es un isomorfismo de representaciones y cualquier representación irreducible
compleja πj0 es equivalente a la representación unitaria irreducible compleja πj .

14
Y si la otra representación irreducible compleja πj0 era también unitaria, entonces la base
B’ de Vj0 es ortonormal. Y la transformación lineal φ : Vj0 → Vj definida por φ(vs ) = ws para
cada −j ≤ s ≤ j, que como ya vimos es un isomorfismo de representaciones, además verifica
que hφ(vs )|φ(vr )i = hws |wr i = δsr = hvs |vr i ∀ − j ≤ s, r ≤ j lo que implica hφ(v 0 )|φ(v)i =
hv 0 |vi ∀ v, v 0 ∈ Vj0 : φ es unitaria, por lo que πj y πj0 son unitariamente equivalentes.

Observación 4.5. Sea una representación compleja de dimensión finita de so(3), no nece-
sariamente irreducible. Como so(3) es el álgebra de Lie de un grupo compacto (SU(2)), en-
tonces por la proposición 2.10 la representación es equivalente a una representación unitaria
π : so(3) → gl(V ). Entonces sólo basta estudiar las representaciones complejas unitarias de
so(3). Por dicha proposición también, una representación compleja unitaria π es completa-
mente reducible. Es decir, se descompone como suma directa de representaciones irreducibles
⊕λ ⊕λ λj
π = ⊕j∈I πj j donde πj j := ⊕i=1 πj = πj ⊕ (...) ⊕ πj es sumar directamente λj veces la
representación irreducible πj ; λj ∈ N es la multiplicidad de πj .
⊕λ λj (i)
Se tiene entonces una base de V = ⊕j∈I Vj j dada por B = ∪j ∈ I ∪i=1 Bj = {|j, m, ii / j ∈
(i)
I ∧ m ∈ {−j, −j + 1, (...), j − 1, j} ∧ i ∈ {1, 2, (...), λj }}, donde cada Bj = {|j, m, ii / − j ≤
m ≤ j} es la base de cada subespacio irreducible invariante Vj de la representación dada por el
teorema 4.1. Para cada vector |j, m, ii el número j etiqueta el tipo de subespacio irreducible e
invariante Vj al que pertenece (caracterizados por su dimensión dim(Vj ) = 2j + 1); el número i
etiqueta a cuál de los λj subespacios irreducibles e invariantes de la forma Vj pertenece el vector;
y ya habiendo identificado el subespacio Vj al que el vector pertenece, el número m etiqueta cuál
de los elementos de la base de Vj dada por el teorema 4.1 es el vector |j, m, ii.
La base B es ortonormal ya que, como cada representación πj es unitaria entonces cada
(i) λj (i)
base Bj es ortonormal (teorema 4.1) y en consecuencia B = ∪j ∈ I ∪i=1 Bj es ortonormal:
hj 0 , m0 , i0 |j, m, ii = δj 0 j δi0 i δm0 m .
En cuántica, se suele diferenciar entre los elementos de los λj subespacios irreducibles
e invariantes Vj de V , con otros números cuánticos α en vez de con la etiqueta i. Enton-
ces, la base estarı́a dada por elementos de la forma |α, j, mi, y como es ortonormal verifica:
hα0 , j 0 , m0 |α, j, mi = δα0 α δj 0 j δm0 m . Éstos números cuánticos α (α es una tira de números cuánti-
cos; puede haber más de uno) están relacionados con los autovalores que posee el elemento
|α, j, mi ante la aplicación de otros operadores como por ejemplo el hamiltoniano del sistema
Ĥ, y bastan para determinar a cual de los λj subespacios Vj pertenece el elemento |α, j, mi.

Nos interesa ahora ver cuando la representación compleja irreducible unitaria πj de so(3)
proviene de una representación univaluada del grupo SO(3), y cuando proviene de una multi-
valuada (recordar observación 2.2).

Proposición 4.6. Sea πj : so(3) → u(Vj ) una representación compleja irreducible unitaria de
so(3)'su(2). Como SU(2) es simplemente conexo, por el teorema 1.14 (o particularmente por
la observación 2.2) siempre existe una única representación (que debe ser unitaria) de SU(2)
−1
Γj : SU (2) → U (Vj ) tal que (Γj )∗ = πj ◦ φ ⇐⇒ Γj (eφ (X) ) = eπj (X) ∀ X ∈ so(3)
(siendo φ el isomorfismo de álgebras de Lie entre su(2) y so(3) expuesto en el ejemplo 1.17;
ver figura 5). Sólo si j es entero existe una representación (que debe ser unitaria) del grupo
SO(3) Γc,j : SO(3) → U (Vj ) tal que (Γc,j )∗ = πj ⇐⇒ Γc,j (eX ) = eπj (X) ∀ X ∈ so(3) ⇐⇒
Γc,j (eFi ) = eπj (Fi ) , i = 1, 2, 3. Si j es semientero, πj proviene de una representación (que debe
ser unitaria) bivaluada de SO(3) ya que a cada g ∈ SO(3) le corresponden los dos elementos
±Γj (g̃) con g̃/Φ(g̃) = g de U(Vj ).

15
Γj∗ =f ◦φ

φ=Φ∗ πj
su(2) so(3) u(Vj )
φ−1
exp exp exp

Φ Γc,j
SU (2) SO(3) U (Vj )
Γj

Figura 5: Diagrama conmutativo de la proposición 4.6

Demostración. La afirmación sobre la representación inducida de SU(2) ya queda demostrada


en el enunciado.
Supongamos que j no es entero, es semientero. Supongamos que existe la representación
del grupo SO(3) Γc,j , entonces, si X = 2πF3 , vale que Γc,j (e2πF3 ) = eπj (2πF3 ) = e2ππj (F3 ) =
e−i2πJ3 /~ . Pero como rotar un ángulo 2π alrededor del eje z (o de cualquiera) es lo mismo
que no haber hecho nada, entonces e2πF3 = Id =⇒ Γc,j (e2πF3 ) = Γc,j (Id) = Id ya que
Γc,j es un morfismo de grupos (es posible verificar a mano que e2πF3 = Id). Por otro lado,
hj, j|Γc,j (e2πF3 )|j, ji = hj, j|j, ji = hj, j|e−i2πJ3 /~ |j, ji = hj, j|e−i2jπ |j, ji = (−1)2j hj, j|j, ji =⇒
(−1)2j = 1, lo que es falso si j es semientero. Entonces no existe Γc,j si j es semientero.
Pero, por la observación 2.2, sı́ existe una representación bivaluada de SO(3) que a cada
g ∈ SO(3) le asocia los elementos Γj (±g̃) = Γj (±Id)Γj (g̃) con g̃/Φ(g̃) = g. Notemos que
Γj (Id) = Id y, como e2πiσ3 /2 = cos(π)Id+isen(π)σ3 = −Id, entonces: Γj (−Id) = Γj (e2πiσ3 /2 ) =
eπj ◦φ(2πiσ3 /2) = e2ππj (F3 ) = e−i2πJ3 /~ = −Id (la última afirmación es cierta ya que, como
j − m es entero: hj, m0 |e−i2πJ3 /~ |j, mi = e−i2πm hj, m0 |j, mi = (−1)2m δm0 m = (−1)2j δm0 m =
hj, m0 |(−1)2j Id|j, mi =⇒ e−i2πJ3 /~ = (−1)2j Id; y si j es semientero, es igual a −Id). Por lo
que, reformulando lo anterior, a cada g ∈ SO(3) la representación bivaluada le asocia los dos
elementos Γj (±g̃) = Γj (±Id)Γj (g̃) = ±Γj (g̃) con g̃/Φ(g̃) = g.
Y si j es entero, la representación Γj de SU(2) inducida por πj verifica: Γj (−Id) = Γj (e2πiσ3 /2 ) =
−1
Γj (eφ (2πF3 ) ) = eπj (2πF3 ) = e−i2πJ3 /~ = Id = Γj (Id) (la anteúltima afirmación es cierta ya que
como j es entero, e−i2πJ3 /~ = Id; y además se usó que e2πiσ3 /2 = cos(π)Id + isen(π)σ3 = −Id).
Entonces Γj (−g) = Γj (−Id)Γj (g) = Γj (g) ∀ g ∈ SU(2), y en consecuencia Γj es una función de
clase ante la relación de equivalencia que induce el morfismo Φ del ejemplo 1.17 (g ∼ g 0 ⇐⇒
g = ±g 0 ). Por lo que, existe una función Γc,j : SO(3) → GL(Vj ) tal que Γc,j ◦Φ = Γj . No es difı́cil
ver que es un morfismo de grupos de Lie y que (Γc,j )∗ ◦ φ = (Γj )∗ = πj ◦ φ =⇒ (Γc,j )∗ = πj .

4.2. Representación natural de SO(3) en L2 (R3 )


La representación natural de SO(3) en L2 (R3 ) viene dada por Π : SO(3) → U (H) / Π(R)ψ(~x) =
ψ(R−1 ~x), cuyo significado fı́sico es rotar el sistema de referencia. Comprender la estructura de
los subespacios invariantes ante ésta representación permite resolver la dependencia angular de
la función de onda en un problema de potencial central (con un hamiltoniano invariante ante
rotaciones H = p~2 /2m + V (k~rk)). Se puede demostrar que es una representación lineal unitaria,
y que Π es fuertemente continua. No entraremos mucho en detalle en esta subsección ya que
vamos a trabajar con el espacio de Hilbert L2 (R3 ) que posee dimensión infinita, y no queremos
entrar en terreno de análisis funcional.

16
Proposición 4.7 (Ver demostración en proposición 17.3 en [4]). Sea L~ˆ = X~ × P~ˆ = −i~X~ ×∇ ~
el operador de momento angular orbital (heredado de la mecánica clásica; en cuántica es un
operador diferencial), es válido (en el espacio de Schwarz S(R3 )) que: L̂i = i~ Π∗ (Fi ) siendo
Π∗ la representación inducida por Π del álgebra de Lie so(3). Nótese que L̂i es un operador
hermı́tico.

La clave para estudiar ésta representación es plantear que la función de onda es separable:
ψ(~x) = f (r)g(θ, ϕ), y luego restringir la representación a L2 (S 2 ) ya que las transformaciones
Π(R) sólo inciden en las coordenadas angulares. De ésta forma se puede descomponer a la
representación en L2 (S 2 ) en representaciones irreducibles de dimensión finita.

Teorema 4.8 (Ver demostración en sección 17.6 de [4]). Los espacios de armónicos esféricos
Vl ⊆ L2 (S 2 ) formados por los polinomios armónicos (∇2 g = 0) homogéneos de grado l ∈ N0
restringidos a S 2 , verifican:
1. Una base ortonormal de Vl son los armónicos esféricos de grado l: Ylm (θ, φ) con m ∈
{−l, −l + 1, (...), l − 1, l}. Por lo que dim(Vl ) = 2l + 1.
2. Para l0 6= l, Vl0 y Vl son ortogonales en L2 (S 2 ).
3. L2 (S 2 ) = ⊕l∈N0 Vl . Por lo que, los armónicos esféricos {Ylm (θ, φ)/l ∈ N0 ∧ m ∈ {−l, −l +
1, (...), l − 1, l}} son una base ortonormal de L2 (S 2 )
4. Cada Vl es invariante e irreducible ante la acción de Π en L2 (S 2 ). Y los armónicos esféricos
verifican las ecuaciones 4 y 5 (reemplazando J → L, j → l y |j, mi → Ylm ), por lo que son
la base asociada a la representación unitaria irreducible πl = Π∗ |Vl de so(3) del teorema 4.1
dada por restringir Π∗ a Vl .

Ahora extendamos esto a L2 (R3 ):

Teorema 4.9 (Ver demostración en sección 17.7 de [4] y sección 3.5 de [7]). Sea una función
f ∈ L2 (R, r2 dr). Los espacios Vl,f = {ψ(~x) = f (r)g(θ, ϕ)/rl / g ∈ Vl } ⊆ L2 (R3 ), y Wl =
∪f ∈L2 (R,r2 dr) Vl,f verifican:

1. Una base ortonormal de Vl,f es: f (r)Ylm (θ, φ)/rl con m ∈ {−l, −l + 1, (...), l − 1, l}. Por
lo que dim(Vl,f ) = 2l + 1.
2. L2 (R3 ) = ⊕l∈N0 Wl . Una elección de una base ortonormal {fi /i ∈ I} de L2 (R, r2 dr) per-
mitirı́a descomponer a Wl como suma directa de espacios Vl,fi isomorfos a Vl que son
invariantes e irreducibles ante la acción de SO(3); y permitirı́a obtener una base ortonor-
mal de L2 (R3 ) formada por {fi Ylm /rl /i ∈ I ∧ l ∈ N0 ∧ m ∈ {−l, −l + 1, (...), l − 1, l}}.

Notemos que como los operadores Li son hermı́ticos, entonces son observables fı́sicos. Como
no conmutan entre sı́, no se puede estar en un autovector simultáneo de dos componentes
distintas del momento angular (y por el principio de incertidumbre de Heisenberg, no se pueden
medir simultáneamente con certeza). Pero, como Lz conmuta con L ~ 2 , entonces sı́ se puede estar
en un autovector simultáneo de ambos. Como vimos, éstos son los que tienen una dependencia
angular dada por Ylm (θ, ϕ), y los autovalores (posibles valores que se pueden medir) ante dichos
operadores son m~ y ~2 l(l + 1), respectivamente.

4.3. Spin
La teorı́a parecı́a explicar bien el comportamiento subatómico de las partı́culas, y en parti-
cular sus simetrı́as ante rotaciones. Pero en 1922 Stern y Gerlach realizaron un experimento en
el que sometieron a un rayo de átomos de plata con l = 0 (asumimos que no tenı́an momento
angular orbital) a un campo magnético. Puesto que un campo magnético afecta a la partı́cula
sólo si tiene momento angular, entonces en teorı́a no debı́a afectarla. Pero el rayo de partı́culas
se separó en dos partes. El campo magnético afectaba a la partı́cula y en consecuencia debı́a
tener momento angular, pero a su vez verificaba que L ~ = ~0.

17
Para resolver este problema de la teorı́a se planteó que las partı́culas tenı́an un momento
angular intrı́nseco denominado spin S, ~ completamente distinto al momento angular orbital L. ~
Y entonces el campo magnético efectivamente afectaba a las partı́culas puesto que poseı́an otro
momento angular que no era el L. ~
Al agregar un grado de libertad interno al sistema que no tiene (en principio) relación alguna
con la parte espacial del estado (dada por la función de onda del sistema, que especifica la
distribución de probabilidad espacial de la partı́cula), es necesario ampliar el espacio de Hilbert
para que el estado cuántico de la partı́cula describa también el nuevo grado de libertad. El nuevo
espacio de Hilbert pasa a ser H := L2 (R3 ) ⊗ Hs , y el estado viene dada por una parte espacial
y una parte que describe el spin de la partı́cula 1 .
Razonando según lo visto en la subsección 4.2, el momento angular de spin Si se deberı́a
obtener a partir una representación unitaria de so(3) inducida por una representación unitaria
de SO(3), pero ahora las representaciones deberı́an ser en el nuevo espacio de Hilbert de spin Hs .
De esta forma, nuestro nuevo momento angular de spin vendrı́a a representar entonces rotaciones
(infinitesimales) en Hs . Observemos que la condición de unitariedad es necesaria para que los
operadores Si sean hermı́ticos y en consecuencia observables fı́sicos; y desde el punto de vista de
la matemática, toda representación de so(3) es equivalente a una unitaria (ver observación 4.5).
Las representaciones unitarias de so(3), al ser completamente reducibles por ser unitarias
(proposición 2.10), se descomponen como suma directa de representaciones irreducibles uni-
tarias. Pero las únicas representaciones unitarias irreducibles de so(3) que provienen de una
representación de SO(3) (también unitaria e irreducible), son aquellas con j entero ó equivalen-
temente con dim(Vj ) = 2j + 1 impar (proposición 4.6). El problema es que en el experimento,
nuestro nuevo grado de libertad interno al que denominamos spin, parecı́a tomar sólo 2 valores
posibles puesto que el rayo se partió en dos (las partı́culas tenı́an spin up o down según cuál de los
dos caminos tomaban). Y en consecuencia, el nuevo espacio de Hilbert Hs debı́a tener dimensión
2 para las partı́culas del experimento de Stern-Gerlach (S-G); y asumiendo que dicha represen-
tación es irreducible πs (se usa s en vez de j para spin), entonces s = (dim(Hs ) − 1)/2 = 1/2
es semientero.
Como vimos en la observación 2.2 y más en particular en la proposición 4.6, en el caso en que
j sea semientero las representaciones (unitarias) πj provienen de representaciones (unitarias)
bivaluadas de SO(3) que le asignan a cada g ∈ SO(3) dos operadores ±Γj (g̃) ∈ U (H), con
g̃/Φ(g̃) = g. Éstas no aparecen en la teorı́a para describir el momento angular orbital L ~ puesto
que no habı́an representaciones con j semientero contenidas en la representación natural Π de
SO(3) en L2 (R3 ). Pero ahora necesitamos incluir representaciones con valores semienteros de j
para describir el momento angular de spin S, ~ y en consecuencia necesitamos que aparezcan las
representaciones bivaluadas de SO(3).
Hace muchı́simo ruido la idea de representaciones bivaluadas, puesto que a cada elemento
de SO(3) se le asignan más de un operador unitario en el espacio de Hilbert. Pero si se recuerda
por la observación 3.2 que los vectores de H son equivalentes fı́sicamente si difieren en una fase
global, entonces los operadores ±Γj (g̃) que se le asignan a un mismo elemento de SO(3) serı́an
fı́sicamente equivalentes puesto que sólo difieren en un signo. Ésto hace que también importen
en fı́sica aquellas representaciones que están definidas salvo un cambio de fase, puesto que el
mismo no tiene sentido fı́sico.
Entonces, planteamos que en el espacio de spin Hs hay una representación irreducible uni-
taria πs de so(3) (que es única a menos de equivalencia unitaria, ver teorema 4.4) que proviene
de una representación unitaria de SO(3) que es univaluada o bivaluada si s es entero o se-
mientero (respectivamente). La representación unitaria de SO(3) es aquella que representa las
1
Otra forma de pensar al espacio total de Hilbert del sistema es como el espacio de funciones que toman valores en
C : H = L2 (R3 , Cn ). Por lo que, una representación Π⊗Γs actúa en éste espacio como Π⊗Γs (R)(ψ) = Γs (R)ψ(Π(R)),
n

siendo Γs (R) una matriz de n × n. Ésta idea es clave a la hora de estudiar la ecuación de Dirac, un intento bastante
exitoso para su momento de realizar una teorı́a cuántica relativista con una ecuación diferencial de primer orden
invariante ante el grupo de Poincaré, que gracias a plantear funciones de onda con valores en Cn logró deducir
teóricamente la existencia del spin. Ver Capı́tulo 6 de [6] y capı́tulo 4 de [7] para más detalles.

18
rotaciones en el espacio de spin. En vez de estudiar una rotación en el espacio de spin con una
representación de SO(3) que puede ser bivaluada, se puede considerar de forma equivalente a la
representación Γj de SU(2) (doble cubrimiento de SO(3)) que determina dicha representación
de SO(3). Es por ésto que, para estudiar rotaciones en el espacio de spin, se estudian represen-
taciones de SU(2) en vez de SO(3): Las representaciones de SU(2) se corresponden uno a uno
con las posibles representaciones del álgebra de Lie so(3) y entonces se corresponden con las
representaciones univaluadas y bivaluadas de SO(3) que representan rotaciones en el espacio de
spin.
Y a partir de la representación unitaria irreducible πs de so(3) en Hs , aparece el operador
hermı́tico que representa la componente i-ésima del momento angular de spin Si = i~πs (Fi ),
y se verifica todo lo enunciado en el teorema 4.1. En particular ocurre que el valor de s =
(dim(Hs )−1)/2, denominado spin del sistema, determina el valor de S ~ 2 ; por lo que, las partı́culas
del experimento de S-G tendrı́an spin 1/2.

4.4. Representaciones proyectivas


Como mencionamos en la anterior subsección, por la irrelevancia fı́sica de un cambio de fase
en un vector del espacio de Hilbert, también importan en fı́sica las representaciones (unitarias,
por supuesto) que están definidas salvo un cambio de fase para describir simetrı́as del sistema. Y
en particular, en el caso anterior sólo estudiamos las representaciones que están definidas salvo
un cambio de signo.
La estructura matemática que alberga dichas representaciones son las representaciones uni-
tarias proyectivas ρ : G → P U (H) dadas por un morfismo de grupos de Lie entre un cierto
grupo de Lie G que asumimos conexo, y el espacio proyectivo P U (H) = U (H)/{eiθ /θ ∈ R} en
el que dos operadores unitarios son iguales si difieren en un cambio de fase. Recordemos que
dicho espacio tiene diversas propiedades enunciadas en la proposición 2.11.
De esta forma, una cierta simetrı́a viene descripta por una representación unitaria proyectiva
ρ : G → P U (H). Por la proposición 2.12, existe una única representación unitaria de traza nula
ς : g → u(H) tal que Q∗ ◦ς = ρ∗ . Ésto significa que se puede empujar una representación unitaria
proyectiva de un grupo de Lie G a una representación unitaria del álgebra de Lie de G con traza
nula. Y las cantidades fı́sicas de la simetrı́a estarı́an asociadas a los operadores hermı́ticos de la
forma iς(X)/X ∈ g.
Luego, por el teorema 2.13, se puede empujar de forma única a la representación unitaria
proyectiva ρ a una representación unitaria y unimodular del cubrimiento G̃, Γ : G̃ → U (H) tal
que el diagrama de la figura 4 conmute.
Por lo que, hay una correspondencia biyectiva entre representaciones proyectivas unitarias
de un grupo y representaciones unitarias de su cubrimiento, y a su vez éstas últimas inducen
una representación multivaluada Γc de G (ver observación 2.2).
Antes se mencionó en particular para SO(3) que, en vez de estudiar una representación uni-
taria multivaluada de G (que verifica que los múltiples operadores que representan a un cierto
elemento g ∈ G, son equivalentes en el grupo proyectivo unitario P U (H); es decir, son equiva-
lentes fı́sicamente), se puede estudiar la representación unitaria univaluada Γ de su cubrimiento,
a la cual le corresponde una representación proyectiva unitaria de G. La unicidad en la corres-
pondencia se obtiene al pedir que Γ sea unimodular; el significado fı́sico de ésta condición es que
el promedio de los autovalores (posibles valores de medición) de los operadores hermı́ticos que
representan el álgebra de Lie de G poseen un promedio nulo, lo cual tiene sentido por ejemplo
para momento angular puesto que no debe haber ningún valor privilegiado de momento angular.
Entonces debe ocurrir que la representación multivaluada proyectada al grupo P U (H), es igual
a la representación proyectiva unitaria que induce Γ. Por lo que, en particular para SO(3), no
se perdió generalidad al considerar sólo las representaciones definidas a menos de un signo en
vez de todas las proyectivas puesto que en ambos casos se trasladó el problema a estudiar las
representaciones unitarias unimodulares del cubrimiento SU(2).
Es por ésto que al estudiar sólo las representaciones unitarias unimodulares del cubrimiento

19
del grupo, se están estudiando todas las representaciones proyectivas unitarias del grupo. En
particular, para las rotaciones, se estudian las representaciones unitarias unimodulares de SU(2),
que cubren todas las representaciones proyectivas unitarias de SO(3). Ó equivalentemente, las
representaciones unitarias de traza nula de so(3)'su(2), ya estudiadas en la subsección 4.1.

Observación 4.10. Nótese que, por la observación 3.2, se podrı́a haber planteado que el con-
junto de estados fı́sicos posibles viene dado por el espacio proyectivo P H = (H − {~0})/(v ∼
|hu|vi|
w ⇐⇒ v = λw, λ ∈ C − {~0}), con un producto interno (u, v) = kukkvk . De ésta forma ya nos
sacarı́amos de encima la indeterminación por cambios de fase.
El Teorema de Wigner (ver [8], o sección 2.3 en [6] o sección 3.1 en [7]) asegura que los
únicos automorfismos de P H (i.e. que preservan el producto interno) son aquellos inducidos
por operadores unitarios ó antiunitarios en H (los operadores antiunitarios son operadores que
son antilineales V (av + bw) = a∗ V (v) + b∗ V (w), y verifican hv|V |wi = hw|vi = hv|wi∗ ; nótese
que claramente los operadores unitarios y antiunitarios preservan el producto interno de P H).
Por lo que el grupo de automorfismos de P H se puede identificar de forma unı́voca con el
grupo proyectivo unitario P U (H) = U (H)/{eiθ /θ ∈ R} unido disjuntamente al grupo proyectivo
antiunitario P A(H). Entonces éstas últimas dos partes serı́an las dos componentes conexas
del conjunto unión (con una topologı́a determinada). Y P U (H) es la componente conexa de la
identidad.
Si se busca estudiar las simetrı́as de un grupo G conexo, entonces se estudiarı́a una repre-
sentación en el grupo de automorfismos de P H. Utilizando el teorema de Wigner, se puede
pasar de una representación en Aut(P H) a una representación en P U (H) ∪D P A(H). Y como
G es conexo y P U (H) es la componente conexa de la identidad, entonces la representación sı́
o sı́ debe tomar valores en P U (H). En consecuencia es equivalente considerar representacio-
nes proyectivas unitarias de un grupo de Lie G conexo dadas por morfismos de grupos de Lie
ρ : G → P U (H).
Hay pocos casos en fı́sica en los que las simetrı́as se representan con operadores antiunitarios;
el ejemplo más tı́pico es el operador de inversión temporal, dado por una representación del grupo
no conexo Z2 .

4.5. Momento angular total del sistema


Vimos que nuestro sistema, cuyo espacio de Hilbert de los posibles estados del sistema es
H = L2 (R3 ) ⊗ Hs , posee dos momentos angulares: El momento angular orbital L ~ asociado
2 3
a rotaciones en el espacio L (R ), y el momento angular de spin S ~ asociado a rotaciones en
el espacio de spin Hs . Con la palabra rotaciones nos referimos a representaciones unitarias
univaluadas o bivaluadas de SO(3) (proyectivas, en otras palabras): La representación natural
Π de SO(3) en L2 (R3 ) en el caso de L, ~ y la representación unitaria univaluada o bivaluada de
0 0
SO(3) (Γs /Γs = Γs ◦ Φ) que induce la representación unitaria irreducible πs de so(3) en Hs
~ Y ambos momentos angulares vienen dados por las representaciones inducidas
en el caso de S.
respectivas del álgebra de Lie: Li = i~Π∗ (Fi ) y Si = i~πs (Fi ).
Consideremos ahora la representación unitaria Π ⊗ Γ0s univaluada o bivaluada de SO(3) en
el espacio de Hilbert total del sistema H = L2 (R3 ) ⊗ Hs . Las rotaciones en H vienen dadas por
dicha representación, y en consecuencia su representación inducida del álgebra de Lie deberı́a
inducir un momento angular J, ~ al que denominaremos momento angular total del sistema puesto
que es el generador de éstas rotaciones en el espacio de Hilbert total del sistema
Por supuesto, para no meternos en el problema de la bivaluabilidad, podemos verla como
una representación unitaria univaluada de SU(2) dada por (Π ⊗ Γ0s ) ◦ Φ = (Π ◦ Φ) ⊗ Γs . La
representación que induce en el álgebra de Lie su(2) es, utilizando la observación 2.8, ((Π ◦ Φ) ⊗
Γs )∗ = (Π ◦ Φ)∗ ⊗ Id + Id ⊗ (Γs )∗ = (Π∗ ◦ φ) ⊗ Id + Id ⊗ (πs ◦ φ) = (Π∗ ⊗ Id + Id ⊗ πs ) ◦ φ, y la
que induce en el álgebra so(3) es entonces Π∗ ⊗ Id + Id ⊗ πs . Por lo que, el momento angular J~
inducido por ésta representación viene dado por sus componentes Ji = i~(Π∗ ⊗Id+Id⊗πs )(Fi ) =
i~Π∗ (Fi ) ⊗ Id + Id ⊗ (i~πs (Fi )) = Li ⊗ Id + Id ⊗ Si . En consecuencia, se tiene que el momento

20
angular total J~ = L ~ +S~ es la suma del momento angular orbital y de spin (se sobreentiende en
la notación que L ~ yS~ actúan cada uno en el espacio que le corresponde).
Por los teoremas 4.8 y 4.9, se puede descomponer a la representación natural de SO(3)
en L2 (R3 ), en representaciones unitarias irreducibles de SO(3) en espacios isomorfos a Vl con
l ∈ N0 . Y entonces, se puede descomponer a la representación Π ⊗ Γ0s en H en representaciones
de la forma Π|Vl ⊗ Γ0s en Vl ⊗ Hs . Y la representación del álgebra de Lie so(3) Π∗ ⊗ Id + Id ⊗ πs
se puede descomponer en representaciones de la forma ( Π|Vl )∗ ⊗ Id + Id ⊗ πs = πl ⊗ Id + Id ⊗ πs
en Vl ⊗ Hs .
Para plantear nuestro problema de una forma más genérica, consideremos que tenemos una
representación unitaria de so(3) πj1 ⊗ Id + Id ⊗ πj2 en Vj1 ⊗ Vj2 (j1 y j2 enteros ó semienteros
no negativos), siendo πj1 y πj2 representaciones unitarias irreducibles de so(3) en Vj1 y Vj2 ,
respectivamente.
Cada una induce momentos angulares J~k en Vjk con componentes (J~k )i = i~πk (Fi ) (k = 1, 2;
i = 1, 2, 3). El caso de una partı́cula con momento angular orbital L ~ y momento angular de spin
~
S es un caso particular de éste problema en el que j1 = l y j2 = s; nuestro planteo sirve para
otros casos, como considerar un sistema de dos partı́culas con momentos angulares dados por
los números cuánticos j1 y j2 . De la misma forma, la representación πj1 ⊗ Id + Id ⊗ πj2 inducirá
un momento angular J~ con componentes (J) ~ i = i~(πj ⊗ Id + Id ⊗ πj )(Fi ) = (i~πj (Fi )) ⊗ Id +
1 2 1

Id ⊗ (i~πj2 (Fi )) = (J1 )i ⊗ Id + Id ⊗ (J2 )i =⇒ J~ = J~1 + J~2 es el momento angular total del
~ ~
sistema.
Como la representación πj1 ⊗ Id + Id ⊗ πj2 es unitaria, entonces se puede descomponer en
⊕λ
representaciones unitarias irreducibles (ver proposición 2.10): πj1 ⊗ Id + Id ⊗ πj2 ' ⊕j∈I πj j ,
⊕λ
y Vj1 ⊗ Vj2 ' ⊕j∈I Vj j . Conocer con detalle ésta descomposición es la clave para comprender
como actúa el momento angular total J~ en el espacio puesto que se sabe como actúa en cada
subespacio invariante e irreducible Vj (ver ecuaciones 4 y 5), y es lo que se enuncia en el siguiente
teorema:
Teorema 4.11 (Suma de momento angular). Sea la representación unitaria de so(3) πj1 ⊗
Id + Id ⊗ πj2 en Vj1 ⊗ Vj2 (j1 y j2 son enteros o semienteros no negativos), siendo πj1 y πj2
representaciones unitarias irreducibles de so(3) en Vj1 y Vj2 , respectivamente. Es válido que (si
' denota isomorfismo de representaciones):
jM
1 +j2 jM
1 +j2

πj1 ⊗ Id + Id ⊗ πj2 ' πj y Vj1 ⊗ Vj2 ' Vj (6)


j=|j2 −j1 | j=|j2 −j1 |

Para demostrar el teorema, es necesario definir las bases desacoplada y acoplada, y mostrar
algunas cosas previas.
Por el teorema 4.1, Vj1 y Vj2 poseen cada uno bases ortonormales Bj1 = {|j1 , m1 i /m1 ∈
{−j1 , −j1 +1, (...), j1 −1, j1 }} y Bj2 = {|j2 , m2 i /m2 ∈ {−j2 , −j2 +1, (...), j2 −1, j2 }} que verifican
las ecuaciones 4 y 5 para J~1 y J~2 respectivamente. En consecuencia, definiendo |j1 , j2 ; m1 , m2 iD :=
|j1 , m1 i⊗|j2 , m2 i ∈ Vj1 ⊗Vj2 , tenemos una base de Vj1 ⊗Vj2 dada por BjDES 1 ,j2
= {|j1 , j2 ; m1 , m2 iD /m1 ∈
{−j1 , −j1 + 1, (...), j1 − 1, j1 } ∧ m2 ∈ {−j2 , −j2 + 1, (...), j2 − 1, j2 }} denominada base desaco-
plada que verifica las ecuaciones 4 y 5 para el operador J~1 actuando en Vj y el operador J~2 1
2 2
actuando en Vj2 . En dicha base, se encuentran diagonalizados los operadores J~1 y J~2 por ser
múltiplos de la identidad (j1 y j2 están fijos), y los operadores (J~1 )3 y (J~2 )3 por las ecuaciones
4 y 5.
Por lo que, el operador (J) ~ 3 = (J~1 )3 ⊗ Id + Id ⊗ (J~2 )3 también está diagonalizado en la base
desacoplada con autovalores (m1 +m2 )~ y autovectores |j1 , j2 ; m1 , m2 iD : (J) ~ 3 |j1 , j2 ; m1 , m2 i =
D
~ ~
((J1 )3 ⊗ Id + Id ⊗ (J2 )3 ) |j1 , j2 ; m1 , m2 iD = m1 ~ |j1 , j2 ; m1 , m2 iD + m2 ~ |j1 , j2 ; m1 , m2 iD =
(m1 + m2 )~ |j1 , j2 ; m1 , m2 iD . Nótese entonces que los autovalores de (J) ~ 3 son todos los del
conjunto {(m1 +m2 )~/m1 ∈ {−j1 , −j1 +1, (...), j1 −1, j1 }∧m2 ∈ {−j2 , −j2 +1, (...), j2 −1, j2 }} =
{m~/−(j1 +j2 ) ≤ m ≤ j1 +j2 }; el máximo de sus autovalores es ~(j1 +j2 ) y posee multiplicidad
uno ya que su único autovector es el elemento |j1 , j2 ; j1 , j2 iD de la base desacoplada.

21
En general, sea Sm ⊆ Vj1 ⊗ Vj2 el subespacio de autovectores de (J) ~ 3 con autovalor m~
(−(j1 + j2 ) ≤ m ≤ j1 + j2 ; más precisamente: m ∈ {−(j1 + j2 ), −(j1 + j2 ) + 1, (...), (j1 + j2 ) −
1, (j1 + j2 )}), entonces una base ortonormal de Sm es la base desacoplada restringida a Sm :
{|j1 , j2 ; m1 , m2 iD /m1 ∈ {−j1 , −j1 + 1, (...), j1 − 1, j1 } ∧ m2 ∈ {−j2 , −j2 + 1, (...), j2 − 1, j2 } ∧
m1 + m2 = m}.
Notemos que la multiplicidad γm = dim(Sm ) de dicho autovalor es igual a la cantidad de
formas de escribir m como m1 + m2 con m1 ∈ {−j1 , −j1 + 1, (...), j1 − 1, j1 } ∧ m2 ∈ {−j2 , −j2 +
1, (...), j2 − 1, j2 }; o equivalentemente, definiendo k = j1 + j2 − m ∈ {0, 1, (...), 2(j1 + j2 ) −
1, 2(j1 + j2 )}, la multiplicidad es igual a la cantidad de formas de escribir k como k1 + k2 con
k1 ∈ {0, 1, (...), 2j1 −1, 2j1 }∧k2 ∈ {0, 1, (...), 2j2 −1, 2j2 }. No es difı́cil ver que si k ≤ 2 mı́n(j1 , j2 ),
entonces como 0 ≤ k1 ≤ k ≤ 2j1 y 0 ≤ k2 ≤ k ≤ 2j2 , hay exactamente k + 1 formas de expresar
a k como k1 + k2 ((k1 , k2 ) ∈ {(0, k); (1, k − 1); (...); (k, 0)}). Entonces, como k = j1 + j2 − m: Si
k ≤ 2 mı́n(j1 , j2 ) ⇐⇒ m ≥ j1 + j2 − 2 mı́n(j1 , j2 ) = |j2 − j1 |: dim(Sm ) = j1 + j2 + 1 − m 2 .
Por otro lado, recordando la observación 4.5, como πj1 ⊗ Id + Id ⊗ πj2 es una representación
unitaria de so(3) en Vj1 ⊗ Vj2 , es completamente reducible (ver proposición 2.10): Se puede
descomponer en representaciones unitarias irreducibles πj en Vj , con j tomando ciertos valores
⊕λ
determinados en un conjunto I. En otras palabras: πj1 ⊗ Id + Id ⊗ πj2 ' ⊕j∈I πj j , y Vj1 ⊗ Vj2 '
⊕λj λ
⊕j∈I Vj . Y entonces hay otra base ortonomal de Vj1 ⊗ Vj2 dada por BjAC
1 ,j2
j
= ∪j∈I ∪i=1
(i)
Bj = {|j1 , j2 ; j, m, iiA := |j, m, ii /j ∈ I ∧ m ∈ {−j, −j + 1, (...), j − 1, j} ∧ i ∈ {1, 2, (...), λj }}
denominada base acoplada, que verifica las ecuaciones 4y5 con J~ igual al momento angular
inducido por dicha representación que, como vimos, es igual a la suma J~1 ⊗Id+Id⊗ J~2 . En dicha
2 2
base, se encuentran diagonalizados los operadores J~1 y J~2 por ser múltiplos de la identidad
(j1 y j2 están fijos), y los operadores J~2 y (J) ~ 3 por las ecuaciones 4 y 5.
Por las ecuaciones 4 los elementos de la base acoplada |j1 , j2 ; j, m, iiA son autovectores de
~ 3 con autovalores m~, con j ∈ I ∧ m ∈ {−j, −j + 1, (...), j − 1, j} ∧ i ∈ {1, 2, (...), λj }. Por lo
(J)
que, otra base ortonormal del subespacio Sm es la base acoplada restringida a los autovectores
de (J)~ 3 con autovalores m~: T (m) := {|j1 , j2 ; j, m, ii /j ∈ I ∧ j ≥ m ∧ i ∈ {1, 2, (...), λj }} =
A
{|j1 , j2 ; j, m, iiA /j ∈ Im ∧ i ∈ {1, 2, (...), λj }}, habiendo definido Im := {j ∈ I/j ≥ m} ⊆ I.
Sea un cierto m ∈ D := {|j2 − j1 |, (...), j1 + j2 − 1, j1 + j2 }; como dim(Sm ) = j1 + j2 + 1 − m,
y como (J) ~ 3 es diagonal en la base acoplada: hay dim(Sm ) = j1 + j2 + 1 − m elementos de dicha
base con autovalor m~. Por lo que, hay dim(Sm ) = j1 + j2 + 1 − m elementos distintos de la base
acoplada en el conjunto T (m) = {|j1 , j2 ; j, m, iiA /j ∈ Im ∧ i ∈ {1, 2, (...), λj }} base ortonormal
de Sm = gen(T (m)). Y no es difı́cil ver queX la cantidad de elementos de dicho conjunto (que
como vimos es igual a dim(Sm )), es igual a λj = dim(Sm ) = j1 + j2 + 1 − m.
j∈Im

Lema 4.12. Para todo m ∈ D = {|j2 −j1 |, (...), j1 +j2 −1, j1 +j2 } vale la denominada propiedad
verde: Im = Dm := {j ∈ D/j ≥ m} = {m, m + 1, (...), j1 + j2 } y para todo j ∈ Im = Dm vale
que λj = 1

Xque si se cumple ésta propiedad, se verifica que dim(Sm ) = j1 + j2 + 1 − m =


XNotemos
λj = 1 = j1 + j2 + 1 − m ∀ m ∈ D.
j∈Im j∈Dm

2
El valor de la multiplicidad para todos los valores posibles de m viene dado por:

j1 + j2 + 1 − m
 si |j2 − j1 | ≤ m ≤ j1 + j2
dim(Sm ) = 2 mı́n(j1 , j2 ) + 1 si − |j2 − j1 | ≤ m ≤ |j2 − j1 |

j1 + j2 + 1 + m si − (j2 + j1 ) ≤ m ≤ −|j2 − j1 |

La demostración consta de plantear m = j1 + j2 − k (ó m = −j1 − j2 + k 0 ) con k (ó k 0 ) entero entre 0 y 2(j1 + j2 )
inclusive, y ver que hallar la multiplicidad de m es equivalente a ver cuantas maneras hay de escribir a k como k1 + k2
con 0 ≤ ki ≤ 2ji (i=1,2) (o primando los k). Luego, dividir en casos 0 ≤ k ≤ 2min(j1 , j2 ) y 2min(j1 , j2 ) ≤ k ≤ j1 + j2
y después ver que la cantidad de maneras de escribir a k de dicha forma es igual a la cantidad de maneras de escribir
a k 0 = 2(j1 + j2 ) − k. Dejamos el resto de los detalles al lector.

22
Demostración. Vamos a demostrar ésto por inducción: Primero demostramos que vale para
j1 + j2 (el elemento más grande de D); y luego demostramos que (considerando m ∈ D/m 6=
j1 + j2 ) si vale para m + 1 ∈ D, también vale para m.
Como vimos, el máximo autovalor que posee (J) ~ 3 es ~(j1 + j2 ), cuyo subespacio de au-
tovectores es Sj1 +j2 = gen(|j1 , j2 ; j1 , j2 iD ) = gen(Tj1 +j2 ) y posee dimensión uno. Y sea un
j ∈ I, hay un elemento de la base acoplada |j1 , j2 ; j, j, 1iA que es un autovector de (J) ~ 3 con
autovalor j~, y como debe ser menor al máximo se cumple que: j ≤ j1 + j2 ∀ j ∈ I. Como
dim(Sj1 +j2 ) = dim(gen(T (j1 + j2 ))) = 1, existe un único elemento de la base acoplada en
T (j1 + j2 ) = {|j1 , j2 ; j, j1 + j2 , iiA /j ∈ Ij1 +j2 ∧ i ∈ {1, 2, (...), λj }}). Entonces Ij1 +j2 6= ∅ =⇒
∃j ∈ Ij1 +j2 ⊆ I =⇒ j1 + j2 ≤ j ≤ j1 + j2 =⇒ j = j1 + j2 =⇒ Ij1 +j2 = {j1 + j2 } = Dj1 +j2 ,
donde se utilizó que j ≥ j1 +j2 por definición de Ij1 +j2 y que j ≤ j1 +j2 ∀ j ∈ I. En consecuencia
T (j1 + j2 ) = {|j1 , j2 ; j1 + j2 , j1 + j2 , iiA /i ∈ {1, 2, (...), λj1 +j2 }}) posee λj1 +j2 elementos, y como
debı́a tener un único elemento: λj1 +j2 = 1 ⇐⇒ λj = 1 ∀ j ∈ Ij1 +j2 . Entonces, para j1 + j2 vale
la propiedad verde, ya que Ij1 +j2 = Dj1 +j2 y λj = 1 ∀ j ∈ Ij1 +j2 .
Sea un valor m ∈ D = {|j2 − j1 |, (...), j1 + j2 − 1, j1 + j2 }, m 6= j1 + j2 ; supongamos
la hipótesis inductiva, que se verifica la propiedad verde para m + 1 ∈ D: Im+1 = Dm+1 y
λj̃ = 1 ∀ j̃ ∈ Im+1 = Dm+1 . Como el subespacio Sm tiene dimensión j1 + j2 + 1 − m, hay
j1 + j2 + 1 − m elementos de la base acoplada |j1 , j2 ; j, m, ii con dicho valor de m. Como vimos,
éstos son los elementos del conjunto T (m) = {|j1 , j2 ; j, m, iiA /j ∈ Im ∧ i ∈ {1, 2, (...), λj }}.
Sea Tm+1 (m) := {|j1 , j2 ; j, m, iiA /j ∈ Im+1 ∧ i ∈ {1, 2, (...), λj }} ⊆ T (m), puesto que vale
que Im+1 = Dm+1 y λj = 1 ∀ j ∈ Im+1 : Tm+1 (m) = {|j1 , j2 ; j, m, 1iA /j ∈ Dm+1 }. Entonces
la cantidad de elementos de Tm+1 (m) es la misma que la cantidad de elementos que Dm+1 y
es igual a j1 + j2 + 1 − (m + 1) = j1 + j2 − m. Y como la cantidad de elementos de T (m)
es j1 + j2 + 1 − m, hay exactamente un elemento |j1 , j2 , j 0 , m0 , i0 iA en T (m) que no está en
Tm+1 (m). Éste elemento verifica m0 = m por estar en T (m), y verifica j 0 ∈ Im pero j 0 ∈ / Im+1 ,
por lo que: j 0 ∈ I ∧ m ≤ j 0 < m + 1. A su vez, como debe existir un elemento |j1 , j2 , j 0 , j 0 , 1iA
que es autovector de (J) ~ 3 con autovalor j 0 ~, y m~ también es autovalor de (J) ~ 3 , entonces sı́ o sı́
éstos dos autovalores (divididos por ~) deben diferir un número entero (como cualquier par de
autovalores de (J) ~ 3 , porque pertenecen a {−(j1 + j2 ), −(j1 + j2 ) + 1, (...), (j1 + j2 ) − 1, (j1 + j2 )}):
0 ≤ j − m < 1 ∧ j 0 − m ∈ Z =⇒ j 0 = m. Entonces Im = Im+1 ∪D {m} = Dm+1 ∪D {m} = Dm .
0

Además, como los λm elementos de la forma |j1 , j2 ; m, m, iiA /i ∈ {1, 2, (...), λm } pertenecen
claramente a T (m) y no pertenecen a Tm+1 (m), y vimos que sólo un elemento de la base acoplada
verificaba ésto, entonces debe ocurrir que λm = 1. Entonces, vimos que si la propiedad verde se
verifica para m + 1, se verifica para m también: Im = Dm y λj = 1 ∀ j ∈ Dm = Dm+1 ∪D {m}.
De esta forma, demostramos por inducción que vale la propiedad verde para todo m ∈ D

Ya estamos listos para demostrar el teorema 4.11 de suma de momento angular.

Demostración del teorema 4.11. Entonces, por el lema 4.12, para m = |j2 −j1 | vale la propiedad
verde: I|j2 −j1 | = D|j2 −j1 | = D ⊆ I y λj = 1 ∀ j ∈ I|j2 −j1 | = D. En consecuencia: Vj1 ⊗ Vj2 '
⊕λj ⊕λj ⊕λj ⊕λj
⊕j∈I Vj = (⊕j∈D Vj ) ⊕ (⊕j∈(I−D) Vj ) = (⊕jj=|j
1 +j2
2 −j1 |
Vj ) ⊕ W , con W := ⊕j∈(I−D) Vj .
Por lo que: dim(Vj1 ⊗ Vj2 ) = dim(Vj1 )dim(Vj2 ) = (2j1 + 1)(2j2 + 1) = dim(⊕jj=|j
1 +j2
2 −j1 |
Vj ) +
jX
1 +j2 jX
1 +j2 j1 +j2 −|j1 −j2 |
X
dim(W ) = dim(W )+ dim(Vj ) = dim(W )+ (2j+1) = dim(W )+ (2(j1 +
j=|j2 −j1 | j=|j2 −j1 | s=0
j1 +j2 −|j1 −j2 |
X
j2 − s) + 1) = dim(W ) + (j1 + j2 + 1 − |j1 − j2 |)(2(j1 + j2 ) + 1) − 2 s = dim(W ) +
s=0
(j1 + j2 + 1 − |j1 − j2 |)(2(j1 + j2 ) + 1) − 2(j1 + j2 − |j1 − j2 |)(j1 + 1 − |j1 − j2 |)/2 =
j2 +
2 2
dim(W ) + (j1 + j2 ) − (j2 − j1 ) + (−2 + 1 + 1)|j2 − j1 |(j1 + j2 ) + 2(j1 + j2 ) + (−1 + 1)|j2 − j1 | + 1 =
dim(W ) + 4j1 j2 + 2j1 + 2j2 + 1 = (2j1 + 1)(2j2 + 1) =⇒ dim(W ) = 0. Entonces, co-
mo dim(W ) = 0, W es un subespacio trivial; podemos no considerarlo en la suma directa:
Vj1 ⊗ Vj2 ' ⊕jj=|j
1 +j2
2 −j1 |
Vj . En otros términos: I = D y λj = 1 ∀ j ∈ D = I.

23
Como todos los subespacios irreducibles e invariantes Vj tienen multiplicidad λj = 1 ∀ j ∈
I = D, entonces es totalmente innecesaria la etiqueta i en cada elemento de la base acoplada
ya que siempre ocurre que i ∈ {1, (...), λj } = {1} =⇒ i = 1. Desde ahora, consideramos
|j1 , j2 ; j, miA := |j1 , j2 ; j, m, 1iA y la base acoplada está dada por BjAC 1 ,j2
= {|j1 , j2 ; j, miA /j ∈
D = {|j2 − j1 |, (...), j1 + j2 − 1, j1 + j2 } ∧ m ∈ {−j, −j + 1, (...), j}}.
Veamos ahora como pasar de la base desacoplada a la acoplada. Es decir, escribir los ele-
mentos de la base acoplada como combinación lineal de los elementos de la base desacoplada:
Xj1 Xj2
|j1 , j2 ; j, miA = CG(j1 , j2 ; m1 , m2 ; j, m) |j1 , j2 ; m1 , m2 iD donde CG(j1 , j2 ; m1 , m2 ; j, m) =
m1 =−j1 m2 =−j2

D hj1 , j2 ; m1 , m2 |j1 , j2 ; j, miA son los denominados coeficientes de Clebsh-Gordan, que están
tabulados [9]. Desde ahora se sobreentenderá las letras D y A en el coeficiente de Clebsh-Gordan
hj1 , j2 ; m1 , m2 |j1 , j2 ; j, mi.
Comencemos notando una relación de recurrencia entre los mismos:

Proposición 4.13. Los coeficientes de Clebsh-Gordan verifican la relación de recurrencia:


c∓ (j, m) hj1 , j2 ; m1 , m2 |j1 , j2 ; j, m ∓ 1i = c± (j1 , m1 ) hj1 , j2 ; m1 ± 1, m2 |j1 , j2 ; j, mi +
c± (j2 , m2 ) hj1 , j2 ; m1 , m2 ± 1|j1 , j2 ; j, mi

Demostración. Notemos que, como J∓ = (J1 )∓ +(J2 )∓ , entonces: hj1 , j2 ; m1 , m2 |J∓ |j1 , j2 ; j, mi =
c∓ (j, m) hj1 , j2 ; m1 , m2 |j1 , j2 ; j, m ∓ 1i = hj1 , j2 ; m1 , m2 |(J1 )∓ + (J2 )∓ |j1 , j2 ; j, mi = (((J1 )± +
(J2 )± ) |j1 , j2 ; m1 , m2 i)† |j1 , j2 ; j, mi = c± (j1 , m1 ) hj1 , j2 ; m1 ± 1, m2 |j1 , j2 ; j, mi +

c± (j2 , m2 ) hj1 , j2 ; m1 , m2 ± 1|j1 , j2 ; j, mi. Se utilizó también que J∓ = J± .

Observación 4.14. La relación de recurrencia permite obtener todos los coeficientes de Clebsh-
Gordan (para todos los valores de m1 , m2 , m, con j1 , j2 , j fijos) si se tienen de dato los coeficien-
tes con m = j para todo −j1 ≤ m1 ≤ j1 y −j2 ≤ m2 ≤ j2 . Recordemos que los únicos coeficien-
tes no nulos con m = j son aquellos tales que la suma de m1 ∈ {−j1 , −j1 + 1, (...), j1 } y m2 ∈
{−j2 , −j2 +1, (...), j2 } es igual a m = j. Y planteando en particular la relación de recurrencia con
m = j: c+ (j, j) hj1 , j2 ; m1 , m2 |j1 , j2 ; j, j + 1i = 0 = c− (j1 , m1 ) hj1 , j2 ; m1 − 1, m2 |j1 , j2 ; j, ji +
c− (j2 , m2 ) hj1 , j2 ; m1 , m2 − 1|j1 , j2 ; j, ji =⇒ hj1 , j2 ; m1 − 1, m2 |j1 , j2 ; j, ji =
− c− (j2 , m2 )/c− (j1 , m1 ) hj1 , j2 ; m1 , m2 − 1|j1 , j2 ; j, ji para m1 6= −j1 . Entonces se pueden ob-
tener todos los coeficientes con m = j a partir del coeficiente con mayor valor posible de m1 :
hj1 , j2 ; j1 , j − j1 |j1 , j2 ; j, ji := CG0 (Nótese que |j1 − j2 | ≤ j ≤ j1 + j2 =⇒ −j2 = j1 − j2 − j1 ≤
|j1 − j2 | − j1 ≤ j − j1 ≤ j1 + j2 − j1 = j2 .). Y en consecuencia, se pueden obtener todos los
coeficientes de Clebsh-Gordan si se sabe de dato el coeficiente CG0 , denominado ’coeficiente
inicial’. Notemos que todos los coeficientes de Clebsh-Gordan con m = j son proporcionales a
CG0 , y en consecuencia todos los coeficientes de Clebsh-Gordan son proporcionales a CG0 .
En particular, si éste coeficiente es nulo, todos los coeficientes de Clebsh-Gordan (para todos
los valores de m1 , m2 , m, con j1 , j2 , j fijos) también lo son. Por lo que, si no todos los coeficientes
de Clebsh-Gordan son nulos para ciertos valores de j1 , j2 , j, entonces CG0 6= 0.

Veamos por inducción un algoritmo para calcularlos eligiéndolos como reales.

Algoritmo para calcular los coeficientes de C-G eligiéndolos como reales.

Como vimos en la demostración del lema 4.12: Sj1 +j2 = gen(|j1 , j2 ; j1 + j2 , j1 + j2 iA ) =


gen(|j1 , j2 ; j1 , j2 iD ). Entonces los vectores normalizados |j1 , j2 ; j1 + j2 , j1 + j2 iA y |j1 , j2 ; j1 , j2 iD
deben diferir en un cambio de fase. Los podemos tomar como iguales sin problemas porque las
bases acoplada y desacoplada estaban definidas a menos de una fase global y porque la fase
global no tiene sentido fı́sico: |j1 , j2 ; j1 + j2 , j1 + j2 iA = |j1 , j2 ; j1 , j2 iD . Entonces, recordemos
que |j1 , j2 ; j, miA = C(j, m)(J− )j−m |j1 , j2 ; j, jiA con j fijo y −j ≤ m ≤ j (ver demostración
del teorema 4.1 para ver esto y para recordar la definición de las constantes reales positivas
C(j, m)). En particular podemos obtener los elementos de la base acoplada con valor j =
j1 + j2 como combinación lineal de los elementos de la base desacoplada |j1 , j2 ; j1 + j2 , miA =

24
C(j1 + j2 , m)(J− )j1 +j2 −m |j1 , j2 ; j1 , j2 iD = C(j1 + j2 , m)((J1 )− + (J2 )− )j1 +j2 −m |j1 , j2 ; j1 , j2 iD
con −(j1 + j2 ) ≤ m ≤ j1 + j2 . Observemos que el subespacio Vj1 +j2 = {|j1 , j2 ; j1 + j2 , miA / −
(j1 + j2 ) ≤ m ≤ j1 + j2 } es invariante e irreducible ante la representación de so(3) que actúa
según las ecuaciones 4 y 5; ésto era lo esperable puesto que la base acoplada está formada por
la suma directa de éstos subespacios
X invariantes e irreducibles.
Notar que, sea |ψi = am1 ,m2 |j1 , j2 ; m1 , m2 iD tal que los coeficientes am1 ,m2 de su com-
m1 ,m2
X
binación lineal en la base desacoplada son todos reales, entonces J− |ψi = am1 ,m2 ((J1 )− +
m1 ,m2
X p
(J2 )− ) |j1 , j2 ; m1 , m2 iD = am1 ,m2 (~ (j1 + m1 )(j1 − m1 + 1) |j1 , j2 ; m1 − 1, m2 iD +
m1 ,m2
p
~ (j2 + m2 )(j2 − m2 + 1) |j1 , j2 ; m1 , m2 − 1iD ). En consecuencia el vector J− |ψi también veri-
fica que los coeficientes de su combinación lineal en la base desacoplada son todos reales; induc-
tivamente, vemos que todo vector (J− )n |ψi verifica ésto si |ψi lo verifica. En particular, vemos
que, como |j1 , j2 ; j1 , j2 iD lo verificaba, entonces todos los elementos con j = j1 + j2 de la base
acoplada |j1 , j2 ; j1 + j2 , miA = C(j1 + j2 , m)(J− )j1 +j2 −m |j1 , j2 ; j1 , j2 iD también lo verifican: sus
coeficientes de C-G son reales, y se pueden calcular como CG(j1 , j2 ; m1 , m2 ; j1 + j2 , m) =
j1 +j2 −m |j , j ; j , j i ,
D hj1 , j2 ; m1 , m2 |j1 , j2 ; j1 + j2 , miA = D hj1 , j2 ; m1 , m2 |C(j1 + j2 , m)(J− ) 1 2 1 2 D
entonces son calculables.
Sea |j1 , j2 ; j, miA un elemento de la base acoplada, notemos que |j1 , j2 ; j, miA ∈ Sm . Co-
mo vimos, la base desacoplada de Sm es {|j1 , j2 ; m1 , m2 iD /m1 ∈ {−j1 , −j1 + 1, (...), j1 −
1, j1 } ∧ m2 ∈ {−j2 , −j2 + 1, (...), j2 − 1, j2 } ∧ m1 + m2 = m} = {|j1 , j2 ; m1 , m2 iD /(m1 , m2 ) ∈
Y (m)}, donde se definió Y (m) := {(m1 , m2 )/m1 ∈ {−j1 , −j1 + 1, (...), j1 − 1, j1 } ∧ m2 ∈
{−j2 , −j2 + 1, (...), j2 − 1, j2 } ∧ m1 + m2 = m}. Como |j1 , j2 ; j, miA ∈ Sm , hay una única
forma de escribirlo como X combinación lineal de los elementos de la base desacoplada de Sm :
|j1 , j2 ; j, miA = CG(j1 , j2 ; m1 , m2 ; j, m) |j1 , j2 ; m1 , m2 iD . Nótese que, al tener es-
(m1 ,m2 )∈Y (m)
crito un elemento de la base acoplada como combinación lineal de los de la desacoplada, los
coeficientes deben ser sı́ o sı́ los de Clebsh-Gordan anteriormente vistos; en particular, vemos
que CG(j1 , j2 ; m1 , m2 ; j, m) = 0 si (m1 , m2 ) ∈ / Y (m) ⇐⇒ m1 + m2 6= m.
Sea b ∈ D/b 6= j1 + j2 . Supongamos ahora que los coeficientes de C-G de todos los elementos
de la base acoplada con j ≥ b + 1 son calculables y son reales (ésta suposición ya se verifica para
m = j1 + j2 − 1); vamos a demostrar que los coeficientes de los elementos de la base acoplada
con j = b también se pueden calcular y son reales.
En la demostración del lema 4.12 vimos que la base ortonormal acoplada T (b) de Sb se
divide en los elementos de Tb+1 (b) = {|j1 , j2 ; j, biA /j ∈ Ib+1 = Db+1 } = {|j1 , j2 ; j, biA /j ∈
D ∧ j ≥ b + 1} ⊆ T (b) y el elemento |j1 , j2 ; b, biA , entonces: Sb = gen(T (b)) = gen(Tb+1 (b) ∪D
{|j1 , j2 ; b, biA }) = gen(Tb+1 (b)) ⊕ gen(|j1 , j2 ; b, biA ).
Supongamos que se enumeran los elementos de la base desacoplada de Sb de alguna forma
v1 , (...), vγb , y se numeran los elementos de la base acoplada de Sb de la forma w1 , (...), wγb
de forma que wγb = |j1 , j2 ; b, biA . Entonces el resto de los ws /1 ≤ s ≤ γb − 1 pertenecen
a Tb+1 (b), por lo que verifican j ≥ b + 1 y por hipótesis inductiva sus coeficientes de C-G
son calculables y son reales. Sea (ws )D := (hv1 |ws i , hv2 |ws i , (...), hvγb |ws i) ∈ Cγb el vector de
Cγb cuyas componentes son los coeficientes de la combinación lineal del elemento de la base
acoplada ws en la base desacoplada, y por lo tanto son los coeficientes de Clebsh-Gordan de ws
(el coeficiente C-G al que le corresponde hvr |ws i depende de cómo se realizó la numeración de
las bases). Entonces las coordenadas (ws )D /1 ≤ s ≤ γb − 1 son calculables y son tales que todas
sus componentes son reales.
Por la ortonormalidad de las bases acoplada y desacoplada, el vector (wγb )D verifica las
γb γb

X X
γb − 1 ecuaciones linealmente independientes hws |wγb i = ( hvr |ws i hvr |)( hvl |wγb i |vl i) =
r=1 l=1

25
γb
γb X γb

hvr |ws i∗ hvr |wγb i = (ws )D .(wγb )D = 0 (1 ≤ s ≤ γb − 1; el
X X
hvr |ws i hvl |wγb i hvr |vl i =
r=1 l=1 r=1
último producto interno es el producto interno canónico en Cγb ). El conjunto solución de éstas
γb − 1 ecuaciones linealmente independientes en un espacio vectorial complejo Sb de dimensión
γb , es un subespacio complejo de dimensión 1. Y como supusimos que los coeficientes de (ws )D
son todos reales, entonces hay un único subespacio real de Rγb de dimensión 1 que resuelve las
anteriores γb − 1 ecuaciones linealmente independientes. Podemos elegir un vector normalizado
de dicho subespacio real de forma única si pedimos que la componente que es igual al coeficiente
inicial de Clebsh-Gordan dado por CG0 = hj1 , j2 ; j1 , b − j1 |j1 , j2 ; b, biA sea positiva (convención
de Condon-Shortley; recordar que debe ser no nulo por la observación 4.14). Las componentes
de dicho vector, que son reales y calculables (mediante la resolución de las γb − 1 ecuaciones),
son los coeficientes de Clebsh-Gordan que permiten escribir a |j1 , j2 ; b, biA como combinación
lineal de los elementos de la base desacoplada.
Y a partir de ésto, se puede escribir a |j1 , j2 ; b, miA = C(b, m)(J− )b−m |j1 , j2 ; b, biA con
m ∈ {−b, (...), b − 1, b} como combinación lineal de los elementos de la base desacoplada. Como
los coeficientes de C-G de |j1 , j2 ; b, biA son reales y calculables, entonces los coeficientes de C-G
de |j1 , j2 ; b, miA = C(b, m)(J− )b−m |j1 , j2 ; b, biA con m ∈ {−b, (...), b − 1, b} también son reales
y calculables (el razonamiento es análogo al caso b = j1 + j2 ). Éstos elementos generan el
subespacio invariante e irreducible Vb , y son todos los elementos de la base acoplada con j = b.
Demostramos que los coeficientes de C-G de todos los elementos de la base acoplada con j = b
son reales y calculables.
En consecuencia, todos los coeficientes de C-G (que son todos los coeficientes de C-G de
los elementos de la base acoplada con j ∈ D) se pueden calcular mediante éste algoritmo y se
pueden elegir de forma que resulten reales.

4.6. Tensores esféricos y teorema de Wigner-Eckart


Una representación (que supondremos unitaria) compleja de dimensión finita ρ : G → GL(V )
induce una representación ρE : G → GL(End(V)) (End(V)' Mn (C)) dada por ρE (g)(A) =
ρ(g)Aρ(g)−1 . La función ρE es una representación ya que preserva el producto (como to-
do morfismo de grupos): ρE (g1 .g2 )(A) = ρ(g1 .g2 )Aρ(g1 .g2 )−1 = ρ(g1 )ρ(g2 )Aρ((g1 .g2 )−1 ) =
ρ(g1 )ρ(g2 )Aρ(g2−1 g1−1 ) = ρ(g1 )ρ(g2 )Aρ(g2−1 )ρ(g1−1 ) = ρ(g1 )ρ(g2 )Aρ(g2 )−1 ρ(g1 )−1 = ρE (g1 ) ◦
ρE (g2 )(A). No es difı́cil mostrar de forma análoga que la función dada por ρ0E (g)(A) = ρ(g)−1 Aρ(g)
no es una representación puesto que no preserva el producto.
Ésta representación es unitaria respecto al producto interno de Frobenius en Mn (C) dado
por (A, B) = tr(A† B) ya que, utilizando la propiedad tr(AB) = tr(BA) y que (AB)† = B † A† :
(A0 , B 0 ) = (ρE (g)(A), ρE (g)(B)) = tr(ρE (g)(A)† ρE (g)(B)) = tr((ρ(g)Aρ(g)−1 )† ρ(g)Bρ(g)−1 ) =
tr((ρ(g)−1 )† A† ρ(g)† ρ(g)Bρ(g)−1 ) = tr(A† (ρ(g)−1 )† ρ(g)† ρ(g)ρ(g)−1 B) = tr(A† (ρ(g)ρ(g)−1 )† B) =
tr(A† B) = (A, B). Y como es unitaria, es completamente reducible (ver proposición 2.10).
Y finalmente, la representación ρE del grupo G induce una representación del álgebra de
d
Lie g de G, que verifica para todo X ∈ g lo siguiente: ρE∗ (X)(A) = ds exp(ρE∗ (sX)(A)) =

s=0
d sX )(A) = d ρ(esX )Aρ(esX )−1 d
ρ(esX )Aρ(e−sX )
  
ds ρE (e = ds =

s=0 ds

s=0 s=0
d sρ∗ (X) Ae−sρ∗ (X) d
esρ∗ (X) Ae−0ρ∗ (X) + e0ρ∗ (X) A ds
d
e−sρ∗ (X)
  
ds e = ds = ρ∗ (X)A −


s=0 s=0 s=0
Aρ∗ (X) = [ρ∗ (X), A].
Como la representación ρE de G=SU(2) en End(V ) es suma directa de representaciones
irreducibles (por ser completamente reducible), para estudiarla es necesario estudiar los subes-
pacios irreducibles e invariantes de End(V ) ante la representación ρE . Ó análogamente, de
g =su(2)' so(3). Como se ha visto, si se tiene un subespacio T (k) ⊆End(V) (espacio de ten-
sores esféricos) de dimensión 2k + 1 que es irreducible e invariante ante la representación ρE
de so(3) (que, restringida a T (k) , es irreducible), por el teorema 4.1 hay una base de dicho
(k) (k)
espacio dada por {Tq /q ∈ {−k, −k + 1, (...), k − 1, k}} (Tq es el tensor esférico de rango k

26
y proyección q) que verifica las ecuaciones 4. Pero ahora, estamos aplicando dicho teorema a
la representación ρE en vez de a ρ, por lo que ésta tiene asociados otros tipos de operadores
”J’s”de momento angular. Entonces las ecuaciones 4 son válidas considerando que en vez de
(k)
|j, mi dice Tq (reemplazando j por k y m por q), y en vez de i~ρ∗ (Fi ) |j, mi = Ji |j, mi di-
(k) (k) (k) (k)
ce i~ρE∗ (Fi )(Tq ) = i~[ρ∗ (Fi ), Tq ] = [i~ρ∗ (Fi ), Tq ] = [Ji , Tq ], donde Ji = i~ρ∗ (Fi ) es el
momento angular de la representación ρ:

[J3 , Tq(k) ] = q~Tq(k)


p (k) (k)
(7)
[J± , Tq(k) ] = ~ (k ∓ q)(k + 1 ± q)Tq±1 = c± (k, q)Tq±1
Entonces, éstas ecuaciones son las relaciones de conmutación de los tensores esféricos con el
momento angular.
(k)
Por la unicidad del teorema 4.1, si se hallan operadores Tq (−k ≤ q ≤ k) que sean base
ortonormal del subespacio que generan y que verifiquen las relaciones de conmutación 7, entonces
son tensores esféricos. Y dos bases ortonormales distintas del mismo subespacio, difieren a lo
sumo en un cambio de fase global.
Sea A ~ = (A1 , A2 , A3 ) una tira de tres operadores. Decimos que A ~ es un operador vectorial
3
X
si verifica las relaciones de conmutación [Ai , Jj ] = i~ijk Vk ∀ 1 ≤ i, j ≤ 3. La definición está
k=1
inspirada en que se verifica que hAi ~ = hψ|A|ψi~ ∈ C3 es un vector para todo vector ψ (ver [10]).
(1) (1) √ (1) √
Y es válido que los operadores A0 = A3 , A1 = (−A1 − iA2 )/ 2 y A−1 = (+A1 − iA2 )/ 2 son
tensores esféricos de rango 1 y proyección 0, 1 y −1, respectivamente. Por lo que, puesto que
los operadores posición X, ~ momento lineal P~ , momento angular orbital L, ~ de spin S
~ y total J,
~
son operadores vectoriales (se puede mostrar que verifican las relaciones de conmutación de la
definición de operadores vectoriales), entonces se tienen ya varios ejemplos de tensores esféricos.
Para ver más relaciones entre operadores vectoriales y tensores esféricos, ó como obtener tensores
esféricos a partir de combinaciones lineales de productos de tensores esféricos de rango menor,
ver [10] y la sección 3.10 de [11]. Ó también ver el apéndice C de [3] para estudiar con más
detalle los operadores vectoriales.
Se logró ver qué son los tensores esféricos, que pueden formar base de cualquier representación
en espacios de operadores, como conmutan con los operadores de momento angular, y algunos
ejemplos. Nos interesa ahora saber como actúan en alguna base del espacio vectorial V.
Recordando la observación 4.5, una representación unitaria de so(3) en V dada por ρ : G →
GL(V ) es completamente reducible por ser unitaria y posee una base ortonormal dada por
elementos de la forma |α, j, mi. El número j etiqueta la dimensión del subespacio irreducible
e invariante Vj al que pertenece; el número m etiqueta cuál de los elementos de la base de Vj
dada por el teorema 4.1 es |α, j, mi; y los números cuánticos α, relacionados con autovalores de
|α, j, mi ante otros operadores, bastan para determinar a cuál de los λj subespacios Vj pertenece
|α, j, mi.
Para estudiar cómo actúan los tensores esféricos en V, vamos a utilizar la base ortonormal
(k)
mencionada anteriormente: Vamos a estudiar los elementos de matriz hα0 , j 0 , m0 |Tq |α, j, mi de
los tensores esféricos en dicha base ortonormal de V. Se elige ésta base puesto que se sabe cómo
actúan los operadores de momento angular en la misma.
(k)
Teorema 4.15. Los elementos de matriz hα0 , j 0 , m0 |Tq |α, j, mi no nulos verifican m0 = m + q
(k)
Demostración. Sea un elemento de matriz no nulo hα0 , j 0 , m0 |Tq |α, j, mi = 6 0, por las ecuaciones
0 0 0 (k) 0 0 0 (k) 0 0 0 (k) (k)
4 y 7: hα , j , m |[J3 , Tq ]|α, j, mi = q~ hα , j , m |Tq |α, j, mi = hα , j , m |(J3 Tq − Tq J3 )|α, j, mi =
(k) (k) (k)
hα0 , j 0 , m0 |(m0 ~Tq − Tq m~)|α, j, mi = (m0 − m)~ hα0 , j 0 , m0 |Tq |α, j, mi =⇒ (m0 − m −
(k) (k)
q)~ hα0 , j 0 , m0 |Tq |α, j, mi = 0 =⇒ m0 = m + q (puesto que ~ hα0 , j 0 , m0 |Tq |α, j, mi = 6 0).
(k)
Teorema 4.16 (Teorema de Wigner Eckart). Los elementos de matriz hα0 , j 0 , m0 |Tq |α, j, mi
verifican:

27
hα0 , j 0 , m0 |Tq(k) |α, j, mi = hj, k; j 0 , m0 |j, k; m, qi hα0 , j 0 ||T (k) ||α, ji (8)
donde hj, k; j 0 , m0 |j, k; m, qi = CG(j, k; m, q; j 0 , m0 ) es un coeficiente de Clebsh-Gordan y
(k)
hα0 ,j 0 ,j 0 |Tk |α,j,j 0 −ki
hα0 , j 0 ||T (k) ||α, ji := hj,k;j 0 −k,k|j,k;j 0 ,j 0 i es un número que no depende de m, q ni de m0 (pero sı́
depende de α, j, k, α0 , y j 0 ).
(k)
Nótese que el elemento de matriz hα0 , j 0 , m0 |Tq |α, j, mi es nulo si m0 6= m + q ó si j 0 ∈ /
{|k − j|, |k − j| + 1, (...), k + j}.
p
Demostración. Sea c± (j, m) := ~ (j ∓ m)(j + 1 ± m). Por las ecuaciones 4 y 7, se tiene que:
(k) (k) (k) (k)
hα0 , j 0 , m0 |[J± , Tq ]|α, j, mi = c± (k, q) hα0 , j 0 , m0 |Tq±1 |α, j, mi = hα0 , j 0 , m0 |(J± Tq − Tq J± )|α, j, mi =
(k) (k) (k)
(J∓ (α0 , j 0 , m0 ))† Tq |α, j, mi−hα0 , j 0 , m0 |Tq J± |α, j, mi = c∓ (j 0 , m0 ) hα0 , j 0 , m0 ∓ 1|Tq |α, j, mi−
(k)
c± (j, m) hα0 , j 0 , m0 |Tq |α, j, m ± 1i.
(k) (k)
Entonces, vale que: c∓ (j 0 , m0 ) hα0 , j 0 , m0 ∓ 1|Tq |α, j, mi = c± (j, m) hα0 , j 0 , m0 |Tq |α, j, m ± 1i+
(k)
c± (k, q) hα0 , j 0 , m0 |Tq±1 |α, j, mi. Ésta es una relación de recurrencia entre los elementos de matriz
de los tensores esféricos de rango k.
También vale la relación de recurrencia entre los coeficientes de Clebsh-Gordan dada por
la proposición 4.13: c∓ (j 0 , m0 ) hj, k; m, q|j, k; j 0 , m0 ∓ 1i = c± (j, m) hj, k; m ± 1, q|j, k; j 0 , m0 i +
c± (k, q) hj, k; m, q ± 1|j, k; j 0 , m0 i.
Ambas relaciones de recurrencia son de la forma c∓ (j 0 , m0 )xjj,k;m,q j,k;m±1,q
0 ,m0 ∓1 = c± (j, m)xj 0 ,m0 +
c± (k, q)xjj,k;m,q±1
0 ,m0 , donde las x pueden ser los elementos de matriz de los tensores esféricos o los
coeficientes de Clebsh-Gordan. Éstos verifican siempre que xjj,k;m,q 0 ,m0 = 0 si m0 6= m + q; y que
0 0 0 0
m ∈ {−j, −j + 1, (...), j}, m ∈ {−j , −j + 1, (...), j }, q ∈ {−k, −k + 1, (...), k} (si no se cumple
que m, m0 y q pertenecen a dichos conjuntos, el valor de x es nulo).
Razonando análogamente que en la observación 4.14, la relación de recurrencia permite
obtener todos los coeficientes x (para todos los valores de m, q, m0 , con j 0 , j, k fijos) si se tiene de
dato los coeficientes con m0 = j 0 para todo −j ≤ m ≤ j y −k ≤ q ≤ k. Recordemos que los únicos
coeficientes no nulos con m0 = j 0 son aquellos tales que la suma de m ∈ {−j, −j + 1, (...), j} y
q ∈ {−k, −k + 1, (...), k} es igual a m0 = j 0 . Y planteando en particular la relación de recurrencia
con m0 = j 0 : c+ (j 0 , j 0 )xjj,k;m,q j,k;m−1,q
0 ,j 0 +1 = 0 = c− (j, m)xj 0 ,j 0 + c− (k, q)xjj,k;m,q−1
0 ,j 0 =⇒ xjj,k;m,q−1
0 ,j 0 =
−c− (j, m)/c− (k, q)xjj,k;m−1,q
0 ,j 0 para q 6= −j. Entonces se pueden obtener todos los coeficientes
−k,k 0
con m0 = j 0 a partir del coeficiente con q más alto: xjj,k;j
0 ,j 0 . Y en consecuencia, se pueden
−k,k 0
obtener todos los coeficientes x si se sabe de dato el coeficiente x0 := xjj,k;j 0 ,j 0 , denominado
0 0
’coeficiente inicial’. Notemos que todos los coeficientes x con m = j son proporcionales a x0 , y
en consecuencia todos los coeficientes x son proporcionales a x0 .
En particular, si éste coeficiente es nulo, todos los coeficientes x también lo son. Por lo que,
0 −k,k
para que los coeficientes x no sean todos nulos, debe ocurrir sı́ o sı́ que x0 = xjj,k;j 0 ,j 0 no es
0
nulo, y en consecuencia debe ocurrir que j − k ∈ {−j, −j + 1, (...), j} =⇒ j ∈ {k − j, k − 0

j + 1, (...), j + k}. Y razonando análogamente, si se plantea que se pueden obtener todos los
0 −j
coeficientes con m0 = j 0 a partir del coeficiente con m más alto xjj,k;j,j 0 ,j 0 , entonces se tiene que
j 0 −j ∈ {−k, −k +1, (...), k} =⇒ j 0 ∈ {j −k, j −k +1, (...), j +k}. En consecuencia, se tiene que:
j 0 ∈ {k−j, k−j +1, (...), j +k}∩{j −k, j −k+1, (...), j +k} =⇒ j 0 ∈ {|j −k|, |j −k|+1, (...), j +k}
si los coeficientes x no son todos nulos.
Puesto que se pueden obtener de forma unı́voca todos los coeficientes x a partir del coeficiente
0 −k,k
x0 = xjj,k;j
0 ,j 0 , y todos ellos son propocionales a x0 , entonces se puede obtener de forma unı́voca
todos los coeficientes xjj,k;m,q
0 ,m0 /x0 sin importar el valor de x0 . Por lo tanto, para dos valores de
dicho coeficiente x0 e x̃0 (que pueden ser distintos), vale que xjj,k;m,q 0 ,m0 /x0 = x̃jj,k;m,q
0 ,m0 /x̃0 . En
0
consecuencia, como los coeficientes de Clebsh-Gordan hj, k; m, q|j, k; j , m i y los elementos de 0
(k)
matriz hα0 , j 0 , m0 |Tq |α, j, mi verifican ambos las condiciones de los coeficientes x (para todos
los valores posibles de m, m0 , q; y j, k, j 0 fijos), y poseen un valor de coeficiente inicial dado por
(k)
hj, k; j 0 − k, k|j, k; j 0 , j 0 i y hα0 , j 0 , j 0 |Tk |α, j, j 0 − ki (respectivamente), entonces es válido que:

28
(k)
hα0 , j 0 , m0 |Tq |α, j, mi hj, k; m, q|j, k; j 0 , m0 i
=
(k)
hα0 , j 0 , j 0 |Tk |α, j, j 0 − ki hj, k; j 0 − k, k|j, k; j 0 , j 0 i
(k)
hα0 ,j 0 ,j 0 |T |α,j,j 0 −ki
Y entonces, nombrando hα0 , j 0 ||T (k) ||α, ji := hj,k;j 0 −k,k|j,k;j
k
0 ,j 0 i a dicho cociente de números
0
no nulos (si j ∈ {|j − k|, |j − k| + 1, (...), j + k}; caso contrario, lo tomamos nulo puesto que el
elemento de matriz debe ser nulo) que no dependen de m, m0 , q (sólo dependen de α, α0 , j, j 0 y
k), se tiene la ecuación 8.

29
A. Introducción de teorı́a de grupos, y grupos de
Lie matriciales y álgebras de Lie, casi sin geometrı́a
diferencial
Se muestra en el presente apéndice una versión de la sección 1 que no requiere (casi) co-
nocimientos de geometrı́a diferencial ni de teorı́a de grupos. Está dirigida en especial a fı́sicos
que no sepan de dichos temas. Comenzaremos definiendo relaciones de equivalencia y grupos, y
luego se estudia la teorı́a de grupos y álgebras de Lie restringida únicamente a grupos de Lie
matriciales (ver definición A.13), explicada según [3]; de todos modos veremos que no se pierde
mucha generalidad al hacer ésta restricción.

A.1. Relaciones de equivalencia y teorı́a de grupos


Definición A.1. Una relación en un conjunto A, es un subconjunto R ⊆ A × A. Si (a, b) ∈ R,
lo denotamos como a ∼ b y decimos que a está relacionado con b. Y en la práctica decimos que
la relación es ∼.
Una relación de equivalencia es una relación que verifica lo siguiente:
1. Es reflexiva: a ∼ a ∀ a ∈ A.
2. Es simétrica: a ∼ b =⇒ b ∼ a ∀ a, b ∈ A.
3. Es transitiva: a ∼ b ∧ b ∼ c =⇒ a ∼ c ∀ a, b, c ∈ A.

Definición A.2. Sea ∼ una relación de equivalencia en A. La clase de equivalencia (respecto


a ∼) de un elemento a ∈ A, es el subconjunto de los elementos de A relacionados con a, y la
denotamos: [a] := {b ∈ A/a ∼ b} ⊆ A.
El cociente del conjunto A por la relación de equivalencia ∼ es el conjunto de todas las clases
de equivalencia, y lo denotamos: A/ ∼ := {[a]/a ∈ A}.
El mapa π : A → A/ ∼ tal que π(a) = [a] se denomina proyección al cociente. No es difı́cil
ver que es sobreyectivo.

Proposición A.3 (Ver [12]). Sea ∼ una relación de equivalencia en A. Una propiedad P (a) de
elementos a ∈ A se dice que es una propiedad de clase ó que está bien definida (bajo la relación
de equivalencia ∼), si ocurre que: Si a ∼ b, entonces P (a) es verdadero si y sólo si P (b) lo es.
En éste caso se puede extender la propiedad P (a) de elementos del conjunto A a una propiedad
P̃ ([a]) de elementos del conjunto de clases de equivalencia A/ ∼, de la siguiente forma: P̃ ([a])
es verdadero si y sólo si P (a) es verdadero.
En particular, una función f : A → I es una función de clase ó está bien definida (bajo la
relación de equivalencia ∼), si vale que: a ∼ b =⇒ f (a) = f (b) ∀ a, b ∈ A. En éste caso, se
puede extender la función f : A → I a una función definida en A/ ∼ dada por fc : A/ ∼ → I
tal que fc ([a]) = f ◦ π(a) = f (a) ∀a ∈ A.

Definición A.4. Una partición de un conjunto A es un conjunto P de subconjuntos X no vacı́os


de A tales que cada elemento a ∈ A pertenece a exactamente uno de los subconjuntos X. Se dice
que cada X ∈ P son las partes de la partición. Equivalentemente, P es una partición de A si
se verifican todas las condiciones:
1. ∅ ∈
/P
2. ∪X∈P X = A. La unión de los X ∈ P cubren A.
3. X1 6= X2 =⇒ X1 ∩ X2 = ∅. Todo par de elementos distintos de P son conjuntos disjuntos.

Proposición A.5 (Ver demostración en secciones 2.5 y 2.6 en [2] ó ver [12].). Sea una relación
de equivalencia ∼ en A. El cociente A/ ∼ es una partición de A; es la partición que induce la
relación de equivalencia ∼.

30
Y sea P una partición de A, si tomamos la relación ∼ definida por x ∼ y si y sólo si X = Y ,
siendo X e Y los únicos conjuntos de la partición P que contienen a x e y respectivamente,
entonces ∼ es una relación de equivalencia y P = A/ ∼.
Entonces hay una biyección entre las posibles particiones de A y las posibles relaciones de
equivalencia en A: Una relación de equivalencia induce una partición y viceversa.

Definición A.6. Un grupo (G, ·) un conjunto G dotado de una operación · : G × G → G,


denominada producto del grupo, que verifica lo siguiente:
Existe un elemento neutro e ∈ G/g.e = e.g = g ∀ g ∈ G
∀ g ∈ G, ∃h ∈ G/g.h = h.g = e. Denotamos a h como g −1 y lo llamamos inverso de g
El producto es asociativo: g.(h.k) = (g.h).k ∀ g, h, k ∈ G

Definición A.7. Un subgrupo H de G es un subconjunto de G que es un grupo con la operación


de G restringida a H. Verifica: e ∈ H; h1 .h2 ∈ H ∀ h1 , h2 ∈ H; h−1 ∈ H ∀ h ∈ H.
Un subgrupo H de G es normal si: g −1 hg ∈ H ∀ h ∈ H, g ∈ G
Sea H un subgrupo de G, un coset por izquierda (ó por derecha) de G es un subconjunto de G
dado por g.H = {g.h/h ∈ H} (H.g = {h.g/h ∈ H}). Notemos que si H es un subgrupo normal:
g.H = H.g.

Definición A.8. Un morfismo de grupos es una función Φ : G → H tal que preserva el


producto de los grupos G y H: Φ(g1 .g2 ) = Φ(g1 ).Φ(g2 ) ∀ g1 , g2 ∈ G. Posee un cierto Núcleo
Nú(Φ) = {g ∈ G/Φ(g) = eH }. Un isomorfismo de grupos es un morfismo de grupos biyectivo.
Si existe un isomorfismo de grupos entre G y H, se dice que son isomorfos (como grupos).

Teorema A.9 (Ver demostración en el capı́tulo 2 de [2]). Para todo subgrupo normal de G,
existe un morfismo de grupos cuyo núcleo es ese subgrupo normal.
Un subgrupo normal N de G, induce una relación de equivalencia en G dada por g1 ∼ g2 si
existe un h ∈ N tal que g1 .h = g2 . Ó equivalentemente g1 .N = g2 .N . Se puede mostrar que ésta
es una relación de equivalencia, cuyas clases de equivalencia son los cosets [g] = g.N = N.g. Y
entonces el conjunto cociente está dado por el conjunto de cosets G/N := G/ ∼= {g.N/g ∈ G}.
Se puede demostrar que, gracias al hecho de que H es un subgrupo normal, el conjunto cociente
G/N es un grupo, con la operación (g1 .N ).(g2 .N ) = (g1 .g2 ).N ; y la proyección al cociente
π : G → G/N es un morfismo de grupos (sobreyectivo) cuyo núcleo es N.
Finalmente, sea un morfismo de grupos Φ : G → H. Su imagen es un subgrupo de H y su
núcleo Nú(Φ) es un subgrupo normal de G, por lo que induce una relación de equivalencia en G,
como ya vimos. Φ es una función de clase ante la relación de equivalencia que induce Nú(Φ),
por lo que existe una función Φc : G/Nú(Φ) → H tal que Φ(g) = Φc ◦ π(g) = Φc (g.Nú(Φ)).
Como Nú(Φc ) = {e}, entonces Φc es inyectiva, y entonces G/Nú(Φ) ' Im(Φ) (es decir, son
isomorfos como grupos). Y si Φ es sobreyectiva entonces G/Nú(Φ) ' H.

A.2. Teorı́a de grupos de Lie matriciales y álgebras de Lie


Definición A.10. Un grupo de Lie es una variedad diferencial (un conjunto que varı́a sua-
vemente; localmente es isomorfo a Rn ) G que a su vez es un grupo, tal que las operaciones
m : G × G → G / m(g, h) = g.h y i : G → G / i(g) = g −1 son suaves (C ∞ ).

Definición A.11. Un morfismo de grupos de Lie es una función Φ : G → H que es un morfismo


de grupos y es suave (C ∞ ). Un isomorfismo de grupos de Lie es un isomorfismo de grupos Φ tal
que Φ y Φ−1 son suaves (C ∞ ). Dos grupos de Lie son isomorfos como grupos de Lie si existe
un isomorfismo de grupos de Lie entre ellos.

Observación A.12. El análogo al teorema A.9 para grupos de Lie, consiste en pedir que los
grupos sean grupos de Lie, que los morfismos e isomorfismos de grupos sean también de Lie,
y agregarle a los subgrupos la condición de que sean cerrados para que sean subgrupos de Lie.
Para más detalles ver teoremas 21.26 y 21.27 de [1].

31
Definición A.13. Un grupo de Lie matricial es un subgrupo G de GL(n, C) := {A ∈ Mn (C) :=
Cn×n /det(A) 6= 0} que es cerrado como subconjunto de GL(n, C). Ésta última condición es
equivalente a que el grupo G posea la siguiente propiedad: Cualquier sucesión convergente de
elementos Am de G converge a un elemento A de G ó a una matriz que no es invertible (no
está en GL(n, C)).
La mayorı́a de los grupos matriciales de Lie que vamos a considerar, son también cerrados
como subconjunto de Mn (C), o equivalentemente: Toda sucesión de puntos gn de G converge a
un elemento g ∈ G.
Observación A.14. Un grupo de Lie matricial es un grupo de Lie (ver teorema 20.12 de [1]).
2 2
Pensando al conjunto de matrices de n × n como Mn (C) ' Cn ' R2n , entonces un grupo
de Lie matricial G se puede ver como una superficie suave de una cierta dimensión real d en
2
R2n que va a estar parametrizada por d parámetros reales. Ésta suavidad le da estructura de
variedad diferencial. Cuando hablemos de funciones suaves (C ∞ ) f : G → H entre grupos de
Lie matriciales G ⊆ GL(n, C) y H ⊆ GL(m, C), queremos decir que la función que va del
2 2
subconjunto de R2n asociado a G al subconjunto de R2m asociado a H, es suave (C ∞ ). Lo
mismo cuando derivamos curvas γ : R → G: Estamos pensando a G como una superficie suave
2
de R2n .
Ejemplo A.15. El grupo U (1) = {z ∈ C/zz † = zz ∗ = 1} = {eiθ /θ ∈ [0, 2π)} es isomorfo (como
grupo) al grupo de rotaciones en el plano SO(2) = {A ∈ R2×2 /At A = AAt = Id∧det(A) = 1} =
cos(θ) − sen(θ)  cos(θ) − sen(θ) 
{ sen(θ) cos(θ) /θ ∈ [0, 2π)}, puesto que el mapa Φ : U (1) → SO(2) /Φ(eiθ ) = sen(θ) cos(θ)
es biyectivo y es un morfismo de grupos (verificar). Más aún, como Φ y Φ−1 son suaves, los
grupos de Lie U (1) y SO(2) son isomorfos como grupos de Lie: U (1) ' SO(2) (tiene sentido
ya que rotar un vector (x1 , x2 ) del plano real es como cambiar de fase el número complejo
x1 + ix2 ). Además, no es difı́cil ver que hay un mapa entre la circunferencia S 1 y U(1): f :
S 1 → U (1) /f (x, y) = x + iy. Éste mapa es biyectivo y f y f −1 son suaves; se dice que es un
difeomorfismo ya que preserva de forma biyectiva la estructura diferencial. Entonces se puede
ver a los grupos U (1) ' SO(2) como la circunferencia unitaria en R2 .
Ejemplo A.16. Veamos cómo se ve el grupo SU (2) = {U ∈ GL(2, C)/U † U = U U † = Id ∧
det(U ) = 1} como superficie suave en un subconjunto de Rn .
u∗ u∗21 
Sea U = uu11 u12
∈ SU (2), entonces como det(U ) = 1 y U † = U −1 : U † = u11

21 u22 ∗ u∗ =
12 22
u22 −u12 −1 ∗ ∗

−u21 u11 = U , y entonces u11 = u22 := α = x1 + ix2 y u12 = −u21 := β = x3 +
ix4 (con x1 , x2 , x3 , x4 ∈ R partes reales e imaginarias de α y β). Y en consecuencia: U =
α β ∗ ∗ 2 2 2 2
−β ∗ α∗ . Y finalmente, como det(U ) = 1 = αα − β(−β ) = |α| + |β| = x1 + x2 +
2 2 4
x3 + x4 = 1, entonces el vector de R dado por (x1 , x2 , x3 , x4 ) pertenece a S := {~x/k~xk = 3 2

X4
|xi |2 = 1}. Se tiene entonces una función biyectiva f : S 3 → SU (2) / f (x1 , x2 , x3 , x4 ) =
i=1
x1 +ix2 x3 +ix4 3 4

−x3 +ix4 x1 −ix2 ∈ SU (2). Si parametrizamos a S con coordenadas esféricas en R de la forma
(x1 , x2 , x3 , x4 ) = (cos γ sen θ sen φ, sen γ sen θ sen φ, cos θ sen φ, cos φ)/φ, θ ∈ [0, π]; γ ∈ [0, 2π), te-
eiγ sen θ sen φ cos θ sen φ+i cos φ 
nemos que: f (x1 , x2 , x3 , x4 ) = − cos θ sen φ+i cos φ e−iγ sen θ sen φ
. Entonces SU (2) se puede ver
como la esfera de radio unitario en 4 dimensiones: SU (2) ' S 3 ; puesto que la función f es
biyectiva y f y f −1 son suaves, es un difeomorfismo.
Proposición A.17 (Ver demostraciones en propiedades 2.1, 2.3 y 2.4, y ejercicio 2.11 de [3]).

X An
La serie de potencias eA = converge para toda A ∈ Mn (C), por lo que se puede definir
n!
n=0
un mapa e : Mn (C) → GL(n, C) tal que e(A) = eA , y verifica:
1. Es C ∞
2. (eA )−1 = e−A =⇒ eA ∈ GL(n, C)

3. (eA )† = eA

32
4. det(eA ) = etr(A)
5. eX+Y = eX eY si [X, Y ] = XY − Y X = 0, en particular: etX+sX = etX esX

d tX d tX
6. dt e = XetX , en particular: dt e =X
t=0
N
7. eA = lı́m (Id + A/N ) ∀ A ∈ Mn (C).
N →∞

Definición A.18. Un álgebra de Lie (sobre un cuerpo K; consideramos K = R ó C) es un


espacio vectorial g (sobre K) dotado de un mapa [, ] : g × g → g denotado como (X, Y ) → [X, Y ]
que verifica ∀ X, Y, Z ∈ g:
1. Es bilineal: [aX + bY, Z] = a[X, Z] + b[Y, Z]; y [Z, aX + bY ] = a[Z, X] + b[Z, Y ] ∀ a, b ∈ K.
2. Es antisimétrico: [X, Y ] = −[Y, X].
3. Verifica la identidad de Jacobi: [X, [Y, Z]] + [Y, [Z, X]] + [Z, [X, Y ]] = 0.

Definición A.19. Sea {X1 , (...), Xn } una base de un álgebra de Lie (que es en particular un
espacio vectorial), se puede determinar el corchete del álgebra sólo especificando el corchete entre
n
X
k k se denominan constantes de estructura.
elementos de la base: [Xi , Xj ] = Cij Xk . Las Cij
k=1

Proposición A.20 (Ver demostración en teorema 3.20 y corolario 3.46 de [3]). Sea G un grupo
de Lie matricial y g = {iA ∈ Mn (C)/eisA ∈ G ∀ s ∈ R}. Se puede verificar que g es un
álgebra de Lie real con el conmutador de matrices [X, Y ] = XY − Y X.
Además, vale que es
d
igual al conjunto de derivadas de curvas suaves g = Te G := { ds γ(s) /γ : (−, ) ⊆ R →

s=0
G curva diferenciable en s=0 ∧ γ(0) = e}, con e = Id. Se dice que g es el álgebra de Lie del
grupo de Lie matricial G.

Observación A.21. Veamos una demostración de que Te G = g para grupos de Lie matriciales.
El razonamiento resulta útil además para comprender porque el álgebra de Lie determina las
transformaciones infinitesimales del grupo.
Sea iA ∈ g. Entonces esiA ∈ G ∀ s ∈ R. También vale para valores infinitesimales como
s/N  1 (N es un número natural tal que N  s), por lo que se deberı́a cumplir que a primer
d siA
orden en Taylor centrado en s = 0: Id + ds e s/N = Id + s/N iA ∈ G. La transformación
s=0
Id + s/N iA ∈ G es una transformación infinitesimal
del grupo.
d isA d
Entonces ds e = iA ∈ Te G = { ds γ(s) /γ : (−, ) ⊆ R → G curva diferenciable en

s=0 s=0
s = 0 ∧ γ(0) = e} ya que eisA es una curva suave en G. En consecuencia: g ⊆ Te G. Te G es
el denominado espacio tangente a la identidad del grupo. Está formado por los valores de la
derivada en s = 0 de todas las curvas de G diferenciables en s = 0 tales que γ(0) = e. Nos dice
cómo es el grupo localmente en un entorno de la identidad; en otras palabras, nos dice cómo
son las transformaciones infinitesimales del grupo.
Sea un elemento
iB ∈ Te G. Hay una curva diferenciable en s = 0 γ : (−, ) ⊆ R → G tal
d
que iB = ds γ(s) , por lo que debe ocurrir que, sea un valor infinitesimal s/N  1, a primer

s=0
d
orden en Taylor centrado en s = 0 la curva debe pertenecer al grupo: Id + s/N ds γ(s) =

s=0
Id+s/N iB ∈ G. Ésta es una transformación infinitesimal del grupo; todas las transformaciones
infinitesimales provienen de algún elemento de Te G como el elemento iB.
Recordando que eisB = lı́m (Id + s/N iB)N (ver proposición A.17 item 7), y como (Id +
N →∞
s/N iB)N ∈ G ∀ N ∈ N, entonces (Id + s/N iB)N es una sucesión de elementos de G que
converge a una matriz eisB que es invertible. Por definición de grupo de Lie matricial (ver
definición A.13) ocurre entonces que eisB ∈ G ∀ s ∈ R, y en consecuencia iB ∈ g. Por lo que
g = Te G. El álgebra de Lie del grupo posee la información de cómo son las transformaciones
infinitesimales del grupo. Éstan codificadas en la estructura del corchete del álgebra de Lie.

33
Observación A.22. El mapa exponencial de un grupo de Lie matricial G es el mapa exponencial
restringido a su álgebra de Lie: exp : g → G. Dicho mapa no siempre es sobreyectivo (es decir, no
todo elemento de G se puede expresar como la exponencial de un elemento de g). Si el grupo de
Lie es conexo y compacto (ver definición A.27), entonces el mapa exponencial sı́ es sobreyectivo
(ver demostración en corolario 11.40 de [3]). Entonces, en particular, el mapa exponencial de
los grupos de Lie U(n) y SU(n) es sobreyectivo (ver ejemplo A.23 para las definiciones de dichos
grupos de Lie; y ver sección 1.3 de [3] para ver porque dichos grupos son conexos y compactos).

Ejemplo A.23. Se puede verificar con las anteriores propiedades que:


1. Sea U (n) = {U ∈ GL(n, C)/U † U = Id ⇐⇒ U † = U −1 } el grupo de Lie matricial de las
matrices unitarias; su álgebra de Lie es u(n)= {iA ∈ Mn (C)/A = A† (A es hermı́tica)}
2. Sea SU (n) = {U ∈ GL(n, C)/U † U = Id ∧ det(U ) = 1} el grupo de Lie matricial de
las matrices unitarias unimodulares; su álgebra de Lie es su(n)= {iA ∈ Mn (C)/A =
A† ∧ tr(A) = 0}. En particular, las matrices {iσ1 /2, iσ2 /2, iσ3 /2} son base de su(2), con
X n
σ1 = 01 10 , σ2 = 0i −i 1 0 ; y vale que [iσ /2, iσ /2] =
  
0 y σ 3 = 0 −1 l j −ljk iσk /2 =⇒
k=1
Cljk = −ljk , con ljk = 1, −1 si (l, j, k) es una permutación par o impar (respectivamente)
de (1, 2, 3), y en cualquier otro caso es 0.
3. Sea SO(n) = {U ∈ GL(n, R)/U t U = Id ∧ det(U ) = 1} el grupo de Lie matricial de las ma-
trices ortogonales unimodulares reales; su álgebra de Lie es so(n)=n{iA ∈ M t =
 0n (R)/(iA)
0 0

−iA (iA es antisimétrica)}. En particular, una base de so(3) es F1 = 0 0 1 , F2 =
 0 0 −1  0 −1 0
00 0 ,
10 0  0 1 0 o
F3 = −1 0 0 , y sus constantes de estructura son también Cljk = −ljk .
0 00

Definición A.24. Un subgrupo uniparamétrico de G es U : R → G un morfismo de grupos de


Lie (i.e. un morfismo de grupos que es C ∞ entre grupos de Lie), cuyo dominio es el grupo de
los reales con la suma como operación: (R, +). En particular, es una curva suave completa (ya
que está definida en todo R) de G

Teorema A.25 (Ver demostración en teorema 2.14 de [3]). Sea U (.) un subgrupo uniparamétrico
de GL(n, C), ∃! X ∈ Mn (C)/ U (t) = etX ∀ t ∈ R

Teorema A.26 (Ver demostración en teorema 3.28 de [3]). Sea F : G → H un morfismo


de grupos de Lie (G y H grupos de Lie matriciales). El mismo induce un único morfismo de
álgebras de Lie (i.e. una transformación lineal que preserva el corchete) F∗ : g → h tal que
F (eX ) = eF∗ (X) ∀ X ∈ g. Ó en otras palabras, el siguiente diagrama es conmutativo:
F∗
g h
exp exp
F
G H

Dicho mapa está ı́ntimamente relacionado con (dF )e : Te G → Te H.

Observación. Tenemos un functor (covariante) de la categorı́a de los grupos de Lie a la cate-


gorı́a de las álgebras de Lie reales que manda G → g ∧ F → F∗

Definición A.27 (Ver sección 1.3 de [3]). Puesto que un grupo de Lie matricial G es conexo si
y sólo si es arcoconexo (considerando las definiciones topológicas de conexión y arcoconexión),
entonces es posible definir que un grupo de Lie matricial es conexo si es arcoconexo: si para
todos A, B ∈ G, existe un camino continuo f : [0, 1] → G tal que f (0) = A y f (1) = B.
2
Un grupo de Lie matricial G es compacto si, visto como subconjunto de R2n , es compacto
(considerando la definición topológica de compacidad). Por el teorema de Heine-Borel (que lo

34
podemos aplicar sólo si el grupo de Lie es matricial), es compacto si y sólo si es cerrado (como
subconjunto de Mn (C), no sólo como subconjunto de GL(n, C)) y acotado.
Un grupo de Lie matricial es simplemente conexo si toda curva cerrada (loop) en G se puede
deformar continuamente a un punto en G. Más precisamente: G es simplemente conexo si para
todo camino continuo A : [0, 1] → G tal que A(0) = A(1), existe una función continua A0 :
[0, 1] × [0, 1] → G tal que A0 (s, 0) = A0 (s, 1), A0 (0, t) = A(t), y A0 (1, t) = A0 (1, 0) ∀ s, t ∈ [0, 1].

Teorema A.28 (Ver demostración en teorema 5.6 de [3]). Sean G y H grupos de Lie matriciales
con álgebras de Lie g y h, respectivamente. Sea f : g → h un morfismo de álgebras de Lie. Si G
es simplemente conexo, ∃! F : G → H morfismo de grupos de Lie /F∗ = f .

Definición A.29. Sea G un grupo de Lie matricial conexo. Un cubrimiento universal de G es


un grupo de Lie (que puede o no ser matricial) G̃ simplemente conexo junto con un morfismo
de grupos de Lie Φ : G̃ → G tal que Φ∗ = φ : g̃ → g es un isomorfismo de álgebras de Lie.

Ejemplo A.30. Sea φ : su(2) → so(3) transformación lineal definida por φ(iσj /2) = Fj ,
como las bases de su(2) y so(3) dadas por el ejemplo A.23, poseen las mismas constantes de
estructura: φ es un isomorfismo de álgebras de Lie (ya que preserva los corchetes y es biyec-
tiva). Como SU(2) es homeomorfo a S 3 (esfera en R4 ; ver ejemplo A.16 y capı́tulo 8.2 en
[2]), es simplemente conexo (ya que S 3 lo es); entonces, por el teorema A.28 ∃! Φ : SU (2) →
SO(3) morfismo de grupos de Lie/Φ∗ = φ, y entonces SU(2) es un cubrimiento universal de
SO(3). Se puede verificar que Nú(Φ) = {Id, −Id}, por lo que SO(3)'SU(2)/{Id, −Id}.

Ahora, en lo que sigue, no nos estamos restringiendo a grupos de Lie matriciales. En la


sección 1 se explica cómo se generalizan las ideas de álgebra de Lie y mapa exponencial a
grupos de Lie que pueden no ser matriciales.

Teorema A.31 (Ver demostración en teorema 5.25 de [3] y teoremas 20.21 y 21.32 de [1]). Sea
g un álgebra de Lie real de dimensión finita. Existe un grupo de Lie matricial conexo G tal que g
es su álgebra de Lie (por ésto no se pierde mucha generalidad al restringirnos a los grupos de Lie
matriciales: se cubren todas las posibles álgebras de Lie reales). Se puede demostrar (teorema de
correspondencia de Lie) que hay una correspondencia biyectiva entre las clases de isomorfismos
de álgebras de Lie reales de dimensión finita y las clases de isomorfismos de grupos de Lie
simplemente conexos (no todos son matriciales). Además, todos los grupos de Lie conexos con
álgebra de Lie isomorfa a g son aquellos que tienen al grupo de Lie simplemente conexo que le
corresponde a g como cubrimiento universal. Por lo que siempre existe un cubrimiento universal
de un grupo de Lie conexo G por un grupo de Lie simplemente conexo G̃ y es único (a menos
de isomorfismos), pero no siempre dicho grupo de Lie es matricial.

Observación A.32. Sean G y H dos grupos de Lie con álgebras de Lie g y h, respectivamente.
Sea f : g → h un morfismo de álgebras de Lie (ver figura 6). Supongamos que G es conexo y
posee un cubrimiento universal G̃ (simplemente conexo) con mapa de cubrimiento Φ : G̃ → G,
por lo que Φ∗ = φ : g̃ → g es un isomorfismo de álgebras de Lie (por el teorema A.31, todo grupo
de Lie conexo posee un cubrimiento universal, único a menos de isomorfismos, que puede no
ser un grupo de Lie matricial). Esto significa que las dos primeras columnas del diagrama de la
figura 6 conmutan (ver teorema A.26). Luego, como G̃ es un grupo de Lie simplemente conexo,
entonces por el teorema A.28 ∃! Γ : G̃ → H/Γ∗ = f ◦ φ. De esta forma, se puede empujar un
morfismo de álgebras de Lie f : g → h a un morfismo Γ : G̃ → H cuyo dominio es el grupo
simplemente conexo que le corresponde a g según la correspondencia de Lie (teorema A.31).
Pero no siempre se puede empujar f a un morfismo de grupos de Lie Γc : G → H que parta del
grupo de Lie conexo G (ver en figura 6 con lı́neas punteadas). Como G es isomorfo a G̃/Nú(Φ),
no es difı́cil ver que (sólo) si Γ es una función de clase (respecto a la relación de equivalencia
que impone el cociente G̃/Nú(Φ); ésta condición es equivalente a que Nú(Φ) ⊆Nú(Γ)), existe
una función Γc : G → H tal que Γ = Γc ◦ Φ que estarı́a bien definida ya que Γ serı́a una función
de clase.

35
f ◦φ=Γ∗

φ=Φ∗ f
g̃ g h
φ−1
exp exp exp

Φ Γc
G̃ G H
Γ

Figura 6: Diagrama conmutativo de la observación A.32

36
Referencias
[1] Introduction to smooth manifolds, John Lee, segunda edición (2012)
[2] Algebra. Artin, Michael. Prentice Hall, 1991.
[3] Lie groups, lie algebras and representations, segunda edición, Brian Hall (2015)
[4] Quantum Theory for mathematicians, Brian Hall (2013)
[5] V. Bargmann, On unitary ray representations of continuous groups. Ann. Math. 59(2),
1–46 (1954)
[6] Curso de Métodos de la Fisica Matemática: Volumen II - Introducción a la teorı́a de grupos,
Horacio Falomir, 2015. https://libros.unlp.edu.ar/index.php/unlp/catalog/view/
432/398/1393-1
[7] Quantum Field Theory, a tourist guide for mathematicians, Gerald Folland (2008)
[8] V. Bargmann, Note on Wigner’s theorem on symmetry operations, J. Math. Phys. 5 (1964),
862-868.
[9] http://pdg.lbl.gov/2002/clebrpp.pdf, ó también
https://en.wikipedia.org/wiki/Table_of_Clebsch-Gordan_coefficients
[10] http://www.oulu.fi/tf/kvmIII/english/2004/09_tensop.pdf
[11] J. J. Sakurai, (1994). ”Modern Quantum Mechanics”, Addison Wesley, ISBN 0-201-53929-
2.
[12] https://en.wikipedia.org/wiki/Equivalence_class

37

S-ar putea să vă placă și