Sunteți pe pagina 1din 376

PRINCIPIOS MATEM

ATICOS
PARA CIENCIAS EX

ACTAS
Y TECNOLOG

IA AVANZADA
Tonatiuh Matos
(1)
Petra Wiederhold
(2)
(1) Departamento de Fsica, Centro de Investigaci on y de Estudios
Avanzados del IPN, A.P. 14-740, 07000 Mexico D.F., Mexico.
E-mail address, 1: tmatos@fis.cinvestav.mx
URL: http://www.fis.cinvestav.mx/~tmatos
(2) Departamento de Control Autom atico, Centro de Investigaci on
y de Estudios Avanzados del IPN, A.P. 14-740, 07000 Mexico D.F.,
Mexico.
E-mail address, 2: biene@ctrl.cinvestav.mx
A nuestra pasion:
Ursula y Tiuh
1991 Mathematics Subject Classication. Curso de Matem aticas
Abstract. Curso de Matem aticas para estudiantes de ciencias ex actas y tec-
nologa avanzada.
Contents
1. Prefacio vi
2. Nomenclatura viii
Part 1. PRELIMINARES 1
3. Conjuntos 2
4. Mapeos 4
5. Producto Cartesiano y Relaciones 8
6. Operaciones 11
7. El Conjunto Ordenado 12
Part 2.

ALGEBRA 17
Chapter 1. ESTRUCTURAS ALGEBRAICAS B

ASICAS 19
1. Grupos y Semigrupos 19
2. Homomorsmos 21
3. Subgrupos y Grupos cociente 22
4. Anillos y Campos 24
5. Ideales y Anillos Cociente 26
Chapter 2. ESPACIOS VECTORIALES 29
1. El Espacio Vectorial
n
29
2. Denicion de Espacio Vectorial 30
3. Subespacios Vectoriales 31
4. Homomorsmos 32
5. Independencia Lineal y Bases 34
6. Transformaciones Lineales 37
7.

Algebras 38
Chapter 3. MATRICES 41
1. Mapeos Lineales y Matrices 41
2. Isomorsmos 43
3. Ecuaciones Lineales 47
4. Transpuesta e Inversa de Matrices 49
Chapter 4. DETERMINANTES 53
1. Denicion 53
2. Matrices Similares 57
3. Invariantes de Matrices Similares (Vectores y Valores Propios) 58
Chapter 5. FORMAS CANONICAS 63
iii
iv CONTENTS
1. Introduccion 63
2. Forma Canonica de Jordan 69
3. Forma Canonica Natural 73
Part 3. VARIABLE COMPLEJA 77
Chapter 6. EL PLANO COMPLEJO 79
1. Los N umeros Complejos 79
2. Funciones en el Plano Complejo 80
3. La Derivada en el Plano Complejo 84
4. Funciones Armonicas 88
5. La Integral en el Plano Complejo 90
6. La Integral de Cauchy 98
Chapter 7. SERIES 103
1. Series en el Plano Complejo 103
2. Series de Taylor en el Plano Complejo 105
3. Series de Laurent 107
4. Polos y Residuos 111
5. Evaluacion de Integrales 118
Chapter 8. GEOMETRIA DEL PLANO COMPLEJO 125
1. Transformaciones Conformes 125
2. Supercies de Riemann 130
Part 4. ANALISIS 133
Chapter 9. ESPACIOS M

ETRICOS Y UNITARIOS 135


1. Estructuras sobre y
n
135
2. Espacios Metricos. 140
3. Espacios Normados 145
4. Espacios Euclideanos. 150
5. Espacios Unitarios 153
Chapter 10. ESPACIOS DE HILBERT Y BANACH 157
1. Sistemas Ortonormales Completos. 157
2. Operadores Adjuntos. 164
Chapter 11. ESPACIOS CON MEDIDA 173
1. Medida 173
2. Integraci on en espacios con Medida 177
3. Espacios L
p
181
4. Desarrollo de Fourier en L
2
183
5. Funciones Especiales 184
Part 5. ECUACIONES DIFERENCIALES 191
Chapter 12. ECUACIONES DIFERENCIALES ORDINARIAS 193
1. Metodos de Soluci on 193
2. Transformadas Integrales 199
3. Metodo de Series 204
CONTENTS v
Chapter 13. ECUACIONES DIFERENCIALES PARCIALES 209
1. Metodos de Soluci on 209
2. Separaci on de Variables 210
3. Metodo de series de Fourier 220
4. Funciones de Green 221
Part 6. TOPOLOG

IA 227
Chapter 14. ESPACIOS TOPOL

OGICOS 229
1. Denicion y Ejemplos 229
2. Cerradura, Interior y Frontera 233
3. Funciones Continuas 238
4. Topologa cociente 241
5. Espacios Compactos 243
6. Espacios Conexos 248
Chapter 15. VARIEDADES DIFERENCIALES 251
1. Variedades 251
2. Funciones suaves 256
3. Vectores Tangentes. 258
4. Uno formas 260
Chapter 16. TENSORES Y P-FORMAS 273
1. Tensores 273
2. p-Formas 278
3. Diferenciaci on e integraci on en variedades 279
4. Derivada de Lie y Derivada Covariante 293
5. El Tensor Metrico y el Tensor de Curvatura 300
Chapter 17. HACES FIBRADOS 311
1. Haces 311
2. Espacios G 313
3. Haces Fibrados Principales 315
4. Haces Vectoriales 319
Chapter 18. GRUPOS DE LIE 323
1. Campos Invariantes por la Izquierda 323
2. La Funci on Exponencial 326
3. La representacion Adjunta y la Forma de Maurer Cartan. 328
4. Representacion de Grupos y Algebras de Lie 332
Part 7. APLICACIONES 335
Chapter 19. APLICACIONES 337
1. Ecuaciones Quirales 337
2. Geometrizaci on de Teorias de Norma 344
Chapter 20. Indice Analitico 353
vi CONTENTS
1. Prefacio
Este trabajo es el resultado de la imparticion durante 20 a nos de las materias
de Matem aticas y de Metodos Matem aticos en los Departamentos de Fsica, de
Ingeniera Electrica y de Control Autom atico del Centro de Investigacion y de Es-
tudios Avanzados del IPN (Cinvestav), as como en el Instituto de Fsica y Matem a
ticas de la Universidad Michoacana, en Mexico. Tambien se ha impartido parte del
material, incluyendo la parte de topologa en cursos especiales de geometra difer-
encial en las anteriores instituciones y en el Astronomisch-Physikalisches Institut de
la Friederich-Schiller-Universitet de Jena, Alemania, en el Institut fer Theoretische
Physik, de la Technische Universite Wien y en el Departament of Physics of the
University of British Columbia, en Vancouver, Canada. El temario es b asicamente
el correspondiente al de la mayora de las instituciones donde se imparte la carrera
de Fsica y Tecnologa avanzada en Mexico, como son el CINVESTAV, la UNAM
o la UAM, la Universidad Michoacana, la Veracruzana, etc. y estoy seguro que en
otros pases de Ispanoamerica. Este material tiene como objetivo suplir la terrible
deciencia de no haber un curso en espa nol, que corresponda a los temarios de las
instituciones de habla ispana, hablado en lenguage espa nol.
El objetivo del libro es multiple. El principal es dar al estudiante la idea
fundamental de lo que son las matematicas: las matematicas son la herramienta
que nos ayuda a pensar. Es por eso que el objetivo de estos cursos no ha sido
informativo, sino mas bien formativo. Con estos cursos nosotros pretendemos que
el estudiante adquiera una formaci on mnima de matematicas para la investigacion
en las ciencias y las ingenieras. El avance de las ciencias naturales y de la ingeniera
hace cada vez mas necesario que el estudiante no solo aprenda a calcular en las
ramas de las matematicas que se utilizan en su campo, sino que aprenda a utilizar
los teoremas y los resultados emanados de la matematica en toda su connotaci on.
Es por eso que el libro inicia con deniciones muy elementales, pero necesarias
para entender el resto del material. Sin embargo, el libro no esta pensado para
que el estudiante se convierta en matematico profesional. Esta es la raz on por la
que para los teoremas que nosotros consideramos demasiado largos de demostrar,
no se incluye su demostracion, solo se enuncian sus postulados con sus premisas
y se utilizan. El libro no pretende ser un compendio completo de matematicas,
ni siquiera de las matema ticas que se utilizan en alguna rama en especial. Cada
captulo de este libro podra extenderse a ser un libro gigante de cada tema. Ese
no es el objetivo del libro. Mas bien pretende introducir al estudiante a cada
tema, para que cuando necesite de este, pueda recurrir a libros especializados del
tema particular, pero pueda entender este libro especializado con un mnimo de
dicultad. Los temas tocados por el libro son los temas b asicos tpicos de un curso
de matematicas:

Algebra, Analisis, Variable Compleja, Ecuaciones Diferenciales
y Topologa, que son los t opicos mnimos que un matematico debera dominar.
Esta experiencia en la ense nanza de las matematicas es la que se utiliza en este
libro, para que el estudiante adquiera un mnimo de formaci on en matematicas
para su investigacion en ciencias o en ingeniera. La parte de topologa diferencial
o variedades diferenciales se agrega, ya que esta area de las matematicas se ha
convertido en una excelente herramienta para la mecanica clasica, la mecanica
cuantica, la termodinamica, el control autom atico, entre otras ramas de la ciencia
y la tecnologa.
1. PREFACIO vii
La compresion de este libro requiere de cursos previos de matematicas. El
material aqu contenido esta pensado para tres semestres de mas o menos 40 horas
de los cursos avanzados en las carreras de ciencias o para las maestras en ciencias
e ingenieras. El ultimo tema, topologa, podra ser un curso optativo en algunas
de estas maestras.
Las matematicas son por lo general sencillas. Toda la dicultad de entenderlas
radica en el hecho de c omo estudiarlas. A diferencia de otras materias de la escuela,
el aprendizaje de las matematicas es un proceso lineal, no se puede entender un
material si no se ha comprendido y estudiado con cuidado todo el material ante-
rior. Generalmente, la raz on por la que las matematicas se dicultan es porque
no entendemos un concepto y generalmente este no-entendimiento viene porque
no entendimos alg un concepto anterior. Generalmente no nos damos cuenta de
esto. Nosotros recomendamos leer la introduccion de este libro con mucho cuidado.
Parecera que todo es facil, hasta trivial. Pero las bases rmes ayudaran al es-
tudiante a comprender el resto del material. Nosotros hemos optado por dar las
ideas claras con toda su abstraccion, estamos seguros que a la larga este metodo
facilita mucho el entendimiento de las matematicas, en vez de dar conceptos in-
tuitivos. Nuestra experiencia es que la acumulaci on de conceptos intuitivos crea
lagunas de conocimiento cada vez mas grandes y por lo tanto a una incomprension
de las matematicas cada vez mayor. Tambien hemos evitado mucho material que a
nuestro parecer se deriva facilmente del material estudiado aqu. Por eso pensamos
que el material contenido en este libro es el mnimo necesario para entender una
gran cantidad de temas matematicos, de ninguna forma el material es completo.
Es preferible que el estudiante este preparado para aprender mas a futuro a que un
estudiante lo sepa todo de un tema dado. La profundidad de su conocimiento en
alg un tema estar a determinado mas bien por las necesidades de su investigacion.
Es muy com un que en los cursos de matematicas se toquen temas con mucha pro-
fundidad que en nuestras investigaciones nunca necesitamos.
La necesidad de que los estudiantes de ciencias e ingeniera tengan una for-
maci on mnima en matematicas es cada vez mas imperiosa. Vivimos la revoluci on
cientco-tecnologica y estos cambios tan vertiginosos en nuestro medio, en nues-
tras vidas requieren de una preparacion mas profunda y mas especializada, pero
sin perder de vista lo general. Es por eso que el libro pretende reducir cada tema
de las matematicas al mnimo, pero dando una panoramica general de los temas de
mayor importancia de las matematicas que nos ayudaran en nuestras investigaciones
cientcas y tecnol ogicas, es decir, tocando los temas basicos que nos ayudaran a
pensar.
Queremos agradecer a todos los estudiantes que nos hicieron el favor de leer el
texto y pasarnos correcciones y sugerencias que ayudaron notablemente a mejorar el
texto. Especialmente queremos agradecer a Nayeli Azusena Rodrguez Briones y a
Alberto V azquez por las correcciones que amablemente nos hicieron llegar, muchas
gracias a todos.
Mexico D.F., 2008
Tonatiuh Matos y Petra Wiederhold
viii CONTENTS
2. Nomenclatura
2.1. Conjuntos.
Definici on 0.1. .
La uni on de A con B : A B
La interseccion entre A y B : A B
Conjunto vacio
A es subconjunto de B: A B
El complemento del conjunto A: A
c
La diferencia entre A y B : A B
El conjunto potencia de A: T(A)
2.2. Mapeos.
Definici on 0.2. .
Mapeo o funci on f de E en F : f : E F
Dominio de denici on de f : D
f
Dominio de valores de f : V
f
Composici on de mapeos: (g f)(x) = g(f(x))
Mapeo inverso: f
1
Imagen del conjunto X : f(X)
Imagen inversa: f
1
(Y )
2.3. Producto Cartesiano y Relaciones.
Definici on 0.3. .
Producto cartesiano: AB
Relaci on entre dos conjuntos: (a, b) o ab o a b
Clase de equivalencia de x : [x]
El conjunto de todas las clases de equivalencia: c
Conjunto cociente: c =E /
Operaci on binaria: : E E E
Ejemplo 0.4. (x, y) = x+y, (x, y) = x y, (x, y) = xy, x, y E,
etc.
2.4. Conjuntos Especiales.
Definici on 0.5. .
Los n umeros Naturales: ^
Los n umeros Enteros: Z
Los n umeros Racionales: Q
Los n umeros Reales:
Los n umeros Complejos: (
2.5. En los reales .
Definici on 0.6. .
Conjunto parcialmente ordenado: (A, )
Los Reales positivos:
+
= x : x > 0
Los Reales negativos:

= x : x < 0.
El mnimo de A: minA
El m aximo de A: max A
El supremo de x: supx
El nmo de x: inf x
2. NOMENCLATURA ix
2.6.

Algebra.
Definici on 0.7. .
Grupo o Semigrupo: (A, )
Grupo Cociente: E/H
Anillo: (A, +, )
Espacio Vectorial: (K, V, +, ) o simplemente V

Algebra: (A, +, , )
Espacios isomofos: V
1

= V
2
Subespacios: V
1

sub
V
1
Cerradura lineal de X : L(X)
Linealmente independiente: l.i.
La Dimensi on de V : dimV = n
El conjunto de las Transformaciones lineales o mapeos lineales: L(V
1
, V
2
) :=
Hom(V
1
, V
2
)
El nucleo de f : ker f
El Rango de f : Rgf := dim f(V
1
)
2.7. Matrices.
Definici on 0.8. .
La transpuesta de A: A
T
El Rango de A : RgA
La inversa de una matriz A : A
1
La matriz identidad: I =
_
_
_
1 0
.
.
.
0 1
_
_
_
El determinante de A : det A
La Traza de la matriz A: T
r
A
Delta de Kronecker:
kj
= (I)
ij
Matriz caracteristica de A: A I
Polinomio carateriztico de A: det (A I)
Ecuaci on caracteristica de A: det (A I) = 0.
Matrix polinomial: U()
2.8. Variable Compleja.
Definici on 0.9. .
Parte Real de z: e(z)
Parte imaginaria: 1m(z)
M odulo de z: [z[
Complejo conjugado: z
Lmite de f : lim
zz1
f(z) = z
2
La derivada de f en z:
df
dz
Funci on arm onica:
2
u = 0
2.9. Espacios Unitarios y Metricos.
Definici on 0.10. .
Espacio Euclidiano o Espacio Unitario: (E, (, ))
Espacio normado: (E, | |)
Norma de x: | x |
x CONTENTS
x es perpendicular u ortogonal a y: x y
Complemento ortogonal de H: H

Espacio metrico: (X, )


Distancia entre x y y: (x, y)
Bola de centro x X y radio r > 0 : B
r
(x)
Una sucesi on: (x
n
) o x
n
Convergencia de una sucesi on: lim
n
x
n
= x o x
n
x
Definici on 0.11. .
El conjunto de funciones continuas en [a, b] : C ([a, b])
El espacio de polinomios denidos en [a, b] : T
n
([a, b])
Conjunto de las funciones trigonometricas: T ([, ])
Polinomio de grado n: p
n
o p
n
(x).
Polinomios de Legendre: P
n
o P
n
(x)
Polinomios de Bessel J
n
Polinomios de Hermite: H
n
o H
n
(x)
Polinomios de Laguerre: L
n
Polinomios de Tchebichef de primera clase: T
n
Polinomios de Tchebichef de segunda clase: U
n
Polinomios de Jacobi: P
,
n
Polinomios de Gegenbauer: C

n
El espacio de las funciones periodicas en [a, b] : F
p
([a, b])
Espacio Pseudo-Euclidiano o Espacio de Lorentz: L
Grupo de isometrias del espacio metrico (X, ) : I
so
(X, )
2.10. Espacios de Hilbert y Banach.
Definici on 0.12. Sistema ortonormal: x
i

iI
Serie de Fourier:

iI
(x, x
i
) x
i
Operador adjunto de A: A

Operador hermitiano de A: A

2.11. Espacios con Medida.


Definici on 0.13.

Algebra o

Algebra- sobre : T
Conjuntos de Borel: c
Espacio Medible: (, T)
Medida: o m
Espacio con Medida: (, T, )
Medida de Dirac:
x
Funci on indicadora:
A
2.12. Ecuaciones Diferenciales.
Definici on 0.14. .
La ecuaci on del oscilador arm onico y

+
2
y = 0.
Ecuaci on diferencial de Legendre:
_
1 x
2
_
d
2
dx
2
P
n
2x
d
dx
P
n
+n(n + 1) P
n
= 0
Ecuaci on diferencial de Bessel: x
2 d
2
dx
2
J
n
+x
d
dx
J
n
+
_
x
2
n
2
_
J
n
= 0
Ecuaci on diferencial de Hermite:
d
2
dx
2
H
n
2x
d
dx
H
n
+ 2nH
n
= 0
Ecuaci on diferencial de Laguerre: x
d
2
dx
2
L
n
+ (1 x)
d
dx
L
n
+nL
n
= 0
2. NOMENCLATURA xi
La transformada integral: F(s) = (eq, x
s
).
La transformada de Fourier: x
k
= exp(ikx)
La transformada de Laplace: x
s
= exp(as)
La convoluci on de f con g: f g =
_

f(u)g(x u)du
2.13. Operadores Diferenciales y Coordenadas.
Definici on 0.15. .
Operador Nabla: =
_

x
,

y
,

z
_
Operador Laplaciano:
2
Operador dAlabertiano: =
2
v
2

2
/t
2
Elemento de linea: dr =(dx, dy, dz) = dx e
x
+dy e
y
+dz e
z
Coordenadas esfericas
x = r sin() cos(), y = r sin() sin(), z = r cos()
dr = dr e
r
+rd e

+r sin () d e

=
_

r
,
1
r

,
1
r sin ()

_
A =
1
r
2

_
r
2
A
r
_
r
+
1
r sin()
(sin()A

+
1
r sin()
A

2
=
1
r
2

r
_
r
2

r
_
+
1
r
2
sin()

_
sin()

_
+
1
r
2
sin
2
()

2
Coordenadas cilindricas
x = cos(), y = sin(), z = z
dr = d e

+ d e

+dz e
z
=
_

,
1

,

z
_
A =
1

(A

+
1

+
A

2
=
1

_
+
1

2
+

2
z
2
Coordenadas nulas = x +vt y = x vt
Funci on de Green G(x, y)
Delta de Dirac (x)
La ecuaci on de onda u =
2
u v
2
2
u
t
2
= (x, y, z)
La ecuaci on de Difusi on
u
t
= (Du)
La ecuaci on de Poisson
2
u = (x, y, z)
2.14. Topologa.
Definici on 0.16. .
Topologa de X:
X
Una Vecindad de x: U
x
Una Cubierta: |
El lmite: x
i
x o limx
i
= x.
La topologa relativa o inducida:
A
La clausura de A: A
xii CONTENTS
El interior de A:

A
La frontera de A: A
El conjunto de funciones continuas: Map(X, Y ) = C
0
(X, Y )
Las proyecciones de X Y :
x
La inclusi on de A en X: i : A X
Espacios topol ogicos homeomorfos: X
hom
Y
El grupo de automorsmos: (Aut(X), )
Camino o trayectoria: c
Reparametrizaci on de c:

(c)
2.15. Variedades Diferenciales.
Definici on 0.17. .
Variedad real de dimensi on n: (M
n
,
M
N)
Carta sobre M
n
: c

= (U

, V

)
Dominio de la carta: U

Sistema de coordenadas sobre U

: (U

)
Parametrizaci on de U

:
_

, V

_
Imagen de la carta c

: V

(U

)
i-esima funci on coordenada sobre
n
: r
i
i-esima funci on coordenada del sistema de coordenadas x
i

:= r
i

Funciones de transici on:

:=

Funciones suaves sobre M


n
: C

(M
n
, )
Funciones suaves en la vecindad de x: C

(M
n
, x, )
Imagen recproca o Full-back de F: F

Variedades difeom orcas: M


m
dif

= N
n
Espacio tangente en x: T
x
M
n
Vector en T
x
M
n
:

x
i

x
tal que

x
i

x
(f) :=

r
i
_
f
1
_

(x)
Base coordenada de T
x
M
n
:
_

x
i

x
_
i=1, ,n
2.16. 1-Formas.
Definici on 0.18. .
La diferencial de F en x: dF
x
= F
x
Espacio cotangente en x: T

x
M
n
Campos vectoriales en M
n
: TM
n
1-formas en M
n
: T

M
n
Producto o parentesis de Lie: [X, Y ]
-relacionados: d
x
(X
x
) = Y
(x)
X -invariante o invariante bajo : X

X , o d
x
(X
x
) = X
(x)
Imagen reciproca o pull-back: F

y
Part 1
PRELIMINARES
3. Conjuntos
Toda construcci on matematica inicia con elementos b asicos fundamentales, ax-
iomas y postulados que se aceptan de antemano. Estos elementos son la base de
toda la estructura matematica que vamos a construir aqu. Para nosotros, la base
de nuestra construcci on van a ser los conjuntos y suponemos que el lector est a
familiarizado con los conceptos b asicos de la teora de conjuntos. Sin embargo,
para especicar la notaci on que usaremos a lo largo del libro, vamos a recordar
algunos conceptos b asicos, sin detenernos mucho en ellos. Nombramos, por lo gen-
eral, conjuntos mediante letras may usculas y elementos mediante letras min usculas.
Recordamos que si A y B son conjuntos, entonces:
* a A denota que el elemento a pertenece al conjunto A;
* a , A denota que el elemento a no pertenece al conjunto A;
* El conjunto A B = a [ a A o a B es la union de A y B;
* El conjunto A B = a [ a A y a B es la interseccion de A y B;
* denota el conjunto vacio, el conjunto que no tiene ning un elemento;
* A B, al igual que A B, denotan que el conjunto A es subconjunto del
conjunto B, lo cual signica que para cualquier elemento x A implica que x B;
* A B puede tambien denotar que A B, con A ,= B, es decir, A es un
subconjunto propio de B;
* A y B son iguales, A = B, siempre cuando A B y B A;
* Sea E el conjunto que denota el conjunto universo, es decir, el conjunto
de todos los elementos existentes (o de interes). Entonces, para cualquier conjunto
A (siendo entonces un subconjunto de E), A
c
= x E [ x , A es el conjunto
complementario (o conjunto complemento) de A;
* El conjunto A B = x A [ x , B es el conjunto diferencia entre A y
B.
* El conjunto T(A) = B [ B A es el conjnto de todos los subconjuntos
de A, y se le llama el conjunto potencia de A.
Cuando se trabaja con conjuntos es siempre muy util la representacion de los
conjuntos mediante los Diagramas de Venn, vean por ejemplo la gura 1. Cada
conjunto se representa por una gura en el plano, por ejemplo un crculo o una
elipse, entendiendo que los elementos del conjunto quedan representados por puntos
pertenecientes a la gura. Por ejemplo, el caso de dos conjuntos que se intersectan
se reeja entonces por el hecho de que las guras correspondientes tienen puntos en
com un. A continuacion vamos a resumir algunas de las reglas fundamentales para
trabajar con conjuntos.
Proposici on 0.19. Sean E un conjunto universo, y A, B, C subconjuntos de
E. Entonces vale lo siguiente:
1) E
c
= ,
c
= E,
2) (A
c
)
c
= A,
3) A A
c
= E, A A
c
= ,
4) A A = A, A A = A,
5) A E = E, A E = A,
6) A = A, A = ,
7) A B = B A, A B = B A,
8) (A B)
c
= A
c
B
c
,
9) (A B)
c
= A
c
B
c
.
10) A (B A) = A, A (B A) = A.
3. CONJUNTOS 3
Figure 1. Diagramas de Venn para la union A

B, la inter-
secci on A

B, el complemento A
c
y la resta de conjuntos A B.
Estos diagramas son muy utilizados para explicar gracamente las
propiedades de conjuntos.
11) Si A B = E y A B = , entonces A = B
c
y B = A
c
.
12) (A B) C = (A C) (B C).
Todas estas propiedades establecen igualdades entre conjuntos. Las propiedades
8) y 9) son llamadas las Reglas de Morgan. Por lo general hay diferentes formas
de proceder para demuestran proposiciones con conjuntos. Por ejemplo, si M y N
son conjuntos, para demostrar que M = N, tenemos dos posibilidades:
1. Demostrar que M y N tienen exactamente los mismos elementos, es decir,
mostrar que x M s y solo s x N;
2. O, usando el hecho que M = N s y solo s A B y B A, hacer la
demostracion en dos pasos: Primero se muestra que x M implica que x N, y
despues se muestra que x N implica que x M.
Ejemplo 0.20. Demostremos, por ejemplo, la regla de Morgan (A B)
c
=
A
c
B
c
:
Sea x (A B)
c
. Eso signica que x , (A B), as que, es falso el hecho
que x A o x B. Por lo tanto, x , A y x , B, es decir, x A
c
B
c
,
lo cual demuestra que (A B)
c
A
c
B
c
. Para mostrar la inclusi on contraria,
A
c
B
c
(A B)
c
, tomemos un elemento x A
c
B
c
, eso signica que x , A y
a la vez x , B, lo cual implica que x , A B, as que, x (A B)
c
, completando
la demostraci on.
Ejercicio 0.21. Demuestre, con todo detalle, la proposici on 0.19.
4
4. Mapeos
Los mapeos son la estructura matematica que asocia elementos entre conjuntos.
Vamos a denir los mapeos porque los vamos a utilizar intensivamente durante todo
el texto y porque el concepto del mapeo es fundamental en matematicas. En la
literatura se usan como conceptos sin onimos al de mapeo tambien aplicacion o
funcion. La denicion de mapeo es la siguiente:
Definici on 0.22. Sean E y F conjuntos. Un mapeo o funci on f de E en F
(denotado por f : E F),asocia a cada elemento de E, un unico elemento de F.
Vean la gura 2.
Figure 2. Representacion graca de un mapeo. Este mapeo va
del conjunto E al conjunto F y asocia a cada elemento de E un
unico elemento de F. Si salieran dos echas de E o alg un elemento
de E no tuviera echa, entonces f no sera mapeo.
Notaci on 0.23. f tambien se puede ver como un conjunto de pares ordenados
(a, b), donde a E y b F, o como el subconjunto f = (a, b) [ a E y b F
que cumple siempre que cuando (a, b) f y (a, b

) f se sigue que b = b

. Como
es bien sabido, en lugar de (a, b) f se usa tambien la notaci on f(a) = b.
Ejemplo 0.24. Sea f : tal que para cada x se asocie x x
2
, es
decir, la funci on ser a, a cada n umero real le asociamos su cuadrado, tenemos la
funci on f(x) = x
2
. Sin embargo, la asociaci on contraria f :
+
tal que para
cada x se asocie su raz cuadrada f(x) =

x, no es un mapeo, ya que a cada


n umero real le estamos asociando dos n umeros (ya no es unico), la raz positiva
y la raz negativa. Para que f sea mapeo hay que especicar cu al raz es la que
asociamos, por ejemplo: f(x) = +

x.
Definici on 0.25. Sea f : E F una funci on.
El conjunto D
f
= x E [ existe y F tal que y = f(x) se llama el
dominio de denici on de f o simplemente dominio de f.
El conjunto V
f
= y F [ existe x E con f(x) = y se llama el dominio
de valores de f o simplemente codominio de f.
4. MAPEOS 5
Ejemplo 0.26. Para el mapeo f(x) = x
2
, el dominio es el conjunto de los
n umeros reales y el codominio es el conjunto de los n umeros reales positivos uni on
el cero.
Ejemplo 0.27. Para el mapeo f(x) = +

x (asignaci on del resultado positivo


solamante), el dominio y el codominio son los n umeros reales no negativos.
Definici on 0.28. Una funci on f : E F se llama
suryectiva o sobre si V
f
= F, esto es, si para todo y F existe x tal que
f(x) = y;
inyectiva o 1-1 si para todo x, y D
f
vale que f(x) = f(y) implica x = y;
biyectiva si f es 1-1 y sobre.
Para los ejemplos que siguen vamos a necesitar la siguiente notacion.
Notaci on 0.29. Al conjunto de los reales positivos lo denotamos como
+
=
x : x > 0 y al de los reales negativos como

= x : x < 0.
Ejemplo 0.30. La funci on f :
+
tal que f(x) = x
2
es sobre, pues, para
todo x
+
, su raiz cuadrada es un n umero real cuyo cuadrado es igual a x. Sin
embargo, la funci on f : tal que f(x) = x
2
no es sobre, pues, para todo
x

, no existe un n umero real cuyo cuadrado es igual a x < 0. Este mapeo no


es 1-1, ya que por ejemplo f(2) = f(2).
Ejemplo 0.31. La funci on f :
+
, x x
2
(f(x) = x
2
, con x
+
) es
una funci on cuyo dominio de denici on es
+
, su dominio de valores tambien es

+
. An alogamente, la funci on f :
+

+
es 1-1 y sobre, as que es una biyecci on.
Existe una serie de operaciones muy importantes entre funciones. Como ver-
emos mas adelante, estas operaciones en algunos casos tienen estructuras, ya sea
algebraica o topologica, que hacen muy rico el trabajo matematico con mapeos.
A continuacion repasamos alg unas operaciones con funciones, las cuales son de
importancia en el trabajo matematico con ellas.
a) Restriccion de mapeos
Definici on 0.32. Si f : A B y g : A B son mapeos, entonces g se llama
la restricci on de f si D
g
D
f
y g(x) = f(x) para toda x D
g
.
b) Composici on de mapeos
Definici on 0.33. Sean f : E F y g : F G mapeos tales que V
f
D
g
. El
mapeo (g f) : E G. denido por (g f)(x) = g(f(x)) para x D
f
, se llama la
composici on o la concatenaci on de f y g. Ver gura 3.
Observen que la concatenaci on es una operaci on asociativa entre mapeos, es
decir, para mapeos g, f, h, (g f) h = g (f h). Es claro que la misma operaci on,
en general, no es conmutativa, veamos un ejemplo:
Ejemplo 0.34. Sean f y g funciones reales (es decir, de los reales a los reales)
tales que f(x) = x +1 y g(x) = x
2
. Entonces f g(x) = f(g(x)) = f(x
2
) = x
2
+1.
Por otro lado g f(x) = g(f(x)) = g(x+1) = (x+1)
2
, que es claramente diferente
a x
2
+ 1. Es decir, f y g no conmutan con la operaci on
Otra operaci on de mucha importancia entre funciones biyectivas es el mapeo
inverso. Hay que tomar en cuenta que esta operaci on solo vale entre funciones
biyectivas y no en general. Veamos su denicion:
c) Mapeo inverso
6
Figure 3. Composicion de funciones. Aqu se ve la composicion
de la funci on f con g, o sea g(f(a)). El elemento a de E es mapeado
al elemento g(f(a)) de G, pasando por F.
Definici on 0.35. Sea f : E F un mapeo 1-1 y sobre. Un mapeo f
1
:
F E denido por f
1
(y) = x s y s olo s f(x) = y, con y V
f
y x D
f
, se
llama mapeo inverso de f. Ver gura 4.
Figure 4. El mapeo inverso mapea un elemento f(a) de F, en
un elemento a de E, tal que si f(a) = b, se tiene que f
1
(b) = a.
Para que f este bien denida, la funci on tiene que ser biyectiva.
Observemos que si f
1
es el mapeo inverso de f, entonces D
f
1 = V
f
y V
f
1 =
D
f
.
Notaci on 0.36. Una funci on con inversa tambien se llama invertible o no
singular.
Ejemplo 0.37. La funci on f : , con f(x) = x
2
no tiene inverso, porque
el mapeo f
1
(x
2
) tiene asociados dos elementos, x y x, por lo que f
1
no es
funci on (f no es 1-1). Sin embargo, la funci on f :
+

+
con f(x) = x
2
tiene
como inverso a f
1
(x) = +

x.
4. MAPEOS 7
Ejercicio 0.38. Sean f : E F y g : F G mapeos invertibles tales que
V
f
D
g
. Demuestre que entonces el mapeo g f es un mapeo 1-1 de E en G , y
(g f)
1
= f
1
g
1
.
d) Imagen de un conjunto bajo una funcion
Ahora vamos a denir la forma en que no solo un elemento, sino todo un
conjunto de elementos puede ser proyectado o mapeado por una funci on. Primero
vamos a denir la forma directa, es decir, c omo se mapea un conjunto del dominio
al codominio. La denicion es la siguiente:
Definici on 0.39. Sea f = E F una funci on y X D
f
. El conjunto
f(X) = f(x) [ x X se llama la imagen del conjunto X bajo f.
Es claro que f(X) = y F [ existe x X tal que f(x) = y, as que,
la imagen del conjunto X bajo f es un subconjunto del codominio de la funci on.
Si el codominio de la funci on coincide con la imagen de su dominio de denicion,
entonces la funci on es sobre.
e) Imagen inversa de un conjunto bajo una funcion
De la misma forma ahora podemos ver c ual es el conjunto correspondiente en
el dominio, de un conjunto del codominio. A este conjunto se le llama la imagen
inversa y es importante se nalar que la imagen inversa existe independientemente
de que la funci on tenga o no inversa. Formalmente la denicion es:
Definici on 0.40. Sea f : E F una funci on y Y F. El conjunto f
1
(Y ) =
x D
f
[ f(x) Y se llama la imagen inversa del conjunto Y bajo f.
Observen que la imagen inversa se dene para funciones sin exigir que estas
sean 1-1, as que, la denicion de la imagen inversa, de entrada, no necesariamente
est a relacionada con la denicion del mapeo inverso. La imagen inversa existe
sin importar si la funci on tiene o no inversa. A continuaci on se resumen algunas
propiedades importantes de la imagen y de la imagen inversa de conjuntos.
Lema 0.41. Sea f : E F una funci on, X
1
y X
2
subconjuntos de D
f
, y Y
1
y Y
2
subconjuntos de F. Entonces:
1) f(X
1
X
2
) = f(X
1
) f(X
2
)
2) f(X
1
X
2
) f(X
1
) f(X
2
)
3) f
1
(Y
1
Y
2
) = f
1
(Y
1
) f
1
(Y
2
)
4) f
1
(Y
1
Y
2
) = f
1
(Y
1
) f
1
(Y
2
)
En la segunda propiedad, en general vale solamente la desigualdad, como mues-
tra el siguiente ejemplo:
Ejemplo 0.42. Considerese los conjuntos X = a, b, c, d, Y = d, e, h, g,
M = l, m, n, o , y un mapeo f : X Y M dado por
f = (a, l), (b, l), (c, m), (d, l), (e, n), (h, m), (g, o).
Tenemos f(X) = l, m , f(Y ) = M, as que f(X) f(Y ) = l, m, pero
f(X Y ) = f(d) = l lo cual es un subconjunto propio de l, m.
Ejercicio 0.43. Demuestre, con todo detalle, las propiedades del lema 0.41.
Ejercicio 0.44. Sea f : A B tal que x f(x) = 1/x. Diga si f es mapeo
para
1) A = , B = , donde son los n umeros reales.
2) A = 0, B = ,
8
3) A = , B = 0,
4) A = 0, B = 0,
5) A = , B = zapato,
6) A = , B = S
1
, donde S
1
es el crculo.
5. Producto Cartesiano y Relaciones
En esta secci on vamos a estudiar el producto cartesiano entre dos o mas conjun-
tos. Este concepto es importante porque es la base para denir dimensi on, espacios
vectoriales, etc. Con este concepto tambien vamos a denir relacion y relacion de
equivalencia, la cual sera usada multiples veces en lo que sigue e incluso, se puede
dar una denicion alternativa de funicion. Entonces la denicion de producto carte-
siano es como sigue:
Definici on 0.45. Si E
1
, E
2
, ..., E
n
son conjuntos, entonces el producto carte-
siano n-esimo de estos conjuntos se dene como el conjunto de todas las n-uplas
(ordenadas) (e
1
, e
2
, ..., e
n
) donde para cada i 1, ..., n, e
i
es un elemento del
conjunto E
i
, es decir:
E
1
E
2
... E
n
= (e
1
, e
2
, ..., e
n
) [ e
1
E
1
, . . . , e
i
E
i
, . . . , e
n
E
n

Ejemplo 0.46. El producto cartesiano de dos conjuntos A y B, es el conjunto


de pares ordenados de elementos de A y B:
A B = (a, b) [ a A, b B,
Alternativamente, un mapeo puede entenderse tambien como un producto
cartesiano de dos conjuntos desde las primeras entradas representan el dominion
de la funci on y la segunda entrada el codominio. Un caso especial del producto
cartesiano es cuando todos los conjuntos son iguales, E = E
1
= E
2
= = E
n
.
Entonces, el producto cartesiano E E E se denota por E
n
, y se nombra
la potencia n-esima del conjunto E : E
n
= (e
1
, e
2
, ..., e
n
) [ e
i
E.
Ejemplo 0.47. El Espacio Vectorial Euclidiano
n
es un ejemplo bien conocido
de la potencia de un conjunto,
n
= = (a
1
, . . . , a
n
) [ a
i
para todo
i 1, . . . , n. En particular, tenemos el Plano Euclidiano
2
= = (a, b) [
a, b .
Partiendo ahora del concepto de producto cartesiano podemos denir el im-
portante concepto de relacion, el cual es b asico para el algebra. Una relacion es
b asicamente un subconjunto del producto cartesiano, formalmente se dene como:
Definici on 0.48. Sean E
1
, . . . , E
n
, conjuntos y E = E
1
E
2
E
n
el
conjunto cartesiano de estos. Una relaci on sobre E es un subconjunto de E.
En particular, si todos los conjuntos E son los mismos, para un conjunto E =
EE...E, cualquier subconjunto de la potencia n-esima de E se llama relaci on
n- aria sobre E. Ver gura 5.
El caso mas importante es el caso n = 2, la relacion se llama entonces relacion
binaria sobre E. Si denotamos la relacion por , entonces E E, as que
es un conjunto de pares ordenadas (a, b) con a, b E. En lugar de (a, b) se
usa tambien la notaci on ab o, se usa un smbolo apropiado, por ejemplo a b o
a b o a | b o a b.
5. PRODUCTO CARTESIANO Y RELACIONES 9
Figure 5. Una relacion es representada aqu de dos formas.
La relacion representada es una relacion entre n umeros que esta
dada por (0,2), (1,1), (2,0), (2,2), (3,4), (6, 6), (7,6), (7,8), (7,9).
Observese que a diferencia de los mapeos, una relacion es muy
general y no guarda reglas especiales.
Notaci on 0.49. En lo que sigue vamos a denotar una relaci on indistintamente
como o . As, a est a relacionado con b, se denota como ab o a b.
Ejemplo 0.50. Tomemos el conjunto de los reales y sean a, b . Decimos
que a y b estan relacionados a b si a es menor que b. En vez de a b escribimos
a < b y a lo denotamos por <.
Por otro lado, existe una clasicacion de las relaciones dada por sus propiedades.
Esta clasicacion es:
Definici on 0.51. Una relaci on binaria sobre un conjunto E se llama
reexiva si (x, x) , para todo x E;
antireexiva si no existe x E tal que (x, x) ;
simetrica si, para x, y E, (x, y) implica (y, x) ;
antisimetrica si, para x, y E, cuando (x, y) y (y, x) entonces
se sigue x = y ;
transitiva si, para x, y, z E, cuando (x, y) y (y, z) entonces se
sigue (x, z) ;
relaci on de equivalencia si es reexiva, simetrica y transitiva.
Ejemplo 0.52. La relaci on en dada por <, no es reexiva, ya que un n umero
no puede ser menor a si mismo, esto es, < es antireexiva. Tampoco es simetrica,
ya que si a < b, se sigue que b no puede ser menor que a. < no puede ser anti-
simetrica porque no es antireexiva, pero si es antisimetrica. < y son transi-
tivas.
10
Las relaciones de equivalencia tienen una gran importancia, debido a que dan
lugar a una descomposicion del conjunto en donde se denen en clases. Esta descom-
posicion separa los conjuntos en subconjuntos disjuntos dando as una clasicacion
natural del conjunto con esta propiedad. Es por eso que las clases de equivalencia
son muy importantes en matematicas. Por ejemplo, esta descomposicion es la base
de la construcci on de estructuras cocientes. Veamos esto en la siguiente denicion.
Definici on 0.53. Sea una relaci on de equivalencia sobre E. Para x E, la
clase de equivalencia de x se dene como [x] = y E [ x y. El conjunto c
de todas las clases de equivalencia se llama el conjunto cociente de c, el cual se
denota tambien por E/ , vean la gura 6:
Figure 6. Una relacion de equivalencia separa los conjuntos en
subconjuntos disjuntos, solo relacionados por la relaci on de equiv-
alencia. Es una manera de clasicar conjuntos en sus partes.
c = E/ = [x] [ x E = y E [ y x [ x E
Debido a la reexividad de una relacion de equivalencia sobre E, la clase
[x] es un conjunto no vaco pues contiene a x. Es evidente que toda clase [x] es
un subconjunto de E. Por lo tanto, la union de todas las clases de equivalencia
es igual al conjunto E. Aplicando la simetra de , es claro que, para x, y E,
x y implica que tanto x [y] como tambien y [x]. Tomando en cuenta ademas
la transitividad de la relacion, es facil deducir que [x] = [y] s y solo s x y.
Observese tambien que clases distintas de equivalencia son disjuntas entre s, en
resumen podemos escribir esto en el siguente lema.
Lema 0.54. Si es una relaci on de equivalencia sobre E, y [x] es la clase de
equivalencia de x, para x E, entonces
a) x [x];
b) x y s y s olo s [x] = [y] , para x, y E;
c) si [x] ,= [y] entonces [x] [y] = , para x, y E.
6. OPERACIONES 11
Como consecuencia de estas propiedades, el conjunto cociente E/ es una
descomposicion del conjunto E, es decir, E/ = [x] [ x E es un conjunto de
subconjuntos de E, los cuales son disjuntos por parejas y cuya union es igual a E.
Ejercicio 0.55. Demuestra con detalle el lema 0.54.
Ejemplo 0.56. Sea x, y Z , el conjunto de los n umeros enteros, y sea
5
la relaci on dada por x
5
y si x/5 y y/5 tienen el mismo residuo, formalmente
si existen representaciones x = k 5 r , y = l 5 r, con n umeros enteros
k y l ( r es el residuo). Tenemos por ejemplo 0
5
5
5
10
5
20
5
15;
3
5
13
5
2
5
23
5
588. Es f acil ver que
5
es una relaci on de equivalencia.
Entonces, cada clase de equivalencia de esta relaci on tiene una forma [r] = x [ x/5
deja el residuo r, lo cual es el conjunto de todos los n umeros enteros representables
como k5r, para alg un n umero entero apropiado k. Resulta que solamente hay cinco
clases de equivalencia, dadas por [0], [1], [2], [3], [4]. En particular, la clase [0] es el
conjunto de todos los n umeros enteros que son multiples de 5.
6. Operaciones
El algebra abstracta se basa en propiedades de operaciones entre los elementos
de un conjunto. Por eso, aqu repasamos y formalizamos conceptos elementales
relacionados con operaciones.
Definici on 0.57. Sea E un conjunto. Una operaci on (binaria) sobre E es
un mapeo : E E E, con D

= E E.
Notaci on 0.58. Para denotar una operaci on, usualmente se usa un smbolo
apropiado, por ejemplo +, , , .
Las operaci ones son clasicadas segun sus propiedades. Estas propiedades son
fundamentales y denen muchas veces a la operaci on misma. Seg un las propiedades
de las operaciones se van a denir las estructuras algebraicas. Estas propiedades
son:
Definici on 0.59. Una operaci on se llama
Asociativa si ((a, b), c) = (a, (b, c)), a, b, c E
Conmutativa si (a, b) = (b, a) a, b E
Con elemento neutro si existe e E tal que (a, e) = (e, a) = a para
toda a E
Invertible por la izquierda si para todo b, c E, existe a E tal que
(a, b) = c
Invertible por la derecha si para todo b, c E, existe a E tal que
(b, a) = c
Ejemplo 0.60. Tomemos de nuevo los n umeros reales . La operaci on + :
, con +(a, b) = a +b, es tal que para todo a, b, c , se tiene que +:
Es Asociativa ya que +(+(a, b), c) = +(a +b, c) = (a +b) +c = a +(b +c) =
(a, (b, c)), a, b, c E
Es Conmutativa ya que +(a, b) = +(b, a)
Existe 0, elemento neutro tal que +(a, 0) = +(0, a) = a
Es Invertible por la izquierda y por la izquierda ya que existe siempre un
n umero tal que +(a, b) = +(b, a) = c
12
Comentario 0.61. .
a) Cada operaci on binaria, tiene maximalmente un elemento neutro. Para
demostrar esto, supongamos que tiene dos elementos neutros e
1
y e
2
. Entonces
(e
1
, e
2
) = e
1
y (e
2
, e
1
) = e
2
, pero debido a que e
1
y e
2
son neutros, se obtiene
e
1
= e
2
.
b) Otra manera de entender que signica que es invertible por la izquierda
es la siguiente. Sean b, c E y consideremos a x como una incognita. Entonces
es invertible por la izquierda si la ecuaci on (x, b) = c siempre se puede resolver.
En particular esto sucede para el caso especial c = e (para el neutro de ), as que
para cualquier b E, existe a E tal que (a, b) = e. Al elemento a se le llama el
elemento inverso izquierdo de b.
c) An alogamente, es invertible por la derecha signica que la ecuaci on (b, x) =
c, con b, c E para una incognita x, siempre se puede resolver. O sea, existe a E
tal que (b, a) = e. A este elemento a se le llama el elemento inverso derecho de b.
Si la operaci on es invertible (por la izquierda en este caso), implica que existe
x = b
1
que cumple con esta identidad. b
1
es la expresi on que se acostumbra para
denotar el inverso de b.
7. El Conjunto Ordenado
En esta secci on veremos a los n umeros reales como un conjunto ordenado, el
orden en estos n umeros es de suma importancia, por eso que les dedicamos una
secci on especial. Los n umeros reales son conjuntos ordenados y las operaciones en
se portan bien con respecto al orden. Para comenzar, daremos la denicion de
que signica ordenado. Es un concepto que utilizamos mucho, pero necesita una
denicion formal. Veamos esto:
Definici on 0.62. Si A es un conjunto y es una relaci on binaria, reexiva,
antisimetrica y transitiva sobre A, entonces se llama orden parcial sobre A, y
(A, ) se llama conjunto parcialmente ordenado.
Como vemos, esta denicion se puede aplicar a cualquier conjunto no necesari-
amente de n umeros, el orden parcial es un concepto muy general. En los n umeros
naturales, enteros, racionales, y reales, con su orden parcial en denido por
x y s y solo s existe k , k 0 tal que x + k = y, todos los n umeros estan
ralacionados entre si, es decir, para cualesquiera dos n umeros x, y , o vale x y o
bien y x.
Definici on 0.63. Un orden parcial sobre A se llama orden (lineal) si para
todo a, b A se sigue a b o b a.
Notaci on 0.64. Para efectuar c alculos en (, +, , ), usaremos la notaci on:
x < y s y s olo s x y y x ,= y.
Comentario 0.65. Obsevemos que
+

0 es una descomposici on de
.
Comentario 0.66. ^
+
y
+
es cerrado bajo las dos operaciones de
(, +, ).
Lema 0.67. Para todo a, b, c , a b implica a +c b +c , y a b y c 0
implica que a c b c. (Monotona de + y ; por eso (, +, , ) se llama campo
ordenado.)
7. EL CONJUNTO ORDENADO 13
Ejercicio 0.68. Demostrar el lema anterior.
Ejercicio 0.69. Demostrar para a, b, c :
a) a b, c d implica a +c b +d (adici on de desigualdades);
b) 0 a b, 0 c d implica a c b d (multiplicaci on de desigualdades);
c) a b implica a b;
d) a ,= 0 implica a
2
> 0.
Aplicando estas sencillas leyes de c alculo y el principio de induccion completa,
se pueden demostrar muchas formulas que valen para los n umeros naturales o
reales. Vamos a ver un ejemplo representativo para recordar el uso de la induccion
matematica.
Ejemplo 0.70. Demostramos que, para todo n umero natural n vale
(0.1)
n

i=1
= 1 + 2 + 3 + +n = 1/2 n (n + 1).
Vamos a demostrarlo por inducci on matem atica.
Primer paso: demostramos que la f ormula es verdad para n = 1 (inicio de la
inducci on): Pues claro,

1
i=1
= 1, y por el otro lado 1/2 1 2 = 1, 1 = 1.
Segundo paso: Suponemos que la f ormula es verdadera para n = k (hip otesis
de inducci on) y asumimos ahora n = k + 1. Hay que demostrar que la f ormula
es verdad para este n (demostraci on de la inducci on), aplicando la hip otesis de
inducci on.
Entonces tenemos la hip otesis

k
i=1
i = 1/2 k (k + 1), y
k+1

i=1
i =
k

i=1
i + (k + 1) por la hip otesis
= 1/2 k (k + 1) + (k + 1)
= (k + 1)(
1
2
k + 1) =
1
2
(k + 1)(k + 2),
lo cual completa la demostraci on.
Ejercicio 0.71. Demostrar por inducci on que:
a) para todo n ^ y x , x > 1, (1 + x)
n
1 + nx ( desigualdad de
Bernoulli);
b) para todo n ^ y x, a , 0 a 1, (1 +a)
n
1 + (2
n
1)a.
En un conjunto ordenado es posible denir un elemento que es mayor a todos o
un elemento que es menor a todos. Estos conceptos son los que denen el maximo
y el mnimo. Su denicion formal es:
Definici on 0.72. Sea a A, A (, ). Se dene el mnimo y el m aximo
de A como
a = minA s y s olo s a b para todo b A,
a = max A s y s olo s b a para todo b A.
Lema 0.73. Para cualquier A , si minA [max A] existe, entonces es unico.
Demostraci on 0.74. Suponemos a = minA, y que existe a

A tal que
a

= min A. Entonces a b para toda b A y a

b para toda b A, en particular


a, a

A, as que a a

y a

a, lo cual implica por la antisimetra de que


a = a

.
14
Notaci on 0.75. Recordamos la notaci on de intervalos en : si a, b , en-
tonces
[a, b] = x [ a x b,
(a, b) = x [ a < x < b,
[a, b) = x [ a x < b,
(a, b] = x [ a < x b.
Adem as se dene usualmente
[a, ) = x [ a x,
(a, ) = x [ a < x,
(, b) = x [ x < b,
(, b] = x [ x b.
Notemos que es un smbolo que en este caso signica muy grande, mas
grande de lo que yo necesito, mas grande de lo que yo quiero, tan grande como sea
necesario. Pero es solo eso, un smbolo, no es un n umero que pertenezca a los
reales.
Ejercicio 0.76. Determinar (si existen) los mnimos y m aximos de los seguientes
subconjuntos de :
M
1
= [230, 500),
M
2
= M
1
Z,
M
3
= (, 0] [3, 4] (45, 2000],
M
4
= (0,

2] Z,
M
5
= [0,

2) Z,
M
6
= [0,

2] Z,
M
7
= (0,

2) Z,
M
8
= [1, ).
Otros conceptos importantes en un conjunto ordenado son el de cota supe-
rior y el de cota inferior. Estos conceptos est an intimamente relacionados con los
anteriores de maximo y mnimo. Su denicion formal es:
Definici on 0.77. Sea S , S ,= y x .
x se llama cota superior de S si y x par toda y S.
x se llama cota inferior de S si y x para toda y S.
S se llama acotado por arriba [por abajo] si S tiene cota superior [inferior].
S se llama acotado si S tiene cota inferior y cota superior.
Notaci on 0.78. Denotamos O
S
= x [ x es cota superior de S, U
S
=
x [ x es cota inferior de S.
Resumen 0.79. De una forma an aloga a la denici on de cota superior y cota
inferior, tambien podemos denir, supremo e nmo del conjunto S, y denotarlos
como supS y inf S, los cuales se denen como:
x = supS s y s olo s x tal que y x para toda y S, y adem as, para
todo z O
S
(es decir, z tal que s z para toda s S) se sigue x z.
x = inf S s y s olo s x tal que y x para toda y S, y adem as, para todo
z U
S
(es decir, z tal que s z para toda s S) se sigue x z.
Comentario 0.80. Algunas observaciones sobre este tema nos ayudaran a
ordenar conceptos:
- Cotas superiores e inferiores pueden no existir
7. EL CONJUNTO ORDENADO 15
- Aunque supS y inf S existen, pueden no pertenecer a S
- Si max S [min S] existe, entonces existe supS [inf S] y supS = max S S
[inf S = minS S].
Ejercicio 0.81. Investigar si los siguientes conjuntos tienen cotas superi-
ores/inferiores, y si los tienen decir cu ales son y determinar, si existen, supremos
e inmos:
C
1
= [1, ),
C
2
= (1, ),
C
3
=
1
n
[ n ^.
Ejercicio 0.82. Demuestrar que, si S y p es una cota superior de S tal
que p S, entonces p = supS.
Part 2

ALGEBRA
CHAPTER 1
ESTRUCTURAS ALGEBRAICAS B

ASICAS
La primera parte de nuestro estudio esta dedicada a las estructuras algebraicas.
En esta parte vamos a iniciar agregandole a los conjuntos operaciones. Primero una,
luego dos y as, varias operaciones. Cuando estas operaciones tienen determinadas
propiedades, estos conjuntos con operaciones denidas en el conjunto reciben difer-
entes nombres. Vamos a iniciar con la estructura mas simple, un conjunto mas una
operaci on, llamada semigrupo. Como esta estructura es tan pobre, (pero impor-
tante), la siguiente sera una estructura con una operaci on, pero con inverso y un
elemento especial, llamado identidad. A esta estructura se le llama grupo. De esta
forma, los conjuntos se van enriqueciendo con operaciones formando estructruas
cada vez mas ricas e interesantes. Luego agregaremos dos, tres y mas operaciones,
aunque aqu solo nos limitaremos a las estructuras mas conocidas y las mas usadas
en las ciencias exactas y en la ingeniera.
1. Grupos y Semigrupos
Los grupos han adquirido suma importancia en muchos campos de aplicacion
de las matematicas. En fsica y qumica la estructura de grupo es fundamental
tanto para entender las simetras en teoras de campo, en teoras de partculas
elementales, como para resolver ecuaciones diferenciales no lineales. Los grupos
son estructuras b asicas de las matematicas. Vamos a iniciar con la denicion de
semigrupo para a partir de esta denicion, dar la denicion de grupo.
Un grupo es un conjunto provisto de una operaci on con ciertas propiedades,
las cuales generalizan de forma abstracta operaciones que nos son familiares desde
ni nos para calcular con n umeros. Antes de denir un grupo, consideramos entonces
un concepto todava mas simple, el de semigrupo:
Definici on 1.1. Un semigrupo es un conjunto E provisto de una operaci on
binaria asociativa sobre E, se donota por (E, ).
El hecho que es una operaci on binaria sobre E signica que, siempre cuando
a, b A, entonces a b A. Veamos unos ejemplos:
Ejemplo 1.2. Sea / = f : A A el conjunto de todos los mapeos del
conjunto A en s mismo, y consideramos la operaci on de composici on (concate-
naci on) entre mapeos, entonces (/, ) es un semigrupo. Observamos que (/, )
adem as tiene un elemento especial: un elemento neutro, el mapeo identidad I
A
denido por I
A
(x) = x para todo x A, pues, denitivamente I
A
f = f I
A
para
cualquier f /.
Notaci on 1.3. Si un semigrupo E tiene un elemento identidad, es decir, si
tiene un elemento e E tal que e a = a para todo a E, el semigrupo se llama
monoide.
19
20 1. ESTRUCTURAS ALGEBRAICAS B

ASICAS
Ejemplo 1.4. Sea A un conjunto arbitrario (por ejemplo, de letras y cifras).
Una secuencia nita de elementos de A la llamamos una palabra sobre A, es decir,
una palabra tiene la forma (a
1
, a
2
, a
3
, ..., a
n
), con n 1, n natural, a
i
A para
todo i. El n umero n es llamado longitud de la palabra. Adicionalmente se considera
la palabra vaca, denotada por y denida como la secuencia de longitud cero (la
cual no contiene ning un elemento). Entonces el conjunto de palabras sobre A est a
dado por E = (a
i
)
n
i=1
, n N, a
i
A para toda i = 1, ..., n . Denimos
ahora la adici on de palabras como:
(a
1
, a
2
, a
3
, ..., a
k
) + (b
1
, b
2
, b
3
, ..., b
l
) = (a
1
, a
2
, a
3
, ..., a
k
, b
1
, b
2
, b
3
, ..., b
l
)
Es evidente que (E, +) es un semigrupo, llamado el semigrupo de las palabras, el
cual tiene importancia b asica en teoras de la computaci on. La adici on + aqui
denidida es claramente no conmutativa y tiene un elemento neutro: la palabra
vaca.
Con esto ya estamos listos para la denicion de grupo.
Definici on 1.5. Un grupo (E, ) es un semigrupo con elemento neutro y ele-
mentos inversos, es decir:
1) (E, ) es semigrupo
2) Existe e E tal que e a = a
3) Para todo a E existe x E tal que x a = e. A x se le denota por a
1
.
Notaci on 1.6. En caso de que la operaci on sea adem as conmutativa, (E, )
se llama grupo Abeliano o grupo conmutativo.
Antes de considerar unos ejemplos de grupos, observamos los siguientes detalles
y propiedades elementales:
Comentario 1.7. Sea E grupo y a E. Seg un la denici on, existe x E tal
que xa = e, es decir, x es un inverso por la izquierda de a. Pero xax = ex = x.
Por otro lado, existe y E tal que y x = e. Eso signica (y x)a x = y x, en
consecuencia e a x = e, entonces a x = e , es decir, x es a la vez inverso por
la derecha de a. El elemento x se llama inverso de a y se denota por a
1
.
Comentario 1.8. En un grupo:
* Para cada a E existe a
1
E tal que a
1
a = a a
1
= e, lo cual signica
que las ecuaciones x a = e y a x = e, con a E, x incognita, siempre se pueden
resolver.
* Para cada a E, su inverso a
1
es determinado de manera unica.
* El elemento neutro tambien es determinado de manera unica. Adem as, seg un
la denici on, el neutro primero es un neutro por la izquierda. Sin embargo, con
e a = a tenemos tambien a e = a (a
1
a) = (a a
1
) a = e a = a, as que, e
es a la vez un neutro por la derecha. En consecuencia:
* Para toda a E, se tiene que e a = a e = a.
* Para a, b, c E, a c = b c implica que a = b, lo cual es f acil de deducir.
* Para a, b E, (a b)
1
= b
1
a
1
, puesto que (b
1
a
1
) (a b) =
b
1
(a
1
a) b = e.
Ahora analizamos unos ejemplos :
Ejemplo 1.9. (Z, +) el conjunto de los n umeros enteros con la suma ordinaria,
es un grupo abeliano. Su neutro es el n umero 0; para cada entero a, su inverso es
2. HOMOMORFISMOS 21
el n umero a. Asimismo, los n umeros racionales Q, los reales , y los complejos
(, cada uno con la suma ordinaria, son grupos abelianos.
Ejemplo 1.10. (Z, ), el conjunto de los enteros con el producto ordinario, es
un semigrupo conmutativo, cuyo neutro es el n umero 1. Sin embargo, no es un
grupo, puesto que para cualquier entero a diferente de 1, su inverso multiplicativo
sera el n umero a
1
=
1
a
, el cual no es entero y el 0 no tiene inverso.
Ejemplo 1.11. El conjunto Q de los racionales, igualmente como el de los
reales y el de los complejos (, con el producto ordinario , son semigrupos
conmutativos con el neutro 1, pero no son grupos. Eso se debe a que el n umero 0,
el cual es el neutro aditivo, no tiene inverso multiplicativo, puesto que
1
0
no es un
n umero. Por otro lado, es evidentemente que (Q 0, ), ( 0, ) y (( 0, )
son grupos abelianos.
Ejemplo 1.12. Sea A un conjunto y T = f : A A, biyectiva, el conjunto
de los mapeos biyectivos de A en s mismo. Entonces (T, ) con la operaci on de
la composici on, es un grupo, en general este grupo no es abeliano. El neutro de
este grupo (su unidad) es el mapeo identico I
A
: A A denido por I
A
(x) = x
para toda x A. El elemento inverso para cada f T es el mapeo inverso f
1
,
cuya existencia est a asegurada para cualquier biyecci on. (T, ) se llama el grupo
de permutaciones del conjunto A, cada f T es llamado una permutaci on de A.
Ejercicio 1.13. .
1) Demuestre que Z
2
= (1, 1, ) es un grupo.
2) Sea el conjunto A = a, b, c. Dena un producto + en A de tal forma que
(A, +) sea un grupo.
3) Se puede denir + de tal forma que (A, +) sea abeliano?
Ejercicio 1.14. Sea O(n) = O [ O es matriz n n con O
T
= O
1
. De-
muestre que este conjunto es un grupo con la multiplicaci on de matrices.
Ejercicio 1.15. Sea el conjunto SU(2) = U [ U es matriz 2 2 compleja
U =
_
a b
c d
_
, con d = a

y c = b

, donde * signica complejo conjugado.


Demuestre que SU(2) es un grupo con el producto entre matrices. Observe que
det U = 1.
2. Homomorsmos
Las estructuras algebraicas suelen tener semejanzas entre ellas. Estas semejan-
zas se representan en matematicas utilizando el concepto de mapeos muy epeciales
llamados morsmo. Los morsmos nos sirven para relacionar conjuntos con estruc-
turas entre s, de tal forma que con estos morsmo, uno puede estudiar propiedades
de alg un conjunto usando otro, en donde estas propiedades sean mas simples de
entender. En esta secci on daremos solo la denicion de estos morsmos para grupos.
Definici on 1.16. Sean (E, ) y (F, ) grupos y f : E F. f se llama homo-
morsmo si f(a b) = f(a) f(b) para toda a, b E
Un homomorsmo se llama
monomorsmo si f es mapeo 1 1
epimorsmo si f es mapeo sobre
isomorsmo si f es biyectiva
automorsmo de E si f es isomosmo y f : E E.
22 1. ESTRUCTURAS ALGEBRAICAS B

ASICAS
Ejemplo 1.17. Sea el conjunto Z
2
= k
0
, k
1
con el producto + denido por
k
0
+k
0
= k
0
, k
0
+k
1
= k
1
, k
1
+k
0
= k
1
y k
1
+k
1
= k
0
. Es f acil ver que (Z
2
, +) es
un grupo. Ahora tomemos la funci on f : Z
2
Z
2
, tal que f(k
0
) = 1 y f(k
1
) = 1.
Entonces se tiene que
f(k
0
+k
0
) = f(k
0
) = 1 = 1 1 = f(k
0
) f(k
0
)
f(k
0
+k
1
) = f(k
1
) = 1 = 1 (1) = f(k
0
) f(k
1
)
f(k
1
+k
0
) = f(k
1
) = 1 = (1) 1 = f(k
1
) f(k
0
)
f(k
1
+k
1
) = f(k
0
) = 1 = (1) (1) = f(k
1
) f(k
1
)
Por lo que f es un homomorsmo entre los grupos (Z
2
, +) y (Z
2
, ). Adem as es un
homomorsmo 1-1, por lo que es un monomorsmo, y es sobre, entonces tambien
es un epimorsmo, por lo que f es un isomorsmo entre estos dos grupos.
3. Subgrupos y Grupos cociente
Los subconjuntos de un conjunto A con estructura de grupo, no necesariamente
son grupos. Eso es facil verlo, ya que si, por ejemplo, un subconjunto de A no
contiene el neutro o no tiene los inversos de todos los elementos del subconjunto, este
no sera grupo. Sin embargo, si en este subconjunto se tiene tambien la estructura de
grupo con la misma operaci on binaria que el original, entonces se sigue la siguiente
denicion.
Definici on 1.18. Sea A B. Se dice que A es un subgrupo de (B, ) si (A, )
tambien es grupo, si (B, ) conserva el mismo elemento neutro de (A, )
Comentario 1.19. El producto del grupo (A, ) y (B, ) podran no ser el
mismo, si no lo especicamos as. Sin embargo, en este texto siempre sobre en-
tenderemos que ambos grupos conserven la misma operaci on binaria.
Notaci on 1.20. Si el conjunto A es subgrupo del conjunto B, lo vamos a
denotar como A
gr
B.
Ahora vamos a introducir un concepto muy importante en los grupos que de-
spues extederemos para los anillos, es el concepto de grupo cociente. Primero vamos
a introducir una ralacion de equivalencia en el grupo, con ella, el conjunto se separa
en clases de equivalencia formando el conjunto de las clases. Luego podemos denir
en ciertas ocaciones una operaci on en el conjunto de las clases y con este fomar de
nuevo un grupo. A este grupo lo llamaremos grupo cociente. Vamos a hacerlo
formalmente.
Definici on 1.21. Sea (E, ) grupo y H subgrupo de E es decir H
gr
E y sean
a, b E. La relaci on
H
se dene como
a
H
b a b
1
H
Lema 1.22.
H
es una relaci on de equivalencia.
Demostraci on 1.23. Chequemos que se cumple la denici on de relaci on de
equivalencia.
1) e H porque H es subgrupo de E. Adem as si a H esto implica que
a
1
H por lo mismo. Se sigue que e H sii a a
1
H, esto implica que
a
H
a o sea
H
es reexiva.
3. SUBGRUPOS Y GRUPOS COCIENTE 23
2) Sean a
H
b, por denici on esto es sii a b
1
H. Por ser subgrupo se
sigue que (a b
1
)
1
H y esto es sii b a
1
H, lo que implica que b
H
a, es
decir
H
es simetrica.
3) Sean a
H
b y b
H
c. Esto implica que a b
1
H y b c
1
H. Pero H
es cerrado bajo , por lo que (a b
1
) (b c
1
) = a e c
1
= a c
1
H es decir
a
H
c, lo que implica que
H
es transitiva.
Corolario 1.24.
H
genera una descomposici on de E en clases de equivalen-
cia. Es decir E/
H
= [a] [ a E.
Notaci on 1.25. Vamos a denotar a estas clases de equivalencia como: [a] =
not
k
a
y al conjunto de clases de equivalencia como: E/
H
=
not
/ = k
a
[ a E
Ejemplo 1.26. Unos ejemplos muy interesantes son los siguientes:
1) k
e
= b E [ e
H
b e b
1
= b
1
H = H
2) k
a
= b E [ a
H
b b a
1
= h H
= b E [ b = ha = h a E [ h H =
not
H a
donde la ultima identidad es la notaci on que usaremos para este conjunto.
Para poder denir una estructura de grupo en el conjunto de las clases, es
necesario que el grupo original tenga una propiedad mas. Esta propiedad es la
siguiente.
Definici on 1.27. Un subgrupo H E tal que a H = H a para toda a E
se llama subgrupo normal de E.
Observemos primero que si el grupo original es abeliano, entonces todos su
subgrupos son normales. Pero si el grupo no es abeliano, hay que enteder con
cuidado la denicion anterior. El hecho de que a H = H a implica que si tomamos
el elemento a h, siendo h H, tiene que haber alg un elemento en h
1
H a, donde
h
1
no necesariamente es h
1
= h a, pero tal que a h = h
1
. Y viceversa, si tomamos
h a, entonces existe h
2
a H tal que h a = h
2
. Si siempre existen estos elementos
h
1
y h
2
para todo h H, el grupo es normal. Entonces podemos dar la estructura
de grupo al conjunto / de las clases usando la siguiente denicion:
Definici on 1.28. Sean k
a
, k
b
/ clases de E generadas por
H
. Se dene el
producto
k
a
k
b
= x y [ x k
a
/, y k
b
/
como el producto entre clases de equivalencia.
Con este producto se pueden denir a la vez una estructura de grupo en el
conjunto de las clases de equivalencia, usando la siguiente proposicion.
Proposici on 1.29. Sea E grupo y H un subgrupo normal de E. Sean k
a
/
las clases generadas por
H
con a E. Con el producto k
a
k
b
= k
ab
, se sigue que
(E/
H
, ) es grupo i.e. (/,) es un grupo.
Demostraci on 1.30. Chequemos que se cumple la denici on de grupo.
a)k
a
k
b
/ ya que (H a) (H b) = H (a H) b = H H a b = H a b
(ya que H H = H), se sigue que. k
a
k
b
= k
ab
/
b)(k
a
k
b
) k
c
= (H a H b) H c = H a (H b H c)
c) k
e
/ y es el neutro del grupo, ya quek
a
k
e
= k
ae
= k
a
d) k
a
k
a
1 = k
aa
1 = k
e

24 1. ESTRUCTURAS ALGEBRAICAS B

ASICAS
Notaci on 1.31. Al grupo / se le denota como / = E/H y se le llama el grupo
cociente de E por H.
El siguiente ejemplo nos dar a mayor claridad sobre las deniciones anteriores.
Ejemplo 1.32. Sea (Z, +) y H = 2n [ n Z, el grupo de los enteros pares.
Entonces (H, +) es subgrupo normal de (Z, +). Veamos esto con detalle.
Observemos que la relaci on
H
para los elementos a, b Z es tal que si a
H
b,
se tiene que a +(b) H, lo cual implica que a b debe estar en H, es decir, debe
ser par. Pero esto solo pasa si ambos a y b son pares o ambos son impares. Vamos
a denir las clases de equivalencia de los pares y las clases de equivalencia de los
impares en los enteros como:
k
0
= b Z [ b
H
0 = H
k
1
= b Z [ b
H
1 = 2n + 1, n Z
k
2
= H
es decir, / = k
0
, k
1
. Observemos que con la suma (el producto de grupo)
k
0
k
1
=
_
_
_
k
0
k
1
k
0
k
0
k
1
k
1
k
1
k
2
= k
0
(/, ) es un grupo. Pero ya habiamos visto en el ejemplo 1.17 que este grupo es
isomorfo a Z
2
, por lo que Z/H = Z
2
= Z/2n [ n Z.
Ejercicio 1.33. Construir Z
3
= Z/multiplos de 3 y Z
4
= Z/multiplos de 4.
4. Anillos y Campos
Otras estructuras algebraicas de mucha importancia son los anillos y los cam-
pos. En esta secci on veremos la denicion de estos.
Definici on 1.34. Sea A conjunto y , + operaciones binarias sobre A es decir
: A A A y + : A A A.
A la triada (A, +, ) se le llama anillo si
1) (A, +) es grupo abeliano
2) (A, ) es semigrupo
3) + y son distributivos
Comentario 1.35. Explcitamente, un conjunto con las operaciones + y es
un anillo, si se cumple lo siguiente
1) Para toda a, b A, a +b A es asociativo.
2) Existe e tal que e + a = a +e = a para toda a A.A e tambien se le llama
el cero de A y se le denota por e = 0
3) Para toda a A existe a tal que a + (a) = 0
4) a +b = b +a para todos a, b A
5) a, b A, se sigue que a b A, es decir, el producto es asociativo
6) Para toda a, b, c A se tiene que el producto es distributivo por la izquierda
con la suma, es decir c (a +b) = c a +c b
7) Analogamente por la derecha, esto es (a +b) c = a c +b c
Ejemplo 1.36. (0, +, ) es un anillo trivial
(Z, +, ) es el anillo de los enteros
(, +, ) es el anillo de los reales
4. ANILLOS Y CAMPOS 25
Ejercicio 1.37. Demuestre que (Z, +, ) y (, +, ) son anillos.
Entre mas ricas sean las estructuras algebraicas, mas propiedades tienen. Ahora
veremos alg unas de las propiedades mas interesantes de los anillos.
Sea (A, +, ) anillo y 0 el neutro de la operaci on binaria +. Entonces se siguen
los siguientes lemas.
Lema 1.38. Para todo a A implica que a 0 = 0 a = 0
Demostraci on 1.39. Como a0 = a(0+0) = a0+a0, y 0 = (a0)+a0 =
(a 0) +a 0 +a 0, entonces 0 = a 0
Lema 1.40. (a) b = (a b) y a (b) = (a b)
Demostraci on 1.41. Ya que (a b) + (a) b = (a + (a)) b = 0 b = 0
Lema 1.42. (a) (b) = a b
Demostraci on 1.43. An alogo.
Las propiedades anteriores son bien conocidas en los n umeros reales, pero se
cumplen en cualquier anillo. Algunos de los tipos especiales de anillos mas usados
en la literatura son los siguientes
Sea (A, +, ) anillo
Definici on 1.44. Un anillo (A, +, ) se llama:
Anillo conmutativo, si es conmutativo
Anillo con unidad, si A tiene al menos 2 elementos y tiene elemento
neutro (llamado 1).
Anillo sin divisores de cero, si A tiene al menos 2 elementos y a ,= 0 y
b ,= 0 implica que a b ,= 0 para todos a, b A
Dominio integral, si A es anillo conmutativo, con unidad, sin divisores de
cero.
Campo si A es anillo sin divisores de cero cuyo semigrupo multiplicativo
(A0, ) es grupo abeliano.
Semicampo si A es anillo sin divisores de cero cuyo semigrupo multiplicativo
(A0, ) es grupo no abeliano.
Ejercicio 1.45. .
1) Exprese explcitamente todas la propiedades de un campo.
2) Demuestre que (Z, +, ), (Q, +, ), (, +, ), ((, +, ), son anillos conmutativos
con unidad sin divisores de cero.
3) Demuestre que (Q, +, ), (, +, ) y ((, +, ), son campos.
4) Demuestre que (2n [ n Z, +, ) es anillo conmutativo sin unidad sin
divisores de cero.
De forma analoga a como denimos subgrupo, se puede denir subanillo.
Definici on 1.46. Sea E A. (E, +, ) es un subanillo de A, si E es anillo
con el mismo neutros multiplicativo y aditivo de A.
26 1. ESTRUCTURAS ALGEBRAICAS B

ASICAS
5. Ideales y Anillos Cociente
En una secci on anterior denimos los grupos cociente. Analogamente vamos a
denir ahora los anillos cociente y alg unas de sus propiedades mas interesantes.
Sean (A, +, ) anillo y (H, +, ) un subanillo de A. Claramente se tiene que
(H, +) tiene que ser subgrupo abeliano de (A, +). Pero si (H, +) es abeliano, esto
implica que (H, +) es un subgrupo normal de (A, +). Entonces podemos construir
(A, +)/
H
= A/H = /. Si k
a
, k
b
/, se tiene que
k
a
k
b
= m+n [ m k
a
, n k
b
= k
a+b
Analogamente denimos en el semigrupo (H, )
k
a
k
b
= m n [ m k
a
, n k
b

= m n [ m H +a, n H +b
= (k
1
+a) (k
2
+b) = k
1
k
2
+k
1
b +a k
2
+a b, k
1
, k
2
H
Proposici on 1.47. Sea (A, +, ) anillo y H A subanillo de A y sean a A
y h H. Entonces la triada (A/
H
, , ) es un anillo si a h H y h a H, con
k
a
k
b
= k
a+b
k
a
k
b
= k
ab
= h +a b, h H = H +ab
Ejercicio 1.48. Probar la proposici on formalmente.
Notaci on 1.49. Al anillo (A/H, +, ) se le llama anillo cociente y a H se le
llama un ideal en A.
Ejemplo 1.50. Sea el anillo (Z, +, ). El conjunto H = (3n [ n Z, +, ) es
un ideal de Z. Para ver esto, primero veamos que H es un subanillo de Z :
1) H es cerrado para la suma, ya que 3n + 3m = 3(n +m) H.
2) Con inversos, ya que (3n) = 3(n) H.
3) H es cerrado para el producto, ya que 3n 3m = 3(3nm) H.
Entonces H es subanillo de Z. Adem as: + y son asociativos. El neutro de la
suma es 0 = 3 0
Comentario 1.51. (H, +, ) es anillo conmutativo sin divisores de cero, pero
no tiene unidad, ya que (1 ,= 3n).
Ejemplo 1.52. Ahora chequemos que H es ideal. Para ver esto, falta ver que
el producto de un elemento de H con cualquier elemento de Z pertenece a H. Pero
esto es asi, ya que (3n) m = 3(nm) H. Entonces Z
3
= (Z/H, +, ) es un
anillo cociente. Ahora veamos como se ve este anillo cociente. Los elementos k
a
se
pueden escribir como: a, b Z, a
H
b ssi a b H, es decir ssi a b es multiplo
de 3 y esto es ssi a y b dejan el mismo resto en sus divisores entre 3, es decir, si
a = 3l
1
+r, y b = 3l
2
+r. Entonces se tiene que,
k
0
= H
k
1
= 3n + 1 [ n Z
k
2
= 3n + 2 [ n Z
k
3n
= k
0
, k
3n+1
= k
1
, k
3n+2
= k
2
5. IDEALES Y ANILLOS COCIENTE 27
Si las operaciones entre las clases de equivalencia est an dadas por
k
a
k
b
= k
a+b
k
a
k
b
= k
ab
se tiene entonces que la suma y el producto est an dados respectivamente por
k
a
k
b
=
_

_
k
0
k
1
k
2
k
0
k
0
k
1
k
2
k
1
k
1
k
2
k
0
k
2
k
2
k
0
k
1
y
k
a
k
b
=
_

_
k
0
k
1
k
2
k
0
k
0
k
0
k
0
k
1
k
0
k
1
k
2
k
2
k
0
k
2
k
1
Por lo que H es un ideal.
Ejercicio 1.53. Respondan sin pruebas explicitas a las siguientes preguntas.
1) Cu ales de los anillos Z
2
, Z
3
, Z
4
no tienen divisores de cero?
2) Cu ales si tienen divisi on entre cero?
3) Cu ales son campos?
Ejercicio 1.54. Construya explicitamente los ideales de Z
4
CHAPTER 2
ESPACIOS VECTORIALES
Los espacios vectoriales son la estructura mas rica que vamos a ver aqu con
detalle. Los espacios vectoriales son tan importantes en fsica, qumica, ingeniera,
etc. que les vamos a dedicar un capitulo completo a ellos solos. Los espacios
vectoriales mas conocidos son los que se construyen sobre
n
. En este captulo
vamos a repasar estos espacios y despues vamos a generalizarlos a espacio vectoriales
arbitrarios. Estamos suponiendo que el lector esta familiarizado con
n
, pero para
iniciar el tema, vamos a dar un resumen de sus propiedades mas importantes.
1. El Espacio Vectorial
n
Resumen 2.1. Recordemos que el espacio vectorial
n
, o escrito explicitamente
(
n
, , +, ), es una estructura algebr aica, denida sobre los reales, tal que:
(, +, ) es un campo que con la operaci on + es grupo Abeliano, con neutro
0

y distributividad entre + y , y con la operacion , (0

, ) es grupo Abeliano,
con neutro 1

sin divisores de cero: a ,= 0

, b ,= 0

a b ,= 0

(
n
, +, ) es espacio vectorial sobre (, +, ) tal que (
n
, +) son grupos
Abelianos con neutro 0

n
(
n
, ) es un mapeo de
n
en
n
(es un nuevo tipo de multiplicaci on);
es distributiva con + y asociativa con , es decir, si se tiene que, a, b , x, y
n
entonces:
a (x +y) = (a x) + (a y)
(a +b) x = (a x) + (b x)
(a b) x = a (b x)
tiene neutro representado por 1

y cumple que 1

x = x para todo x V.
En otras palabras, (
n
, , +, ) es un espacio vectorial sobre el campo (, +, ),
donde para x, y
n
, x = (x
1
, x
2
, , x
n
), y = (y
1
, y
2
, , y
n
) se tiene:
(1) x +y = (x
1
+y
1
, x
2
+y
2
, , x
n
+y
n
),
(2) 0

n = (0, 0, , 0),
(3) (x
1
, x
2
, , x
n
) = (x
1
, x
2
, , x
n
),
(4) es la multiplicaci on de escalares con vectores, para k , k
(x
1
, x
2
, , x
n
) = (k x
1
, k x
2
, , k x
n
).
Otros conceptos importantes a recordar de espacios vectoriales son:
Un subespacio vectorial H de
n
es un espacio vectorial tal que H
n
, y
(H, , +, ) mismo es un espacio vectorial.
La interpretaci on geometrica de un punto en
n
se suele dar de la forma
siguiente. Un punto x
n
es un vector de traslaci on, determinado por valor y
direcci on y representado por una echa.
Los Homomorsmos son mapeos lineales entre espacios vectoriales (
n
, , +, )
y (
m
, , +, ) sobre el mismo campo :
29
30 2. ESPACIOS VECTORIALES
Sean (
n
,
1
, +
1
,
1
) y (
m
,
1
, +
2
,
2
) espacios vectoriales y f :
n

m
una funci on entre estos espacios. f se llama homomorsmo si f(x+
1
y) = f(x) +
2
f(y) y f(a
1
x) = a
2
f(x), para cualesquiera x, y
n
, a . f se llama
isomorsmo si es homomorsmo y biyecci on.
Independencia y bases en (
n
, +, ) sobre el campo . Si X
n
, entonces
L(X) =
m

i=1
a
i
x
i
[ a
i
, x
1
, , x
m
elementos distintos de
n
, m ^
se llama cerradura lineal de X. L(X) es el subespacio m as peque no de
n
que
contiene a X. X se llama linealmente independiente si para cualesquiera ele-
mentos distintos x
1
, , x
m
de X,
0
V
=
m

i=1
a
i
x
i
con a
i
K implica a
1
= a
2
= = a
m
= 0
K
.
X se llama base de
n
si X es linealmente independiente y L(X) =
n
.
Cada espacio vectorial
n
tiene una base y cualesquiera dos bases tienen el
mismo n umero n de elementos. Este n umero n se llama dimensi on (vectorial)
de
n
. Por ejemplo dim(
n
) = n. La base canonica de
n
es
(1, 0, , 0, 0), (0, 1, , 0, 0), , (0, 0, , 0, 1, 0), (0, 0, , 0, 1)
Hasta aqu hemos recordado las propiedades mas importantes de
n
, en ade-
lante hablaremos de los espacios vectoriales en general.
2. Denicion de Espacio Vectorial
Los espacios vectoriales son de las estructuras algebraicas mas utilizadas en
todas las ramas de la ciencia. En fsica e ingeniera se utilizan intensamente para
modelar el espacio, las funciones periodicas, soluciones de ecuaciones lineales y
diferenciales, los polinomios, etc. Debido a su rica estructura algebraica, los espacios
vectoriales son tambien muy interesantes para estudiarse desde el punto de vista
matematico puro. En este capitulo estudiaremos los espacios vectoriales y sus
propiedades mas importantes. Empecemos entonces con su denicion.
Definici on 2.2. Sea (K, +, ) campo y V conjunto. Sean : V V V y
: K V V operaciones binarias asociativas y distributivas, i.e., se tiene que
para todo a, b K y x, y V .
a) (a b) x = a (b x)
b) (a +b) x = (a x) (b x).
c) a (x y) = (a x) (a y)
Un espacio vectorial es el ordenamiento (K, V, , ) tal que (V, ) es grupo
abeliano y la identidad 1
K
de K es tal que 1
K
x = x para toda x V .
El ejemplo mas conocido y mas utilizado por todos es sin duda el espacio
vectorial
n
. Sin embargo, un caso mas general se puede construir con el producto
cartesiano del campo sobre el que se dene el espacio vectorial.
Ejemplo 2.3. Sea V = K
n
= K K K = (a
1
, , a
n
) [ a
i
K para
toda i = 1, , n. Si x = (a
1
, , a
n
) y y = (b
1
, , b
n
), se pueden denir
la suma como x y = (a
1
+b
1
, , a
n
+ b
n
)
el producto como a x = (a a
1
, , a a
n
)
3. SUBESPACIOS VECTORIALES 31
entonces (V, ) es grupo abeliano con neutro 0
V
= (0, , 0) e inverso (x) =
(a
1
, , a
n
).
Uno de los espacios vectoriales mas usados y mas importantes que se utiliza en
todas las areas de la ingeniera, fsica, matematicas, etc. son los polinomios. Como
espacios vectoriales estos se pueden denir como seigue.
Ejemplo 2.4. Sea T
n
= a
0
+ a
1
x + a
2
x
2
+ + a
n
x
n
[ a
i
K para todo
i = 1, , n el conjunto de los polinomios sobre el campo K. Si se dene la
suma entre polinomios x, y T
n
, con x = a
0
+ a
1
x + a
2
x
2
+ + a
n
x
n
y
y = b
0
+b
1
x +b
2
x
2
+ +b
n
x
n
como:
x y = (a
0
+b
0
) + (a
1
+b
1
) x + + (a
n
+b
n
) x
n
el producto como
a x = a a
0
+a a
1
x + +a a
n
x
n
entonces (K, T
n
, , ) es un espacio vectoral.
Notaci on 2.5. En lo que sigue, generalmente vamos a denotar las operaciones
y en el espacio vectoral, simplemente como + y respectivemente y al espacio
vectorial simplemente como V .
Ejemplo 2.6. El conjunto de funciones peri odicas F
p
, con la suma y el producto
de funciones, tambien es un espacio vectorial.
Ejercicio 2.7. Demuestre con todo detalle que K
n
es espacio vectorial.
Ejercicio 2.8. Sea P = p(x) [polinomio de grado n. Demuestre que P es
un espacio vectorial con las operaciones estandard entre polinomios.
Ejercicio 2.9. Sea H
1
= h(t) [ h(t) = a
1
cos(t) + a
2
cos
2
(t) + +
a
n
cos
n
(t). Demuestre que H
2
es un espacio vectorial con las operaciones es-
tandard entre polinomios.
Ejercicio 2.10. Sea H
2
= h(t) [ h(t) = a
1
cos(t) + a
2
cos(2t) + +
a
n
cos(nt). Demuestre que H
2
es un espacio vectorial con las operaciones es-
tandard entre polinomios.
3. Subespacios Vectoriales
En la misma forma como hemos denido subgrupos y subanillos, se puede
denir subespacios vectoriales. Este concepto sera el tema de esta secci on. Su
denicion formal es como sigue.
Definici on 2.11. Sea V un espacio vectorial sobre un campo K y H V.
H es un subespacio Vectorial de V, si H es espacio vectorial con las mism as
operaciones binarias.
Para demostrar que un espacio vectorial es subespacio de otro, afortunadamente
no es necesario probar todas las propiedades de espacio vectorial del subconjunto,
es suciente con ver que las dos operaciones del subconjunto son cerradas, esto
es debido a que las operaciones ya cumplen con todas las propiedades de espacio
vectorial de entrada. Esta propiedad la enunciaremos como el siguiente lema.
32 2. ESPACIOS VECTORIALES
Lema 2.12. Sea V espacio vectorial sobre un campo K y H V . H es sube-
spacio Vectorial de V si
1) Para todos h
1
, h
2
H implica que h
1
+h
2
H
2) Para todos a K, h H implica que a h H
Demostraci on 2.13. Se cumplen todas las propiedades de espacio vectorial.

Ejemplo 2.14. Sea el plano


2
y H
1
= (a, b)
2
[ b = ma con m
una recta que pasa por el origen. Veamos que una recta que pasa por el origen
es subespacio vectorial del plano. Usemos el lema anterior. Entonces (a
1
, b
1
) +
(a
2
, b
2
) = (a
1
+ a
2
, ma
1
+ ma
2
) = (a
1
+ a
2
, m(a
1
+ a
2
)) H
1
. Es decir, es
cerrado para la suma. Por otro lado se tiene que a (a
1
, b
2
) = (a a
1
, a b
1
) =
(a a
1
, a (m a
1
)) = (a a
1
, m (a a
1
)) H
1
, por lo que la recta tambien es cerrada
para el producto. Entonces esta recta es un subespacio de
2
.
Ejemplo 2.15. Sea H
2
= (a, b)
2
[ b = ma + n, con m, n pero
m n ,= 0 una recta que no pasa por el origen. Es H
2

2
un subespacio vectorial
del plano? Veamos esto, si (a
1
, b
1
) + (a
2
, b
2
) = (a
1
+ a
2
, m(a
1
+ a
2
) + 2n) / H
2
,
este punto no est a en la misma recta. Entonces una recta que no pasa por el origen
no es subespacio vectorial de plano.
Ejemplo 2.16. Sea H
3
= (a, b)
2
[ b = na Es H
1
H
3

2
un
subespacio vectorial del plano? Para ver esto, sean x
1
= (a
1
, b
1
) H
1
y x
2
=
(a
2
, b
2
) H
3
, entonces se tiene que x
1
+ x
2
= (a
1
+ a
2
, ma
1
+ na
2
) / H
1
H
3
,
el cual no est a en la uni on. Por lo tanto H
1
H
3
no es subespacio vectorial del
plano.
Generalmente la union de espacios vectoriales no siempre es un espacio vecto-
rial, pero la interseccion s, ya que si
1) x, y H
1
H
2
esto implica que x, y H
1
y x, y H
2
y esto implica que
x +y H
1
H
2
2) a K y x H
1
H
2
esto implica que a x H
1
y a x H
2
esto implica
que a x H
1
H
2
Entonces podemos escribir el siguiente
Lema 2.17. La intersecci on de espacios vectoriales, es espacio vectorial.
Ejercicio 2.18. Digan si el plano P
1
= (x, y, z) [ 3x+2y 3z = 0 y el plano
P
2
= (x, y, z) [ 3x + 2y 3z = 1 son subespacios de
3
.
4. Homomorsmos
Los homomorsmos son una herramienta de mucha ayuda en espacios vectori-
ales. Para estudiar las propiedades de espacio vectorial, el espacio
n
es sin duda
el mas estudiado y el mas simple. Basta entonces relacionar todos los espacios
homomorfos e isomorfos con el plano n-dimensional para haberlos estudiado todos.
Pero la sorpresa es que todos los espacios vectoriales de la misma dimensi on, son
isomorfos. Esta es la raz on por cual el plano n-dimensional es tan interesante. Para
ver esto, iniciemos con la siguiente denicion:
Definici on 2.19. Sean (V
1
, , +
1
,
1
) y (V
2
, , +
2
,
2
) espacios vectoriales sobre
K. Un homomorsmo entre V
1
y V
2
es un mapeo que preserva las operaciones, es
4. HOMOMORFISMOS 33
decir f : V
1
V
2
se llama homomorsmo si
f(x +
1
y) = f(x) +
2
f(y)
f(a
1
x) = a
2
f(x) para toda x, y V
1
y a K
Como siempre, f se llama:
isomorsmo, si f es homomorsmo y biyecci on
automosmo, si f es homomorsmo y V
1
= V
2
Notaci on 2.20. Dos espacios vectoriales se llaman isomorfos, si existe
un isomorsmo entre ellos, se escribe V
1

= V
2
Un ejemplo sencillo e ilustrativo usando planos n-dimensionales es el siguiente.
Ejemplo 2.21. Sea V
1
=
n
, y V
2
=
n+1
. El mapeo f :
n

n+1
tal que
f((a
1,
, a
n
)) = (a
1,
, a
n
, 0) es un homomorsmo 1 1 pero no sobre, ya que
ning un (a
1
. , a
n
, a
n+1
) con a
n+1
,= 0 es imagen de alg un x
n
.
Algunas de las propiedades generales de los homomorsmos es que estos mapean
el cero en el cero y los inversos en los inversos, veamos esto.
Comentario 2.22. Sean V
1
y V
2
espacios vectoriales y f : V
1
V
2
un
homomorsmo entre ellos, entonces
f(0
V1
) = 0
V2
, ya que f(0 x) = 0 f(x)
f(x) = f(x) para toda x V
1
ya que f(x x) = f(x) +f(x)
Otra propiedad importante de los espacios vectoriales, es que bajo homomor-
smos se conservan las propiedades de subespacio, esto es
Comentario 2.23. f(V
1
) es subespacio de V
2
.
Incluso si H es subespacio de V
1
, se tiene que f(H) es subespacio de V
2
, ya que
si x
2
, y
2
f(H), y a K, esto implica que existen x
1
, y
1
H con f(x
1
) = x
2
y
f(y
1
) = y
2
, tal que x
2
+y
2
= f(x
1
+y
1
) f(H) y a x
2
= f(a x
1
) f(H). Esto
da pie al siguiente
Lema 2.24. Sean V
1
y V
2
espacios vectoriales. Sea H V
1
y f : V
1
V
2
homomorsmo. Entonces f(H) V
2
Una relacion muy importante entre espacio vectoriales es la relacion de ser
isom orcos, esta relacion es una relacion de equivalencia y por tanto separa los
espacios vectoriales en clases de equivalencia en el conjunto de espacios vectoriales.
Esta separacion es muy importante porque al separar este espacio en clases, limita
el estudio de los espacios vectoriales a solo estudiar un representante de cada clase
de estos. Para esto tenemos el siguiente lema:
Lema 2.25. Sean V
1
, V
2
y V
3
espacios vectoriales y f : V
1
V
2
y g : V
2
V
3
isomorsmos. Entonces
a) f
1
es isomorsmo
b) f g es isomorsmo.
Ejercicio 2.26. Demostrar el lema.
Lema 2.27. Sean V
1
y V
2
espacios vectoriales. La relaci on V
1
V
2
sii V
1

= V
2
son isomorfos, es una relaci on de equivalencia.
34 2. ESPACIOS VECTORIALES
Demostraci on 2.28. Veamos que cumple la denici on de relaci on de equiv-
alenca.
1) V
1
V
1
, ya que la identidad en V
1
es un isomorsmo.
2) Si V
1
V
2
, si usamos la inversa del isomorsmos se tendra que V
2
V
1
.
3) Si V
1
V
2
y V
2
V
3
, usando la composici on de isomorsmo, tendremos
que V
1
V
3
.
Ejercicio 2.29. Digan en que casos las siguientes funciones son homomos-
mos:
1.- f :
3

2
, tal que f((x, y, z)) = 2(x, y).
2.- f :
3

2
, tal que f((x, y, z)) = (x z, y +z).
3.- f :
2

2
, tal que f((x, y)) = (x
2
, y).
5. Independencia Lineal y Bases
El concepto de independencia lineal se basa en el simple hecho de c omo poder
escribir un conjunto de vectores en terminos del mnimo posible de vectores de otro
conjunto. La pregunta que est a detras de este concepto es cu al es el mnimo n umero
de vectores con el que yo puedo representar todos los vectores de alg un espacio o
subespacio vectorial? Entonces, el primer problema que tenemos, es encontrar este
n umero y luego encontrar un conjunto mnimo de vectores. Cuando esto se puede
hacer, podremos trabajar en muchas ocasiones solo con estos vectores, sin tomar
en cuenta todo el espacio. Vamos a iniciar con la siguiente denicion:
Definici on 2.30. Sea V espacio vectorial sobre el campo K y X V . En
general X no necesariamente subespacio vectorial de V . Un elemento de V de la
forma
x =
m

i=1
a
i
x
i
, a
i
K, x, x
i
X todos distintos
se llama combinaci on lineal de los elementos x
1
, , x
m
de X.
Con esta denicion podemos construir un subespacio vectorial. Para eso de-
namos la cerradura lineal de un conjunto de vectores.
Definici on 2.31. Al conjunto de todas las combinaciones lineales de un con-
junto, es decir, al conjunto
L(X) := x =
n

i=1
a
i
x
i
[ a
i
K, x
i
X elementos distintos
se le llama cerradura lineal de X
Lema 2.32. Sea V espacio vectorial y X V . L(X) es un subespacio de V .
Demostraci on 2.33. Sean x =

n
i=1
a
i
x
i
y y =

n
i=1
b
i
x
i
, con x
i
X y
a
i
, b
i
K. Entonces x+y =

n
i=1
a
i
x
i
+

n
i=1
b
i
x
i
=

n
i=1
(a
i
+b
i
) x
i
L(X)
ya que a
i
+b
i
K. Adem as a x = a

n
i=1
a
i
x
i
=

n
i=1
a a
i
x
i
L(X) ya que
a a
i
K. Entonces x +y y a x L(X) para todos los vectores x, y L(X), con
a K. Esto implica que L(X) es el subespacio mnimo de V que contiene a X.
Corolario 2.34. Sea V espacio vectorial y X V . Si X es subespacio de V,
se sigue entonces que L(X) = X.
5. INDEPENDENCIA LINEAL Y BASES 35
Demostraci on 2.35. X L(X) ya que si x X, esto implica que x =
a
1
x
1
+ + a
n
x
n
= 1 x L(X). Por otro lado, si x L(X), se tiene que
x = a
1
x
1
+ + a
n
x
n
con x
i
X y como X es subespacio, se sigue que
a
1
x
1
+ +a
n
x
n
X.
Vamos a ver alg unos ejemplos de lo anterior.
Ejemplo 2.36. .
a) H
1
= (a, b)
2
[ a, b , b = am una recta que pasa por cero en
2
.
Se tiene:
L(H
1
) = x = a
1
(a, am) [ a, m, a
1
= H
1
b) H
2
= (a, b)
2
[ a, b , b = am + n, m n ,= 0 una recta que no pasa
por el origen. Entonces:
L(H
2
) = x = a
1
(a, am +n) [ a
1
b, m, n
= x = (a
1
a, a
1
am +a
1
n) [ a
1
, b, m, n =
2
Por lo que, una recta que no pasa por el origen, no es un subespacio, genera
2
.
Con esto ya podemos introducir el concepto de independencia lineal.
Definici on 2.37. Sea V espacio vectorial sobre el campo K y X V un
subconjunto arbitrario de V . X se llama linealmente independiente si para
cualquiera elementos distintos x
1
, x
2
, , x
n
X se tiene que 0
V
=

n
i=1
a
i
x
i
,
a
i
K, implica que necesariamente a
1
= a
2
= = a
n
= 0
K
.
X se llama linealmente dependiente si X no es linealmente independiente.
Es decir, si 0
V
=

n
i=1
a
i
x
i
implica que al menos un a
j
,= 0. En tal caso 0
V
= a
j

x
j
+

n
i=1,i=j
a
i
x
i
de donde podemos despejar x
j
como x
j
= a
1
j

n
i=1,i=j
a
i
x
i
.
O sea, x
j
depende de todas los dem as vectores en forma lineal.
Notaci on 2.38. Cuando un conjunto de vectores sean linealmente independi-
entes, diremos que son l.i.
Al n umero minimo de vectores con los que podemos escribir todos los vectores
de alg un espacio o subespacio, se le llama base. Su denici on es como sigue.
Definici on 2.39. Sea V espacio vectorial sobre el campo K y X V . X se
llama base de V si
1) L(X) = V
2) X es linealmente independiente.
Esto es as ya que 1) asegura la representatividad de cada x V por combi-
nacion lineal de los elementos de X. Es decir, L(X) V implica que x L(X),
lo podemos escribir como x =

n
i=1
a
i
x
i
con cada x
i
X y cada a
i
K, pero
ademas x V. Por otro lado, V L(X) implica que si x V entonces x L(X),
esto es, x se puede escribir como x =

n
i=1
a
i
x
i
L(X) siempre.
2) asegura que la representacion es unica, ya que x =

n
i=1
a
i
x
i
y x =

n
i=1
b
i
x
i
, entonces x x = 0
V
=

n
i=1
(a
i
b
i
) x
i
lo que implica que a
i
= b
i
Vamos a ver un ejemplo muy representativo.
36 2. ESPACIOS VECTORIALES
Ejemplo 2.40. V = K
n
Si denimos
e
1
= (1
K
, 0
K
, , 0
K
)
e
2
= (0
K
, 1
K
, , 0
K
)
.
.
.
e
n
= (0
K
, 0
K
, , 1
K
) (2.1)
es una base en K
n
. Es decir, el conjunto E = e
1
, , e
n
genera todo el espacio
K
n
= L(E), ya que x = (a
1
, , a
n
) = a
1
e
1
+ +a
n
e
n
L(E). Por otro lado,
E es linealmente independiente, ya que 0
V
= a
1
e
1
+ +a
n
e
n
= (a
1
, , a
n
) =
(0
K
, , 0
K
) implica a
i
= 0, para toda i. Entonces K
n
siempre tiene una base. Al
conjunto (2.1) se le llama base can onica de K
n
y su dimensi on es n.
Ejemplo 2.41. Sea T
n
el espacio vectorial de los polinomios de grado n. En-
tonces, una base de T
n
es E
n
= 1, x, x
2
, , x
n
. Claramente la dimensi on del
espacio T
n
es n + 1.
Ejemplo 2.42. En el espacio de las funciones peri odicas F
p
, el conjunto E
p
=
1, cos(), cos(2), cos(3), , es una base de este espacio vectorial. La dimensi on
del espacio F
p
es innita.
En todo espacio vectorial es posible denir una base. La base canonica es, desde
muchos puntos de vista, la mas simple. Este hecho lo ponemos en el siguiente lema.
Lema 2.43. Todo espacio vectorial contiene una base.
La demostracion de este lema la dejaremos para libros mas especializados. A un
mas fuerte que este lema (y tambien enunciaremos sin demostracion), es el hecho
de que para todo espacio vectorial siempre existe una base de este y el n umero de
vectores de dos bases diferentes es siempre el mismo.
Proposici on 2.44. Sea V espacio vectorial sobre K y sean X V y Y V
dos bases de V . Si X es nito, implica que Y es nito y tiene el mismo n umero de
elementos que X.
En base a esta proposicion, es posible entonces hacer la siguiente denicion:
Definici on 2.45. La dimensi on de un espacio vectorial V es el n umero de
elementos de la base de V .
Notaci on 2.46. La dimensi on de V se denota como dimV = n.
El concepto de dimensi on esta basado entonces en la existencia de un espacio
vectorial y por tanto, del n umero de vectores de su base. Vamos a ver algunos
ejemplos para dejar mas claro este concepto.
Ejemplo 2.47. dimK
n
= n pues se necesitan n elementos e
i

n
i=1
para repre-
sentar todo el espacio.
Ejemplo 2.48. Sea H
1
= (a, am)
2
. Una base de H
1
es X = (1, m),
entonces se tiene que dimX = 1. Esto implica a su vez que dimH
1
= 1.
Ejemplo 2.49. Sea V = 0
V
, se tiene que dimV = 0
Ejercicio 2.50. Sean los planos del ejercicio 2.18. Encuentre una base vecto-
rial para el plano que es subespacio de
3
.
6. TRANSFORMACIONES LINEALES 37
Ejercicio 2.51. Den una base para el espacio P del ejercicio 2.8.
Ejercicio 2.52. Den una base para el espacio H
1
del ejercicio 2.9 y otra para
el espacio H
2
del ejercicio 2.10.
Ejercicio 2.53. Demuestren que H
1
= H
2
. De una f ormula para representar
las bases de los dos conjuntos hasta n = 5.
6. Transformaciones Lineales
Los homomorsmos entre espacios vectoriales son de tal importancia, que in-
cluso reciben un nombre especial. En esta secci on veremos estos homomorsmos,
sus propiedades mas importantes y alg unos ejemplos representativos de homomor-
smos entre espacios vectoriales.
Definici on 2.54. Sean V
1
y V
2
espacios vectoriales sobre el mismo campo K.
Se dene el conjunto Hom(V
1
, V
2
) = f : V
1
V
2
[ f es homomorsmo
Notaci on 2.55. A los homomorsmo entre espacios vectoriales se les llama
transformaciones lineales o mapeos lineales y se denotan por L(V
1
, V
2
) :=
Hom(V
1
, V
2
)
Vamos a escribir explcitamente el concepto de transformaci on lineal. Sea f
L(V
1
, V
2
), esto implica que la suma y el producto en los espacios se conservan
bajo f, esto es f(x + y) = f(x) + f(y) para todos los vectores x, y V
1
y
f(k x) = k f(x) para todo k K, x V
2
. Si ahora tomamos como conjunto base
al conjuto de todas las transformaciones lineales, podemos introducir en L(V
1
, V
2
)
la estructura de espacio vectorial. Vamos a denir entonces la suma y el producto
como
(f g)(x) = f(x) +g(x)
(k f)(x) = k f(x) k K, x V
1
y observemos que (f g) L(V
1
, V
2
), ya que + est a denida en V
2
. As mismo
(k f) L(V
1
, V
2
) ya que est a denido en K V
2
V
2
. Entonces se tiene que
f g y kf son mapeos de V
1
en V
2
.

Este es un resultado muy importante, porque
con el tenemos el siguiente lema.
Lema 2.56. Sean V
1
y V
2
espacios vectoriales. Entonces (L(V
1
, V
2
), , , ) es
un espacio vectorial sobre K
Ejercicio 2.57. Demostrar el lema.
La pregunta que surge inmediatamente despues de denir los mapeos lineales, es
si la composicion de mapeos lineales es tambien lineal y forma un espacio vectorial.
Para ver esto, sean f L(V
1
, V
2
) y g L(V
2
, V
3
) y g f : V
1
V
3
Para ver si
g f L(V
1
, V
3
), hay que checar las propiedades de espacio vectorial, dado que
f y g son lineales. Sean x, y V
1
entonces la suma cumple con (g f)(x + y) =
g(f(x) + f(y)) = g f(x) + g f(y), por la propiedades de linearidad de ambas
funciones. Analogamente, sean x V
1
, k K, entonces (gf)(k x) = g(f(k x)) =
g(k f(x)) = k (g f)(x), por lo que ambas propiedades se cumplen.
Otro caso interesante es cuando ambos espacios, el de salida y el de llegada son
el mismo, i.e., cuando V
1
= V
2
= V , entonces, claramente L(V, V ) es un espacio
vectorial sobre K con las operaciones + y sobre V . Ademas, si f, g L(V, V )
implica que f g L(V, V ). Algunas propiedades de estos espacios son:
38 2. ESPACIOS VECTORIALES
a) Sea k K, y f, g L(V, V ) entonces k (g f) = (k g) f = g (k f) ya
que para para toda x V se tiene que
[k (g f)](x) = k (g f)(x) = k g(f(x)) = (k g) (f(x)) = [(k g) f](x)
= g(k f(x)) = g((k f)(x)) = [g (k f)](x)
b) Como es asociativo para todo mapeo, entonces es asociativo para las
transfomaciones lineales.
c) (g +h) f = g f +h f es distributiva, para f, g, h L(V, V ).
b), c) y la cerradura para implican que (L(V, V ), +, ) es un anillo.
7.

Algebras
La ultima estructura algebraica que veremos aqu es la de algebra. Las algebras
son mas ricas en estructura que los espacios vectoriales, ya que en estas se denen
tres operaciones binarias. Para denir las algebras usaremos el concepto de modulo.
Al igual que en los espacios vectoriales, los modulos se denen usando dos opera-
ciones binarias denidas en el conjunto con propiedades especiales. La denicion
de un modulo es la siguiente.
Definici on 2.58. Sea K anillo. (V, , ) se llama m odulo sobre K si:
1) (V, ) grupo abeliano
2) es mapeo de K V en V, y para toda a, b K, y para toda x, y V se
tiene:
a) (a b) x = a (b x) es asociativa,
b) a (x y) = (a x) (a y)
c) (a +b) x = (a x) (b x) son distributivos.
Es decir, un modulo consiste de un anillo K, de un grupo abeliano y de una
operaci on que combina elementos de K y V . Con este concepto es mas sencillo
denir algebra. Es mas, un espacio vectorial, es un modulo muy particular, se
tiene:
Corolario 2.59. Un m odulo (V, , ) es un espacio vectorial, si se cumple
que:
a) K es un campo o semicampo.
b) 1
K
x = x para toda x V.
Usando la denicion de modulo, podemos denir el concepto de algebra.
Definici on 2.60. Una estructura (A, +, , ) sobre K se llama algebra si
1) K es anillo conmutativo con unidad
2) (A, +, ) m odulo sobre K, con 1
K
x = x, para toda x A
3) es mapeo de A A en A con las propiedades
a) k (x y) = (k x) y = x (k y) para toda k K x, y A
(asociatividad).
b) z(x+y) = zx+zy; (x+y)z = xz+yz, para todos x, y, z A
(distributividad).
Ejemplo 2.61. Sea V espacio vectorial sobre el campo K, x V y k K.
L = (L(V, V ), +, , ) es un algebra sobre el campo K con las siguientes operaciones
en L(V, V ).
+ : L(V, V ) L(V, V ) L(V, V )
(f, g) (f +g)(x) = f(x) +g(x),
7.

ALGEBRAS 39
: K L(V, V ) L(V, V )
(k, g) (k f)(x) = k f(x),
: L(V, V ) L(V, V ) L(V, V )
(f, g) (f g)(x) = f(g(x)).
para todas las f, g L(V, V ).
Corolario 2.62. L es una algebra asociativa ( es asociativa), no-conmutativa
( no es conmutativa), con unidad ( tiene unidad, el mapeo identidad).
Ejemplo 2.63. Sea K campo y
_
K
3
, +,
_
su espacio vectorial asociado. En-
tonces el espacio vectorial K
3
, con el producto cruz entre vectores denido por:
x y = (a
2
b
3
a
3
b
2
, a
3
b
1
a
1
b
3
, a
1
b
2
a
2
b
1
) para x = (a
1
, a
2
, a
3
), y =
(b
1
, b
2
, b
3
), es un algebra no conmutativa, asociativa.
Ejercicio 2.64. Demostrar con todo detalle que
_
K
3
, +, ,
_
, donde es el
producto cruz entre vectores, es una algebra.
Ejercicio 2.65. Sea o(2) = o [ o es matriz 2 2 con o =
_
0 r
r 0
_
con
r . Demuestre que este conjunto es una algebra con las operaciones de matrices.
Ejercicio 2.66. Sea su(2) = u [ u es matriz 2 2 con u =
_
r z
z

r
_
con
r y z n umero complejo. Demuestre que este conjunto es una algebra con las
operaciones de matrices.
CHAPTER 3
MATRICES
1. Mapeos Lineales y Matrices
En esta secci on vamos a introducir los arreglos matriciales. Las matrices son
arreglos que se usan en muchas areas de la fsica, qumica, las matematicas, la
computacion, etc. Muchas cantidades en todas estas areas son arreglos que pueden
ser representados como matrices. El uso mas importante que se le ha dado a las
matrices es porque los sistemas de ecuaciones lineales pueden ser representados
en forma matricial, y las matrices son una herramienta perfecta para ayudar a
resolverlos. Una matriz puede ser denida por s misma, sin necesidad de ser basada
en otras deniciones. La existencia de estos arreglos es independiente del algebra
lineal, sin embargo nosotros les daremos un sentido muy claro introduciendolos
como representaciones naturales de los mapeos lineales. Con esta analoga sera mas
facil introducir despues conceptos que se usan en matrices como rango, dimensi on,
etc. Iniciemos entonces con este concepto.
Sean V
1
y V
2
espacios vectoriales de dimensi on nita bajo un campo K, tal
que dimV
1
= m y dimV
2
= n, entonces existen bases tales que x
1
, x
2
, , x
m

es base de V
1
y y
1
, y
2
, , y
n
es base de V
2
. Sea f L(V
1
, V
2
) con x V
1
y
f(x) = y V
2
, con
x =
m

j=1
a
j
x
j
siendo, ademas, la representacion unica de x en esa base, con a
j
K para todo
j = 1, , m. Si mapeamos linealmente al elemento x al espacio vectorial V
2
,
encontramos que
(3.1) f(x) =
m

j=1
a
j
f(x
j
).
Por otro lado, tambien y =

n
i=1
b
i
y
i
tiene una representacion unica en V
2
en terminos de los n umeros b
i
K con i = 1, ., n. Como esta representacion
es unica, se tiene entonces que hay una relacion directa entre los n umeros a
j
y b
i
.
Para ver esta relacion, mapeamos linealmente el elemento base x
k
al espacio V
2
. Se
tiene que f(x
k
) V
2
entonces
(3.2) f(x
k
) =
n

i=1
c
ik
y
i
En terminos de estos n umeros c
ik
K podemos escribir el elemento x susti-
tuyendo la expresion (3.2) en (3.1), se obtiene
41
42 3. MATRICES
f(x) =
m

j=1
a
j
_
n

i=1
c
ij
y
i
_
=
n

i=1
b
i
y
i
= y
= a
1
_
n

i=1
c
i1
y
i
_
+a
2
_
n

i=1
c
i2
y
i
_
+ +a
m
_
n

i=1
c
im
y
i
_
=
n

i=1
m

j=1
a
j
c
ij
y
i
=
_
_
m

j=1
a
j
c
1j
_
_
y
1
+
_
_
m

j=1
a
j
c
2j
_
_
y
2
+ +
_
_
m

j=1
a
j
c
nj
_
_
y
n
= b
1
y
1
+b
2
y
2
+ +b
n
y
n
,
pero como la representacion es unica, se debe tener que b
i
=

m
j=1
c
ij
a
j
, es decir,
los coecientes de y son totalmente determinados por los coecientes de a
k
y los
coecientes c
ik
K. Estos coecientes c
ik
los podemos ordenar en la forma mas
conveniente
C =
_
_
_
_
_
c
11
c
12
c
1m
c
21
c
22
c
2m
.
.
.
c
n1
c
n2
c
nm
_
_
_
_
_
y se llama matriz asocidada al mapeo f L(V
1
, V
2
). Noten que estos coecientes
dependen fuertemente de las bases usadas, pero cada par de bases en V
1
y V
2
jan
y determinan unicamente el arreglo (matriz) C, del tipo C = (c
ik
)
k=1m
i=1n
, del
tipo (n, m), (n renglones o lneas y m columnas). Analogamente, cada matriz C
determina unicamente el mapeo f L(V
1
, V
2
). Por eso vamos a describir mapeos
lineales con matrices y vamos a asocior a cada matriz un mapeo lineal.
Si escribimos
x =
_
_
_
_
_
a
1
a
2
.
.
.
a
m
_
_
_
_
_
y y =
_
_
_
_
_
b
1
b
2
.
.
.
b
n
_
_
_
_
_
entonces Cx = y y f(x) = y corresponden a la aplicacion del mepeo lineal f
a x, siendo ambas expresiones equivalentes. Transportemos las operaciones entre
mapeos a operaciones entre matrices. Vamos a ver esto con detalle.
Sean f, g L(V
1
, V
2
), k K y x V
1
, tal que
x =
_
_
_
a
1
.
.
.
a
m
_
_
_,
Entonces se tiene:
1.- La suma de mapeos se traduce a la suma de matrices, es decir (f +g)(x) =
f(x) + g(x), si a f corresponde la matriz C y a g la matriz D, se tiene que a
f + g corresponde a la matriz C + D. (C + D)(x) = Cx + Dx con la suma entre
matrices dada por (C +D) = c
ij
+d
ij
, donde c
kj
y d
ij
son los coecientes de C y
D repectivamente.
2. ISOMORFISMOS 43
2.- Al producto de un n umero por el mapeo lineal, corresponde el producto de
un n umero por la matriz que representa al mapeo de la forma (kf)(x) = k f(x).
Si B corresponde a (kf), entonces Bx = k Cx con el producto dado por b
ij
= kc
ij
3.- Sean f L(V
1
, V
2
) y g L(V
2
, V
3
), esto implica que g f L(V
1
, V
3
). A la
composicion de mapeos corresponde el producto entre matrices, es decir (gf)(x) =
g(f(x)) corresponde a B C = D entre matrices, con d
ij
=

n
k=1
b
ik
c
kj
, donde b
ik
,
c
kj
y d
ij
son los coecientes de B, C y D repectivamente.
Ejercicio 3.1. Demuesten los puntos 1.-, 2.- y 3.- anteriores.
2. Isomorsmos
En esta secci on, trataremos particularmente con los mapeos lineales uno a uno
y sobre, los isomorsmo. Estos mapeos son muy importantes porque de ellos se
desprenden teoremas que pueden ser traducidos directamente a las matrices, que a
su vez se traducen en teoremas que serviran para resolver sistemas de ecuaciones
lineales. Estos sistemas son uno de los objetivos de este capitulo. Asi que veamos
las proposiciones correspondientes a isomorsmos. Empecemos por denir el Kernel
o n ucleo de un mapeo lineal. En lo que sigue V
1
y V
2
son espacios vectoriales sobre
un cuerpo K.
Definici on 3.2. Sea f L(V
1
, V
2
) (no necesariamente biyectiva). El n ucleo
de f es el conjunto ker f = x V
1
[ f(x) = 0
V2

Lema 3.3. Sea f L(V


1
, V
2
). Si ker f es subespacio vectorial de V
1
, entonces
f(V
1
) es subespacio vectorial de V
2
.
Ejercicio 3.4. Demostrar el lema.
El lema anterior es valido para cualquier mapeo. Si especializamos este lema a
los isomorsmos, se tiene este otro lema.
Lema 3.5. Sea f L(V
1
, V
2
). Si f es isomorsmo implica que ker f = 0
V1
.
Demostraci on 3.6. Es claro que 0
V1
ker f, ya que f(0
V1
) = f(x x) =
f(x) f(x) = 0
V2
, con x V
1
. Por otro lado, cualquier elemento x ker f cumple
con f(x) = 0
V2
. Si hubiera un elemento x V
1
con x ,= 0
V1
tal que x ker f,
entonces f(x) = f(0
V1
) = 0
V2
, lo cual contradice que f es un mapeo inyectivo.
Comentario 3.7. Si el ker f = 0
V1
, ya sabemos entonces que dimker f = 0
En lo que sigue vamos a ver una proposion que nos ayudar a a demostrar alg unos
resultados posteriores.
Proposici on 3.8. Sean V
1
y V
2
espacios vectoriales sobre el campo K. Sea
x
1
, , x
m
base de V
1
y sea f L(V
1
, V
2
).
i) Si f es sobre, implica que V
2
= L(f(x
1
), f(x
2
), , f(x
m
))
ii) Si f es isomorsmo, implica que f(x
1
), , f(x
m
) es base de V
2
Demostraci on 3.9. Denotamos a M = f(x
1
), , f(x
m
)
i) : Sea y V
2
, f sobre implica que existe x V
1
, tal que f(x) = y, pero
x =

m
i=i
a
i
x
i
implica que y = f(x) =

m
i=i
a
i
f(x
i
) L(M).
: Sea y L(M) se tiene y =

m
i=i
a
i
f(x
i
) V
2
pues V
2
es espacio vectorial.
ii) En particular f sobre implica que V
2
= L(M), ya que M V
2
. Demostremos
que M es linealmente independiente. Sea 0
V2
=

r
i=i
a
i
y
i
con elementos distintos
44 3. MATRICES
y
1
, , y
r
, de M, con r m. f sobre implica que existe x
i
V
1
tal que y
i
= f(x
i
),
y f mapeo implica que los x
1
, , x
r
tambien son distintos (x
i
= x
j
implica f(x
i
) =
f(x
j
)). Entonces 0
V2
=

r
i=i
a
i
f(x
i
) = f(

r
i=1
a
i
x
i
), por lo que

r
i=1
a
i
x
i

ker f est a en el n ucleo de f. f uno a uno implica que 0
V1
=

r
i=1
a
i
x
i
es una
representacion del 0 en V
1
con distintos x
1
, , x
r
con r m. Pero x
1
, , x
m

es una base, entonces se tiene que a


i
= 0 para toda i = 1, , r.
Corolario 3.10. Sea f L(V
1
, V
2
) con dimV
1
= n. Entonces f es isomor-
smo s y s olo s dimf(V
1
) = n
Demostraci on 3.11. f isomorsmo implica que f es 1-1 y sobre. Sea x
1
, . . . , x
n

una base de V
1
. Entonces f(a
1
x
1
+ + a
n
x
n
) = a
1
f(x
1
) + + a
n
f(x
n
) = 0
implica que a
1
= = a
n
= 0, y como f es un isomorsmo, esto implica que
f(x
1
), . . . , f(x
n
) son todos diferentes y forman una base de f(V
1
), por lo que
dimf(V
1
) = n.
El corolario anterior nos da un criterio para saber si un mapeo es isomorsmo o
no. Este criterio tambien lo podemos obtener usando otra denicion util para esto.
Definici on 3.12. El Rango de un mapeo lineal f L(V
1
, V
2
) se dene como
Rgf := dim f(V
1
)
Podemos traducir el corolario anterior a esta terminologa. Se tiene que f
es isomorsmo s y solo s Rgf = dimV
1
. El problema de saber si un mapeo es
isomorsmo o no, se reduce entonces a determinar el rango del mapeo. Vamos a
determinar Rgf. Para esto tenemos la siguiente proposicion.
Proposici on 3.13. Sea f L(V
1
, V
2
) y X una base de V
1
. Entonces el Rgf =
Rg(f(X)) = dimL(f(X)).
Demostraci on 3.14. Como X es base de V
1
, se tiene que si X = x
1
, . . . , x
n
,
se sigue que f(X) = f(x
1
), . . . , f(x
n
) existen al menos m < n elementos de f(X)
que son l.i., es decir, dimf(X) = m. Sea u f(V
1
), implica que existe v = a
1
x
1
+
+ a
n
x
n
V
1
, tal que u = f(v) = a
1
f(x
1
) + + a
n
f(x
n
), de donde aparecen
al menos m componentes diferentes en la suma. Por lo que dimf(V
1
) = m =
dimf(X). De aqui se sigue que Rgf = dimf(V
1
) = dimf(X). Tambien se tiene
que L(f(X)) = f(V
1
), entonces por denici on Rgf = dimf(V
1
) = dimL(f(X))
Aqu estamos usando de una manera analoga la denicion de rango del conjunto
de vectores M como Rg (M) := dimL(M), la dimensi on de la cubierta lineal.
Entonces, para saber el rango de una transformaci on, es suciente con determinar
el rango del conjunto de vectores de alg una base de V
1
.
Ahora vamos a mostrar un metodo para calcular el rango de f. Sea V espacio
vectorial sobre un campo K y M V . El metodo consiste en escribir la matriz
de representacion del mapeo. Como el rango del mapeo es el mismo que el de su
cubierta lineal, se tiene que Rg (M) = dimL(M) = n ya que L(M) es subespacio
de V . Entonces podemos escoger cualquier elemento de la cubierta, el rango sera
el mismo. Escojamos entonces un elemento de la cubierta que nos de una lectura
rapida del rango. Para poder escoger este elemento, observemos primero que existen
un conjunto de acciones posibles que no cambian al conjunto L(M), estas son:
a) intercambiar elementos de M.
b) multiplicar elementos de M por k K.
2. ISOMORFISMOS 45
c) sumar m M a k x con k K, x M.
d) eliminar un elemento m M con m = 0.
Llevando a cabo cualquiera de las acciones enumeradas arriba, el conjunto
L(M) seguira siendo el mismo. Estas acciones se pueden traducir a la matriz
correspondiente, estas serian:
a) Intercambiar renglones de la matriz de transformaci on.
b) Multiplicar renglones de la matriz por k K.
c) Sumar renglones por un m ultiplo de otro rengl on.
d) Eliminar un rengl on de la matriz igual a cero.
O hacer lo mismo cambiando la palabra rengl on por columna.
La receta, entonces, para encontrar el rengo de una transformaci on lineal, es
escribir la matriz de transfomacion y reducirla con estas operaciones, hasta ponerla
en una manera conveniente para poder leer su rango. Vamos a ver un ejemplos de
este proceso.
Ejemplo 3.15. Sea f (
2
,
3
) y sea la base
x
1
=
_
1
0
_
, x
2
=
_
0
1
_

2
y
1
=
_
_
1
0
0
_
_
, y
2
=
_
_
0
1
0
_
_
, y
3
=
_
_
0
0
1
_
_

3
La transformaci on
f A =
_
_
2 1
1 3
1 0
_
_
es tal que f(x
k
) =
_
_
2 1
1 3
1 0
_
_
x
k
k = 1, 2, esto es, los elementos de la base se mapean como
f(
_
1
0
_
) =
_
_
2
1
1
_
_
y f(
_
0
1
_
) =
_
_
1
3
0
_
_
por lo que, cualquier elemento de
2
se leera en
3
como
f(
_
a
1
a
2
_
) = f(a
1
_
1
0
_
+a
2
_
0
1
_
) = a
1
_
_
2
1
1
_
_
+a
2
_
_
1
3
0
_
_
=
_
_
2 1
1 3
1 0
_
_
_
a
1
a
2
_
Este mismo proceso no cambia si usamos vectores rengl on en vez de vectores columna,
lo que se haga para cada columna es an alogo para cada rengl on. Ahora vamos a
reducir la matriz de representaci on utilizando las operaciones que enunciamos an-
teriormente. Vamos a indicar arriba o abajo de cada matriz la operaci on que se va
a efectuar para pasar a la siguiente matriz. Se tiene:
A =
_
_
2 1
1 3
1 0
_
_

2 +
_
_
1 2
3 1
0 1
_
_

_
_
1 0
3 5
0 1
_
_
+ 3/5

46 3. MATRICES
1/5
_
_
1 0
0 5
3/5 1
_
_

_
_
1 0
0 1
3/5 1/5
_
_
El rango de A es de hecho el n umero de columnas linealmente independientes de A.
Esto implica que Rg (A) = 2 y por tanto el rengo de f es tambien 2.
Ejercicio 3.16. Digan el rango de las siguientes transfomaciones lineales:
1.-
f(
_
1
0
_
) =
_
1
2
_
, f(
_
0
1
_
) =
_
1
1
_
2.-
f(
_
_
1
0
0
_
_
) =
_
_
1
2
1
_
_
, f(
_
_
0
1
0
_
_
) =
_
_
1
1
2
_
_
, f(
_
_
0
0
1
_
_
) =
_
_
0
1
0
_
_
3.-
f(
_
_
1
0
0
_
_
) =
_
_
1
2
1
_
_
, f(
_
_
0
1
0
_
_
) =
_
_
4
5
0
_
_
, f(
_
_
0
0
1
_
_
) =
_
_
2
1
2
_
_
Ejercicio 3.17. Encuentren el n ucleo de las siguientes transformaciones lin-
eales.
1.-
f(
_
_
1
0
0
_
_
) =
_
_
1
2
1
_
_
, f(
_
_
0
1
0
_
_
) =
_
_
1
1
2
_
_
, f(
_
_
0
0
1
_
_
) =
_
_
0
1
0
_
_
2.-
f(
_
_
1
0
0
_
_
) =
_
_
1
2
0
_
_
, f(
_
_
0
1
0
_
_
) =
_
_
1
1
1
_
_
, f(
_
_
0
0
1
_
_
) =
_
_
0
1
1
_
_
Ejercicio 3.18. Utilizando transformaciones de invariancia, reduzca las sigu-
ientes matrices a una forma diagonal.
1.-
_
1 2
4 5
_
2.-
_
_
1 2 1
4 5 0
2 0 2
_
_
3.-
_
_
1 2 1
4 5 0
2 1 2
_
_
4.-
_
_
_
_
1 2 1 1
4 5 0 1
2 1 2 2
2 4 2 1
_
_
_
_
3. ECUACIONES LINEALES 47
Ejercicio 3.19. Digan con solo ver las matrices diagonalizadas del ajercicio
anterior, cual es la dimensi on del n ucleo, el rango y cual de las tranformaciones es
biyectiva.
3. Ecuaciones Lineales
Todo lo aprendido hasta ahora en el capitulo de algebra lineal, lo vamos a
aplicar en la resolucion de sistem as de ecuaciones lineales. A partir de aqu usaremos
la matriz de representacion de un mapeo para representar al mapeo mismo. Sea
A L(V
1
, V
2
) con dimV
1
= m y dimV
2
= n. Sea A matriz del tipo (n, m) y sea
b V
2
. Usaremos aqu a la letra b para representar un vector conocido, esto nos
ayudar a para escribir el sistema de ecuaciones lineales con la notaci on estandard,
utilizada en la secci on anterior.
Problema 3.20. Resolver el sistema de ecuaciones lineales
a
11
l
1
+ +a
1m
l
m
= b
1
a
21
l
1
+ +a
2m
l
m
= b
2
.
.
.
.
.
.
a
n1
l
1
+ +a
nm
l
m
= b
n
(3.3)
en donde los n umeros l
i
K son desconocidos y los coecientes a
ij
y b
j
son cono-
cidos.
Observe que encontrar una solucion al sistema, es encontrar el conjunto de
n umeros l
i
K que hagan todas las identidades del sistema verdaderas. Vamos a
denir el conjunto de vectores x, b y la matriz A como
x =
_
_
_
l
1
.
.
.
l
m
_
_
_, b =
_
_
_
b
1
.
.
.
b
n
_
_
_ y A =
_
_
_
a
1n
a
1m
.
.
.
.
.
.
a
n1
a
nm
_
_
_
El problema Ax = b escrito explicitamente, se ve como en (3.3). Entonces el
problema que nos hemos planteado es equivalente al problema de trasfomaciones
lineales o matrices.
Problema 3.21. Encontrar x V , tal que Ax = b
A Ax = b se le llama ecuaci on lineal en x. De este problema surgen muchas
preguntas:
a) Cuantas soluciones hay?
b) La solucion es unicamente determinada?
c) Como escribir el conjunto de soluciones?
La existencia de una solucion lo podemos resolver con ayuda del siguiente lema.
Lema 3.22. Si representamos el mapeo f como A(V
1
) = L(Ax
1
, , Ax
m
),
usando la base x
1
, , x
m
de V
1
, tenemos que Ax = b tienen soluci on sii b
L(Ax
1
, , Ax
m
) y esto se cumple sii L(Ax
1
, , Ax
m
) = L(Ax
1
, , Ax
m
, b).
Demostraci on 3.23. De la proposici on 3.8 se sigue el resultado.
Esto implica la igualdad de la dimensi on de los dos espacios, es decir
Rg(Ax
1
, , Ax
m
) = Rg (Ax
1
, , Ax
m
, b)
48 3. MATRICES
Estos resultados quedaran mas claros con alg unos ejemplos.
Ejemplo 3.24. Vamos a determinar si el sistema
4l
1
+ 5l
2
+ 6l
3
= 2
2l
1
+ 2l
2
+l
3
= 10
l
1
+l
2
+l
3
= 1
tiene soluciones. Hagamos
A =
_
_
4 5 6
2 2 1
1 1 1
_
_
y b =
_
_
2
10
1
_
_
entonces
Ae
1
=
_
_
4
2
1
_
_
, Ae
2
=
_
_
5
2
1
_
_
, Ae
3
=
_
_
6
1
1
_
_
Hay que determinar una base simple de L(Ae
1
, Ae
2
, Ae
3
) para determinar
dimL(Ae
1
, Ae
2
, Ae
3
) = Rg (A)
Ejercicio 3.25. Llevar la matriz A a su forma diagonal, usando las opera-
ciones invariates de la cerradura lineal.
_
_
4 2 1
5 2 1
6 1 1
_
_

_
_
1 0 0
0 1 0
0 0 1
_
_
Por lo tanto Rg (A) = Rg (Ae
1
, Ae
2
, Ae
3
) = 3, ademas b L(Ae
1
, Ae
2
, Ae
3
) .
Es facil ver que L(Ae
1
, Ae
2
, Ae
3
, b) = L(Ae
1
, Ae
2
, Ae
3
) por lo tanto el sis-
tema tiene solucion.
Un metodo muy eciente para encontrar la solucion de un sistema de ecuaciones
lineales es el metodo de Gau-Jordan. El metodo se basa en las operaciones que
dejan invariante la cerradura lineal. Estas se traducen en las siguientes operaciones
en el sistema.
El sistema no cambia s
a) Se intercambian ecuaciones
b) Se multiplica una ecuaci on por una constante del campo diferente de cero.
c) Se suma un m ultiplo de una ecuaci on con otra.
d) Se elimina una ecuaci on de ceros.
Ejercicio 3.26. Resolver el sistema anterior usando el metodo de Gau-
Jordan.
La solucion de un sistema sera unica s la matriz tiene propiedades muy espe-
ciales. Estas propiedades son importantes ya que en tal caso no solo sabremos que
la solucion existe, sino ademas cual es. Veamos.
Proposici on 3.27. Si

x es soluci on de Ax = b,

x est a unicamente deter-
minada s y s olo s A es mapeo uno a uno y s y s olo s ker A = 0
V1

Demostraci on 3.28. ) Sea



x unica. Sean x, y V
1
con Ax = Ay. Entonces
Ax Ay = 0
V2
, o sea A(x y) = 0
V2
. Como A

x = b, entonces se cumple
que A
_

x + (x y)
_
= A

x + A(x y) = b. Por lo que se tiene tambien que


4. TRANSPUESTA E INVERSA DE MATRICES 49

x + x y es soluci on. Pero



x es unica, por lo que

x =

x + (x y), se sigue que
x = y. Implica entonces que A es uno a uno.
) Sea A uno a uno,

x es soluci on y sea

x tambien soluci on. A

x = A

x = b.
Pero A uno a uno implica que

x =

x.
adem as A uno a uno implica que el ker A = O
V2
.
Ejercicio 3.29. Demostrar que A =
_
_
4 5 6
2 2 1
1 1 1
_
_
tiene una soluci on
unica.
Con estas proposiciones ya es entonces posible obtener la solucion del sistema
de ecuaciones. La solucion se construye usando la siguiente proposicion.
Proposici on 3.30. Sea

x una soluci on al sistema Ax = b. El conjunto de
todas las soluciones del sistema es

x +h [ h ker A =
not

x + ker A.
Demostraci on 3.31. i) Sea y

x + ker A, esto implica que y =

x + h, con
h ker A es soluci on ya que A
_

x +h
_
= b + 0 = b.
ii) Sea y soluci on, entonces y =

x +
_
y

x
_
. S escribimos h = y

x, se
tiene que y =

x + h. Pero Ah = A
_
y

x
_
= Ay A

x = b b = 0. Por lo que
h ker A. Por lo tanto y

x + ker A.
En el caso de que el n ucleo de la transformaci on sea solo el conjunto con el
cero, se tiene que la transformaci on correspondiente es biyectiva. S olo en este caso
la solucion del sistema correspondiente es unica, ya que le podemos sumar a la
solucion solo el vector cero. En terminos del rango, esto quiere decir lo siguiente.
Proposici on 3.32. Sea A matriz del tipo (n, m). Supongamos que Ax = b
tiene soluci on

x, entonces

x es unicamente determinada s y s olo s Rg (A) = m.
Vamos a resumir todos los resultados sobre soluciones de un sistema de ecua-
ciones. Podemos poner los diferentes casos en una tabla como sigue.
Resumen 3.33. Sea A del tipo (n, m), con Ax = b sistema de ecuaciones. Se
tiene que
A matriz (n, m) Ax = b (inhomogeneo) Ax = 0 (homogeneo)
Rg (A, b) ,= Rg (A) no hay soluci on s olo la soluci on trivial

x = 0
Rg (A, b) = Rg (A) = r
r = m
soluci on unica s olo la soluci on trivial
r < m m as de una soluci on soluciones no triviales
4. Transpuesta e Inversa de Matrices
En esta secci on vamos a denir dos matrices derivadas de una matriz cualquiera,
la transpuesta y la inversa. Ambas son de mucha utilidad en problem as concre-
tos y seran utilizadas mas adelante, aqu daremos su denicion y alg unas de sus
propiedades mas importantes.
50 3. MATRICES
Definici on 3.34. Sea A matriz del tipo (n, m) . La transpuesta de A, es la
matriz A
T
tal que si
A =
_
_
_
a
11
a
1m
.
.
.
a
n1
a
nm
_
_
_ se tiene que A
T
=
_
_
_
a
11
a
n1
.
.
.
a
1m
a
nm
_
_
_
y es del tipo (m, n) , es decir, se cambian renglones por columnas.
Cuando calculamos el rango de una matriz, las operaciones que hacemos con
los renglones las podemos igualmente hacer con la columnas de la matriz, por lo
que si cambiamos renglones por columnas el rango no cambia. Por esta raz on se
sigue la siguiente proposicion
Proposici on 3.35. Rg (A) = Rg
_
A
T
_
Ejercicio 3.36. Probar la proposici on anterior.
La matriz tanspuesta tiene una serie de propiedades que la hacen muy intere-
sante, las mas iportantes las podemos resumir como sigue.
Propiedades de la transpuesta de Matrices.
1)
_
A
T
_
T
= A
2) (A B)
T
= B
T
A
T
3) (A +B)
T
= A
T
+B
T
4) Si x K, se cumple (x A)
T
= x A
T
Comentario 3.37. Como veremos m as adelante, las propiedades 1) y 2) se
parecen a propiedades analogas a las de la inversa de una matriz. Pero la transpuesta
siempre existe, la inversa no necesariamente.
Ahora veamos las propiedades de la inversa de matrices.
Definici on 3.38. La inversa de una matriz A(n, n) es la matriz A tal que
A A
1
= A
1
A =
_
_
_
1 0
.
.
.
0 1
_
_
_
Notaci on 3.39. De aqu en adelante usaremos a notaci on
I =
_
_
_
1 0
.
.
.
0 1
_
_
_
Las propiedades mas importantes de la inversa de una matriz se resumen en la
siguiente proposicion.
Proposici on 3.40. Sea A matriz del tipo (n, n)
Las siguientes condiciones son equivalentes.
1) Existe la matriz A
1
de tipo (n, n) tal que A
1
A = A A
1
= I
2) Sea f el mapeo correpondiente a A, entonces f es sobre
3) ker A = 0
4) Rg (A) = n
5) El mapeo f correspondiente a A es uno a uno.
4. TRANSPUESTA E INVERSA DE MATRICES 51
Demostraci on 3.41. Para demostrar esta proposici on, vamos a demostrar del
paso 1) al 5) y luego el 5) al 1).
1) 2): Sea f L(V
1
, V
2
) , tal que dimV
1
= dimV
2
= n. Sea y V
2
, tal que
y = Iy, con I la matriz identidad. Se sigue que y =
_
A A
1
_
y = A
_
A
1
y
_
.
Entonces s existe un x V
1
tal que Ax = y pues x = A
1
y.
2) 3): Esto se sigue del hecho que n = dimA(V
1
) + dimker A, entonces
dimker A = 0.
3) 4): Esto se sigue del hecho que Rg (A) = dimA(V
1
) = n
4) 5): Rg(A) = n implica que no existen columnas o renglones de ceros, esto
hace al mapeo correspondiente uno a uno.
5) 1): f uno-uno implica que existe f
1
, por tanto A
1
es la matriz asociada
a f
1
.
Ahora veremos un metodo para encontrar la inversa. De nuevo usamos las op-
eraciones invariantes de la cerradura lineal. Supongamos que A
1
existe y aplique-
mos el metodo de GauJordan a la matriz extendida (A, I), lo que debemos
obtener al nal es (I, A
1
), es decir
_
_
_
_
_
a
11
a
1n
.
.
. 1 0
.
.
.
.
.
.
.
.
.
a
n1
a
nn
.
.
. 0 1
_
_
_
_
_
pasos de

Gau-Jordan
_
A
.
.
. I
_
_
_
_
_
_
1 0
.
.
. a
1
11
a
1
1n
.
.
.
.
.
.
.
.
.
0 1
.
.
. a
1
n1
a
1
nn
_
_
_
_
_
_
I
.
.
. A
1
_
donde estamos usando la notaci on a
1
ij
= (a
ij
)
1
.
Definici on 3.42. Una matriz A del tipo (n, n) se llama regular s Rg(A) = n.
Se llama singular si Rg(A) ,= n.
Es decir, A regular implica que existe su inversa A
1
y ademas Rg (A) = n.
Comentario 3.43. Si A es regular la soluci on de Ax = b es x = A
1
b y es
unica.
Ejercicio 3.44. Sean las matrices
M =
_
_
1 1 2
2 3 1
1 1 0
_
_
N =
_
_
0 1 2
2 0 1
1 1 0
_
_
S =
_
_
1 1 2
2 2 2
1 1 0
_
_
Usando el metodo de Gau-Jordan, encuentre la inversa de M, N y S.
Ejercicio 3.45. Sean el vector
b =
_
_
1
1
2
_
_
52 3. MATRICES
Resuelva los sistem as Mx = 0, Nx = 0 y Sx = 0 asi como Mx = b, Nx = b
y Sx = b usando el metodo de Gau-Jordan y usando la inversa de las matrices
M y N. Diga cuantas soluciones tiene cada sistema.
CHAPTER 4
DETERMINANTES
1. Denicion
Al igual que los grupos y los anillos, el conjunto de las matrices puede separarse
en clases. Las matrices son objetos matematicos de cierta complejidad, es por eso
que es muy interesante analizar cantidades que sean invariantes en las diferentes
clases de las matrices. Como veremos mas adelante, los determinantes son canti-
dades invariantes en las clases y pertenecen al campo en donde se denieron las
matrices. Estas cantidades se le pueden asociar a las matrices cuadradas. Como
veremos en la siguiente secci on, los determinantes tambien son muy utiles para
calcular las soluciones de sistem as de ecuaciones lineales. Por ahora daremos su
denicion y alg unas de sus propiedades.
Sea A matriz cuadrada sobre el campo K del tipo (n, n), asociada al mapeo
lineal f L(V
1
, V
2
)
A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn
_
_
_
Definici on 4.1. Se asocia a A de manera unica, un n umero de K llamado el
determinante de A, denido como
det A =

a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn

P
(sgnP) a
1i1
a
2i2
a
nin
,
donde la suma se lleva a cabo sobre todas las posibles permutaciones
P =
_
1 2 n
i
1
i
2
i
n
_
de los n umeros 1, 2, , n.
Observemos entonces que la suma que calcula el determinante de la matriz
A, tiene n! terminos. El sgnP es el signo de la permutacion de P. Y como se
calculan los determinantes? El c alculo de los determinantes suele ser un proceso
muy largo y tedioso, sobre todo para matrices de dimensi on grande. Sin embargo
existen alg unos metodos para calcular el determinante que suelen ayudar y reducir
mucho el trabajo del c alculo. Para el caso de dimensiones bajas, n = 2, 3 se usa la
regla de Sarras. Aplicando la denicion de determinante para una matriz (2, 2),
se llega facilmente a la formula
det

a b
c d

= ad bc
53
54 4. DETERMINANTES
Para el caso de una matriz (3, 3) tambien existe una formula simple. De la
denicion de determinante se obtiene
det

a b c
d e f
g h i

= aei +bfg +cdh ceg bdi afh


Para n > 3 el ploblema se complica mucho y es conveniente usar el teorema
de Laplace, que consiste en lo siguiente. Para calcular el determinante de la matriz
A = (A)
j
= a
ij
que es (n, n), primero se calculan los determinantes

C
lk
, donde los

C
lk
son los subdeterminantes (n 1, n 1) generados por medio de quitar la l-esima
linea y la k-esima columna del det A, tal que det A =
n
i=1
a
ik
C
ik
=
n
i=1
a
ki
C
ki
para k 1, 2, , n, donde los determinantes C
lk
= (1)
l+k

C
lk
se llaman los
cofactores de A, es decir
C
ik
= (1)
i+k

a
11
a
12
a
1k1
a
1k+1
a
1n
a
21
a
22
a
2k1
a
2k+1
a
2n
.
.
.
.
.
.
a
i1 1
a
i1 2
a
i1 n
a
i+1 1
a
i+1 2
a
1+1 n
.
.
.
.
.
.
a
n1
a
n2
a
nn

El teorema de Laplace consiste en reducir det A en n subdeterminantes


C
ik
de una dimensi on menor y despues aplicar la formula de Laplace det A =

n
i=1
a
i
k
C
i
k
. Entonces se aplica sucesivamente este proceso hasta llegar a un de-
terminante de 3 o 2 lineas, cuya formula es ya conocida. Por supuesto este proceso
puede llegar a ser muy largo para determinantes de dimensi on grande. Para calcular
estos determinantes, a veces ayudan otros metodos. A continuacion presentaremos
uno de ellos que es muy util para estos determinantes. Este metodo esta basado en
alg unas propiedades de los determinantes. Para explicar estas propiedades, escribi-
mos las lineas de det A como n -uplas o vectores V
1
, V
2
, , V
n
. Entonces det A
se puede ver como una funci on del conjunto de estos vectores, al campo K, es decir
D : V
1
, V
2,
, V
n
K , tal que D(V
1
, , V
n
) = det A, donde V
i
es la linea i
de A. Las propiedades del determinate en terminos de esta funci on son
1) D(V
1
, , V
i1
, V
i
, V
n
) = D(V
1
, , V
i
, V
i1
, , V
n
), intercambiar dos
lineas cambia el signo del determinante.
2)
a) Sea m K, entonces mD(V
1
, , V
i
, , V
n
) = D(V
1
, , mV
i
, , V
n
),
el producto del determinate por una constante es igual al producto de una linea
por la constante.
b) D(V
1
, , V
k
, , V
n
)+D(V
1
, , V
1
k
, , V
n
) = D(V
1
, , V
k
+V
1
k
, , V
n
),
la suma de dos determinantes con una k-esima linea diferente, es igual al determi-
nante de la matriz con la suma de las k-esimas lineas. Estas dos propiedasdes hacen
al determinante lineal en cada argumento, es decir, D es una funci on multilineal.
3) D(V
1
, V
n
) = 0 sii V
1
, V
n
son linealmente dependientes.
4) det A = det A
T
5) det (A B) = (det A) (det B) = det (B A)
1. DEFINICI

ON 55
El determinante es muy util para saber si una matriz es regular. Esto se logra
usando el siguiente lema.
Lema 4.2. Sea A matriz del tipo (n, n). A es regular s y s olo s det A ,= 0
Demostraci on 4.3. =) A regular implica que existe A
1
, entonces A
A
1
= I, pero det
_
A A
1
_
= (det A)
_
det A
1
_
. Como det I = 1, se sigue que
(det A)
_
det A
1
_
= 1, por lo que det A ,= 0.
Ejercicio 4.4. Demuestre la otra direcci on =) del lema.
Corolario 4.5. A regular implica que det A
1
= (detA)
1
Existe un metodo muy usado para calcular la inversa de una matriz, usando
los cofactores. Para ver esto, primero denamos la matriz adjunta.
Definici on 4.6. La matriz adjunta se dene como
adj (A) = (adj (A))
ij
= C
ij
donde los C
ij
son los cofactores de la matriz A
Recordemos que el determinante de A se calcula como det A =
n
i=1
a
ik
C
ik
.
Vamos a introducir una proposicion, sin demostracion, que generaliza esta ultima
expresion.
Proposici on 4.7. Se puede generalizar la expresi on para detA como det A
kj
=

n
i=1
a
ik
C
ij
donde
kj
es la delta de Kronecker denida por

kj
=
_
1 si k = j
0 si k ,= j
la cual tambien puede ser representada por la matriz identidad I, i.e. (I)
kj
=
kj
Es por eso que en terminos de la matriz adjunta, el determinante se escribe
entonces como (det A) I =
n
i=1
a
ik
C
ij
= A(adj (A)). Esta ultima formula nos da
un metodo para calcular la inversa, esto es
A
1
= (det A)
1
(adj (A))
Finalmente, ya vimos que det A ,= 0 implica que A es regular y ademas que
Rg (A) = n. Entonces implica que existe una unica solucion del sistema Ax = b.
Existe tambien un metodo que usa determinantes para resolver este sistema. A
este metodo se le conoce como Teorema de Cramer, el cual enunciaremos aqu sin
demostracion.
Teorema 4.8. de Cramer. Sea A matriz de tipo (n, n) y Ax = b sistema de
ecuaciones lineales.
A =
_
_
_
a
11
a
1n
.
.
.
.
.
.
a
n1
a
nn
_
_
_ b =
_
_
_
b
1
.
.
.
b
n
_
_
_
si det A = [A[ , = 0 entonces la soluci on al sistema
x =
_
_
_
l
1
.
.
.
l
n
_
_
_
56 4. DETERMINANTES
es unicamente determinada y tiene la forma
l
j
=

a
11
a
1j1
b
1
a
1j+1
a
1n
.
.
.
a
n1
a
nj1
b
n
a
nj+1
a
nn

det A
El numerador de la solucion l
j
, es el determinante de la matriz A
j
generada
por substituir la j-esima columna de A por el vector b. Para entender mejor esta
formula, vamos a ver algunos ejemplos.
Ejemplo 4.9. Sea Ax = b
A =
_
_
4 5 6
2 2 1
1 1 1
_
_
b =
_
_
2
10
1
_
_
,
el determinante de A lo calculamos usando el teorema de Laplace
det A = 4

2 1
1 1

(2)

5 6
1 1

+ 1

5 6
2 1

= 4 (1) + (1) + 1 (7) = 5


Entonces la soluci on del sistema esta dado por
l
1
=
1
5

2 5 6
10 2 1
1 1 1

= 3, l
2
=
1
5

4 2 6
2 10 1
1 1 1

= 2,
l
3
=
1
5

4 5 2
2 2 +10
1 1 1

= 0
Ejercicio 4.10. Resolver por el metodo de Gau-Jordan, por el metodo de la
matriz inversa y por el metodo de Kramer, los siquientes sistem as de ecuaciones.
1)
3l
1
+ 2l
2
l
3
= 1
l
1
l
2
+ 3l
3
= 9
4l
1
6l
2
+l
3
= 2
2l
1
+ 3l
2
4l
3
= 8
2)
3l
1
+ 2l
2
l
3
= 1
l
1
l
2
+ 3l
3
= 9
2l
1
+ 3l
2
4l
3
= 8
3)
3l
1
+ 2l
2
l
3
= 0
l
1
l
2
+ 3l
3
= 0
2l
1
+ 3l
2
4l
3
= 0
2. MATRICES SIMILARES 57
4)
3l
1
+ 2l
2
l
3
= 0
l
1
l
2
+ 3l
3
= 0
4l
1
6l
2
+l
3
= 0
5)
3l
1
+ 2l
2
l
3
= 1
l
1
l
2
+ 3l
3
= 2
4l
1
6l
2
+l
3
= 2
2l
1
+ 3l
2
4l
3
= 8
2. Matrices Similares
El conjunto de matrices se puede separar en clases de equivalencia. Esta sepa-
racion es muy conveniente ya que en muchas ocaciones va a ser suciente trabajar
con alg un elemento de la clase y no con una matriz en general. A la relacion que
separa a las matrices en clases, se le llama similaridad y es de lo que nos ocuparemos
en esta secci on.
Definici on 4.11. Dos matrices A, B del tipo (n, n, ) se llama similares s
existe una matriz regular U del tipo (n, n) tal que A = UBU
1
.
Notaci on 4.12. A la transformaci on B UBU
1
se le llama transfor-
maci on de similaridad.
La transformaci on de similaridad es una relacion de equivalencia y es justo este
hecho lo que da a esta transformaci n su importancia. Esta armaci on la pondremos
en la siguiente proposicion.
Proposici on 4.13. La similaridad en el conjunto de todas las matrices (n, n)
es una relaci on de equivalencia.
Demostraci on 4.14. Veamos que la relaci on es
1) reexiva: A es similar a A pues U = I es regular.
2) simetrica: A = UBU
1
implica que B = U
1
AU
3) transitiva: A = UBU
1
y B = SCS
1
con U y S regulares, entonces
existe W = US tal que A = UBU
1
= U
_
SCS
1
_
U
1
= (US) CS
1
U
1
=
USC (US)
1
.
Ahora vamos a ver algunas de las propiedades mas interesantes de matrices
similares. Para esto, supongamos que tenemos una matriz que es la suma de muchas
matrices. Para transformar esta matriz a su similar, es suciente en conocer la
similaridad de cada sumando y luego sumarlas todas. Esta propiedad la podemos
enunciar como un lema.
Lema 4.15. Para transformar una suma de matrices en su similar, se suman
las similares de cada matriz.
Demostraci on 4.16. Se tiene U (A
1
+ +A
n
) U
1
= UA
1
U
1
+ +
UA
n
U
1
.
De la misma forma, podemos transformar potencias de matrices
58 4. DETERMINANTES
Lema 4.17. El similar de la potencia de una matriz es la potencia del similar.
Demostraci on 4.18. Se tiene UA
n
U
1
= UAU
1
UAU
1
UAU
1
=
_
UAU
1
_
n
.

Por lo tanto, se tiene la siguiente proposicion,


Lema 4.19. La matriz similar de una matriz polinomial es el polinomio de la
matriz similar .
Demostraci on 4.20. Por los lem as anteriores se tiene que Up
n
(A)U
1
=
p
n
(UAU
1
) para todo polinomio p
n
de grado n.
El siguinte paso es determinar representantes convenientes de cada clase de
equivalencia.
3. Invariantes de Matrices Similares (Vectores y Valores Propios)
El problema que nos enfrentamos ahora es el de saber si una matriz est a en
alg una clase de equivalencia del conjunto de matrices conocidas. Las clases de equiv-
alencia poseen alg unos inveriantes, n umeros o vectores que caracterizan la clase o
son un criterio para saber si alg una matriz esta en alg una clase determinada. En
esta secci on veremos alg unos invariates, sus propiedades y lo metodos mas comunes
para calcularlos. La primera propiedad esta dada por la siguiente proposicion
Proposici on 4.21. Matrices similares realizan la misma transformaci on lin-
eal, usando diferentes bases del espacio vectorial.
Demostraci on 4.22. Veamos primero una idea de la demostraci on. Sea la
transformaci on lineal f L(V, V ), esta transformaci on tendra asociada una ma-
triz A en la base x
i

i=1, ,n
. En otra base y
i

i=1, ,n
, relacionada con la base
x
i

i=1, ,n
por y
i
=

n
j=1
u
ij
x
j
, que se puede representar matricialmente por
y = Ux, la transformaci on lineal tendr a otra matriz de representaci on B. En-
tonces, un vector v V podr a escribirse en cualquiera de las dos bases como
v =

n
i=1
r
i
x
i
=

n
j=1
s
j
y
j
=

n
j=1

n
k=1
s
j
u
jk
x
k
, por lo que encontramos la
relaci on matricial r = Us. Se debe cumplir que Av = Bv, o sea Arx = Bsy, es
decir, AUsx = BsUx, de donde se sigue que U
1
AU = B.
Ejercicio 4.23. Mostrar los detalles de la proposici on anterior.
Entonces tenemos el siguiente problema Como reconocer matrices similares?
Que propiedades se mantienen iguales cuando transformamos una matriz en otra
por medio de una transformaci on de similaridad? La siguiente proposicion nos dar a
una idea para resolver estas preguntas.
Proposici on 4.24. Sean A y B matrices similares. Entonces
a) Rg (A) = Rg (B)
b) det A = det B
Demostraci on 4.25. Sean A, B del tipo (n, n) y A = UBU
1
, con U regular.
b) det A = det
_
ABU
1
_
= det U det Bdet U
1
= det B
Ejercicio 4.26. Demostrar a) de la proposici on anterior.
3. INVARIANTES DE MATRICES SIMILARES (VECTORES Y VALORES PROPIOS) 59
Ahora ya tenemos un primer criterio para saber cuando dos matrices pertenecen
a la misma clase, con esta proposicion, al menos sabemos que si det A ,= det B o
Rg (A) ,= Rg (B) entonces A y B no son similares. Vamos a introcir otro criterio
para saber si dos matrices no son similares. Para esto iniciamos con la siguiente
denicion.
Definici on 4.27. Sea A la matriz que representa al automorsmo f L(V, V )
con dimV = n. A cada x V , con x ,= 0
V
, que cumple Ax = x para alg un
K, se le llama vector propio (eigen vector) de A y se le llama valor
propio (eigen valor) asociado a x.
El sistema Ax = x puede ser escrito de la manera mas conveniente como
(4.1) (A I) x = O
donde I es la matriz identidad y O es la matriz con ceros en todas las entradas.
(4.1) es un sistema homogeneo de ecuaciones lineales que en principio podemos
resolver con caulquiera de los metodos que ya hemos expuesto. Observemos que el
sistema (4.1) tiene soluciones no triviales, diferentes de cero, si Rg (A I) < n,
pero esto sucede si det (A I) = 0
K
. Este hecho da pie a la siguiente denicion.
Definici on 4.28. A la matriz A I se le llama la matriz caracteristica
de A. Al polinomio det (A I) se le llama polinomio carateriztico de la
ecuaci on (4.1). det (A I) = 0 se le llama la ecuaci on caracteristica de A.
Una de las propiedades mas importantes de los polinomios caracteristicos es la
siguiente
Teorema 4.29 (Cayley-Hamilton). Toda matriz es raiz de su polinomio car-
acteristico.
Demostraci on 4.30. Sea A matriz y P = A I. Sea B la matriz adjunta
de P, por lo que det(P)I = P(adj(P)), es decir
[ A I [ I = (A I) B.
Como B es una matriz polinomial de grado n 1 y det(P) es un polinomio de
grado n, se tiene que la ecuaci on anterior se puede reescribir como
(a
0
+a
1
+ +a
n

n
) I = (A I)
_
B
0
+B
1
+ +B
n1

n1
_
donde det(P) = a
0
+a
1
+ +a
n

n
es el polinomio caracteristico y las matrices B
i
,
con i = 1, , n1 son las matrices que forman la matiz polinomial B. Igualemos
coecientes de igual grado en de ambos lados de la ecuaci on anterior, de donde
se obtiene
a
0
I = AB
0
;
a
1
I = AB
1
B
0
;
a
2
I = AB
2
B
1
;
.
.
.
a
n1
I = AB
n1
B
n2
;
a
n
I = B
n1
.
60 4. DETERMINANTES
Ahora multipliquemos la segunda igualdad de la lista anterior por A, la tercera
igualdad por A
2
, y asi susesivamente hasta que la ultima la multiplicamos por A
n
y sumemos todo de ambos lados. El resultado es
a
0
I +a
1
A + +a
n
A
n
= 0

En lo que sigue, daremos un metodo para calcular los valores propios y los
vectores propios de una matriz A.
Paso 1. Usando la ecuaci on caracteristica, se calculan los valores caracterisiticos

1
, ,
n
como raices del polinomio caracteristico.
Paso 2. Para cada autovalor encontrado, se soluciona la ecuaci on
(A I) x =
_
_
_
_
_
a
11
a
12
a
in
a
21
a
22
a
nn
.
.
.
a
n1
a
n2
a
nn

_
_
_
_
_
_
_
_
_
_
l
1
l
2
.
.
.
l
n
_
_
_
_
_
= 0.
El metodo es simple, para verlo con mas claridad vamos a ver un ejemplo.
Ejemplo 4.31. Sea V = R
2
y K = R, y sea A la matriz A =
_
3 1
2 4
_
.
Entonces el polinomio caracteristico de A es
det (AI) = (3 ) (4 ) 2 = 12 3 4 +
2
2 =
2
7 + 10 = 0
Las raices del polinomio caracteristico son,
1,2
=
7
2

_
49
4

40
4
=
7
2

3
2
, es
decir
1
= 2 y
2
= 5. Entonces los valores propios son 2 y 5.
Los vectores propios asociados a
1
se encuentran resolviendo
(A
1
I) x = 0 =
_
3 2 1
2 4 2
__
l
1
l
2
_
=
_
0
0
_
La soluci on de esta ecuaci on matricial se reduce a la soluci on del sistema
l
1
+l
2
= 0
2l
1
+ 2l
2
= 0
que conduce a la soluci on l
1
= l
2
. Esto es, los vectores propios asociados a este
valor propio son de la forma
_
r
r
_
con r R. Los vectores propios asociados a

2
se encuentran resolviendo la ecuaci on
(A
2
I) x = 0 =
_
3 5 1
2 4 5
__
l
1
l
2
_
=
_
0
0
_
la ecuaci on matricial se reduce a
2l
1
+l
2
= 0
2l
1
l
2
= 0
cuya soluci on esta dada por l
2
= 2l
1
, entonces los vectores propios est an dados por
_
s
2s
_
, con s R.
3. INVARIANTES DE MATRICES SIMILARES (VECTORES Y VALORES PROPIOS) 61
Observemos la siguiente importante propiedad. Sean A y B matrices similares,
i..e. A = UBU
1
. Entonces se sigue que det (AI) = det
_
U
1
BU I
_
=
det
_
U
1
BU U
1
IU
_
= det
_
U
1
(B I) U
_
=
_
det U
1
_
det (B I) det U = det (B I) o sea det (A I) = det (B I).
Esta es una propiedad muy importante de las matrices similares, es decir:
Proposici on 4.32. Matrices similares tiene el mismo polinomio caracteristico
y por lo tanto los mismos valores y vectores propios.
Con este ultimo resultado ya tenemos tres criterios para decidir si dos matrices
no son similares. Si su rango o su determinante o sus valores o vectores propios no
son los mismos, de entrada las matrices no son similares. Para que dos matrices
sean similares, deben tener al menos el mismo rango, el mismo determinante y los
mismo valores propios.
Vamos a introducir una denicion muy importante que consiste en la suma
de los elementos de la diagonal de una matriz, a esta suma se le llama la traza.
Formalmente se dene como sigue.
Definici on 4.33. La traza de A esta denida por
T
r
A =
n
i=1
a
ii
es decir, es la suma de los elementos de la diagonal de A
Comentario 4.34. Otras propiedades de los valores y vectores propios, son las
siguientes.
1) Si
1
,
2
, ,
n
son los valores propios de la matriz A, se tiene que
det A =
n
i=1

i
, y
T
r
A =
n
i=1

i
2) Como consecuencia de 1) se sigue
Si det A = 0, esto es s y s olo s existe alg un valor propio de A que es cero,

j
= 0.
A regular, s y s olo s ningun valor propio de A tiene el valor 0, es decir, s y
s olo s 0 no es valor propio de A.
3) Si
1
,
2
, ,
n
son los valores propios de A y son todos distintos, im-
plica que el conjunto de vectores propios x
1
, , x
n
donde x
i
es el vector propio
asociado a
i
, es linealmente independiente en V.
4) Si K = R y V = R
n
, los valores propios son en general complejos. Pero si
A = A
T
los valores propios son reales.
5) Si A O(n) =
_
A [ A es (n, n) y A
T
= A
1
_
, entonces todos los valores
propios tienen el valor 1.
Ejercicio 4.35. Demostrar las propiedades 1) a 5)
Estas propiedades de los valores y vectores propios vuelven a estos de suma
importancia en el estudio de matrices y en general en el algebra lineal.
CHAPTER 5
FORMAS CANONICAS
1. Introducci on
Ya hemos separado al conjunto de matrices en clases de equivalencia. Ahora
buscaremos representantes diversos que sean simples en estas clases de equivalen-
cia. Ya sabemos que estos representantes puede ser cualquier miembro de la clase.
Sin embargo, los representantes mas simples para trabajar seran siempre los que
contengan un mayor n umero de ceros en sus componentes. Estos representantes
simples son generalmente diagonales o cuasidiagonales. Para obtener estos repre-
sentantes hay que tomar varias cosas en cuenta. Ya sabemos que invariantes de
matrices similares son, entre otros, el rango, el determinante y los valores propios.
Sin embargo, estos invariantes sirven para saber cuando dos matrices no son sim-
ilares. Por ejemplo, si Rg(A) ,= Rg(B), esto implica que A y B no son similares.
Sin embargo, si Rg(A) = Rg(B), esto no implica que A y B son similares.
Para ver si dos matrices est an en la misma clase de equivalencia con la relacion
de similaridad, se encuentra un representante simple de la clase y se compara este
con las matrices que deben ser similares. Si cada una es similar al representante,
las matrices son similares. En otras palabras, sean por ejemplo A y B, son A B
similares? Si [C] es un representante de una clase tal que A [C], se ve si B [C].
A estos representantes simples se les llama formas canonicas. Para introducir las
formas canonicas, vamos primero a dar alg unas deniciones utiles.
Definici on 5.1. Las matrices pueden ser
Una matriz diagonal, si solo tiene terminos de cero en los elementos diag-
onales esto es
C =
_
_
_
_
_
c
11
0 0
0 c
22
0
.
.
.
.
.
.
0 0 c
nn
_
_
_
_
_
Una matriz es triagonal, si es de la forma
C =
_
_
_
_
_
c
11
c
12
c
1n
0 c
22
c
2n
.
.
.
.
.
.
.
.
.
0 c
nn
_
_
_
_
_
, o C =
_
_
_
_
_
c
12
0 0
c
21
c
22
.
.
.
.
.
.
c
n1
c
n2
c
nn
_
_
_
_
_
63
64 5. FORMAS CANONICAS
Una matriz es cuasidiagonal, si es hecha de bloques no diagonales en la
diagonal, de la forma
C =
_
_
_
_
_
_
[ ] 0

.
.
.
.
.
.
0 [ ]
_
_
_
_
_
_
Si la matriz es polinomial, como es el caso de la matriz caracteristica, es muy
conveniente hacer la siguiente denicion.
Definici on 5.2. Una matriz polinomial U() se llama forma can onica
diagonal, si todo elemento diagonal p
i
() divide al elemento siguiente p
i+1
() y si
el elemento principal de todos los polinomios p
1
(), , p
n
() diferente de cero es
1, es decir, una matriz en su forma can onica diagonal tiene la estructura
C =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0
.
.
. 0
0 1
p
1
()
.
.
.
.
.
.
.
.
.
p
n
()
0 0 0
.
.
.
0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
donde p
i
() con i = 1, , n son polinomios, tales que p
2
/p
1
, , p
n
/p
n1
son
polinomios. A los polinomios p
i
() se les llama los factores invariantes de la
matriz.
Siempre es posible llevar a una matriz polinomial a su forma canonica diagonal,
usando transformaciones elementales. Para ver esto veamos un ejemplo:
Ejemplo 5.3. Sea la matriz polinomial
_
_
x
3
2x + 1 3x
4
+ 2x x
2
2x
2
x 0 1
3x
2
+ 1 2x
3
x
_
_
El primer paso para llevar esta matriz a su forma can onica diagonal, es poner
el polinomio de la matriz de menor grado diferente de cero, en la esquina superior
izquierda. En este caso el polinomio de menor grado es el 1. Entonces, cambiando
la tercera columna por la primera y luego el segundo rengl on por el primero, se
obtiene
_
_
1 0 2x
2
x
x
2
3x
4
+ 2x x
3
2x + 1
x 2x
3
3x
2
+ 1
_
_
Ahora multiplicamos el primer rengl on por x
2
y lo restamos con el segundo,
lo ponemos como segundo rengl on. An alogamente, multiplicamos el primer rengl on
1. INTRODUCCI

ON 65
por x y lo restamos con el tercero, colocandolo en el tercer rengl on. Se obtiene:
_
_
1 0 2x
2
x
0 3x
4
+ 2x 2x
4
+ 2x
3
2x + 1
0 2x
3
2x
3
+ 4x
2
+ 1
_
_
Entonces multiplicamos la primera columna por 2x
2
x y la restamos de la
tercera columna, la ponemos en vez de la tercera columna, para obtener
_
_
1 0 0
0 3x
4
+ 2x 2x
4
+ 2x
3
2x + 1
0 2x
3
2x
3
+ 4x
2
+ 1
_
_
El resultado es que tenemos una matriz cuasidiagonal. Volvemos a empezar el
proceso, pero ahora con la matriz 2 2 de la diagonal inferior. Pongamos de nuevo
el polinomio de menor grado (y m as simple) en la esquina superior izquierda. Esto
se logra cambiando el segundo por el tercer rengl on. Se obtiene
_
_
1 0 0
0 2x
3
2x
3
+ 4x
2
+ 1
0 3x
4
+ 2x 2x
4
+ 2x
3
2x + 1
_
_
Lo que sigue es an alogo al proceso anterior, hay que diagonalizar este bloque.
Vamos a multiplicar el segundo rengl on por 3x
4
+2x y restarlo con el tercer rengl on
multiplicado por 2x
3
. Se obtiene
_
_
1 0 0
0 2x
3
2x
3
+ 4x
2
+ 1
0 0
_
2x
4
+ 2x
3
2x + 1
_ _
2x
3
_

_
2x
3
+ 4x
2
+ 1
_ _
3x
4
+ 2x
_
_
_
Finalmente, multiplicamos la tercera columna por 2x
3
y se la restamos a la
segunda columna multiplicada por 2x
3
+4x
2
+1 y la ponemos en vez de la tercera
columna, obtenemos:
_
_
1 0 0
0 1 0
0 0 10x
7
16x
6
+ 5x
4
10x
3
2x
_
_
donde hemos dividido el segundo rengl on entre 2x
3
, para obtener en la diagonal
un polinomio que divida al ultimo de la diagonal. Observemos que el determinante
de la matriz original es justamente
_
10x
7
16x
6
+ 5x
4
10x
3
2x
_
, como era
de esperarse.
Cuando representamos una transformaci on lineal con su matriz, generalmente
utilizamos elementos arbitrarios del dominio de la funci on. Como vamos a ver
adelante, los valores y vectores propios son muy convenientes para representar la
transformaci on linea, porque la matriz que le corresponde en esta representacion es
diagonal. Vamos a ver esto en la siguiente proposicion.
Proposici on 5.4. Sea V espacio vectorial de dimensi on nita n y f L(V, V ).
f es representable por una matriz diagonal, sii existe una base x
1
, , x
n
de V
y n umeros del campo
1
,
2
, ,
n
K tales que f (x
i
) =
i
x
i
. Entonces los
n umeros
1
, ,
n
son los elementos de la diagonal de esta matriz.
66 5. FORMAS CANONICAS
Demostraci on 5.5. Sea A la matriz que representa a f. Como f(x
1
) =

1
x
1
, , f(x
n
) =
n
x
n
, esto es sii se tiene que
A =
_
_
_

1
0
.
.
.
0
n
_
_
_

Esta proposicion es muy importante porque reduce el problema de encotrar una


representacion simple de la clase a encontrar la base en la cual esta representacion
es diagonal. Es mas, los valores propios de la transformaci on lineal son raices del
polinomio caracteristico de la matriz de representacion, esto es:
Teorema 5.6. Sean V espacio vectorial, f L(V, V ), A la matriz repre-
sentaci on de f y k K. Entonces k es un valor propio de f sii k es una raiz del
polinomio caracteristico de A.
Demostraci on 5.7. Sea k valor propio de f, del vector propio x. Entonces
Ax = kx, esto es sii (A kI) x = 0. Pero este sistema de ecuaciones lineales solo
tiene soluci on no trivial sii det (A kI) = 0.
Esto es, si queremos encontrar la base en la cual una transformaci on lineal tiene
una representacion diagonal, basta con encontrar sus valores y vectores propios. Si
estos vectores propios son l.i., esta base es la apropiada. Si los vectores propios no
son l.i., entonces debemos buscar alg una representacion similar adecuada. Vamos
a ver esto. Para poder ver si dos matrices son similares, se utiliza la denicion de
matrices equivalentes, esta es:
Definici on 5.8. Dos matrices polinomiales A() y B() son equivalentes,
si existen U y V de determinantes no nulos que no dependen de , tal que
A() = UB() V
La relacion entre matrices similares y matrices equivalentes es que dos matrices
son similares si sus matrices caracteristicas son equivalentes, esto lo vemos en el
siguiente teorema.
Teorema 5.9. Sean A y B denidas en un cuerpo conmutativo K. A y B son
similares s y s olo s AI y B I son equivalentes.
Demostraci on 5.10. =) Si A = UBU
1
entonces AI = U (B I) U
1
=) Sean AI y BI equivalentes, entonces AI = S (B I) R, para
S y R matrices que no dependen de . Como B tampoco depende de , igualando
coecientes del mismo orden, se tiene I = SR y A = SBR, ambas identidades
implican que A = SBS
1
.
Un metodo para determinar la semejanza de las matrices A y B es el siguiente.
Se forma la matriz caracteristica de cada una de las matrices AI y B I y se
reducen a su forma canonica diagonal con pasos elementales. Si despues de reducir
ambas matrices caracteristicas a su forma mas elemental, las dos formas coinciden,
entonces A y B son similares. Veamos un ejemplo.
1. INTRODUCCI

ON 67
Ejemplo 5.11. Sean
A =
_
_
5 3 3
3 1 3
3 3 1
_
_
y (5.1)
B =
_
_
1 3 3
6 8 6
6 6 4
_
_
(5.2)
mostremos que estas dos matrices son similares. Primero notemos que sus determi-
nantes son iguales, i.e., det A = det B = 4. Si esto no fuera asi, A y B no pueden
ser similares. Tambien notemos que A y B tienen la misma traza trA = trB = 3.
Entonces si pueden ser similares. El determinante y la traza nos dan una guia
para ver si las dos matrices son similares, pero no es suciente. Las dos matri-
ces pueden tener incluso el mismo polinomio caracteristico, pero aun asi no ser
similares. Vamos a ver si AI y B I son equivalentes. Se tiene
AI =
_
_
5 3 3
3 1 3
3 3 1
_
_

_
_
3 3 1
3 1 3
5 3 3
_
_

_
_
1 0 0
0 2 2 +
0 3 (5 ) 3 1/3 (1 +) (5 )
_
_

_
_
1 0 0
0 2 0
0 0 3 1/3 (1 +) (5 ) + 2
_
_

_
_
1 0 0
0 2 0
0 0 (1 +) (2 )
_
_
68 5. FORMAS CANONICAS
y
B I =
_
_
1 3 3
6 8 6
6 6 4
_
_

_
_
6 6 4
6 8 6
1 3 3
_
_

_
_
1 0 0
0 2 2 +
0 3 + 1 + 3 1/6 (4 +) (1 +)
_
_

_
_
1 0 0
0 2 0
0 0 3 1/6 (4 +) (1 +) 2 +
_
_

_
_
1 0 0
0 2 0
0 0 (2 +) (1 +)
_
_
es decir, ambas tienen la misma reducci on usando operaciones elementales, por lo
que las dos matrices son similares.
Observen c omo el elemento central de la diagonal divide al ultimo. Esto es
muy interesante, en este caso se puede demostrar que A y B son ceros (raices) del
polinomio (1 +) (2 ). Por el teorema de Cayley-Hamilton sabemos que A y B
son ceros de su polinomio caracteristico (1 +) (2 )
2
, pero en este caso hay un
polinomio de grado menor (1 +) (2 ) con esa cararteristica. Esto da pie a la
siguiente denicion.
Definici on 5.12. Sea A matriz y m(x) polinomio. m se llama polinomio
mnimo de A, si m es el polinomio con menor grado que existe, tal que m(A) = 0.
Existe una relacion muy interesante entre los polinomios caracteristico y mnimo,
ya que este ultimo divide al primero. Esta armaci on la podemos ver en la siguiente
proposicion.
Proposici on 5.13. El polinomio minimo de una matriz divide siempre a su
polinomio caracteristico.
Demostraci on 5.14. Sea P(x) el polinomio caracteristico de la matriz A y m
es su polinomio mnimo, se debe tener que P(x) = p
1
(x)m(x) +p
2
(x), donde p
1
(x)
y p
2
(x) son polinomios. Esto implica que P(A) = p
1
(A)m(A) + p
2
(A) = 0, pero
como m(A) = 0, se sigue que p
2
(A) = 0.
Es claro entonces que si el polinomio caracteristico es de la forma P(x) =
(x
1
)
n1
(x
2
)
n2
(x
s
)
ns
, el polinomio minimo tiene que ser de la forma
m(x) = (x
1
)
m1
(x
2
)
m2
(x
s
)
ms
, con m
i
n
i
para todo i = 1, , s.
La pregunta que sigue es, si dos matrices son similares, como encuentro la
matriz que las relaciona? Ya vimos que las matrices A y B de los ejercicios 5.11
anteriores son similares, estas deben estar relacionadas entre si, tal que debe de
existir alg una matriz no sigular U que cumpla A = UBU
1
. Esta pregunta es la
2. FORMA CAN

ONICA DE JORDAN 69
que nos va a ocupar en la secci on siguiente, pero por ahora encontremos la matriz
de relacion de forma directa en un ejercicio.
Ejercicio 5.15. Encontrar los valores propios y los vectores propios de las
matrices A y B ((5.1) y (5.2)) del ejemplo 5.11. Ver si sus vectores propios son l.i.
En caso que si, construir la matriz diagonal de la clase correspondiente. Encontrar
las matrices U que relacionan a A y B con la matriz diagonal. Encontrar entonces
la matriz U que relaciona a A y B.
Ejercicio 5.16. Mostrar que si es valor propio de f y f es invertible, en-
tonces
1
es valor propio de f
1
.
Ejercicio 5.17. Mostrar que una matriz y su transpuesta tienen el mismo
polinomio caracteristico.
Ejercicio 5.18. Sea A matriz cuadrada 2 2. Mostrar que el polinomio car-
acteristico de A esta dado por
x
2
(trA) x + det A
donde trA =

n=2
i=1
(A)
ii
es la traza de A. (Ayuda: Mostrar primero que para todo
polinomio ax
2
+bx+c con raices x
1
, x
2
, se tiene que x
1
+x
2
= b/a y x
1
x
2
= c/a.)
Ejercicio 5.19. Sea A matriz cuadrada 3 3. Mostrar que el polinomio car-
acteristico de A esta dado por
x
3
(trA) x
2
+
1
2
_
(trA)
2

_
trA
2
_
_
x det A
Ejercicio 5.20. Sea A matriz cuadrada 4 4. Mostrar que el polinomio car-
acteristico de A esta dado por
x
4
(trA) x
3
+
1
2
_
(trA)
2

_
trA
2
_
_
x
2

1
6
_
(trA)
3
3
_
trA
2
_
(trA) + 2
_
trA
3
_
_
xdet A
2. Forma Canonica de Jordan
Veremos solo dos de las formas canonicas mas utilizadas en la literatura, la
forma canonica de Jordan y la forma canonica natural. La primera es muy con-
veniente porque es cuasidiagonal, pero tiene el problema de que el campo de las
matrices deben ser el de los complejos o alg un campo cerrado, entonces el repre-
sentante de la clase no siempre pertenece al campo donde estan las matrices. Esto
implica que esta forma canonica es conveniente solo para matrices sobre campos
cerrados. En cambio la forma canonica natural siempre conserva el campo donde se
trabaja, aunque tiene el inconveniente de que no es cuasidiagonal. Veamos primero
la forma canonica de Jordan.
Definici on 5.21. Una celula de Jordan es una matriz n n de la forma
J =
_
_
_
_
_
_
_
l 1 0 0
0 l 1 0
.
.
.
.
.
.
.
.
.
0 l 1
0 0 l
_
_
_
_
_
_
_
= lI +N
n
70 5. FORMAS CANONICAS
donde
N
n
=
_
_
_
_
_
_
_
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
.
0 0 1
0 0 0
_
_
_
_
_
_
_
Las matrices N
n
son matrices n n y tienen la asombrosa propiedad de
ser nilpotentes de grado n, es decir, (N
n
)
n
= 0. Esta propiedad es crucial
para denir la forma canonica de Jordan. Pero primero observemos la siguiente
proposicion.
Proposici on 5.22. El polinomio cararteristico de las celulas de Jordan n n
son de la forma (l x)
n
.
Demostraci on 5.23. Se puede ver por c alculo directo que det(J xI) =
(l x)
n
.
Antes de ver el teorema de Jordan, vamos a observar una propiedad muy in-
teresante de las matrices.
Lema 5.24. El determinante de una matriz cuasidiagonal A es igual al producto
de los determinantes de las matrices de su diagonal.
Demostraci on 5.25. Sea
A =
_
_
_
_
_
_
A
1
0 0
0 A
2
.
.
.
.
.
.
.
.
.
0 A
s
_
_
_
_
_
_
entonces A se puede escribir como
A =
_
_
_
_
_
_
A
1
0 0
0 I
.
.
.
.
.
.
.
.
.
0 I
_
_
_
_
_
_
_
_
_
_
_
_
I 0 0
0 A
2
.
.
.
.
.
.
.
.
.
0 I
_
_
_
_
_
_

_
_
_
_
_
_
I 0 0
0 I
.
.
.
.
.
.
.
.
.
0 A
s
_
_
_
_
_
_
donde las matrices I son matrices identidad de dimensi on conveniente. Se sigue
que det A = det A
1
det A
2
det A
s

Con esta propiedad ya podemos denir la forma canonica de Jordan a traves
del siguiente
Teorema 5.26. Sea A matriz cuadrada de orden n sobre el cuerpo de los
n umeros complejos, (o sobre un cuerpo algebraicamente cerrado) con polinomio
caracteristico P(x) = (x
1
)
n1
(x
s
)
ns
, con n = n
1
+ +n
s
, y polinomio
minimo m(x) = (x
1
)
m1
(x
s
)
ms
. Entonces A es similar a una matriz de
Jordan, de la forma.
J =
_
_
_
_
_
_
J
11
0 0
0 J
12
.
.
.
.
.
.
.
.
.
0 J
sk
_
_
_
_
_
_
2. FORMA CAN

ONICA DE JORDAN 71
donde cada
i
, con i = 1, , s es representada por las celulas de Jordan J
ik
con
k = 1, , t
i
tal que
1.- Existe al menos una celula de Jordan de orden m
i
y las dem as tendr an
ordenes menores o iguales que m
i
.
2.- La suma de los ordenes de las celulas J
ik
es n
i
.
3.- El n umero de celulas de Jordan J
ik
, es unicamente determinado para cada
matriz A.
Demostraci on 5.27. Vamos a ver s olo una idea de la demostraci on. Con-
struyamos la representaci on de Jordan de A. Como el polinomio mnimo de A es
m, se tiene que m(A) = (A
1
I)
m1
(A
s
I)
ms
= 0. Podemos denir matrices
A
i
con i = 1, , s tales que (A
1

1
I)
m1
= 0, , (A
s

s
I)
ms
= 0 y escribir
det
_

_
_
_
_
_
_
_
A
1
0 0
0 A
2
.
.
.
.
.
.
.
.
.
0 A
s
_
_
_
_
_
_
xI
_

_
= (x
1
)
m1
(x
s
)
ms
Denamos las matrices N
i
= A
i

i
I. Claramente las matrices N
i
son nilpo-
tentes tales que (N
i
)
mi
= 0. Una representaci on de estas matrices esta dada por
las matrices nilpotentes
N
i
=
_
_
_
_
_
_
_
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
.
0 0 1
0 0 0
_
_
_
_
_
_
_
Entonces podemos representar a la matriz A por una matriz de Jordan. La repre-
sentaci on quedar a determinada al reducir la matriz de Jordan y la matriz A a su
forma equivalente. Adem as se sigue que:
1.- El orden de A
i
es m
i
, al menos una vez.
2.- La suma de los ordenes de las celulas J
ik
es n
i
, debido a que J y A tienen
el mismo polinomio caracteristico.
3.- El n umero de celulas de Jordan J
ik
, es unicamente determinado para cada
matriz A ya que A y J son similares.
Ejemplo 5.28. Tomemos de nuevo la matriz A (5.1) del ejemplo 5.11
A =
_
_
5 3 3
3 1 3
3 3 1
_
_
ya sabemos que su polinomio caracteristico esta dado por (1 +) (2 )
2
y su poli-
nomio mnimo por (1 +) (2 ). Entonces, siguiendo la regla del teorema, se
tiene que, seg un el polinomio caracteristico, el valor propio 1 aparece una vez en la
diagonal y el valor propio 2 aparece dos veces. Adem as, segun el polinomio mnimo,
los dos valores propios tiene una celula de Jordan de grado 1. As, su forma de
Jordan ser a
(5.3) J =
_
_
2 0 0
0 2 0
0 0 1
_
_
72 5. FORMAS CANONICAS
Ejemplo 5.29. Sea ahora A la matriz
(5.4) A =
_
_
6 3 4
3 1 3
4 3 2
_
_
El determinante de esta matriz es 4 y su traza es 3. Su polinomio caracteristico es
de nuevo (1 +) (2 )
2
y ahora el polinomio mnimo es tambien (1 +) (2 )
2
,
como puede verse de tomar
(I +A) (2I A) =
_
_
3 0 3
0 0 0
3 0 3
_
_
,= 0.
Entonces la matriz de Jordan correspondiente tendr a al menos una celula de Jordan
de grado 2 del valor propio 2, esto es:
(5.5) J =
_
_
2 1 0
0 2 0
0 0 1
_
_
Hay una forma alternativa de encontrar la forma canonica de Jordan de una
matriz. Observemos lo siguiente. En una matriz diagonal, digamos 3 3, con sus
tres valores propios iguales, la forma canonica diagonal de su matriz caracteristica
sera
_
_
x 0 0
0 x 0
0 0 x
_
_
ya que el polinomio superior de la diagonal divide al siguiente. Si solo dos valores
propios fueran iguales, su matriz canonica diagonal sera
_
_
1 0 0
0 x
1
0
0 0 (x
1
) (x
2
)
_
_
y si los tres valores propios son diferentes sera
_
_
1 0 0
0 1 0
0 0 (x
1
) (x
2
) (x
3
)
_
_
Entonces, podemos tambien constriur la forma canonica de Jordan, calculando
la forma canonica diagonal de la matriz y formando una celula de Jordan para cada
factor invariante del grado del factor invariante correspondiente. Esto se puede
entender mejor con un ejemplo.
Ejemplo 5.30. Como ya vimos, la forma can onica diagonal de la matriz car-
acteristica de la matriz (5.1)
A =
_
_
5 3 3
3 1 3
3 3 1
_
_
3. FORMA CAN

ONICA NATURAL 73
es la matriz
_
_
1 0 0
0 2 0
0 0 (1 +) (2 )
_
_
Por lo que, su forma can onica de Jordan tendr a una celula de Jordan de orden
uno para el factor invariante 2 y otra celula diagonal para el factor invariante
(1 +) (2 ) (ver (5.3)).
Ejercicio 5.31. Encontrar la forma can onica de Jordan de las matrices
_
_
1 0 0
1
2
0
1
2
1 2 2
_
_
_
_
5
2
3
3
2
1 2 1

5
2
3
3
2
_
_
_
_
1 1 0
1 1 1
1 3 0
_
_
Ejercicio 5.32. Sea A una matriz con polinomio caracteristico (x 2)
3
(x 1)
2
y polinomio minimo (x 2)
2
(x 1) . Cual es su forma can onica de Jordan?
Ejercicio 5.33. Encontrar todas las form as can onicas de Jordan posibles de
una matriz que tiene polinomio caracteristico (x 2)
3
(x 1)
2
.
3. Forma Canonica Natural
La forma canonica natural tiene la ventaja sobre la forma canonica de Jordan,
de ser un representante para las clases de matrices en cualquier campo. A diferencia
de la forma canonica de Jordan, donde el campo tiene que ser algebraicamente
cerrado, como los complejos, la forma canonica natural es adecuada para cualquier
campo. Tiene la desventaja de nos ser diagonal. Hay una enorme semejanza entre
las dos formas canonicas, asi que empecemos por denir las celulas de la forma
canonica natural.
Definici on 5.34. Sea P(x) polinomio de grado n, tal que su coeciente prin-
cipal sea 1, i.e.
P(x) = a
0
+a
1
x + +a
n1
x
n1
+x
n
La matriz
N =
_
_
_
_
_
_
_
0 1 0 0
0 0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
a
0
a
1
a
2
a
n1
_
_
_
_
_
_
_
se llama la matriz asociada al polinomio P(x).
Vamos a calcular el polinomio caracteristico de N. Se obtiene
74 5. FORMAS CANONICAS
det (N Ix) = det
_
_
_
_
_
_
_
x 1 0 0
0 x 1 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 1
a
0
a
1
a
2
a
n1
x
_
_
_
_
_
_
_
= a
0
det
_
_
_
_
_
1 0 0
x 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
a
1
det
_
_
_
_
_
x 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
+
(a
n1
x) det
_
_
_
_
_
x 1 0
0 x 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 x
_
_
_
_
_
= a
0
+a
1
x + + (a
n1
+x) x
n1
= P(x)
Este resultado da pie al siguiente lema.
Lema 5.35. El polinomio caracteristico de una matriz asociada al polinomio
P(x) es P(x).
La forma canonica natural consiste en substituir por cada factor invariante
de grado n
i
su respectiva matriz asociada. Analogamente a la forma can onica
de Jordan, las matrices nilpotentes ahora son subtituidas por matrices naturales.
Veamos alg unos ejemplos.
Ejemplo 5.36. Tomemos de nuevo la matriz (5.1) del ejmplo 5.11
A =
_
_
5 3 3
3 1 3
3 3 1
_
_
ya sabemos que su polinomio caracteristico esta dado por (1 +) (2 )
2
=
3

3
2
+ 4 y su polinomio mnimo por (1 +) (2 ). Ya sabemos que la matriz
caracteristica tiene la forma can onica diagonal
_
_
1 0 0
0 2 0
0 0 (1 +) (2 )
_
_
Por lo que, su forma can onica natural tendra una celula natural de orden uno
para el factor invariante 2 y otra celula natural para el factor invariante
(1 +) (2 ) =
2
2
(5.6) N =
_
_
2 0 0
0 0 1
0 2 1
_
_
3. FORMA CAN

ONICA NATURAL 75
Ejemplo 5.37. Sea de nuevo A la matriz (5.4)
A =
_
_
6 3 4
3 1 3
4 3 2
_
_
Como ya vimos, el determinante de esta matriz es 4 y a traza es 3. Su polinomio
caracteristico es de nuevo (1 +) (2 )
2
y ahora el polinomio mnimo es tambien
(1 +) (2 )
2
. Esta matriz tiene una forma can onica diagonal para su matriz
caracteristica dada por
_
_
1 0 0
0 1 0
0 0 (1 +) ( 2)
2
_
_
por lo que solo tiene una celula natural de grado tres para el polinomio (1 +) ( 2)
2
=

3
+ 4
2
3. Por lo que su forma natural ser a
(5.7) N =
_
_
0 1 0
0 0 1
3 0 4
_
_
Ejemplo 5.38. Observemos como se relacionan las matrices can onicas de Jor-
dan y la can onica natural. Por ejemplo, de las form as can onicas anteriores, se
tiene que (5.6) y (5.3) se ralacionan sug un
_
_
2 0 0
0 0 1
0 1 2
_
_
= U
_
_
2 0 0
0 2 0
0 0 1
_
_
U
1
con U =
_
_
1 0 0
0 a b
0 2a b
_
_
ab ,= 0
y para (5.7) y (5.5), la relaci on es
_
_
0 1 0
0 0 1
4 0 3
_
_
= U
_
_
2 1 0
0 2 0
0 0 1
_
_
U
1
con U =
_
_
a 0 b
2a a b
4a 4a b
_
_
ab ,= 0
Ejemplo 5.39. Sea T = A [ A es matriz 3 3 con trA = 0. Entonces T
tiene solo dos clases,
[T]
1
=
_
_
0 1 0
0 0 1
a b 0
_
_
y [T]
2
=
_
_
q 0 0
0 0 1
0 2q
2
q
_
_

Ejercicio 5.40. Demostrar que el conjunto de las matrices 3 3 sin traza


tienen solo las dos clases anteriores.
Ejercicio 5.41. Encontrar su respectivas form as can onicas de Jordan.
76 5. FORMAS CANONICAS
Ejercicio 5.42. Encontrar la forma can onica natural de las matrices
_
_
1 0 0
1
2
0
1
2
1 2 2
_
_
_
_
5
2
3
3
2
1 2 1

5
2
3
3
2
_
_
_
_
1 1 0
1 1 1
1 3 0
_
_
Ejercicio 5.43. Sea A una matriz con polinomio caracteristico (x 2)
3
(x 1)
2
y polinomio minimo (x 2)
2
(x 1) . Cual es su forma can onica natural?
Ejercicio 5.44. Encontrar todas las form as can onicas naturales posibles de
una matriz que tiene polinomio caracteristico (x 2)
3
(x 1)
2
.
Ejercicio 5.45. Sea A =
_
_
4 6 1
6 12 0
2 6 1
_
_
. Encuentre sus valores y vec-
tores propios. Reduzca la matriz por operaciones elementales (invariantes) hasta
su forma m as elemental. Cual es su Rango? Encuentre P tal que A = PA
d
P
1
,
donde A
d
es la forma diagonal de A.
Ejercicio 5.46. Sea B =
_
_
6 1 0
12 0 1
6 1 1
_
_
Encuentre sus valores y vectores
propios. Reduzca la matriz por operaciones elementales (invariantes) hasta su
forma m as elemental. Cual es su Rango?
Ejercicio 5.47. Demuestre de forma sencilla que las matrices A y B anteriores
no son similares.
Ejercicio 5.48. Encuentre la forma can onica diagonal de las matrices carac-
teristicas de A y B
Part 3
VARIABLE COMPLEJA
CHAPTER 6
EL PLANO COMPLEJO
1. Los N umeros Complejos
Generalmente se introducen los n umeros argumentando que cada uno de estos
conjuntos resuelve determinada ecuaci on algebraica. Asi por ejemplo, la ecuaci on
x 2 = 0 tiene solucion en los n umeros naturales ^. Mientras que la ecuaci on
x+2 = 0 ya no tiene solucion en el conjunto de los n umeros naturales, para resolverla
hay que introducir los n umeros enteros Z. Mas aun, la ecuaci on 2x 1 = 0 solo
puede resolverse introduciendo los n umeros racionales Q. Hasta aqui se tiene que
^ Z Q. Sin embargo, la ecuaci on no lineal x
2
2 = 0 no tiene solucion en
los n umeros racionales. Esta ecuaci on tiene solucion solo si se denen los n umeros
irracionales 1. Se puede ver que 1 Q = . Entonces se introducen los n umeros
reales como = 1 Q. Aun as, la ecucion x
2
+ 2 = 0 no tiene solucion en los
n umeros reales. Entonces se introducen los n umeros imaginarios (que son tan reales
como los n umeros reales), tal que x
2
+2 = 0 tenga solucion. Se acostumbra escribir
x =

2i, donde i es la unidad imaginaria, tal que i


2
= 1, as que x
2
= 2.
Finalmente los n umeros complejos son la suma de numeros reales mas numeros
imaginarios. La introduccion de los numeros complejos es de gran ayuda en el
analisis, como veremos, con numeros comples se pueden hacer muchas cosas incluso
en el analisis real. As, formalmente los n umeros complejos se denen de la siguiente
manera.
Definici on 6.1. El campo de los complejos ( se dene al conjunto
( = z = a +ib [ a, b
donde i
2
= 1.
Notaci on 6.2. A a se le llama la parte Real de z y a b la parte imaginaria,
e(z) = a, 1m(z) = b.
Notaci on 6.3. Sea R (. A R se le llama una regi on.
Gracamente los numeros complejos se representan tambien en coordenas po-
lares. Sea a, b , podemos escribir a = r cos () y b = r sin() tal que un
numero complejo z = a + ib = r(cos () + i sin()), vean la gura 1. Se sigue que
r =

a
2
+b
2
y = arctan(b/a). A la constante r se le llama el modulo de z y a
el argumento de z.
Notaci on 6.4. A r tambien se le denota por [z[ = r y a como = arg (z).
Un n umero complejo queda determinado por r y , hasta m ultiplos de 2, es
decir, arg (z) = + 2k, k = 0, 1,
Ejercicio 6.5. Encuentre los modulos y argumentos de los siguientes n umeros
complejos
79
80 6. EL PLANO COMPLEJO
Figure 1. Un n umero complejo se puede representar como z =
x +iy = a +ib = r[cos() +i sin()].
1, 1 +i, 5 + 3i, 1 i, 5 + 3i, 5 3i, 5 3i.
La estructura algebraica de los numeros complejos esta basada en la denicion
de la suma y el producto entre estos. Esta denicion, obviamente se basa en la
estructura de los numeros reales. Formalmente tenemos.
Definici on 6.6. Sean z
1
, z
2
(, entonces se dene
La suma z
1
+z
2
= (a
1
+ib
1
) + (a
2
+ib
2
) = a
1
+a
2
+i (b
1
+b
2
),
El producto z
2
z
1
= (a
1
+ib
1
) (a
2
+ib
2
) = a
1
a
2
b
1
b
2
+i (a
1
b
2
+b
1
a
2
)
En coordenadas polares, la suma y el producto se ven como:
Corolario 6.7. [z
1
z
2
[ = [z
1
[ [z
2
[ y arg(z
1
z
2
) = arg (z
1
) + arg (z
2
).
Demostraci on 6.8. z
1
z
2
= r
1
r
2
(cos (
1
) +i sin (
1
))(cos (
2
) +i sin (
2
)) =
r
1
r
2
[cos (
1
+
2
) +i sin(
1
+
2
)]
La diferencia sustancial de los numeros coplejos con los numeros reales es que
cada numero complejo tiene un acompa nante natural a el llamado el complejo
conjugado. Su denicion es como sigue.
Definici on 6.9. Sea z (. El complejo conjugado de z = a +ib se dene
por z = a ib
Claramente se tiene,
Corolario 6.10. z z = [z[
2
2. Funciones en el Plano Complejo
En esta secci on vamos a estudiar el comportamiento de las funciones en el plano
complejo, es decir, funciones que van del conjunto de los complejos al conjunto de
los complejos. A pesar de que estas funciones son muy parecidas a las funciones en
los reales, existen diferencias sutanciales que le dan una gran riqueza a las funciones
2. FUNCIONES EN EL PLANO COMPLEJO 81
en el plano complejo. Estas deferencias las vamos a utilizar para hacer calculos muy
complejos en el plano real, simplicando la estructura y los calculos. Para iniciar
esta secci on, vamos a denir primero una funci on compleja.
Definici on 6.11. Una funci on en el plano complejo, es un mapeo f : ( (
tal que
a +ib f(a, b) = u(a, b) +iv(a, b)
Las propiedades fundamentales de funciones reales se pueden extender al caso
de las funciones complejas. De una manera analoga a como se dene continuidad
en funciones de variable real, en variable compleja se dene continiudad. Solo que
la estructura compleja de estas funciones provocan cambios y sutilezas, que le dan
mucha riquza estructural a las funciones complejas. Vamos a ver esto con cuidado.
Vamos a iniciar con la denicion de continuidad, de hecho es la misma denicion
que se usa en variable real, o en analisis o en topologia mas adelante. Solo que aqui,
la denicion implica algunos cambios interesantes.
Definici on 6.12. Sea f : ( (. La funci on f se llama continua en z (,
si para toda > 0, con , uno puede encontrar > 0, , tal que
[z z

[ < , implica [f(z) f(z

)[ <
En palabras, f es continua en z, si para cualquier n umero z

sucientemente
cerca de z, f(z

) es sucientemente cerca de f(z).


Figure 2. La funci on f(z) = x + 2iy. A cada punto x + iy del
plano complejo, le asocia x + 2iy.
Ejemplo 6.13. Sea f : ( (, tal que f(z) = x + 2iy, se representa gra-
camente en la gura 2. Esta funci on es continua en cero. Veamos esto. De la
denici on de continuidad se sigue que [z[ < implica [x + 2iy[ < , es decir
_
x
2
+y
2
< implica
_
x
2
+ 4y
2
<
Si escogemos = 2 se cumple la desigualdad, vean la gura 3. Por lo tanto, se
sigue que f es continua en cero.
82 6. EL PLANO COMPLEJO
Figure 3. En el plano complejo de la izquierda se muestra la
region (x
2
+ y
2
)
1/2
< , mientras que en el plano de la izquierda
se muestra la region (x
2
+ 4y
2
)
1/2
< . Obsrvese como la region
(x
2
+y
2
)
1/2
< < 2 , contiene a la region (x
2
+ 4y
2
)
1/2
< .
Ejercicio 6.14. Decir si las siguiente funciones son continuas, o en su caso
en donde no son continuas, usando la denici on:
1) f(z) = z
2
2) f(z) = x +
i
2
y, para z = x +iy.
3) f(z) =
z
x
2
+y
2
, para z = x +iy.
4) f(z) = z + z
5) f(z) = z
6) f(z) = z z
7) f(z) = z 2z
2
8) f(z) = (z + 2)
2
La denicion de lmite en variable compleja es tambien analoga a la denicion
de lmite en variable real. Formalmente la denicion de lmite de funciones de
variable compleja es como sigue.
Definici on 6.15. Sea f : ( (, y z
1
, z
2
(. El lmite de f cuando z tiende
a z
1
es z
2
, si para toda N > 0 existe > 0 con N, tal que [z z
1
[ <
implica [f(z) z
2
[ < N
Notaci on 6.16. El lmite de f cuando z tiende a z
1
es z
2
se denota
lim
zz1
f(z) = z
2
La relacion entre lmite y continuidad esta dada por las siguientes dos proposi-
ciones.
Proposici on 6.17. Si lim
zz1
f (z) = z
2
y f(z
1
) = z
2
, se sigue que f es
continua.
Demostraci on 6.18. Sabemos que para toda N > 0 existe > 0, con N,
tal que [z z
1
[ < implica [f(z) z
2
[ < N. Hagamos N = y z
1
= z

y
2. FUNCIONES EN EL PLANO COMPLEJO 83
como f(z
1
) = f(z

) = z
2
, entonces se tiene que para toda > 0 existe > 0, tal
que [z z
1
[ = [z z

[ < implica [f(z) z


2
[ = [f(z) f(z

)[ < .
Proposici on 6.19. Sea f : ( ( continua en z
1
, con f(z
1
) = z
2
. Entonces
lim
zz1
f (z) = z
2
Ejercicio 6.20. Demostrar la proposici on.
Ejercicio 6.21. Utilizando la proposici on anterior, vericar si las funciones
del ejercicio 6.14 son continuas.
Existe una serie de propiedades de los lmites en variable compleja comple-
tamente analogas a variable real. Vamos a escribirlas y a escribir solo una de-
mostracion parcial. De hecho la demostracion es como en variable real, por eso no
incluiremos toda la demostracion.
Teorema 6.22 (sobre lmites.). Sean f(z) y F(z) funciones cuyos lmites z
z
0
existen y estan dados por
lim
zz0
f(z) = w
0
lim
zz0
F(z) = W
0
,= 0
Entonces
1)
lim
zz0
[f(z) +F(z)] = w
0
+W
0
2)
lim
zz0
[f(z)F(z)] = w
0
W
0
3)
lim
zz0
f(z)
F(z)
=
w
0
W
0
4) Si f(z) = u(x, y) +iv(x, y) se sigue
lim
zz0
f(z) = lim
xx0,yy0
u(x, y) +i lim
xx0,yy0
v(x, y)
Demostraci on 6.23. Supongamos que F(z) = U(x, y) + iV (x, y) y f(z) =
u(x, y) +iv(x, y). Demostremos el insiso 3). Se tiene que
lim
zz0
f(z)
F(z)
= lim
zz0
u +iv
U +iV
= lim
zz0
(u +iv) (U iV )
U
2
+V
2
= lim
xx0,yy0
_
uU
U
2
+V
2
+
vV
U
2
+V
2
_
+i lim
xx0,yy0
_
vU
U
2
+V
2

uV
U
2
+V
2
_
=
_
u
0
U
0
U
2
0
+V
2
0
+
v
0
V
0
U
2
0
+V
2
0
_
+i
_
v
0
U
0
U
2
0
+V
2
0

u
0
V
0
U
2
0
+V
2
0
_
84 6. EL PLANO COMPLEJO
donde en la ultima identidad hemos usados los teoremas de variable real. Entonces,
reagrupando de nuevo se tiene que
lim
zz0
f(z)
F(z)
=
u
0
+iv
0
U
0
+iV
0

Ejercicio 6.24. Demostrar el resto del teorema usando los teoremas similares
de lmites en variable real.
Con la propiedad 4) podemos utilizar los teoremas y metodos comunes de vari-
able real para obtener lmites de funciones en variable compleja. Este resultado lo
usaremos constentemente en adelante.
3. La Derivada en el Plano Complejo
La derivada de funciones de variable compleja tiene un comportamiento analogo
a la derivaci on de funciones en los reales. Sin embargo, es aqui donde las sutilezas
del plano complejo empiezan a ser importantes, y las analogas se interrumpen
debido a algunas diferencias que hacen del plano complejo algo diferente. Son
estas diferencias las que nos interesan, pero son las analogas las que vamos a
utilizar continuamente. Vamos a iniciar con la denicion de la derivada en variable
compleja.
Definici on 6.25. Sea f : ( ( continua en z. La derivada de f en z se
dene como
df
dz
= lim
z0
f(z +z) f(z)
z
si este lmite existe y es unico, se dice que la derivada existe.
Si comparamos la denicion anterior con la derivada de funciones en los reales,
veremos que son aparentemente iguales. Pero para ver la diferencia y similitudes,
vamos a ver algunos ejemplos.
Ejemplo 6.26. Sea f(z) = 2x + 2iy, entonces la derivada en cero de esta
funci on esta dada por
df
dz

z=0
= lim
z0
f(z) f(0)
z
= lim
x0,y0
2x + 2iy
x +iy
= 2
donde hemos escrito z = x +iy, as que el lmite y por tanto la derivada es 2.
El resultado del ejemplo anterior no es sorprendente, en variable real la funci on
anterior f(z) = 2z = 2x+2iy tambien es deribable. Sin embargo veamos el siguiente
ejemplo.
Ejemplo 6.27. Sea f(z) = x + 2iy, entonces la derivada de esta funci on esta
dada por
df
dz

z=0
= lim
z0
f(z) f(0)
z
= lim
x0,y0
x + 2iy
x +iy
= lim
x0,y0
x
2
+ 2y
2
+ixy
x
2
+y
2
pero este lmite no conmuta, ya que si tomamos primero x 0 y luego y 0, vean
la gura 4, obtenemos
df
dz

z=0
= 2
3. LA DERIVADA EN EL PLANO COMPLEJO 85
Figure 4. Dos trayectorias por las que se puede ir del punto
x +iy a 0.
Pero si tomamos primero el lmite y 0 y luego x 0 obtenemos
df
dz

z=0
= 1
lo que nos dice que f no es derivable en z = 0
Ejercicio 6.28. Usando la denici on, encontrar la derivada, cuando exista,
de las funciones del ejercicio 6.14. En su caso, decir en que puntos la funci on no
es derivable.
3.1. Formulas de derivacion: En variable compleja las formulas de derivaci on
son generalmente las mismas que las usadas en variable real, si sabemos que la
derivada existe. El problema es saber cuando una funci on de variable compleja es
derivable. Para saberlo, existen una forma sencilla de determinar si una funci on
de variable compleja es derivable o no. Esto se hace utilizando las condiciones de
Cauchy-Riemann. Estas condiciones se ven en el siguiente teorema.
Teorema 6.29 (de Cauchy-Riemann). Sea f : ( ( tal que f(z) = u(x, y) +
iu(x, y) con u, v C
1
. Entonces f es derivable en z, s y solo s
u
x
=
v
y
y
u
y
=
v
x
86 6. EL PLANO COMPLEJO
Demostraci on 6.30. ) Supongamos f derivable. Entonces el lmite
f

=
df
dz
= lim
z0
f(z + z) f(z)
z
existe y es unico. Seg un los teoremas de lmite real, este lmite no depende de la
trayectoria por la cual z 0. Tomemos dos trayectorias diferentes: 1) y 0
y luego x 0, y la trayectoria 2) x 0 y luego y 0.
Entonces para 1)
df
dz
= lim
y=0

u(x, y + y) u(x, y)
iy
+i
v(x, y + y) v(x, y)
iy

= i
u
y
+
v
y
Para la trayectoria 2) se tiene
df
dz
= lim
x0

u(x + x, y) u(x, y)
x
+i
v(x + x, y) v(x, y)
x

=
u
x
+i
v
x
Lo que implica las condiciones de Cauchy-Riemann
) Supongamos que se cumplen las condiciones de Cauchy-Riemann. Como
u, v y son de clase C
1
, son continuas y con derivadas continuas, entonces podemos
escribir por el teorema del valor medio que
u = u(x + x, y + y) u(x, y) =
u
x
x +
u
y
y +
1
x +
2
y
donde
1
y
2
tienden a cero cuando x y y tienden a cero. Lo mismo para v.
Entonces
f = f(z + z) f(z) = u +iv
=
u
x
x +
u
y
y +
1
x +
2
y
i(
v
x
x +
v
y
y +
3
x +
4
y)
Como las condiciones de Cauchy-Reimann se cumplen, tenemos
f =
u
x
(x +iy) +i
v
x
(x +iy) + x
1
+ y
2
donde
1
y
2
son combinaciones lineales de las s. Ahora bien, [x[ [z[ y
[y[ [z[, por lo tanto [x/z[ 1 y [y/z[ 1. As que
f

(z) := lim
z0
f
z
=
u
x
+i
v
x
= i
_
u
y
+i
v
y
_
ya que los ultimos terminos tienden a cero, cuando z 0. Por lo tanto la
derivada de f(z) existe.
En lo que sigue vamos a trabajar con funciones que son derivables en una region
o al menos no lo son en puntos denidos. Cuando una funci on es derivable en un
entorno, en una region del espacio complejo, se dice que es analtica ahi. El resto de
nuestro estudio de funciones de variable compleja se limitara al estudio de funciones
analticas, o no analticas en solo puntos bien denidos. Vamos a ver la denicion
formal de funci on analtica.
3. LA DERIVADA EN EL PLANO COMPLEJO 87
Definici on 6.31. Una funci on f : ( ( es analtica, holomorfa o regular
en un punto z
0
(, si su derivada existe en un entorno de z
0
, es decir, si existe
un > 0 tal que f

existe para todo z z [ [z z


0
[ < ,
+

Para familiarizarnos con esta importate denicion, vamos a ver algunos ejem-
plos.
Ejemplo 6.32. Sea la funci on f(z) = [z[
2
= z z = x
2
+y
2
. Las condiciones de
Cauchy-Riemann para esta funci on son
u
x
= 2x;
v
y
= 0
y
u
y
= 2y;
v
x
= 0
y solo se cumplen para z = 0. Por lo que [z[
2
no es analtica, pues solo es derivable
en z = 0.
Ejemplo 6.33. Por otro lado, para la funci on f(z) = z
2
= (x + iy)
2
= x
2

y
2
+ 2ixy se tiene que u = x
2
y
2
y v = 2xy, as que
u
x
= 2x;
v
y
=2x
y
u
y
= 2y;
v
x
=2y
Es decir, las condiciones de Cauchy-Riemann se cumplen siempre, por lo que z
2
es
una funci on analtica.
Ejercicio 6.34. Usando las condiciones de Cauchy-Riemann, vericar cual de
las funciones del ejercicio 6.14 son analticas y en que puntos no lo son.
Cuando un funci on compleja no es analtica en puntos determinados, se dice
que la funci on es singular en esos puntos. Al punto mismo se le llama singularidad
o polo. Formalmente se tiene.
Definici on 6.35. Sea f : ( ( analtica en cada punto en el entorno de z
0
,
pero no en z
0
. Se dice que z
0
es un punto singular de f.
Veamos un ejemplo de singularidad.
Ejemplo 6.36. Sea f(z) = 1/z. Su derivada es f

= 1/z
2
. Esta funci on se
puede escribir como
f (z) =
1
x +iy
=
x
x
2
+ y
2
i
iy
x
2
+y
2
por lo que u = x/
_
x
2
+y
2
_
y v = y/
_
x
2
+y
2
_
. Entonces las condiciones de
Cauchy-Riemann son
u
x
=
v
y
=
x
2
y
2
(x
2
+y
2
)
2
y
u
y
=
v
x
=
2xy
(x
2
+y
2
)
2
88 6. EL PLANO COMPLEJO
las cuales no estan denidas en z = 0. La funci on es analtica para z ,= 0, pero no
para z = 0, entonces z = 0 es un punto singular de f.
Comentario 6.37. Todo polinomio en z, P(z) = a
0
+a
1
z +a
2
z
2
+ +a
n
z
n
es analtico, ya que sus derivadas existen para toda z (.
Ejercicio 6.38. Se nale los puntos singulares de las funciones del ejercicio
6.14.
Existen algunas propiedades muy importantes para decidir si una funci on es
analtica o no. Estas propiedades simplican enormemente el trabajo para poder
saber si una funci on es analtica en alguna region. Vamos a ver estas propiedades
en la siguente proposicion.
Proposici on 6.39. Sean P(z) y Q(z) funciones analticos en una regi on R
(. Entonces
1) P Q es analtica.
2) P +Q es analtica.
3) P/Q es analtico para toda regi on R
1
( tal que Q ,= 0
4) P Q es analtica
Demostraci on 6.40. Vamos a demostrar 3). Sean P y Q analticas y Q ,= 0
en una regi on R
1
. Entonces
d
dz
P
Q
=
1
Q
_

P
Q
d
dz
Q+
d
dz
P
_
como P y Q son analticas y Q ,= 0, las derivadas de P y Q existen en un entorno
y las funciones P y Q existen en ese entorno y son continuas. Dado que Q ,= 0 en
R
1
, la funci on 1/Q es continua en ese entorno y por lo tanto la derivada de P/Q
existe y es continua en R
1
. Es decir, P/Q es analtica.
Ejercicio 6.41. Demostrar el resto de la proposici on.
Ejercicio 6.42. Utilizando esta proposici on, conrme cual de las siguiente
funciones son analticas y en que regi on.
1) f(z) = z
2
2) f(z) = x +
i
2
y, para z = x +iy.
3) f(z) =
z
x
2
+y
2
, para z = x +iy.
4) f(z) =
1
z+2 z
5) f(z) =
1
z
6) f(z) =
1
z z
7) f(z) =
1
z2z
2
8) f(z) =
1
z+2
4. Funciones Arm onicas
Una conclusi on inmediata de las condiciones de Cauchy-Riemman son el hecho
que las funciones reales que forman la funci on de variable compleja, cumplen la
4. FUNCIONES ARM

ONICAS 89
ecuaci on de Laplace en el plano, en la region donde son analticas. A estas funciones
se les llama armonicas. Para ver esto, vamos a seguir el siguiente razonamiento.
Sea f(z) = u + iv una funci on analtica en alguna region alrededor de z, es
decir, se tiene que.
u
x
=
v
y
,
u
y
=
v
x
entonces f

(z) existe. Si las funciones u y v tienen derivadas continuas y a su vez


derivables, se debe cumplir que
(6.1)

2
v
xy
=

2
v
yx
Vamos a usar las condiciones de Cauchy-Riemann en la indentidad (6.1), se obtiene
que

2
v
xy
=

2
u
x
2

2
v
xy
=

2
u
y
2
Si sumamos estas dos indentidades, obtenemos

2
u
x
2
+

2
u
y
2
= 0
Esta es es la ecuaci on de Laplace para la funci on u. A estas funciones se les llama
funciones armonicas. Formalmente tenemos.
Definici on 6.43. Toda funci on que cumple la ecuaci on de Laplace

2
u
x
2
+

2
u
y
2
= 0
se llama arm onica.
Notaci on 6.44. tambien se denota la ecuaci on de Laplace por

2
u =

2
u
x
2
+

2
u
y
2
= 0
.
Analogamente, si f es analtica, se tiene que

2
v
x
2
+

2
v
y
2
= 0
Entonces se tiene el siguiente lema.
Lema 6.45. Para toda funci on donde f = u +iv y se tenga que f es analtica
se sigue entonces que u y v son arm onicas.
Ejercicio 6.46. Diga cual de las funciones de los ejercicios 6.14 y 6.42 son
arm onicas.
90 6. EL PLANO COMPLEJO
4.1. Funciones Elementales. Las funciones elementales en variable real pueden
ser extendidas a variable compleja de una manera sencilla. Para denir funciones
en variable compleja lo que se hace es tomar las funciones polinomiales y simple-
mente se traducen cambiando la variable real por la compleja, x z. Las funciones
trasendentes se traducen a variable compleja mas indirectamente: en variable com-
pleja son denidas seg un su expresion en series de Taylor. Por ejemplo:
e
z
= 1 +z +
1
2!
z
2
+
o analogamente
cos (z) =
1
2
(e
iz
+e
iz
)
sin (z) =
1
2
(e
iz
e
iz
)
etc. Estas funciones elementales se derivan, suman o multiplican igual que las fun-
ciones de variables reales. Sin embargo, las funciones ahora no se ven gracamente
igual a las de variable real. Por ejemplo, es facil ver aqu tambien que se sigue la
identidad
e
z
= e
x+iy
= e
x
(cos(y) +i sin(y))
por lo que la exponencial de un n umero complejo es una funci on periodica, es decir,
e
z+2ik
= e
z
, para todo k = 0, 1, 2, . Esto causa que la funci on inversa a la
exponencial no sea una funci on, ya que esta multivaluada. Por eso se acostrumbra
tomar a la funci on ln como la que se obtiene para k = 0.
Otra diferencia interesante es que las funciones trigonometicas y las hiperbolicas
estan relacionadas entre s. Por ejemplo, sin(z) = i sinh(iz), o cos(z) = cosh(iz),
etc.
Ejercicio 6.47. Usando esta analogia, verique cual de las siguintes funciones
son analticas y arm onicas y en que puntos.
1) f(z) = e
z
2) f(z) = sin (z)
3) f(z) = cos (z)
4) f(z) = ln (z 1)
5) f(z) = sinh (z)
6) f(z) = cosh(z)
7) f(z) = arcsin(z)
8) f(z) = arctan(z)
5. La Integral en el Plano Complejo
De nuevo existe un analogia estrecha entre la integraci on de variable real y la
integraci on en variable compleja. Pero existen sutilezas que las hacen diferentes.
Por ejemplo, a diferencia de la integraci on en una variable real, la integraci on en
variable compleja es equivalente a la integraci on en un plano, llamado el plano com-
plejo. Es por eso que para denir la integral de una funci on compleja, necesitamos
denir una curva por donde se va a llevar a cabo la integrar. Entonces iniciemos
con las siguientes deniciones.
Definici on 6.48. Sea : ( un mapeo. Si es de clase C
0
se dice que
es una curva en (, vean la gura 5.
5. LA INTEGRAL EN EL PLANO COMPLEJO 91
Figure 5. Una curva denida en el plano complejo. Una curva
es un mapeo que va de los n umeros reales al plano complejo.
Definici on 6.49. Sea una curva en ( y P una partici on del intervalo (0, 1)
con : (0, 1) (. Si t
i
P, sea (t
i
) = z
i
y
j
z = z
j
z
j1
, vean la gura 6.
Sea z
j
cualquier punto en la curva entre z
j1
y z
j
. La integral de f(z) a lo largo
de se dene como.
Figure 6. Una partici on del intervalo (0, 1) mapea una curva
partida en secciones, dando como resultado una particin de la
curva.
_

f(z)dz = lim
n
n

j=1
f(z
j
)
j
z
La integraci on de funciones de variable compleja se puede reducir a integra-
ciones en los reales, separando la funci on compleja en su parte real y su parte
imaginaria. Esta separacion la podemos ver en el siguiente teorema.
92 6. EL PLANO COMPLEJO
Teorema 6.50. Sea f(z) = u + iv una funci on f : ( (. La integral de f a
lo largo de una curva esta dada por
_

f(z)dz =
_

(udx vdy) +i
_

(vdx +udy)
donde las integrales del lado derecho son integrales de linea reales.
Demostraci on 6.51. Sea f = u(x, y) +iv(x, y) y sean

j
z = z
j
z
j1
= x
j
x
j1
+ i(y
j
y
j1
) =
j
x +i
j
y
j = 1, , n. De la denici on.
_

f(z)dz = lim
n
n

j=1
[u(x

j
, y

j
) +iv(x

j
, y

j
)](
j
x +i
j
y)
= lim
n
n

j=1
[u(x

j
, y

j
)
j
x v(x

j
, y

j
)
j
y] +
+i lim
n
n

j=1
[v(x

j
, y

j
)
j
x +u(x

j
, y

j
)
j
y]
Estos ultimos lmites son las integrales de linea de las funciones correspondientes,
as se sigue el teorema.
Comentario 6.52. Si podemos representar en su forma parametrica, tal que
: (, t (t) = (t) + i(t) = x + iy, entonces se tiene que dx =

dt,
dy =

dt y la integral
_

f(z)dz =
_
t2
t1
(u

)dt +i
_
t2
t1
(v

+u

)dt
la cual existe si f(z) es continua.
Corolario 6.53. Sean una curva formada por un n umero nito de curvas

1
, ,
n
. Entonces
_

f(z)dz =
_

1
f(z)dz +
_

2
f(z)dz + +
_
n
f(z)dz
Veamos algunos ejemplos sencillos para familiarizarnos con el teorema anterior.
Ejemplo 6.54. Vamos a calcular la integral
I
1
=
_
2+i
0
z
2
dz
por la trayectoria 0A de la gura 7, que es la linea recta entre 0 A = 2 +i dada
por y = 1/2x. Se tiene que z
2
= x
2
y
2
+ 2xyi y dz = dx +idy. Entonces
I
1
=
_

[(x
2
y
2
)dx xy dy] +i
_

[2xy dx + (x
2
y
2
)dy]
Sobre OA, x = 2y y dx = 2dy
I
1
=
_
1
0
_
(4y
2
y
2
)2dy 2y
2
dy

+i
_
1
0
_
8y
2
dy + (4y
2
y
2
)dy

=
2
3
+
11
3
i
5. LA INTEGRAL EN EL PLANO COMPLEJO 93
Figure 7. Las trayectorias que unen el origen con el punto 2 +i.
Ejemplo 6.55. Ahora tomemos otra trayectoria. Vayamos por el eje de las x
hasta el punto B = (2, 0) y luego subamos por la recta perpendicular hasta A = (2, i).
Por la trayectoria 0BA. A lo largo de 0B, z = x, dz = dx. A lo largo de BA ,
z = 2 +iy, dz = idy. Se obtiene
I
2
=
_
2
0
x
2
dx +
_
1
0
_
i(4 y
2
) 4y
_
dy =
8
3
+
11
3
i 2 =
2
3
+
11
3
i
es decir
I
2
= I
1
=
1
3
z
3

2+i
0
=
1
3
(2 +i)
3
=
2
3
+
11
3
i
Ejemplo 6.56. Evaluemos la integral I =
_

z
2
dz a lo largo del crculo de
radio 1, como en la gura 8, es decir a lo largo de la trayectoria r
2
= x
2
+y
2
= 1.
Para hacer esta integral, conviene hacer un cambio de variable, sean x = r cos (),
y = r sin(), tal que x +iy = cos () +i sin () = e
i
. Entonces z = e
i
y por tanto
dz = ie
i
d sobre el crculo. Se tiene que
I
2
= i
_
2
0
e
2i
e
i
d =
1
3
e
3i

2
0
= 0
Ejemplo 6.57. Evaluemos ahora la integral
I =
_

1
z
dz
a lo largo del crculo de radio 1, de nuevo como en la gura 8. tambien hacemos el
cambio de variable x = cos (), y = sin (). Se tiene que
I
2
= i
_
2
0
e
i
e
i
d = 2i
94 6. EL PLANO COMPLEJO
Figure 8. La trayectoria dada por el crculo de radio 1, x
2
+y
2
=
cos() +i sin() = e
i
.
Ejercicio 6.58. Evaluar la integral
_

f(z)dz, donde f(z) son las funciones


del ejercicio 6.42 y es la trayectoria dada por [z[ = 1.
Las propiedades de las integrales en variable compleja es muy semajante a
las propiedades de las integrales de variable real. Sin embargo hay diferencias
sustanciales que es justamente lo que hace tan importante el estudio de las funciones
de variable compleja y su integraci on. Estas diferencias las veremos mas adelante,
por ahora veamos sus propiedades.
Proposici on 6.59 (Propiedades de las integrales.). Sea f : ( ( integrable,
y trayectorias. Entonces, se cumple que
a)
_

f(z)dz =
_

f(z)dz
b)
_

kf(z)dz = k
_
f(z)dz para toda k (
c)
_

(f(z) +g(z)) dz =
_

f(z)dz +
_

(z)dz
Demostraci on 6.60. La demostraci on se sigue de las propiedades de integrales
de linea.
5. LA INTEGRAL EN EL PLANO COMPLEJO 95
El comportamiente de las dos integrales de los ejemplos y ejercicios anteriores
es generico y corresponde a un teorema de variable compleja muy importante. Este
es:
Teorema 6.61. Sea f : ( ( univaluada y analtica dentro y sobre una curva
cerrada , entonces.
_

f(z)dz = 0
Demostraci on 6.62. Usando el teorema de Green en el plano
_
(Pdx +Qdy) =
_ _
R
(
Q
x

P
y
)dx dy
y usando f(z) = u +iv, y como f(z) es continua, obtenemos,
_
(udx vdy) =
_ _
R
(
v
x
+
u
y
)dx dy
y
_
(vdx +udy) =
_ _
R
(
u
x

v
y
)dx dy
Pero como f es anatica, ambas integrales son cero, por las condiciones de Cauchy-
Riemann, (la hip otesis f(z) continua incluso se puede eliminar).
Definici on 6.63. Sea R ( una regi on en (. Decimos que R es simplemente
conexa, si toda curva cerrada considerada dentro de ella, s olo contiene puntos de
R, vean la gura 9.
Definici on 6.64. Una regi on R que no es simplemente conexa, se llama de
conexi on m ultiple.
Ejemplo 6.65. La gura 10 muestra una regi on de conexi on m ultiple. Los
puntos dentro de C
2
y C
3
no est an en C
1
.
A partir de aqui ya podemos iniciar un conjunto de teoremas y resultados
para la integraci on de funciones de variable compleja. Estos teoremas son los que
utilizaremos en la practica para multiples cosas. Vamos a iniciar con un teorema
para la integraci on de funciones analticas, univaluadas en regiones de conexion
multiple.
Teorema 6.66. Sea f(z) una funci on univaluada y analtica en y sobre el
contorno de una regi on de conexi on multiple R. Si B es el contorno de R formado
por un n umero nito de curvas cerradas, independientes se tiene que:
_
B
f(z)dz = 0
Demostraci on 6.67. Se toma una trayectoria cerrada unica en la regi on de
conexi on multiple, como el ejemplo que se muestra en la gura 11.
Otro resultado importante es que la integraci on de funciones analticas no de-
pende de la curva cerrada sobre la que se integra.
96 6. EL PLANO COMPLEJO
Figure 9. Una region R es simplemente conexa, si toda curva
cerrada considerada dentro de ella, solo contiene puntos de R. Aqu
se ven dos regiones: C
2
, en donde toda curva cerrada contiene
solo puntos de C
2
, es decir, la curva que la rodea se puede hacer
tan peque na como sea, y el crculo que rodea al agujero C
3
, que
no puede hacerse tan peque no como se quiera. Por eso C
1
no es
simplemente conexa.
Teorema 6.68. Sea f : ( ( integrable. Si f(z) es analtica, se sigue que
_
1
f(z) =
_
2
f(z)
para todas dos trayectorias cerradas
1
y
2
, es decir, trayectorias que inician y
terminan en el mismo punto en ( .
Demostraci on 6.69.
1

2
= es cerrada. Ver gura 12.
Veamos un ejemplo para claricar estos ultimos resultados.
Ejemplo 6.70. Integremos la funci on 1/
_
z
2
+ 16
_
en una regi on entre dos
crculos concentricos alrededor de 0, como se muestra en la gura 13. Esta funci on
es singular en z = 4i. Sobre el crculo exterior, z = 2e
i
y sobre el interior se
tiene que z = e
i
. Entonces separemos la integraci on en los dos crculos, se tiene:
_
B
dz
z
2
+ 16
= i
_
2
0
2e
i
d
4e
2i
+ 16
+i
_
2
0
e
i
d
e
2i
+ 16
=
1
4
arctan
_
1
2
e
2i
_

2
0
+
1
4
arctan
_
1
4
e
2i
_

2
0
= 0
5. LA INTEGRAL EN EL PLANO COMPLEJO 97
Figure 10. La gura muestra una region de conexion m ultiple.
Los puntos dentro de C
2
y C
3
no est an en C
1
, son agujeros de esta
region.
ya que e
0
= e
4i
= 1. Es mas, podemos ver que
_
2
0
2e
i
d
4e
2i
+ 16
=
_
0
2
e
i
d
e
2i
+ 16
que corresponde a la integral a lo largo de cada crculo por separado, pero en sentido
contrario.
Ejercicio 6.71. Usando los teoremas anteriores, diga en que regiones las fun-
ciones de los ejercicios 6.14 y 6.42 tienen integrales diferentes de cero para trayec-
torias cerrdas.
Analogamente al teorema fundamental del c alculo, aqui tambien se puede ver
que la integral de una funci on analtica, es su antiderivada. Por lo que la analogia
de la integraci on de funciones analticas con funciones de variable real, es muy
profunda. Veamos este teorema.
Teorema 6.72. Sean f(z) : ( ( y F(z) : ( ( funciones analticas. Si
F(z) =
_
z
z0
f(z

)dz

, entonces F

(z) = f(z)
Ejercicio 6.73. Demostrar el teorema.
La integral de una funci on analtica es entonces analtica.
98 6. EL PLANO COMPLEJO
Figure 11. Region de conexion m ultiple unida con trayectorias
que la unen a la trayectoria principal para formar una trayectoria
cerrada unica.
6. La Integral de Cauchy
Uno de los teoremas mas importantes en varaiable compleja y que mas vamos a
usar en adelante es el teorema de Cauchy. Bascamente es una formula para evaluar
integrales que son singulares en un punto y queremos llevar a cabo la integral en
una region que contenga la singularidad. Como vimos, la integral cerrada de una
funci on analtica es cero. Pero la singularidad contenida en la region de integraci on
hace que la integral de la funci on singular ya no sea cero. Lo bonito del teorema
es que no solo nos dice que la integral existe, sino nos da una formula muy simple
para calcularla. Veamos este teorema.
Teorema 6.74 (de Cauchy). Sea f : ( ( funci on univaluada y analtica
dentro y sobre una curva cerrada . Si z
0
es cualquier punto interior a , se tiene
que
f(z
0
) =
1
2i
_

f(z)
z z
0
dz
A esta integral se le llama f ormula de la integral de Cauchy.
Demostraci on 6.75. Sea una curva que contenga z
0
, vean la gura 14. Sea
r
0
= [z z
0
[, tal que
0
= z ( [[z z
0
[ r (). Como f(z) es analtica, se
sigue que f(z)/ (z z
0
) es analtica, salvo en z = z
0
. Por el teorema de conexi on
multiple de Cauchy, se tiene
_

f(z)
z z
0

_
0
f(z)
z z
0
= 0
6. LA INTEGRAL DE CAUCHY 99
Figure 12. La composicion de las dos trayectorias 1 y 2 es
cerrada. Obviamente esta trayectoria se une en alg un lugar a traves
de una recta que va y regresa como en la gura anterior.
es decir:
_

f(z)dz
z z
0
= f(z
0
)
_
0
dz
z z
0
+
_
0
f(z) f(z
0
)
z z
0
dz
Sobre
0
, (z z
0
) = r
0
e
i
, por lo que dz = ir
0
e
i
d, es decir
_
0
dz
z z
0
=
_
2
0
e
i
r
0
ir
0
e
i
d = 2i
Como f(z) es continua, esto implica que para toda , existe > 0 tal que
[z z
0
[ < , implica que [f(z) f(z
0
)[ < . Tomemos = r
0
, entonces

_
0
f(z) f(z
0
)
z z
0
dz


_
0
[f(z) f(z
0
)[
[z z
0
[
[dz[ <

r
0
_
0
[dz[
=

r
0
_
2
0
[ir
0
e
i
d[ = 2

r
0
r
0
= 2
Por lo que esta integral ser a m as peque na que 2, que tiene el valor tan peque no
como se quiera. Por lo que esta integral es cero.
Una implicacion inmediata, es que si derivamos la formula de Cauchy obten-
emos una formula equivalente. Es decir.
100 6. EL PLANO COMPLEJO
Figure 13. Trayectoria de integraci on dada por dos crculos
centrados en el origen.
Corolario 6.76.
f

(z
0
) =
1
2i
_

f(z)
(z z
0
)
2
dz
Claramente este proceso se puede llevar a cabo para obtener las derivadas de
orden mayor. Lo que sigue es aprender a usar la formula. Para esto proponemos
los siguientes ejercicios.
Ejercicio 6.77. Realice las siguientes integrales
1)
_

z
2
dz, donde es cualquier trayectoria cerrada.
2)
_

cos(z)/(z + 1)
2
dz, donde es un crculo de radio 1/2 y centro en cero.
3)
_

cos(z)/(z + 1)
2
dz, donde es un crculo de radio 2 y centro en cero.
4)
_

2z+1
z+z
2
dz, donde es un crculo de radio 2 y centro en cero.
5)
_

2z+1
z+z
2
dz, donde es un crculo de radio 1/2 y centro en cero.
6)
_

4z
3
+z
2
1
z(z
2
1)
dz, donde es un crculo de radio 2 y centro en cero.
7)
_

4z
3
+z
2
1
z(z
2
1)
dz, donde es un crculo de radio 1/2 y centro en cero.
8)
_

z
2
2z1
z+z
2
dz, donde es un crculo de radio 1/2 y centro en 1.
El teorema y el corolario anteriores son de suma importancia para evaluar
integrales, tanto en el caso de variable compleja como en variable real. Mas adelante
6. LA INTEGRAL DE CAUCHY 101
Figure 14. Trayectoria de integraci on utilizada en el teorema de Cauchy.
dedicaremos una secci on a este importante resultado. Por ahora vamos a intruducir
otra consecuencia directa de la formula de Cauchy que nos servira para la evaluacion
de integrales. Este teorema es el siguiente.
Teorema 6.78. Sea f : ( ( una funci on univaluada y analtica en un punto,
entonces sus derivadas de todos los ordenes, f

(z), f

(z), , son tambien funciones


analticas en dicho punto.
Demostraci on 6.79. f(z) analtica implica que f

(z) existe en alg un entorno


para el cual f(z) es analtica. Si usamos el corolario anterior, encontramos que
f

(z
0
) =
2!
2i
_

(z)
(z z
0
)
3
dz
Usemos el entorno [z z
1
[ = r
1
dentro del entorno cubierto por , entonces f

(z
0
)
existe y por tanto f

(z
0
) es analtica. Repitiendo el argumento se sigue que f
(n)
(z
0
)
es analtica. Esto implica que si f = u + iv, entonces u y v, seran funciones de
clase C

.
Este teorema nos conduce a la formula
(6.2) f
(n)
(z
0
) =
n!
2i
_

f(z)dz
(z z
0
)
n+1
n = 1, 2,
Claramente esta formula se cumple igual si en vez de una region conexa, se
toma una region de conexion m ultiple que contenga en su interior al punto z
0
. El
102 6. EL PLANO COMPLEJO
resultado opuesto tambien es valido, es decir, si la integral de una funci on es cero
para cualquier trayectoria cerrada, entonces la funci on es analtica. A este teorema
se conoce como el teorema de Morera.
Teorema 6.80 (de Morera). Sea f : ( ( una funci on continua en la regi on
R. Si para cualquier trayectoria cuyo contorno este dentro de R se cumple que
_

f(z)dz = 0
entonces f(z) es analtica en R.
Demostraci on 6.81. Sin Dem.
Ejercicio 6.82. Realice las siguientes integrales
1)
_

e
z
/
_
z
2
+ 1
_
5
dz, donde es cualquier trayectoria cerrada.
2)
_

cos(z)/(z 1)
5
dz, donde es un crculo de radio 1/2 y centro en cero.
3)
_

cos(z)/(z 1)
5
dz, donde es un crculo de radio 1/2 y centro en 1.
4)
_

3z
3
z
2
+5z+1
(z
2
1)
2
dz, donde es un crculo de radio 2 y centro en cero.
5)
_

3z
3
z
2
+5z+1
(z
2
1)
2
dz, donde es un crculo de radio 1 y centro en 1.
CHAPTER 7
SERIES
Una de las aplicaciones practicas de la teora de variable compleja es sin duda
el hecho de que esta teora nos da metodos muy poderosos para evaluar integrales.
El objetivo de este capitulo es introducir una serie de metodos utilizando todo lo
que hemos aprendido y la teora de series en variable compleja, para poder evaluar
integrales complicadas. Para eso, es necesario intruducir la teora de series en
variable compleja y es lo que haremos primero.
1. Series en el Plano Complejo
La denicion de las series en variable compleja es completamente analogo a las
series en variable real. Una serie es entonces una suma de la forma
(7.1) z
1
+z
2
+ +z
n
+ =

n=1
z
n
La serie sera convergente si su parte real y su parte imaginaria lo son por separado.
Para determinar si una serie converge entonces, se usan los metodos comunes en
la determinacion de convergencia en variable real. Vamos a recordar brevemente
algunos criterios.
1) Criterio de comparacion. Si 0 a
n
b
n
, para toda n, entonces si la
serie

n=1
b
n
converge, tambien converge

n=1
a
n
.
2) Prueba del cociente. Sea a
n
> 0 para todo n y
lim
n
a
n+1
a
n
= r
entonces

n=1
a
n
converge si r < 1.
3) Teorema de Leibniz. Si a
1
a
2
0 y
lim
n
a
n
= 0
entonces la serie

n=1
(1)
n+1
a
n
= a
1
a
2
+a
3
a
4
converge.
Para aplicar estos criterios de convergencia se toman la parte real y la imag-
inaria por separado y se aplica entonces a las series de variable compleja. Sin
embargo, podemos denir algo mas fuerte que convergente, que se llama absoluta-
mente convergete. Su denicion es como sigue:
Definici on 7.1. Una serie del tipo (7.1) convergente, se dice absolutamente
convergente si
[z
1
[ +[z
2
[ + +[z
n
[ + =

n=1
[z
n
[
es convergente
103
104 7. SERIES
Si una serie es absolutamente convergente, entonces es convergente.
Vamos a ver un ejemplo de esta denicion en forma de teorema.
Teorema 7.2 (de Abel). Sea la serie
(7.2) c
0
+c
1
z + +c
n
z
n
+ =

n=1
c
n
z
n
Si esta serie converge para alg un valor z
o
, entonces la serie converge absolutamente
para todos los valores z tales que [z[ < [z
o
[
Demostraci on 7.3. Por hip otesis se tiene que

n=1
c
n
z
n
o
convege, por lo que
[c
n
z
n
o
[ < M es acotado para toda n y para alguna M . Sea r = [z/z
o
[, entonces
[c
n
z
n
[ = [c
n
z
n
o
[

z
z
o

n
< M r
n
por lo que, usando el criterio de comparaci on de las series, se tiene que si r < 1,
la serie converge absolutamente.
Veamos otros ejemplos.
Ejemplo 7.4. Sea la serie
S =

n=1
e
in
n
2
Claramente podemos descomponer esta serie en su parte real y su parte imaginaria
como
S =

n=1
_
cos(n)
n
2
+i
sin(n)
n
2
_
Primero observemos que el m odulo de los terminos de la serie es

n=1
1/n
2
y esta
serie es convergente, por lo que la serie S es absolutamente convergente. La dos
series por separado, la parte real y la imaginaria, tambien son convergentes, por lo
que S es convergente.
Ejemplo 7.5. Vamos a determinar si la serie
S =

n=1
z
n
cos(in)
es convergente. Para hacer esto, primero observamos que cos(in) = cosh(n).
Tomemos ahora un valor arbitrario para z, digamos z
o
y chequemos las condi-
ciones para las cuales la serie

n=1
z
n
o
cosh(n) converge. Para hacer esto, usamos
el criterio del cociente, esto es:
lim
n

z
n+1
o
cosh(n + 1)
z
n
o
cosh(n)

= lim
n

z
o
(cosh(n) cosh(1) + sinh(n) sinh(1))
cosh(n)

= lim
n
z
o
[cosh(1) + tanh(n) sinh(1)[
= z
o
[cosh(1) + sinh(1)[ = z
o
e
por lo que la serie S converge si z
o
< 1/e
Este valor determina una region para la cual la serie converge y se le llama
radio de convergencia. Formalmente se puede denir como sigue:
2. SERIES DE TAYLOR EN EL PLANO COMPLEJO 105
Definici on 7.6. El radio de convergencia de una serie del tipo (7.2) se
dene como
lim
n

c
n
c
n+1

Ejercicio 7.7. Determinar el radio de convergencia, cuando exista, de las


siguientes series:
1)

n=1
z
n
e
in
2)

n=1
z
n
e
i

n
3)

n=1
_
z
1i
_
n
4)

n=1
z
n
i
n
5)

n=1
z
n
sin(
i
n
)
2. Series de Taylor en el Plano Complejo
Las series de Taylor en variable compleja son de primordial importancia para
evaluar funciones. En esta secci on vamos a denir las series de Taylor y Maclaurin y
despues pasaremos a denir las series de Laurent, que se utilizaran para varios teo-
remas y despues para desarrolar metodos que nos seran muy utiles en la evaluacion
de integrales. Vamos a iniciar con el siguiente teorema.
Teorema 7.8 (Series de Taylor). Sea f(z) una funci on analtica en una regi on
dentro de una circunferencia
0
, con centro en z
0
y radio r
0
. Para todo punto
dentro de
0
se tiene
f(z) = f(z
0
) +f

(z
0
)(z z
0
) +
f

(z
0
)
2!
(z z
0
)
2
+ +
f
n
(z
0
)
n !
(z z
0
)
n
+
Demostraci on 7.9. Sea z
0
y r = [z z
0
[, i.e., r < r
0
. Sea
1
la circun-
ferencia [z

z
0
[ = r
1
, tal que r < r
1
< r
0
. f(z) es analtica dentro y sobre de
1
.
De la integral de Cauchy, tenemos
f(z) =
1
2i
_
1
f(z

)dz

z
Pero
1
z

z
=
1
(z

z
0
) (z z
0
)
=
1
z

z
0

1
1
zz0
z

z0
Ahora usamos la f ormula
1 + + +
n1
=

n
1
1
se obtiene
1
1
= 1 + +
2
+ +
n1
+

n
1
Entonces, si hacemos =
zz0
z

z0
, obtenemos una f ormula equivalente
1
z

z
=
1
z

z
0
_
1 +
z z
0
z

z
0
+ +
_
z z
0
z

z
0
_
n1
+
1
1
zz0
z

z0
_
z z
0
z

z
0
_
n
_
106 7. SERIES
Asi que
f(z

)
z

z
=
f(z

)
z

z
0
+
f(z

)
(z

z
0
)
2
(zz
0
)+ +
f(z

)
(z

z
0
)
n
(zz
0
)
n1
+
f(z

)
(z

z)(z

z
0
)
n
(zz
0
)
n
Ahora dividimos esta identidad entre 2i e integramos todos los terminos usando
el teorema de Cauchy, para obtener
f(z) = f(z
0
) +f

(z
0
)(z z
0
) + +
f
(n1)
(z
0
)
n!
(z z
0
)
n1
+R
n
donde el residuo R
n
esta dado por
R
n
=
(z z
0
)
n
2i
_
1
f(z

)dz

(z

z)(z

z
0
)
n
y
1
es la trayectoria cerrada denida anteriormente. Recordemos que [z z
0
[ = r
y [z

z
0
[ = r
1
y como [z

z
0
[ [z

z[ +[z z
0
[, entonces [z

z[ [z

z
0
[
[z z
0
[ = r
1
r. Esto es, si M es el m aximo de [f(z

)[ dentro de la curva
1
, el
residuo es menor que
[R
n
[

r
n
2i
2iM r
1
(r
1
r)r
n
1

=
r
1
M
r
1
r
_
r
r
1
_
n

n
0
ya que r < r
1
. Esto implica que tomando la serie hasta innito obtenemos el valor
de la funci on en cualquier punto. Es decir,
f(z) = f(z
0
) +

n1
f
(n)
n!
(z z
0
)
n
La convergencia de la serie, entonces, se da si la funci on f(z) es analtica dentro
de
0

Notaci on 7.10. Si la serie se toma para z
0
= 0, la serie se llama serie de
Maclaurin.
3. SERIES DE LAURENT 107
Ejemplo 7.11. Los ejemplos m as tpicos de series de Taylor y Maclurin son
exp (z) = 1 +

n=1
z
n
n!
para [z[ <
sin (z) =

n=1
(1)
n+1
z
2n1
(2n 1)!
, para [z[ <
cos (z) = 1 +

n=1
(1)
n
z
2n
(2n)!
, para [z[ <
sinh (z) =

n=1
z
2n1
(2n 1)!
, para [z[ <
cosh(z) = 1 +

n=1
z
2n
(2n)!
, para [z[ <
1
1 +z
=

n=o
(1)
n
z
n
, para [z[ < 1
1
z
=

n=o
(1)
n
(z 1)
n
, para [z 1[ < 1
Ve amos otro ejemplo.
Ejemplo 7.12. Vamos a desarrollar la funci on
f(z) =
1
3 2 z
en series de Taylor en potencias de z 3. Para hacer esto, vamos a transfomar la
funci on f como sigue:
1
3 2 z
=
1
3 + 2(z 3)
=
1
3
1
1 +
2
3
(z 3)
Ahora usamos la f ormula para el desarrollo de Taylor de 1/(1 + z) con [z[ < 1,
substituyendo z 2/3(z 3). Se obtiene:
1
3 2 z
=
1
3
_
1
2
3
(z 3) +
2
2
3
2
(z 3)
2

2
3
3
3
(z 3)
3
+
_
la cual es convergente para [z 3[ <
3
2
.
3. Series de Laurent
Las series de Laurent son una forma de descomposicion que se puede llevar a
cabo en cualquier funci on analtica. Las series de Laurent contienen coecientes
que seran utilizados para la evaluacion de integrales de una manera muy sencilla.
Vamos a iniciar con el teorema de las series de Laurent.
Teorema 7.13 (Series de Laurent). Sean
1
y
2
dos trayectorias circulares
concentricas, con centro en z
0
. Sea z

un punto en
1

2
, tal que [z

z
0
[ = r
1
o [z

z
0
[ = r
2
, con r
2
< r
1
. f(z) es analtica sobre
1
y
2
y en la regi on entre
ellas, como se muestra en la gura 1. Entonces f(z) puede representarse como una
serie de potencias de orden positivo y negativo como
108 7. SERIES
Figure 1. Trayectoria de integraci on utilizada en el teorema de
series de Laurent.
f(z) =

n=0
a
n
(z z
0
)
n
+

n=1
b
n
(z z
0
)
n
donde
a
n
=
1
2i
_
1
f(z

)dz

(z

z
0
)
n+1
n = 0, 1,
b
n
=
1
2i
_
2
f(z

)dz

(z

z
0
)
n+1
n = 1, 2,
Notaci on 7.14. A estas series se les llama series de Laurent.
Demostraci on 7.15. La integral de Cauchy de f(z) es
f(z) =
1
2i
_
1
f(z

)dz

z

1
2i
_
2
f(z

)dz

z
ya que dentro de esta trayectoria, f(z) es analtica. Si como en el teorema anterior
usamos la descomposici on de
1
z

z
pero ahora en cada integral, obtenemos
f(z) =
1
2i
_
1
f(z

)dz

_
1
z

z
0
+
z z
0
(z

z
0
)
2
+ +
(z z
0
)
n1
(z

z
0
)
n
+
(z z
0
)
n
(z

z
0
)
n
(z

z)
_

1
2i
_
2
f(z

)dz

_
1
z z
0
+
z

z
0
(z z
0
)
2
+ +
(z

z
0
)
n1
(z z
0
)
n
+
(z

z
0
)
n
(z z
0
)
n
(z z

)
_
donde, de la misma forma que en el teorema de Taylor, el residuo
(z z
0
)
n
2i
_
1
f(z

)dz

1
(z

z
0
)
n
(z

z)
3. SERIES DE LAURENT 109
tiende a cero para n . S olo nos falta ver el segundo residuo dado por
1
2i (z z
0
)
n
_
2
f(z

)dz

(z

z
0
)
n
(z z

)
pero por el mismo argumento que para el primer residuo, se puede ver que tambien
tiede a cero para cuando n tiende a innito. Por lo que se sigue el teorema.
Ejercicio 7.16. Demuestre que el residuo de la serie
1
2i (z z
0
)
n
_
2
f(z

)dz

(z

z
0
)
n
(z z

)
tiende a cero para n
Para familiarizarnos con las series de Laurent, en lo que sigue vamos a dar
algunos casos particulares de ellas as como algunas aplicaciones y ejemplos. Las
series de Laurent son muy generales, de hecho contienen a las de Taylor. Vamos a
iniciar con una proposicion diciendo justamente esto.
Proposici on 7.17. Si la funci on f es analtica dentro y fuera de una curva
[z z
0
[ = r
0
, su serie de Laurent se reduce a
f(z) =

n=0
a
n
(z z
0
)
n
y converge a f(z) para todos los puntos interiores de la circunferencia [z z
0
[ = r
0
.
Es claro que esta serie es la serie de Taylor de f(z) en potencias de (z z
0
).
Demostraci on 7.18. Si f es analtica dentro del circulo [z z
0
[ = r
0
, se sigue
que b
n
= 0 en la serie de Laurent, para todo n. La serie se vuelve un desarrollo en
serie para f totalmente an alogo como en el caso del teorema de Taylor.
Veamos algunos ejemplos representativos.
Ejemplo 7.19. Tomemos la funci on
f(z) =
1
z(1 +z
2
)
Esta funci on es singular para z = 0 y z = i. Primero vamos a encontrar su serie
de Laurent dentro de una trayectoria cerrada con [z[ < 1. Para este caso, podemos
expander el termino 1/(1 +z
2
) en series como sigue
f(z) =
1
z
1
1 +z
2
=
1
z
_
1 z
2
+z
4
z
6
+
_
=
1
z
+

n=1
(1)
n
z
2n1
para (0 < [z[ < 1)
Sin embargo, si ahora tomamos la regi on [z[ > 1 esta expansi on ya no es v alida. Lo
que se acostumbra entonces es buscar que se cumplan las condiciones para que la
expans on pueda realizarse. Para esto hagamos lo siguiente, si [z[ > 1, esto implica
110 7. SERIES
que [1/z[ < 1, as que hagamos la expansi on usando este hecho. Por ejemplo,
podemos hacer
f(z) =
1
z
3
1
1 +z
2
=
1
z
3

n=1
(1)
n
z
2n
=

n=0
(1)
n
1
z
2n+3
para [z[ > 1
ya que

1/z
2

< 1. Asi, la expresi on en series de la funci on depende de la regi on


en donde queremos obtener la serie.
Ejemplo 7.20. Vamos a buscar la serie de Laurent de la funci on
f(z) =
1
(1 z
2
)
2
dentro de la esfera 0 < [z 1[ < 2. Para hacer esto utilizaremos la f ormula de las
series de Laurent en su forma intergral. Los coecientes de la serie estan dados
por:
a
n
=
1
2i
_
1
1
(1z
2
)
2
dz

(z

1)
n+1
=
1
2i
_
1
dz

(z

1)
n+3
(1 +z

)
2
=
1
(n + 2)!
d
n+2
dz
n+2
_
1
(1 +z)
2
_

z=1
=
1
(n + 2)!
(1)
n
(n + 3)!
(1 +z)
n+4

z=1
=
(1)
n
(n + 3)
2
n+4
n = 0, 1,
donde
1
es una trayectoria alrededor de z = 1, y hemos usado la f ormula (6.2)
para las derivadas de la integral de Cauchy. De una manera semjante, vamos a
evaluar la integral para los coecientes b
n
, tenemos:
b
n
=
1
2i
_
1
1
(1z
2
)
2
dz

(z

1)
n+1
=
1
2i
_
1
dz

(z

1)
n+3
(1 + z

)
2
n = 1, 2,
Para n = 1, 2, el resultado es el mismo que para a
n
, pero con n = 2, 1. Para
n 3, la funci on interior de la integral es analtica en z = 1 y la integral es cero.
Entonces la serie ser a:
1
(1 z
2
)
2
=

n=2
(1)
n
(n + 3)
2
n+4
(z 1)
n
Ejercicio 7.21. Obtenga con detalle las expresiones de las series de las fun-
ciones siguientes
1) z
2
, dentro cualquier trayectoria cerrada.
2) cos(z)/(z + 1)
2
, dentro de crculo de radio 1/2 y centro en cero.
3) cos(z)/(z + 1)
2
, dentro de un crculo de radio 2 y centro en cero.
4. POLOS Y RESIDUOS 111
4)
2z+1
z+z
2
, dentro de un crculo de radio 2 y centro en cero.
5)
2z+1
z+z
2
, dentro de un crculo de radio 1/2 y centro en cero.
6)
4z
3
+z
2
1
z(z
2
1)
, dentro de un crculo de radio 2 y centro en cero.
7)
4z
3
+z
2
1
z(z
2
1)
, dentro de un crculo de radio 1/2 y centro en cero.
8)
z
2
2z1
z+z
2
, donde es un crculo de radio 1/2 y centro en 1.
En algunas ocaciones conviene realizar algunos cambios a las funciones analticas
para poder encontrar su serie de Laurent. Por ejemplo, cuando una funci on analtica
se pude descomponer en el producto de dos o mas funciones analticas mas simples.
En este caso es posible encotrar sus series utilizando la siguiente proposicion.
Proposici on 7.22. La serie del producto de dos funciones analticas converge
hacia el producto de sus series para todo los puntos interiores a las dos circunfer-
encias de convergencia.
Demostraci on 7.23. Sean
f(z) =

n=0
a
n
z
n
y g(z) =

n=0
b
n
z
n
analticas en una regi on R. Entonces, como f(z) y g(z) son analticas en esa regi on,
su serie de Maclaurin existe en la regi on. Se sigue que f(z)g(z) es analtica ah y
f(z)g(z) =

n=0
c
n
z
n
con
= a
0
b
0
+ c
0
= f(0)g(0) = a
0
b
0
(a
0
b
1
+a
1
b
0
)z+ c
1
= f(0)g

(0) +f

(0)g(0) = a
0
b
1
+a
1
b
0
(a
0
b
2
+a
1
b
1
+a
2
b
2
)z
2
+ c
2
=
1
2!
[f(0)g

(0) + 2f

(a)f

(0) +f

g(0)]
.
.
. = a
0
b
2
+a
1
b
1
+a
2
b
0
, etc.

4. Polos y Residuos
Ya estamos listos para introducir el teorema mas importante para resolver
integrales complicadas. Como ya conocemos la serie de Laurent de una funci on, se
pueden entonces conocer los coecientes de la serie y con esto es posible conocer
los polos y tambien los residuos, como veremos mas adelante. La idea es muy
simple, los coecientes de la serie son de hecho integrales de funciones, pero la
serie se puede encontrar por otros metodos. Entonces, conocidos los coecientes,
podemos igualarlos a las integrales correspondientes. Estos coecientes son los
que se necesita para poder evaluar integrales. Vamos a iniciar esta secci on con la
siguiente denicion.
Definici on 7.24. Sea f : ( ( analtica en todos los puntos de la regi on R,
excepto en z
0
R. Entonces z
0
se llama punto singular aislado de f en R.
Notaci on 7.25. Otra manera de enunciar esta denici on es diciendo que z
0
es un punto singular aislado, si en toda la regi on alrededor de R
z0
= z R [ 0 <
[z z
0
[ r
1
, f es analtica.
112 7. SERIES
Otra concepto que usaremos mucho en lo que sigue es el concepto de residuo,
que es simplemente el coeciente principal de la serie de Laurent de una funci on,
formalmente tenemos.
Definici on 7.26. Sea f : ( ( analtica en R con el punto singular aislado
z
0
y sea
f(z) =

n=0
a
n
(z z
0
)
n
+
b
1
z z
0
+
b
2
(z z
0
)
2
+
la serie de Laurent de f alrededor de z
0
. Al coeciente b
1
de la serie se le llama
residuo.
Comentario 7.27. Observemos que b
1
tiene la forma
b
1
=
1
2i
_

f(z

)dz

,
donde es cualquier curva cerrada que envuelva solo al punto singular aislado z
0
de f, pero no a otro m as.
Comentario 7.28. Para calcular los residuos en ocaciones es muy util la
f ormula
(7.3) b
1
= lim
zz0
(z z
0
) f (z)
Para comprender mejor estas deniciones, vamos a ver algunos ejemplos.
Ejemplo 7.29. Sea
f(z) =
cos (z)
z
3
Alrededor de z
0
= 0, la serie de Laurent de esta funci on es
cos(z)
z
3
=
1
z
3

1
2
1
z
+
1
4!
z
1
6!
z
3
+ para [z[ < 0
El residuo ser a b
1
= 1/2. Esto quiere decir que
1
2 i
_

cos(z)
z
3
dz =
1
2
donde es cualquier trayectoria cerrada que rodee a z
0
= 0.
Ejemplo 7.30. Vamos a encontrar los residuos de la funci on
f(z) =
5z 2
z(z 1)
,
alrededor de [z[ = 2. Dentro de [z[ = 2 est an las dos singularidades aisladas z = 0
y z = 1. Primero encontremos la serie de Laurent alrededor de z = 0, pero con
[z[ < 1. Para esto, simplemente separemos las series
5z 2
z(z 1)
=
5
z 1

2
z(z 1)
=
_
5
2
z
_
1
z 1
=
_
5 +
2
z
_
(1 +z +z
2
+ )
=
2
z
3 3z 3z
2

4. POLOS Y RESIDUOS 113
As, el residuo para 0 < [z[ < 1 es K
1
= 2. Ahora vamos a buscar la serie alrededor
del otro polo z = 1. Para hacer esto, busquemos una descomposici on de la funci on
de tal forma que podamos expandirla en series alrededor de z = 1. Podemos hacer
5z 2
z(z 1)
=
_
5z 5 + 3
z 1
_
1
z
=
_
5 +
3
z 1
_
1
z
=
_
5 +
3
z 1
_
[1 (z 1) + (z 1)
2
]
= 5 5(z 1) + 5(z 1)
2
+
3
z 1
3 + 3(z 1) 3(z 1)
2
+
=
3
z 1
+ 2 2(z 1) + 2(z 1)
2

para 0 < [z 1[ < 1, por lo que el residuo es K
2
= 3.
Ejercicio 7.31. Obtenga los residuos de las fuciones del ejercicio 7.21.
El c alculo anterior es generico en funciones analticas y es otro de los resultados
mas importantes de la variable compleja. Con este resultado ya podemos demostrar
el teorema de los residuos.
Teorema 7.32 (del Residuo). Sea f : ( ( analtica en una regi on R, excepto
en un n umero nito de puntos singulares aislados, sea una curva cerrada que rodea
un n umero nito de esos puntos. Sean K
1
, , K
n
los residuos de f alrededor de
estos puntos. Entonces
_

f(z)dz = 2i(K
1
+K
2
+ +K
n
)
Demostraci on 7.33. Tomemos la curva y la descomponemos en secciones
que rodeen a los polos, como se muestra en la gura 2. Entonces se tiene
_

f(z)dz =
_
1
f(z)dz +
_
2
f(z)dz + +
_
n
f(z)dz = 2i(K
1
+K
2
+ +K
n
)

Ejemplo 7.34. Vamos a evaluar la integral


_
5z 2
z(z 1)
dz
alrededor de [z[ = 2 . Como vimos en el ejemplo 7.30, la serie de Laurent alrededor
de z = 0 es
5z 2
z(z 1)
=
2
z
3 3z 3z
2

y el residuo par 0 < [z[ < 1 es K
1
= 2. Para el otro residuo teniamos
5z 2
z(z 1)
=
3
z 1
+ 2 2(z 1) + 2(z 1)
2
para 0 < [z 1[ < 1, por lo que el residuo es K
2
= 3. Entonces la integral sera
_

5z 2
z(z 1)
dz = 2i(2 + 3) = 10i
114 7. SERIES
Figure 2. Trayectoria de integraci on utilizada en el teorema del residuo.
Para comprobar que esto es cierto, evaluemos la integral directamente
_

5z 2
z(z 1)
dz =
_

2
z
dz +
_

3
z 1
dz = 2i(2 + 3)
O hagamos el desarrollo en series de otra forma alternativa que abarque los dos
polos, por ejemplo, para [z[ > 1 podemos hacer
5z 2
z(z 1)
=
5z 2
z
2
1
1
1
z
= (5z 2)

n=0
1
z
n+2
por lo que el residuo aqui es 5, as que al nal, con cualquiera de las formas de
calcular la integral, obtenemos el mismo resultado, como debe ser.
Ejercicio 7.35. Usando el teorema del residuo, calcular las integrales sigu-
ientes
1)
_

cos(z)
(z+1)
2
dz
2)
_

2z+1
z+z
2
dz
3)
_

4z
3
+z
2
1
z(z
2
1)
dz
4)
_

z
2
2z1
z+z
2
dz
5)
_

e
z
(z
2
+1)
5
dz
6)
_

cos(z)
(z1)
5
dz
7)
_

3z
3
z
2
+5z+1
(z
2
1)
2
dz
4. POLOS Y RESIDUOS 115
En ocaciones hay funciones que tienen muchos polos en el mismo punto, o de
otra manera, alg un polo es multiple, es decir, el polo esta elevado a alguna potencia.
Estos polos multiples reciben un nombre especial.
Definici on 7.36. Sea f : ( ( analtica alrededor de z y sea.
f(z) =
b
1
z z
0
+
b
a
(z z
0
)
2
+ +
b
m
(z z
0
)
m
+

n=0
a
n
(z z
0
)
n
la serie de Laurent de f(z) alrededor de z
0
, tal que b
m
,= 0 pero b
m+1
, b
m+2
= 0.
Entonces se dice que z
0
es un polo de orden m. Si m = 1 , se dice que z
0
es un
polo simple.
Podemos construir una formula analoga a la formula (7.3) para calcular los
residuos de polos de orden arbitrario. Esta formula esta dada en la siguiente
proposicion.
Proposici on 7.37. Sea f : ( ( univaluada, tal que, para alg un m entero y
positivo
F(z) = (z z
0
)
m
f(z)
es analtica en z
0
y F(z
0
) ,= 0. Entonces f(z) tiene un polo de orden m en z
0
. El
residuo ser a F
(m1)
(z
0
)/(m1)!
Demostraci on 7.38. Supongamos que f(z) tiene un polo de orden m, por lo
que b
m
,= 0, pero todos los b
m+k
= 0, con k > 1. Vamos a construir la funci on
F(z) = (z z
0
)
m
f(z), se tiene
F(z) = b
1
(z z
0
)
m1
+b
a
(z z
0
)
m2
+ +b
m
+

n=0
a
n
(z z
0
)
n+m
Claramente F(z
0
) = b
m
,= 0. Si tomamos la m 1 derivada de F(z), se obtiene
que
d
m1
F(z)
dz
m1
= (m1)!b
1
+

n=0
(n +m1)!a
n
(z z
0
)
n+1
Por lo que b
1
= 1/(m1)!F
(m1)
(z
0
)
Comentario 7.39. Para calcular los polos de orden m en general es conve-
niente utilizar la f ormula
(7.4) b
m
= lim
zz0
((z z
0
)
m
f(z
0
))
(m1)
(m1)!
Usemos esta formula en un ejemplo sencillo.
Ejemplo 7.40. Tomemos
f(z) =
z
2
2z + 3
z 2
es claro que esta funci on se puede descomponer como
z
2
2z + 3
z 2
=
3
z 2
+z
Entonces esta expresion tiene un residuo K
1
= 3 y un polo simple en z
0
= 2. Para
llegar al mismo resultado, ahora calculems F(z), obtenemos
F(z = 2) = (z 2)f(z)[
z=2
= z
2
2z + 3

z=2
= 3
116 7. SERIES
como antes.
Ejemplo 7.41. Encontremos los residuos de la funci on
f(z) =
z
2
(z
2
+ 9)(z
2
+ 4)
2
Esta funci on tiene 2 polos simples en 3i y dos dobles en 2i. Para calcular los
residuos usemos la f ormula (7.3)
b
1
= lim
z3i
z
2
(z + 3i)(z
2
+ 4)
2
=
3
50i
y
b
1
= lim
z3i
z
2
(z 3i)(z
2
+ 4)
2
=
3
50i
Los polos dobles los calculamos usando la f ormula (7.4)
lim
z2i
_
(z 2i)
2
f(z)
_

=
_
z
2
(z
2
+ 9)(z + 2i)
_

=
13i
200
an alogamente
lim
z2i
_
(z 2i)
2
f(z)
_

=
_
z
2
(z
2
+ 9)(z 2i)
_

=
13i
200
La formula para obtener el residuo tambien puede ser usada para otros nes.
Por ejemplo, vamos a usarla para evaluar el lmite de la funci on
g(z) = 2
cosh(z)
z
2
2
sinh(z)
z
3
en cero.
Ejemplo 7.42. Tomemos la serie
f(z) =
sinh (z)
z
4
Su funci on F(z) correspondiente debe ser
F(z) = z
m
sinh (z)
z
4
Si m 4, F(0) = 0. Pero si m = 3,
F(z = 0) =
sinh(z)
z

z=0
= 1
Entonces
1
2!
d
2
F(z = 0)
dz
2
=
1
2
_
sinh(z)
z
2
cosh(z)
z
2
+ 2
sinh(z)
z
3
_

z=0
Que es justamente 1/2!F

(0) = 1/2 lim


z0
(sinh(z)/z g(z)), que es el lmite que
buscamos. Para saber cual es su valor, vamos a evaluar la serie de Laurent de la
funci on f(z). Se obtiene
f(z) =
sinh (z)
z
4
=
1
z
3
+
1
3!
1
z
+
1
5!
z +
1
7!
z
3
+
4. POLOS Y RESIDUOS 117
Por lo que sinh (z) /z
4
tiene un residuo igual a 1/6 y un polo triple en z = 0.
Usando este resultado podemos evaluar la funci on
1
2!
F

(0) =
1
2
_
sinh(z)
z
2
cosh(z)
z
2
+ 2
sinh(z)
z
3
_

z=0
=
1
6
Como lim
z0
sinh(z)/zg(z) = 1/3 y lim
z0
sinh(z)/z = 1, se tiene que lim
z0
g(z) =
2/3
Como ya habr an notado, las singularidades de alg unas funciones tienen la car-
acteristica de poder ser eliminadas transfomando la funci on original en otra que
se convierte en analtica. A estas sigularidades se les llama removibles, porque de
hecho se pueden evitar, por ejemplo, multiplicando la funci on por alg un factor,
como es el caso de la denicion de la funci on F. Formalmente estas sigularidades
se denen como sigue.
Definici on 7.43. Sea F
1
: ( ( analtica en una regi on R, excepto para
z = z
0
(. Sea F(z) = F
1
(z) para toda z ,= z
0
y F(z
0
) = k, con F : ( (. Si
F(z) es analtica, se dice que z
0
es una singularidad removible o evitable.
Para aclarar esta denicion, veamos algunos ejemplos y ejercicios.
Ejemplo 7.44. Sea f : ( ( analtica en R pero con un polo z = z
0
de orden
m. Si denimos F = (z z
0
)
m
f(z), esta nueva funci on es analtica y tiene una
singularidad en z = z
0
que es removible.
Ejemplo 7.45. Sea
f(z) =
1
z (e
z
1)
=
1
z
2
1
1 +
z
2!
+
z
2
3!
+
Esta funci on es singular en z = 0 y tiene un polo doble. De hecho
1
z (e
z
1)
=
1
z
2
(1
1
2
z + )
El residuo de f(z) es K
1
=
1
2
. Sin embargo, la funci on F = z
2
f(z) es analtica
en z = 0, por lo que z = 0 es un polo removible de F.
Ejercicio 7.46. Encontrar los polos y residuos de las siguientes funciones.
1)
cos(z)
(z+1)
2
2)
2z+1
z+z
2
3)
4z
3
+z
2
1
z(z
2
1)
4)
z
2
2z1
z+z
2
5)
e
z
(z
2
+1)
5
6)
cos(z)
(z1)
5
7)
3z
3
z
2
+5z+1
(z
2
1)
2
118 7. SERIES
5. Evaluaci on de Integrales
Una de las aplicaciones directas de los resultados anteriores es la posibilidad
de desarrollar algunos metodos para evaluar integrales que son muy complicadas.
Para explicar estos metodos, lo mas conveniente es dar ejemplos de como se utilizan
estos. En esta secci on veremos algunos ejemplos de evaluacion de integrales usando
los resultados de variable compleja.
5.1. Integrales de la forma.
_

p(x)
q(x)
dx
Ejemplo 7.47. Vamos a encontrar la integral
_

0
dx
x
2
+ 1
=
1
2
_

dx
x
2
+ 1
Tomemos la funci on f(z) =
1
z
2
+1
, tienen dos polos simples en +i y i. Sea una
curva cerrada, pasando por el eje real y haciendo un semicrculo, como en la gura
3. Se tiene
Figure 3. Curva cerrada, pasando por el eje real y haciendo un
semicrculo que contiene al polo simple +i.
_
R
R
dx
x
2
+ 1
+
_
R
dz
z
2
+ 1
=
_

dz
z
2
+ 1
=
_

i dz
2(z +i)

_

i dz
2(z i)
= 2i
_
0
1
2
i
_
=
5. EVALUACI

ON DE INTEGRALES 119
donde
R
es el semicrculo superior.
R
es tal que [z[ = R y como

z
2
+ 1

z
2

1 = R
2
1 se tiene

_
R
dz
z
2
+ 1

_
R
[dz[
R
2
1
=
R
R
2
1
R
0
as que
_

dx
x
2
+ 1
=
Ejemplo 7.48. Evaluar
_

0
x
2
dx
(x
2
+ 9)(x
2
+ 4)
2
=
1
2
_

x
2
dx
(x
2
+ 9)(x
2
+ 4)
2
Consideremos a la funci on
f(z) =
z
2
(z
2
+ 9)(z
2
+ 4)
2
Como vimos en el ejercicio 7.41, esta funci on tiene 2 polos simples en 3i y dos
dobles en 2i, cuyos residuos estan dado por K
3i
=
3i
50
, K
3i
=
3i
50
, K
2i
=
13i
200
y K
2i
=
13i
200
. Entonces la integral sobre el contorno se toma como en el ejemplo
anterior, ser a
_
R
R
dz
(z
2
+ 9)(z
2
+ 4)
2
+
_
R
dz
(z
2
+ 9)(z
2
+ 4)
2
=
_

dz
(z
2
+ 9)(z
2
+ 4)
2
= 2i(K
1
+K
3
) = 2i
_
3 i
50

13 i
200
_
=

100
Usando los mismos argumentos del ejemplo anterior, se llega a
_

0
dx
(x
2
+ 9)(x
2
+ 4)
2
=

200
En general, si f(z) es de la forma
f(z) =
p(z)
q(z)
donde p(z) y q(z) son ambas analticas, pero f(z) tiene un polo simple en z = z
0
,
con f(z
0
) ,= 0, esto implica que q(z
0
) = 0, pero q

(z
0
) ,= 0. Podemos escribir.
f(z) =
p(z
0
) +p

(z
0
)(z z
0
) +p

(z
0
)(z

z
0
)
2
/2! +
q(z
0
) +q

(z
0
)(z z
0
) +q

(z
0
)(z z
0
)
2
/2! +
de donde se sigue que
F(z) = (z z
0
)f(z) =
p(z
0
) +p

(z
0
)(z z
0
) +
q

(z
0
) +q

(z
0
)(z z
0
)/2! +
es analtica. Del polo simple podemos calcular el residuo. Si observamos que
b
1
= lim
zz0
F(z) = lim
zz0
(z z
0
)f(z) =
p(z
0
)
q

(z
0
)
120 7. SERIES
Analogamente, si el polo es doble q(z
0
) = q

(z
0
) = 0 pero q

(z
0
) ,= 0 y
b
2
= lim
zz0
((z z
0
)
2
f(z))

2!
=
2
3q

(z
0
)
2
(3p

(z
0
)q

(z
0
) p(z
0
)q

(z
0
))
Ejercicio 7.49. Eval uen las siguientes integrales
1)
_

dx
(1+x
2
)
3
=
3
8

2)
_

x
2
dx
(x
2
+4x+13)
2
=
13
54

3)
_

dx
1+x
6
=
2
3

4)
_

x
2
dx
1+x
6
=
1
3

5)
_

sin(x) dx
1+x
6
= 0
5.2. Integrales de la forma.
_

f(x) exp (ixh) dx


Estas integrales son de suma importancia porque son las transformadas de
Fourier de la funci on f(x). Estas se pueden resolver de la siguiente forma
Lema 7.50. Sea f(x) una funci on tal que lim
x
f(x) = 0 y h > 0. Entonces la
integral
_

f(x) exp (ihx) dx = 2i [ residuos del plano medio superior]


Demostraci on 7.51. Consideremos la integral a lo largo de la curva dada
en la gura 3. Claramente
_

f(z) exp(ihz) dz =
_
R
R
f(z) exp(ihz) dz +
_
R
f(z) exp(ihz) dz
Vamos a demostrar que la segunda integral del lado derecho de la identidad se
anula cuando R . Ahora bien, como lim
x
f(x) = 0, esto implica que para
R >> 1 existe siempre un n umero real M > 0 tal que [f(z)[ < M. Si hacemos
z = Re
i
= R[cos () +i sin()], se tiene que para R >> 1
In =

_
R
f(z) exp(ihz) dz

_

0
exp(hR[i cos () sin()]) iRe
i
d

MR

_

0
exp (hRi [cos () +]) d +
_

0
exp(hRsin()) e
i
d

La primera es la integral de una funci on peri odica y por tanto es nita y positiva,
digamos igual a I
0
, entonces podemos escribir
In = MR

I
0
+
_

0
exp(hRsin ()) e
i
d

2 MR
_
/2
0
exp (hRsin ()) d
5. EVALUACI

ON DE INTEGRALES 121
donde hemos usado la simetria de sin() entre 0 /2. Pero en este intervalo,
la funci on sin() 2 /, entonces podemos escribir:
I
n
2 MR
_
/2
0
exp
_
2 hR

_
d
= M
e
hR
1
h

R
0 (7.5)
dado que h > 0 y que M 0 cuando R .
Ejemplo 7.52. Vamos a evaluar la integral
_

exp (ixT)
k
2
x
2
dx
Consideremos la integral
_

exp (izT)
k
2
z
2
dz
Para T > 0, es la trayectoria de la gura 4. Se tiene que
Figure 4. Curva cerrada, pasando por el eje real y haciendo un
semicrculo que contienen los dos polos simples en +k y k.
_

exp (izT)
k
2
z
2
dz =
1
2k
_

exp (izT)
z +k
dz
1
2k
_

exp(izT)
z k
dz
=
1
2k
[exp(ikT) exp (ikT)]
=
i
k
sin(kT)
122 7. SERIES
Para T < 0, tomemos la misma trayectoria pero ahora con el simicirculo hacia
abajo, para que la integral (7.5) se integre de 0 a /2. Solo que en este caso los
polos quedan fuera de la trayectoria y por tanto la integral se anula, por lo que
_

exp (ixT)
k
2
x
2
dx =
_

i
k
sin (kT) para T > 0
0 para T < 0
Ejemplo 7.53. Vamos a evaluar la integral
_

exp (i (xR +yT))


y ix
0
x
2
dxdy
Podemos llevar a cabo la integraci on parte por parte. Primero integremos con re-
specto a y. La integral que vamos a resolver se ve entonces como:
_

exp (ixR) dx
_

exp(iyT)
y z
0
dy
donde z
0
= ix
0
x
2
. Observemos que esta integral se puede llevar a cabo usando una
trayectoria como la del ejercicio anterior, donde solo se tiene el polo y = z
0
. Ahora
bien, si T > 0, la trayectoria cubre el polo z
0
, pero si T < 0 no lo cubre. Por lo
que se obtiene que
_

exp(ixR) dx
_

exp (iyT)
y z
0
dy =
_

exp
_
ixR x
0
x
2
T
_
dx
para T > 0, y la integral es cero para T < 0. Queda resolver la integral anterior,
llamada la integral de Gauss. Para evaluarla, primero completemos el cuadrado
en la exponencial, se obtiene
e
R
2
/4b
_

e
bz
2
dz
donde hemos llamado b = x
0
T y a z = x R/2b. Esta integral puede evaluarse
usando el siguiente metodo. Si llamamos la integral I
p
, lo que vamos a hacer es
integrar
_
I
2
p
, de la siguiente forma:
I
p
= e
R
2
/4b
_

e
bz
2
dz = e
R
2
/4b
__

e
bx
2
dx
_1
2
__

e
by
2
dy
_1
2
= e
R
2
/4b
__

e
b(x
2
+y
2
)
dxdy
_1
2
= e
R
2
/4b
__
2
0
_

0
e
br
2
rdrd
_
1
2
= e
R
2
/4b
_

b
exp
_
R
2
4x
0
T
__

x
0
T
si T > 0, y cero si T < 0. Observese que aqui no utilizamos el teorema del residuo.
Para evaluar la ultima integral, claramente se utilizaron coordenadas polares.
Encontrar los polos y residuos de las siguientes funciones.
Ejercicio 7.54. Eval uen las siguientes integrales
1)
_

cos(x)
(x+1)
2
e
iTx
dx
5. EVALUACI

ON DE INTEGRALES 123
2)
_

e
x
(x
2
+1)
5
e
iTx
dx
3)
_

3x
3
x
2
+5x+1
(x
2
1)
2
e
iTx
dx
4)
_

cos(x)
(x1)
5
e
iTx
dx
5.3. Integrales de la forma.
_
2
0
F(sin () , cos ())d
Para este tipo de integrales, la transformaci on z = e
i
, dz = izd es siempre
muy util, ya que sin () =
1
2i
_
z z
1
_
y cos () =
1
2i
_
z z
1
_
. Este metodo es
generico y nosotros lo vamos a mostrar con un ejemplo.
Ejemplo 7.55. Vamos a evaluar la integral
(7.6) I =
_
2
0
d
5
4
+ sin ()
efectuando la transfomaci on para este timpo de integrales, se obtiene:
I =
_

dz
iz
_
5
4
+
1
2i
(z z
1
)
_
=
_

4dz
2z
2
+ 5iz 2
=
_

2dz
(z + 2i)(z +
1
2
i)
=
8
3

donde la integraci on se hizo a lo largo de la curva dada por [z[ = 1, como en la


gura 5.
Ejercicio 7.56. Eval uen las integrales
1.-
_
2
0
(cos() sin())
2
d
2.-
_
2
0
cos() sin
2
() d
3.-
_
2
0
d
1+2 sin
2
()
4.-
_
2
0
d
3 cos
2
()+2 sin
2
()
5.-
_
2
0
i cos()d
(cos
2
()+2 i sin() cos()sin
2
()+1)
3

_
2
0
sin()d
(cos
2
()+2 i sin() cos()sin
2
()+1)
3
124 7. SERIES
Figure 5. Curva cerrada, pasando por el eje real y haciendo un
crculo que contienen al polo simple z = i/2.
CHAPTER 8
GEOMETRIA DEL PLANO COMPLEJO
En este captulo veremos brevemente una parte de la geometra del plano com-
plejo. Nos concentraremos unicamente a dos aspectos, las transformaciones con-
formes y las supercies de Riemann. Vamos a iniciar con las transformaciones
conformes.
1. Transformaciones Conformes
Las transformaciones conformes se llevan a cabo para poder simplicar un
problema. Son muy utiles en la solucion de ecuaciones diferenciales, para resolver
problemas de fsica, qumica, ingeniera y matematicas en general, entre otros. Su
denicion es la siguiente:
Definici on 8.1. Una transformaci on conforme en una regi on R ( es
una funci on Z : ( ( tal que Z es analtica y
dZ
dz
,= 0
en R.
Lo interesante de la funci on Z es que transforma una region del dominio de
ella, en otro region diferente, es decir, a cada punto z = x +iy del plano complejo
(x, y), le asocia otro punto Z = u(x, y) + iv(x, y) del plano complejo (u, v). Para
ver esto, vamos algunos ejemplos.
Ejemplo 8.2. Traslaciones. El ejmplo m as simple es sin duda una traslaci on
conforme. Sea Z(z) = Z(x, y) = z +z
0
= x +x
0
+i(y +y
0
). Entonces, un punto
x + iy en el plano complejo, se ve como otro punto x + x
0
+ i(y + y
0
) en el plano
conforme, como en la gura 1
Figure 1. La transformaci on conforme Z(z) = z + z
0
, la cual
conrresponde a una traslacion.
125
126 8. GEOMETRIA DEL PLANO COMPLEJO
A cada punto z = x + iy se le asocia un punto u = x + x
0
y v = y + y
0
. Por
ejemplo, una linea en el plano complejo y = mx + b, se transforma en v y
0
=
m(u x
0
) + b, la cual es una linea paralela a la anterior desplazada, como en la
gura 1
Ejemplo 8.3. Rotaciones. Otro ejemplo interesante es la rotaci on con-
forme.

Esta est a denida como Z(z) = z z
0
. Para visualizar la transformaci on,
es conveniente escribir esta en su forma polar. Si z = re
i
, entonces Z(z) =
r r
0
e
i(+0)
. Es decir, el punto z = re
i
fue trasladado una distancia r r r
0
y
rotado de +
0
. Vean la gura 2. Por ejemplo, la rotaci on z
0
= e
i0
de un
Figure 2. La transformaci on conforme Z(z) = z z
0
, la cual
conrresponde a una rotacion del punto z.
crculo x
2
+ y
2
= z z = r
2
en el plano complejo, deja al crculo invariante, ya que
si lo vemos en la representaci on polar, este queda como Z

Z = zz
0
z z
0
= r
2
.
Ejemplo 8.4. Inversiones. Tal vez el ejemplo m as interesante sea el de la in-
versi on conforme. La inversi on esta denida como Z(z) = 1/z y para visulizarla
primero conviene escribir el n mero z en su forma polar z = re
i
. Entonces, la
inversi on se ve como Z(z) =
1
r
e
i
, es decir, la inversi on lleva al n umero z al lado
opuesto del plano complejo. Otra forma conveniente de visualizar una inversi on es
utilizando su forma Z(x, y) = 1/(x + iy) = (x iy)/(x
2
+ y
2
). De aqu se ve que
una inversi on nos lleva al complejo conjugado del n umero, dividio entre el m odulo
al cuadrado. Vamos a escribir la forma explicita de la inversi on como
(8.1) u =
x
x
2
+y
2
, v =
y
x
2
+y
2
De donde podemos escribir
x =
u
u
2
+v
2
, y =
v
u
2
+v
2
Por ejemplo, una lnea recta que pasa por el orgen y = mx, tras una inversi on
se vera como esa lnea recta pero con la pendiente invertida
v
u
2
+v
2
= m
u
u
2
+v
2
, es
decir v = mu. Una lnea paralela al eje x, y = c, se vera como:
v
c
+u
2
+v
2
= 0
que se puede escribir de otra forma como
u
2
+ (v +
1
2c
)
2
=
1
(2c)
2
1. TRANSFORMACIONES CONFORMES 127
el cual es un crculo centrado en (0, 1/(2c)), de radio 1/(2c). Es decir, una recta
paralela al eje x, bajo una inversi on es un crculo. En la gura 3 se puede ver el
crculo u
2
+(v +1/2)
2
= 1/4, el cual es la inversi on de la recta y = 1. En general,
una recta y = mx +b se vera tras una inversi on como:
v = mu b(u
2
+v
2
)
Esta ultima expresi on se puede reescribir como
(8.2)
_
v +
1
2b
_
2
+
_
u +
m
2b
_
2
=
1 +m
2
4b
2
para b ,= 0, el cual es claramente un crculo con centro en 1/(2b)(m, 1) y con
radio

1 +m
2
/(2b), en el plano (u, v). En la gura 3 se puede ver el crculo
(u + 1/2)
2
+ (v + 1/2)
2
= 1/2, el cual es la inversi on de la recta y = x + 1.
Concluimos que la inversi on de una recta que pasa por el origen es siempre otra
recta con pendiente invertida o un crculo, si la recta no pasa por el origen.
Figure 3. La transformaci on conforme Z(z) = 1/z, de la recta
y = x + 1, en el plano (u, v).
De la misma manera podemos visualizar un crculo despues de una inversi on.
Sea el crculo z z = x
2
+y
2
= r
2
, con r constante. Usando las expresiones anteriores,
el crculo se ve como:
x
2
+y
2
=
u
2
(u
2
+v
2
)
2
+
v
2
(u
2
+v
2
)
2
= r
2
de donde se sigue que:
u
2
+v
2
=
1
r
2
Es decir, se obtiene el mismo crculo, pero con un radio invertido.
Vamos a observar una caracteristica muy interesante de las transformaciones
conformes. Veamos primero el ejemplo 8.2 de las traslaciones conformes. Al
trasladar una recta del plano (x, y) al plano (u, v), la pendiente de las rectas no
se altera, as que si dos curvas en el plano (x, y) se cruzan en un punto, el angulo
que forman entre ellas se conservara en el plano (u, v). Esta armaci on no es tan
128 8. GEOMETRIA DEL PLANO COMPLEJO
evidente en el ejemplo 8.4 de las inversiones conformes. Sin embargo, sean dos
rectas que se cruzan en el plano (x, y), por ejemplo y = m
1
x + b
1
y y = m
2
x + b
2
y supongamos que se cruzan en el punto (x
0
, y
0
). En este punto se tiene que:
x
0
=
b
2
b
1
m
1
m
2
y
0
=
m
1
b
2
m
2
b
1
m
1
m
2
(8.3)
Tomemos la inversi on conforme de las rectas como en el ejemplo 8.4. Con estos
valores, tambien podemos escribir el punto de cruce (u
0
, v
0
) de los crculos corre-
spondientes en el plano (u, v), usando la formula (8.1) y los valores (8.3). En el
plano (u, v), la pendiente M de la recta tangente en cualquier punto (u, v) de los
cculos correspondietes a las rectas en (x, y) se obtiene derivando (8.2), es decir:
(8.4) M =
dv
du
=
u +
m
2b
v +
1
2b
En el punto (u
0
, v
0
), el circulo 1 tendra una recta tangente con pendiente M
1
y el
crculo 2, una recta tangente con pendiente M
2
, dadas por (8.4), con sus valores
correspondientes de m
1
, b
1
, m
2
y b
2
. Ahora calculemos los angulos que forman
dichas rectas. Lo mas simple es calcular la tangente de su diferencia, es decir:
(8.5) tan(
2

1
) =
M
2
M
1
1 +M
1
M
2
donde
1
es el angulo que forma la recta tangente al crculo 1 en el punto (u
0
, v
0
)
con el eje u y
2
es el correspondiente para el crculo 2. Ahora substituimos los
valores de M
1
y M
2
en terminos de las contantes de las rectas y (despues de mucha
algebra) se obtiene:
tan(
2

1
) =
m
1
m
2
1 +m
1
m
2
= tan(
2

1
)
donde ahora
1
es el angulo que forma la recta 1 con el eje x y
2
, el que forma
la recta 2. Es decir, de nuevo la diferencia entre los angulos se conserva. En la
gura 3 se puede ver como las rectas y = x + 1 y y = 1 se cruzan en (0, 1). Los
crculos correspondientes se cruzan en el plano (u, v) en el punto (0, 1). En este
punto las rectas tangentes a cada crculo forman un angulo igual que las rectas
correspondientes en el plano (x, y). Lo que vamos a probar ahora es que esta
propiedad es general en las transformaciones conformes.
Teorema 8.5. Sean
1
y
2
los angulos de las rectas tangentes a dos curvas
C
1
y C
2
respectivamente en un punto (x
0
, y
0
) donde estas curvas se cruzan. Sean
Z : ( ( una transformaci on conforme y C

1
y C

2
las curvas transformadas bajo Z
de C
1
y C
2
, respectivamente. Sea
1
el angulo con respecto a u de la curva tangente
de C

1
en el punto Z(x
0
, y
0
) = (u
0
, v
0
) y
2
el angulos de la curva tangente de C

2
.
Entonces se cumple que

2
=
1

2
Demostraci on 8.6. Por denici on, la transformaci on conforme Z cumple con
que
dZ
dz

z0
= lim
z0
Z
z

z0
= re
i

z0
,= 0
1. TRANSFORMACIONES CONFORMES 129
Por supuesto el angulo depende de z, pero para un punto jo z
0
este angulo es
una constante. En su forma polar, para que dos n umeros complejos sean iguales, su
modulos y sus argumentos deben coincidir. Entonces, los argumentos de la ecuaci on
anterior son:
= arg lim
z0
Z
z
= lim
z0
arg
Z
z
= lim
z0
arg Z lim
z0
arg z
=
como se muestra en la gura 4. Supongamos que tenemos las dos curvas, C
1
y C
2
en el plano (x, y) y se cruzan en el punto z
0
= x
0
+ iy
0
. En el plano (u, v) estas
curvas son C

1
y C

2
. Para la curva 1 se tiene que =
1

1
y para la curva 2
=
2

2
, de tal forma que:

2
=
1

Figure 4. Los argumentos de la transformaci on conforme Z, en


el lmite cuando z va a cero.
Un ejemplo muy interesante de una transformaci on conforme no lineal es el
siguiente:
Ejemplo 8.7. Sea Z = z
2
una transformaci on conforme. Esta transformaci on
esta dada por:
u = x
2
y
2
, v = 2xy
A esta transformaci on se le conoce como coordenadas hiporb olicas, ya que las
lineas u = x
2
y
2
=constante y v = 2xy =constante, forman hiperbolas en el
plano (x, y). Lo interesante del teorema anterior es que como la transformaci on
lleva hiperbolas del plano (x, y) a lineas perpendiculares al plano (u, v), como se
ve en la gura 5, las hiperbolas en el plano (x, y) forman un sistema otrogonal de
coordenadas, por eso el nombre de coordenadas hiperb olicas.
Existen muchos mas ejemplos de este tipo de transformaciones, pero es mejor
que el lector las estudie en forma de ejercicios.
130 8. GEOMETRIA DEL PLANO COMPLEJO
Figure 5. La transformaci on conforme Z = z
2
, la cual trans-
forma coordenadas hiperb olicas en coordenadas castesianas.
Ejercicio 8.8. Consideremos las sucesi on de transformaciones conformes
1.- z
1
= z +
d
c
2.- z
2
= c
2
z
1
3.- z
3
=
1
z2
4.- z
4
= (bc ad)z
3
5.- z
5
=
a
c
+z
4
Tomen sucesivemente estas transformaciones y encuentren el resultado nal y
la condici on para que esta ultima sea una transformaci on conforme. Sean el crculo
x
2
+ (y 1)
2
= 1 y la recta y = x + 1. Encuentren las curvas resultantes despues
de la quinta transformac on sucesiva de estas dos curvas. A esta transformaci on se
le llama la transformaci on homogr aca.
Ejercicio 8.9. Examinen la transformaci on conforme
Z = 2 arctan(ia z)
Den sus transformaciones del plano (x, y) al plano (u, v) y viceversa explcitamente.
Encuentren la tranformaci on del crculo x
2
+ (y 1)
2
= 1 y de la recta y = x + 1
bajo esta transformaci on.
2. Supercies de Riemann
En la secci on anterior vimos como la funci on f : ( (, tal que f(z) = z
2
transforma puntos de un plano complejo a otro. En su forma polar, esta funci on
tambien se puede escribir como f(z = re
i
) = r
2
e
2i
. En particular, podemos
tomar un crculo en el dominio de la funci on y ver como este se mapea en el
codominio. Claramente, una vuelta en el dominio implicar a una doble vuelta en el
crculo del codominio, alrededor de un crculo que tiene el cuadrado del radio del
correspondiente en el dominio. En la secci on 4 vimos que el inverso de esta funci on
2. SUPERFICIES DE RIEMANN 131
en el plano real, no es una funci on porque no es univaluada, es decir f : ,
tal que f(x) =

x tiene dos valores para cada x en el dominio. En esta secci on
veremos de una manera intuitiva como en variable compleja es posible hacer que
este tipo de mapeos se puedan ver como funciones, deniendo un dominio adecuado
llamado supercie de Riemann. En realidad, una supercie de Riemann es una
variedad compleja, pero nosotros veremos variedades hasta la secci on 1. Por ahora
lo que haremos es ver la idea funcional de lo que es una supercie de Riemann.
Para hacer esto veremos un par de ejmplos.
Ejemplo 8.10. Vamos a iniciar con la funci on (relaci on) f : ( (, tal que
f(z) =

z. En su forma polar, esta funci on f(re
i
) =

re
1
2

recorre la mitad
de un crculo en el plano (u, v), como se ve en la gura 6. Vamos a identicar
Figure 6. La transformaci on conforme Z =

z, recorre solo la
mitad del plano (u, v).
el eje positivo de los reales
+
con otro eje positivo de la parte real de otro plano
complejo, como se ve en la gura 7, de tal forma que un crculo iniciando en el
punto 0, contin ua hasta el punto 1 de ese plano, despues sigue en el punto 1 del otro
plano y sigue hasta el punto 2 de ese plano y de ahi pasa al punto 2 del primer plano
complejo, hasta completar una vuelta en los dos plano. A estos dos planos juntos
se le llama una supercie de Riemannm , de tal forma que la funci on (,
con f(z) =

z ahora es una funci on univaluada y biyectiva.


Ejemplo 8.11. Otro ejemplo similar es la funci on f : ( ( donde f(z) = z
1/3
.
En este caso dos planos identicados como en el caso anterior no ser an suciente.
Para esta funci on se necesitan tres planos, como los de la gura 8. En esta supercie
de Riemann iniciamos en el punto 0, continuamos hasta e punto 1 de este plano
y de ah pasamos al punto 1 del segundo plano, seguimos en este plano hasta el
punto dos y continuamos en el punto dos del tercer plano hasta al punto tres, que
nos conduce de nuevo al punto 3 del primer plano complejo. Si el dominio de
la funci on f es esta supercie de Riemann , es decir, f : (, la funci on
f(z) = z
1/3
es biyectiva.
Ejemplo 8.12. Finalmente vamos a anlizar la funci on ln(z). En este caso
tenemos que ln(re
i
) = ln(r) +i. Esta funci on (relaci on) tiene un n umero innito
de puntos de multivaluaci on, ya que todos los valores de = + 2k, con k =
0, 1, 2, , corresponden al mismo punto z = re
i
= re
i+i2k
. Para este caso
132 8. GEOMETRIA DEL PLANO COMPLEJO
Figure 7. Dos planos complejos (x, y), en donde identicamos
sus partes reales positivas. Esta union de espacios forma una su-
percie de Riemann.
Figure 8. Lo mismo que en la gura 7, pero ahora con tres planos.
vamos a necesitar una supercie de Riemann con un n umero innito de planos
identicados como en los casos anteriores.
Part 4
ANALISIS
CHAPTER 9
ESPACIOS M

ETRICOS Y UNITARIOS
1. Estructuras sobre y
n
En la parte de

Algebra estudiamos las estructuras algebraicas sobre y
n
.
En particular, sabemos que es un campo ordenado donde la estructura algebraica
de campo nos da las reglas de c alculo de la adici on, substracci on, multiplicacion
y divisi on, las cuales se relacionan con el orden natural de los n umeros reales.
Este orden es tanto un orden parcial como tambien lineal, y proporciona conceptos
como los de maximo, mnimo, cotas, supremo e inmo de subconjuntos, conceptos
de suma importancia en el analisis. Tambien vimos que
n
es un espacio vectorial
sobre , cuyas operaciones (adicion entre vectores y multiplicacion de escalares
con vectores) se basan enteramente en operaciones del campo . Conocemos con-
ceptos como subespacio vectorial, independencia lineal, cerradura lineal, base, di-
mension, y homomorsmos (mapeos lineales) entre espacios vectoriales, los cuales
debemos tener presentes para poder estudiar los temas del analisis presentados en
este captulo. Sin embargo, y
n
tienen mas estructuras, las cuales, normalmente
en un contexto practico o de aplicacion, supondremos nosotros aqu que el lector ha
conocido ya antes. Las siguientes secciones dentro de esta introduccion recuerdan
estos conceptos dentro de nuestro conocimiento y lo ordena en un contexto nuevo.
1.1.
n
como espacio vectorial normado. Recordamos que es un campo
ordenado y supondremos en este texto que la denicion formal del valor absoluto
es un concepto muy sencillo y conocido.
Definici on 9.1. Para x , se dene el valor absoluto de x por [x[ =
maxx, x.
Vemos que [x[ es un numero real no negativo, pues obviamente
[x[ = maxx, x =
_
x, si x 0,
x, si x < 0
,
as que, [[ es un mapeo de en
+
. Observamos que x es un punto sobre
la lnea real, o, equivalentemente, un vector sobre la lnea real, apuntando desde
el origen 0 hacia el punto x. Es evidente que [x[ es la longitud de este vector o
la distancia (igual a la longitud del segmento de lnea) entre 0 y x. Aplicando la
denicion del valor absoluto y propiedades del maximo, es facil deducir las siguientes
propiedades:
Lema 9.2. Para x, y :
1) [x[ = 0 s y s olo s x = 0.
2) [x[ = [x[
3) [xy[ = [x[ [y[
4) [x +y[ [x[ +[y[
135
136 9. ESPACIOS M

ETRICOS Y UNITARIOS
5) [x[ x [x[
Comentario 9.3. Aplicando inducci on matem atica, la propiedad 4) implica
que
[x
1
+x
2
+ +x
n
[ [x
1
[ +[x
2
[ + +[x
n
[ ,
para x
1
, x
2
, , x
n
.
En el plano euclideano
2
, comunmente hemos medido la longitud de un vector
x = (x
1
, x
2
)
2
como
|x|
2
=
_
[x
1
[
2
+[x
2
[
2
=
_
(x
1
)
2
+ (x
2
)
2
,
lo cual, seg un el teorema de Pit agoras, es la longitud del segmento de lnea entre
el orgen 0 = (0, 0) del plano Euclidiana y el punto x, es decir, es la longitud del
vector x = (x
1
, x
2
), ver gura 1
Figure 1. En el plano, la norma canonica representa la longitud
del vector, es decir, la distancia entre el origen de coordenadas y
el punto.
M as generalmente, conocemos la longitud de un vector x = (x
1
, x
2
, , x
n
)

n
dada por
|x|
2
=

_
n

i=1
(x
i
)
2
.
Es obvio que [[x[[
2
es un n umero real no negativo para cualquier x
n
,as
que, | |
2
es un mapeo de
n
en
+
. Las siguientes propiedades son parecidas a
propiedades que ya habamos observado para el valor absoluto:
Lema 9.4. Se tiene que
1) |x|
2
= 0 s y s olo s x = 0.
2) |x|
2
= [[ |x|
2
, para todo x
n
y .
3) |x +y|
2
|x|
2
+|y|
2
, para todo x, y
n
.
1. ESTRUCTURAS SOBRE Y
n
137
Ejercicio 9.5. Demostrar las propiedades del lema 9.4.
|x|
2
es llamado la norma Euclidiana del vector x
n
; es evidente que
para el caso n = 1, |x|
2
es exactamente el valor absoluto de x. Observamos que en
las propiedades de la norma Euclidiana (lema 9.4), se usa la estructura del espacio
vectorial
n
:
* En 1), x = 0 signica que x es el elemento neutro del grupo (
n
, +).
* En 2), se multiplica un escalar con un vector x.
* En 3), su suman dos vectores x, y.
1.2.
n
como espacio metrico. Observemos primero la lnea real y denamos
la siguiente funci on
d
2
(x, y) =
_
(x y)
2
,
x, y . Evidentemente
d
2
(x, y) =
_
x y, si x y
(x y), si y x
= [x y[
es la longitud del segmento de lnea entre x y y, sobre la recta de los n umeros
reales, as que, d
2
(x, y) mide la distancia entre x y y. Es facil observar que d
2
(, )
es un mapeo de en
+
, es decir, d
2
(x, y) 0 para todo x, y, z , con las
siguientes propiedades:
1) d
2
(x, y) = 0 s y solo s [x y[ = 0 x = y.
2) d
2
(x, y) = d
2
(y, x),
3) d
2
(x, y) +d
2
(y, z) d
2
(x, z),
Si denimos la distancia d
2
(x, y) entre dos puntos del plano euclideano, x =
(x
1
, x
2
), y = (y
1
, y
2
)
2
, igualmente como la longitud del segmento de lnea entre
los dos puntos, entonces d
2
(x, y) =
_
(x
1
y
1
)
2
+ (x
2
y
2
)
2
, ver gura 2, o mas
generalmente
d
2
(x, y) =

_
n

i=1
(x
i
y
i
)
2
,
para x = (x
1
, x
2
, , x
n
), y = (y
1
, y
2
, , y
n
)
n
. Ahora, d
2
(, ) es un mapeo
de
n

n
en
+
, y tiene las mismas propiedades como las de arriba:
Lema 9.6. d
2
(, ) es un mapeo de
n

n
en
+
d
2
(x, y) 0 para todo
x, y, z
n
y tiene las siguientes propiedades:
1) d
2
(x, y) = 0 s y s olo s [x y[ = 0 s y s olo s x = y.
2) d
2
(x, y) = d
2
(y, x),
3) d
2
(x, y) +d
2
(y, z) d
2
(x, z).
d
2
(x, y) se llama la metrica Euclideana sobre
n
. Observamos que, en las
propiedades de la metrica Euclideana, en contraste a las propiedades de la norma
Euclideana, no se usa la estructura algebraica del espacio vectorial de
n
, solamente
aparece la estructura algebraica de los n umeros reales (el neutro 0 de la suma, el
orden y la suma entre numeros reales). Sin embargo, siendo denidas [[x[[
2
sobre

n
y d
2
(x, y) sobre
n

n
, sus formulas hacen evidente las siguientes relaciones:
138 9. ESPACIOS M

ETRICOS Y UNITARIOS
Figure 2. . La distancia entre dos puntos en el plano. Esta
distancia es la distancia canonica en el plano y se basa en el teorema
de Pit agoras.
d
2
(x, y) = [[x y[[
2
,
|x|
2
= d
2
(x, 0),
x, y
n
, 0 el neutro de (
n
, +).
1.3.
n
como espacio euclideano. Otra estructura sobre
n
es el producto
escalar sobre
n
, tambien llamado producto interno sobre
n
, denido como
(x, y) =
n

i=1
x
i
y
i
, x = (x
1
, x
2
, , x
n
), y = (y
1
, y
2
, , y
n
)
n
.
Evidentemente (x, y) es un mapeo de
n

n
en . Sabemos que el producto
escalar es importante para denir conceptos geometricos como angulo, ortogonali-
dad y paralelidad. Para ver esto, hagamos un ejemplo en
2
.
Ejemplo 9.7. Siempre es posible escribir un vector en
2
como x = (x
1
, x
2
) =
r
1
(cos(
1
), sin(
1
)), y lo mismo para y = (y
1
, y
2
) = r
2
(cos(
2
), sin(
2
)), ver gura
3. Entonces el producto interno de x con y es
(x, y) = x
1
y
1
+x
2
y
2
= r
1
r
2
(cos(
1
) cos(
2
) + sin(
1
) sin(
2
))
= r
1
r
2
cos(
1

2
)
= [[x[[ [[y[[ cos()
donde es el angulo entre los dos vectores x y y. Este resultado tambien puede
verse como la denici on de los angulos en
2
.
El producto interno tiene interesantes propiedades:
1. ESTRUCTURAS SOBRE Y
n
139
Figure 3. Los vectores x y y escritos en coordenadas polares.
En vez de asignar dos distancias con respecto a los ejes x y y, se
asignan a cada punto su distancia al origen y el angulo que forman
con el eje x.
Lema 9.8. El producto escalar (x, y) denido arriba para x, y, z
n
satisface
que
i) (x +y, z) = (x, z) + (y, z), (x, z) = (x, z),
(x, y +z) = (x, y) + (x, z), (x, z) = (x, z), para (Bilinealidad).
ii) (x, y) = (y, x), (Simetra).
iii) (x, x) 0 para todo x
n
y (x, x) = 0 x = 0.
Demostraci on 9.9. i) Para el primer argumento, sean x, y, z
n
, ;
(x+y, z) =

n
i=1
(x
i
+y
i
)z
i
=

(x
i
z
i
+y
i
z
i
) =

x
i
z
i
+

y
i
z
i
= (x, z)+(y, z),
de la misma forma se tiene que (x, z) =

n
i=1
x
i
z
i
=

n
i=1
x
i
z
i
= (x, z).
La demostraci on para el segundo argumento es an aloga, se usa la distributividad
del grupo (, +) .
ii) es obvio.
iii) (x, x) =

n
i=1
x
2
i
evidentemente es no negativo, y es igual a 0 s y s olo s
x
2
i
= 0 para todo i (puesto que x
2
i
0), lo cual es equivalente a x
i
= 0 para todo i,
lo cual equivale a x = (0, 0, , 0) = 0
n
.
La Bilinealidad en i) signica que el mapeo (, ) es lineal en cada coordenada.
Eso no signica que el mapeo es lineal ! Si el mapeo (, ) fuese lineal, entonces
tendramos que (x, y) = (x, y). Sin embargo, aplicando la bilinealidad, obten-
emos (x, y) = (x, y) =
2
(x, y). En la propiedad iii), x = 0 signica que x
es el neutro del grupo aditivo
n
, es decir, x = (0, 0, , 0).
Resumimos lo recordado en las ultimas tres subsecciones:
140 9. ESPACIOS M

ETRICOS Y UNITARIOS
Resumen 9.10. Sean x = (x
1
, x
2
, , x
n
) y y = (y
1
, y
2
, , y
n
)
n
, en-
tonces
|x|
2
=

_
n

i=1
(x
i
)
2
, (Norma euclidiana).
d
2
(x, y) =

_
n

i=1
(x
i
y
i
)
2
, (Metrica euclideana),
(x, y) =
n

i=1
x
i
y
i
, (Producto escalar o Producto interno).
Comentario 9.11. Debido a las f ormulas anteriores, las siguientes relaciones
son evidentes:
1) d
2
(x, y) = |x y|
2
,
2) |x|
2
= d
2
(x, 0),
3) (x, x) = (|x|
2
)
2
,
4) |x|
2
=
_
(x, x).
En las siguientes secciones vamos a apliar todas estas deniciones a conjuntos o
espacios vectoriales mas generales para construir espacios de soluciones a ecuaciones
diferenciales y a problemas de la fsica, qumica, ingeniera, etc.
2. Espacios Metricos.
La nocion de distancia en las ciencias natuales y la ingeniera es de suma impor-
tancia. Es por eso que denir distancias entre puntos o elementos de un conjunto
es de mucha utilidad para poder modelar objetos y espacios naturales. En esta
secci on estudiaremos conjuntos en donde se dene una distancia o metrica. Este
concepto esta dada en la siguiente denicion.
Definici on 9.12. Sea X conjunto y : X X mapeo, tal que
1) (x, y) 0, (x, y) = 0, s y s olo s x = y, i.e. positiva denida
2) (x, y) = (y, x) , es simetrica
3) (x, z) (x, y) + (y, z) se cumple la propiedad del triangulo.
Al par (X, ) se le llama espacio metrico y a la funci on se le llama dis-
tancia o metrica.
Observemos que X no necesariamente tiene alg un tipo de estructura, es sim-
plemente un conjunto. De hecho, todos los procesos matematicos emanados de la
denicion aterior, como sumas y comparaciones, etc., se llevan a cabo en el campo
ordenado de los reales (, +, , ). Veamos algunos ejemplos.
Ejemplo 9.13. Sea X conjunto y

T
(x, y) =
_
0 si x = y
1 si x ,= y
La distancia entre dos puntos es siempre 1. A esta distancia se le llama dis-
tancia discreta.
2. ESPACIOS M

ETRICOS. 141
Ejemplo 9.14. Recordemos el ejemplo de los reales visto en la secci on aterior
X =
n
. Sean x = (l
1
, , l
n
) y y = (m
1
, , m
n
). La distancia estandard en
n
es
(x, y) =

_
n

i=1
(l
i
m
i
)
2
A esta distancia se le conoce como la distancia can onica de
n
.
Ejemplo 9.15. Tomemos de nuevo los reales X =
n
. Otra distancia en
n
est a dada por

p
(x, y) =
_
n

i=1
[ l
i
m
i
[
p
_
1/p
, tal que p y p > 1
A esta distancia se le conoce como la distancia p de
n
.
Ejemplo 9.16. Sea C ([a, b]) = f [ f es continua en [a, b]. Una distancia en
este conjunto es
(f, g) =
_
_
b
a
(f (t) g (t))
2
dt
_
1/2
A esta distancia se le conoce como la distancia can onica de C ([a, b]).
Ejemplo 9.17. Sea C ([a, b]) . Otra distancia en C ([a, b]) es

max
(f, g) = max
atb
[ g (t) f (t) [
A esta distancia se le conoce como la distancia max de C ([a, b]).
Ejemplo 9.18. Sea L
2
dada por L
2
= (l
1
, l
2
, . . .) [ l
i
tal que

i=1
l
i
<
, llamados los espacios L
2
, que consiste del conjunto de vectores de dimensi on
innita que tienen norma nita. La funci on

L2
(x, y) =

i=1
(m
i
l
i
)
2
con x = (l
1
, l
2
, . . .) y y = (m
1
, m
2
, . . .), es una distancia en L
2
Ejercicio 9.19. Demostrar que 1)6) son espacios metricos. 3) s olo para
p = 3.
Es conveniente denir regiones especiales de los espacios metricos. Por ejemplo,
si una region esta llena de elementos del conjunto, en el sentido de que en esa region,
a distancias muy cortas de alg un elemento, siempre encontraremos mas elementos
del conjunto o si ciertos puntos del conjunto estan a una cierta distancia de alg un
elemento. Al igual que en la secci on pasada, en esta secci on cuando nos reramos
a espacio solamente, se trata de un espacio metrico. Iniciaremos con a denicion
de bola, esta es
Definici on 9.20. Sea (X, ) espacio metrico. La bola de centro x X y radio
r > 0, es el conjunto B
r
(x) = y X [ (x, y) < r, para toda r > 0 y x X.
Observe que un bola nunca es vacia B
r
(x) ,= pues x B
r
(x) .
Ejemplo 9.21. Sea (X,
T
) espacio. Las bolas en este espacio son todas iguales
B
r
(x) = y X [
T
(x, y) = 1 < r
142 9. ESPACIOS M

ETRICOS Y UNITARIOS
Ejemplo 9.22. Sea (
n
, ), el espacio real de dimensi on n con su distancia
can onica. Las bolas ser an verdaderas pelotas, como las conocemos de nuestra
experiencia. Por ejemplo, en (, ) las bolas estan denidas como
B
r
(x) = y [ (x, y) = [x y[ < r
= (x r, x +r)
que es el intervalo cerrado entre x r y x +r. En (
n
, ) las bolas ser an
B
r
(x) =
_
_
_
y
2
[ (x, y) =

_
n

i=1
(l
i
m
i
)
2
< r
_
_
_
= y
2
[ (l
1
m
1
)
2
+ (l
2
m
2
)
2
+ + (l
n
m
n
)
2
< r
2

es decir, todos los puntos metidos dentro de una esfera de radio r con centro en x.
Ejemplo 9.23. Sea (T
n
([0, 1]) , ), el espacio de polinomios denidos entre
[0, 1] con la distancia can onica de C ([a, b]). Las bolas estan denidas como
B
r
(f) = g T
n
([0, 1]) [ (f, g) < r.
Sea f(x) = x y tomemos n = 1 por simplicidad. Entonces
(f, g) =
__
1
0
(t (a
0
+a
1
t))
2
dt
_1/2
=
_
1
3
(1 a
0
a
1
)
3
+a
0
3
1 a
1
_
1/2
Por lo tanto, la bola de radio 1 y centrada en x sera
B
1
(x) = a
0
+a
1
t P
1
([0, 1]) [ (1 a
0
a
1
)
3
+a
0
3
< 3 (1 a
1
)
Para visualizar la supercie de esta bola, hagamos a
0
= r cos() y a
1
= r sin() y
graquemos el espacio de parametros (a
0
, a
1
) en coordenadas esfericas. El resultado
se muestra en la gura 4 para r = 0.5.
Ejemplo 9.24. Sea (F
p
, ), el espacio de las funciones peri odicas pares denidos
entre [0, 2] con su distancia can onica. Sea f(x) = cos(2x), entonces
(f, g) =
__
2
0
(cos(2t) (a
0
+a
1
cos(t) +a
2
cos(2t) + ))
2
dt
_1/2
=
_
(2a
2
0
+ (a
2
1)
2
+a
2
1
+ )
_
1/2
Por lo tanto, la bola de radio 1 y centrada en x sera
B
r
(cos(2x)) = g F
p
[ (2a
2
0
+ (a
2
1)
2
+a
2
1
+ ) < r
2

Ejercicio 9.25. Encontrar B


1
(0) y B
1
(1) en (P
1
([0, 1]) , ).
Ejercicio 9.26. Como son las bolas en (P
1
([0, 1]) ,
max
)?
Ejercicio 9.27. Encontrar B
r
(0) y B
r
(cos(jx)) en (F
p
, ).
Ejercicio 9.28. Como son las bolas en (
n
,
p
)?
2. ESPACIOS M

ETRICOS. 143
Figure 4. La bola de radio 1 y centrada en x del espacio de poli-
nomios denidos entre [0, 1] con la distancia canonica de C([a, b]),
vista en coordenadas polares.
Mas adelante deniremos un espacio topologico. La denicion de espacio
topologico esta basada en la denicion de conjunto abierto. En un espacio metrico
siempre es posible denir el concepto de conjunto abierto y se puede ver que con esta
denicion, todo espacio metrico es topologico. La denicion de conjunto abierto es
la siguiente
Definici on 9.29. Un conjunto abierto en un espacio (X, ) es un subcon-
junto U X tal que para toda p U siempre existe > 0 con B

(p) U. X
es siempre abierto por denici on.
La primera consecuencia interesante de las bolas, es que estas son abiertas en
el espacio, este resultado lo podemos enunciar como sigue.
Proposici on 9.30. Toda bola en un espacio metrico es un conjunto abierto.
Demostraci on 9.31. Sea y B
r
(x) en el espacio (X, ) . Para x = y, B
r
(y) =
B
r
(x) . Para y ,= x, sea (y, x) = r

< r y z B
rr
(y). Esto implica que
(y, z) < r r

. Entonces (x, z) (x, y) + (y, z) < r

+ r r

= r es decir
z B
r
(x) y por tanto B
rr
(y) B
r
(x) .
La consecuencia mas interesante de estas deniciones es el hecho de que los
abiertos son uniones de bolas. Mas adelante, cuando estudiemos los espacios
topologicos, esta consecuencia es lo que demuestra que un espacio metrico es un
espacio topologico, esto lo podemos enunciar como sigue.
Proposici on 9.32. A es un conjunto abierto en (X, ) s y s olo s A es uni on
de bolas.
Demostraci on 9.33. =) A es conjunto abierto, esto implica que para toda
x A existe tal que B

(x) A, esto es A
xA
B

(x) A o sea A =

xA
B

(x) .
144 9. ESPACIOS M

ETRICOS Y UNITARIOS
) Sea A =
xI
B

siendo B

bolas en (X, ) . Si x A implica que x B

para alg un , por lo tanto A es abierto.


Ejemplo 9.34. Sea (
n
,
T
). Las abiertos, con la metrica
T
en
n
se ven
muy distintas de los abiertos con la metrica can onica. Con esta metrica, una bola
de radio r < 1 es solo el punto central B
r<1
(x) = x y una bola de radio r 1
es todo el espacio B
r1
(x) =
n
. Entonces cada punto es un abierto y la union de
puntos es un abierto.
Otra denicion importante es la de conjunto denso, es decir, la de un conjunto
en el que sus elementos estan tan cercanos unos de otros como se quiera, al lado de
cada elemento existira otro elemento del conjunto. Esta denicion formalmente es:
Definici on 9.35. Sea (X, ) espacio y sea E X. Se dice que E es denso en
X si para toda x X cualquier B

(x) ( > 0 arbitrario) se cumple que B

(x)E ,=
.
Ejemplo 9.36. Sea (
n
, ) y C
r
(x) = y
n
[ (x, y) r. Una bola B
r
(x) =
y
n
[ (x, y) < r es densa en C
r
(x) ya que cualquier bola B

(x) con x
C
r
(x) tendra al menos un elemento en B
r
(x).
Ejemplo 9.37. Sea E = ^ el conjunto de los reales sin los naturales. Este
conjunto es denso en los reales, ya que cualquier intervalo cerrado, incluso centrado
en un natural, tendra al menos un elemento de los reales, ver gura 5.
Figure 5. El conjunto E = ^ que es el conjunto de los reales
sin los naturales. Este conjunto es denso en los reales, ya que
cualquier intervalo cerrado, incluso centrado en un natural, tendra
al menos un elemento de los reales.
Ejemplo 9.38. Los n umeros irracionales son densos en los n umeros reales. Es
por eso que podemos aproximar los n umeros irracionales con alg un n umero racional.
Ejercicio 9.39. Demuestra el siguiente lema:
Si f : es biyecci on, entonces d (x, y) =[ f (x) f (y) [ es una metrica
sobre .
3. ESPACIOS NORMADOS 145
3. Espacios Normados
Regresemos a los espacios vectoriales en donde vamos a introducir un nuevo
concepto llamado la norma, que de una forma intuitiva no dice el tama no de un
vector. Este concepto lo aprendimos en
n
y aqu lo vamos a denir para cualquier
espacio vectorial, es decir, este concepto solo vale en espacios vectoriales. Esto lo
hacemos en la siguiente denicion.
Definici on 9.40. Sea V espacio vectorial sobre el campo K y N : V K un
mapeo, tal que para toda x V y K se tiene:
1) N (x) 0 para toda, x V , N (x) = 0 s y s olo s x = 0.
2) N (x) = [[N (x),
3) N (x +y) N (x) +N (y)
A N se le llama norma de V y a (V, N) se le llama espacio normado.
Notaci on 9.41. A la norma la vamos a denotar como N =| |
La relacion entre los espacios normados y los espacios metricos es que todo
espacio normado es metrico, pero no alreves. Este resultado se puede ver en la
siguiente proposicion.
Proposici on 9.42. Todo espacio normado es metrico
Demostraci on 9.43. Sea (V, N) un espacio normado. Tomemos (x, y) =
N (x y), para todo x, y V, espacio vectorial. Entonces (x, y) es una distancia,
ya que
1) (x, y) = N (x y) 0 y (x, y) = 0 s y s olo s N (x y) = 0 o sea s y
s olo s x = y.
2) (x, y) = N (x y) =[ 1 [ N (y x) = (y, x)
3) (x, z) = N (x z) = N (x y +y z) N (x y)+N (y z) = (x, y)+
(y, z).
Entonces si denimos un espacio normado, automaticamente hemos denido
un espacio metrico pero no alreves. Veamos un ejemplo donde un espacio metrico
no puede generar una norma.
Ejemplo 9.44. Sea (, d
ln
), con d
ln
(x, y) = [ln (x + 1) ln (y + 1)[. Veamos
que esta distancia genera una metrica.
i) d
ln
(x, y) 0, ya que [ln (x + 1) ln (y + 1)[ 0
ii) d
ln
(x, y) = d
ln
(y, x)
iii)
d
ln
(x, z) = [ln (x + 1) ln (z + 1)[
= [ln (x + 1) ln (y + 1) + ln (y + 1) ln (z + 1)[
[ln (x + 1) ln (y + 1)[ +[ln (y + 1) ln (z + 1)[
= d
ln
(x, y) +d
ln
(y, z)
Pero esta distancia no genera una norma. Uno esperara que la norma, el tama no
del vector, debiere estar dado por | x |
ln
= d
ln
(x, 0) = [ln (x + 1)[. Sin embargo
esta no es una norma, ya que no cumple con el inciso 2) de la denici on 9.40, por
ejemplo, | 3 2 |
ln
=| 6 |
ln
= ln (7) ,= [3[ | 2 |
ln
= 3 ln (3).
En los espacios vectoriale el concepto de continuidad es un concepto que de-
pende esencialmente de la existencia de una distancia o de una norma. Las deni-
ciones de continuidad y de lmite de una sucesion se puede hacer utilizando una
146 9. ESPACIOS M

ETRICOS Y UNITARIOS
norma o una distancia. En lo que sigue, usaremos el smbolo (x, y) para desig-
nar la norma N(x y) o la distancia (x, y) en un espacio metrico o normado y
designaremos indistintamente los elementos de estos espacios por letras x, y, z, etc.
aunque sean vectores, y diremos explicitamente cuando hay una diferencia.
Como ya hemos denido distancia en un conjunto, ahora es posible denir el
concepto de continuidad. Este concepto consiste en el hecho de que la distancia de
dos imagenes de una funci on es tan peque na como se quiera (respecto a la distancia
denida en el conjunto) para dos puntos tan cercanos como se quiera, la denicion
formal es como sigue.
Definici on 9.45. Sean (X, ) y (X

) espacios metricos o normados. Una


funci on f : X X

se dice continua en x X, si para toda > 0 existe


un = (, x) tal que si (x, y) < esto implica que

(f (x) , f (y)) < . Si f


es continua para toda x A X, se dice que f es continua en A. Si para toda
x A X se tiene que = (), se dice que f es uniformemente continua en A.
Ejemplo 9.46. Sea (
n
, ) el espacio real con su metrica can onica. Entonces la
denici on de continuidad es la denici on tradicional para funciones f :
n

m
.
Ejemplo 9.47. Sea (X,
T
) espacio metrico y sea f : X X. Observemos
que no existe una tal que para > 0, digamos = 0.5 tal que
T
(x, y) = 1 < ,
implica (f (x) , f (y)) < , ya que (f (x) , f (y)) = 1. Es decir, con esta metrica,
ninguna funci on es continua.
Ejercicio 9.48. Sea (,
p
). Vean si la funci on f : , x f(x) = x es
continua.
Ahora introducimos el concepto de sucesion. Las sucesiones seran de gran
utilidad para demostrar algunos teoremas, su denicion es:
Definici on 9.49. Una sucesi on es un mapeo de los enteros positivos a un
conjunto X, es decir f : Z
+
X, tal que i f(i) = x
i
.
Ejemplo 9.50. Sea X = Entonces f : Z
+
con n x
n
= n
2
, 1/n,
sin(n), etc. son sucesi ones en los reales.
Las sucesiones mas interesantes en un espacio metrico o normado son las suce-
siones de Cauchy, estas son sucesiones en las que los elementos de la sucesion estan
tan cerca como se quiera unos de otros, despues de alg un termino de la sucesion
dado. Se denen como sigue.
Definici on 9.51. Sea (x
i
) para i Z
+
una sucesi on en (X, ) . Se dice que
(x
i
) es de Cauchy si para toda > 0 existe un n umero entero positivo N Z
+
tal que (x
k
, x
l
) < si k, l N.
Ejemplo 9.52. La sucesi on en (, ), x
n
= 1/n es una sucesi on de Cauchy,
ya que (x
k
, x
l
) = [1/k 1/l[ < para alg un numero , siempre que k y l sean
sucientemente grandes.
Ejemplo 9.53. En un espacio (X,
T
) salvo la sucesi on constante, no hay
sucesiones de Cauchy, ya que
T
(x
k
, x
l
) = 1 siempre, los elementos de la sucesi on
nunca estan sucientemente cerca.
Ejercicio 9.54. Sea la sucesi on x
n
= 1/n en (,
p
) . Vean si esta sucesi on es
de Cauchy.
3. ESPACIOS NORMADOS 147
Una sucesion es convergente si para un elemento determinado la distancia de
todos los elementos restantes estan tan cerca como se quiera de alg un n umero x,
donde el n umero x no necesariamente pertenece a la sucesion. Formalmente se tiene
la denicion.
Definici on 9.55. Sea x
i
sucesi on en (X, ) . x
i
se dice convergente a x X,
si para todo > 0 existe N = N (x, ) Z
+
tal que (x
n
, x) < si n N. Se
simboliza por x
i
x.
Notaci on 9.56. La convergencia de una sucesi on tambien se simboliza como
lim
n
x
n
= x
Ejemplo 9.57. La sucesi on en (, ), dada por x
n
= 1/n es una sucesi on
convergente, ya que (x
k
, 0) = [1/k 0[ < para alg un numero , siempre que k y
l sean sucientemente grandes.
Ejercicio 9.58. Usando la denici on del lmite, demuestren que
a) lim
n
3n
n+1
= 3
b) lim
n
1
n
2
+1
= 0.
Ejercicio 9.59. Den un ejemplo que muestra que la convergencia de ([x
n
[) no
implica la convergencia de (x
n
).
Resumen 9.60. Vamos a recordar algunas propiedades de la convergencia de
sucesiones en un espacio metrico o normado (X, ):
1) Para toda sucesi on, si tiene un lmite, este es unicamente determinado.
lim
n
x
n
= x, en X, s y s olo s lim
n
(x
n
, x) = 0, en .
Las siguientes propiedades nos proporcionan herramientas para calcular lmites:
2) Toda sucesi on convergente es acotada.
3) Si (x
n
) y (y
n
) son convergentes con lim
n
x
n
= x, lim
n
y
n
= y, entonces las
sucesiones (x
n
+y
n
) y (x
n
y
n
) son tambien convergentes y
lim
n
(x
n
+y
n
) = x +y,
lim
n
(x
n
y
n
) = x y.
4) Si lim
n
x
n
= x, lim
n
y
n
= y, y y ,= 0, y
n
,= 0 para toda n , entonces
lim
n
(
xn
yn
) =
x
y
.
5) Si (x
n
) y (y
n
) son convergentes y x
n
y
n
para todo n, entonces
lim
n
x
n
lim
n
y
n
Como corolario de esta propiedad se tiene que aplicando esta a la sucesi on
constante x
n
= 0 obtenemos: si (y
n
) es convergente y y
n
0 para toda n, entonces
lim
n
y
n
0.
6) Si (x
n
) es convergente y existen a, b tales que a x
n
b para toda n,
entonces
a lim
n
x
n
b.
7) Si (x
n
) es mon otona, entonces lo siguiente es verdad:
i) (x
n
) es convergente, s y s olo s (x
n
) es acotada.
ii) Si (x
n
) es creciente y acotada, entonces lim
n
x
n
= sup(x
n
, n ^).
iii) Si (x
n
) es decreciente y acotada, entonces lim
n
x
n
= inf(x
n
, n ^).
148 9. ESPACIOS M

ETRICOS Y UNITARIOS
Ejemplo 9.61. La sucesi on en (, ) , dada por x
n
= (1 + 1/n)
n
es tambien
una sucesi on convergente y converge a (1 + 1/n)
n
e.
Ejemplo 9.62. Sin embargo, la sucesi on en (Q, ) , dada por x
n
= (1 + 1/n)
n
no es una sucesi on convergente, ya que (1 + 1/n)
n
e y e / Q. Esta sucesi on no
es convergente pero si es de Cauchy.
Ejercicio 9.63. Muestren que la sucesi on en (Q, ) , dada por x
n
= (1 + 1/n)
n
es de Cauchy.
Ejercicio 9.64. Den ejemplos de:
a) Dos sucesiones divergentes (x
n
), (y
n
) tales que la sucesi on (x
n
+ y
n
) es
convergente.
b) Sucesiones divergentes (x
n
), (y
n
) tales que la sucesi on (x
n
y
n
) es conver-
gente.
c) Una sucesi on acotada que no es convergente.
Ejercicio 9.65. Establecer la convergencia (entonces determinar lmites) o
divergencia de las siguientes sucesiones:
a) x
n
=
3n
2
+5
n
2
+1
,
b) x
n
=
4n
n+1
,
c) x
n
=
(1)
n
n
n+3
.
Como vemos, la sucesion x
n
= 1/n es de Cauchy y es convergente. Existe una
coneccion entre ambos conceptos. Para esto se tiene la siguiente proposicion.
Proposici on 9.66. En un espacio metrico o normado, toda sucesi on conver-
gente es de Cauchy.
Demostraci on 9.67. Sea x
i
sucesi on convergente a x en (X, ) . Entonces
x
i
x implica que para toda > 0 existe N = N (x, ) Z
+
tal que (x
n
, x) < /2
si n N, por tanto (x
n
, x
m
) (x
n
, x) + (x
m
, x) < si n, m N.
Por supuesto, como ya vimos con un ejemplo, lo contrario de esta proposicion
no siempre es verdad. Las sucesiones de Cauchy no siempre son convergentes. Los
espacios en los que toda sucesion de Cauchy converge son muy especiales y tienen
un nombre particular, se tiene la siguiente denicion.
Definici on 9.68. Un espacio metrico o normado es completo si toda
sucesion de Cauchy converge.
Ejemplo 9.69. Se puede mostrar que los n umeros reales con su norma can onica
es un espacio completo, pero como ya vimos, los racionales no es un espacio com-
pleto. Claro, les faltan los irracionales para serlo.
De hecho, cualesquier norma sobre
n
generan el mismo comportamiento de
convergencia sobre sucesiones, implicando que
n
con cualquier norma es completo.
Sin embargo, esto no es valido si trabajamos en espacios metricos, vamos a ver uno
ejemplo:
Ejemplo 9.70. Considerese (, d
E
), d
E
(x, y) = [x y[, y la sucesi on x
n
=
n, n ^. Claro que lim
n
x
n
= , es decir, (x
n
) no converge en con respecto a
d
E
, tambien es claro que (x
n
) no es de Cauchy en (, d
E
), debido a que [x
n
x
m
[
1 para todo n, m ^, m ,= n. Ahora tomemos la distancia en
d
a
(x, y) = [arctan(x) arctan(y)[
3. ESPACIOS NORMADOS 149
y consideramos el espacio metrico (, d
a
). La sucesi on (x
n
) si es de Cauchy, pues
lim
n,m
[arctan(n) arctan(m)[ = 0,
sin embargo, aqu igualmente vale que lim
n
x
n
= , es decir, (x
n
) es una sucesi on
de Cauchy que no converge. Por lo tanto, (, d
a
) no es completo, es decir, los reales
no son un espacio completo con esta distancia. Por cierto, observese que este d
a
no genera una norma sobre .
Lo que nos dice el ejemplo anterior es que un conjunto puede ser completo con
una distancia y no serlo con otra, incluso esto puede suceder en
n
. Sin embargo,
en
n
todas las normas nos dicen que
n
es completo.
En ocaciones hay espacios en donde las metricas se conservan o hay funciones
en un espacio que conseva la metrica. A estas funciones que conservan las metricas
se les conoce como isometras. Veamos su denicion formal.
Definici on 9.71. Sean (X, ) y (X

) espacios metricos y f : X X

funcion. f es una isometra si

(f (x) , f (y)) = (x, y) .


Las isometrias son funciones muy especiales, son inyectivas y uniformemente
continuas, se tiene para ello la siguiente proposicion.
Proposici on 9.72. Sea f : X X

isometra. Se tiene
i) f es inyectiva
ii) f es uniformemente continua
Demostraci on 9.73. i) Sean x, y, X con x ,= y, entonces 0 ,= (x, y) =

(f (x) , f (y)) , es decir, f (x) ,= f (y) .


ii) Sea > 0 y x X. (x, y) < implica que

(f (x) , f (y)) < = .


Es mas, la composicion de isometras, es isometra. Es por eso que con la com-
posicion de funciones se puede dernir un producto. Primero veamos la siguiente
proposicion.
Proposici on 9.74. La composici on de isometras es una isometra.
Demostraci on 9.75. Sean (X, ) , (Y,

) , (Z,

) espacios metricos y f : X
Y y g : Y Z isometras. Entonces
(x, y) =

(f (x, ) f (y)) =

(g(f (x)) , g (f (y))


=

(g f (x) , g f (y))

Con este producto se dene entonces un grupo con el conjunto de isometras


sobre. Veamos esto en la siguiente proposicion.
Proposici on 9.76. Sea (X, ) espacio metrico y sea el par
I
so
(X, ) = (f : X X [ f es isometra sobre , )
donde es la composici on de funciones. I
so
(X, ) es un grupo, llamado grupo de
isometras del espacio metrico (X, ) .
150 9. ESPACIOS M

ETRICOS Y UNITARIOS
Demostraci on 9.77. Demostremos las propiedades de grupo de I
so
:
i) Asociatividad: es claro que (f g) h = f (g h) para cualquier funci on
f, g, h I
so
(X, )
ii) id[
X
I
so
(X, ) , pues (Id[
X
(x) , id[
X
(y)) = (x, y) , por lo que Id[
X
es isometra.
iii) f sobre, como f es isometria, es inyectiva, por tanto f es bijectiva por lo
tanto, existe f
1
tal que f f
1
= id [
X
llamada la inversa.
En general I
so
(X, ) no es abeliano, ya que f g ,= gf. El grupo de isometras
es de suma importancia en fsica, tanto en teoras de campo como en gravitaci on.
Ejercicio 9.78. Para x
n
, se dene | x |=

n
i=1
[ x
i
[, con x =
(x
1
, , x
n
)
a) Demuestra para el caso n = 2 que eso dene una norma sobre
n
.
b) Cuales son los puntos de
n
que tienen norma 1?
En
2
hay 4 puntos x con | x |= 1, por eso esa norma se denota por | x |
4
.
c) Considera | |
4
sobre Z
2
( x
n
con coordenadas enteras), as que para
x = (x
1
, x
2
) :| x |
4
=[ x
1
[ + [ x
2
[ .
Aplicando que cada norma | | genera una metrica d por d (x, y) =| xy |, la
metrica correspondiente a | |
4
es d
4
, dada por d
4
(x, y) =[ x
1
y
1
[ + [ x
2
y
2
[,
x = (x
1,
x
2
), y = (y
1,
y
2
)
C omo se ven las circunferencias con respecto a esta metrica?
(Circunferencia con centro x y radio r es entonces el conjunto C
r
(x) =
y Z
2
[ d
4
(x, y) = r,) estudielo para x = (0, 0) , r = 1, 2, 3, 4.
Ejercicio 9.79. Aplicando el lema 9.6, demuestre que d (x, y) =[ f (x)f (y) [
es una metrica sobre para
f (x) =
_
ln (x) para x 1
(x 1) para x < 1
Denase para x , tal que | x | no es una norma sobre (Cual axioma
falla?)
Eso se debe al hecho que nuestra metrica, por ejemplo, no es invariante bajo
traslaci on, es decir, existen x, t, a tales que d (x +a, y +a) ,= d (x, y) . En-
cuentre tales x, t y a.
4. Espacios Euclideanos.
En esta secci on vamos a estudiar espacios vectoriales con una estructura muy
particular. Se trata de espacios vectoriales en donde se ha denido una distancia o
una norma, es decir, el tama no de un vector. Estas estructuras son muy comunes en
ciencias naturales y muy utiles para denir movimiento en estos conjuntos. Primero
introducimos el concepto de producto escalar.
Definici on 9.80. Sea V un espacio vectorial real y B : V V para toda
x, y V una funci on bilineal tal que
1) B(x, y) = B(y, x) , i.e. B es simetrica
2) B(x, x) 0, i.e. B positiva denida
3) B(x, x) = 0, s y s olo s x = 0.
A B se le llama un producto escalar o producto interno en V .
Con esta denicion de producto en espacios vectoriales podemos denir el con-
cepto de espacio euclideano
4. ESPACIOS EUCLIDEANOS. 151
Definici on 9.81. Al par (V, B) donde V es un espacio vectorial real y B un
producto escalar, se le llama espacio euclideano.
Notaci on 9.82. A B tambien se le denota como (, ) , x, y) , [x, y] , x y,
etc.
Veamos algunos ejemplos de productos internos y de espacios euclideanos.
Ejemplo 9.83. (
n
, (, )) con (x, y) = l
1
m
1
+ +l
n
m
n
, con x, y
n
tales
que x = (l
1
, , l
n
) y y = (m
1
, , m
n
)
Ejemplo 9.84. Sea L
2
= (l
1
, l
2
, ) [ l
i
tal que

i=1
l
2
i
< con el
producto interno
(x, y) =

i=1
l
i
m
i
,
x = (l
1
, l
2
, ) y = (m
1
, m
2
, )
Entonces (L
2
, (, )) es un espacio euclideano ya que

n
i=1
l
i
m
i
es absolutamente
convergente. L
2
es de dimensi on innita.
Ejemplo 9.85. Sea (T
n
, ) el espacio de los polinomios, con el producto interno
denido por x y = a
0
b
0
+ a
1
b
1
+ + a
n
b
n
, para x, y T
n
, donde x = a
0
+
a
1
x, , a
n
x
n
y y = b
0
+b
1
x, , b
n
x
n
. Se puede demostrar que con este producto
interno, T
n
es un espacio euclideano.
Ejemplo 9.86. Sea C
R
([a, b]) el conjunto de las funciones continuas en [a, b].
Sea
(f, g) =
_
b
a
f (x) g (x) dx, f, g C
R
([a, b])
entonces (f, g) es un producto escalar. Veamos esto
Demostraci on 9.87. (f, g) es bilineal, ya que, para la primera entrada de
(, ) se tiene (
1
f
1
+
2
f
2
, g) =
_
b
a
(
1
f
1
(x) +
2
f
2
(x)) g (x) dx =
1
(f
1
, g) +

2
(f
2
, g) y an alogamente para la segunda entrada
(, ) es simetrico
(f, f) =
_
b
a
f
2
(x) dx 0. Ademas si (f, f) = 0 esto es s y s olo s
_
b
a
f
2
(x) dx =
0 s y s olo s f
2
(x) = 0 para toda x [a, b] .
Habiendo introducido el concepto de producto escalar entre vectores, podemos
ahora introducir el concepto de tama no de un vector, que es el producto interno
del vector consigo mismo, o sea
Definici on 9.88. Sea (V, (, )) un espacio euclideano. A
| x |= ((x, x))
1/2
x V
se le llama la norma compatible de x.
Tambien es posible denir el tama no de un vector, su norma, sin necesidad de
denir el producto interno, utilizando la denicion 9.40 de norma en espacios vecto-
riales, no necesariamente con producto interno. De hecho, la norma compatible es
una norma en el espacio vectorial, pero que es compatible con el producto interno.
Vamos a ver esto, pero antes veamos la siguiente proposicion:
152 9. ESPACIOS M

ETRICOS Y UNITARIOS
Proposici on 9.89 (Desigualdad de Schwarz). El valor absoluto del producto
interno de dos vectores es menor o igual que el producto de las normas, i.e.
[ (x, y) [| x | | y | .
Demostraci on 9.90. Sean x

, y

V y tomemos x =
x

, y =
y

de
tal forma que | x |=| y |= 1. Sea t , se sigue que
0 (x ty, x ty) = (x, x) (x, ty) (ty, x) + (ty, ty)
= (x, x) 2t (x, y) +t
2
(y, y)
=| x |
2
2t (x, y) +t
2
| y |
2
= 1 2t (x, y) + t
2
= (t (x, y))
2
+ 1 ((x, y))
2
El termino (t (x, y))
2
es siempre positivo o puede ser cero. Si hacemos t =
(x, y) obtenemos que 0 1 ((x, y))
2
, lo que implica que ((x, y))
2
1, o sea
[ (x, y) [ 1. Entonces se tiene que en general [
_
x

,
y

_
[=
1
x

(x

, y

) 1

La relacion entre espacios normados y euclidianoes es que todo espacio eu-


clideano es un espacio normado, pero no alreves. Esto lo vemos en la siguiente
propisici on.
Proposici on 9.91. Sea (V, (, )) espacio euclideano y | x |= ((x, x))
1/2
. En-
tonces (V, | |) es un espacio normado.
Ejercicio 9.92. Demostrar la proposici on. (Usar la desigualdad de Schwarz)
Vamos a ver algunos ejemplos, pero iniciemos presisamente con un ejemplo
en donde el espacio no es euclidiano, pero es un espacio sumamente interesante e
importante en todas las areas del conocimiento.
Ejemplo 9.93. Sea L =
_

2
, (, )
_
, con el producto (x, y) = l
1
m
1
l
2
m
2
donde
x = (l
1
, l
2
) y y = (m
1
, m
2
). Este no es un producto interno ya que (x, x) = l
2
1
l
2
2
no es mayor que cero y (x, x) = l
2
1
l
2
2
= 0 no implica que x = 0. Un espacio con
este pseudo-producto interno se conoce como espacio Pseudo-euclideano o
Espacio de Lorentz. A la norma generada por este producto interno se le llama
Norma de Lorentz. Estos espacios son de vital importancia en fsica puesto
que son un modelo del espacio tiempo real y por eso les daremos un lugar especial.
Observemos entonces que con la norma de Lorentz, hay vectores que no son cero,
pero tienen norma (tama no) igual a cero. A estos vectores se les conoce como
vectores nulos. Generalmente un vector en este espacio se denota como v = (x, t),
se tiene que | v |= x
2
t
2
. Los vectores nulos cumplen con la relaci on x = t, es
decir, son los vectores tangente a trayectorias sobre el cono de luz.
Ejemplo 9.94. (
n
, (, )) con el producto interno can onico. Entonces se puede
denir una norma y con esta una metrica. La norma ser a N(x) = (x, x) =
_
l
2
1
+ +l
2
n
, con x = (l
1
, , l
n
). Entonces la metrica can onica est a dada por
(x, y) = N (x y) =
_
(l
1
m
1
)
2
+ + (l
n
m
n
)
2
para y = (m
1
, , m
n
).
Esta es la metrica can onica de
n
.
5. ESPACIOS UNITARIOS 153
Ejemplo 9.95. Sea (T
n
, ), con el producto interno can onico. Hagamos lo
mismo que para (
n
, (, )). Se tiene que x y = a
0
b
0
+ a
1
b
1
+ + a
n
b
n
, para
x, y T
n
, donde x = a
0
+a
1
x+, , +a
n
x
n
y y = b
0
+b
1
x+, , +b
n
x
n
. Entonces
(x, y) = N (x y) =
_
(a
0
b
0
)
2
+ (a
1
b
1
)
2
+ + (a
n
b
n
)
2
. La cual es la
metrica can onica para T
n
.
Ejemplo 9.96. Sea C ([a, b]) el conjunto de las funciones continuas en [a, b] .
De nuevo podemos construir una metrica en el espacio de funciones como
(f, g) = N (f g)
= (f g, f g)
=
_
_
b
a
(f (x) g (x))
2
dx
_
1/2
, f, g C ([a, b])
la cual es la metrica can onica para C ([a, b]).
Ejemplo 9.97. Sea (F
p
, ), el espacio de las funciones periodicas denidos
entre [0, 2] con esta distancia can onica podemos ver cual es la distancia entre
cos(ix) y cos(jx), se tiene:
(cos(ix), cos(jx)) =
__
2
0
(cos(ix) cos(jx))
2
dt
_1/2
=

2, para i ,= j
Ejercicio 9.98. Demostrar que (sin(ix), cos(jx)) =

2 y (sin(ix), sin(jx)) =

2 para i ,= j. Es decir, la distancia entre los vectores base de las funciones pe-
riodicas es

2.
Ejemplo 9.99. Sea L el espacio de Lorentz. Entonces se puede construir la
metrica (x, y) = N
L
(x y) =| x y |=
_
(x
1
y
1
)
2
(x
2
y
2
)
2
. Observen
que se pueden tener dos vectores diferentes, pero separados una distancia 0.
Ejercicio 9.100. Demuestre lo siguiente: Si V es un espacio vectorial sobre
con producto interno (, ) , entonces | x |=
_
(x, x) dene una norma sobre V .
Nota: aplicar la desigualdad de Schwarz: [ (x, y) [| x | | y | .
5. Espacios Unitarios
En esta secci on vamos a generalizar los espacios Euclidianos al caso en el que
el campo del espacio vectorial no sean los n umeros reales, sino el campo de los
complejos. Como veremos, existen varias diferencias interesantes que hacen a estos
espacios sobre los complejos importantes, sobre todo en la mecanica cuantica, que
es importante en fsica, qumica, ingeniera, etc. Su denicion es como sigue.
Definici on 9.101. Sea E un espacio vectorial sobre ( y x, y E. Sea B :
E E ( un mapeo lineal en el primer argumento tal que
1) B(x, y) = B(y, x) es antisimetrico
2) B(x, x) 0 es real
3) B(x, x) = 0 s y s olo s x = 0
154 9. ESPACIOS M

ETRICOS Y UNITARIOS
A B(x, y) = (x, y) se le llama producto escalar sobre E, y a (E, (, )) se le
llama espacio unitario.
Comentario 9.102. Algunas consecuencias inmediatas de la denici on ante-
rior son las siguientes:
1) (x, y) = (y, x) = (y, x) = (y, x) = (x, y) C
2) (x, y
1
+y
2
) = (y
1
+y
2
, x) = (y
1
, x) + (y
2
, x) = (y
1
, x)+(y
2
, x) = (x, y
1
)+
(x, y
2
)
3) [Re (x, y) [| x || y |
Ejercicio 9.103. Demostrar 3)
Veamos algunos ejemplos de espacios unitarios.
Ejemplo 9.104. Sea el espacio vectorial (
n
con el producto interno para x, y
(
n
denido por (x, y) =

n
i=1
l
i
m
i
, donde x = (l
1
, , l
n
) y y = (m
1
, , m
n
),
entonces ((
n
, (, )) es un espacio unitario.
Ejemplo 9.105. Sea de nuevo L
2
, pero ahora sobre el campo de los complejos,
es decir,
(9.1) L
2
=
_
l
i
, para i = 1, , [ l
i
(,

i=1
[ l
i
[
2
<
_
Entonces (L
2
, (, )) con (x, y) =

i=1
l
i
m
i
es un espacio unitario, con x y y
denidos como en el ejemplo anterior.
Ejemplo 9.106. C
C
([a, b]) y (f, g) =
_
b
a
f (x) g (x)dx, con f, g C
C
([a, b]) es
un espacio unitario, ya que si f = u + iv, u, v C
R
([a, b]), entonces
_
b
a
f (x) dx =
_
b
a
u (x) dx+i
_
b
a
v (x) dx, y la parte real y la imaginaria forman espacios euclidianos
por separado, entonces no es dicil ver que con este producto (C
C
([a, b]) , (, )) es
un espacio unitario.
En este captulo vamos a usar la notaci on de espacio para designar a un espacio
euclideano o a un espacio unitario. En los casos en que se trate de alguno en
particular, se dir a explicitamente.
La nocion de que dos vectores son perpendiculares en el espacio es un concepto
muy usado en geometra euclidiana y en la vida cotidiana. Sin embargo, en un
espacio vectorial arbitrio este concepto no es tan claro, al menos no se pude deducir
intuitivamente. Por ejemplo, que signica que dos funciones o dos polinomios son
perpendiculares. Este concepto nos conduce a la geometrizacion del espacio vecto-
rial en cuestion. Veamos las siguientes deniciones sobre perpendicular u ortogonal,
que seran muy importantes para la geometrizacion del espacio.
Definici on 9.107. Sea (E, (, )) espacio unitario y sean x, y E, con x ,= 0
y y ,= 0. Si
1.- (x, y) = 0, x y y se dicen ortogonales o perpendiculares. Se simboliza
x y.
2.- Sean H E y G E. Se dice que H es perpendicular u ortogonal a G,
si para toda x H y y G, (x, y) = 0. Se simboliza H G.
3.- Sea H E y H

= x E [ (x, y) = 0 y H se llama el complemento


ortogonal de H.
5. ESPACIOS UNITARIOS 155
Ejemplo 9.108. Sea el espacio (
n
, (, )). Los vectores e
i

i=1, ,n
denidos
por e
i
= (0, , 1, , 0), con el 1 en la i esima posici on, son todos perpendicu-
lares entre si.
Ejemplo 9.109. Sea (T
n
, ), con su producto interno can onico. Entonces los
polinomios 1, x, , x
n
son todos perpendiculares entre si.
Ejemplo 9.110. Sea F
p
([0, 2]) el conjunto de la funciones periodicas en [0, 2] .
Entonces las funciones cos(t), cos(2t), sin(t), sin(2t), son perpendiculares
entre si. Esto se ve, si hacemos
(cos(it), cos(jt)) =
_
2
0
cos(it) cos(jt)dt
=
ij
donde
ij
es la delta de Kroneker.
Ejercicio 9.111. Demostrar que (cos(it), cos(jt)) =
ij
, lo mismo que (sin(it), sin(jt)) =

ij
y (sin(it), cos(jt)) = 0.
Estas deniciones tienen consecuencias inmediatas, veamos ahora dos de ellas:
Proposici on 9.112. .
1) H

es subespacio de E
2) H
_
H

Ejercicio 9.113. Demostrar la proposici on anterior


En lo que sigue vamos a introducir uno de los conceptos mas importantes con
el que vamos a trabajar en este captulo y el de ecuaciones diferenciales. La idea
es tener un espacio vectorial con vectores perpendiculares que sean solucion de un
cierto problema. Para introducir poco a poco estos espacios, vamos a iniciar con
la siguiente denicion. Cuando en un espacio vectorial un conjunto de vectores son
perpendiculares entre s, este conjunto recibe un nombre especial, este es:
Definici on 9.114. Sea (E, (, )) espacio unitario. Sea x
i

iI
una familia de
elementos de E. Si x
i
x
j
para todos i, j I, I un conjunto de indices, i ,= j se
dice que x
i

iI
es un sistema ortogonal. Si ademas | x
i
|= 1 para todo i I,
entonces x
i

iI
se llama sistema ortonormal.
Observemos que en este caso se sigue (x
i
, x
j
) =
ij
=
_
0, si i ,= j
1, si i = j
En un espacio euclidiano la geometra de este se construye, por ejemplo, uti-
lizando el teorema de Pit agoras. Este teorema utiliza fuertemente el concepto de
lineas o vectores perpendiculares. Vamos a ver ahora que este teorema se cumple en
los espacios euclidianos y unitarios y es la base de su geometrizacion. Su enunciado
es como sigue.
Teorema 9.115 (de Pit agoras). Sea (E, (, )) espacio. Sean x
1
, , x
n

E, tal que x
i

i=1, ,n
es un sistema ortogonal. Entonces
| x
1
+ +x
n
|
2
=| x
1
|
2
+ + | x
n
|
2
Demostraci on 9.116. Vamos a realizar el producto interno de la suma de
todos los vectores del sistema ortogonoal, es decir, (x
1
+ +x
n
, x
1
+ +x
n
) =

n
i,j=1
(x
i
, x
j
) =

n
i=1
(x
i
, x
i
) =

n
i=1
| x
i
|
2
, se sigue entonces el teorema.
156 9. ESPACIOS M

ETRICOS Y UNITARIOS
Como ya habiamos visto anteriormente, en todo espacio vectorial existe al
menos una base. Lo que veremos a continuacion es que en todo espacio vecto-
rial existe al menos una base ortogonal. Este resultado se discute en el siguiente
teorema.
Teorema 9.117 (de Schmidt). Sea (E, (, )) espacio unitario y y
i

i1
vectores
lienalmente independiente de E con H = L(y
1
, y
2
, ) E. Entonces existe un
sistema ortogonal x
i

i1
con H = L(x
1
, x
2
, ) .
Demostraci on 9.118. El teorema se demuestra construyendo la base. La idea
de la demostraci on es que se toma una base arbitraria del espacio vectorial y se
construye la nueva base ortogonal vector por vector, usando combinaciones lineales
de la base origianal, haciendo que cada nuevo vector base sea perpendicular a los
otros.
Ejemplo 9.119. Sea el espacio (
n
, (, )). Los vectores e
i

i=1, ,n
son per-
pendiculares todos entre si y su norma es 1. Por lo que esta base forma un sistema
ortonormal en
n
.
Ejemplo 9.120. Sea (T
n
, ), con su producto interno can onico. Entonces los
polinomios 1, x, , x
n
son todos perpendiculares entre si y forma un sistema
ortonormal en T
n
.
Ejemplo 9.121. Sea F
p
([0, 2]) el conjunto de las funciones periodicas en
[0, 2]. Entonces las funciones cos(t), cos(2t), sin(t), sin(2t), son perpen-
diculares entre si y forman un sistema ortogonal en F
p
([0, 2]). Oberven que el
conjunto de vectores no tiene norma 1, sino .
CHAPTER 10
ESPACIOS DE HILBERT Y BANACH
En esta secci on nos vamos a enfocar a los espacios completos, con una estructura
de espacio vectorial y que tengan una norma o un producto interno o ambos. Estos
espacios, llamados espacios de Banach y espacios de Hilbert, son muy importantes
porque ahi viven los operadores diferenciales y las soluciones de un sinnumero de
ecuaciones diferenciales. Esto le da una importencia enorme a este tipo de espacios.
Vamos a iniciar con la introduccion de algunas propiedades de las series en espacios
normados y luego con la denicion de los espacios de Hilber para despues pasar a
su manipulaci on.
1. Sistemas Ortonormales Completos.
Como ya vimos, con la norma se pueden denir conceptos como continuidad,
convergencia, etc. Vamos a iniciar con las series en estos espacios y veamos un
concepto que generaliza el concepto de estas series. Sea (B, | |) un espacio de
normado, y (x
n
) una sucesion en B. Denimos inductivamente una sucesion nueva
(s
n
).
Definici on 10.1. Sea s
1
= x
1
, s
n+1
= s
n
+ x
n+1
para toda n = 1, 2, .
s
n
=

n
i=1
x
i
se llama suma parcial n-esima de (x
n
). Si (s
n
) es convergente,
entonces s = lim
n
s
n
, con s B, se llama serie innita de (x
n
), y se denota por
s =

i=1
x
i
.
Comentario 10.2. Para B = , si (s
n
) no es convergente, se consideran dos
casos:
i) (s
n
) es una serie propiamente divergente, es decir, lim
n
s
n
= , o
lim
n
s
n
= , entonces se dice que la serie

i=1
x
i
diverge propiamente a o a
;
ii) En otro caso, tenemos una divergencia indeterminada de (s
n
), se dice
que la serie

i=1
x
i
es oscilalante.
Comentario 10.3. En ocasiones es util iniciar la enumeraci on de (s
n
) con
n = 0, o con alg un otro n umero entero. As que, el analisis de series innitas, en
su esencia, es el analisis de sucesiones especiales, solo que en cada momento hay
que recordar que

i=1
x
i
= lim
n
(

n
i=1
x
i
).
Lema 10.4 (Criterio necesario de convergencia de series). La convergencia de
la serie

i=1
x
i
implica que lim
n
x
n
= 0.
Demostraci on 10.5. s =

i=1
x
i
= lim
n
s
n
= lim
n
s
n+1
, con s
n
=

n
i=1
x
i
.
Entonces podemos escribir 0 = s s = lim
n
(s
n+1
s
n
) = lim
n
x
n
.
157
158 10. ESPACIOS DE HILBERT Y BANACH
Una aplicacion practica de este criterio de necesidad nos da a saber cuando
una serie no converge. Si se tiene que en una serie lim
n
x
n
,= 0, esto implica que la
serie

i=1
x
i
no converge. Sin embargo este criterio no es suciente. Veamos un
ejemplo.
Ejemplo 10.6. Sea x
n
= ln(1 +
1
n
), tenemos lim
n
x
n
= 0. Para ver esto
ultimo, recordemos que el n umero de Euler e es el lmite de la sucesi on creciente
(1+
1
n
)
n
, por eso (1+
1
n
)
n
e para todo n ^. Aplicando la funci on estrictamente
mon otona ln, se obtiene que ln((1 +
1
n
)
n
) ln(e) = 1, que implica nln(1 +
1
n
) 1,
y entonces 0 ln(1 +
1
n
)
1
n
. Pero lim
n
1
n
= 0, y el criterio de comparaci o n nos
da que 0 lim
n
(1 +
1
n
) 0, implicando lim
n
(1 +
1
n
) = 0.
Sin embargo, veamos que la serie diverge:
s
n
=
n

i=1
ln(1 +
1
i
) =
n

i=1
ln(
1 +i
i
) =
n

i=1
(ln(i + 1) ln(i))
= ln(2) ln(1) + ln(3) ln(2) + ln(4) ln(3) + + ln(n + 1) ln(n)
= ln(n + 1) ln(1) = ln(n + 1),
lo cual claramente es una sucesi on estrictamente creciente no acotada por arriba,
lo cual implica que

i=1
ln(1 +
1
i
) = lim
n
s
n
= lim
n
ln(n + 1) =
Recordemos algunos de los criterios mas importantes de convergencia para
series, los cuales pueden ser muy utiles en el futuro.
Critero 10.7 (de Cauchy). Si

i=1
x
i
es convergente, entonces la sucesi on
(s
n
) denida por s
n
=

n
i=1
x
i
es de Cauchy.
Es decir,

i=1
x
i
converge s y solo s para todo > 0 existe n

^ tal que
m > n n

implica que | s
m
s
n
|=| x
n+1
+x
n+2
+ +x
m
|< .
Critero 10.8 (de comparaci on). Si

i=1
a
i
y

i=1
b
i
son series con a
i

0, b
i
0 para toda i, y si existe un n umero natural n tal que a
i
b
i
para toda
i n, entonces
Si

i=1
b
i
converge, tambien

i=1
a
i
converge.
Si

i=1
a
i
= , entonces

i=1
b
i
= .
Critero 10.9 (de cocientes de dAlambert). Si x
i
> 0 para toda i, entonces,
si existe n N tal que i n implica
x
i+1
x
i
q < 1
para un q jo con 0 < q < 1 que no depende de i, entonces

i=1
x
i
converge. En
caso de que i n e implique
xi+1
xi
1, la serie

i=1
x
i
es divergente.
Si
lim
i
x
i+1
x
i
= g
entonces

i=1
x
i
es convergente para g < 1 y divergente para g > 1 (incluyendo
g = ).
Critero 10.10 (de la raiz). Si x
i
> 0 para toda i, entonces, si existe n ^
tal que i n implica
i

x
i
q < 1
1. SISTEMAS ORTONORMALES COMPLETOS. 159
para un q jo con 0 < q < 1 que no depende de i, entonces

i=1
x
i
converge. En
caso de que i n e implique
i

x
i
1, la serie

i=1
x
i
es divergente.
Si
lim
i
i

x
i
= g
entonces

i=1
x
i
es convergente para g < 1 y divergente para g > 1 (incluyendo
g = ).
Vamos a regresar al tema principal de esta secci on. Vamos a estudiar los
espacios ecuclidianos o unitarios completos. Estos espacios tienen una importancia
especial y por eso reciben un nombre especial, se llaman espacios de Hilbert. Los
espacios completos, ya sean Euclidianos y Unitarios, asi como los espacio normados,
son muy importantes y es por eso que les vamos a dedicar este capitulo. El espacio
en donde viven los estados cuanticos son los espacios de Hilbert, formalmente estos
se denen como sigue.
Definici on 10.11. Un espacio Unitario o Euclidiano completo se llama Es-
pacio de Hilbert.
Ejemplo 10.12. Como el conjunto de los reales es completo, entonces este
espacio con su producto interno can onico, es un espacio de Hilbert. Pero el conjunto
de los enteros o los racionales no puede ser de Hilbert ni de Banach.
Ejemplo 10.13. Un ejemplo de espacio de Hilbert muy conocido es el espacio
L
2
denido antes: L
2
=
_
(l
1
, l
2
, ) [ l
i
( tal que

i=1
l
2
i
<
_
con el producto
interno (x, y) =

i=1
l
i
m
i
para x = (l
1
, l
2
, ), y = (m
1
, m
2
, ). Este espacio
es de Hilbert. Su producto interno se denota m as comunmente como < x [ y >=

i=1
l
i
m
i
, y las l
i
son los coecientes de Fourier de alg un desarrollo en series.
Los sistemas ortonormales son los conjuntos mas apropiados para describir un
espacio de Hilbert. Son base del espacio, pero ademas son ortonormales, con lo
que cualquier elemento del espacio puede ser escrito en terminos de el con relativa
sencilles.
En los espacio Euclidianos o Unitarios podemos hacer la siguiente denicion.
Definici on 10.14. Sea E un espacio Euclidiano ( o Unitario) y H E. Sea
x
i

iI
una familia de elementos de H e I una familia de indices. x
i

iI
se
le llama un sistema completo de H si para toda x H se sigue que x =

iI
(x, x
i
) x
i
, es decir, la serie converge a x. Se dice que el sistema es ortonor-
mal si
1) El sistema es completo
2) x
i

iI
es una base ortonormal de H
En los espacios de Hilbert siempre existe un conjunto completo que lo genera.
Esta propiedad es muy importante y constantemente utilizada por fsicos, qumicos
e ingenieros. Para demostrar este teorema, es necesario ver primero la siguiente
proposicion, la cual enunciaremos sin demostracion.
Proposici on 10.15. Sea E un espacio de Hilbert y x
i

iI
una base ortonor-
mal. x
i

iI
es completo s y s olo s se sigue que si x E y se cumple que
(x, x
i
) = 0 para todo indice i I, implica que x = 0.
Entonces se puede ver que
160 10. ESPACIOS DE HILBERT Y BANACH
Teorema 10.16. Sea E un espacio de Hilbert. Entonces existe un sistema
ortonormal completo x
i

iI
en E.
Demostraci on 10.17. La idea de la demostraci on es usar la proposici on an-
terior y construir el sistema completo paso paso.
En lo que sigue vamos a estudiar la identidad de Parseval. Esta identidad
sirve mucho en el c alculo de las normas en espacios Euclidianos y Unitarios. Esta
identidad la veremos en la siguiente proposicion.
Proposici on 10.18 (Identidad de Parseval). Sea E espacio Euclidiano o Uni-
tario y sea x
i

iI
un sistema ortonormal en H E. x
i

iI
es completo s y s olo
s | x |
2
=

iI
(x, x
i
)
2
para toda x H.
Demostraci on 10.19. ) x
i

iI
completo implica que para toda x H x =

iI
(x, x
i
) x
i
, entonces
[[x |
2
= (x, x) =
_
_

iI
(x, x
i
) x
i
,

jI
(x, x
j
) x
j
_
_
=

j,iI
(x, x
i
) (x, x
j
) (x
i
x
j
) =

i,jI
(x, x
i
) (x, x
j
)
ij
=

iI
(x, x
i
)
2
) Sea y
i

iI
sistema ortonormal, x H jo y y
n
=

n
i=1
(x, y
i
) y
i
. Pero
y
n
es perpendicular a x y
n
ya que
(y
n
, x y
n
) =
n

i=1
(x, y
i
) (y
i
, x)
n

i,j=1
(x, y
i
) (x, y
j
) (y
i
, y
j
) = 0.
Entonces, por el teorema de Pit agoras
[[x[[
2
= [[x y
n
[[
2
+[[y
n
[[
2
y esto implica que
[[x[[
2
[[y
n
[[
2
= [[x y
n
[[
2
.
Esto es [[x[[
2

n
i=1
[ (x, y
i
) [
2
= [[x y
n
[[
2
. Pero como
[[x[[
2
=

i=1
[ (x, y
i
) [
2
esto implica que
lim
n
[[x y
n
[[
2
= 0
esto es
lim
n
y
n
= x =

i=1
(x, y
i
) y
i
,
que tambien podemos escribir como
x =

i=1
(x, x
i
) x
i
= y

para (x
i
)
iI
= (y
i
)
iI
y esto implica que (x
i
)
iI
es completo.
1. SISTEMAS ORTONORMALES COMPLETOS. 161
En fsica, qumica y otras disciplinas cientcas, es muy conveniente escribir las
funciones de alg un espacio en terminos de funciones conocidas. Generalmente se
trabaja en estas diciplinas con espacios completos en donde se puede denir una base
ortonormal. Entonces se eligen bases ortonormales que se estudian intensamente
para poder deducir despues propiedades generales de las funciones a estudiar o
se trabaja simplemente con estas funciones en terminos de la base del espacio de
Hilbert, usandolas como una buena aproximacion de las funciones de interes.
Para esto tenemos la siguiente denicion.
Definici on 10.20. Sea x
i

iI
un sistema ortonormal completo en un espacio
de Hilbert E. Entonces
(x, x
i
)
iI
se llaman coecientes de Fourier con respecto a x y la base
ortonormal.


iI
(x, x
i
) x
i
se llama serie de Fourier.
Cada x E en un espacio de Hilbert puede ser representado en una serie de
Fourier, en donde esa x puede ser cualquier tipo de elemento, desde polinomios, fun-
ciones periodicas, hasta funciones que son la solucion de alguna ecuaci on diferencial
de importancia.
Notaci on 10.21. A pesar de que los elementos del espacio de Hilbert o Banach
son siempre vectores, a partir de aqu vamos a uniformizar la notaci on, entonces
denotaremos los elementos de estos espacios ya no con negritias x, sino solamente
como x. De cualquier forma, los espacios de Hilbert que m as vamos a usar, los de
mayor interes para nosotros, son los espacios vectoriales de funciones.
Veamos algunos ejemplos.
Ejemplo 10.22. Sea
n
, con x
i
= e
i
, i = 1, , n, la base can onica.
1) Sea x = (l
1
, , l
n
). Entonces x se pude representar como x =

n
i=1
l
i
e
i
=

n
i=1
(x e
i
) e
i
.
2) Para los n umeros complejos (
n
es an alogo.
Ejemplo 10.23. Tomemos a L
2
con la base
x
i
= e
i
=
_
0, , 1
iesimo
,
_
.
Sea x
i

iI
= x
i

i=1, ,
, entonces x
i

iI
es un sistema ortonormal completo,
ya que si x L
2
, se tiene que (x, x
i
) = l
i
, en donde x = (l
1
, ) y

i=1
[ (x
,
x
i
) [
2
=

i=1
[l
i
[
2
= [[x[[
2
.
De la identidad de Parseval se sigue que x
i

iI
es completo.
Ejemplo 10.24. Sea C

el conjunto de las funciones suaves f : . La


serie de Taylor de esta funci on alrededor de 0 esta dada por
f(x) = f(0) +
1
1!
_
df
dx

x=0
_
x +
1
2!
_
d
2
f
dx
2

x=0
_
x
2
+
1
3!
_
d
3
f
dx
3

x=0
_
x
3
+
Entonces, toda funci on suave (de hecho en cualquier punto) se puede representar
por un polinomio f(x) = p(x) = a
0
+ a
1
x + a
2
x
2
+ , donde los coecientes del
polinomio estan dados por
a
j
=
1
j!
d
j
f
dx
j

x=0
.
162 10. ESPACIOS DE HILBERT Y BANACH
Sea (T, ) el conjunto de los polinomios de grado arbitrario con su producto can onico
y p
j

j=0,1,
= 1, x, x
2
, . Es claro que este conjunto de vectores es un sistema
completo en C

. Entonces, toda funci on suave se puede escribir como


f(x) =

i=1
_
p x
i
_
x
i
=

i=1
a
i
x
i
.
Ejemplo 10.25. Sea F
p
([0, 2]) el conjunto de las funciones peri odicas en
[0, 2]. Un sistema ortonormal completo de este espacio es
x
j

jI
=
_
1

2
,
1

sin(jt),
1

cos(jt)
_
j=1, ,n
Los coecientes de Fourier estan dados por
(f, x
j
)
jI
=
_
(f, cos(jt)) =
_
2
0
f cos(jt)dt,
(f, sin(jt)) =
_
2
0
f sin(jt)dt,
Este conjunto es completo ya que si
0 = (f
,
x
j
) =
_
2
0
f cos(jt)dt o
_
2
0
f sin(jt)dt = 0
para todo j = 0, , n, se sigue que f = 0.
Ejemplo 10.26. Un ejemplo simple de funciones ortonormales sobre las cuales
se puede hacer un desarrollo de Fourier son las funciones 1/

2 exp (imx)
mI
.
Estas funciones forman un sistema ortonormal completo en el intervalo [0, 2], ya
que
_
1

2
exp(imx) ,
1

2
exp(im

x)
_
=
1
2
_
2
0
exp(imx) exp(im

x) dx =
mm

para m, m

Z. Este sistema ortonormal completo es de gran interes por su uso


en fsica, qumica e ingeniera. Se tiene que una funci on en el intervalo [0, 2] se
puede escribir como
f(x) =

nI
(f, exp(inx)) exp (inx) , donde
(f, exp(inx)) =
1

2
_
2
0
f(x) exp (inx) dx
Ejemplo 10.27. Sea P
n
(x) los polinomios de grado n denidos por la f ormula
P
n
(x) = c
n

d
n
dx
n
_
x
2
1
_
n
, con c
n
=
1
n!, 2
n
_
2n + 1
2
.
Si integramos por partes n -veces el producto
_
1
1
P
m
(x)P
n
(x)dx =
mn
donde
mn
es la delta de Kroneker, vemos que estas funciones son ortogonales.
Como este conjunto de funciones son polinomios de grado arbitrario, el espacio
generado por ellas es isomorfo a (T, ). Entonces se puede demostrar que el con-
junto P
n
(x)
n=1,
es un sistema completo en el espacio de funciones suaves
1. SISTEMAS ORTONORMALES COMPLETOS. 163
f : [1, 1]. Esto quiere decir que toda funci on suave f en [1, 1] se puede
escribir como
f(x) =

n=0
(f, P
n
) P
n
, donde
(f, P
n
) =
2n + 1
2
_
1
1
f(x)P
n
(x)dx
Estos polinomios son llamados polinomios de Legendre.
Ejemplo 10.28. An alogamente a los polinomios de Legendre se denen los
polinomios asociados de Legendre como
P
m
l
(x) = (1)
m
_
1 x
2
_
m/2
c
n
d
m+l
_
x
2
1
_
l
dx
m+l
= (1)
m
_
1 x
2
_
m/2 d
m
P
l
(x)
dx
m
con l m l. Estos polinomios tambien son ortogonales, haciendo m integra-
ciones por partes se puede ver que
_
1
1
P
m
l
(x)P
m
l
(x)dx =
_
0 si l ,= l

2
2l+1
(l+m)!
(lm)!
si l = l

An alogamente como en el caso de los polinomios de Legendre, este conjunto de


funciones tambien son polinomios de grado arbitrario, asi que el espacio gener-
ado por ellas es isomorfo a (T, ). Entonces se puede demostrar que el conjunto
P
m
l
(x)
n=1,
es un sistema completo en el espacio de funciones suaves f : [1, 1].
Esto quiere decir que toda funci on suave f en [1, 1] se puede escribir como
f(x) =

l=0
(f, P
m
l
) P
m
l
, donde
(f, P
m
l
) =
2n + 1
2
(l m)!
(l +m)!
_
1
1
f(x)P
m
l
(x)dx
Ejemplo 10.29. Finalmente, un ejemplo muy importante es una combinacion
del ejemplo 10.26 combinado con los polinomios asociados de Legendre. Si denimos
las funciones
Y
m
l
(, ) = (1)
m

2n + 1
4
(l m)!
(l +m)!
P
m
l
(cos()) exp (im)
se puede ver que el conjunto Y
m
l

l,mI
es un sistema ortonormal completo. A las
funcines Y
m
l
(, ) se les llama arm onicos esfericos. Es f acil darse cuenta que
_
2
0
d
_
1
1
Y
m
l
(, ) Y
m

l
(, ) d (cos ()) =
ll

mm

y por construcci on, este sistema es una base del conjunto de funciones. Este sistema
es muy conveniente para escribir funciones que dependen solo de los angulos y ,
es decir, funciones cuyo dominio se encuentra en la esfera. Por eso los arm onicos
164 10. ESPACIOS DE HILBERT Y BANACH
esfericos son muy usados en problemas con simetria esferica. Toda funci on f que
solo depende de estos dos angulos se puede escribir como
f(x) =

l=0
l

m=l
(f, Y
m
l
) Y
m
l
, donde
(f, Y
m
l
) =
2n + 1
2
(l m)!
(l +m)!
_
2
0
d
_
1
1
f(, )

Y
m
l
(, )d (cos ())
2. Operadores Adjuntos.
Ahora vamos a trabajar en los espacios normados completos, es decir, en los
espacios de Banach. Estos espacios tienen muchas propidades, en ellos viven los
operadores, especialmente los operadores cuanticos. Vamos a denir los operadores
adjuntos y autoadjuntos y veremos algunas de sus propiedades. La denicion de
los espacios de Banach es como sigue.
Definici on 10.30. Un espacio normado, completo, se llama Espacio de Ba-
nach.
Comentario 10.31. Como ya sabemos, todo Espacio Unitario o Euclidiano es
normado, si estos adem as son completos, son espacios de Banach. Los espacios
normados son tambien metricos, por lo tanto los espacios de Banach son espacios
metricos.
M as adelante vamos a necesitar el siguiente lema.
Lema 10.32. Sea x
n
una sucesi on tal que lim
n
x
n
= x
0
y f una funci on. En-
tonces f es continua en x
0
s y s olo s lim
n
f (x
n
) = f (x
0
)
Ejercicio 10.33. Demostrar el lema.
Proposici on 10.34. Sean (E, [[ [[) y (F, [[ [[) espacios normados y A : E F
funci on lineal. Entonces A es continua s y s olo s es continua en 0 (o en alg un
punto x E.)
Demostraci on 10.35. ) Trivial.
) Supongamos que A es continua en 0. Sea x
n
una sucesi on en E tal que
lim
n
x
n
= x. Sea y
n
:= x
n
x, esto implica que lim
n
y
n
= 0. Puesto que A es
continua en 0, se sigue que lim
n
A(y
n
) = A(0) = 0.
Entonces
0 = lim
n
A(x
n
x) = lim
n
[A(x
n
) A(x)] ,
se sigue que lim
n
A(x
n
) = A(x)
Las funciones lineales acotadas son las de mayor interes en fsica. Cuando la
funci on es acotada, esta tiene propiedades especiales. Vamos a denir lo que es una
funci on acotada.
Definici on 10.36. Sean (E, [[ [[
E
) y (F, [[ [[
F
) espacios normados y A : E
F.
A se dice acotada, si
sup
||x||E=1
[[A(x) [[
F
< +,
para todo x E
2. OPERADORES ADJUNTOS. 165
Ejemplo 10.37. Sea E = y A : F, tal que A A(x) = x F
arbitrario
[[A(x) [[ = [[x [[ = [x[ [[[[.
Se sigue que
sup
|x|=1
[[A(x) [[ = sup[[[[, [[[[ = [[[[ < +
Ejemplo 10.38. Sea C ([a, b]) el conjunto de las funciones continuas en [a, b].
Sea A : C ([a, b]) , tal que
f A(f) =
_
b
a
f (x) dx.
Entonces
[[A(f) [[ = [[
_
b
a
f (x) dx[[
_
b
a
[[f (x) [[dx [[f[[ (b a) .
Entonces se tiene que
sup
f=1
[[A(f) [[ b a < +,
y esto implica que A es acotada.
El concepto de acotada para una funci on queda mas claro despues del lema
siguiente, el cual enuciamos sin demostracion.
Lema 10.39. Sean (E, [[ [[
E
) y (F, [[ [[
F
) espacios normados y A : E F
un mapeo lineal. A es acotada s y s olo s existe c , tal que [[A(x) [[
F
c[[x[[
E
Es decir, la funci on es acotada si la norma de sus valores son menores que la
norma del punto en donde se evaluo, para todo punto en el dominio. Las funciones
lineales acotadas son continuas, esta propiedad la demostramos en el siguiente teo-
rema.
Teorema 10.40. Sean (E, [[ [[
E
) y (F, [[[[
F
) espacios normados y A : E F
un mapeo lineal. Entonces A es continua s y s olo s A es acotada.
Demostraci on 10.41. .
) Supongamos A continua. En particular es continua en 0, .i.e. para toda
> 0, existe

tal que | A(x)A(0) |


F
< , para toda x se sigue que | x0 |
E
<

.
Pero A lineal implica A(0) = 0. Tomemos = 1. Entonces | A(x) |
F
< 1, para
toda x con | x |
E
<
1
(*)
Sea
y

=

1
2
y
| y |
E
tal que | y

|
E
=

1
2
<
1
.
Entonces por (*) | A(y

) |
F
< 1 (**).
Adem as
| A(y) |
F
=| A(y

) |
F
2

1
| y |
E

1
| y |
E
por (**). Esto quiere decir que
| A(y) |
F
c | y |
E
, con c =
2

1
para toda y E.
166 10. ESPACIOS DE HILBERT Y BANACH
) Supongamos A es acotada. Entonces existe c tal que | A(x) | c | x |,
x E. Sea x
n
una sucesi on en E, con lim
n
x
n
= 0. Entonces
| A(x
n
) 0 |
F
=| A(x
n
) |
F
c | x
n
|
E
.
Pero lim
n
x
n
= 0 s y s olo s lim
n
| x
n
|
E
= 0. Se sigue que
0 lim
n
[[A(x
n
) |
F
lim
n
c | x
n
|
E
= 0
o sea lim
n
| A(x
n
) |
F
= 0 pero esto es s y s olo s lim
n
A(x
n
) = 0 = A(0) .
Entonces A es continua en cero por lo que A es continua.
El conjunto de funciones lineales acotadas, por tanto continuas, entre espacios
normados, forma un espacio vectorial tambien. Este concepto lo escribiremos en la
siguiente denicion.
Definici on 10.42. L(E, F) = A [ A : E F, lineal y acotada.
Ya sabemos que L(E, F) es un espacio vectorial, asociado a E y F. Existe un
caso particular de espacios normados muy interesante. Se puede denir una clase
de espacios asociados usando como norma la denicion de acotado. Esto se posible
porque esta danicion es a su vez una norma. Esto es
Lema 10.43. Sea A L(E, F). Se tiene que
| A |
L
= sup
xE=1
| A(x) |
F
es una norma en L(E, F).
Ejercicio 10.44. Demostrar el lema.
Ejemplo 10.45. Sea E =
2
y sea A la transformaci on lineal representada por
la matriz
A =
_
2 1
1 0
_
Encontremos su norma [[A[[. Tomemos un vector x cualquiera x = (l
1
, l
2
). Se tiene
[[A[[ = sup
xE=1
| A(x) |
= sup
xE=1
|
_
2 1
1 0
__
l
1
l
2
_
|
= sup
xE=1
_
(2l
1
+l
2
)
2
+l
2
1
_
= sup
_
1 + 4l
2
1
+ 4l
1
_
1 l
2
1
_
Esta ultima funci on toma valores maximos en 0.923. Por lo que [[A[[ = 0.923.
Un resultado que es muy usado en el estudio de las normas de mapeos lineales
es el siguiente:
Lema 10.46. Sea A operador lineal. Entoces [[A(x)[[ [[A[[ [[x[[
2. OPERADORES ADJUNTOS. 167
Demostraci on 10.47. Tomemos
[[A(x)[[ = [[x[[

A
_
x
[[x[[
_

ya que A es lineal. Por otro lado es claro que si [[y[[ = 1, se tiene que
[[A(y)[[ sup
y=1
[[A(y)[[ ,
por denici on de supremo. De donde se sigue que
[[A(x)[[ [[x[[ [[A[[

Con esta norma es posible entonces demostrar que el espacio L(E, F) es a su


vez espacio de Banach, esto se ve en el siguiente teorema, que no demostraremos.
Teorema 10.48. Sea (L(E, F) , | |
L
) el espacio nomado de las transforma-
ciones lineales y continuas de E a F. Entonces si F es un espacio de Banach,
(L(E, F) , | |
L
) es de Banach.
Observemos que | |
L
es una norma en el espacio asociado, es una norma para
el espacio de funciones lineales. Si E = F, este espacio tiene un trato especial.
Podemos denir
Definici on 10.49. Sea E espacio de Hilbert y L(E) = L(E, E) . Con la norma
| A |= sup
xE=1
| A(x) |
E
, L(E)
es el espacio de Banach de las funciones de E en E lineales y continuas.
Ahora vamos a introducir el concepto de operador adjunto. Para esto, veamos
que en los espacios de Banach podemos construir un producto escalar. Sea A
L(E) . Podemos construir la forma bilineal B(x, y) = (Ax, y) con x, y E. Tenemos
entonces la siguiente prposicion.
Proposici on 10.50. Si E es un espacio de Hilbert real, entonces B es una
forma bilineal continua sobre E E. (Si E es complejo, B es una forma bilineal
continua sobre E, para y E jo).
Demostraci on 10.51. B es bilineal ya que A es lineal y (, ) es bilineal. B es
continua, ya que
[ B(x, y) [ = [ (Ax, y) [ | A(x) | | y | por la desigualdad de Schwarz,
| A | | x | | y | por ser A lineal.
Entonces
sup
x=1,y=1
[ B(x, y) [ sup
x=1,y=1
| A | | x | | y |
y como A es acotado, se tiene que
sup
x=1,y=1
[ B(x, y) [| A |,
es decir B tambien es acotado.
168 10. ESPACIOS DE HILBERT Y BANACH
Ejemplo 10.52. Sea (
n
, (, )) con su producto can onico. Sea A la matriz
representativa de una transformaci on lineal. Entonces (Ax, y) = Ax y. Vamos a
tomar como ejemplo a la matriz.
A =
_
1 2
1 0
_
entonces Ax y = (l
1
+2l
2
, l
1
) (m
1
, m
2
) = l
1
m
1
+2l
2
m
1
+l
1
m
2
para x = (l
1
, l
2
)
y y = (m
1
, m
2
)
Ejemplo 10.53. Sea E = L
2
=
_
(l
0
, l
1
, ) [ l
i
tal que

i=0
l
2
i
<
_
y
supongamos que los n umeros l
i
son los coecientes de Fourier de alguna funci on
suave f. Un operador seria la derivada de f. Como f es suave, su derivada tambien
tiene una representaci on de Fourier y por lo tanto la derivada es un operador lineal
tal que d/dx = A : E E. Para ver un ejemplo, supongamos por simplicidad
que f(x) = p(x) = a
0
+ a
1
x + a
2
x
2
+ , entonces los coecientes a
j
= l
j
, para
toda j = 0, 1, . La derivada de f sera f

(x) = p

(x) = a
1
+ 2a
2
x + , por lo
que la tranformaci on lineal esta dada por A((l
0
, l
1
, l
2
, )) = (l
1
, 2l
2
, 3l
3
, ) . Su
representaci on matricial es entonces
A =
_
_
_
_
_
0 1 0 0
0 0 2 0
0 0 0 3
.
.
.
.
.
.
_
_
_
_
_
ya que
A
_
_
_
_
_
l
0
l
1
l
2
.
.
.
_
_
_
_
_
=
_
_
_
_
_
l
1
2l
2
3l
3
.
.
.
_
_
_
_
_
Ejemplo 10.54. Sea F
p
([0, 2]) el conjunto de las funciones periodicas en
[0, 2]. Como ya vimos un sistema ortonormal completo de este espacio es
x
j

jI
=
_
1

2
,
1

sin(jx),
1

cos(jx)
_
j=1, ,n
.
Cualquier funci on periodica en [0, 2] puede escribirse como
f(x) =
1

2
+
1

j=1
a
j
sin(jx) +
1

j=1
b
j
cos(jx)
y su derivada ser a
f

(x) =
1

j=1
ja
j
cos(jx)
1

j=1
jb
j
sin(jx),
2. OPERADORES ADJUNTOS. 169
por lo que la matriz (2n + 1) (2n + 1) que representa esta transformaci on es
(10.1) B =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 0 0 0 0 0
0 0 0 1 0 0
0 0 0 0 2 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0 n
0 1 0 0 0 0
0 0 2 0 0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 n 0 0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
Ejercicio 10.55. Encuentrar la representaci on matricial de d
2
/dx
2
en L
2
y
en F
p
.
Ejercicio 10.56. Encuentrar la representaci on matricial de 2d
2
/dx
2
3d/dx+
1 en L
2
y en F
p
.
Con estas bases podemos denir el operador adjunto de una funci on lineal, su
denicion formal es como sigue.
Definici on 10.57. Sea A L(E) y (Ax, y) = (x, A

y), con x, y E. A A

se le llama el operador adjunto de A.


Ejemplo 10.58. Vamos a tomar de nuevo el ejemplo 10.52. Como ya vimos,
la matrix A cumple que (Ax, y) = (l
1
+ 2l
2
) m
1
+l
1
m
2
, donde
A =
_
1 2
1 0
_
,
x = (l
1
, l
2
) y y = (m
1
, m
2
). Observemos ahora que de igual manera se tiene
(x, A
T
y) = x A
T
y = x (m
1
+m
2
, 2m
1
) = (l
1
+ 2l
2
) m
1
+l
1
m
2
,
por lo que en este caso A

= A
T
. En general veremos m as adelante que para toda
matriz simetrica real, su matriz adjunta es la misma matriz original. En el caso de
matrices complejas, si la matriz transpuesta conjugada es la misma que la matriz
original, esta es igula a su adjunta.
Ejercicio 10.59. Encontrar los operadores adjuntos de las matrices A y B de
los ejercicios 10.55 y 10.56.
Definici on 10.60. Sea E espacio de Hilbert y A L(E). Entonces la norma
de
[[A[[ = sup
x=1
[(Ax, y)[ .
Las principales propiedades de los operadores adjuntos son que ellos son tambien
funciones lineales, su norma es la misma que la de la funci on original y el adjunto
del adjunto es la misma funci on de salida. Esto lo vemos en la siguiente proposicion.
Proposici on 10.61. Sea A

operador adjunto de A. Entonces


1) A

L(E)
2) | A

|=| A |
3) (A

= A
170 10. ESPACIOS DE HILBERT Y BANACH
Demostraci on 10.62. Demostremos 1) y 3).
1) A

es lineal. Sean x, y
1
, y
2
E,
1
,
2
, o (. Entonces
(x, A

(
1
y
1
+
2
y
2
)) = (Ax,
1
y
1
+
2
y
2
)
=
1
(Ax, y
1
) +
2
(Ax, y
2
)
=
1
(x, A

y
1
) +
2
(x, A

y
2
)
= (x,
1
A

y
1
) + (x,
2
A

y
2
)
Ademas, si 2) se cumple, A

es acotado y por tanto continuo.


3)
_
x, (A

y
_
= (A

x, y) , por la denici on de adjunto


= (y, A

x) = (Ay, x) por las propiedades de (, )


= (x, Ay)
por lo tanto (A

(y) = A(y)
Otras propiedades importantes de los operadores adjuntos se reeren a la suma
de adjuntos, el producto por una constante y la composicion de adjuntos, estas son.
Proposici on 10.63. Sean A, B L(E). (
1) (A +B)

= A

+B

2) (A)

= A

3) (A B)

= B

Ejercicio 10.64. Demostrar la proposici on


Finalmente vamos a denir los operadores autoadjuntos, estos son muy impor-
tantes en fsica y qumica; se denen como sigue.
Definici on 10.65. Sea E espacio de Hilbert y A L(E) .
Si A = A

, A se llama operador autoadjunto.


Si A = A

, A se llama operador anti-autoadjunto.


Los operadores autoadjuntos o anti-autoadjuntos son los m as interesantes en
fsica. En la teora cuantica aparecen estos operadores muy amenudo. Normalmente
los operadores diferenciales cumplen con esta propiedad. Veamos algunos ejemplos.
Ejemplo 10.66. En los ejemplos 10.1, el operador diferencial B es anti-autoadjunto,
ya que B = B
T
.
Ejemplo 10.67. Sea E espacio euclidiano y f : E E lineal y continua. f lo
representamos por la matriz A. Si f es autoadjunto, la representaci on de A cumple
con
(Ax, y) = (Ax)
T
y = x
T
A
T
y = (x, Ay) = x
T
Ay.
De donde se sigue el siguiente lema.
Lema 10.68. En un espacio euclidiano, todo operador autoadjunto tiene una
representaci on con una matriz simetrica, i.e. A
T
= A. Asi mismo, un operador
anti-autoadjunto tiene una representaci on con una matriz antisimetrica, i.e.
A
T
= A.
Lema 10.69. En un espacio unitario, todo operador autoadjunto tiene una rep-
resentaci on con una matriz hermitiana, i.e.

A
T
= A

= A. Asi mismo, un
operador anti-autoadjunto tiene una representaci on con una matriz antihermi-
tiana, i.e. A

= A.
2. OPERADORES ADJUNTOS. 171
Ejercicio 10.70. Demostrar los lemas 10.68 y 10.69.
CHAPTER 11
ESPACIOS CON MEDIDA
1. Medida
Dentro del analisis, los espacios con medida juegan un papel muy importante.
Estos espacios son la base de la teora de probabilidad y estadstica, de los espacios
L
2
, etc. Aqui nos enfocaremos a los espacios L
2
, veremos primero su denicion y
luego aplicaciones a las funciones especiales, que son solucion de ecuaciones difer-
enciales importantes en fsica, qumica, ingeniera, matemamticas, etc. Vamos a
introducir la denicion de algebra- para poder introducir la denicion de medida.
Entonces epecemos con la siguiente denicion.
Definici on 11.1. Sea conjunto T () el conjunto potencia de . Sea T
T (). T se llama algebra sobre si
1) T
2) A T implica A
c
T
3) A
1
, A
2
T implica A
1
A
2
T
No hay que confundir el nombre algebra sobre alg un conjunto con el de algebra
en el sentido algebraico. El nombre es el mismo, aunque las deniciones no tienen
nada que ver. En adelante no habra confuci on, ya que el concepto que realmente
usaremos en esta secci on es el de algebra-, esta se dene como sigue.
Definici on 11.2. T se llama algebra- sobre si valen 1), 2) y
3) A
1
, A
2
, T implica

i=1
A
i
T
En ocaciones el inciso 1) de la denicion de algebra puede cambiarse por
1) T.
Obviamente el inciso 1) y 2) implican 1), por lo que las deniciones son equiv-
alentes. Observemos tambien que una algebra sobre es una algebra sobre
.
Vamos a ver algunos ejemplos.
Ejemplo 11.3. .
1) El conjunto potencia completo es siempre una algebra o una algebra- sobre
el conjunto original, esto es T = T () es siempre una algebra sobre .
2) El conjunto formado por el conjunto original y el vacio, son una algebra-
T = , .
Ejemplo 11.4. T = , A, A
c
, para A ,= y A es tambien una algebra-
sobre .
Ejemplo 11.5. Sea = a, b, c, d, entonces una algebra- sobre esta dada
por T
1
= , a, b, c, d, a, b, c, d . Otra algebra- es
T
2
= , a, b , a, b, c, d, b, c, d, a, c, d, , etc.
173
174 11. ESPACIOS CON MEDIDA
Ejercicio 11.6. Demostrar que los ejemplos anteriores son algebras sobre .
Comentario 11.7. Observemos que en la denici on de algebra, las uniones
entre conjuntos puede cambiarse por intersecciones .
Ejercicio 11.8. Demostrar la observaci on 11.7 anterior.
La interseccion innita de algebras-, es a su vez algebra-. Esto lo veremos
en la siguiente proposicion.
Proposici on 11.9. Sean T
i

iI
una familia de algebras- e I un conjunto de
ndices. Entonces
iI
T
i
tambien es algebra-.
Demostraci on 11.10. Sean T
i

iI
una familia de algebras-, entonces:
1) T
i
para toda i I esto implica que
iI
T
i
2) A
iI
T
i
s y s olo s A T
i
para toda i I. Puesto que T
i
es una
-

Algebra se sigue que A


c
T
i
para toda i I s y s olo s A
c

iI
T
i
.
3) Sean A
1
, A
2

iI
T
i
s y s olo s A
1
, A
2
T
i
para toda i I esto implica
que A
1
A
2
T
i
para toda i I s y s olo s A
1
A
2

iI
T
i
, an alogicamente para

jI
A
j

En lo que sigue vamos a introducir las algebras- sobre los espacios metricos.
Para esto introduciremos una denicion importante, para que con ella podemos
denir el algebra de Borel.
Definici on 11.11. Sea c T(). Se dene (c) =
iI
T
i
, donde T
i
son
algebras-, con c T
i
.
Esta denicion pretende construir el algbra- mas peque na de un conjunto
arbitrario. La denicion anterior puede interpretarse de la siguiente manera. Sea
conjunto y c T(). Supongamos que c no es algebra-. Entonces, si c es un
subconjunto del conjunto potencia donde / c, entonces se construye c

= c. Si
c es tal que no todos los complementos de sus conjuntos pertenecen a c, entonces se
construye c con todos los complementos faltantes y as, hasta formar una algebra-
mnima, esta es (c). Este proceso equivale a tomar la interseccion de todas las
algebras sobre , es decir, seg un la denicion anterior, equivale a tomar (c).
Ya estamos listos para introducir las algebra- sobre espacios metricos, las
cuales tienen una importancia especial, estas se denen de la forma siguiente.
Definici on 11.12. Sea (M, ) espacio metrico, y sea c = U M [ U abierto.
A (c) se le llama algebra- de los conjuntos de Borel de M.
Ejemplo 11.13. Sea (, ) el espacio metrico real. Entonces
c = U [ U intervalo abierto de .
Como los complementos de los intervalos abiertos son uniones de intervalos cerra-
dos, (c), y por tanto, los conjuntos de borel de los reales, estar a formado por el
conjunto de los intervalos abiertos, uni on los intervalos cerrados, uni on todos los
n umeros reales, uni on el conjunto vacio.
Ejemplo 11.14. Sea X = a, b. Un ejemplo de conjuntos abiertos (topologi-
cos) de X son
X
= , a , a, b. Entonces los conjunto de Borel de
X
son
(
X
) = , a , a, b , b.
1. MEDIDA 175
Ejercicio 11.15. Sea c = bolas en
n
. Construir (c) y demostrar que es
una algebra- explcitamente.
Ahora ya estamos en posicion de denir espacio medible y medida. Como
veremos, en estos espacios podemos denir funciones especiales ortogonales y series
de Fourier con estas funciones. Vamos a iniciar con los espacios medibles.
Definici on 11.16. Sea un conjunto. A la upla (, T) con ,= y T
algebra sobre se le llama espacio medible.
Definici on 11.17. Una funci on : T [0, ) se le llama medida si
1) () = 0
2) Para una secuencia A
1
, A
2
, , T tal que
A
i
A
j
= i ,= j, se sigue (

i=1
A
i
) =

i=1
(A
i
) .
Definici on 11.18. Al triplete de (, T, ) con (, T) espacio medible y me-
dida, se le llama espacio con medida.
Algunas de las propiedades mas importantentes de los espacios con medida son
las siguientes.
Lema 11.19. Una medida sobre (, T) es nitamente aditiva.
Demostraci on 11.20. Sean A
1
, , A
n
T disjuntos con A
i
= para toda
i = n + 1, . Se sigue entonces que
n
i=1
A
i
=

i=1
A
i
, esto implica que
(
n
i=1
A
i
) = (

i=1
A
i
) =

i=1
(A
i
) =
n

i=1
(A
i
)

Comentario 11.21. La medida 0 por denici on.


Proposici on 11.22. Sean A, B T, medida sobre (, T), espacio medible.
Entonces
a) (A B) (A) +(B)
b) Si A B, se sigue (A) (B)
c) Si A B con (A) < se sigue que (BA) = (B) (A)
Demostraci on 11.23. Primero demostremos b)
b) A B implica que B = A (BA). Se tiene que (B) = (A (BA))
Entonces
(B) = (A) +(BA) .
Pero 0 implica (B) (A)
a) A, B T A B = A (BA)
Entonces
(A B) = (A) +(BA)
por lema 0.41. Pero BA B. Por b) (BA) (B) lo que implica que
(A B) (A) +(B) .
c) (B) = (A (BA)) = (A) +(BA),
entonces
(BA) = (B) (A)

176 11. ESPACIOS CON MEDIDA


Veamos algunas medidas especiales que usaremos en el resto del texto. Unas
medidas muy importantes son la medida de probabilidad y la medida de Dirac. Su
denicion formal es como sigue.
Definici on 11.24. Una medida tal que () = 1 se llama medida de prob-
abilidad.
Veamos el ejemplo de la medida de Dirac.
Ejemplo 11.25. Medida de Dirac. Sea (, T) espacio medible y
x
tal que

x
: T [0, ), con

x
(A) :=
_
1 si x A
0 si x A
c
para toda A T. Veamos que
x
es una medida. Primero es f acil ver que
x
() =
1, por lo que
x
es una medida de probabilidad, adem as, es claro que
x
(A) 0
para toda A T. Sean A
1
, A
2
, , A
i
, T con A
i
A
j
= i ,= j, entonces

x
_

iI
A
i
_
= 1
s y s olo s x
iI
A
i
, esto es s y s olo s existe alg un A
i
tal que x A
i
, pero no
en los restantes A
j
, j ,= i, esto implica que

x
_

iI
A
i
_
=

i=1

x
(A
i
) = 1
Por otro lado,
x
(
iI
A
i
) = 0, s y s olo s x (
iI
A
i
)
c
, esto es s y s olo s
x
iI
A
c
i
, s y s olo s x A
c
i
para toda i, lo que implica que
x
(A
i
) = 0 para
toda i. Por lo tanto

i=1

x
(A
i
) = 0, i.e.
x
_

iI
A
i
_
=

i=1

x
(A
i
)
Ejemplo 11.26. Sean los reales y T los conjuntos de Borel en los reales.
Entonces la funci on l
1
: T
+
tal que l
1
es la longitud del intervalo, es decir
l
1
((a, b)) = b a, es una medida. Veamos esto: l
1
() = 0, ademas, si A
1
y
A
2
son dos intervalos disjuntos, se tiene que l
1
(A
1
A
2
) = l
1
((a, b) (c, d)) =
d a (c b) = b a + d c = l
1
((a, b)) + l
1
((c, d)). A esta medida se le llama
la medida de Lebesgue.
Ejemplo 11.27. Sea = a, b, c, d y
T = , a, b , a, b, c, d, a, c, d, b, c, d, .
Entonces la funci on : T [0, ), tal que (A) = n umero de elementos de A.
Esto implica que () = 0 y
(a b) = (a, b) = 2 = (a) +(b).
Adem as
(a c, d) = (a, c, d) = 3 = (a) +(c, d),
(b c, d) = (b, c, d) = 3 = (b) +(c, d),
(a b, c, d) = (a, b, c, d) = 4 = (a) +(b, c, d).
Por otro lado,
(a a, b) = (a, b) = 2 < (a) +(a, b),
etc. Por tanto (A) es una medida.
2. INTEGRACI

ON EN ESPACIOS CON MEDIDA 177


Ejemplo 11.28. Si en el ejemplo anterior denimos : T [0, ), tal que
(A) =n umero de elementos de A/4, (A) se vuelve una medida de probabilidad.
Ejemplo 11.29. Sea (, T) espacio medible (x
k
)
k=1, ,
una serie en y
(c
k
)
k=1
una sucesion de n umeros (c
k
)
k=1, ,
[0, ). Tomamos =

k=1
c
k

x
k
.
Entonces es una medida llamada la medida discreta. Si adem as

k=1
c
k
= 1,
se llama medida discreta de probabilidad.
Ejercicio 11.30. Demuestren que =

k=1
c
k

x
k
es una medida.
Ejercicio 11.31. Sea (, c) espacio medible, A c los conjuntos de Borel de
y h : real, positiva e integrable en A. Demuestren que (A) =
_
A
hdx es
una medida.
2. Integracion en espacios con Medida
En esta secci on veremos como se puede integrar en espacios con medida. Real-
mente estamos interesados en la integraci on de Lebesgue y para ello tenemos que
introducir algunas deniciones. Empecemos por la denici on de funci on indicadora.
Definici on 11.32. Sea
x
(A) la medida de Dirac. La funci on indicadora

A
se dene como
A
: [0, +), x
A
(x) =
x
(A) .
De hecho, toda funci on para la cual la imagen inversa de los conjuntos de
Borel es un elemento de la algebra- en el conjunto, se le llama funci on medible,
formalmente esta se dene como
Definici on 11.33. Sea (, T) espacio medible. A toda funci on f : se
le llama funci on medible, si f
1
(X) T, para toda X c.
Ejemplo 11.34. Vamos a ver aqui que las funciones indicadoras
A
son fun-
ciones medibles. Veamos primero que, para una A ja se tiene que
A
(x) =
x
(A) :
. Observemos que esta funci on es 1 para toda x A, y 0 de lo contrario.
De hecho
A
es una funci on escal on. Sea X c, y veamos cuanto vale
1
A
(X).
Se tiene que, X = 1 o X = 0. Entonces

1
A
(1) = A T y
1
A
(0) = A
c
T
por lo que
A
es una funci on medible.
Finalmente, la integraci on en espacios con medida se hara en base a las fun-
ciones simples, su denicion es
Definici on 11.35. Sea (, T) espacio medible y sea f
n
una funci on medible
ah. f
n
se dice simple si existen a
1
, , a
n
con n 1, A
1
, , A
n
T tal
que
f
n
=
n

i=1
a
i

Ai
en el espacio medible (, T) .
Esto quiere decir que toda funci on simple se puede escribir como la super-
posicion de funciones indicadoras por cada intervalo. Las funciones simples estan
formadas por porsiones constantes en cada intervalo A
i
para i = 1, , n. Lo mas
interesante de las funciones medibles es que ellas pueden escribirse como el lmite
de funciones simples. Esto lo veremos en la siguiente proposicion.
178 11. ESPACIOS CON MEDIDA
Proposici on 11.36. Sea f medible, f 0. Entonces existe (f
n
)
n=1,...,
con
1) f
n
: para todo n
2) f
n
simple para todo n
3) f
n
0 para todo n
4) f
n
f
n+1
para todo n
5) f = lim
n
f
n
Demostraci on 11.37. Vamos a construir las funciones (f
n
)
n=1, ,
. Sean
las funciones
f
n
=
4
n

i=1
i 1
2
n

f
1
([
i1
2
n ,
i
2
n ))
+ 2
n

f
1
([2
n
,))
las cuales se puede tambien descomponer en sus partes. Sea , se obtiene:
f
n
() =
_
i1
2
n
para
i1
2
n
f () <
i
2
n
con i = 1, , 4
n
2
n
para f () 2
n
Claramente esta funci on cumple con las condiciones 1) a 4) de la proposici on.
Queda por demostrar que f = lim
n
f
n
. Sea f
1
__
i1
2
n
,
i
2
n
__
, esto implica que
f
n
() =
i1
2
n
, por la denici on de f
n
. Se tiene que:
i 1
2
n
f () <
i
2
n
,
y por tanto
0 [f
n
() f ()[
1
2
n
lo que implica que
lim
n
f
n
= f ()

Vean la gura 1 donde se muestra un ejemplo de las funciones simples f.


Definici on 11.38 (Integral de Lebesgue de funciones simples). Sea (, T, )
espacio con medida y f
n
: (, T) (, c), funci on simple donde c es la algebra-
de Borel de . Sea A
k
= x [ f
n
(x) = c
k
k = 1, , n. Se dene
_

f
n
() (d) :=
n

k=1
c
k
(A
k
)
En general, puede tomarse cualquier secuencia (B
i
)
i=1,...,n
de elementos de T.
La integral de Lebesgue tiene varias propiedades, vamos a enumerar y demostrar
algunas de ellas.
Proposici on 11.39. Sean f
1
,y f
2
funciones simples. Entonces
1)
_
(
1
f
1
+
2
f
2
) (d) =
1
_
f
1
(d) +
2
_
f
2
(d)
2) Si 0 f
1
f
2
, entonces
_
f
1
(d)
_
f
2
(d)
Es decir, la integral es un funcional lineal y monotona.
Demostraci on 11.40. Solo veremos una idea de la demostraci on.
1) Se sigue por construcci on. Sea
b
i
=
_
b
1
i
1 i k
1
b
2
i
k
1
k
1
+ 1 i k
2
+k
1
f
1
+f
2
=
k1+k2

i=1
b
i

Bi
.
2. INTEGRACI

ON EN ESPACIOS CON MEDIDA 179


0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
-1 0 1 2 3 4 5 6
f
x
f
f
1
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
-1 0 1 2 3 4 5 6
f
x
f
f
2
Figure 1. La funci on f =
1
8
x
3
x
2
+ 2x +
3
2
(linea continua) y
sus correspondientes funciones simples (cruces) f
1
, en al gura de
arriba y f
2
, en al gura de abajo. Las f
n
se aproximan a la funci on
original f para n grande. En estas dos guras esto es muy notorio.
entonces
_
(f
1
+f
2
) (d) =
k1+k2

i=1
b
i
(B
i
)
=
k1

i=1
b
1
i

_
B
1
i
_
+
k2

i=1
b
2
i

_
B
2
i
_
=
_
f
1
(d) +
_
f
2
(d).
2) Tenemos f
2
f
1
0, f
2
= (f
2
f
1
) +f
1
180 11. ESPACIOS CON MEDIDA
Entonces
0
_
f
2
(d) =
_
(f
2
f
1
) (d) +
_
f
1
(d),
pero
_
(f
2
f
1
) (d) 0 por lo tanto
_
f
2
(d)
_
f
1
(d).
Despues de esta proposicion ya estamos en posicion de denir la integral de
Lebesgue. Esta se realiza utilizando funciones simples, esto es:
Definici on 11.41 (Integral de Lebesgue). Sea f : (, T) (, c) funci on
y (, T) espacio medible y c el algebra- de Borel. Sea (f
k
)
k=1, ,n
una serie de
funciones simples, tal que f
k
f
k+1
para toda k, y f = lim
k
f
k
. Entonces:
_
f () (d) := lim
n
_
f
n
() (d) .
Debido a la proposicion anterior, aqui tambien se sigue que la integral es lineal
y mon otona. El teorema mas importante correspondiente a la integral de Lebesgue,
el cual daremos sin demostracion, es el siguiente.
Teorema 11.42 (de Lebesgue). Sean g, f
n
: (, T) (, c) tal que [ f
n
[ g
para toda n,
_
g(d) es nita y f = lim
n
f
n
. Se sigue que
_
f(d) = lim
n
_
f
n
(d)
es decir, f es integrable y
_
f(d) es nita.
Para comprender el teorema y aprender a manipular la integral de Lebesgue,
es conveninte ver algunos ejemplos simples.
Ejemplo 11.43. Sea (, c) el espacio medible con c el algebra- de Borel y
l
1
: c [0, +) tal que l
1
((a, b)) = b a (con a < b por facilidad) es la medida de
Lebesgue. Entonces, si f : , se tiene
_
(a,b)
f(x)l
1
(dx) =
_
b
a
f (x) dx
Vamos a explicar este punto. Sabemos que existe una serie de funciones simples
f
k
con f = lim
n
f
n
tal que en los intervalos A
k
, la funci on sea constante, es decir,
A
k
= (a
k
, b
k
) = x [ f
k
(x) = c
k
. Se sigue que
_
(a,b)
f (x) l
1
(dx) = lim
n
_
f
n
(x) l
1
(dx)
= lim
n
n

k=1
c
k
l
1
(A
k
)
= lim
n
n

k=1
f
k
(x) (b
k
a
k
) =
_
b
a
f (x) dx.
Es decir, la integral de Lebesgue con la medida de Lebesgue es la integral de Rie-
mann.
3. ESPACIOS Lp 181
Ejemplo 11.44. Sea (, c) el espacio medible con c el algebra- de Borel y
: c [0, +) tal que (A) =
_
A
hdx con h : . Entonces, si f : ,
se tiene
_
(a,b)
f(x)(dx) =
_
b
a
f (x) h(x)dx
Tomemos de nuevo la serie de funciones simples f
k
con f = lim
n
f
n
tal que en
los intervalos A
k
, la funci on sea constante, es decir, A
k
= (a
k
, b
k
) = x [ f
k
(x) = c
k
.
Se sigue que
_
(a,b)
f (x) (dx) = lim
n
_
f
n
(x) (dx)
= lim
n
n

k=1
c
k
(A
k
)
= lim
n
n

k=1
c
k
_
b
k
a
k
h(x) dx
= lim
n
n

k=1
c
k
lim
m
m

l=1
h(x
l
)
(b
k
a
k
)
m
.
Observemos que m se puede cambiar por n, ya que los dos van a innito, a un m as,
si adaptamos la segunda suma a la primera poniendo los puntos x
l
s junto con los
c
k
s, ya que los dos son contados por un n umero innito de puntos, obtenemos:
_
(a,b)
f (x) (dx) = lim
n
n

k=1
c
k
n

l=1
h(x
l
)
(b
k
a
k
)
n
= lim
n
n

k=1
f
k
(x) h(x
k
)
(b
k
a
k
)
n
=
_
b
a
f (x) h(x) dx.
Es decir, la integral de Lebesgue con la medida (A) =
_
A
hdx es la integral de
Riemann con un peso.
Ejercicio 11.45. Realizar la misma integral pero con la medida de Dirac.
3. Espacios L
p
Finalmente vamos a introducir la denicion de espacios L
p
, para despues dedi-
carnos a estos espacios con p = 2. Para eso, vamos a introducir una relacion de
equivalencia en los espacios con medida para poder denir los espacios que quere-
mos.
Definici on 11.46. Sea (, T) espacio medible y medida en (, T) . Se dene
L
0
(, T) = f : [ f es funci on medible, i.e. f
1
(X) T, para toda
X c.
Se puede ver entonces que el espacio L
0
forma un espacio vectorial con las
operaciones canonicas entre funciones. Es decir:
Proposici on 11.47. L
0
es un espacio lineal.
182 11. ESPACIOS CON MEDIDA
Los espacios L
p
se basan en el hecho de que los espacios de todas las funciones
medibles se pueden separar en clases de equivalencia. La relacion de equivalencia
que separa estos espacios en clases se introduce en la siguiente denicion.
Definici on 11.48. Sean f, g, L
0
y medida. Sea

la relaci on f

g si
(x [ f(x) ,= g(x)) = 0, con medida en (, T) .
Proposici on 11.49. La relaci on

es de equivalencia
Demostraci on 11.50. Veamos las tres condiciones de relaci on de equivalencia
1) f

f ya que (x [ f(x) ,= f(x)) = () = 0


2) f

g implica que (x [ f(x) ,= g(x)) = 0, por tanto g

f
3) Sean f, g, h L
0
tales que f

g y g

h. Denotemos por
A = x [ f(x) = g(x),
B = x [ g(x) = h(x)
M = x [ f(x) = h(x)
Como f

g y g

h se sigue que (A
c
) = 0 y (B
c
) = 0. De lo anterior se
tiene que f = h s y s olo s f = g y g = h asi que M = A B lo que implica que
M
c
= A
c
B
c
. Entonces
(x [ f(x) ,= h(x)) = (M
c
) = (A
c
B
c
) (A
c
) +(B
c
) = 0
lo que implica que f

h.
Con esto ya podemos introducir la denicion de los espacios L
p
, su denicion
se basa en el conjunto de clases de equivalencia con la relacion

. Se denen como
sigue.
Definici on 11.51. Sea L
0
(, T, ) = L
0
(, T) /

. Se dene
L
p
= f L
0
(, T, )

[ f (x) [
p
(dx) , es nita,
de tal forma que L
p
es un espacio normado, con la norma | f |
p
=
__

[ f [
p
(dx)
_
1/p
La propiedad mas importante de estos espacios es que son espacios normados
y completos, o sea, de Banach. Vamos a enunciar este importante teorema sin
demostracion:
Teorema 11.52. Para todo 1 p < , L
p
es lineal y completo, es decir, L
p
es espacio de Banach.
Los casos especiales mas interesantes son sin duda
p = 1, L
1
= Espacio de las funciones integrables.
p = 2, L
2
= Espacio de Banach de las funciones cuadraticas integrables bajo la
medida .
Estos dos espacios son de suma importancia en fsica, qumica, matematicas,
mecanica cuantica, etc. Particularmete, en L
2
tambien es posible dernir un pro-
ducto interno, convirtiendo estos espacios en espacios de Hilbert. Esto se ve en la
siguiente proposicion.
Proposici on 11.53. L
2
es un espacio de Hilbert con el producto escalar
(f, g) =
_

f (x) g (x) (dx)


4. DESARROLLO DE FOURIER EN L2 183
Demostraci on 11.54. Claramente las propiedades de producto escalar se cumplen
para (f, g) . Como L
P
es de Banach, es completo y lineal, por lo tanto es espacio
de Hilbert con (f, g) su producto interno.
Observemos que en L
2
la norma esta dada por
| f |
L2
=
__

[ f [
2
(dx)
_
1/2
= [(f, f)]
1/2
por lo que, la norma y el producto interno en estos espacios, son compatibles.
Las generalizaci on a espacios complejos se sigue del hecho que f = u + iv ,
en tal caso, usando la linealidad de la integral de Lebergue, se siguen las mismas
propiedaes equivalentemente como para f real.
4. Desarrollo de Fourier en L
2
Los espacios de interes para la fsica, como ya dijimos, son los espacios L
2
. En
estos espacios se denen las series de Fourier, entre otras. Vamos a dedicarles esta
secci on dada su importancia. Empecemos con la siguiente denicion.
Definici on 11.55. Sea L
2
= L
2
(, T, ) espacio de Hilbert tal que existe un
sistema (f
i
)
i=1,...,n
ortonormal completo. Sea f L
2
, cuyo coeciente de Fourier
estan dados por
a
i
= (f, f
i
) =
_

f (x) f
i
(x) (dx) .
A la serie f =

i=1
a
i
f
i
se le llama serie de Fourier de f.
Ejemplo 11.56. Consideramos el espacio L
2
([, ]) con la medida de Lebesgue.
Como ya hemos visto, el sistema T
n
=
_
1

2
,
1

sin(kx),
1

cos(kx)
_
k=1, ,n
es
ortonormal y es completo en
T ([, ]) = f [ f (x) =
n

k=0
a
k
cos (kx) +b
k
sin (kx)
llamado el conjunto de las funciones trigonometricas. En general (T
n
)
n=1,...,
es un sistema ortonormal completo en L
p
.
Ejercicio 11.57. Demuestre que (T
n
)
n=1,...,
es un sistema ortonormal en
L
2
.
Definici on 11.58. Sea E espacio de Hilbert y c una algebra- sobre E. Se
dene
B(E, c) = f : (E, c) [ f es medible y acotada
C

(E) = f : E [ f es continua y acotada


Se puede mostrar que C

(E) B(E, c) L
p
, y ambas son subconjuntos
lineales de L
p
. Es mas, estos espacios son densos, por lo que podemos acercarnos
tanto como queramos por medio de una base ortonomal completa a cada elemento
de estos espacios, esto se ve en la siguiente proposicion.
Proposici on 11.59. Sea E espacio de Hilbert y c los conjuntos de Borel de
los reales.
1) B(E, c) es denso en L
p
2) C

(E) es denso en L
p
184 11. ESPACIOS CON MEDIDA
Con esta proposicion se puede mostrar que T ([, ]) es denso en L
p
([, ]).
Unos ejemplos de mucha importancia para la teora de ecuaciones diferenciales son
los siguientes.
Ejemplo 11.60. El sistema
_
f
k
=
1

2x
e
ikx
_
kZ
es un sistema ortonormal completo en el espacio L
2
complejo ([, ]) .
Ejemplo 11.61. El sistema
_
P
n
= c
n

d
n
dx
n
_
x
2
1
_
n
, con c
n
=
1
n! 2
n
_
2n + 1
2
_
nN
es un sistema ortonormal completo en L
2
([a, b]) con la medida de Lebesgue. A estos
polonomios se les llama Polinomios de Legendre.
Ejemplo 11.62. Tomemos L
2
(, ) con la medida
(A) =
_
A
h(x) dx,
A c con h(x) = e
x
2
. Entonces el sistema
_
1, x, x
2
,
_
es un sistema ortonor-
mal completo en este espacio. Si
H
n
= c
k
e
x
2 d
n
dx
n
e
x
2
n 0, L(H
0
, , H
n
) = L
__
1, x, , x
2n
__
.
A H
n
se les llama los Polinomios de Hermite.
5. Funciones Especiales
Existen una serie de funciones que tienen caracteristicas muy particulares. Lo
importante de estas funciones es que son solucion de diferentes ecuaciones diferen-
ciales muy comunes en fsica, qumica, ingeniera, etc., por eso su estudio requiere
de una secci on aparte. Hay una forma de estudiar todas estas funciones especiales
de una forma unicada, es la versi on que adoptaremos aqui. Todas estas funciones
tienen caracteristicas comunes y adoptando esta versi on unicada es posible estu-
diar sus caracteristicas comunes de una sola vez.
Definici on 11.63 (F ormula de Rodriques). Sea
(11.1) P
n
(x) = c
n
1
h
d
n
dx
n
(hs
n
),
tal que
1) P
n
es un polinomio de grado n y c
n
una constante.
2) s(x) es un polinomio de raices reales de grado menor o igual a 2
3) h : es una funci on real, positiva e integrable en el intervalo [a, b] ,
(llamada peso) tal que h(a)s(a) = h(b)s(b) = 0.
Con esta denicion es posible denir la mayoria de las funciones especiales mas
comunes. Daremos algunos ejemplos.
5. FUNCIONES ESPECIALES 185
Ejemplo 11.64. Los polinomios de Hermite H
n
estan dados por h = e
x
2
,
s = 1, c
n
= 1, en el intervalo (, ), es decir
H
n
(x) = (1)
n
e
x
2 d
n
dx
n
(e
x
2
)
por lo que los primeros terminos ser an:
H
0
= 1,
H
1
= 2x,
H
2
= 2 4x
2
,
H
3
= 4x(3 + 2x
2
),
H
4
= 12 48x
2
+ 16x
4
, etc.
Ejemplo 11.65. Los polinomios de Legendre P
n
est an dados por h = 1, s =
1 x
2
, c
n
=
1
n! 2
n
_
2n+1
2
, en el intervalo [1, 1], es decir
P
n
(x) =
(1)
n
2
n
n!
d
n
dx
n
(
_
1 x
2
_
n
)
por lo que los primeros terminos ser an:
P
0
= 1, P
1
= x,
P
2
=
1
2
_
3x
2
1
_
,
P
3
=
1
2
x(5x
2
3),
P
4
=
1
8
_
35x
4
30x
2
+ 3
_
, etc.
Ejemplo 11.66. Los polinomios de Laguerre L
n
dados por h = e
x
, s = x,
c
n
= 1, en el intervalo (, ), es decir
L
n
(x) = e
x
d
n
dx
n
(x
n
e
x
)
por lo que los primeros terminos ser an:
L
0
= 1,
L
1
= x + 1,
L
2
= x
2
4x + 2,
L
3
= x
3
+ 9x
2
18x + 6,
L
4
= x
4
16x
3
+ 72x
2
+ 96x + 24, etc.
Ejercicio 11.67. Escriba los primeros 4 terminos y de una ecuaci on diferencial
caracteristica de los polinomios de Tchebichef de primera clase T
n
dados por
h = (1 x
2
)
1/2
, s = 1 x
2
, en el intervalo [1, 1].
Ejercicio 11.68. Escriba los primeros 4 terminos y de una ecuaci on diferencial
caracteristica de los polinomios de Jacobi P
,
n
dados por h = (1 x)

(1 +x)

,
> 1, > 1, s = 1 x
2
, en el intervalo [1, 1] .
Ejercicio 11.69. Escriba los primeros 4 terminos y de una ecuaci on diferencial
caracteristica de los polinomios de Gegenbauer C

n
dados por h = (1x
2
)
1/2
,
>
1
2
, s = 1 x
2
, en el intervalo [1, 1] .
Ejercicio 11.70. Escriba los primeros 4 terminos y de una ecuaci on diferencial
caracteristica de los polinomios de Tchebichef de segunda clase U
n
dados por
h = (1 x
2
)
1/2
, s = 1 x
2
, en el intervalo [1, 1] .
Todos estos polinomios especiales tienen la caracteristica de formar sistemas
completos en el espacio de funciones suaves. En fsica y qumica, las ecuaciones
186 11. ESPACIOS CON MEDIDA
diferenciales anteriores son muy comunes y como sus soluciones forman sistemas
completos, podemos escribir las funciones suaves como combinaci on lineal de estas
funciones especiales. Esta proceso es muy conveniente cuando se trabaja con estas
ecuaciones diferenciales. Para ver que estas forma sistemas completos, mostraremos
primero una serie de proposiciones.
Proposici on 11.71. Sea s, polinomio de grado dos y h funci on real, positiva
e integrable. Denotemos por p
k
a un polinomio arbitrario de grado k, entonces
(11.2)
d
m
dx
m
(hs
n
p
k
) = hs
nm
p
k+m
Demostraci on 11.72. Primero observemos que para n = 1 en (11.1), se
cumple que
P
1
(x) = c
1
1
h
d
dx
(hs) = c
1
s
1
h
dh
dx
+c
1
ds
dx
,
de donde que
s
dh
dx
= h
_
1
c
1
P
1

ds
dx
_
.
Ahora tomemos la derivada
d
dx
(hs
n
p
k
) = s
n
p
k
dh
dx
+hns
n1
p
k
ds
dx
+hs
n
dp
k
dx
= s
n1
h
_
p
k
_
1
c
1
P
1
+ (n 1)
ds
dx
_
+s
dp
k
dx
_
.
Como p
k
es cualquier polinomio de grado k y por denici on P
1
es un polinomio
de grado 1 y s es un polinomio de grado 2, se tiene que
d
dx
(hs
n
p
k
) = hs
n1
p
k+1
.
Si se sigue derivando la expresi on entre parentesis y siguiendo los mismos pasos,
se llega al resultado.
Observemos que del resultado anterior se tiene que
P
n
= c
n
1
h
d
n
dx
n
(hs
n
) = c
n
p
n
.
De aqui es entonces facil demostrar que
Proposici on 11.73. Todas las derivadas
d
m
dx
m
(hs
n
) con m < n, son cero en
x = a y x = b.
Demostraci on 11.74. Como
d
m
dx
m
(hs
n
p
k
)[
x=a
= h(a)s
nm
(a)p
k+m
= 0.

Usando las prorposiciones anteriores ya podemos demostrar el teorema prin-


cipal de esta secci on que arma que todo polinomio deducible de una formula de
Rodrigues, forma un conjunto ortonormal completo (una base ortonormal) en el
espacio de Hilbert correspondiente.
5. FUNCIONES ESPECIALES 187
Teorema 11.75. Sea
P
n
(x) = c
n
1
h
d
n
dx
n
(hs
n
).
Entonces los polinomios P
n

n=1,
forman un sistema ortonormal completo en
L
2
([a, b]) en el intervalo [a, b], con el producto interno
(f, g) =
_
A
f(x)g(x)h(x)dx.
Demostraci on 11.76. Es claro que L(P
0
, , P
n
) = L(1, x, , x
n
) , ya
que ambos forman una base del espacio de polinomios de grado n. Veamos que
P
n

n=1,
son ortonormales en L
2
([a, b]) con el producto interno
(P
n
, P
m
) =
_
A
P
n
(x)P
m
(x)h(x)dx.
Veamos primero que (p
n
, P
m
) = 0 para todo polinomio p
n
con n < m. Como
(p
n
, P
m
) = c
m
_
A
p
n
(x)
d
m
dx
m
(hs
m
)dx
integramos por partes m veces, como todas las derivadas de hs
n
son cero, se tiene
que
(p
n
, P
m
) = c
m
_
A
h(x)s(x)
m
d
m
p
n
dx
m
dx = 0.
Ahora bien, si en la integraci on anterior n = m, obtenemos:
(11.3) (p
n
, P
n
) = c
n
_
A
h(x)s(x)
n
d
n
p
n
dx
n
dx = c
n
n! a
n
_
A
h(x)s(x)
n
dx,
donde a
n
es el coeciente principal del polinomio p
n
. Podemos escoger
1
c
n
= n! a
n
_
A
h(x)s(x)
n
dx
y entonces se tiene que (P
n
, P
m
) =
nm
.
Es decir, basta con denir el producto interno para cada base de polinomios,
para poder escribir la serie de Fourier correspondiente. Demos algunos ejemplos.
Ejemplo 11.77. Los polinomios de Hermite H
n
estan dados por h = e
x
2
,
s = 1, c
n
= 1, en el intervalo (, ), su producto interno esta denido por
a
j
= (f, H
j
) =
_

f(x)H
j
(x)e
x
2
dx
entonces, cualquier funci on se puede escribir como f =

i=1
a
i
H
i
.
Ejemplo 11.78. Los polinomios de Legendre P
n
estan dados por h = 1, s =
1x
2
, c
n
= (1)
n
/ (2
n
n!), en el intervalo [1, 1], su producto interno esta denido
por
a
j
= (f, P
j
) =
_
1
1
f(x)P
j
(x)dx
entonces, cualquier funci on se puede escribir como f =

i=1
a
i
P
j
188 11. ESPACIOS CON MEDIDA
Ejemplo 11.79. Los polinomios de Laguerre L
n
dados por h = e
x
, s = x,
c
n
= 1, en el intervalo (, ), su producto interno esta denido por
L
n
(x) = a
j
= (f, L
j
) =
_

f(x)L
j
(x)e
x
dx
entonces, cualquier funci on se puede escribir como f =

i=1
a
i
L
i
Ejercicio 11.80. Dena un producto interno de los polinomios de Tchebichef
de primera clase T
n
.
Ejercicio 11.81. Dena un producto interno de los polinomios de Jacobi P.
Ejercicio 11.82. Dena un producto interno de los polinomios de Gegenbauer
C

n
.
Ejercicio 11.83. Dena un producto interno de los polinomios de Tchebichef
de segunda clase U
n
.
Todos esto polinomios son solucion de alguna ecuaci on diferencial. La ecuaci on
diferencial correspondiente se da en el siguiente teorema.
Teorema 11.84. Sea
P
n
(x) = c
n
1
h
d
n
dx
n
(hs
n
),
entonces
d
dx
_
sh
dP
n
dx
_
+
n
hP
n
= 0
donde
n
es un coeciente dado por

n
= n
_
1
c
1
dP
1
dx
+
1
2
(n 1)
d
2
s
dx
2
_
Demostraci on 11.85. Observemos que
1
h
d
dx
_
sh
dP
n
dx
_
=
1
h
d
dx
(shp
n1
)
donde p
n1
es un polinomio de grado n 1. Por (11.2) se tiene que
1
h
d
dx
_
sh
dP
n
dx
_
= p
n
.
Entonces podemos escribir esta relaci on como una combinaci on lineal de polinomios
P
j
, es decir
(11.4)
d
dx
_
sh
dP
n
dx
_
= h
n

j=0

j
n
P
j
.
Multiplicamos esta ecuaci on en ambos lados por P
m
, con m < n e integramos
_
A
P
m
d
dx
_
sh
dP
n
dx
_
dx =
n

j=1

j
n
_
A
hP
j
P
m
dx =
n

j=1

j
n

jm
=
m
n
5. FUNCIONES ESPECIALES 189
mientras que si integramos dos veces por partes el lado izquierdo, obtenemos
_
A
P
m
d
dx
_
sh
dP
n
dx
_
dx =
_
A
_
d
dx
P
m
_
sh
dP
n
dx
dx
=
_
A
_
1
h
d
dx
_
sh
d
dx
P
m
__
P
n
hdx = 0,
ya que de nuevo llegamos a un polinomio de grado m < n dentro del parentesis
cuadrado. Entonces (11.4) se puede escribir como
d
dx
_
sh
dP
n
dx
_
= h
n
n
P
n
:= h
n
P
n
.
De nuevo calculamos la integral
_
A
P
m
d
dx
_
sh
dP
n
dx
_
dx,
pero ahora para m = n, se tiene:
_
A
P
n
d
dx
_
sh
dP
n
dx
_
dx =
_
A
P
n
_
d
dx
(sh)
dP
n
dx
+sh
d
2
P
n
dx
2
_
dx
=
_
A
P
n
_
1
c
1
P
1
(x)
dP
n
dx
+s
d
2
P
n
dx
2
_
hdx
ya que
P
1
(x) = c
1
1
h
d
dx
(hs).
Ahora supongamos que P
1
(x) = l
0
+l
1
x, s(x) = s
0
+s
1
x+s
2
x
2
y P
n
(x) = a
n
x
n
+ ,
entonces la integral ser a
_
A
P
n
d
dx
_
sh
dP
n
dx
_
dx =
_
A
P
n
_
1
c
1
(l
1
a
n
nx
n
+ ) + (s
2
a
n
n(n 1) x
n
+ )
_
hdx
=
_
1
c
1
l
1
n +s
2
n(n 1)
_ _
A
a
n
x
n
P
n
hdx +
_
A
Kx
n1
P
n
hdx +
donde K es alguna constante. Sin embargo, como podemos ver en (11.3 ), s olo los
terminos de grado n del polinomio p
n
son diferentes de cero. Entonces
_
A
P
n
d
dx
_
sh
dP
n
dx
_
dx =
_
1
c
1
l
1
n +s
2
n(n 1)
_ _
A
P
n
P
n
hdx
por lo que

n
=
_
1
c
1
l
1
n +s
2
n(n 1)
_
= n
_
1
c
1
dP
1
dx
+
1
2
(n 1)
d
2
s
dx
2
_

Ejemplo 11.86. Los polinomios de Hermite H


n
estan dados por h = e
x
2
,
s = 1, c
n
= 1, por lo que los primeros terminos son: H
0
= 1, H
1
= 2x, etc.
Entonces
dH
1
dx
= 2,
d
2
s
dx
2
= 0.
Se tiene que
n
= 2n, la ecuaci on diferencial ser a
d
dx
_
e
x
2 dH
n
dx
_
2ne
x
2
H
n
= 0
190 11. ESPACIOS CON MEDIDA
o sea
d
2
dx
2
H
n
2x
d
dx
H
n
+ 2nH
n
= 0
para toda n = 0, 1, . A esta ecuaci on diferencial se le conoce como la ecuaci on
diferencial de Hermite.
Ejemplo 11.87. Los polinomios de Legendre P
n
estan dados por h = 1, s =
1 x
2
, c
1
= 1/2, por lo que los primeros terminos son: P
0
= 1, P
1
= x, etc.
Entonces
dP
1
dx
= 1,
d
2
s
dx
2
= 2.
Se tiene que
n
= n[2 (n 1)] la ecuaci on diferencial ser a
d
dx
_
_
1 x
2
_
dP
n
dx
_
+n(n + 1) P
n
= 0
o sea
_
1 x
2
_
d
2
dx
2
P
n
2x
d
dx
P
n
+n(n + 1) P
n
= 0
para toda n = 0, 1, . A esta ecuaci on diferencial se le conoce como la ecuaci on
diferencial de Legendre.
Ejemplo 11.88. Los polinomios de Laguerre L
n
dados por h = e
x
, s = x,
c
n
= 1, por lo que los primeros terminos son: L
0
= 1, L
1
= x +1, etc. Entonces
dL
1
dx
= 1,
d
2
s
dx
2
= 0.
Se tiene que
n
= n(1) y la ecuaci on diferencial de Laguerre ser a
d
dx
_
xe
x
dL
n
dx
_
+ne
x
L
n
= 0
o sea
x
d
2
dx
2
L
n
+ (1 x)
d
dx
L
n
+nL
n
= 0
para toda n = 0, 1, . A esta ecuaci on diferencial se le conoce como la ecuaci on
diferencial de Laguerre. Suelen denirse tambien los polinomios asociados
de Laguerre L
m
n
por la ecuaci on
L
m
n
(x) =
d
m
dx
m
L
n
las cuales son soluci on de la ecuaci on diferencial
x
d
2
dx
2
L
m
n
(m+ 1 x)
d
dx
L
m
n
+ (n m) L
m
n
= 0
Ejercicio 11.89. Escriba la ecuaci on diferencial de los polinomios de Tchebichef
de primera clase T
n
.
Ejercicio 11.90. Escriba la ecuaci on diferencial de los polinomios de Jacobi
P.
Ejercicio 11.91. Escriba la ecuaci on diferencial de los polinomios de Gegen-
bauer C

n
.
Ejercicio 11.92. Escriba la ecuaci on diferencial de los polinomios de Tchebichef
de segunda clase U
n
.
Part 5
ECUACIONES DIFERENCIALES
CHAPTER 12
ECUACIONES DIFERENCIALES ORDINARIAS
1. Metodos de Solucion
Las ecuaciones diferenciales son de una importancia escencial en todas las ramas
de las ciencias. La raz on es muy simple, todas las leyes fundamentales de las ciencias
tienen que ver con la caracteristica mas importante de la materia: el movimiento.
Las leyes fundamentales de las ciencias son relaciones entre movimientos en el es-
pacio, el tiempo, la temperatura, la presion, los momentos, las luminosidades, etc.,
las cuales se representan con derivadas. Estas relaciones entre el movimiento da
como resultado relaciones entre derivadas, es decir, da como resultado ecuaciones
diferenciales. Toda la materia esta en movimiento, esta es su caracteristica enscen-
cial. Lo est atico es solo una aproximacion del estado de la materia que en ocaciones
nos da resultados sucientemente buenos para entender alg un fenomeno. Pero el
movimiento esta inherente en toda la materia y las relaciones entre este moviminto
nos da las leyes fundamentales de la naturaleza. Es por eso que estas leyes pueden
casi siempre ser representadas por ecuaciones diferenciales. Una solucion de estas
ecuaciones diferenciales es un caso particular, una aplicacion de la ley que esta
siendo estudiada. En los dos capitulos que siguen estudiaremos las lineas mas ele-
mentales para la solucion de ecuaciones diferenciales. Vamos a iniciar con las mas
sencillas de estas, las ecuaciones diferenciales lineales. Por simplicidad iniciaremos
con ecuaciones diferenciales en donde el argumento, la incognita, solo depende de
una variable. A estas ecuaciones diferenciales se les llama ordinarias.
Definici on 12.1. Sea y : tal que y = y(x), funci on continua y derivable.
Una ecuaci on diferencial ordinaria es una relaci on tal que
F = F(x, y, y

, y

, ) = f(x), para toda F : C ([a, b])


Notaci on 12.2. En estos dos capitulos, y

representa la derivada de y respecto


de alguna variable, y

representa la segunda derivada de y, etc.


Definici on 12.3. Se dice que la ecuaci on diferencial es lineal, si F es lineal
en todas las entradas que contengan a y y sus derivadas.
Definici on 12.4. Se dice que la ecuaci on diferencial es de orden n, si la max-
ima derivada de y que aparece en la ecuaci on diferencial es la n-esima.
Definici on 12.5. Se dice que la ecuaci on diferencial es homogenea, si f(x) =
0.
Ejemplo 12.6. Sea F : C ([a, b])C ([a, b]) , tal que y

+a(x)y = f(x).
Se llama ecuaci on lineal ordinaria de primer orden.
Ejemplo 12.7. Sea F : C ([a, b]) C ([a, b]) C ([a, b]) , tal que
y

+ a(x)y

+ b(x)y = f(x). Se llama ecuaci on lineal ordinaria de segundo


orden, etc.
193
194 12. ECUACIONES DIFERENCIALES ORDINARIAS
Para ecuaciones diferenciales lineales, exiten dos proposiciones muy generales
Proposici on 12.8. La suma de dos soluciones de una ecuaci on diferencial
lineal homogenea, tambien es soluci on.
Demostraci on 12.9. Sea y
(n)
+a
n
(x)y
(n1)
+ +a
1
(x)y = 0 una ecuaci on
diferencial lineal homogenea y sean y
1
y y
2
soluciones. Entonces
y
(n)
1
+a
n
(x)y
(n1)
1
+ +a
1
(x)y
1
= 0
y
(n)
2
+a
n
(x)y
(n1)
2
+ +a
1
(x)y
2
= 0
implica
_
y
(n)
1
+y
(n)
2
_
+a
n
(x)
_
y
(n1)
1
+ y
(n1)
2
_
+ +a
1
(x) (y
1
+y
2
) = 0
Proposici on 12.10. La suma de una soluci on homogenea de una ecuaci on
diferenecial lineal cualquiera y la de una soluci on general de la misma ecuaci on
diferencial, tambien es soluci on.
Demostraci on 12.11. Sea y
(n)
+ a
n
(x)y
(n1)
+ + a
1
(x)y = f(x) una
ecuaci on diferencial lineal no-homogenea y sean y
1
una soluci on de la respectiva
ecuaci on diferencial homogenea y y
2
una soluci on general de la ecuaci on. Entonces
y
(n)
1
+a
n
(x)y
(n1)
1
+ +a
1
(x)y
1
= 0
y
(n)
2
+a
n
(x)y
(n1)
2
+ +a
1
(x)y
2
= f(x)
implica
_
y
(n)
1
+y
(n)
2
_
+a
n
(x)
_
y
(n1)
1
+ y
(n1)
2
_
+ +a
1
(x) (y
1
+y
2
) = f(x)
Otra proposicion que puede ser util es la siguiente:
Proposici on 12.12. Toda ecuaci on diferencial ordinaria lineal de orden n
puede ser escrita como un sistema de dos ecuaciones diferenciales de orden n 1.
Demostraci on 12.13. Sea y
(n)
+a
n
(x)y
(n1)
+ +a
1
(x)y = f(x). Denamos
z = y

. Entonces la ecuaci on se transforma en z


(n1)
+a
n
(x)z
(n2)
+ +a
1
(x)y =
f(x).
Corolario 12.14. Toda ecuaci on diferencial ordinaria lineal de orden n puede
ser escrita como un sistema de n ecuaciones diferenciales de orden 1.
Demostraci on 12.15. Denamos z
1
= y

, z
2
= y

= z

1
, , z
n1
= y
(n1)
=
z

n2
. Entonces la ecuaci on diferencial se transforma en z

n1
+a
n
(x)z
n1
+a
n1
(x)z
n2
+
+a
1
(x)y = f(x).
La soluciones de algunas ecuaciones diferenciales ordinarias puden ser enco-
tradas utilizando m

todos sencillos. El metodo mas com un es dando un ansatz,


esto es, proponiendo una funci on que nosotros creemos es muy parecida a la solucion
que queremos encontrar, es un poco adivinando el resultado. Vamos a iniciar con
el caso mas simple.
Proposici on 12.16. Sea y

+ a(x)y = f(x) una ecuaci on lineal ordinaria de


primer orden. Su soluci on esta dada por
(12.1) y(x) = exp(A(x))
_
x
x0
exp(A(z))f(z)dz
donde A

= a(x).
1. M

ETODOS DE SOLUCI

ON 195
Demostraci on 12.17. La manera mas simple de demostrar que (12.1) es la
soluci on de la ecuaci on diferencial, es subtituyendo la soluci on en la ecuaci on. Otra
forma es como sigue. Reescribamos la ecuaci on diferencial como y

+ A

y = f(x)
con A

= a(x) y multipliquemos la ecuaci on completa por exp(A). Obtenemos


exp(A)y

+ exp(A)A

y exp(A)f(x) = (exp(A)y)

exp(A)f(x) = 0
De aqui obetenemos que exp(A)y =
_
x
x0
exp(A(z))f(z)dz, de donde se obtiene
el resultado.
A la funci on exp(A) se le suele llamar factor integrante, ya que gracias a
el, una parte de la ecuaci on diferencial se puede integrar. Entonces la solucion
de la ecuacion diferencial linea ordinaria de primer orden se puede llevar a la res-
oluci on de una integral o tambien se dice, se reduce a cuadraturas. El problema
es ahora resolver la integral de la solucion, lo cual no siempre es posible hacerlo
analiticamente.
Ejemplo 12.18. Sea y

+
1
x
y a
0
x
5
= 0. Entonces A

=
1
x
, es decir A =
ln(x). Se tiene que exp(A) = x, por lo que la soluci on de la ecuaci on es y(x) =
1
x
_
x
x0
zz
5
dz =
a0
7x
_
x
7
+c
_
Ejercicio 12.19. Resolver :
1) y

+
1
x
y a
0
exp(x) = 0.
2) y

+
1
x
y a
0
sin(x) = 0.
3) y

+xy a
0
x = 0.
4) y

+xy a
0
1
x
= 0.
5) y

+ ln(x)y a
0
x = 0.
La siguiente ecuaci on en complejidad es la ecuaci on lineal de cualquier orden
en coecientes constantes.
Proposici on 12.20. Sea y
(n)
+ a
n
y
(n1)
+ + a
1
y = 0 una ecuaci on lineal
ordinaria homogenea de orden n y a
j
(, con j = 1, , n. Su soluci on esta dada
por
y(x) = c
n
exp(r
n
x) + +c
1
exp(r
1
x)
donde r
1
, , r
n
son las raices distintas del polinomio caracteristico de la
ecuaci on diferencial dado por r
n
+a
n
r
n1
+ +a
1
r = 0, o
y(x) =
_
c
i
x
i
+ c
1
x +c
0
_
exp(r
j
x) + +c
1
exp(r
1
x)
para cada raiz de multiplicidad i 1 del polinomio caracteristico.
Demostraci on 12.21. Lo que en realidad nos dice el teorema es que un ansatz
conveniente para resolver estas ecuaciones diferenciales es y(x) = c exp(rx), donde
c y r son constantes a determinar. Subtituimos este ansatz en la ecuaci on difer-
encial y obtenemos presisamente el polinomio caracteristico. En el caso de que
una raiz se repita i veces, tenemos que
_
c
i
x
i
+ c
1
x +c
_
exp(r
j
x) es tambien una
soluci on de la ecuaci on diferencial. La soluci on mas general, sera la suma de todas
las soluciones.
Ejemplo 12.22. Sea y

+ 2y

+ y = 0. El ansatz conveniente es y(x) =


c exp(rx). Substituimos en la ecuaci on diferencial para obtener: c exp(rx)
_
r
2
+ 2r + 1
_
=
0, lo que implica que
_
r
2
+ 1
_
2
= 0. Las raices del polinomio caracteristico son de-
generadas (repetidas) y son r
1,2
= 1. Se sigue que las soluciones de la ecuaci on
diferencial son:
196 12. ECUACIONES DIFERENCIALES ORDINARIAS
y
1
= c
1
xexp(x) y y
2
= c
0
exp(x).
La soluci on general es entonces dada por:
y(x) = (c
1
x +c
0
) exp(x)
Ejemplo 12.23. La ecuaci on del oscilador arm onico es
(12.2) y

+
2
y = 0.
El polinomio caracteristico es r
2
+
2
= 0. Este polinomio tiene 2 raices, r =

2
= i. Si es real, la soluci on de la ecuaci on diferencial es
y(x) = c
1
exp(ix) +c
2
exp(ix)
= c
1
(cos (x) +i sin (x)) +c
2
(cos (x) i sin (x))
= (c
1
+c
2
) cos (x) +i (c
1
c
2
) sin (x)
= A
1
cos (x) +A
2
sin (x)
= Asin () cos (x) +Acos () sin (x)
= Asin (x +)
= Bcos () cos (x) Bsin () sin (x)
= Bcos (x +)
donde c
1
+ c
2
= A
1
= Asin () = Bcos () y i (c
1
c
2
) = A
2
= Acos () =
Bsin(). Esta soluci on es una funci on oscilante. Si es imaginaria, la soluci on
sera
y(x) = c
1
exp(x) +c
2
exp(x)
que es una funci on monotona. Si es compleja, la soluci on es una mezcla de las
dos anteriores. Vean la gura 1.
Figure 1. La graca de las soluciones de la ecuaci on de
onda. La solucion gracada es exp(ix) +exp(ix) (lnea continua),
exp(x)+exp(x) (lnea punteada) y exp((0.3+i)x)+exp((0.3i)x)
(lnea rayada). Observen como la primera solucion es periodica, a
segunda es mon otona y la tercera es mixta.
1. M

ETODOS DE SOLUCI

ON 197
Ejercicio 12.24. La ecuaci on del oscilador arm onico amortiguado es y

+
hy

+
2
y = 0. Encontrar todas las soluciones de esta ecuaci on. Hacer un an alisis
del comportamiento de las soluciones.
Ejercicio 12.25. Resuelva la ecuaci on del oscilador armonico para las condi-
ciones iniciales y(0) = 0 , y

(0) = 1 y para y(0) = , y

(0) = 2 y graque las


soluciones para = 1.
Ejercicio 12.26. Resuelva la ecuaci on del oscilador armonico amortiguado
para las condiciones iniciales y(0) = 0, y

(0) = 1 y para y(0) = , y

(0) = 2 y
con = 1, graque las soluciones para h = 10, 1, 0.1 y 0.01. Explique el compor-
tamiento.
Para el caso de las ecuaciones de coecientes constantes no homogeneas, existen
varios metodos para encontrar la solucion. Uno metodo muy usado es el de proponer
un ansatz conveniente. Vamos a dar un ejemplo de como funciona este metodo.
Ejemplo 12.27. Tomemos la ecuaci on del oscilador arm onico reforzado, es
decir y

+
2
y = a sin(bx). Para encontrar las soluciones de esta ecuaci on, pro-
pongamos una soluci on (un ansatz) del tipo y(x) = Asin(x). Si substituimos en
la ecuaci on diferencial, obtenemos
A
2
sin(x) +
2
Asin(x) = a sin(bx).
Lo primero que observamos es que si hacemos = b, la ecuaci on se reduce a una
ecuaci on algebraica A
2
+
2
A = a, cuya soluci on es A = a/
_

2
_
. Por
lo que una soluci on de la ecuaci on del oscilador arm onico reforzado sera y(x) =
a/
_

2
_
sin(bx). Por la proposici on 12.10 se tiene que la soluci on general de la
ecuaci on diferencial es y(x) = c
1
sin(x) +c
2
cos(x) +a/
_

2
b
2
_
sin(bx). Vean
la gura 2.
Ejemplo 12.28. Se tiene una situaci on equivalente si se quiere resolver la
ecuaci on diferencial y

+
2
y = a exp(bx). Ahora el ansatz conveniente es y(x) =
Aexp(x). Haciendo lo mismo que en el ejemplo anterior se obtiene que la soluci on
general es y(x) = c
1
sin(x) +c
2
cos(x) +a/
_

2
+b
2
_
exp(bx)
Ejercicio 12.29. Resolver las siguientes ecuaciones diferenciales no homoge-
neas, usando un ansatz conveniente.
1) y

+
2
y = a
1
sin(b
1
x) +a
2
exp(b
2
x)
2) y

+hy

+
2
y = a
1
sin(b
1
x)
3) y

+hy

+
2
y = a
1
sin(b
1
x) +a
2
exp(b
2
x)
4) y

+hy

+
2
y = a
1
x
5) y

+hy

+
2
y = a
1
x +a
2
exp(b
2
x)
Sin embargo, en ocaciones resulta practicamente imposible dar un ansatz conve-
niente, entonces la ecuaci on diferencial de segundo orden tambien se puede reducir
a cuadraturas. El metodo es el siguiente
Algoritmo 12.30. Sea la ecuaci on diferencial
(12.3) y

+hy

+
2
y = f(x)
y y
hom
(x) = c
1
y
1
(x) + c
2
y
2
(x) la soluci on general de la ecuaci on homogenea cor-
respondiente. Entonces, la soluci on no homogenea de (12.3) se puede buscar,
198 12. ECUACIONES DIFERENCIALES ORDINARIAS
Figure 2. Soluciones de la ecuaci on del oscilador armonico re-
forzado. La soluciones gracadas son: cos(x) 1/(1 b
2
) sin(bx),
donde hemos hecho = 1 y a = 1. Las gracas corresponden a
b = 1.1, 1.01 y 1.001, de la mas peque na a la mas grande. Observen
como la solucion se hace grande conforme nos acercamos a b = 1,
que es el valor de la resonancia, es decir, cuando la frecuencia del
reforzamiento se acerca a la frecuencia de la solucion homogenea.
suponiendo que c
1
y c
2
son funciones de x. Es decir y
No hom
(x) = c
1
(x)y
1
(x) +
c
2
(x)y
2
(x). Si subtituimos este ansatz en (12.3), obtenemos
y
No hom
(x) = c
1
(x)y
1
(x) +c
2
(x)y
2
(x)
y

No hom
(x) = c
1
(x)y

1
(x) +c
2
(x)y

2
(x) +c

1
(x)y
1
(x) +c

2
(x)y
2
(x).
y

No hom
(x) = c
1
(x)y

1
(x) +c
2
(x)y

2
(x) +c

1
(x)y

1
(x) +c

2
(x)y

2
(x) +
c

1
(x)y

1
(x) +c

2
(x)y

2
(x) +c

1
(x)y
1
(x) +c

2
(x)y
2
(x).
de donde obtenemos que
y

No hom
+hy

No hom
+
2
y
No hom
=
h(c

1
(x)y
1
(x) +c

2
(x)y
2
(x)) + 2 (c

1
(x)y

1
(x) +c

2
(x)y

2
(x)) +c

1
(x)y
1
(x) +c

2
(x)y
2
(x)
= f(x) (12.4)
Ahora supongamos que c

1
(x)y
1
(x) +c

2
(x)y
2
(x) = 0, lo que implica que tambien
la derivada de este termino debe ser cero, es decir (c

1
(x)y
1
(x) +c

2
(x)y
2
(x))

=
c

1
(x)y
1
(x)+c

2
(x)y
2
(x)+c

1
(x)y

1
(x)+c

2
(x)y

2
(x) = 0. Si subtituimos este resultado
en la ecuaci on diferencial (12.4), obetenemos que
c

1
(x)y

1
(x) +c

2
(x)y

2
(x) = f(x)
Quiere decir que si encotramos dos funciones c
1
(x) y c
2
(x) que cumplan
c

1
(x)y
1
(x) +c

2
(x)y
2
(x) = 0
c

1
(x)y

1
(x) +c

2
(x)y

2
(x) = f(x)
2. TRANSFORMADAS INTEGRALES 199
obtendremos una soluci on no homogenea. Podemos resolver el sistema para las
funciones c
1
(x) y c
2
(x) usando el metodo de determinantes. El resultado es
c

1
(x) =
y
2
(x)f(x)
W (y
1
, y
2
)
c

2
(x) =
y
1
(x)f(x)
W (y
1
, y
2
)
donde hemos denido el determinante del sistema como
W (y
1
, y
2
) = y
1
y

2
y
2
y

1
con lo que ya podemos escribir la soluci on particular de la ecuaci on diferencial en
forma de cuadraturas. Esta es
y
No hom
(x) =
_
x
x0
(y
1
(t)y
2
(x) y
2
(t)y
1
(x))
W (y
1
, y
2
) (t)
f(t)dt
Por tanto, la soluci on general sera y(x) = c
1
y
1
(x) +c
2
y
2
(x) +y
No hom
(x)
Notaci on 12.31. Al determinante W (y
1
, y
2
) = y
1
y

2
y
2
y

1
se le llama Wron-
skiano
Ejercicio 12.32. Resuelva los Ejercicios 12.29 usando el algoritmo anterior.
Las ecuaciones diferenciales de segundo orden son especialmente interesantes
ya que en la mayoria de las teoras fsicas, sus ecuaciones de campo son de segundo
orden. Las ecuaciones de segundo orden mas comunes en todos los campos de las
ciencias son las ecuaciones con coecientes variables. El metodo de solucion es
variado, no hay un metodo unico para todas. Vamos a presentar algunos de los
metodos mas utilizados.
2. Transformadas Integrales
Las transformadas integrales son un mecanismo para simplicar ecuaciones
diferenciales. La idea es llevar a la ecuaci on diferencial a otro espacio en donde se
pueda resolver y luego con la transformaci on inversa regresar al espacio original.
Este ultimo paso no siempre es simple o en ocaciones sucede que la ecuaci on diferen-
cial es mas complicada en el espacio de llegada. Por eso no hay una receta universal
para todas las ecuaciones y por eso existen varias trasformaciones, cada una ade-
cuada para algunas de estas. Vamos a inicar con la denicion de transformaci on
integral.
Definici on 12.33. Sean f : ( ( y g : ( ( funciones y E un espacio
de Hilbert con producto interno (f, g) =
_
b
a
f g dx con x
s
E. La transformada
integral de una ecuaci on diferencial lineal de segundo orden
eq = y

+a(x)y

+(x)
2
y f(x)
respecto a x
s
, se dene como F(s) = (eq, x
s
).
El objetivo de esta transformada es el siguiente. Ya que
(yx
s
)

= yx

s
+y

x
s
,
el producto interno de y

con x
s
se puede escribir como:
(y

, x
s
) =
_
b
a
y

x
s
dx =
_
b
a
(y x
s
)

dx
_
b
a
y x

s
dx = y x
s
[
b
a
(y, x

s
) .
200 12. ECUACIONES DIFERENCIALES ORDINARIAS
Entonces conviene escoger una funci on del espacio de Hilbert para la cual tambien
conocemos el producto (y, x

s
). Si esto es posible, en ocaciones se puede encotrar
una solucion de la ecuaci on diferencial. Veamos algunos ejemplos.
Ejemplo 12.34. E un espacio de Hilbert real con x
s
= exp(sx) E y pro-
ducto interno (f, g) =
_

0
fgdx. Para esta funci on se cumple que
(y, x

s
) =
_

0
y (exp(sx))

dx = s (y, x
s
) .
De aqu se sigue
(y

, x
s
) =
_

0
y

exp(sx)dx = y exp(sx)[

0
+s (y, x
s
) = sF(s) y(0).
An alogamente se tiene que
(y

, x
s
) = s
2
F(s) y

(0) sy(0).
A esta transformada integral se le llama la transformada de Laplace.
Ejercicio 12.35. Demuestre que para la trasformada de Laplace, (y

, x
s
) =
s
2
F(s) y

(0) sy(0).
Ejemplo 12.36. Sea E el espacio de Hilbert del conjunto de las funciones
peri odicas en [0, 2] con producto interno (f, g) =
_
l
0
fgdx. Como se vi o en el
captulo de an alisis, ejemplo 10.25, un sistema ortonormal completo de este espacio
es
x
k

kI
=
_
1

2
,
1

sin(kt),
1

cos(kt)
_
k=1,
donde k = n/l y los coecientes de Fourier estan dados por
(f, x
k
)
kI
=
_
(f, cos(kt)) =
_
2
0
f cos(kt)dt,
(f, sin(kt)) =
_
2
0
f sin(kt)dt,
E
Podemos clasicar a estas funciones como las funcione pares cos(kt)
kI
=
x
p
k
y las funciones impares sin(kt)
kI
= x
i
k
. Para estas funciones se tiene:
_
y, (x
p
k
)

_
=
1

_
2
0
y (cos(kt))

dt = k
_
y, x
i
k
_
.
Entonces se sigue
(y

, x
p
k
) = k (y, x
k
) (y(0) y(l) cos(n))
mientras que para las funciones impares se tiene
(y

, x
i
k
) = k
_
y, x
i
k
_
A esta transformada se le llama transformada nita de Fourier.
Ejercicio 12.37. Demuestren que para la transformada nita de Fourier se
siguen las identidades:
(y

, x
p
k
) = k
2
(y, x
p
k
) (y

(0) y

(l) cos(n))
(y

, x
p
k
) = k
2
(y, x
p
k
) +k (y(0) y(l) cos(n))
2. TRANSFORMADAS INTEGRALES 201
Ejemplo 12.38. Sea E un espacio de Hilbert real con x
k
= exp(ikx) E y
producto interno (f, g) =
_

f gdx. An alogamente a la transformada de Laplace,


para esta funci on se cumple
(y, x

k
) =
_

y (exp(ikx))

dx = ik (y, x
k
) .
De donde se sigue que
(y

, x
k
) =
_

exp(ikx)dx = y exp(ikx)[

+ik (y, x
k
) = ikF(k),
para toda funci on tal que y() = y() = 0. Estas condiciones son tpicas en una
multitud de problemas fsicos, qumicos y de ingeniera. An alogamente se tiene:
(y

, x
k
) = k
2
F(k).
A esta transformada integral se le llama la transformada continua de Fourier.
Estas transformadas integrales tienen varias propiedades. Algunas de estas son
Teorema 12.39 (Transformada de Laplace). Sea E espacio de Hilbert y y E,
cuya transformada de Laplace es F(s) = (y, x
s
). Entonces
1) F es lineal
2) La transformada de exp(ax)y(x) es
(exp(ax)y(x), x
s
) = F(s a)
3) Si f(x) =
_
y(x a) para x > a
0 para x < a
, la transformada de f es
(f, x
s
) = exp(as)F(s)
4) La transformada de y(ax) es
(y(ax), x
s
) =
1
a
F
_
s
a
_
5) La transformada de
_
x
0
y(x)dx es
__
x
0
y(x)dx, x
s
_
=
1
s
F(s)
6) La transformada de x
n
y(x) es
(x
n
y(x), x
s
) = (1)
n
d
n
ds
n
F(s)
7) La transformada de y(x)/x es
_
y(x)
x
, x
s
_
=
_

s
F(t)dt
Ejercicio 12.40. Demostrar el Teorema anterior.
Con la ayuda de este teorema es posible encotrar la transformada de Laplace
de un sinnumero de funciones. Particularmente los incisos 6) y 7) del teorema nos
permite encontrar la trasformada de Laplace de funciones multiplicadas por un
exponente de x.
202 12. ECUACIONES DIFERENCIALES ORDINARIAS
Ejemplo 12.41. Tomemos la ecuaci on diferencial de Bessel
x
2
y

+xy

+x
2
y = 0.
Dado que (y

, x
s
) = sF(s) y(0), se tiene que
(xy

, x
s
) = (1)
d
ds
(sF(s) y(0)) .
An alogamente
_
x
2
y

, x
s
_
= (1)
2
d
2
ds
2
_
s
2
F(s) sy(0) y

(0)
_
.
As, la transformada de Laplace de la ecuaci on diferencial de Bessel es
_
y

+xy

+x
2
y, x
s
_
=
s
2
F

+ 4sF

+ 2F (sF

+F) +F

=
_
s
2
+ 1
_
F

+ 3sF

+F = 0
La soluci on de esta ecuaci on diferencial es
F(s) =
1

s
2
+ 1
.
En otras palabras, usando la propidad 4) del teorema de la transformada de Laplace,
se tiene que para la funci on de Bessel
(J
0
(ax), x
s
) =
1

s
2
+a
2
Como vemos, al transformar una ecuaci on diferencial al espacio de las funciones
de Laplace, generalmente se obtiene otra ecuaci on diferencial. En ocaciones mas
simple de resolver, pero no siempre. Es por eso que existen en general varios
metodos de sulucion. De hecho, uno de los procesos mas complicados de llevar
a cabo al resolver una ecuaci on diferencial con la transformada de Laplace, es
encontrar la transformada inversa.
Ejercicio 12.42. Encuentre la transformada de Laplace de las siguientes fun-
ciones
1) y(x) = 1
2) y(x) = x
n
3) y(x) = exp(ax)
4) y(x) = sin(ax)
5) y(x) = cos(ax)
6) y(x) = sinh(ax)
7) y(x) = cosh(ax)
Una situaci on analoga sucede con la transformada de Fourier. Daremos un
ejemplo:
Ejemplo 12.43. Sea f(x) =
_
1 para a < x < a
0 de otra forma
.
2. TRANSFORMADAS INTEGRALES 203
La transformaci on de Fourier de f(x) ser a
(f, x
k
) =
_

f(x) exp(ikx)dx
=
_
a
a
exp(ikx)dx =
1
ik
exp(ikx)

a
a
=
2
k
sin(ka).
En este punto es interesante notar que la funci on f(x) es una linea paralela que
pasa por uno y que va de a a a, mientras que su transformada es una funci on
sinosoidal que decae, vean la gura 3.
Figure 3. La transformada de Fourier de la funci on f = 1, para
el intervalo [a, a] y cero de lo contrario. Mientras que la funci on
es constante, su transformada de Fourier nos da una funci on os-
cilante. Este comportamiento se repite constantemente en esta
transformada y se utiliza mucho para hacer analisis de se nales.
sirve
Teorema 12.44 (Transformada de Fourier). Sea E espacio de Hilbert y y E,
cuya transformada de Fourier es F(k) = (y, x
k
). Entonces
1) F es lineal
2) La transformada de exp(iax)y(bx) es
(exp(iax)y(bx), x
k
) =
1
b
F
_
k a
b
_
204 12. ECUACIONES DIFERENCIALES ORDINARIAS
3) La transformada de x
n
y(x) es
(x
n
y(x), x
k
) = i
n
d
n
dk
n
F(k)
Ejercicio 12.45. Demostrar el teorema anterior.
Lo que vamos a ver a continuacion es un teorema que nos dice que pasa con la
transformada del producto de dos funciones. Este teorema es de gran importancia
y aplica en las transformaciones de Fourier, se llama el teorema de la convoluci on.
Para introducir el teorema, primero vamos a denir que es la convoluci on
Definici on 12.46. San E espacio de Hilbert y f : ( ( y g : ( ( funciones.
La convoluci on de f con g es la integral f g =
_

f(u)g(x u)du
Entonces se sigue el teorema:
Teorema 12.47 (de Convoluci on). San E espacio de Hilbert y f : ( ( y
g : ( ( funciones. Sea F(k) y G(k) sus respectivas transformadas de Fourier.
Entonces, la transformada de Fourier de la convoluci on de f y g, es el producto de
las tranformadas de f y g, es decir (f g, x
k
) = (f, x
k
) (g, x
k
)
Demostraci on 12.48.
_

fg exp(ikx)dx =
_

f(u)g(xu) exp(ikx)dudx.
Hacemos entonces v = x u para obtener
_

f g exp(ikx)dx =
_

f(u)g(v) exp(ik (u +v))dudv


=
_

f(u) exp(iku)du
_

g(v) exp(ikv)dv

3. Metodo de Series
El metodo de series o de polinomios es muy usado para resolver ecuaciones di-
renciales lineales de segundo orden con coecientes variables. Consiste en proponer
una solucion en series, es decir, usando el hecho de que (T, ) el conjunto de los poli-
nomios de grado arbitrario con su producto canonico y p
n

n=0,1,
= 1, x, x
2
,
es un sistema completo en C

. Entonces, toda funci on suave, solucion de una


ecuaci on diferencial se puede escribir como
f(x) =

n=0
(p x
n
) x
n
=

n=0
a
n
x
n
.
La serie se propone como un ansatz para resolver la ecuaci on diferencial y se en-
cuetran los coecientes a
n
del polinomio. Veamos esto con unos ejemplos.
Ejemplo 12.49. Tomemos de nuevo la ecuaci on diferencial de Bessel x
2
y

+
xy

+ x
2
y = 0. Entonces usemos el ansatz y(x) =

n=0
a
n
x
n
. Si subtituimos el
3. M

ETODO DE SERIES 205


ansatz en la ecuaci on, obtenemos
x
2

n=0
n(n 1)a
n
x
n2
+x

n=0
na
n
x
n1
+x
2

n=0
a
n
x
n
=

n=0
_
n(n 1)a
n
x
n
+na
n
x
n
+a
n
x
n+2
_
=

n=0
_
n
2
a
n
x
n
+a
n
x
n+2
_
= 0
Si escribimos los primeros terminos de esta serie, vemos que

n=0
_
n(n 1)a
n
x
n
+na
n
x
n
+a
n
x
n+2
_
=
_

_
0 +a
0
x
2
+ n = 0
a
1
x +a
1
x
3
+ n = 1
4a
2
x
2
+a
2
x
4
+ n = 2
9a
3
x
3
+a
3
x
5
+ n = 3
16a
4
x
4
+a
4
x
6
+ n = 4
25a
5
x
5
+a
5
x
7
+ n = 5
=
a
1
x + (a
0
+ 4a
2
) x
2
+ (a
1
+ 9a
3
) x
3
+ (a
2
+ 16a
4
) x
4
+ (a
3
+ 25a
5
) x
5
+ = 0
Como el espacio de polinomios (T, ) es l.i. , los coecientes de la suma deben de
ser igual a cero para cada n. Lo primero que observamos es que a
1
= 0. Pero
despues se tiene que:
a
n
+ (n + 2)
2
a
n+2
= 0
lo que implica la relaci on
a
n+2
=
a
n
(n + 2)
2
Esta realci on se llama la relaci on de recurrencia de la ecuaci on diferencial, ya
que conociendo los coecientes a
0
y a
1
, es posible conocer todos los demas. El
polinomio queda entonces como
y(x) = a
0

n=0
(1)
n
2
2n
(n!)
2
x
2n
A estos polinomios se les llama Polinomios de Bessel J
0
.
Ejemplo 12.50. Tomemos de nuevo la ecuaci on diferencial de Bessel
completa
x
2
y

+xy

+
_
x
2
k
2
_
y = 0.
Para resolver esta ecuaci on conviene tomar el ansatz del polinomio un poco modi-
cado. Para este caso tomemos y(x) =

n=0
a
n
x
n+l
. Subtituyendo este ansatz en
la ecuaci on diferencial se obtiene,
x
2

n=0
(n +l) (n +l 1)a
n
x
n+l2
+x

n=0
(n +l) a
n
x
n+l1
+
_
x
2
k
2
_

n=0
a
n
x
n+l
=

n=0
__
(n +l) (n +l 1) + (n +l) k
2
_
a
n
x
n+l
+a
n
x
n+l+2

= 0
206 12. ECUACIONES DIFERENCIALES ORDINARIAS
y hagamos el mismo an alisis que hicimos en el caso anterior,

n=0
__
(n +l) (n +l 1) + (n +l) k
2
_
a
n
x
n+l
+a
n
x
n+l+2

=
_

_
_
l(l 1) +l k
2
_
a
0
x
l
+a
0
x
l+2
n = 0
_
(1 +l) (1 +l 1) + (1 +l) k
2
_
a
1
x
1+l
+a
1
x
1+l+2
n = 1
_
(2 +l) (2 +l 1) + (2 +l) k
2
_
a
2
x
2+l
+a
2
x
2+l+2
n = 2
_
(3 +l) (3 +l 1) + (3 +l) k
2
_
a
3
x
3+l
+a
3
x
3+l+2
n = 3
y hacemos la comparaci on de los coecientes tal que se obtiene para el exponente
de x mas bajo
_
l
2
k
2
_
a
0
= 0
lo que implica l = k. El siguiente exponente implica
_
(1 +l) (1 +l 1) + (1 +l) k
2
_
a
1
= 0
De nuevo, como l = k, esta identidad se cumple solo si a
1
= 0. Para el resto de
los coecientes se cumple la realci on de recurrecia
a
n+2
=
a
n
(n + 2) (n + 2 + 2k)
por lo que los polinomios de Bessel completos estan dados por:
J
k
(x) =

n=0
(1)
n
2
2n
n! (n +k)!
x
2n+k
la soluci on de la ecuaci on de Bessel es entonces y(x) = a
0
J
k
+ a

0
J
k
, vean la gura
4.
Figure 4. . Funciones de Bessel para diferentes valores de k.
De la misma forma se pueden resolver una gran cantidad de ecuaciones difer-
enciales con coecientes variables. Algunas de ellas quedaran como ejercicios.
3. M

ETODO DE SERIES 207


Ejercicio 12.51. Usando el ansatz polinomial, resuelva la ecuaci on diferencial
1) De Hermite y

2xy

+ 2ky = 0
2) De Legendre
_
1 x
2
_
y

2xy

+
_
l (l + 1)
m
2
1x
2
_
y = 0
3) De Laguerre xy

+ (1 x) y

+ky = 0
En las fuguras 5, 6, 7 se muestran los polinomios de Hermite, Legendre y
Laguerre respectivamente para diferentes valores de sus parametros.
Figure 5. Polinomios de Hermite para diferentes valores de k.
Figure 6. Polinomios de Legendre para diferentes valores de l
con m = 0.
208 12. ECUACIONES DIFERENCIALES ORDINARIAS
Figure 7. Polinomios de Laguerre para diferentes valores de k.
CHAPTER 13
ECUACIONES DIFERENCIALES PARCIALES
1. Metodos de Solucion
Las ecuaciones fundamentales de la fsica, la qumica y la ingeniera son ecua-
ciones diferenciales parciales. En esta parte vamos a ocuparnos de las ecuaciones
mas usadas en la literatura de las ciencias fsicas, que son a su vez muy represen-
tativas de las ecuaciones diferenciales parciales lineales en general. Esta secci on
es tal vez la mas limitada de este curso, puesto que la cantidad de material sobre
este tema es muy basto. Aqui nos limitaremos a utilizar algunos metodos para la
resolucion de estas ecuaciones diferenciales en los casos mas simples y comunes que
hay. Las ecuaciones diferenciales que vamos a tratar en esta parte son:
: 1) La ecuacion de onda
(13.1) u =
2
u
1
v
2

2
u
t
2
= d(x, y, z)
: 2) La ecuacion de Difusi on
(13.2)
u
t
= (Du)
: 3) La ecuacion de Poisson
(13.3)
2
u = d(x, y, z)
donde u, d y D son funciones tales que u = u(x, y, z, t), d = d(x, y, z, t) y
la funci on D = D(x, y, z). A la funci on d se le llama la fuente.
Notaci on 13.1. El operador nabla se dene como
(13.4) =
_

x
,

y
,

z
_
y el operador
=
2
1/v
2

2
/t
2
es el operador dAlabertiano
Notaci on 13.2. Al operador
2
= se le conoce como Laplaciano.
Notaci on 13.3. En general denotaremos a los operadores diferenciales por L,
de tal forma que si por ejemplo L = , la ecuaci on de onda se escribe como Lu = d,
o si L =
2
, la ecuaci on de Poisson se escribe como Lu = d, etc.
Notaci on 13.4. A la ecuaci on homogenea de Poisson se le conoce como la
ecuaci on de Laplace.
Notaci on 13.5. Se suele clasicar a las ecuaciones diferenciales como ecua-
ciones hiperbolicas, como la ecuaci on de onda, ecuaciones parabolicas, como
la ecuaci on de difusi on y ecuaciones elipticas, como la ecuaci on de Poisson.
209
210 13. ECUACIONES DIFERENCIALES PARCIALES
En la mayoria de los casos, es conveniente utilizar las simetrias del sistema
para resolver la ecuaci on diferencial en cuestion. Para utilizar las simetrias es
conveniente tener en mente las forma del operador nabla y del operador laplaciano

2
en diferentes sistemas coordenados. Uno de los mas usados son las coordenadas
esfericas, en donde
x = r sin() cos()
y = r sin() sin()
z = r cos()

2
=
1
r
2

r
_
r
2

r
_
+
1
r
2
sin()

_
sin()

_
+
1
r
2
sin
2
()

2
y las coordenadas cilindricas, en donde
x = cos()
y = sin()
z = z

2
=
1

_
+
1

2
+

2
z
2
Las tres ecuaciones diferenciales (13.1-13.3) tienen gran importancia en fsica
y qumica, aunque aqu no nos ocuparemos de esto, solo de sus soluciones. Existen
tambien una gran cantidad de metodos de solucion para estas ecuaciones. En este
captulo nosotros nos limitaremos a tres metodos: separacion de variables, desar-
rollos de Fourier y funcon de Green. Vamos a iniciar con el metodo de separacion
de variables.
2. Separacion de Variables
El metodo de separacion de variables consiste en proponer un ansatz en el que
la funci on u se puede escribir como una funci on que depende del tiempo y otras
que dependen de las demas variables, es decir, como
u = X(x)Y (y)Z(z)T(t)
Ejemplo 13.6. Supongamos una cuerda de guitarra estirada y que se suelta
para sonar. La ecuaci on de la cuerda es la ecuaci on de onda sin fuente en una
dimensi on, digamos x. La ecuaci on de onda es
(13.5)

2
u
x
2

1
v
2

2
u
t
2
= 0
Ahora tomemos el ansatz u = X(x)T(t) y substituimos en la ecuaci on de onda
T

2
X
x
2

1
v
2
X

2
T
t
2
= 0
Si dividimos entre TX toda la ecuaci on, nos queda una parte que solo depende de
x y otra que solo depende de t. Como x y t son variables independientes, se sigue
que
1
X

2
X
x
2
=
1
v
2
T

2
T
t
2
= c
2. SEPARACI

ON DE VARIABLES 211
donde c es una constante arbitraria. La ecuaci on de onda se separa en dos ecua-
ciones diferenciales como la ecuaci on del oscilador arm onico
d
2
X
dx
2
+cX = 0
d
2
T
dt
2
+cv
2
T = 0
cuyas soluciones son X(x) = c
1
sin(

c (x +x
0
)) y T(x) = c
2
sin(

cv
2
(t +t
0
)). La
soluci on de la ecuaci on de onda es entonces
u(x, t) = c
1
sin
_
c (x + x
0
)
_
sin(

cv
2
(t +t
0
)).
Vamos a suponer que al tiempo t = 0, el guitarrista pulsa la cuerda una elon-
gaci on peque na l. Si la cuerda tiene una longitud L, se tiene que sin(0) = sin(x =
L) = 0. Esto quiere decir que al timpo t = 0, la cuerda tiene una elongaci on tipo
sin(x), con los extremos jos y puestos en x = 0 y x = L. Es decir, u(x, 0) =
c
1
sin(

c (x +x
0
)) sin(

cv
2
t
0
) = l sin(x/L). Esto implica que c
1
= l, x
0
= 0,

c = /L y

cv
2
t
0
= /2, es decir c = 1, t
0
= L/ (2v). La soluci on ser a entonces
u(x, t) = l sin
_

x
L
_
sin
_
v
L
_
t +
L
2v

__
,
vean la gura 1. Si en vez de una cuerda de guitarra se tuviera una cuerda de
violin, el arco en la cuerda causa no una elongaci on, sino una vibraci on. En este
caso,

c no seria igual a /L, sino estaria determinado por el n umero de ondas
causadas por el arco en la cuerda al tiempo t = 0.
Figure 1. La solucion de la cuerda vibrando. La longitud de la
cuerda aqu es L = 1, la elongaci on inicial es l = 0.1 y la velocidad
de propagacion de la onda v = 0.2. Se gracan varios momentos
de la vibracion de la cuerda.
Comentario 13.7. Observemos que sin(
v
L
_
t +
L
2v
_
) = cos(
v
L
t)
212 13. ECUACIONES DIFERENCIALES PARCIALES
Comentario 13.8. Un metodo equivalente para resolver la ecuaci on de onda
es proponiendo el ansatz u(x, t) = X(x) exp(ikt). Subtituyendo este ansatz en la
ecuaci on (13.5) se obtiene
d
2
X
dx
2
+
k
2
v
2
X = 0
que es la ecuaci on del oscilador arm onico de nuevo. La soluci on es la misma que
en el ejemplo, haciendo c = k
2
/v
2
. Sin embargo, utilizando este ansatz es posible
escribir la soluci on general (sin condiciones iniciales) en forma de una suma. Para
cada k se tiene una soluci on de la ecuaci on de onda. Por eso, la soluci on general
se puede escribir como
(13.6) u(x, t) =

k
u
k
sin
_
k
v
(x +x
k
)
_
e
ikt
Observemos que el conjunto sin(kx)
k=0, ,
es un conjunto completo. Es por
eso que a t = 0 uno puede ajustar alguna funci on que determine las condiciones
iniciales del problema. Igualmente se podra escoger otra forma de la soluci on de
la ecuaci on del oscilador arm onico y escribir en terminos de esta nueva forma las
condiciones iniciales del problema.
Ejemplo 13.9. Supongamos que en vez de una guitarra se tiene un violin tal
que al frotar el arco en la cuerda, produce una forma inicial de la cuerda de la forma
u(x, 0) =
3

k=3
u
k
sin (k/v (x +x
k
)). Explicitamente, la soluci on a todo tiempo se
ve como
u(x, t) = u
1
sin
_
k
v
(x +x
1
)
_
_
e
it
+e
it
_
+
u
2
sin
_
2
v
(x +x
2
)
_
_
e
i2t
+e
i2t
_
+
u
3
sin
_
3
v
(x +x
3
)
_
_
e
i3t
+e
i3t
_
Supongamos que u
0
= 0, u
1
= 4, u
2
= 2 y u
3
= 1 y que x
1
= 1, x
2
= 1 y
x
3
= 0, entonces la soluci on a tiempo t = 2 se ve como en la gura 2. Los modos
1, 2 y 3 se suman a cada instante. Cada uno de ellos es una funci on sinusoidal
perfecta, una onda monocromatica, pero al sumarse, la onda nal es distorcionada
por la suma de todas. Las ondas reales son as, sumas de ondas monocromaticas,
de funciones senos o cosenos con diferentes frecuencias y fases.
Ejercicio 13.10. Resuelvan el sistema con las condiciones iniciales u
0
= 0,
u
1
= 1, u
2
= 2 y u
3
= 4. Graquen la soluci on a todo tiempo con v = 1,
modicando los valores de las constantes x
k
.
Ejercicio 13.11. Resuelvan la ecuaci on de la cuerda pero ahora con las condi-
ciones iniciales u(x, 0) =
2

k=2
u
k
cos (kx/v), donde de nuevo u
0
= 0, u
1
= 4 y
u
2
= 1. Graquen la soluci on a todo tiempo con v = 1.
Notaci on 13.12. A las componentes de la sumatoria (13.6) se les conoce como
modos normales de vibraci on de la cuerda.
2. SEPARACI

ON DE VARIABLES 213
Figure 2. . Graca de la solucion de la ecuaci on de onda con
tres modos, aqu hemos puesto las condiciones iniciales con las
constantes u0 = 0, u1 = 4, u2 = 2 y u3 = 1, las fases de cada modo
son x1 = 1, x2 = 1 y x3 = 0. La solucion se graco al tiempo
t = 2.
Ejemplo 13.13. Vamos a suponer que la cuerda tiene una fuente. Es decir,
alguien o algo esta provocando la onda. En tal caso la ecuaci on de la onda se ve
como

2
u
x
2

1
v
2

2
u
t
2
= d(x, t)
Si la fuente es del tipo d = (x) sin(kt), podemos utilizar el ansatz u(x, t) =
X(x) sin(kt). Si subtituimos en la ecuaci on anterior se obtiene
d
2
X
dx
2
+
k
2
v
2
X = (x)
que es la ecuaci on del oscilador arm onico con fuentes. Esta ultima ecuaci on se
resuelve entonces como en la secci on anterior.
Ejemplo 13.14. Vamos a resolver la ecuaci on de la cuerda (X(0) = 0, X(L) =
0) suponiendo que la fuente de sonido es de un arco de violin tal que d(x, t) =
Acos(lx) sin(kt). La ecuaci on de onda, con el ansatz u = X(x) sin(kt), se reduce a
resolver la ecuaci on del oscilador con la fuente
d
2
X
dx
2
+
k
2
v
2
X = Acos(lx)
Usando las tecnicas estudiadas para resolver la ecuaci on del oscilador con fuentes,
encontramos que la soluci on es
X (x) =
A
_
l
2

k
2
v
2
_
_
Bsin
_
kx
v
_
cos
_
kx
v
_
+ cos (lx)
_
214 13. ECUACIONES DIFERENCIALES PARCIALES
donde
B =
cos
_
kL
v
_
cos (lL)
sin
_
kL
v
_ .
Lo primero que llama la atenci on es que cuando la frecuencia de la fuente k se
aproxima al valor lv, el factor fuera del parentesis crece sin lmite. Sin embargo, el
termino dentro del parentesis va a cero, de tal forma que en el lmite
lim
klv
X =
A
2
sin(lx) (x L)
l
,
por lo que la vibraci on es nita para todos los valores de k. La soluci on u(x, t) =
X(x) sin(kt), es una cuerda vibrante con extremos en el origen y en L, que se mueve
seg un la amplitud de vibraci on l.
Ejercicio 13.15. Graquen la soluci on anterior para k = 1, 2, con v = 1,
variando la longitud de la cuerda l y la amplitud de la fuente A.
Ejemplo 13.16. Supongamos ahora que hacemos resonar un tambor, es decir,
una membrana circular. Un tambor tiene simetria cilindrica (de hecho es un cilin-
dro), asi es que usaremos coordenadas cilindricas. La membrana no tiene espesor,
asi que u = u(, , t). La ecuaci on de onda es para este caso
1

_
+
1

2
u

2

1
v
2

2
u
t
2
= 0
Vamos a utilizar el mismo ansatz que en el ejemplo anterior, pero ahora en tres
dimensiones, u = R()()T(t). Substituimos y encotramos de nuevo que
1
R
1

_
+
1

2
=
1
v
2
T

2
T
t
2
= c
lo cual implica tres ecuaciones, una para cada funci on. Primero, la ecuaci on se
separa como sigue

2
T
t
2
+c
0
v
2
T = 0
1
R
1

_
+
1

2
= c
0
Ahora buscamos separar las dos variable restantes, es decir
1
R

_
+c
0

2
=
1

2
= c
1
de donde se obtiene una ecuaci on para cada variable
d
2

d
2
+c
1
= 0

_
+
_
c
0

2
c
1
_
R = 0
Las ecuaciones para T y son de nuevo la ecuaci on del oscilador arm onico. La
ecuaci on para R es la ecuaci on de Bessel, haciendo el cambio de variable c
0

2
= x
2
,
es f acil ver que la soluci on para la ecuaci on de R es R() = J

c1
(

c
0
). La soluci on
general ser a entonces
u(, , t) = u
0
J

c1
(

c
0
) sin (

c
1
( +
0
)) sin (

c
0
v (t +t
0
)) .
2. SEPARACI

ON DE VARIABLES 215
Supongamos que al tiempo t = 0 se le da un golpe al tambor que le provoca una
elongaci on de tama no l en el centro de la membrana. Como la membrana que vibra
esta ja en los extremos del crculo, se tendr a que
u(, , t) = u
0
J

c1
(

c
0
) sin (

c
1
( +
0
)) sin (

c
0
vt
0
) = lF(/L),
por ejemplo. De hecho, el unico problema al que ahora nos enfrentamos es el de
representar la funci on F(/L) en terminos de los polinomios de Bessel. Eso es
posible, porque los polinomios de Bessel son un conjunto completo. Finalmente
la soluci on quedara como la expresi on de la funci on F(/L) en terminos de los
polinomios de Bessel u(, , t) =

kI
u
k
J
k
(/L) sin(k) cos
_
v
L
t
_
, donde las con-
stentes u
k
son los coecientes que determinan la elongaci on inicial de la membrana
en terminos de las funciones de Bessel lF(/L) =

kI
u
k
J
k
(/L) sin (k).
Ejercicio 13.17. Resuelvan la ecuaci on de la cuerda pero ahora con las condi-
ciones iniciales lF(/L) =
2

k=2
u
k
J
k
(/L) sin (k), donde de nuevo u
0
= 0,
u
1
= 4 y u
2
= 1. Graquen la soluci on a todo tiempo con l = 1 y variando el
tama no del tambor L.
Notaci on 13.18. A la ecuaci on

2
u +k
2
u =
se le llama la ecuaci on de Helmholtz
Ejemplo 13.19. Vamos a resolver la ecuaci on homogenea de Helmholtz en
coordenadas esfericas. Usamos para esto, el metodo de separaci on de variables.
Proponemos el ansatz u(r, , ) = R(r)()(). Si subtituimos en la ecuaci on
diferencial, se obtiene
1
R
1
r
2

r
_
r
2
R
r
_
+
1

1
r
2
sin()

_
sin()

_
+
1

1
r
2
sin
2
()

2
+k
2
= 0
Para separar las variables, primero multiplicamos toda la ecuaci on por r
2
sin
2
()
y separamos la ecuaci on para . Se obtiene
1
R
sin
2
()

r
_
r
2
R
r
_
+
1

sin()

_
sin()

_
+r
2
sin
2
()k
2
= m
2
d
2

d
2
+m
2
= 0
la cual es otra vez la ecuaci on del oscilador arm onico para la funci on . Ahora
separamos las ecuaciones para R y para . Se obtiene
1
R

r
_
r
2
R
r
_
+k
2
r
2
=
1

1
sin()

_
sin()

_
+
m
2
sin
2
()
= l (l + 1)
en donde la constante la hemos llamado l (l + 1) por conveniencia. Nos queda una
ecuaci on para cada variable, estas son
d
dr
_
r
2
dR
dr
_
+
_
k
2
r
2
l (l + 1)
_
R = 0
1
sin()
d
d
_
sin()
d
d
_
+
_
l (l + 1)
m
2
sin
2
()
_
= 0
216 13. ECUACIONES DIFERENCIALES PARCIALES
Estas dos ecuaciones diferenciales pueden resolverse usando los metodos de la secci on
anterior. Sin embargo, estas dos ecuaciones ya son conocidas. Vamos a hacer un
cambio de variable. En la primera hagamos R = S/

r y en la segunda hagamos
x = cos(). La ecuaci on para R se convierte entonces en la ecuaci on de Bessel y la
ecuaci on para en la ecuaci on de Legendre, esto es
r
2
d
2
S
dr
2
+r
dS
dr
+
_
k
2
r
2

_
l +
1
2
_
2
_
S = 0
_
1 x
2
_
d
2

dx
2
2x
d
dx
+
_
l (l + 1)
m
2
1 x
2
_
= 0
La soluci on general de la ecuaci on de Helmholtz es entonces
u(r, , ) =

l,m
J
l+1/2
(kr)

r
P
m
l
(cos ()) e
im
Las condiciones de frontera de esta ecuaci on se deberan escribir en terminos de
estos polinomios.
Ejercicio 13.20. Graquen en coordenadas polares las supercies generadas
por las soluciones de la ecuaci on de Helmholtz para m = 0 y l = 0, 1, 2, variando el
valor de k.
Ejemplo 13.21. Ahora utilizaremos el metodo de separaci on de variables en la
ecuaci on de difusi on en una dimensi on. Subtituyamos el ansatz u(x, t) = X(x)T(t)
en la ecuaci on (13.2) para obtener
1
T
T
t
=
D
X

2
X
x
2
= c
donde estamos suponiendo que D es una constante. Separamos las variables y
obtenemos las dos ecuaciones
dT
dt
+cT = 0
d
2
X
dx
2
+
c
D
X = 0
La ecuaci on para T se pude resolver integrando directamente. Se obtiene que
T (t) = T
0
e
ct
mientras que la segunda es la ecuaci on del oscilador arm onico. Su
soluci on es
X (x) = c
1
e

c/D x
+c
2
e

c/D x
,
por lo que la soluci on de la ecuaci on de difusi on es
u(x, t) = c
1
e

c/D xct
+c
2
e

c/D xct
.
Los comportamientos de esta funci on son muy diversos seg un se tomen los valores
de los parametros que la determinan. Observemos primero el caso en que c/D es
positivo. Si c
1
= c
2
, la parte espacial de la soluci on es oscilante. La onda se dis-
olvera si c es tambien positivo, es decir, se disipa la onda, como en la gura 3. Si
c fuera negativa, la onda crece indenidamente. El comportamiento es muy difer-
ente si c/D es negativo. Entonces la soluci on no es una onda, sino una funci on
mon otona. Aunque si c es positivo, esta soluci on tambien se disipa, como se mues-
tra en la gura 4.
2. SEPARACI

ON DE VARIABLES 217
Figure 3. . Soluci on de la ecuaci on de difusi on unidimensional.
Se graca la funci on u(x, t) = [c1 exp(dx) +c2 exp(dx)] exp(ct),
donde d2 = c/D. Aqu se toma d imaginario con d = i y c = 1.
c1 = c2 = 1 por facilidad. La onda se disipa en el tiempo.
Figure 4. . Otra solucion de la ecuaci on de difusi on uni-
dimensional. Se graca la funci on u(x, t) = [c1 exp(dx) +
c2 exp(dx)] exp(ct), donde d2 = c/D. Aqu se toma d real
con d = 1 y c = 1. c1 = c2 = 1 por facilidad. Tambien aqu la
onda se disipa en el tiempo.
Comentario 13.22. De la misma forma que en la ecuaci on de onda, uno puede
iniciar con el ansatz u(x, t) = X(x) exp(kt). El resultado es que la funci on X es
soluci on de la ecuaci on del oscilador arm onico y la soluci on general se puede poner
218 13. ECUACIONES DIFERENCIALES PARCIALES
como una serie, es decir
(13.7) u(x, t) =

k
_
c
k
e

k/Dx
+d
k
e

k/Dx
_
e
kt
La funci on entre parentesis es la forma de la funci on u al tiempo t = 0 (o a
cualquier tiempo jo), escrita en terminos de las soluciones de la ecuaci on del
oscilador arm onico.
Ejercicio 13.23. Hagan un an alisis de esta soluci on para D > 0 y para D < 0
con la serie hasta k = 3. Graquen las soluciones para diferentes valores de las
constantes y traten de dar una interpretaci on en cada caso.
Ejemplo 13.24. La ecuaci on de Poisson es la ecuaci on diferencial eliptica
mas importante de la fsica. Vamos a usar el metodo de separaci on de variables
para resolverla. Vamos a iniciar primero utilizando el metodo para la ecuaci on de
Laplace en dos dimensiones, esto es

2
u
x
2
+

2
u
y
2
= 0
Apliquemos el ansatz u(x, y) = X(x)Y (y) en la ecuaci on diferencial, esto nos da
1
X

2
X
x
2
=
1
Y

2
u
y
2
= c
lo que nos da dos ecuaciones separadas de la forma
d
2
X
dx
2
cX = 0
d
2
Y
dy
2
+cY = 0
cuyas soluciones son X = X
0
sinh (

c (x +x
0
)) y Y = Y
0
sin (

c (y +y
0
)).
Ejemplo 13.25. Hay otra forma de resolver la ecuaci on de Poisson. Vamos a
efectuar el cambio de variable = x + iy en la ecuaci on de Posson de dos dimen-
siones. Utilizando la regla de la cadena, la ecuaci on de Poisson se reduce a
u

= 0
Si integramos esta ecuaci on obtenemos que u = Z () +

Z
_

_
es la soluci on general
de esta ecuaci on, donde la funci on Z es arbitraria y debe de escogerse seg un las
condiciones de frontera del sistema.
Ejercicio 13.26. Haciendo un procedimiento an alogo a la ecuaci on de onda,
den la expresi on para la soluci on en series de la ecuaci on de Laplace.
Comentario 13.27. Observemos que si hacemos el cambio de variable =
x +vt y = x vt en la ecuaci on de onda, esta se transforma en la ecuaci on

2
u

= 0
Por lo que la ecuaci on de onda tambien admite una soluci on con dos funciones
arbitrarias u = f
1
() +f
2
() = f
1
(x +vt) +f
2
(x vt).
Notaci on 13.28. A las coordenadas = x + vt y = x vt se les llama
coordenadas nulas.
2. SEPARACI

ON DE VARIABLES 219
Ejercicio 13.29. Usando el metodo de separaci on de variables, demuestre que
en coordenadas cilindricas, la ecuaci on de Laplace se reduce a las tres ecuaciones
d
2

d
2
+c
1
= 0

_
+
_
c
0

2
c
1
_
R = 0

2
Z
z
2
c
0
Z = 0
donde u = R(r)()Z(z). De la forma de la soluci on general de la ecuaci on.
Ejercicio 13.30. Usando el metodo de separaci on de variables, demuestre que
en coordenadas esfericas, la ecuaci on de Laplace se reduce a las tres ecuaciones
d
2

d
2
+m
2
= 0
d
dr
_
r
2
dR
dr
_
l (l + 1) R = 0
_
1 x
2
_
d
2

dx
2
2x
d
dx
+
_
l (l + 1)
m
2
1 x
2
_
= 0
donde u = R(r)()(), con x = cos ().
Ejemplo 13.31. Vamos a resolver la ecuaci on de Poisson para un problema
con simetria esferica, es decir, donde u = R(r) y d = d(r) solamente. Se tiene
entonces

2
u =
1
r
2
d
dr
_
r
2
dR
dr
_
= d
Podemos reducir este problema hasta cuadraturas, obtenemos
R =
_ _
1
r
2
dr
_
d r
2
dr
_
dr
Por ejemplo, si la densidad es d = d
0
/r
2
se obtiene que R = d
0
ln (r) c
1
/r + c
2
,
donde c
1
y c
2
son constantes arbitrarias. Si se tratara de un problema gravitacional,
u sera el potencial gravitacional y u seria la fuerza. En nuestro caso, la fuerza
ejercida por este potencial es

dR
dr
=

0
r

c
1
r
2
Ejercicio 13.32. Supongan que la densidad de un objeto es
1) d =
d0
r(r+1)
2
2) d =
d0
(r
2
+1)
3) d =
d0
(r+1)
3
Integren la ecuaci on de Poisson para estos casos y hagan un analisis cualitativo del
comportamiento de la soluci on para cada uno. Calculen F = du/dr para cada
inciso y graquen la funci on F.
220 13. ECUACIONES DIFERENCIALES PARCIALES
3. Metodo de series de Fourier
Otro metodo muy utilizado para resolver las ecuaciones diferenciales es de nuevo
el metodo de desarrollo de Fourier. Usaremos los resultados del captulo anterior
para resolver las ecuaciones en derivadas parciales. Para esto es mejor estudiar
algunos ejemplos.
Ejemplo 13.33. La ecuaci on de onda tambien se puede resolver usando los
desarrollos de Fourier. Escribamos la transformada de Fourier de la ecuaci on de
onda, es decir
_

2
u
1
v
2

2
u
t
2
_
exp(ikt)dt =

2
U +
k
2
v
2
U = (13.8)
donde U es la tranformada de Fourier de u, es decir
U = (u, x
k
) =
_

u exp(ikt)dt
y hemos usado las propiedades de la transformada de Fourier del ejemplo 12.38.
Por lo que se sigue
(13.9) u =
1
2
_

U exp(ikt)dk
En este caso, el problema de resolver la ecuaci on de onda se ha reducido a la
soluci on de la ecuaci on (13.8). Por ejemplo, en una dimensi on, esta ecuaci on es
la ecuaci on del oscilador arm onico.
Comentario 13.34. Observemos que la soluci on (13.8) es de hecho la misma
soluci on (13.6) en donde ahora la suma sobre k es llevada al lmite continuo. La
suma se convierte en una integral.
Ejemplo 13.35. De la misma forma en que la ecuaci on de onda se puede re-
solver por medio de transformadas integrales, la ecuaci on de difusi on tambien puede
ser reducida usando estas transformadas. Vamos a aplicar una transformaci on de
Laplace a la ecuaci on de difusi on. Esto es
_

0
_
u
t
(Du)
_
exp(st)dt = 0
implica sU u(x, 0) (DU) = 0 (13.10)
donde U es la transformada de Laplace de u, es decir
(13.11) U =
_

0
u exp(st)dt
Si D es una constante, la ecuaci on (13.10) se convierte en la ecuaci on de Helmholtz.
Comentario 13.36. An alogo al caso de la tranformaci on de Fourier, observe-
mos que la soluci on (13.11) es la misma que la soluci on (13.7), solo que en (13.11)
se ha tomado la suma continua de todos los modos de k, pasando la suma a una
integral.
4. FUNCIONES DE GREEN 221
4. Funciones de Green
Para la resolucion de ecuaciones diferenciales no homogeneas existe una tecnica
llamada funci on de Green. Basicamente consiste en escribir la funci on solucion y la
funci on de la parte no homogenea, en terminos de una base del espacio de Hilbert
correspondiente. Por sencillez se escoge la base correspondiente a las soluciones de
la ecuaci on homogenea. Vamos a ver esto.
Algoritmo 13.37. Sea Lu = 0 una ecuaci on diferencial. Sea Lu
k

k
u
k
= 0
una ecuaci on diferencial con soluciones u
k
en un espacio de Hilbert con el producto
interno (f, g) =
_
f g, siendo u
k

kI
una base de este espacio de Hilbert. Sea
Lu u = f
la ecuaci on diferencial no homogenea que queremos resolver. Podemos escribir la
funci on u y la funci on f en terminos de la base u
k

kI
, usando la serie de Fourier
en la base u
k

kI
, es decir
u =

kI
(u, u
k
) u
k
:=

kI
c
k
u
k
y
f =

kI
(f, u
k
) u
k
:=

kI
f
k
u
k
.
Si substituimos esto en la ecuaci on diferencial no homogenea, se obtiene

kI
c
k
(
k
) u
k
=

kI
f
k
u
k
como u
k
es una base del espacio de Hilbert, se sigue que las constantes c
k
deben
cumplir
c
k
=
f
k

=
(f, u
k
)

=
1

_
f u
k
Entonces la soluci on de la ecuaci on diferencial no homogenea ser a
u =

kI
u
k

_
f u
k
=
_

kI
u
k
(x)

u
k
(y) f (y) dy
Definici on 13.38. A la funci on
G(x, y) =

kI
u
k
(x) u
k
(y)

se le llama funci on de Green.


Definici on 13.39. A las funciones u
k
soluciones de la ecuaci on Lu
k

k
u
k
= 0
se les llama funciones propias del operador L y a las constantes
k
se les conoce
como valores propios del operador L.
222 13. ECUACIONES DIFERENCIALES PARCIALES
En terminos de la funci on de Green, la solucion de la ecuaci on diferencial no
homogenea se escribe como
(13.12) u (x) =
_
G(x, y)f (y) dy.
Ejemplo 13.40. Tomemos primero una ecuaci on sencilla. Vamos a deducir la
funci on de Green de la ecuaci on del oscilador arm onico. Esto es
d
2
dx
2
u +
2
u = 0
El operador L =
d
2
dx
2
y las fuciones propias de este operador, son las soluciones del
oscilador arm onico
d
2
dx
2
u
k

k
u
k
= 0
Si las condiciones de frontera son tales que u (0) = u (l) = 0, como el de una cuerda
ja vibrando, las funciones propias del operador son u (x) =
_
2/l sin(kx/l) y los
valores propios ser an
k
= (k/l)
2
. De donde la funci on de Green es
G(x, y) =
2
l

k=0
sin(
kx
l
) sin(
ky
l
)

_
k
l
_
2
Formalmente la soluci on de la ecuaci on del osclilador inhomogenea ser a
u (x) =
_
l
0
2
l

k=0
sin(
kx
l
) sin(
ky
l
)

_
k
l
_
2
f (y) dy
Ejemplo 13.41. Vamos a obtener la funci on de Green de la ecuaci on diferencial
de Legendre. La ecuaci on es
d
dx
_
_
1 x
2
_
du
dx
_
u = 0
Si tomamos al operador diferencial L =
d
dx
__
1 x
2
_
d
dx
_
en el intervalo [1, 1], los
valores propios del operador L ser an
n
= n(n + 1) y las funciones propias ser an
los polinomios de Legendre. Eso implica que la funci on de Green para la ecuaci on
diferencial de Legendre es
G(x, y) =
2n + 1
2

n=0
P
n
(x) P
n
(y)
+n(n + 1)
Entonces la soluci on de la ecuaci on de Legendre inhomogenea ser a
u (x) =
_
1
1
2n + 1
2

k=0
P
n
(x) P
n
(y)
+n(n + 1)
f (y) dy
Ejercicio 13.42. Escriban explicitamente la funci on de Green de las ecua-
ciones de
1) Laguerre
2) Bessel completa
3) Hermite
4. FUNCIONES DE GREEN 223
Comentario 13.43. Si utilizamos las propiedades de la delta de Dirac,
1.- (x) =
_
0 si x ,= 0
si x = 0
2.-
_
(x) dx = 1
3.-
_
f(z) (z x) dz = f (x)
4.- (x y) =
1
(2)
n
_

d
n
k exp(ik (x y)), para k, x, y
n
podemos dar un metodo alternativo para encontrar la funci on de Green. Usando la
propidad 3.-, observamos que
_
G(x, z) (z y) dz = G(x, y)
Si comparamos este resultado con (13.12), observamos que la funci on de Green es
una soluci on de la ecuaci on diferencial
LG(x, y) G(x, y) = (x y)
Comentario 13.44. En tres dimensiones, la delta de Dirac se escribe como
(r
1
r
2
) = (x
1
x
2
) (y
1
y
2
) (z
1
z
2
) en coordenadas cartesianas
=
1
r
2
1
(r
1
r
2
) (
1

2
) (cos (
1
) cos (
2
)) en coordenadas esfericas
= (
1

1
) (
1

2
) (z
1
z
2
) en coordenadas cilindricas
En muchas ocaciones es mas conveniente encontrar la funci on de Green usando
estas propiedades. Usando la propiedad 1.- de la delta de Dirac, se resuelve la
ecuaci on homogenea y luego esta solucion se une a la solucion de la ecuaci on con
la delta de Dirac. Vamos a estudiar un ejemplo.
Ejemplo 13.45. Regresemos una vez m as a la ecuaci on del oscilador arm onico
no homogeneo, con
(13.13)
d
2
dx
2
u +
2
u = (x y)
Para x ,= y, la ecuaci on diferencial es simplemente
d
2
dx
2
u +
2
u = 0
y por lo tanto tiene soluciones tales que u = Asin ( (x +x
0
)). Supongamos que
u =
_
Asin ( (x +x
A
)) para x < y
Bsin ( (x +x
B
)) para x > y
Si las condiciones de frontera son como antes, u (0) = u (l) = 0, debemos tener que
x
A
= 0 y x
B
= l. Ademas observemos lo siguiente. Si integramos la ecuaci on
(13.13) en una regi on innitecimal alrededor de y, obtenemos
_
y+
y
d
2
dx
2
u +
_
y+
y

2
u =
_
y+
y
(x y) =
d
dx
u

y+
y
= 1
para cuando 0. Esto implica que la derivada de u tiene una descontinuidad en
y igual a 1. Si volvemos a integrar esta ecuaci on, obtenemos que
u[
y+
y
= 0
224 13. ECUACIONES DIFERENCIALES PARCIALES
lo que implica que la funci on u misma no es discontinua. Si usamos este hecho,
debe cumplirse que en el punto y se sigue
Asin (y) = Bsin ( (y l))
A cos (y) + 1 = B cos ( (y l))
Este es un sistema de ecuaciones que se puede resolver para A y B. El resultado es
A =
sin ( (y l))
sin (y)
B =
sin(y)
sin (y)
Por lo que la funci on de Green es
G(x, y) =
1
sin (y)
_
sin ( (y l)) sin (x) para 0 < x < y
sin (y) sin ( (x l)) para y < x < l
Para el caso de una ecuaci on diferencial de varias dimensiones pero con coe-
cientes constantes, podemos dar una forma general de la funci on de Green en la
forma de su transformada de Fourier.
Proposici on 13.46. La funci on de Green del operador
L = a
0
+a
1

x
1
+ +a
n

x
n
+b
1

2
x
2
1
+ +b
n

2
x
2
n
es
G(x, y) =
1
(2)
n
_

d
n
k exp(ik (x y))
a
0
+ia
1
k
1
+ +ia
n
k
n
+ b
1
(ik
1
)
2
+ +b
n
(ik
n
)
2
,
para k = (k
1
, . . . , k
n
), x = (x
1
, . . . , x
n
) y y = (y
1
, . . . , y
n
)
Demostraci on 13.47. Observemos que

x
s
G(x, y) =
1
(2)
n
_

d
n
k

xs
exp
_
i

j
k
j
(x
j
y
j
)
_
a
0
+ia
1
k
1
+ +ia
n
k
n
+b
1
(ik
1
)
2
+ +b
n
(ik
n
)
2
=
1
(2)
n
_

d
n
k ik
s
exp
_
i

j
k
j
(x
j
y
j
)
_
a
0
+ia
1
k
1
+ +ia
n
k
n
+b
1
(ik
1
)
2
+ +b
n
(ik
n
)
2
=
Por lo que al subtituir G(x, y) en el operador L, se llega a LG(x, y) = (x y).

Como ejemplo vamos a encontrar la funci on de Green del operador nabla y de


algunos operadores relacionados con el.
Ejemplo 13.48. Encontremos la funci on de Green del operador
2
en coorde-
nadas cartesianas. Como ya vimos en la proposici on anterior, la funci on de Green
tiene la forma
G(x, y) =
1
(2)
3
_

d
3
k exp (ik (x y))
(ik
1
)
2
+ (ik
2
)
2
+ (ik
3
)
2
Ahora hagamos la integral. Para hacer la integral nos conviene utilizar coordenadas
esfericas en la variable k, esto es k
1
= k sin () cos (), k
2
= k sin() sin () y
4. FUNCIONES DE GREEN 225
k
3
= k cos (). Y por conveniencia podemos escoger k
3
en la direcci on x y para
obterner solo k (x y) = k [x y[ cos (). Entonces la integral se reduce a
G(x, y) =
1
(2)
3
_

0
dk
_
2
0
d
_

0
sin () d exp (ikRcos ())
donde hemos escrito R = [x y[. La integral
_

0
sin () d exp (ikRcos ()) =
2 sin(kR) /kR, por lo que
G(x, y) =
4
(2)
3
_

0
dk 2 sin(kR) /kR =
1
4R
Es decir, la funci on de Green para el operador Laplaciano es
G(x, y) =
1
4 [x y[
Ejercicio 13.49. Encuentre por este metodo la funci on de Green del operador
de Helmholtz
2
+k
2
Ejemplo 13.50. Ahora procedamos a encontrar la funci on de Green del oper-
ador DAlambertiano
=
2

1
v
2

2
t
2
.
Usando de nuevo la proposici on 13.46, la funci on de Green tiene la forma
G(x
4
, y
4
) =
1
(2)
4
_

d
4
k exp(ik
4
(x
4
y
4
))
(ik
1
)
2
+ (ik
2
)
2
+ (ik
3
)
2
1/v
2
(ik
4
)
2
donde x
4
= (x
1
, x
2
, x
3
, t) y y
4
= (y
1
, y
2
, y
3
, t

). Vamos a llamar a k = (k
1
, k
2
, k
3
)
a k
2
4
/v
2
=
2
y como en el ejemplo anterior R = x y
3
. Ademas llamemos
T = t t

. Con estas deniciones se obtiene que


G(x
4
, y
4
) =
1
(2)
3
_

d
3
k exp (ik R)
_

exp (ivT)
k
2

2
d
La integral
_

exp (iv (t t

))
k
2

2
d =
_
2 sin (kv (t t

)) / (kv) para t > t

0 para t < t

resuelta en el ejemplo 7.53 (en el capitulo de series de variable compleja). Si usamos


este resultado obtenemos
G(x
4
, y
4
) =
_

1
2
_

d
3
k exp (ik R)
1
kv
sin(kv (t t

)) para T > 0
0 para T < 0
Usando un procedimiento semejante al del ejemplo anterior para evaluar la primera
integral, obtenemos que
_

d
3
k exp (ik R)
1
kv
sin (kvT) =

v
R
_

dk [exp (ik (R +vT)) exp (ik (R vT))] =

2
2
v
R
[ (R +vT) (R vT)] =
2
2
v
R
(R vT)
donde hemos usado la propiedad 4.- de la delta de Dirac del comentario 13.43
y donde tambien hemos quitado la primera delta de Dirac del resultado ya que
226 13. ECUACIONES DIFERENCIALES PARCIALES
para T > 0 esta no contribuye. Entonces, la funci on de Green del operador
DAlambertiano es
G(x
4
, y
4
) =
_

v
4R
(R vT) para T > 0
0 para T < 0
Ejemplo 13.51. Para el operador de difusi on, el procedimiento es semejante.
Sea
L =

2
x
2

1
D

t
Claramente su funci on de Green esta dada por
G(x, t, y, t

) =
1
(2)
2
_

exp (ik
1
(x y) +ik
2
(t t

))
(ik
1
)
2
i/Dk
2
dk
1
dk
2
=
_

1
2
_
D
|tt

|
exp
_

(xy)
2
4D|tt

|
_
para t > t

0 para t < t

integral que fue evaluada en el ejemplo 7.53.


Ejercicio 13.52. Encuentren por este metodo la funci on de Green del operador
de difusi on completo
L =
2

1
D

t
Ejercicio 13.53. Encuentren por este metodo la funci on de Green del operador
de Schr odinger sin potencial
L = i

t
+

2
2m

2
en coordenadas cartesianas.
Part 6
TOPOLOG

IA
CHAPTER 14
ESPACIOS TOPOL

OGICOS
1. Denicion y Ejemplos
Los espacios topologicos son la base, entre otras cosas, de la estructura matematica
que le dar a forma a los conjuntos. Como veremos en esta secci on, basicamente dos
espacios topologicos son los mismos (homeomorcos), si se puede moldear uno de
ellos en plastilina y transformar este hasta llegar al otro sin romper la plastilina,
sin hacerle agujeros. Por ejemplo, un vaso para tomar agua y una pelota, seran
los mismos desde el punto de vista de la topologa, as mismo, una taza con una
aza es equivalente a una dona, etc. Estos espacios han adquirido importancia en
varias ramas de la fsica y la ingeniera para poder hacer modelos. Por ejemplo, en
la ingeniera, las im agenes que se obtienen en la computadora son dijitales, estan
hechas por pixeles discontinuos. En este caso, resulta muy inexacto para algunas
aplicaciones tomar el espacio metrico correspondiente. En la actualidad existen
varios modelos topologicos que prometen ser mas ecientes. En fsica, los campos
estan cuantizados, el campo gravitacional es el espacio tiempo mismo, si este est a
cuantizado, no pude ser metrizable y por tanto no hay una metrica que lo repre-
sente, el campo gravitacional vive entonces en espacios que no pueden ser modelados
por espacios metricos simples. Los espacios topologicos podran ser mas exactos
en modelar espacios cuantizados o los espacios cuanticos mismos. La geometra
diferencial es una herramienta que se utiliza hoy en da intensivamente en varias
ramas de la ciencia. El control autom atico necesita de esta herramienta en gran
medida. En este captulo veremos tanto la topologa como la geometra diferencial.
Iniciemos con la denicion de espacio topologico.
Definici on 14.1. Sea X conjunto y
X
P (X) subconjunto del conjunto po-
tencia P (X) . Un espacio topol ogico es el par (X,
X
) , tal que: y X pertenecen
a
X
y
X
es cerrado bajo uniones arbitrarias e intersecciones nitas.
Vamos a entender esta denicion. Explicitamente, un espacio topologico es un
subconjunto del conjunto potencia que cumple con los siguientes axiomas:
i) , X
X
es decir, el vacio y todo el conjunto siempre est an en la topologa

X
de X.
ii) Si U


X
con J (J un conjunto de ndices) entonces
J
U


X
, es
decir, la union arbitraria de elementos de
X
es un elemento de
X
.
iii) U
i

X
con i = 1, , n implica que
n
i=1
U
i

X
, es decir, la interseccion
nita de elementos de
X
es un elemento de
X
.
Notaci on 14.2. A los elementos de
X
se les llama abiertos, a sus comple-
mentos cerrados y a
X
se le llama topologa sobre X.
229
230 14. ESPACIOS TOPOL

OGICOS
Comentario 14.3. Noten que tanto el conjungo vacio como todo el conjunto
X son abiertos y cerrados a la vez, ya que
c
= X y X
c
= . Esta es una propiedad
de todos los espacios topol ogicos.
M as adelante veremos algunos ejemplos de espacios topologicos para ser mas
explicitos, pero por ahora vamos a denir algunos conceptos que nos van a servir
durante nuestra discusi on.
Definici on 14.4. Sea (X,
X
) espacio topol ogico, U
X
y x U. Se dice
entonces que U es una vecindad de x, se denota x U
x
. Un entorno de x X
es un sobconjunto N X, tal que x N y existe U
x
N, vean la gura 1.
Es decir, una vecindad de alg un punto es siempre un abierto que contiene
al punto, mientras el entorno es un conjunto mas grande que alg un abierto, que
contiene al punto, pero no es un abierto el mismo.
Figure 1. U
x
es una vecindad de x, es decir, es un abierto que
contiene a x. Un entorno de x, en cambio, es un sobconjunto de
X tal que x esta en N y N contiene a una vecindad de x.
Definici on 14.5. Sea (X,
X
) espacio topol ogico. Una cubierta de A X,
es una familia de abiertos | = U

K
tal que
K
U

= A. Una subcubierta 1
de |, es una familia 1 = V

J
tal que 1 es cubierta de A y V

1 implica
V

|.
En forma sencilla, una cubierta de A es simplemente un conjunto de abiertos
que cubre todo el conjunto A y una subcubierta de la cubierta es un subconjunto
de la cubierta que tambien cubre A. Ahora veamos algunos ejemplos de espacios
topologicos.
Ejemplo 14.6.
X
= P (X) es siempre una topologa llamada la topologa
discreta de X en donde cada elemento es un abierto de X.
Ejemplo 14.7.
X
= , X es llamada la topologa indiscreta de X.
Estos dos ejemplos nos dicen que todo conjunto tiene al menos dos topologas,
la discreta y la indiscreta. Es decir, se puede hacer de cualquier conjunto un espacio
topologico, incluso de un conjunto de borreguitos del campo.
1. DEFINICI

ON Y EJEMPLOS 231
Ejemplo 14.8. Si X = x , la unica topologa que existe es
X
= x ,
Ejemplo 14.9. Si X = a, b , existen 4 topologas
a)
1
X
= P (X) = , a , b , a, b
b)
2
X
= a, b ,
c)
3
X
= , a , a, b
d)
4
X
= , b , a, b
A las topologas
3
X
y
4
X
se les llama topologas de Sierpinski.
Estos son, tal vez, los espacios topologicos mas simples que podemos construir.
Ahora veremos otros espacios mas interesantes. Vamos a iniciar con los espacios

n
. Estos son espacios topologicos y tienen, claramente, muchas topologas. Sin
embargo, la topologa que generalmente usaremos aqu es la siguiente:
Ejemplo 14.10. X =
n
,
X
= uni on de bolas B
r
(x
0
), donde B
r
(x
0
) =
x
n
[ [x x
0
[ < r . Esta es la topologa can onica de
n
.
Observen que la construcci on de esta topologa se basa de hecho en la estructura
metrica de
n
. La demostracion de que esta ultima es una topologa para
n
la
incluimos en la construcci on de una topologa para todo espacio metrico en la
siguiente proposicion.
Proposici on 14.11. Sea (X, d) espacio metrico y = conjuntos abiertos en (X, d) .
Entonces (X, ) es un espacio topol ogico.
Demostraci on 14.12. Se tiene que:
i) X y son abiertos en (X, d) , ya que la bola B

(x) = y X [ d (x, y) [<


X y es abierto trivialmente.
ii) Sea A

I
una familia arbitraria de conjuntos abiertos en (X, d) . Para
cada , A

es uni on de bolas, A

=
K
B

(A

) y la uni on de la uni on de bolas


es abierto en (X, d) .
iii) Sean A
i
, i = 1, , n conjuntos abiertos en (X, d) y V =
n

i=1
A
i
. Si x V
implica que x A
i
para todo i = 1, , n. Entonces existen r
i
> 0
i=1, ,n
tales
que B
ri
(x) A
i
. Tomemos r = minr
i

i=1, ,n
, entonces B
r
(x) B
ri
(x) para
todo i = 1, , n y por tanto B
r
(x) A
i
para todo i = 1, , n. Esto implica que
B
r
(x) V , i.e. V es conjunto abierto en (X, d) .
Ejercicio 14.13. Demuestren que en todo espacio topol ogico la intesecci on
arbitraria de cerrados es cerrada y la uni on nita de cerrados es cerrada.
En los espacios metricos y normados es posible denir algunos conceptos como
continuidad o lmite debido a la existencia de la metrica o de la norma. En los
espacios topologicos esto tambien es posible, debido a la existencia de los abiertos.
Vamos a ejemplicar esto dando el concepto de lmite de una susecion. Veamos:
Definici on 14.14. Sea (X,
X
) espacio topol ogico y (x
i
) una sucesi on en X,
i Z
+
. Se dice que (x
i
) tiene el lmite x (o converge a x) si para todo vecindad
de x, U
x

X
existe un entero positivo N Z
+
tal que x
i
U
x
para todo indice
i N. Se denota como x
i
x o limx
i
= x.
Como ya vimos, todo espacio metrico es topologico, usando los abiertos denidos
por su metrica. Sin embargo, lo contrario no siempre se cumple, no todo espacio
232 14. ESPACIOS TOPOL

OGICOS
topologico es metrico. Es en este sentido que los espacios topologicos son mas gen-
erales que los espacios metricos. A veces es posible denir una metrica en un espacio
topologico, en este caso se dice que el espacio topologico es metrizable, formalmente
se dice que:
Definici on 14.15. Un espacio topol ogico (X,
X
) cuyos abiertos son los con-
juntos abiertos del espacio metrico (X, d), se dice metrizable. A la topologa
X
sobre X se le llama topologa inducida por la distancia d.
Veamos la siguiente interesante proposicion:
Proposici on 14.16. En todo espacio topol ogico (X,
X
) metrizable, para cualquier
par de puntos, siempre existen dos vecindades disjuntas.
Demostraci on 14.17. (X,
X
) es metrizable, implica que existe una distancia
d que induce
X
. Sean x, y X con x ,= y, entonces d (x, y) = 2 para alg un > 0.
Tomemos las bolas B

(x) = z X [ d (x, z) < y B

(y) = w X [ d (w, y) < ,


los cuales son abiertos de
X
. Supongamos z B

(x) B

(y) , se sigue que


d (x, y) d (x, z) + d (z, y) < + = 2, pero d (x, y) = 2, lo cual es una con-
tradicci on. Por tanto z / B

(x) B

(y) se sigue entonces que B

(x) B

(y) = .

De esta proposicion se desprende que si queremos construir un espacio topologico


metrizable, le tenemos que pedir primero que existan dos vecindades disjuntas
para cada punto. Mas adelante veremos que a estos espacios se les llama espa-
cios topologicos tipo T
2
o Hausdor.
En ocaciones los conjuntos son productos cartesianos de espacios topologicos o
se pueden descomponer en productos cartesianos de estos. En ese caso, si cada com-
ponente es un espacio topologico, el espacio total tambien lo sera. Este resultado
se sigue de la proposicion:
Proposici on 14.18. El producto cartesiano de espacios topol ogicos es un es-
pacio topol ogico.
Demostraci on 14.19. Sean (X,
X
) y (Y,
Y
) espacios y (X Y,
XY
) con

XY
= uniones de elementos U V
X

Y
. Entonces
i)
XY
ya que = , y X Y
XY
ya que X Y
X

Y
.
ii) Sean W =
j
U

y W

=
k
U

, U
,
U


X
, V
,
V


Y
,
para toda J, K. Entonces W W

=
J
U


k
U

(,)JK
U


XY
.
iii) Sea W

=
M
(U

)
XY
. Entonces
L
W

=
(,)LM
U


XY
.
Al par (X Y,
XY
) se le llama producto topologico de los espacios (X,
X
)
y (Y,
Y
).
As mismo, se puede construir un espacio topologico de un subconjunto de un
espacio topologico utilizando la topologa del espacio original. Esto se ve en la
siguiente proposicion:
2. CERRADURA, INTERIOR Y FRONTERA 233
Proposici on 14.20. Sea (X,
X
) espacio topol ogico y A X. Sea
A
=
A U, U
X
. Entonces el par (A,
A
) es un espacio llamado subespacio topol ogico
de X.
Demostraci on 14.21. i)
A
ya que A = y A
A
ya que AX = A.
ii) Sean U


X
y AU


A
, J. Entonces
J
AU

= A
J
U


A
.
iii) Sean U
i

X
, i = 1, , n y A U
i

A
. Entonces
n

i=1
A U
i
=
A
n

i=1
U
i

A
. Se sigue que (A,
A
) es espacio topol ogico.
Notaci on 14.22. A
A
se le llama la topologa relativa o inducida por
X
sobre X.
Con esta proposicion es entonces facil ver que muchos espacios son topologicos
porque heredan la topolgia de alg un espacio mayor. Veamos un ejemplo importante
que usaremos a lo largo de este captulo.
Ejemplo 14.23. Sea n Z. La n-esfera S
n
se dene como un subespacio de

n+1
como
S
n
=
_
x
n+1
[
n+1

i=1
_
x
i
_
2
= 1
_
x = (x
1
, , x
n+1
)
As,
S
0
=
_
x [ x
2
= 1
_
= 1, 1 ,
S
1
=
_
(x, y)
2
[ x
2
+y
2
= 1
_
,
S
2
=
_
(x, y, z)
3
[ x
2
+y
2
+z
2
= 1
_
etc.
La topologa de S
n
ser a
S
n = S
n
U [ U

n+1 .
De la misma forma se pueden conocer los cerrados de un subespacio topologico,
conociendo los cerrados del espacio original, usando la proposicion siguiente:
Proposici on 14.24. Sea (A,
A
) subespacio topol ogico de (X,
X
) . V A es
cerrado en A s y s olo s V = A R con R cerrado en X.
Demostraci on 14.25. =) V cerrado en A implica que existe W
A
tal
que V = A W, con W = A U, lo que implica que V = A A U = A U
c
con
U
c
cerrado en X.
=) Sea R cerrado en X. Consideremos B = A R esto implica que B
c
=
A B = A A R = A R
c
, y como R
c
es abierto en X, B
c
es abierto en A, es
decir B es cerrado en A.
2. Cerradura, Interior y Frontera
En esta secci on veremos tres conceptos para distinguir regiones de nuestro
espacio topologico. Si nuestro conjunto tiene una topologa, podemos distinguir la
region en donde termina el espacio, donde es adentro y afuera. Vamos a denir
estos conceptos. Iniciemos por denir un punto de adherencia.
Definici on 14.26. Sea (X,
X
) espacio topol ogico, A X y p X. Un punto
de adherencia p de A es aquel que toda vecindad de p no es disjunta con A, es
decir p es punto de adherencia si para toda U
p

X
se cumple U
p
A ,= , vean la
gura 2.
234 14. ESPACIOS TOPOL

OGICOS
Figure 2. Los puntos de adherencia del conjunto A. En la gura
se muestran puntos de adherencia y puntos que no son de adheren-
cia del conjunto A.
Al conjunto de todos los puntos de adherencia se le llama la clausura, que nos
servira para denir el interior del espacio.
Definici on 14.27. Al conjunto de puntos de adherencia se le llama clausura
y se denota por A, vean la gura 3
Figure 3. Los puntos de adherencia forman la clausura del con-
junto A. Hay que comparar esta gura con la gura 2, en donde
se muestran los puntos de adherencia del conjunto A.
Comentario 14.28. Noten que si p A, implica que U
p
A ,= , por tanto
A A
Veamos una serie de proposiciones referentes a la cerradura de un conjunto,
con el objetivo de concluir que la clausura es un conjunto cerrado. Veamos esto.
2. CERRADURA, INTERIOR Y FRONTERA 235
Proposici on 14.29. A es cerrado ssi A = A.
Demostraci on 14.30. =) Sea p A, i.e. para todo U
p

X
se cumple
U
p
A ,= . Supongamos que p / A, entonces p A
c
= X A
X
, ya que A
es cerrado. Entonces existe V
p

X
con V
p
X A o sea V
p
A = , lo cual
contradice el hecho que p A, entonces p A, i.e. A A.
=) Sea q A
c
y por tanto q / A, entonces existe V
q

X
con V
q
A =
i.e. V
q
A
c
para toda q. Entonces A
c
es abierto.
Corolario 14.31. A cerrado implica que A es cerrado.
Proposici on 14.32. A es la intersecci on de todos los cerrados en X que con-
tienen a A.
Demostraci on 14.33. Sea R = R

[ A R

, R

cerrado
J
. Sea x

j
R

. Demostremos que x es punto de adherencia de A, o sea que x A. Sea


M
X
con x M. Supongamos M A = esto implica que A M
c
que es un
cerrado que contiene a A, entonces x M
c
ya que M
c
= R

para alg un , lo que


es una contradicci on. Por lo tanto M A ,= . Sea q A y sea R

para alg un
J. A R

implica que A R

= R

se sigue entonces que q R

para
todo J es decir q
J
R

.
Corolario 14.34. A es cerrado.
Ejemplo 14.35. Los ejemplos m as representativos y simples son en la recta
real con la topologa can onica. Es claro que [a, b] es cerrado. La cerradura de
(a, b) = [a, b], etc.
Ejemplo 14.36. La cerradura del conjunto de los racionales o del conjunto de
los irracionales son los reales, ya que junto a un racional siempre hay un irracional
y junto a un irracional hay un racional.
Ejemplo 14.37. Un ejemplo m as interesante es el conjunto Z. Observemos
que Z = .
Ejercicio 14.38. Demuestren que
a) A B A B
b) A B A B
De una manera analoga se puede hacer lo mismo para puntos interiores de un
conjunto. Estos se denen como:
Definici on 14.39. Sea (X,
X
) espacio topol ogico y p X. p es punto inte-
rior de A X si existe V
p

X
con V
p
A, vean la gura 4.
Definici on 14.40. Al conjunto de puntos interiores de A X se le llama
interior y se denota por

A. Note que p

A implica que existe V


p

X
con
p V
p
A, es decir

A A, vean la gura 5
Proposici on 14.41. A es abierto ss A =

A.
Demostraci on 14.42. =) Sea p A, implica que existe V
p

X
con V
p
A,
es decir p

A se sigue entonces que A

A.
=) Sea p A, como A =

A, entonces existe V
p

X
con V
p
A, esto es, A
es abierto.
236 14. ESPACIOS TOPOL

OGICOS
Figure 4. La gura muestra los puntos interiores de A y algunos
que no son puntos interiores de A. Compare esta gura con las
guras 2 y 3 anteriores sobre puntos de adherencia.
Figure 5. El interior de A. Compare esta gura con la gura 3
que muestra la cerradura de A.
Proposici on 14.43.

A es la uni on de todos los abiertos de X contenidos en
A .
Demostraci on 14.44. Sea U = U

[ U

A. U

abierto
J
. Sea q

J
U

entonces q U

para alg un J tal que U

A, por tanto q

A, sea
x

A. Esto implica que existe V


x

X
con x V
x
A, o sea x
xJ
U

, por lo
tanto

A=
J
U

.
Corolario 14.45.

A es abierto.
2. CERRADURA, INTERIOR Y FRONTERA 237
Ejemplo 14.46. Los ejemplos m as representativos y simples de nuevo son en
la recta real con la topologa can onica. Es claro que (a, b) es abierto. El interior de
[a, b]
o
= (a, b), etc.
Ejemplo 14.47. El interior del conjunto de los racionales o del conjunto de los
irracionales es vacio, ya que no hay abiertos que contengan racionales o irracionales
solamente.
Ejemplo 14.48. Un ejemplo m as interesante es de nuevo el conjunto Z.
Observemos que (Z)
o
= Z
Entonces, el interior es abierto y la cerradura es un cerrado. Para dar un
criterio de donde termina el espacio topologico, se dene la frontera del conjunto.
La idea intiutiva es simple y su denicion formal es como sigue:
Definici on 14.49. La frontera (topol ogica) de A es la intersecci on de las
cerraduras de A y su complemento, se denota A, i.e.
A = A A
c
La frontera de A tiene las siguientes propiedades:
i) A es cerrado, ya que es interseccion de cerrados.
ii) A
c
= A
c
(A
c
)
c
= A
c
A = A
iii) A = AA ya que si p A y p / A se sigue que p A
c
A A
c
A = A,
lo que implica que A AA, de la misma forma, si p A esto implica que p A
o y si p A implica que p A ya que A = A A
c
.
iv) A = ss A es cerrado y abierto a la vez. Esto es debido a que si A =
se sigue que A = A ya que A = A A, es decir A es cerrado. Por otro lado como
A = A, si A A
c
= esto implica que A
c
A
c
, pero como A
c
A
c
, se sigue que
A
c
= A
c
, entonces A
c
es cerrado, por lo que A es abierto. Al contrario, si A es
cerrado, se sigue que A = A, A abierto implica que A
c
es cerrado y por lo tanto
A
c
= A
c
. Entonces A A
c
= A A
c
= .
v) X = = ya que X y son abiertos y cerrados.
vi) A es cerrado ss A A, ya que A cerrado implica que A = A = A A y
por lo tanto A A. A la inversa A A implica que A A = A = A de donde
se sigue que A es cerrado.
Ejemplo 14.50. Tomemos de nuevo un ejemplo sobre la recta real con la
topologa can onica. La frontera de (a, b) = (a, b)

(a, b)
c
= [a, b]

(, a]
[b, ) = a, b, etc.
Ejemplo 14.51. Regresemos al conjunto Z. Observemos que
(Z) = (Z)

(Z)
c
=

Z = Z.
Es decir, el conjunto Z es un conjunto abierto, cuya cerradura es y su
frontera es Z. Esto tambien quiere decir que Z es un conjunto cerrado, pues es la
frontera de Z.
Ejercicio 14.52. Demuestre que la frontera del conjunto de los racionales o
del conjunto de los irracionales son los reales.
Para terminar esta secci on, vamos a denir un conjunto denso. Un conjunto es
denso si su cerradura es todo el espacio, esto es:
Definici on 14.53. A es denso en X si A = X.
238 14. ESPACIOS TOPOL

OGICOS
Ejemplo 14.54. Cl aramente Z es denso en los reales, pues su cerradura son
los reales.
Comentario 14.55. Note que si A es un espacio metrico, A es denso si para
todo x X y para todo > 0 existe p A tal que p B

(x).
3. Funciones Continuas
En esta secci on vamos a introducir conceptos tpicos de espacios normados
o metricos relacionados con funciones, pero usando solo la topologa del espacio.
Vamos a iniciar con el concepto de continuidad de funciones en espacios topologicos.
Basicamente la idea es la misma que en espacios metricos, pero como aqu no
tenemos una distancia, tenemos que usar solo la existencia de los abiertos. La
idea es entonces, que si podemos mapear un abierto, tan arbitrario (peque no)
como sea, y este es tambien abierto en el dominio, entonces la funci on es continua.
Formalmente se tiene:
Definici on 14.56. Sean (X,
X
) y (Y,
y
) espacios topol ogicos. Se dice que el
mapeo f : X Y x f(x) es una funci on continua, si f
1
(V )
X
para todo
V
Y
, i.e. preim agenes de abiertos son abiertas.
Notaci on 14.57. Al conjunto de funciones continuas se denota por Map(X, Y ) =
C
0
(X, Y ).
Dado que en un espacio metrico la topologa se construye con los abiertos del
espacio, podemos demostrar una serie de proposiciones en espacios topologicos que
despues se pueden extender a espacios metricos o normados. Veamos la siguiente
proposicion.
Proposici on 14.58. Sean (X,
X
) y (Y,
Y
) espacios topol ogicos f : X Y,
funci on. Son equivalentes
1) f es continua.
2) Para todo x X y W
f(x)

Y
existe V
x

X
tal que f(V
x
) W
f(x)
3) f(A) f(A) para todo A X
4) f
1
(B) f
1
(B) para todo B Y
5) Si A es cerrado en Y implica que f
1
(a) es cerrado en X.
Demostraci on 14.59. 1) = 2) Sean x X y W
f(x)

Y
; como f es
continua x f
1
(W
f(x)
)
x
y entonces existe V
x

X
tal que V
x
f
1
(W
f(x)
),
se sigue entonces que f(V
x
) W
f(x)
.
2) = 3) Sea b A, entonces para todo U
b

X
se sigue que U
b
A ,= ,
entonces ,= f(U
b
A) f(U
b
) f(A). Sea W
f(b)

Y
arbitrario, por 2) existe
V
b

X
con f(V
b
) W
f(b)
, por lo que f(V
b
) f(A) W
f(b)
f(A) es decir
f(b) f(A).
3) = 4) Sea a = f
1
(B) con B Y ; por 3 f(A) f(A) = f (f
1
(B)) B,
ya que f
_
f
1
(B)
_
B. Por lo tanto, tambien f
1
_
f(A)
_
f
1
(B) y como
A f
1
_
f(A)
_
tenemos A f
1
(B); o sea f
1
(B) f
1
(B).
4) = 5) Sea B cerrado en Y , por 4) f
1
(B) f
1
(B) = f
1
(B) f
1
(B)
por lo que f
1
(B) = f
1
(B), entonces f
1
(B) es cerrado en X.
5) = 1) Sea B
Y
, entonces B
c
es cerrado en Y , como f
1
(B
c
) =
(f
1
(B))
c
, por 5) se tiene que
_
f
1
(B)
_
c
es cerrado en X, o sea f
1
(B)
X
.
3. FUNCIONES CONTINUAS 239
Proposici on 14.60. La composici on de funciones continuas es continua.
Demostraci on 14.61. Sean (X,
X
) , (Y,
Y
) y (Z,
z
) espacios y f : X
Y, g : Y Z funciones continuas. Se tiene que si U


z
entonces g
1
(U

)
Y
y por lo tanto f
1
(g
1
(U

)) = f g (U

)
Z
.
Las funciones en espacios que son productos cartesianos tambien tienen un cri-
terio de continuidad. Estas funciones son interesantes y seran usadas mas adelante,
por ahora veamos este criterio de continuidad usando la siguiente proposicion:
Proposici on 14.62. Sean (X,
X
) , (Y,
Y
) y (Z,
Z
) espacios y f : XY Z
funci on. f es continua ss para todo W
f(x,y)

z
existe U
x

X
y V
y

Y
tales
que f(U
x
U
y
) W
f(x,y)
.
Demostraci on 14.63. =) Sea W
f(x,y)

Z
esto implica que existe U
x

X
, V
y

Y
con f(U
x
V
y
) W
f(x,y)
con U
x
V
y

X Y
, esto implica que para
todo (x, y) X Y existe U
x
V
y

X Y
tal que U
x
V
y
f
1
(W
f(x,y)
) por
lo que f
1
(W
f(x,y)
)
XY
.
=) Sea W
f(x,y)

Z
, entonces f
1
(W
f(x,y)
)
XY
esto implica que para
todo (x, y) f(W
f(x,y)
) existe U
x
V
y

XY
tal que U
x
V
y
f
1
(W
f(x,y)
),
por tanto f(U
x
V
y
) W
f(x,y)
.
Mas adelante, en la construcci on de los haces, vamos a necesitar el uso de la
proyeccion, que es una funci on que mapea solo una parte de un producto cartesiano
de espacios topologicos. Vamos a introducir ahora este concepto.
Definici on 14.64. Sea (XY,
XY
) espacio producto de los espacios (X,
X
)
y (Y,
Y
). A las funciones
x
: XY X, (x, y) x y
y
: XY Y, (x, y) y
se les llama las proyecciones de X Y , ver gura 6.
Figure 6. La proyeccion del producto cartesiano de X y Y . El
mapeo va de X Y a X, y mapea el punto (x, y) en x.
240 14. ESPACIOS TOPOL

OGICOS
Proposici on 14.65.
x
y
y
son continuas.
Ejercicio 14.66. Demostrar la proposici on.
Definici on 14.67. Sea (A,
A
) subespacio topol ogico de (X,
X
). La inclusi on
de A en X es la funci on identidad restringida a A , i.e.
i : A X
x i(x) id [
X
[
A
Tambien se denota como i : A X.
Proposici on 14.68. Sea f continua, f = X Y y (A,
A
) subespacio topol ogico
de (X,
X
). Entonces la restricci on de f a A es continua.
Ejercicio 14.69. Demostrar la proposici on
Ejercicio 14.70. Demostar que i es continua.
El concepto mas importante en espacios topologicos es tal vez este que nos
da el concepto de isomorsmo entre ellos. Los isomorsmos aqu son llamados
homeomorsmos. Ahora vamos a introducirlos, para esto necesitamos primero el
concepto de funci on abierta. Iniciemos con este.
Definici on 14.71. Sea f : X Y funci on. f se llama abierta si imagenes
de abiertos son abiertas, i.e. si para todo U
X
se tiene que f(U)
Y
.
Definici on 14.72. Un homeomorsmo es una funci on continua, biyectiva y
abierta.
Esta dinicion nos garantiza entonces que la inversa es una funci on continua y
abierta. Es decir:
Proposici on 14.73. Sea f homeomorsmo, entonces f
1
es continua.
Demostraci on 14.74. Por ser biyectiva existe f
1
con f
1
f = Id [
X
. Por
ser abierta se sigue que f(U) = V
Y
para todo U
x
ya que la inversa de f
1
es f. De donde que f
1
es continua.
Definici on 14.75. Dos espacios topol ogicos se dicen homeomorfos si en-
tre ellos existe un homeomorsmo. A las propiedades invariantes bajo homeomor-
smos se les llama propiedad topol ogica.
Es decir, los homeomorsmos me dan un criterio para decir cuando dos espacios
topologicos son el mismo, desde el punto de vista de espacio topologico. Es mas,
los homeomorsmos separan el conjunto de los espacios topologicos en clases de
equivalencia. Vamos a ver esto, primero veamos que la relacion: dos espacios estan
relacionados entre si, si son homeomorfos, es una relacion de equivalencia.
Proposici on 14.76. Sean (X,
X
), (Y,
Y
), (Z,
Z
) espacios. La relaci on X
hom

Y dos espacios son homeomorfos, es una relaci on de equivalencia.


Ejercicio 14.77. Demostrar la proposici on.
Entonces los espacios homeomorcos forman clases de equivalencia en las cuales
se conservan sus propiedades topologicas. Estas clases sirven para clasicar a los
espacios topologicos. Otra propiedad interesante y muy importante es el hecho que
los homeomorsmos con la operaci on de composicion de funciones forma un grupo,
llamado el grupo de automorsmos. Veamos esto.
4. TOPOLOG

IA COCIENTE 241
Proposici on 14.78. Sea (X,
X
) espacio topol ogico y
Aut (X) = f [ f : X X homeomorsmo. Entonces el par (Aut(X), ) es
un grupo llamado el grupo de automorsmos de X.
Ejercicio 14.79. Demostrar la proposici on.
Para terminar esta secci on veamos ahora el concepto de camino y trayectoria.
Estos conceptos son muy usados para denir geodesicas y conceptos relacionados
con estas. Formalmente, la denicion de camino o trayectoria es:
Definici on 14.80. Sea (X,
X
) espacio topol ogico e I . A una funci on
c : I X se le llama un camino o trayectoria en X.
Entonces, una curva es la imagen de una trayectoria, esto es:
Definici on 14.81. Sea c C
0
(I, X). A la imagen de c se le llama la curva
de c.
Estos dos conceptos deben quedar claros, un camino es la funci on misma mien-
tras que la curva es la imagen de la funci on. Son conceptos muy distintos, el primero
es un elemento del conjunto de funciones y el segundo es un subconjunto del codo-
minio de la funci on. Por otro lado, una reparametrizaci on es una composicion de
la curva con un automorsmo monotono creciente del dominio I de de la curva,
es decir:
Definici on 14.82. Sea Aut
+
(I) = f Aut(I) [ f(t

) > f(t), t

> t y
c C
0
(I, X). A la funci on

: C
0
(I, X) C
0
(I, X), c

(c) = c se le
llama una reparametrizaci on de c.
Lo interesante de este concepto es que las curvas (no los caminos) son invari-
antes ante estos automorsmos, es decir:
Proposici on 14.83. Las curvas son invariantes bajo reparametrizaciones.
Demostraci on 14.84. Sea c C
0
(I, X) trayectoria y
c
= c(I) la curva
correspondiente. Entonces
(c)
=

(c)(I) = c (I) = c((I)) = c(I) =


c
.
Ejemplo 14.85. Al camino c(t) = p para todo t I se le llama camino
constante.
Ejemplo 14.86. Sea c : [0, 1] X con c(0) = c(1) = p. A este camino se le
llama lazo o loop en X.
4. Topologa cociente
Imaginemos que podemos construir una funci on entre dos conjuntos y que el
dominio tiene una topologa. Entonces podemos mapear los abiertos del dominio
al codominio y denir estos como abiertos del codominio. Surge la pregunta si
ahora las imagenes de estos abiertos forman una topologa para el codominio. La
respuesta la podemos dar en la siguiente proposicion.
Proposici on 14.87. Sean (X,
X
) espacios Y conjunto y f : X Y funci on
sobre. El conjunto
f
=
_
V P(Y ) [ f
1
(V )
X
_
es una topologa para Y , lla-
mada topologa cociente de Y respecto a f.
242 14. ESPACIOS TOPOL

OGICOS
Demostraci on 14.88. i)
f
ya que f
1
() =
X
y Y esta en
f
ya
que f es sobre y por lo tanto f
1
(Y ) = X ;
ii) Sean V
1
, , V
n

f
, entonces f
1
(
n
i=1
V
i
) =
n
i=1
f
1
(V
i
)
X
se sigue
que
n
i=1
V
i

f
ya que cada f
1
(V
i
)
X
;
iii) Sea V

K
con V


f
. Entonces f
1
(
K
V

) =
K
f
1
(V

)
X
pues cada f
1
(V

)
X
, se sigue entonces que
K
V


f
.
Vamos a estudiar unos ejemplos de como podemos construir espacios topologicos
usando mapeos sobre. Para hacer esto, lo importante es construir la funci on sobre
con la cual construimos el espacio topologico del codominio. Sea (X,
X
) espacio
topologico y una relacion de equivalencia en X. La funci on p = X X/ es
una funci on sobre que asocia a cada elemento de X, x [x] su clase. La topologa

X/
= V P(X/ ) [ p
1
(V )
X
es una topologa para el conjunto de clases
de equivancia X/ .
Sea I I =
_
(x, y)
2
[ 0 x 1, 0 < y < 1
_
subespacio topologico de
2
.
Entonces:
Ejemplo 14.89. Sea la relaci on de equivalencia pr
1
q si p = q
2
i.e. (x, y) =
(x

, y

) , o si p ,= q (p, q) = ((0, y), (1, y)) o ((1, y), (0, y)) y la relaci on pr
2
q como
p = q o si p ,= q, (p, q) = ((0, y), (1, 1 y)) o ((1, y), (0, 1 y)) . Gr acamente se
ve en las gura 7 y gura 8.
Figure 7. El producto cartesiano de los intervalos [1, 1] [1, 1]
con la relacion r
1
, es topologicamente igual al cilindro.
Cilindro=
_
I I/r
1
,
II/r1
_
Cinta de M obius=
_
I I/r
2
,
II/r2
_
Ejemplo 14.90. Sea I
2
=
_
(x, y)
2
[ 0 x, y 1
_
. Sea la relaci on pr
3
q
si p = q, o p ,= q, (p, q) = ((0, y), (1, y)) o ((1, y), (0, y)) y (p, q) = ((x, 0), (x, 1)) o
((x, 1), (x, 0)). Y la relaci on pr
4
q si p = q o (p, q) = ((0, y), (1, y)) o ((1, y), (0, y))
y (p, q) = ((x, 0), (1 x, 1)) o ((1 x, 1), (x, 0)). Gr acamente se ve en las gura
9 y gura 10
Toro=
_
I
2
/r
3
,
I
2
/r3
_
Botella de Klein=
_
I
2
/r
4
,
I
2
/r4
_
5. ESPACIOS COMPACTOS 243
Figure 8. De la misma forma, el producto cartesiano de los in-
tervalos [1, 1] [1, 1] con la relacion r
2
, es topologicamente igual a
la cinta de M obius
Figure 9. El producto cartesiano de los intervalos [1, 1] [1, 1]
con la relacion r
3
, es topologicamente igual al Toro.
5. Espacios Compactos
Entre las nociones intuitivas que tenemos de conjuntos, existen dos clases que
se diferencian notablemente. Existen espacios como que no tienen n y otros
como la esfera que son nitos. Por supuesto, desde el punto de vista matematico
podemos dar una diferenciacion de estos espacios, ya que no es lo mismo que un
conjunto no tenga n o principio o que este conjunto sea simplemeten muy grande.
Para dar una nocion concreta de estos conceptos, diremos que los conjuntos como
la esfera, son compactos. Basicamente la diferencia es que a la esfera la podemos
cubrir con un n umero nito de abiertos. La denicion formal es:
Definici on 14.91. Sean (X,
X
) espacio topol ogico y A X. A es un con-
junto compacto si toda cubierta U de A contiene una subcubierta nita.
244 14. ESPACIOS TOPOL

OGICOS
Figure 10. De la misma forma, el producto cartesiano de los in-
tervalos [1, 1] [1, 1] con la relacion r
4
, es topologicamente igual a
la Botella de Klein.
Proposici on 14.92. Sean (X,
X
), (Y,
Y
) espacios y f : X Y funci on con-
tinua. Entonces la imagen de subconjuntos compactos de X son subconjuntos com-
pactos de Y .
Demostraci on 14.93. Sea A subconjunto compacto de X y sea 1 = V

K
una cubierta de f(A), entonces 1
1
=
_
f
1
(V

)
_
K
es una cubierta de A. Como
A es compacto, existe una cubierta nita de A, | =
_
f
1
(V
j
)
_
N
J=1
, subcubierta
de 1
1
. Como f
_
f
1
(V
j
)
_
V
j
tenemos que f(A) f
_

N
j=1
f
1
(V
j
)
_

N
j=1
f
_
f
1
(V
j
)
_

N
j=1
V
j
, por lo que V
j

N
J=1
es una cubierta nita de f(A).
El punto mas importante de los espacio compacto es el hecho que:
Proposici on 14.94. Ser espacio compacto es una propiedad topol ogica.
Demostraci on 14.95. S olo daremos una idea de la demostraci on. Se de-
sprende del hecho que si X es compacto, f(X) lo es y si f es homeomorsmo,
f
1
(X) tambien es compacto.
En lo que sigue hablaremos de algunas propiedades de los espacios compactos
y de como se puede saber si un espacio es o no compacto. Por lo general no es facil
demostrar que un espacio es o no compacto. Pero usando las dos siguientes proposi-
ciones, de la segunda no daremos su demostracion, se puede vericar la propiedad
de compacto en muchas ocaciones. Comencemos por la siguiente proposicion.
Proposici on 14.96. Si (X,
X
) es compacto y Y tiene la topologa cociente
f
con respecto a f : X Y , sobre, entonces se sigue que (Y,
f
) es compacto.
Demostraci on 14.97. Como
Y
=
f
, f es continua y como f es sobre
f(X) = Y . Entonces Y es imagen continua de un compacto por lo tanto es com-
pacto.
Proposici on 14.98. [0, 1] es compacto.
Otra propiedad que ayuda a vericar si un espacio es o no compoacto es la
siquiente:
5. ESPACIOS COMPACTOS 245
Proposici on 14.99. Todo subconjunto cerrado de un espacio compacto, es
compacto.
Demostraci on 14.100. Sea A subconjunto cerrado de X y sea | = U

J
una cubierta de A. A cerrado implica que A
c

X
y |
ext
= U

, A
c

J
es
una cubierta de X, ya que A
J
U

. Si X es compacto, entonces existe una


subcubierta nita 1 de |
ext
. 1
ext
= V
i
, A
c

n
i=1
que cubre X. Por tanto 1 =
V
i

N
i=1
es cubierta nita de A, ya que para todo V
j
1
ext
existe U
r
U
ext
tal que
V
j
= U
r
, es decir, A es compacto.
Tambien es facil imaginarse que el producto cartesiano de espacios compactos,
es compacto. Formalmente se tiene la siguiente proposicion:
Proposici on 14.101. El producto topol ogico (X Y,
xy
) es compacto s cada
(X,
X
) y (Y,
y
) es compacto.
Demostraci on 14.102. Solo demostraremos una direcci on. =) Como XY
es compacto, entonces
1
: X Y = X y
2
: X Y Y son compactos, ya que

1
y
2
son continuas.
De estas propiedades resultan algunos ejemplos y resultados sencillos. Por
ejemplo tenemos que el n-cubo es compacto, i.e. I
N

n
es compacto.
Otro concepto relacionado con espacios compactos, es el concepto de conjunto
acotado, concepto que se puede dar en un espacio normado. Entonces podemos
denir conjuntos acotados en los reales, utilizando su norma canonica. Intuiti-
vamente, un espacio compacto debe ser acotado, nito. Formalmente se tiene la
denicion:
Definici on 14.103. Sea A subconjunto de (
n
,

n) y n Z
+
. Se dice que A
es un conjunto acotado si para todo x = (x
1
, , x
n
) A, existe K
+
, tal
que

x
i

K para todo i = 1, , x
m
.
Con el siguiente teorema podemos relacionar entonces ambos conceptos.
Teorema 14.104 (de Heine-Borel). Todo subconjunto de
n
cerrado y acotado,
es compacto.
Demostraci on 14.105. A acotado A [K, K]
n
hom
I
n
para alg un K. A
cerrado y [K, K]
n
compacto implica A compacto.
Ahora usemos lo anterior para vericar si algunos espacios son compactos,
veamos algunos ejemplos.
Ejemplo 14.106. I
n

n
es cerrado y acotado, por lo tanto es compacto.
Ejemplo 14.107. S
n
R
n+1
es cerrado y acotado, por lo tanto es compacto,
etc.
Otro concepto interesante, que solo mencionaremos, es el de espacios paracom-
pactos. Para denirlo, es necesario introducir la siguiente denicion.
Definici on 14.108. Una familia T de subconjuntos de (X,
X
) es localmente
nita o nita por vecindades, si para todo x X existe U
x

X
tal que U
x
intersecta a lo m as un n umero nito de elementos de T.
246 14. ESPACIOS TOPOL

OGICOS
Definici on 14.109. Un renamiento de | es una cubierta 1 = V

K
de (X,
X
) tel que para todo V

1 existe U

| con V

. Se denota por
V

J
< U

J
.
Proposici on 14.110. Toda subcubierta de una cubierta es un renamiento.
Demostraci on 14.111. Sea 1 una subcubierta de |, esto implica que para
todo V

1 existe U

| con V

= U

.
Definici on 14.112. Un espacio es paracompacto si toda cubierta tiene un
renamiento nito por vecindades.
Este concepto, en cierta forma, es m as general que el concepto de espacios
compactos, ya que:
Proposici on 14.113. Todo espacio compacto es paracompacto.
Demostraci on 14.114. X compacto implica que toda cubierta | de X tiene
una subcubierta nita, esto quiere decir que cualquier vecindad U
x
de x X inter-
secta a lo m as un n umero nito de elementos del renamiento 1 de |.
Los espacios que no son compactos, se pueden en ocaciones, compacticar. La
forma mas simple de entenderlo es dando un ejemplo sencillo. Imaginemos la recta
real, la cual se extiende indenidamente hacia los n umeros positivos y negativos.
Ahora tomemos la recta real y unamos los puntos extremos, tanto de lado negativo
como del lado positivo. Lo que se tendra es un crculo, que puede ser de radio 1,
por simplicidad. Este crculo es una forma compacta de escribir la recta real, donde
ahora si tenemos un n umero que representa el innito (en los reales, el innito no es
un n umero, es solo un concepto para designar muy grande). Formalmente se puede
hacer este proceso, siguiendo los pasos de la siguiente proposicion que enunciaremos
sin demostracion.
Proposici on 14.115. Sea (X,
X
) espacio topol ogico y / X. Sea

=
X

V
V K
con K = abiertos con complemento compacto en X. Entonces
1)

es una topologa para

X = X
2) (X,
X
) es subespacio topol ogico de
_

X,

_
3)
_

X,

_
es compacto
4) X es denso en
_

X,

_
si X no es compacto.
Notaci on 14.116. A la topologa

=
X
V
V K
con K = abiertos
con complemento compacto en X se le llama la compacticaci on por un punto
de (X,
X
) o simplemente compacticaci on de X.
Ahora veamos el ejmplo de la compacticacion de la recta real formalmente. Lo
que vamos a hacer es agregarle un punto a la recta real, que podemos llamar tambien
el innito, pero puede ser lo que sea. Y luego denimos un homeomorsmo que vaya
del crculo a la recta real. As demostramos que el crculo es una compacticacion
de la recta real. Aqu estudiaremos el ejemplo mas general de la compacticacion
de
n
, esto es:
5. ESPACIOS COMPACTOS 247
Ejemplo 14.117. La compacticaci on por un punto de
n
est a dada por

n
=

n
, veamos esto.
Consideremos la funci on:
: S
n

n
es decir
:
_
x
1
, , x
n+1
_

_ _
x
1
, , x
n
_
/
_
1 x
n+1
_
si x ,= (0, , 0, 1)
si x = (0, , 0, 1)
el cual es un homeomorsmo, con inversa
1
:

n
S
n
dada por

1
:
_
_
x
1
, , x
n
_

1
1+(x
1
)
2
++(x
n
)
2
_
2x
1
, , 2x
n
, (x
1
)
2
+ + (x
n
)
2
1
_
(0, , 0, 1)
Entonces S
n
hom

n
. Ejemplos de esto son el crculo S
1
hom

=

y la esfera S
2
hom

2
=
2

= C llamada esfera de Riemann, etc. A la funci on se


le llama proyecci on estereogr aca . Vean la gura 11
Figure 11. La proyeccion estereogr aca en el plano. Esta funci on
proyecta los puntos del crculo 1 -1 en la lnea recta. De la misma
forma, la proyeccion estereogr aca proyecta 1 -1 cualquier esfera
de dimensi on arbitraria (nita) en un plano de la misma dimensi on.
Para terminar esta secci on daremos una clasicacion interesante de los espacios
topologicos seg un su estructura.
Definici on 14.118. Sea(X,
X
) espacio topol ogico.
Se dice que X es espacio T
0
si para todo x, y X , x ,= y, existe U
x
con
y / U
x
o existe U
y
con x / U
y
Se dice que X es espacio T
1
si para todo x, y X, x ,= y, existe U
x
y U
y
con y / U
x
y x / U
y
Se dice que X es espacio T
2
o Hausdor si para todo x, y X, x ,= y,
existe U
x
, U
y
con U
x
U
y
=
Se dice que X es espacio T
3
o espacio regular, si X es T
1
y si para todo
x X y F cerrado en X con x / F, existe U
x
y U en
X
con F U y U
x
U =
248 14. ESPACIOS TOPOL

OGICOS
Se dice que X es espacio T
4
o espacio normal , si X es T
1
y para todo
F, G cerrados disjuntos en X, existe U, V
X
tal que U V = y F U, G V ,
ver gura 12.
Figure 12. Clasicaci on de los espacios topologicos.
Ejercicio 14.119. Muestre que todo espacio T
2
es T
1
Ejercicio 14.120. Muestre que todo espacio T
1
es T
0
Ejercicio 14.121. Muestre que todo espacio metrizables es T
2
Ejercicio 14.122. Muestre que todo espacio metrico es Hausdor.
6. Espacios Conexos
Un espacio topologico puede ser tambien hecho de piezas separadas, o pedazos
sin union. Cuando los espacios son hechos de una sola pieza, se dice que son espa-
cios conexos. Para denir los espacios conexos es mas sencillo denir los espacios
disconexos, es decir:
6. ESPACIOS CONEXOS 249
Definici on 14.123. Un espacio topol ogico (X,
X
) es disconexo si existen
A, B
X
tales que A, B ,= , A B = X y A B = .
Definici on 14.124. Un espacio es conexo si no es disconexo.
Definici on 14.125. Sea (X,
X
) espacio topol ogico y A X (subespacio). A
es conexo si lo es como subespacio topol ogico de X.
Algunos ejemplos simples son:
Ejemplo 14.126. El espacio de Sierpinski es conexo, ya que X = a, b y

X
= , a, b , a, siempre, ya que a, b a = X y a, b a , = .
Ejemplo 14.127. La topologa discreta es disconexa, ya que para todo A ,= ,
X con A P(X), A
c
P(X) y A A
c
= , con A A
c
= X
Por denicion, en un espacio topologico el vacio y todo el espacio son abiertos
y cerrados a la vez. En base a esto, un criterio para decidir si un espacio es conexo,
es el siguiente.
Proposici on 14.128. Sea (X,
X
) espacio. X es conexo, ss los unicos abiertos
y cerrados a la vez son X y , adem as no existe f C
0
(X, 0, 1) sobre.
Finalmente, ser conexo es tambien una propiedad topolologica. Para ver esto,
veamos la siguiente proposicion.
Proposici on 14.129. La imagen continua de conexos es conexa.
Demostraci on 14.130. Sea f : X Y continua y (X,
X
) espacio conexo.
Supongamos que
_
f(X),
f(x)
_
(Y,
Y
) no es conexo. Entonces existe g : f(X)
0, 1 continua y sobre y por lo tanto gf C
0
(X, 0, 1) y es sobre, lo que implica
que (X,
X
) no es conexo, lo que contradice la hip otesis.
Proposici on 14.131. Ser conexo es una propiedad topol ogica.
Demostraci on 14.132. Basta tomar un homeomorsmo, como es sobre y con-
tinuo, la imagen de un conexo ser a conexa y lo mismo para la inversa.
Vamos a ver algunos ejemplos representativos:
Ejemplo 14.133. Todos los intervalos en son conexos.
Ejemplo 14.134. es conexo, ya que
hom

= (1, 1) que es conexo.


Ejemplo 14.135. S
1
es conexo ya que f : [0, 1] S
1
, (cos (2t) , sen(2t))
es continua.
CHAPTER 15
VARIEDADES DIFERENCIALES
1. Variedades
Las variedades son espacios topologicos que son localmente igual a
n
. Este
hecho permite entonces utilizar conceptos que conocemos de
n
y usarlos en la var-
iedad, al menos localmente (es decir, al menos para cada abierto). Por ejemplo, la
diferencial es un concepto bien importante de
n
porque nos da un modelo simple
de movimiento. El movimiento es la propiedad mas importante de todo objeto en
la naturaleza, de hecho la fsica se dedica a estudiar principalmente esta caracter-
istica, el movimiento. Ya sea el movimiento de un objeto o el movimiento de los
campos en el espacio tiempo o el movimiento de las cantidades termodinamicas en
un solido. Esa es la raz on de la importancia del c alculo diferencial, tanto en cien-
cias exactas, como en su aplicacion mas directa, que es la tecnologa avanzada. Las
variedades diferenciales son una generalizaci on del c alculo diferencial a variedades,
que llamamos variedades diferenciales. En la actualidad, las variedades diferen-
ciales tienen aplicacion en un gran n umero de areas de la ciencia y la tecnologa.
Por solo nombrar algunas, diremos que el mejor modelo que se tiene hasta el mo-
mento del espacio tiempo es el de una variedad diferenciable. El estudio de teora
de campos en espacios curvos necesita para su mejor comprensi on de las variedades
diferenciables. La funci on de calor en termodinamica es una faana, es decir, una
1-forma, que es un concepto formal de variedades diferenciables. O el estudio mod-
erno del control autom atico en ingeniera, usa intensivamente la herramienta de las
variedades diferenciales, etc. En este captulo daremos los conceptos mas impor-
tantes de las variedades y de las variedades diferenciables. Vamos a empezar por
su denicion.
Definici on 15.1. Una variedad real de dimensi on n es un espacio topol ogico
de Hausdor (M
n
,
M
N), tal que para todo elemento p M
n
existe una terna
c = (U
p
, , V ) donde U
p

M
n, V

n y : U
p
V , homeomorsmo. Ver
gura 1.
Es decir, una variedad es un espacio topologico que localmente es
n
(o sea,
para todo p M
n
, se tiene que U
p

M
n, es homeomorfo a
n
). Si en la denicion
cambiamos real por complejo, tenemos variedades complejas de dimensi on n. Por
ejemplo, (
hom

=
2
es una variedad compleja de dimensi on uno.
Para trabajar con variedades se acostumbra denir algunos conceptos de la
variedad, que estaremos usando en el futuro.
Definici on 15.2. Sea M
n
una variedad, a:
c

= (U

, V

) ,
J
U

= M
n
se le denomina carta sobre M
n
U

se le llama dominio de la carta.


(U

) se le llama sistema de coordenadas sobre U

251
252 15. VARIEDADES DIFERENCIALES
Figure 1. Una variedad real de dimensi on n es un espacio
topologico de Hausdor localmente homeomorfo a
n
.

, V

_
se le llama parametrizaci on de U

(U

) se le llama imagen de la carta c

r
i
:
n
,
_

1
, ,
n
_
r
i
_

1
, ,
n
_
=
i
se llama la i-esima
funci on coordenada sobre
n
x
i

:= r
i

es la i-esima funci on coordenada del sistema de coorde-


nadas
Sean c

y c

dos cartas c

= (U

, V

) y c

= (U

, V

). A las funciones

:=

(U

(U

) y se les llama funciones de


transici on, donde

es un homeomorsmo, ver gura 2.


Comentario 15.3. Las funciones
_
x
1

, , x
n

_
: U


n
p
_
x
1

, , x
n

_
(p)
se pueden representar como

=
_
x
1

, , x
n

_
Comentario 15.4. Todos los conceptos de la denici on 15.2 dependen de los
abiertos del espacio topol ogico. Se dice entonces que son conceptos locales.
Es decir, cuando hablemos de alg un concepto local, signica que este concepto
vale en los abiertos del espacio. Veamos algunos ejemplos de variedades.
1. VARIEDADES 253
Figure 2. En esta gura se muestran dos cartas, con sus dominios,
sus sistemas coordenados, sus im agenes y sus funciones de tran-
sici on.
Ejemplo 15.5. (,

n) es una variedad real de dimensi on n con una sola carta


c = (
n
, id[

n,
n
) .
Ejemplo 15.6 (Pelota). Vamos a estudiar un ejemplo que vamos a utilizar a
lo largo de estos captulos. Se trata de las pelotas o
_
S
2
,
S
2
_
, con su topologa
heredada de
3
. La pelota es una 3-esfera y es una variedad 2-dimesional real que
al menos tiene dos cartas. Estas son:
c
1
=
_
U
1
,
+
,
2
_
con U
1
= S
2
(0, 0, 1) .
donde el homeomorsmo
+
esta denido como:

+
(x, y, z) =
1
1 z
(x, y)
cuya inversa esta dada por:

1
+
(x, y) =
1
1 +x
2
+y
2
_
2x, 2y, x
2
+y
2
1
_
An alogamente, la segunda carta, ahora sin el polo sur, esta dada por:
c
2
=
_
U
2
,

,
2
_
con U
2
= S
2
(0, 0, 1) .
254 15. VARIEDADES DIFERENCIALES
donde el homeomorsmo

esta denido como:

(x, y, z) =
1
1 +z
(x, y)
cuya inversa esta dada por:

(x, y) =
1
1 +x
2
+y
2
_
2x, 2y, x
2
y
2
+ 1
_
Entonces U
1
U
2
= S
2
y
+
y

son homeomorsmos. A
+
se le llama la
proyecci on estereogr aca desde el norte y a

desde el sur.
Ejemplo 15.7 (Esferas). Vamos ahora a generalizar el ejemplo anterior a
cualquier dimensi on, y formemos la variedad de las esferas. La esfera con su
topologa heredada de
n
, es el espacio topol ogico (S
n
,
S
n). La n-esfera es una
variedad n-dimesional, real que al menos tiene dos cartas. Estas son:
c
1
= (U
1
,
+
, V
1
) con U
1
= S
n
(0, , 0, 1) , V
1
=
n
donde el homeomorsmo
+
esta denido como:

+
_
x
1
, , x
n+1
_
=
1
1 x
n+1
_
x
1
, , x
n
_
cuya inversa esta dada por:

1
+
_
x
1
, , x
n
_
=
1
1 +x
1
2
+ +x
n2
_
2x
1
, , 2x
n
, x
1
2
+ +x
n2
1
_
Hay que comparar estos homeomorsmos con los de la compacticaci on de
n
en el ejemplo 14.117. Analogamente, la segunda carta, ahora sin el polo sur, esta
dada por:
c
2
= (U
2
,

, V
2
) con U
2
= S
n
(0, , 0, 1) , V
2
=
n
donde el homeomorsmo

esta denido como:

_
x
1
, , x
n+1
_
=
1
1 +x
n+1
_
x
1
, , x
n
_
cuya inversa esta dada por:

_
x
1
, , x
n
_
=
1
1 +x
1
2
+ +x
n2
_
2x
1
, , 2x
n
, x
1
2
x
n2
+ 1
_
Entonces U
1
U
2
= S
n
y
+
y

son homeomorsmos. Igual que en el caso


de las pelotas, a
+
se le llama la proyecci on estereogr aca desde el norte y a

desde el sur.
En lo que sigue, vamos a trasladar el concepto de diferencial a la variedad
utilizando los homeomosmos de esta en
n
. Como sabemos como diferenciar en

n
, podemos denir diferenciales en la variedad. Cuando esto se puede, se dice que
la variedad es suave. Recordemos la denicion de suave en
n
.
Definici on 15.8. Sean U y V abiertos de
n
y
m
respectivamente y f : U
V . Se dice que f es suave si r
i
f : U tiene derivadas de todos los ordenes.
1. VARIEDADES 255
Vamos a entender lo que es una variedad diferenciable. En una forma simple se
puede decir que una variedad diferenciable es basicamente una variedad en donde
las funciones de transicion son suaves. Otra manera de decirlo es la siguiente.
Dos cartas se dicen compatibles si su funci on de transicion es suave, es decir, una
variedad se dice diferenciable si esta cubierta con cartas compatibles. Formalmente
se tiene:
Definici on 15.9. Dos cartas c

y c

son compatibles si
i) U

= o
ii) U

,= y las funciones de transici on son suaves.


Definici on 15.10. Un atlas sobre M
n
es una colecci on de cartas compatibles
que cubran M
n
.
Definici on 15.11. Una variedad real diferenciable o suave de dimensi on
n es un par (M
n
, /) donde M
n
es una variedad real de dimensi on n y / es un
atlas sobre M
n
, ver gura 3.
Figure 3. Una variedad real diferenciable suave de dimensi on n
es una variedad real de dimensi on n en donde las funciones de
transicion son suaves.
Definici on 15.12. Dos atlas / y /

sobre M
n
son equivalentes si c

y c

son compatibles para toda c

/ y c

.
256 15. VARIEDADES DIFERENCIALES
Si tomamos todo el conjunto de atlas sobre M
n
, la relacion / /

con /
es equivalente a /

, es una relacion de equivalencia, la cual separa el conjunto de


cartas equivalentes en clases de equivalencia. Si solo usamos los representantes de
las clases, lo que se tiene es una estructura direrenciable.
Definici on 15.13. [/], el conjunto de clases de atlas sobre M
n
se llama una
estructura diferenciable sobre M
n
Intiutivamente, una variedad suave es aquella que tiene una forma suave, es
decir, sin aristas o puntas como las del cuadrado o el cubo, sino es suave como el
crculo o la esfera.
Ejercicio 15.14. Sean (M
n
, /) y (N
n
, B) variedades diferenciables. Demuestre
que (M
n
N
n
, /B) es variedad diferenciable.
Ejercicio 15.15. Sea (S
n
, /) , / = c
1
, c
2
del ejercicio 15.7 de esferas. De-
muestre que (S
n
, /) es variedad diferenciable.
2. Funciones suaves
El siguiente paso es denir la diferencial en una variedad diferenciable. Para
hacer esto, lo que se acostumbra es transladar a
n
por medio de los homeomor-
smos, la diferenciabilidad de una funci on. Vamos a iniciar con la denicion de
diferencial de una funci on.
Definici on 15.16. Sea f : M
n
una funci on en una variedad (M
n
, A). f
es suave o diferenciable si f
1

(U

) es suave para toda carta de


/, ver gura 4.
Es decir, una funci on f que va de la variedad a los reales es suave, si su funci on
correspondiente, la que va de
n
a los reales, es suave. Para analizar la funci on f
entonces, es necesario estudiar su funci on f
1

correspondiente.
Notaci on 15.17. Se denota al conjunto de funciones suaves por C

(M
n
, )
o al conjunto de funciones suaves en la vecindad de x por C

(M
n
, x, )
Comentario 15.18. Observe que
a) (C

(M
n
, ) , +, , , ) es un algebra conmutativa con unidad.
b) (C

(M
n
, ) , +, ) es anillo
c) (, C

(M
n
, ) , +, ) es espacio vectorial.
Definici on 15.19. Si f es suave en todo punto x W M
n
, se dice que f
es una funci on suave en W.
Proposici on 15.20. f suave implica f continua.
Demostraci on 15.21. Sin dem.
En base a la denicion de una funci on podemos denir la diferencial de una
funci on vectorial. Primero introduciremos la denicion formal y luego explicaremos
con cuidado el signicado de esta.
Definici on 15.22. Sean M
m
y N
n
variedades y F : M
m
N
n
funci on. F es
suave si para toda f C

(N
n
, ) F

: C

(N
n
, ) C

(M
m
, ) F

(f) =
f F es suave.
Para simplicar la notaci on es conveniente denir el full-back de una funci on.
2. FUNCIONES SUAVES 257
Figure 4. Esta gura muestra la representacion de una funci on
f suave en una variedad de dimensi on n.
Notaci on 15.23. A F

se le llama imagen recproca o full-back de f


y se denota al conjunto de full backs como C

(M
m
, N
n
), ver gura 5.
Figure 5. La representacion del Full-back F

de una funci on F.
Como en el caso de una funci on de una variedad a los reales, la diferenciabilidad
de una funci on que va de una variedad a otra se traduce a la diferenciabilidad de
la funci on correspondiente, en este caso es la funci on f F, llamado el full-back,
258 15. VARIEDADES DIFERENCIALES
que va de la variedad a los reales. As podemos ver su diferenciabilidad tomando
en cuenta la denicion 15.16 anterior.
Una consecuencia interesante de las funciones suaves es que la composicion de
funciones suaves es tambien suave.
Proposici on 15.24. La composici on de funciones suaves es suave.
Demostraci on 15.25. Sean M
m
, N
n
y S
s
variedades y F : M
m
N
n
, G :
N
n
S
s
y f : S
s
funciones suaves. Entonces, G suave implica G

(f) =
f G C

(N
n
, ) es suave y F suave implica a su vez que F

(G

(f)) = G

(f)F
= (f G) F = f (G F) = (G F)

(f) es suave. Entonces G F es suave, se


tiene que (G F)

= F

.
Ejercicio 15.26. Sea c

= (U

, V

) carta sobre M
n
variedad. Mostrar
que

es suave y x
i

= r
i

es suave.
Ejercicio 15.27. Demuestre que funciones suaves entre variedades son con-
tinuas.
Ahora podemos denir los isomorsmos de variedades diferenciables, aqu son
llamados difeomorsmos. Su denicion es clara.
Definici on 15.28. Sea F C

(M
m
, N
n
) biyectiva. F se dice difeomorsmo
si F
1
C

(N
n
, M
m
).
Definici on 15.29. Dos variedades se dicen difeom orcas si existe un difeo-
morsmo entre ellas. Se denota M
m
dif

= N
n
.
Notaci on 15.30. Si dos variedades M
m
y N
n
son difeom orcas, se denota
como M
m
dif

= N
n
.
La relacion M
m
N
n
si M
m
y N
n
son difeom orcas M
m
dif

= N
n
, es de
nuevo una relacion de equivalencia. Entonces las variedades difeom orcas est an
clasicadas en clases de equivalencia, lo cual ayuda mucho para su estudio.
3. Vectores Tangentes.
En esta secci on vamos a construir los vectores tangentes a una variedad difer-
enciable. Esta construcci on tiene varios objetivos, pero el mas importante es que
con los vectores tangente podemos construir un espacio vectorial en cada punto de
la variedad. A este espacio se le llama el espacio tangente. Es necesario construir
tantos vectores base del espacio tangente a la variedad diferenciable como la di-
mension de la variedad, o sea, tantos como la dimensi on al espacio
n
al cual la
variedad diferenciable es homeomorca. Ya construido el espacio tangente podemos
construir el dual a este espacio vectorial, o sea, el espacio de las transformaciones
lineales en el espacio tangente. A este espacio se le llama el espacio contangente de
la variedad. Estos dos espacios son muy importantes en modelos del espacio tiempo,
ya que la metrica de una variedad, es un elemento del espacio contangente, como
veremos mas adelante. Para simplicar un poco, cuando hablemos de variedad,
vamos a referirnos realmente a variedad diferenciable, aunque ya no se especique
en el texto. Vamos a iniciar con la denicion de vector tangente a una variedad.
3. VECTORES TANGENTES. 259
Definici on 15.31. Sea M
n
variedad y x M
n
. Un vector tangente a la
variedad en x M
n
es una funci on v
x
: C

(M
n
, x, ) tal que para una
carta c := (U, , V ) / con x U, existe (a
1
, , a
n
)
n
tal que para toda
f C

(M
n
, x, ) se cumple v
x
(f) =
n

i=1
a
i
r
i
_
f
1
_

(x)
(ver gura 6).
Figure 6. El vector tangente formado por la funci on f y el espacio
tangente formado por este vector tangente.
Vamos a entender la denicion. Primero notemos que la funci on
_
f
1
_
[
(x)
es una funci on que va de
n
a los reales y esta evaluada en el punto (x). Por
tanto sabemos tratar con ella. Tambien sabemos que el gradiente de una funci on
en
n
es un vector tangente a la supercie que forma la funci on. Es por eso que
podemos interpretrar a la funci on v
x
(f) como un vector tengente a la variedad.
Notaci on 15.32. Al conjunto de vectores tangentes sobre M
n
en x M
n
se
le denota por T
x
M
n
y se le llama espacio tangente en x.
Notaci on 15.33. Al vector con la u-upla (0, , 1, 0, ) se le denota

x
i

x
de tal forma que

x
i

x
(f) :=

r
i
_
f
1
_

(x)
.
El conjunto
_

x
i

x
_
i=1, ,n
es entonces una base de T
x
M
n
, todo vector v
x
se
escribe como v
x
=
n

i=1
a
i
x
i

x
. Sea x
i
= r
i
C

(M
n
, x, ) observemos que

x
i

x
(x
j
) =

r
i
_
x
j

1
_

(x)
=

r
i
_
r
j
_

(x)
=
j
i
.
La funci on v
x
es una derivaci on, es decir, cumple con la ley de superposicion y con
la regla de Leibnitz, esto es:
Proposici on 15.34. v
x
T
x
M
n
es una derivaci on, es decir:
i) v
x
(f +g) = v
x
(f) +v
x
(g)
ii) v
x
(f) = v
x
(f)
iii) v
x
(fg) = v
x
(f) g(x) + f (x) v
x
(g) para todo f, g C

(M
n
, x, ) y para
todo .
Ejercicio 15.35. Demostrar la proposici on.
Solo queda ver que el espacio formado por los vectores tangentes es, como se
espera, un espacio vectorial. Este se demuestra en la siguiente proposicion.
260 15. VARIEDADES DIFERENCIALES
Proposici on 15.36. La estructura (, T
x
M
n
, +, ) es un espacio vectorial de
dimensi on n, con
1.- (v
x
+w
x
) (f) = v
x
(f) +w
x
(f)
2.- (v
x
) (f) = (v
x
(f)) .
El conjunto
_

x
i

x
_
i=1, ,n
es una base del espacio vectorial llamado base
coordenada.
Ejercicio 15.37. Demuestren la proposici on anterior.
Comentario 15.38. Observen que si (U, , V ) y (U

, V

) son cartas de M
n
en x, entonces
_

x
i

x
_
i=1, ,n
y
_

x
i

x
_
i=1, ,n
son bases del espacio tangente de
la variedad en x. Se tiene que

x
i

x
_
x
k
_
=
n

j=1

j
i

x
j

x
_
x
k
_
=
n

j=1

j
i

k
j
=
k
i
,
es decir

x
i

x
=
n

j=1

x
i

x
_
x
j
_

x
j

x
.
El resultado anterior nos da una formula, como la regla de la c adena, para
cambiar de homeomorsmo en la variedad, o sea, para cambiar de sistema de co-
ordenadas. En el lenguaje de variedades, hacer un cambio de coordenadas signica
cambiar de homeomorsmo de la variedad a los reales. Hay otro tipo de cambio de
coordenadas que tiene un signicado dinamico, pero de eso no platicaremos aqui.
Algunos ejemplos simples de variedades son los siguientes.
Ejemplo 15.39. La variedad (
n
, / =(
n
, id[

n
,
n
)). Como = id[

n
se sigue que x
i
= r
i
id[

n = r
i
entonces
v
x
=
n

i=1
a
i

r
i

x
=
n

i=1
a
i

r
i
.
En tal caso T
x

n
iso

=
n
, donde el isomorsmo esta dado por la funci on iso denida
como iso : T
x

n
,
n

i=1
a
i
r
i

_
a
1
, , a
n
_
Ejemplo 15.40. Sean x = (x
1
, , x
n+1
) y v
x
= (v
1
x
, , v
n+1
x
). El espacio
tangente de S
n
es
T
x
S
n
=
_
v
x

n+1
[ x v
x
=
n+1

i=1
x
i
v
i
x
= 0
_
x S
n

n1
.
La demostraci on detallada de esto la veremos m as adelante.
4. Uno formas
En todo espacio vectorial se pueden denir transformaciones lineales que forman
a la vez un espacio vectorial de la misma dimensi on, llamado el espacio dual (ver
captulo 3). Entoces podemos formar el conjunto de transformaciones lineales en
el espacio tangente a una variedad y formar el espacio dual. A este espacio se le
llama espacio contangente y a sus elementos, las transformaciones lineales, se les
llama formas. Vamos a ver todo esto formalmente.
Sean M
m
y N
n
variedades y F C

(M
m
, N
n
) con x M
m
.
4. UNO FORMAS 261
Definici on 15.41. La diferencial de F en x es la funci on denida por
dF
x
: T
x
M
m
T
F(x)
N
n
v
x
dF
x
(v
x
) : C

(N
n
, F (x) , )
g dF
x
(v
x
) (g) := v
x
(F

(g))
ver gura 7.
Notaci on 15.42. Si denotamos dF
x
= F
x
, podemos escribir
F
x
(v
x
) (g) := v
x
(F

(g))
Notaci on 15.43. Tambien lo podemos denotar como
dF
x
(v
x
) (g) = v
x
(g F) = v
x
F

(g)
o
dF
x
(v
x
) = v
x
F

Veamos con cuidado el signicado de la diferencial de una funci on. Sea c =


(U, , V ) carta de M
m
que contiene a x U M
m
y C

= (W, , V

) carta en
N
n
que contiene a F (x) W N
n
. Sea v
x
T
x
M
m
con v
x
=
m

z=1
a
i

x
i

x
y sea
g C

(N
n
, F (x) , ). Vamos a escribir explicitamente la denicion anterior en
terminos de las cantidades como las leemos en
n
, para poder entender mejor el
signicado de la diferencial. Entonces,
dF
x
(v
x
) (g) = v
x
(g F)
=
_
m

i=1
a
i

x
i

x
_
(g F)
=
m

i=1
a
i

r
i
_
g F
1
_

(x)
=
m

i=1
a
i

r
i
_
g
1
F
1
_

(x)
=
m

i=1
a
i
n

j=1

s
j
_
g
1
_

F
(x)

r
i
_
s
j
F
1
_

(x)
=
m

i=1
n

j=1
a
i

y
j

F(x)
(g)

x
i

x
_
y
j
F
_
=
n

j=1
_
m

i=1
a
i

x
i

x
_
y
j
F
_
_

y
j

F(x)
(g)
=
n

J=1
v
x
_
y
j
F
_

y
j

F(x)
(g)
Vean la gura 8. Podemos escribir
dF
x
(v
x
) =
n

j=1
(dF
x
(v
x
))
j

y
j

F(x)
de donde se sigue que (dF
x
(v
x
))
j
= v
x
_
y
j
F
_
262 15. VARIEDADES DIFERENCIALES
Figure 7. La diferencial dF de una funci on F. La diferencial de
F es un mapeo entre los espacios tangente de la variedad en x y
de la variedad imagen en F(x).
Figure 8. Figura que representa la construcci on de la diferencial
de F. Aqu se representan las variedades y mapeos que toman
parte en la explicaci on de la denicion.
S olo falta demostrar que efectivamente la diferencial dF
x
es una transformaci on
lineal. Esta demostracion la dejaremos como ejercicio.
Ejercicio 15.44. Demostrar que dF
x
es lineal.
Para poder decir que la diferencial dF
x
es realmente una diferencial, sera de
esperarse que se cumpliera la regla de la cadena. Este es el caso, vamos a demostrar
la siguiente proposicion.
Proposici on 15.45 (La regla de la cadena). d (G F)
x
= dG
F(x)
dF
x
4. UNO FORMAS 263
Demostraci on 15.46. Sea M
m
, N
n
y S
s
variedades y F C

(M
m
, N
n
) y
G C

(N
n
, S
s
). Sea x M
m
y v
x
T
x
M
m
, entonces
d (G F)
x
(v
x
) = v
x
(G F)

= v
x
(F

)
= (v
x
F

) G

= dG
F(x)
(v
x
F

)
= dG
F(x)
(dF
x
(v
x
)) = dG
F(x)
dF
x
(v
x
)

Un ejemplo simple es la diferencial de la indentidad.


Ejemplo 15.47. d id[
M
n
= id[
TxM
n ya que
d id[
M
n : T
x
M
m
T
x
M
m
v
x
d id[
M
n (v
x
) : C

(M
m
, )
g d id[
M
n
(v
x
) (g)
= v
x
_
id[

M
n (g)
_
= v
x
(g id[
M
n) = v
x
(g) es decir
d id[
M
n
(v
x
) = v
x
Un caso especial de diferencial muy importante es cuando la diferencial es una
funci on inyectiva, entonces se dice que la diferencial es una inmersion: esto es:
Definici on 15.48. Una inmersi on de M
m
en N
n
, es una funci on suave F :
M
m
N
n
con diferencial dF
x
inyectiva.
Ahora vamos a denir las formas formalmente. Las formas son diferenciales
de una funci on que va de la variedad a los reales. Como los reales tambien son
una variedad, podemos usar la denicion de la diferencial en estas funciones. La
diferencia es que vamos a identicar al espacio tangente de los reales con los reales
mismos. De hecho son el mismo espacio. Veamos esto formalmente.
Definici on 15.49. Sea M
n
variedad, f C

(M
n
, ) y x M
n
. Entonces
df
x
: T
x
M
n
T
f(x)
,
v
x
df
x
(v
x
) =
d
dr
T
f(x)
,
con
df
x
(v
x
) (r) =
d
dr
(r) = = v
x
(f

(r)) = v
x
(r f) = v
x
(f)
(recuerden que r : tal que r (x) = x). Esto es
df
x
(v
x
) = v
x
(f)
d
dr
T
f(x)
.
Consideremos el isomorsmo J : T
f
(x)
,
d
dr
J
_

d
dr
_
= , entonces
la composicion J df
x
: T
x
M
n
, v
x
J (df (v
x
)) = J
_
v
x
(f)
d
dr
_
= v
x
(f) es
un homomorsmo de espacios lineales y J df
x
es un elemento del espacio dual de
T

x
M
n
que llamaremos el espacio cotangente de la variedad en x. A los elementos
de este espacio, que denotamos como T

x
M
n
, se llaman 1-formas en x y se denotan
como w
x
T

x
M
n
. Identicamos entonces T
f
(x)
con (a traves del isomorsmo
J), por lo que podemos escribir
df
x
: T
x
M
n
,
v
x
df
x
(v
x
) = v
x
(f) .
264 15. VARIEDADES DIFERENCIALES
Comentario 15.50. Tomemos f = x
i
C

(U, ), dx
i

x
: T
x
M
n
tal
que
v
x
dx
i

x
(v
x
) = v
x
_
x
i
_
=
_
_
n

j=1
a
j

x
j

x
_
_
_
x
i
_
= a
i
.
En particular tomemos v
x
=

x
j

x
, entonces
dx
i

x
_

x
j

x
_
=

x
j

x
_
x
i
_
=
i
j
,
se sigue que
_
dx
i

x
_
i=1, ,n
es una base del espacio T

x
M
n
llamada la base coorde-
nada dual o base de las 1-formas.
De una forma natural podemos denir campos vectoriales o campos de formas,
simplemente deniendo los espacios vectoriales para cada punto de la variedad.
Vamos a denir entoces los campos vectoriales y de formas.
Definici on 15.51. Sea M
n
variedad y
_

x
i

x
_
base de T
x
M
n
. Un campo
vectorial, es una asignaci on suave de vectores para cada punto x M
n
.
Notaci on 15.52. Se denota v (f) : M
n
, suave, tal que v (f) (x) := v
x
(f).
Se tiene que v =
n

r1
a
i
x
i
, tal que
v (f) (x) =
n

i=1
a
i
(x)

x
i

x
(f) ,
donde a
i
: M
n
son funciones suaves para toda i = 1, , n.
Notaci on 15.53. Al conjunto de campos vectoriales en M
n
se denota por
TM
n
.
Comentario 15.54. Observen que v : C

(M
n
, ) C

(M
n
, ).
Definici on 15.55. Sea M
n
variedad y
_
dx
i

x
_
i=1, ,n
base de T

x
M
n
. Una
1-forma en M
n
es una transformaci on lineal para cada T
x
M
n
con x M
n
. Se
denota
df(v) : M
n

df(v) = v(f)
suave, tal que df(v)(x) = df
x
(v
x
).
Notaci on 15.56. Al conjunto de las 1-formas en M
n
se denota por
_
n
. Ten-
emos que
df =
n

j=1
b
j
dx
j
tal que
df(v)(x) = df
x
(v
x
) =
n

j=1
b
j
(x) dx
j

x
(v
x
),
con b
j
: M
n
funciones suaves.
4. UNO FORMAS 265
Notaci on 15.57. Se suele denotar al producto de 1-formas con vectores como
w, v) = w(v). Si w =
n

j=1
b
j
dx
j
y v =
n

i=1
a
i
x
j
, entonces
w, v) =
_
n

j=1
b
j
dx
j
,
n

i=1
a
i

x
i
_
:=
n

j=1
n

i=1
a
i
b
j
_
dx
j
,

x
i
_
=
n

j=1
n

i=1
a
i
b
j
dx
j
_

x
i
_
,
como para cada punto x M
n
se cumple dx
j

x
_

x
i

x
_
=
j
i
, tenemos que
w, v) =
n

i=1
a
i
b
i
.
Observen que df : TM C

(M
n
, ).
Tenemos que T

M
n
es un espacio vectorial para cada punto x M
n
. Su dual
en cada punto sera isom orco a TM
n
en ese punto. Nosotros vamos a identicar
ambos espacios.
Definici on 15.58. Como (T

x
M
n
)

= T
x
M
n
para toda x M
n
. Se tiene que si
w T

M
n
y v T
x
M
n
, entonces v
x
(w
x
) , con v
x
(w
x
) = w
x
(v
x
) = w
x
, v
x
).
El ejemplo de las esferas es muy representativo y simple para entender el ma-
terial anterior. Vamos a tomar de nuevo este ejemplo.
Ejemplo 15.59. Sea S
2
=
_
(x, y, z)
3
[ x
2
+y
2
+z
2
= 1
_
. Ya sabemos que
los homeomorsmos de la esfera son

:
3
S
2

: S
2

3
dados por

(x, y, z) =
(x, y)
1 z
= (u, v)

(u, v) =
_
2u, 2v, (u
2
+v
2
1)
_
1 +u
2
+v
2
Entonces los vectores tangentes en S
2
estar an dados por

x
1
+

x
(f) =

u
_
f
1
+
_

+(x)
=

u
f
_
2u
1 +u
2
+v
2
,
2v
1 +u
2
+v
2
,
,
u
2
+v
2
1
1 +u
2
+v
2
_

+(x)
=

u
f (x, y, z)

+(x)
=
x
u
f
x
+
y
u
f
y
+
z
u
f
z

+(x)
=
1
(1 +u
2
+v
2
)
2
_
2
_
1 u
2
+v
2
_

x
4uv

y
+ 4u

z
_

+(x)
(f)
Podemos escribir

x
1
+
=
_
1 z x
2
_

x
xy

y
+x(1 z)

z
ya que
266 15. VARIEDADES DIFERENCIALES
u
2
+v
2

+(x)
=
x
2
+y
2
(1 z)
2
y 1 u
2
+v
2

+(x)
=
(1 z)
2
x
2
+y
2
(1 z)
2
An alogamente

x
2
+
= xy

x
+
_
1 z y
2
_

y
+y(1 z)

z
Como era de esperarse, los vectores base del espacio tangente de S
2
son perpendic-
ulares al radio vector, es decir:
(x, y, z)
_
1 z x
2
, xy, x(1 z)
_
= 0 = r

x
1
+
(x, y, z)
_
xy, 1 z y
2
, y (1 z)
_
= 0 = r

x
2
+
Es decir, los vectores tangente, son realmente tangentes a la esfera en cada punto,
pues son perpendiculares al radio vector r. Entonces el espacio tangente en el punto
x a una pelota es T
x
S
2
=
_
y
3
[y x = 0
_
Ejercicio 15.60. Calcular

x
1

,

x
2

. Demostrar que
_

x
1

,

x
2

_
son li.
Ejemplo 15.61. Los duales al espacio tangente, el espacio contangente, se
encuentran usando la regla
_
dx
i
,

xj
_
=
i
j
, se obtiene
dx
1
+
=
dx
1 z
+
xdz
(1 z)
2
, dx
2
+
=
dy
1 z
+
ydz
(1 z)
2
Estos dos vectores (transformaciones lineales) del espacio contangente son dos uno-
formas denidas en la carta sin polo norte.
Ejercicio 15.62. Calcular dx
1

, dx
2

. Demostrar que
_
dx
1

, dx
2

_
son li.
Ejemplo 15.63. Vamos a encontrar los vectores base de T
x
S
2
cambiando las
coordenadas a coorenadas esfericas, denidas por
x = r sin() cos()
y = r sin() sin()
x = r cos() (15.1)
Cl aramente, para r constante, las coordenadas cumplen que x
2
+ y
2
+ z
2
= r
2
, o
sea, ya estan restringidas a la esfera. Con esta coordenadas se puede ver que los
vectores tangente

x
=
y
x
2
+y
2

y
=
x
x
2
+y
2

z
=
1
_
x
2
+y
2

4. UNO FORMAS 267


Usando estos resultados, los vectores base del espacio tangente en coordenadas
esfericas se leen:

x
1
+
= (cos() 1)
_
cos()

+
sin()
sin()

x
2
+
= (cos() 1)
_
sin()


cos()
sin()

_
De la misma forma podemos ahora calcular los duales, las uno formas del espacio
cotangente. Se obtiene:
dx
1
+
=
1
cos() 1
(cos()d + sin() sin()d)
dx
2
+
=
1
cos() 1
(sin()d cos() sin()d)
Claramente podriamos denir como bases del espacio tangente y cotangente una
combinacion lineal de estos vectores, por ejemplo w
1
+
= (cos() 1)dx
1
+
w
2
+
=
(cos()1)dx
2
+
y a los vectores X
1
+
, X
2
+
como sus duales, de tal forma que podamos
hacer lo mismo con los correspondientes vectores w
1

w
2

X
1
+
, X
2
+
, al multiplicar
los vectores base por (cos() + 1). Entonces los vectores w

s y X

s obtendr an la
misma forma en ambas cartas, ambos seran
X
1
=
1
r
_
cos()

+
sin()
sin()

_
X
2
=
1
r
_
sin()


cos()
sin()

_
dw
1
= r (cos()d + sin() sin()d)
dw
2
= r (sin()d cos() sin()d) (15.2)
donde hemos puesto el factor r en caso de que el radio de la esfera no sea 1 sino r.
Ejercicio 15.64. Calcular

x
1
+
,

x
2
+
y dx
1

, dx
2

en coordenadas esfericas.
En lo que sigue vamos a introducir otros dos conceptos en variedades diferen-
ciales. El primero es el parentesis de Lie y el segundo es el concepto de vectores
-relacionados. Ambos conceptos son muy usados en ciencias e ingeniera. Con el
parentesis de Lie los espacios tangente pueden tener estructura de algebra. Esta
estructura puede ser muy importante para caracterizar a la variedad, si por ejem-
plo, los vectores estan asociados a alguna simetra de la variedad. Esto lo veremos
mas adelante. Por ahora denamos los parentesis de Lie.
Definici on 15.65. Sea M
n
variedad y X y Y TM
n
. Se dene [X, Y ] =
X Y Y X. A la funci on [ , ] : TM
n
TM
n
TM
n
(X, Y ) [X, Y ] se
denomina producto o parentesis de Lie de los campos vectoriales.
De la denicion se siguen sus propiedades y el hecho que con el parentesis de
Lie, el espacio tangente es una algebra.
Proposici on 15.66. El parentesis de Lie tiene las siguientes propiedades
i) [X, Y ] = [Y, X]
ii) [X +Y, Z] = [X, Z] + [Y, Z] , [X, Y +Z] = [X, Y ] + [X, Z]
iii) [[X, Y ] , Z] + [[Y, Z] , X] + [[Z, X] , Y ] = 0 (Identidad de Jacobi).
268 15. VARIEDADES DIFERENCIALES
iv) La estructura (TM
n
, +, [, ]; , ) es una algebra, llamada

Algebra de Lie de
los vectores tangentes.
Ejercicio 15.67. Demostrar la proposici on.
Por supuesto los vectores coordenados conmutan, esto se ve en la siguiente
proposicion.
Proposici on 15.68.
_

x
i
,

xj
_
= 0
Demostraci on 15.69. Tomamos

x
i
_

x
j
f
_
=

x
i
_

r
j
_
f
1
__
para la
carta c = (U, , V )
=

r
i
__

r
j
(f
1
)
_

1
_

=

r
i
_

r
j
(f
1
)
_

=

r
j
_

r
i
(f
1
)
_

=

r
j
__

r
i
(f
1
)
_

1
_

=

x
j
_

x
i
(f)
_
(Hay que recordar que

x
i
(f) =

r
i
(f
1
) , ya que para cada punto x M
n
se tiene

x
i
(f)(x) =

x
i

x
(f) =

r
i
(f
1
)[
(x)
).
Para calcular con los parentesis de Lie, es conveniente trabajar en una base
coordenada. En terminos de una base coordenada, se puede ver que los parentesis
de Lie de dos vectores se ven como:
Proposici on 15.70. [X, Y ] =
n

i=1
[X, Y ]
i

x
i
, con
[X, Y ]
i
=
n

j=1
_
X
j

x
j
_
Y
i
_
Y
j

x
j
_
X
i
_
_
Demostraci on 15.71. Por substituci on directa.
Supongamos que existe una funci on que va de una variedad a otra. En la
primera variedad se tiene un vector X y en la segunda variedad se tiene un vector
Y . Si mapeamos el vector X con la diferencial d, este mapeo no necesariamente
tiene algo que ver con el vector Y . Sin embargo, si para todo punto de la variedad se
tiene que el mapeo del vector X por medio de d corresponde al vector Y evaluado
en el punto por , se dice que estos dos vectores estan relacionados por medio de
, que estan -relacionados. Es decir, se tiene la denicion:
Definici on 15.72. Sean M
m
y N
n
variedades y C

(M
m
, N
n
). Se dice
que X TM
m
y Y TN
n
est an -relacionados si para toda x M
m
se sigue
que d
x
(X
x
) = Y
(x)
, vean la gura 9.
De aqu se desprenden varias propiedades muy interesantes que despues se
usaran. Vamos a ver las mas importantes.
4. UNO FORMAS 269
Figure 9. Los vectores X y Y est an relacionados, si para todo
elemento x de la variedad M
m
se sigue que d
x
(X
x
) = Y
(x)
.
Proposici on 15.73. Sean X TM
m
y Y TN
n
. X y Y est an -relacionados
ss

Y = X

Demostraci on 15.74. Sea f C

(N
n
, ) y x M
m
. Se sigue que
d

(X
x
)(f) = X
x
(

(f)) = X
x

(f) = X (

(f)) (x) = X

(f)(x)
= X
x
(f ) = Y
(x)
(f) = Y (f) ((x)) = Y (f) (x) =

(Y (f)) (x)
=

Y (f)(x) ssi

Y = X

,
es decir, el diagrama
C

(M
m
, )

(N
n
, )
X Y
C

(M
m
, )

(N
n
, )
conmuta.
Si ahora aplicamos la denicion de vectores -relacionados al mismo vector,
obtenemos la denicion de -invariante. Formalmente la denicion es:
Definici on 15.75. Sean X TM
n
y C

(M
m
, M
m
). X se llama -
invariante o invariante bajo si X

X, es decir si d
x
(X
x
) = X
(x)
para toda x M
n
Comentario 15.76. Observemos que si : M
m
N
n
, entonces
d : TM
m
TN
n
270 15. VARIEDADES DIFERENCIALES
tal que d(X)(g)(y) = d(X)
y
(g) con (x) = y N
n
, x M
m
. Si es un
difeomorsmo entre M
m
dif

= N
n
, entonces
d
x
(X
x
) (g) = X
x
(g ) = d

1
(y)
_
X

1
(y)
_
(g)
= X

1
(y)
(g )
= X (

(g))
_

1
(y)
_
= X (

(g))
1
(y),
entonces se tiene la identidad
d(X) (g) = X (

(g))
1
Para terminar este captulo vamos a introducir una transformaci on lineal equiv-
alente a la diferencial, pero ahora en los espacios contangente a una variedad. La
manipulaci on y sus propiedades son muy parecidas a las de la diferencial.
Definici on 15.77. Sean M
m
y N
n
variedades y F : M
m
N
n
suave. Sea
x M
m
y y = F(x) N
n
. Con F podemos inducir la funci on
F

y
: T

y
N
n
T

x
M
m
,
w
y
F

y
(w
y
) : T
x
M
m
,
X
x
F

y
(w
y
) (X
x
) := w
y
(dF[
x
(X
x
))
y notemos que w
y
(dF[
x
(X
x
)) = w
y
dF[
x
(X
x
) = w
y
F
x
(X
x
), es decir, se tiene
la identidad F

y
(w
y
) = w
y
F
x
.
A esta funci on tambien se le conoce con el nombre de pull-back, su denicion
es:
Definici on 15.78. A F

y
(w
y
) se le denomina la imagen reciproca o pull-
back de la 1 forma w
y
por F.
El Pull-back es una tranformacion lineal entre los espacios contangentes.
Proposici on 15.79. F
x
y
es una transformaci on lineal.
Ejercicio 15.80. Demostrar la proposici on.
A esta transformaci on lineal a veces tambien se le llama la diferencial del espacio
cotangente, ya que tiene propiedades de una diferencial, por ejemplo cumple la regla
de la cadena, veamos.
Proposici on 15.81. (G F)

GF(x)
= F

F(x)
G

GF(x)
Demostraci on 15.82. Sea M
m
, N
n
y S
s
variedades, F C

(M
m
, N
n
), G
C

(N
n
, S
s
), x M
m
, w
F(x)
T

F(x)
N
n
, v
GF(x)
T

GF(x)
S
s
. Entonces se tiene
4. UNO FORMAS 271
si w
F(x)
= G

GF(x)
_
v
GF(x)
_
,
F

F(x)
_
w
F(x)
_
= F

F(x)
_
G

GF(x)
_
v
GF(x)
_
_
= F

F(x)
G

GF(x)
_
v
GF(x)
_
= w
F(x)
dF[
x
= G

GF(x)
_
v
GF(x)
_
dF[
x
=
_
v
GF(x)
dG[
F(x)
_
dF[
x
= v
GF(x)
d (G F) [
x
= (G F)

GF(x)
_
v
GF(x)
_
,
vean la gura 10.
Figure 10. Esquema de la demostracion de la proposicion 15.81.
CHAPTER 16
TENSORES Y P-FORMAS
1. Tensores
El material de los dos captulos anteriores es fundamentalmente para estudiar
los tensores. La importancia de los tensores en ciencias exactas e ingeniera, es el
hecho de que los tensores son cantidades matematicas que no dependen del sistema
coordenado. El signicado de no depende del sistema de coordenadas la daremos
en este captulo, pero estas cantidades matematicas han servido bien para modelar
cantidades fsicas importantes, como los campos. La idea es que estas cantidades
fsicas realmente no dependen del observador, es decir, las cantidades fsicas no im-
porta si el observador las mide con una vara de un metro o una de un centimetro,
o con coordenadas catesianas o esfericas. El objeto fsico no se ve afectado por la
forma de medirlo o de observarlo. Esta condicion la cumplen los tensores, por eso
se usan para modelar las cantidades fsicas observables. Desde el punto de vista
matematico, un tensor es una funci on multilineal, es decir, una funci on de varias
variables, pero la funci on es lineal en cada entrada. El dominio es el producto
cartesiano de un espacio vectorial varias veces, con su dual, tambien varias veces.
Nosotros vamos a tomar ese espacio vectorial como el espacio tangente a una var-
iedad y su dual como el espacio cotangente a la variedad. Asi, la idea es denir
tensores que viven en variedades. Empecemos por la denici on formal de un tensor.
Definici on 16.1. Sea V espacio vectorial y V

su espacio dual. Un tensor


del tipo (r, s) es una transformaci on multilineal T tal que
T : V

. .
r veces
V V
. .
s veces
,
_
w
1
, , w
r
, v
1
, , v
s
_
T
_
w
1
, , w
r
, v
1
, , v
s
_
Es decir, se tiene que si v
1
, , v
s
V y w
1
, , w
r
V

, son transforma-
ciones lineales en el espacio vectorial V , se sigue que
T
_
w
1
, , w
r
, v +w, v
2
, , v
s
_
= T
_
w
1
, , w
r
, v, v
2
, , v
s
_
+
T
_
w
1
, , w
r
, w, v
2
, , v
s
_
para cada entrada del tensor.
Notaci on 16.2. Al conjunto de tensores lo denotamos como T V
V V

y se le llama producto tensorial.


Con la suma
(T +T

)
_
w
1
, , w
r
, v
1
, , v
s
_
= T
_
w
1
, , w
r
, v
1
, , v
s
_
+ T

_
w
1
, , w
r
, v
1
, , v
s
_
273
274 16. TENSORES Y P-FORMAS
y el producto por escalar
(T)
_
w
1
, , w
r
, v
1
, , v
s
_
= T
_
w
1
, , w
r
, v
1
, , v
s
_
,
para todo
T, T

V V V

, ,
la estructura
(, V V V

, +, )
es un espacio vectorial. A los elementos del espacio tensorial se les denota por
X
1
X
r

1

s
, este elemento denota el tensor tal que
X
1
X
r

1

s
_
w
1
, , w
r
, v
1
, , v
s
_
= X
1
_
w
1
_
X
r
(w
r
)
1
(v
1
)
s
(v
s
)
=

w
1
, X
1
_
w
r
, X
r
)

1
, v
1
_

s
, v
s
)
dados X
1
, , X
r
V y
1
, ,
s
V

. Al espacio de tensores lo denotamos


tambien por
T
r
s
= V V
. .
r veces
V

. .
s veces
.
Sean R T
r
s
y S T
p
q
, el producto entre tensores se dene entonces como el tensor
T
r+p
s+q
tal que
R S
_

1
, ,
r+p
, v
1
, , v
s+q
_
= R
_

1
, ,
r
, v
1
, , v
s
_

S
_

r+1
, ,
r+p
, v
s+1
, , v
s+q
_
La estructura (T
r
s
, +, , , , ) es una algebra llamada

Algebra tensorial.
Sea e
a

a=1, ,n
y e
a

a=1, ,n
bases de V y V

, espacios vectoriales de di-


mension n y su dual. Entonces podemos escribir tensores T T
r
s
en terminos de
esa base como
T =
n

a1ar,b1bs
T
a1ar
b1bs
e
a1
e
ar
e
bi
e
bs
,
ya que
_
e
a1
e
ar
e
bj
e
bs
_
T
r
s
sera una base del espacio tensorial y las componentes de T est an dadas por
T
a1ar
b1bs
= T (e
a1
, , e
ar
, e
b1
, e
bs
) .
Como se ve, debido a la denicion de tensores, la notaci on es muy extensa. Mas
adelante cambiaremos de notaci on por una mas simple, para reducir la escritura,
pero por ahora la mantendremos con el objetivo de que no vaya a haber confusi on.
La propiedad importante de los tensores es la de no depender del sistema coor-
denado. Aqu vamos a ser mas generales, vamos a demostrar que los tensores son
invariates al cambiar la base.
Proposici on 16.3. Los tensores son invaraintes bajo cambios de base.
Demostraci on 16.4. Sean e
a

a=1, ,n
y e

a=1, ,n
bases de V y e
a

a=1, ,n
y e
a

a=1, ,n
bases de V

tal que e
a

a=1, ,n
sea dual a e
a

a=1, ,n
y e
a

a=1, ,n
,
sea dual a e

a=1, ,n
. Se sigue que e

a
=
n

b=1

b
a
e
b
y e
a
=
n

b=1

a
b
e
b
donde
b
a
y
1. TENSORES 275

a
b
son coecientes de matrices no singulares n n. Por la dualidad de las bases,
se sigue que

b
a
=

e
b
, e
a
_
=

e
b
, e

a
_
=
_
n

c=1

b
c
e
c
,
n

d=1

d
a
e
d
_
n

c=1
n

d=1

b
c

d
a

c
d
=
n

c=1

b
c

c
a
.
Es decir
n

c=1

b
c

c
a
=
b
a
, por lo que
b
c
y
c
a
son una la inversa de otra como matrices.
Ahora escribimos un tensor T
r
s
en terminos de estas bases, esto es
T =
n

a1bs=1
T
a1ar
b1bs
e

a1
e

ar
e
b1
e
bs
=
n

a1bs=1
T
a1ar
b1bs
n

c1=1

c1
a1
e
c1

n

cr=1

cr
ar
e
cr

d1=1

b1
d1
e
d1

n

ds=1

bs
ds
e
ds
=
n

a1bs=1
n


c1=1
n

cr=1
n

d1=1

n

ds=1

c1
a1

cr
ar

b1
d1

bs
ds
T
a1ar
b1bs
e
c1
e
cr
e
dr
e
ds
=
n

c1ds=1
T
c1cr
d1ds
e
c1
e
cr
e
dr
e
ds
donde hemos llamado
(16.1) T
c1cr
d1ds
=
n

a1=1

n

ar=1
n

b1=1

n

bs=1

c1
a1

cr
ar

b1
d1

bs
ds
T
a1ar
b1bs
.

Comentario 16.5. Note que en cada caso se tiene que


T
a1ar
b1bs
= T
_
e
a1
, , e
ar
, e

b1
, , e

bs
_
y
T
c1cr
d1ds
= T (e
c1
, e
cr
, e
d1
, , e
ds
) .
Es decir, debido al cambio de base las componentes del tensor cambiaron,
pero el tensor mismo se quedo inalterado. Es en este sentido que los tensores son
invariantes ante cambios de base y por tanto de coordenadas. En ciencias fsicas
este hecho se usa continuamente. Una operaci on tambien muy usada en ciencias
fsicas es la contraccion de tensores. A partir de uno o varios tensores, se construye
otro usando la contraccion. Vamos a denirla.
Definici on 16.6. Sea T T
r
s
en un espacio vectorial V . La contracci on C
1
1
(T)
de un tensor en las bases duales e
a
e
a
es un tensor (r 1, s 1) tal que las
componentes de C
1
1
(T) son
n

a=1
T
aa2...ar
ab2bs
, i.e. C
1
1
(T) =
n

a=1
n

a2arb2bs=1
T
aa2...ar
ab2bs
e
as
e
ar
e
b2
e
bs
Proposici on 16.7. La contracci on es independiente de las bases.
276 16. TENSORES Y P-FORMAS
Demostraci on 16.8. Sean e
a
e
a
y e

a
e
a
bases duales de V . Entonces
C
1
1
(T) =
n

a=1
n

a2arb2bs=1
T
aa2...ar
ab2bs
e

as
e

ar
e
b2
e
bs
=
n

a1=1

n

ar=1
n

b1=1

n

bs=1

c2
a2

cr
ar

b2
d2

bs
ds
n

a=1
T
a...ar
abs
e
cs
e
cr
e
d2
e
ds
=
n

c1=1
n

d1=1

c1
d1
n

c2crd2ss=1
T
c1c2...cr
d1d2ds
e
cs
e
cr
e
d2
e
ds
= C
1
1
(T)

De la misma forma se pueden denir las contracciones de los dem as ndices.


Suele llamarse a los ndices superiores de un tensor ndices covariantes y a los
inferiores, ndices contravariantes. As la contraccion queda denida entre
ndices covariantes con indices contravariantes.
Notaci on 16.9. Del mismo modo, se suele llamar a los vectores e
a
vectores
covariantes o uno-formas y a los e
a
vectores contravariantes o simplemente
vectores.
En lo que sigue vamos a estudiar algunos ejemplos simples de tensores usados
en fsica.
Ejemplo 16.10. El tensor de campo electromagnetico es un tensor denido
como
A =
3

=0
A

dx

+d
donde es una funci on arbitraria que va de los reales a los reales.
Ejemplo 16.11. El tensor de energia momento es un tensor denido como
T =
3

,=0
T

dx

dx

en donde las componentes T

son basicamente las presiones y la densidad en la


diagonal, y los ujos de energia y momento en las componentes fuera de la diagonal.
Ejemplo 16.12. El tensor metrico es un tensor denido como
g =
3

,=0
g

dx

dx

el cual dene una metrica en la variedad, a traves del producto escalar entre vec-
tores. Mas adelante daremos los detalles de esta tensor, por el momento vamos a
discutir dos ejemplos simples. Primero tomemos las componentes g
ij
=
ij
i, j =
1, 2, 3, y con las componentes con subindice 0 igual a cero. Lo que se obtiene es
una metrica Euclidiana, esta es:
g = dx dx +dy dy +dz dz
1. TENSORES 277
Tomemos el vector X = 2

x


y
y el vector Y =

x
+2

z
. El producto interno
entre X y Y esta dado por:
g(X, Y ) = dx(X) dx(Y ) +dy(X) dy(Y ) +dz(X) dz(Y )
= 2 (1) + (1) 0 + 0 2 = 2
Mientras que la norma de los vectores es
g(X, X) = dx(X) dx(X) +dy(X) dy(X) +dz(X) dz(X) = 5 = [[X[[
2
g(Y, Y ) = dx(Y ) dx(Y ) +dy(Y ) dy(Y ) +dz(Y ) dz(Y ) = 5 = [[Y [[
2
La norma de los vectores siempre va a ser positiva. La distancia entre estos vectores
ser a (X Y =

x


y
+ 2

z
)
g(X Y, X Y ) =
= dx(X Y ) dx(X Y ) +dy(X Y ) dy(X Y ) +dz(X Y ) dz(X Y )
= [[X Y [[
2
= 1 + 1 + 4 = 6
Un ejemplo m as interesante es la metrica de Minkowski, esta esta denida por
g = dx dx +dy dy +dz dz dt dt
Tomemos ahora los vectores X =

x


t
y Y =

x
+

t
. El producto interno entre
X y Y ahora esta dado por:
g(X, Y ) = dx(X) dx(Y ) +dy(X) dy(Y ) +dz(X) dz(Y ) dt(X) dt(Y )
= 1 + 1 = 2
Pero ahora las normas de los vectores es
g(X, X) = dx(X) dx(X) +dy(X) dy(X) +dz(X) dz(X) dt(X) dt(X) = 0
g(Y, Y ) = dx(Y ) dx(Y ) +dy(Y ) dy(Y ) +dz(Y ) dz(Y ) dt(Y ) dt(Y ) = 0
O sea, estos vectores tienen norma nula, sus tama nos son nulos, a pesar de que los
vectores no lo son. Esta es la principal caracteristica de la metrica de Minkowsky,
en este espacio existe vectores no nulos con norma nula o negativa. Esta metrica
podria ser vista como algo ex otico, como una invenci on de alg un matem atico con
demasiada imaginaci on. Pero no lo es, es el mejor modelo del espacio tiempo que
tenemos, es algo muy real.
Vamos a tomar las componentes del ejemplo de la pelota 15.63. Tomemos a la
metrica para una pelota como
g = dw
1
dw
1
+dw
2
dw
2
= r
2
_
d d + sin
2
()d d
_
Se suele denotar (abusando de la notaci on) a una metrica tambien como
g = d
2
= r
2
_
d
2
+ sin
2
()d
2
_
el cual puede ser confuso, pues los elementos d
2
y d
2
no son el cuadrado de una
diferencial, sino el producto tensorial de dos formas. Hay que tomar esto siempre
en cuenta.
278 16. TENSORES Y P-FORMAS
2. p-Formas
En esta secci on hablaremos de las p-formas. Las formas son productos tensori-
ales de uno-formas antisimetrizados. Su importancia tambien viene de la fsica y de
las ciencias naturales. Con las p-formas es posible hacer oparaciones con mucha mas
sincillez y en muchos casos, las cantidades que se estudian adquieren un signicado
mas claro y presiso. En esta secci on estudiaremos algunos ejemplos en la fsica, con
aplicaciones directas a la ingeniera. Vamos primero a denir las p-formas.
Definici on 16.13. Sea V

el conjunto de uno-formas. Al conjunto de tensores


(0, p) antisimetricos en cada entrada se llama p-formas.
Vamos a ser mas explcitos, sean w
1
, w
2
, w
3
V

, entonces las p-formas se


construyen como en los ejemplos siguientes.
Ejemplo 16.14. Una dos-forma se escribe como w =
1
2
_
w
1
w
2
w
2
w
1
_
Ejemplo 16.15. Una tres-forma w =
1
6
(w
1
w
2
w
3
+w
3
w
1
w
2
+w
2

w
3
w
1
w
3
w
2
w
1
w
1
w
3
w
2
w
2
w
1
w
3
), etc.
En lo que sigue vamos a construir el algebra de las p-formas. Primero vamos a
construir un producto entre p-formas, llamado el producto wedge. Su denicion es
como sigue.
Definici on 16.16. Sean w y una p y q-formas respectivamente. El producto
w es una (p +q)-forma, donde es antisimetrico i.e.
w = (1)
pq
w
Esto quiere decir, que si e
a
es base de las uno-formas, entonces una 2-forma
se escribe como
w =
n

a1a2=1
w
a1a2
e
a1
e
a2
donde e
a1
e
a2
=
1
2
(e
a1
e
a2
e
a2
e
a1
)
Analogamente, una tres forma se escribe como
w =
n

a1a2a3=1
w
a1a2a3
e
a1
e
a2
e
a3
donde e
a1
e
a2
e
a3
=
1
6

[P]
(1)
[P]
e
a1
e
a2
e
a3
donde [P] signica permutacion de (a
1
, a
2,
a
3
). De esta forma, se pueden construir
_
n
p
_
p-formas en un espacio V

n-dimensional. Al conjunto de las p-formas se


denota como
p
.
Proposici on 16.17. Toda (n+k)-forma en un espacio n-dimensional es identicamente
cero, para k 1.
Demostraci on 16.18. Sean V

un espacio n-dimensional y V

una n+1
forma. Entonces
=
aiaja
k
an+1
e
ai
e
aj
e
a
k
e
an+1
pero alg un kj se repite. As
que intercambi andolos =
aiaja
k
an+1
e
ai
e
a
k
e
aj
e
an+1
=
por lo tanto = 0.
3. DIFERENCIACI

ON E INTEGRACI

ON EN VARIEDADES 279
As como construimos el campo de las uno-formas y de los vectores, se puede
construir el campo de los tensores, simplemente deniendo los tensores en cada
punto de la variedad. Formalmente se tiene:
Definici on 16.19. Un tensor T del tipo (r, s) sobre una variedad M
n
, es un
tensor construido sobre el espacio tangente TM
n
y el espacio cotangente T

M
n
de
M
n
.
3. Diferenciacion e integracion en variedades
Para evitar un poco la notaci on de los indices con sumandos y factores extensos,
a partir de esta secci on usaremos la convencion de suma sobre ndices repetidos de
Einstein, es decir, si dos indices se repiten en un tensor, es que estos indices se
estan sumando, a menos que se especique lo contrario. En esta secci on vamos a
denir la diferencial y la integral de p-formas y tensores sobre la variedad. Vamos
a denir tres tipos de operadores diferenciales y la integraci on de estos, en especial
veremos el teorema de Stokes. Para iniciar vamos a introducir la notaci on sobre las
diferenciales, as todo sera mas compacto.
Notaci on 16.20. En esta secci on denotaremos la derivada por una coma, es
decir
f
x
k
= f
,k

2
f
x
k
x
l
= f
,kl
etc.
Primero vamos a denir la diferencial de p-formas, la cual es la mas usada y la
mas simple de los operadores diferenciales que veremos.
Definici on 16.21. Sea M
n
variedad y w una p-forma sobre M
n
. La diferen-
cial exterior d es un mapeo d :
p

p+1
tal que a
w = w
i1ip
dx
i1
dx
ip
dw
= d
_
w
i1ip
_
dx
i1
dx
ip
para
_
dx
i
_
i=1, ,n
base coordenada de T

M
n
=
1
. Se tiene que
dw = w
i1ip,k
dx
k
dx
ij
dx
ip
.
La primera propiedad importante de este operador es que la diferencial de la
diferencial de una p-forma, es cero. Como veremos esta propiedad es muy impor-
tante.
Proposici on 16.22. d (dw) = 0 para toda p-forma w
p
, y para toda p Z
+
.
Demostraci on 16.23. Tenemos dw = w
i1ip,k
dx
k
dx
i1
dx
ip
, entonces
d (dw) = w
i1ip,k
dx

dx
k
dx
i1
dx
ip
donde se est an sumando ndices simetricos k, , con ndices antisimetricos dx

dx
k
,
por tanto d (dw) = 0.
Para calcular la diferencial de p-formas se aplica la siguiente formula.
280 16. TENSORES Y P-FORMAS
Proposici on 16.24. Sean w y una p y q-formas respectivamente. Se sigue
que d (w ) = dw + (1)
p
w d.
Demostraci on 16.25. Sean w = w
i1ip
dx
i1
dx
ip
y =
jijq
dx
j1

dx
jq
Entonces
d
_
w
i1ip
dx
i1
dx
ip

j1jq
dx
j1
dx
jq
_
= w
i1ip,k
dx
k
dx
i1
dx
ip

j1jq
dx
j1
dx
jq
+
+w
i1ip

j1jq,
dx

dx
i1
dx
ip
dx
j1
dx
jq
= dw + (1)
p
w d

Ejercicio 16.26. Muestre que dw(X, Y ) = X (w(Y ))Y (w(X))w([X, Y ])


En el captulo anterior introdujimos el concepto de full-back. Ahora vamos a
introducir un concepto similar, pero no hay que confudirlos, con el que podemos
trasladar formas o tensores covarientas de una variedad a otra. Vamos a escribir la
denicion y luego daremos una breve explicaci on.
Definici on 16.27. Sea : M
m
N
n
, y M
m
, N
n
variedades. Entonces:
El pull-back de tensores covariantes se dene como

T (v
1
, , v
s
) [
p
= T (

v
1
, ,

v
s
) [
(p)
,
v
1
, , v
s
TM
m
, p M
m
donde y T T
0
s
.
An alogamente para tensores contravariantes se tiene

T
_
w
1
, , w
r
_
[
(p)
= T
_

w
1
, ,

w
r
_
[
p
para T T
r
0
y w
1
, , w
r
T

N
n
Vamos a ver primero el pull-back de una uno-forma.
Ejemplo 16.28. Sea w T

N
n
y v TM
m
. Y sea : M
m
N
n
. Entonces
el pull-back de w esta dado por

w : TM
m
tal que
v w(

v) = w(d(v)).
Esto quiere decir que

es una funci on tal que

: T

N
n
T

M
m
,
ya que

w T

M
m
y w T

N
n
. Recordemos que d =

: TM TN, vean
la gura 1.
Con el ejemplo anterior ya se puede proceder a encontrar el pull-back de un
tensor covariante en general. Y con este el de un tensor contravariante. Vamos a
demostrar ahora que el pull-back y la diferencial conmutan.
Proposici on 16.29. Sea M
m
y N
n
variedades y : M
m
N
n
y

el pull-
back. La diferencial exterior conmuta con el pull-bak.
3. DIFERENCIACI

ON E INTEGRACI

ON EN VARIEDADES 281
Figure 1. Representacion de la funci on , del pull-back

y de
la diferencial de la funci on , d =

.
Demostraci on 16.30. Sea w
p
y f : M
n
suave. Entonces, por la
regla de la cadena
d (f ) = d (

f) = df d
= df

(df) i.e.
d (

f) =

(df)
De la misma manera para 1-formas:
d (

w) = d (w

) = d (w d) = dw

(dw)
y an alogamente para p -formas.
El rotacional de un vector es un concepto matematico muy utilizado en ciencias
exactas. En si es denido como la diferencial totalmente antisimetrica de un vector.
Vamos a introducir el tensor de Levi-Civita, que nos va a servir para trabajar con
la antisimetrizacion de vectores y tensores. Es de hecho la generalizaci on de la
antisimetrizacion que se usa en algabra de vectores. Aqui lo podemos introducir
para cualquier variedad de dimensi on arbitraria.
Definici on 16.31. El tensor totalmente antisimetrico de Levi-Civita
i1, ,in
se dene como

i1, ,in
=
_
_
_
1 si i
1
, , i
n
es permutaci on par de (1, 2, , n)
-1 si i
1
, , i
n
es permutaci on impar de (1, 2, , n)
0 cualquier otro caso
282 16. TENSORES Y P-FORMAS
Con el tensor de Levi-Civita podemos denir el operador de Hodge. Este
operador es muy usado para poder simplicar la notaci on. Vamos a escribir su
denicion y luego estudiaremos algunos ejemplos de su uso.
Definici on 16.32. El operador * de Hodge o transformaci on de duali-
dad es una funci on que mapea :
p

np
tal que

_
dx
ij
dx
ip
_
=
1
(n p)!

i1ipip+1in
dx
ip+1
dx
in
donde
i1, ,in
es el tensor de Levi-Civita
Esta denicion es posible gracias a la dualidad que existe entre los espacios
vectoriales de uno-formas
p
y
np
, ambas son de la misma dimensi on. Es por
eso que la aplicacion del operador de Hodge dos veces a una p-forma, es proporcional
a la p-forma, es decir, se regresa al lugar de origen.
Proposici on 16.33. w
p
= (1)
p(np)
w
p
donde w
p

p
Demostraci on 16.34. Por substituci on directa.
Veamos algunos ejemplos simples.
Ejemplo 16.35. Sea w = fdx dy + g dy dz donde g, f :
3
en
3
.
Entoncees, n = 3 y w
2
dw = f
,z
dz dx dy +g
,x
dx dy dz = (f
,z
+g
,x
) dx dy dz
w = f dx dy +g dy dz
= f
1
1!

123
dz +g
1
1!

231
dx
= fdz +gdx
dw = f
,z
+g
,x
Es decir, la aplicacion del operador de Hodge a una p-forma, consiste en quitar
todos los elementos de la base que tiene la p-forma y poner todos los restantes, los
que no se usan, en el orden que nos da el tensor de Levi-Civita. Las funciones que
van enfrente de la base no son afectadas por el operador de Hodge. Con este oper-
ador se dene otro operador diferencial muy importante, llamado la codiferencial.
Definici on 16.36. La codiferencial exterior o derivada exterior ad-
junta se dene por = (1)
np+n+1
d para espacios n-dimensionales y para
p-formas. Se tiene que = d en espacios de dimensi on par y = (1)
p
d
en espacios de dimensi on impar.
Como en el caso de la diferencial, la doble aplicacion de la codiferencial tambien
es cero.
Proposici on 16.37. (w
p
) = 0
Demostraci on 16.38. (1)
np+n+1
d w
p
= (1)
2(np+n+1)
d d =
(1)
2(np+n+1)
(1)
p(np)
dd w
p

Comentario 16.39. Se tiene entonces que
d :
p

p+1
:
p

p1
3. DIFERENCIACI

ON E INTEGRACI

ON EN VARIEDADES 283
Utilizando la denicion de la diferencial y la codiferencial se puede denir otro
operador diferencial que llamaremos Laplaciano. En ciertos casos este operador es
el Laplaciano que se conoce en algebra vectorial, pero de hecho es una generalizaci on
de este para cualquier variedad de cualquier dimensi on.
Definici on 16.40. El Laplaciano sobre una variedad, es una funci on :

p
denida por = d +d
Vamos a mostrar algunos ejemplos con todos los operadores diferenciales que
hemos denido, por facilidad lo haremos en
2
, que es donde el c alculo nos es mas
familiar, con ellos estas deniciones adquiriran mas sentido.
Ejemplo 16.41. Sea M =
2
. Entonces una base para
0
1. Analoga-
mente para
1
dx, dy , y para
2
dx dy. Tambien podemos obtener la
aplicaci on , esta nos da:
1 = dx dy; dx = dy; dy = dx; dx dy = 1.
Para las diferenciales obtenemos:
df (x, y) = f,
x
dx +f,
y
dy
ddf = f,
xy
dy dx +f,
yx
dx dy = 0
d (udx +vdy) = (v,
x
u,
y
) dx dy
Analogamente, para las codiferenciales se obtiene:
f (x, y) = d f (x, y) = d (f (x, y) dx dy) = 0
(udx +vdy) = d (udx +vdy) = d (udy vdx)
= (u,
x
dx dy v,
y
dy dx) =
= ((u,
x
+v,
y
) dx dy) = (u,
x
+v,
y
)
(dx dy) = d (dx dy) = d () = (,
x
dx +,
y
dy) =
= (,
x
dy ,
y
dx) = ,
x
dy +,
y
dx
Y para los Laplacianos obtenemos:
f = (d +d) f = d (0) + (f,
x
dx +f,
y
dy) = (f,
xx
+f,
yy
)
(udx +vdy) = d [(u,
x
+v,
y
)] + [(v,
x
u,
y
) dx dy]
= [u,
xx
dx +v,
xy
dx +u,
yx
dy +v,
yy
dy] [(v,
xx
u,
yx
)dx + (v,
xy
u,
yy
)dy]
= [(u,
xx
+v,
xy
)dx + (v,
yy
+u,
xy
)dy] [(v,
xx
u,
yx
)dy (v,
xy
u,
yy
)dx]
= [(u,
xx
+u,
yy
)dx + (v,
xx
+v,
yy
)dy]
Estos ultimos ejemplos justican el nombre del operador como Laplaciano.
Para el caso de M =
3
las bases respectivamente estan dadas como
0
1,

1
dx, dy, dz , para
2
dx dy, dx dz, dy dz y para
3
dx dy dz.
Igualmente podemos obtener la aplicacion , esta nos da:
1 = dx dy dz; dx = dy dz; dy = dx dz; dz = dx dy;
dx dy = dz; dy dz = dx; dz dx = dy; dx dy dz = 1.
Ejercicio 16.42. Muestren que
d (v
1
dx +v
2
dy +v
3
dz) = v dx,
donde v = (v
1
, v
2
, v
3
) y dx = (dx, dy, dz) es el radio vector.
284 16. TENSORES Y P-FORMAS
Ejercicio 16.43. Muestren que
(v
1
dx +v
2
dy +v
3
dz) = v,
donde v = (v
1
, v
2
, v
3
)
Ejercicio 16.44. Muestren que
(v
1
dx +v
2
dy +v
3
dz) =

2
v
x
k
x
k
dx =
2
v dx
donde v = (v
1
, v
2
, v
3
).
El espacio tiempo se modela generalmente como una variedad 4-dimensional.
Los ejemplos en fsica son hechos en esta dimensi on, aunque hay teoras modernas de
unicacion que utilizan dimensiones mas altas. Por eso para trabajar en el espacio
tiempo debemos trabajar en el espacio M =
4
, donde las bases respectivamente
estan dadas por
para
0
1
para
1
dx, dy, dz, dt ,
para
2
dx dy, dx dz, dy dz, dx dt, dy dt, dz dt
para
3
dx dy dz, dx dy dt, dx dz dt, dy dz dt
para
4
dx dy dz dt
Igualmente podemos obtener la aplicacion , esta nos da:
1 = dx dy dz dt
dx = dy dz dt dy = dx dz dt dz = dx dy dt dt = dx dy dz
dx dy = dz dt dy dz = dx dt dz dx = dy dt
dx dt = dy dz dy dt = dx dz dz dt = dx dy
dy dz dt = dx dx dz dt = dy dx dy dt = dz dx dy dz = dt
dx dy dz dt = 1
Ejemplo 16.45. Sea F = F
i
dx
i
dt
1
2

ijk
H
i
dx
j
dx
k
= F
x
dx dt +F
y
dy
dt + F
z
dz dt H
x
dy dz + H
y
dx dz H
z
dx dy, donde
ijk
es el tensor de
Levi-Civita y H
i
= H
i
para i = 1, 2, 3. Podemos calcular su diferencial
dF = [(F
z,y
F
y,z
) dy dz + (F
z,x
F
x,z
) dx dz + (F
y,x
F
x,y
) dx dy] dt
(H
x,x
+H
y,y
+H
z,z
) dx dy dz
[H
x,t
dy dz H
y,t
dx dz +H
z,t
dx dy] dt
Usando las expresiones anteriores, podemos calcular dF
dF = [(F
z,y
F
y,z
) dx (F
z,x
F
x,z
) dy + (F
y,x
F
x,y
) dz]
(H
x,x
+H
y,y
+H
z,z
) dt
[H
x,t
dx +H
y,t
dy +H
z,t
dz]
Si ahora denimos los vectores F = (F
x
, F
y
, F
z
) y H = (H
x
, H
y
, H
z
) obtenemos
dF en representaci on vectorial como
dF = F dx Hdt

t
H dx
la cual es una expresi on vectorial muy interesante que usaremos mas adelante.
3. DIFERENCIACI

ON E INTEGRACI

ON EN VARIEDADES 285
En funci on de la accion de los operadores sobre las p-formas, podemos clasicar
las p-formas de la siguiente forma.
Definici on 16.46. Una p-forma w
p

p
se dice:
Arm onica si w
p
= 0
Cerrada si dw
p
= 0
Cocerrada si w
p
= 0
Exacta si w
p
= d
p1

p1

p1
Coexacta si w
p
=
p+1

p+1

p+1
La integraci on de p-formas tiene dos teoremas que hacen de las p-formas objetos
facil de manipular. Vamos a presentar dos teoremas sin demostracion, el teorema de
Hodge, que dice que cualquier p-forma es la superposicion de una p-forma ex acta,
una mas coex ata o otra am onica. As es posible escribir las p-formas en terminos de
estas p-formas con caracteristicas muy especiales. Este teorema es de gran ayuda
como veremos. Y el segundo teorema es el teorema de Stokes, que como veremos
en los ejemplos, es la generalizaci on de una gran cantidad de teoremas matematicos
sobre integraci on puestos todos en el mismo contexto. Empecemos por el teorema
de Hodge, el cual estudiaremos sin demostrarlo.
Teorema 16.47 (Hodge). Sea M
n
variedad compacta y sin frontera y
p
el
conjunto de p-formas sobre M
n
. Entonces
w
p
= d
p1
+
p+1
+
p
para toda w
p

p
, con
p1

p1
,
p+1

p+1
y
p

p
arm onica.
Y el teorema de Stokes, que tampoco demostraremos aqu.
Teorema 16.48 (Stokes). Sea M
n
variedad con frontera no vaca. Sea w
p1

p1
una p 1-forma sobre M
n
. Entonces
_
M
dw
p1
=
_
M
w
p1
Para ver este teorema, es mejor ver la manera de trabajar con el. Para famil-
iarizarnos con el teorema de Stokes vamos a estudiar algunos ejemplos en varios
espacios.
Ejemplo 16.49. En , n = 1, solo hay dos espacio de formas, las 0- y las
1-formas, es decir
0
y
1
. Sea f
0
y df
1
. Entonces se tiene
_
M
df =
_
f
M
.
Sea M = (a, b), entonces el teorema de Stokes es simplemente
_
a
b
df = f[
b
a
= f (b) f (a)
que es el teorema fundamental del c alculo.
Ejemplo 16.50. En
2
hay tres espacios de formas, las 0-, 1-, y 2-formas, es
decir,
0
,
1
y
2
. Sea w = w
1
dx + w
2
dy una 1-forma en
2
. Entonces dw =
286 16. TENSORES Y P-FORMAS
w
1,y
dy dx +w
2,x
dx dy. La aplicaci on del teorema de Stokes en este espacio nos
da _
M
dw =
_
M
w.
Sea M una supercie, su frontera es una curva
_
M
(w
2,x
w
1,y
) dx dy =
_

(w
1
dx +w
2
dy) ,
Que es el teorema de Stokes en el plano, vean la gura 2
Figure 2. Region de integraci on. M es una supercie y l es su contorno.
Ejemplo 16.51. En
3
podemos denir 0-, 1-, 2- y 3-formas. Sea w una 1-
forma en
3
, su diferencial esta dada por dw = d (w
1
dx +w
2
dy +w
3
dz). Vamos a
escribir esta diferencial explicitamente, veamos
dw = w
1,y
dy dx +w
1,z
dz dx
+w
2,x
dx dy +w
2,z
dz dy
+w
3,x
dx dy +w
3,y
dy dz
= (w
2,x
w
1,y
) dx dy
+ (w
3,x
w
1,z
) dx dz
+ (w
3,y
w
2,z
) dy dz
=
1
2
(w
i,j
w
j,i
) dx
i
dx
j
=
1
2

ijk
B
k
dx
i
dx
j
Si denotamos w = (w
1
, w
2
, w
3
), obtenemos que B =rot w, siendo B = (B
1
, B
2
, B
3
) .
La aplicaci on del teorema de Stokes
_
M
dw =
_
M
w implica que
_
M
rot w dS =
_
M
B dS =
_
M
w dx =
_
w dx
3. DIFERENCIACI

ON E INTEGRACI

ON EN VARIEDADES 287
donde hemos usado el vector dS = (dy dz, dx dz, dx dy). Esta es la f ormula
del ujo magnetico sobre una supercie o ley de Gauss.
Vamos a estudiar algunos ejemplos utilizando parte del material desarrollado
hasta ahora.
Ejemplo 16.52. Vamos a iniciar de nuevo con el tensor electromagnetico del
ejemplo 16.10. Sea de nuevo el tensor A = A

dx

+ d. Tomemos su diferencial
F = dA = A
,
dx

dx

, ya que dd = 0. Debido a la antisimetria del operador


, el nuevo tensor F es antisimetrico, es el tensor de Faraday. En componentes
este tensor se escribe como F = F

dx

dx

, donde las componentes F

estan
dadas por
F

=
1
2
_
_
_
_
0 A
x,t
A
t,x
A
y,t
A
t,y
A
z,t
A
t,z
(A
x,t
A
t,x
) 0 A
y,x
A
x,y
A
z,x
A
x,z
(A
y,t
A
t,y
) (A
y,x
A
x,y
) 0 A
z,y
A
y,z
(A
z,t
A
t,z
) (A
z,x
A
x,z
) (A
z,y
A
y,z
) 0
_
_
_
_
Por lo general tambien se escriben las componentes del tensor de Faraday en
terminos de las componentes del campo electrico y magnetico como
F

=
1
2
_
_
_
_
0 E
x
E
y
E
z
E
x
0 B
z
B
y
E
y
B
z
0 B
x
E
z
B
y
B
x
0
_
_
_
_
As que
F = E
i
dx
i
dt +
ijk
B
i
dx
j
dx
k
= (E
x
dx dt +E
y
dy dt +E
z
dz dt)
+ B
x
dy dz B
y
dx dz +B
z
dx dy.
Comparando las componentes de las matrices, se puede ver que
E =
A
t
+
B = A
donde claramente se ha denido el vector A = (A
x
, A
y
, A
z
), y dos vectores mas,
el vector electrico E = (E
x
, E
y
, E
z
) y el vector magnetico B = (B
x
, B
y
, B
z
), de tal
forma que las componentes del tensor electromagnetico son A

= (, A). Como
se sigue que dF = ddA = 0, esto implica que dF = 0. Usando el resultado del
ejercicio 16.45 se tiene que
dF = E dx + Bdt +

t
B dx = 0
Esta identidad implica que
E+

t
B = 0
B = 0
las cuales son la ecuaci on de Faraday y la ecuaci on de Gauss para el campo magnetico,
respectivamente. An alogamente, se puede obtener una expresi on para F. Para
esto, vamos a obtener primero F
F = B
x
dx dt +B
y
dy dt +B
z
dz dt (E
x
dy dz E
y
dx dz +E
z
dx dy)
288 16. TENSORES Y P-FORMAS
Si ahora usamos el resultado del ejercicio 16.45 obtenemos que
d F = B dx + Edt +

t
E dx
de donde claramente se ven la ley de Ampere y la ley de Gauss para el campo
electrico, es decir
B

t
E = 4j
E = 4
de donde concluimos que las ecuaciones de Maxwell en terminos de formas son
dF = 0
F = 4J (16.2)
donde J = dt +j dx
Ejercicio 16.53. Muestre que la norma de Lorentz se puede representar como
A = 0
Ejemplo 16.54 (Monopolo de Dirac). Ahora vamos a ver un ejemplo ya no en
un espacio plano, sino en una variedad no trivial, por ejemplo sobre la pelota. Dada
la generalidad de las formas, podemo incluso resolver las ecuaciones de Maxwell 16.2
sobre la pelota. Sea M = S
2
, y ya sabemos que unas bases de T

S
2
estan dadas
por
dx
1

=
dx
1 z
+
xdz
(1 z)
2
dx
2

=
dy
1 z
+
ydz
(1 z)
2
Cualquier 1-forma en T

S
2
se escribe entonces como A

= A
1
dx
1

+ A
2
dx
2

y
su diferencial se obtiene como dA

= (A
2
,
2
A
1
,
1
) dx
1

dx
2

. Una expresi on
equivalente para este resultado es que F = ddA = 0. An alogamente, la aplicaci on
del operador de Hodge a la 1-forma A

nos da A

= A
1
dx
2

A
2
dx
1

. De
aqui podemos obtener la diferencial de esta ultima forma, obtenemos d A

=
(A
1
,
1
+A
2
,
2
) dx
1

dx
2

. Para obtener la segunda ecuaci on de Maxwell, vamos


a obtener la aplicaci on del operador se obtiene entonces
dA

= (A
1
,
2
A
2
,
1
) dx
1

dx
2

= A
1
,
1
+A
2
,
2
.
Si ahora usamos la Norma de Lorentz A = 0, podemos reducir las ecuaciones
electromagneticas sobre la esfera sustancialmente. Vamos a escribir la segunda
ecuaci on de Maxwell. Se tiene que
F = d F = d (A
1
,
2
A
2
,
1
)
=
_
A
1
,
21
dx
1

+A
1
,
22
dx
2

A
2
,
11
dx
1

A
2
,
12
dx
2

_
=
_
(A
2
,
22
+A
2
,
11
) dx
1

+ (A
1
,
22
+A
1
,
11
) dx
2

= (A
1
,
11
+A
1
,
22
) dx
1

+ (A
2
,
11
+A
2
,
22
) dx
2

donde ya hemos usado la norma de Lorentz para simplicar las ecuaciones. Una
soluci on de las ecuaciones de Maxwell en el vacio F = 0 sobre la esfera es:
A
1
= A
0
x
2

, A
2
= A
0
x
1

3. DIFERENCIACI

ON E INTEGRACI

ON EN VARIEDADES 289
donde A
0
es una constante. Observe que x
1

= r
1

(p) = x/(1 z) and x


2

=
r
2

(p) = y/(1 z). La soluci on entoces es


A

= A
0
_
x
2

dx
1

x
1

dx
2

_
=
A
0
(1 z)
2
(ydx xdy)
A
0
(1 z)
3
(xy yx) dz
Si ahora cambiamos las coordenadas a coordenadas esfericas 15.1, las cuales son
m as convenientes para analizar este caso, se obtiene:
A

=
A
0
(1 z)
2
(ydx xdy) = A
0
(1 cos())
(1 cos())
d
A
+
= A
0
1 cos()
1 + cos()
d
A

= A
0
1 + cos()
1 cos()
d
la cual es una soluci on a las ecuaciones de Maxwell en el vacio sobre la pelota.
Ejemplo 16.55. Vamos a tomar alguna soluci on con fuentes. Supongamos que
tenemos un tensor de corrientes dado por
J =
x
1
(x
1
2
+x
2
2
+ 1)
3
dx
1
+
x
2
(x
1
2
+x
2
2
+ 1)
3
dx
2
(vamos a quitar en este ejemplo los subindices por comodidad). Igualando la
ecualci on F = 4J se llega a un sistema de ecuaciones
A
1
,
11
+A
1
,
22
=
4x
1
(x
1
2
+x
2
2
+ 1)
3
A
2
,
11
+A
2
,
22
=
4x
2
(x
1
2
+x
2
2
+ 1)
3
Este sistema tiene una soluci on dada por
A
1
=
x
1
2(x
1
2
+x
2
2
+ 1)
A
2
=
x
2
2(x
1
2
+x
2
2
+ 1)
En terminos de las coordenadas de
3
, la soluci on (regresando a la notaci on con
) es
A

=
A
0
(1 z)
(ydx xdy) = A
0
(1 cos()) d
A
+
= A
0
(1 cos()) d
A

= A
0
(1 cos()) d
Es decir A
+
= A

2A
0
d. Por lo tanto A

es solamente un campo de norma.


A

se llama el monopolo de Dirac


En la siguiente secci on vamos a introducir otros dos operadores diferenciales,
uno es llamado derivada de Lie y el otro la derivada covariante. Ambos tienen
su esfera de interes y se utilizan para diferentes objetivos. La derivada de Lie es
muy importante para encontrar simetrias en alguna variedad. Con ella es posible
encontrar los vectores de Killing, que son asociados a simetrias del espacio. Con la
290 16. TENSORES Y P-FORMAS
derivada covariante se construye el tensor de curvatura, que es un tensor con el que
podemos medir esta en todo punto del espacio. Para poder introducir la derivada
de Lie es necesario introducir algunos conceptos previos. Para esto necesitamos
primero algunas deniciones.
Definici on 16.56. Sea M
n
variedad, U M
n
y (, ) . Un grupo
uniparametrico de transformaci on es una funci on suave : (, ) U M
n
tal que
1) (0, x) = x
2) (t +s, x) = (t, (s, x)) para toda t, s , x M
n
Comentario 16.57. Observe que (t +s, x) = (s +t, x) = (s, (t, x))
El nombre de grupo es porque con esta funci on efectivamente se puede formar
un grupo, de un solo par ametro, esto se hace en la siguiente proposicion.
Proposici on 16.58. Sea : M
n
M
n
un grupo uniparametrico de
transformaciones y
=
t
: M
n
M
n
, x
t
(x) = (t, x) .
Entonces (,

) es un subgrupo del grupo de difeomorsmos.


Demostraci on 16.59. Se tiene que

t

s
(x) =
t+s
(x) = (t +s, x) = (t, (s, x)) =
t
(
s
(x)) .
Entonces es cerrado.
t+s
=
s+t
implica que es abeliano,
0
es la identidad
y
t
=
1
t
, ya que
t

t
=
0

Como el grupo uniparametrico de transformaciones es una funci on de los reales
a la variedad, se puede construir una curva. Entonces con la curva se puede construir
la tangente a esta curva que a su vez dene un vector. Entonce se dice que esta curva
es la curva integral del vector tangente a la curva. Vamos a hacer esto formalmente.
Definici on 16.60. Sea M
n
variedad. Una curva integral de X TM
n
es
un camino suave : (a, b) M
n
tal que

(s) = X
(s)
, s (a, b) vean la gura 3.
Figure 3. La curva integral del vector X, es el camino suave
representado en la gura.
Vamos a aclarar esta denicion un poco. Sea c = (U, , v) una carta y X TU.
Entonces la funci on : (a, b) U es una curva que cumple con la propiedad
d : T
s
T
(s)
M
n
3. DIFERENCIACI

ON E INTEGRACI

ON EN VARIEDADES 291
tal que explicitamente se cumple la siguiente igualdad
d
_
d
dt

s
_
= X
(s)
:=

(s) =
d
dt

.
donde hemos denido la funci on

(s). Esto es, para una funci on cualquiera de la
variedad a los reales f : M
n
se tiene que esta funci on cumple con las siguientes
igualdades

(f) = d
_
d
dt

s
_
(f) =
d
dt

s
(f ) = X
(s)
(f) .
Vamos a tomar una funci on muy particular, sea f = x
i
, entonces se tiene lo sigu-
iente:

_
x
i
_
= d
_
d
dt

s
_
_
x
i
_
=
d
dt

s
_
x
i

_
=
d
dt
_
x
i

_
(s) = X
j
(s)

x
j

(s)
_
x
i
_
= X
(s)
_
x
i
_
= X
_
x
j
_
( (s)) .
As es que se cumple
d
dt
_
x
i

_
= X
_
x
j
_
. Esto quiere decir que, dado un
vector X en la variedad, para encontrar una curva integral, hay que resolver el
sistema de ecuaciones diferenciales
(16.3)
d
dt
_
x
i

_
= X
_
x
i
_

Ejemplo 16.61. Vamos a encontra la curva integral del vector
X = x
2

x
1
x
1

x
2
Entonces, de la ecuaci on (16.3), las ecuaciones a resolver son (recuerden que r
1
=
x
1
, r
2
= x
2
)
dr
1
dt
= X(x
1
) = r
2
dr
2
dt
= X(x
2
) = r
1
Una soluci on a este sistema es r
1
= r sin(t), r
2
= r cos(t). Es f acil ver que la curva
integral es un crculo de radio r, ya que r
1
2
+r
2
2
= r
2
Ejemplo 16.62. Veamos ahora la curva integral del vector del ejemplo 15.63
X = (cos() 1)
_
cos()

+
sin()
sin()

_
Entonces, de la ecuaci on (16.3), las ecuaciones a resolver son
dr
1
dt
= X() =
_
cos(r
1
) 1
_
cos(r
2
)
dr
2
dt
= X() =
_
cos(r
1
) 1
_
sin(r
2
)
sin(r
1
)
Si dividimos la primera ecuaci on entre la segunda y separamos las variables, pode-
mos integrar este sistema de ecuaciones. El resultado es que (csc(r
1
) cot(r
1
)) =
292 16. TENSORES Y P-FORMAS
c sin(r
2
). Una parametrizaci on de esta curva esta dada por r
1
= , r
2
= 1/c arcsin(csc()
cot()). La curva es gracada en la gura 4
Figure 4. Curva integral del vector del ejemplo 16.62. Como este
vector corresponde a uno de los vectores base de la pelota, esta
curva esta sobre la pelota y hay que imaginarsela dando vuelta
alrededor de ella y con los extremos que se juntan.
Ejercicio 16.63. Encuetre la curva integral de los vectores
1) X =

x
1
+ m

x
2
sobre
2
2) X = sin()

sobre S
2
Otra propiedad importente del grupo unimarametrico de transformaciones es
que induce dos importantes funciones. Con ellas vamos a poder construir la derivada
de Lie. Vamos a denir estas funciones.
4. DERIVADA DE LIE Y DERIVADA COVARIANTE 293
Definici on 16.64. Sea : M
n
M
n
un grupo uniparametrico de trans-
formaciones sobre M
n
variedad. induce dos funciones

t
: M
n
M
n
x
t
(x) = (t, x)

x
: M
n
t
x
(t) = (t, x) .
Entonces
t
es un subgrupo abeliano del grupo de difeomorsmos y
x
induce el
vector X =

x
.
Observe que el conjunto
x
[
x
(t) = (t, x) cumple que
x

y
,=
y

x
en
general, por lo que
d (
x

y
)
_
d
dt

s
_
= d
x
d
y
_
d
dt

s
_
= X Y ,= Y X
= d (
y

x
)
_
d
dt

s
_
.
Esto es, la funci on
x
induce un producto que en general es un producto no con-
mutativo entre los vectores de la variedad.
4. Derivada de Lie y Derivada Covariante
Debido a la rica estructura que tienen los tensores, es posible denir varios oper-
adores diferenciales. En esta secci on vamos a introducir dos operadores diferenciales
muy importantes y utilizados en fsica, son operadores que generalizan la derivada
normal. La derivada de Lie es conveniente para espacios que tinen isometrias o
simetrias especiales. Con la derivada de Lie, como veremos, es posible encontrar
estas simetrias. La derivada covariante es un operador que convierte a un tensor
en otro tensor, por eso su importancia como operador diferencial. A la derivada
de Lie la vamos a introducir sin demostraciones, pero para la derivada covariante
daremos las demostraciones mas importantes. Ahora estamos listos para denir la
derivada de Lie.
Definici on 16.65. Sea M
n
variedad y T T
r
s
tensor sobre M
n
. Sea en
grupo uniparametrico de transformaciones sobre M
n
, X =

x
. La derivada de
Lie de T a lo largo de X se dene como
L
X
T [
p
= lim
t0
1
t
(T [
p

t
T [
p
)
donde
x
y
t
son las funciones inducidas por .
La derivada de Lie tiene varias propiedades, que aqu vamos a poner sin de-
mostraci on, y que podemos resumir en la siguiente proposicion.
Proposici on 16.66. Sea L
X
derivada de Lie del vector X, entonces se cumple:
1) L
X
preserva el tipo de tensor, es decir mapea L
X
: T
r
s
T
r
s
2) L
X
es lineal y preserva la contracci on
3) Si S y T son tensores arbitarios, se cumple L
X
(S T) = (L
X
S) T +S
(L
X
T)
4) L
X
f = X (f) para f : M
n

294 16. TENSORES Y P-FORMAS


5) L
X
Y = L
Y
X = [X, Y ] para toda X, Y TM
n
6) d (L
X
w) = L
X
(dw)
Finalmente, como dijimos, vamos a introducir otro operador diferencial, la
derivada covariante. Para esto necesitamos introducir una nueva estructura llamada
la conexion, y que vamos a denotar por . La idea de la conex on es dar una forma
de conectar un vector que es trasladado paralelamente a traves de la variedad. As,
si el vector base e
a
es traslado paralelamente a lo largo de la curva , que tiene
como vector tangente al vector e
b
, el vector nal trasladado paralelamente sera

e
b
e
a
, vean la gura 5. Vamos a desarrolar esta idea con cuidado. Formalmente
la denicion de conexion es:
Definici on 16.67. Una conexi on para alg un p M
n
, variedad, es un
mapeo que le asocia a cada tensor del tipo T T
r
s
un tensor del tipo T
r
s+1
:
T
r
s
T
r
s+1
tal que
1) es una derivaci on en el algebra tensorial, i.e.
(T +T

) = T +T

y
(S T) = S T +S T
2) f = df para toda f : M
n

3) = e
a

e
b
donde e
a

a=1, ,n
y e
b

b=1, ,n
son bases duales de T

M
n
y
TM
n
respectivamente.
4)
X
es lineal, i.e.
X+Y
=
X
+
Y
.
No hay una manera unica de denir la conexion en una variedad. La mas com un
es la conexion que hace que la derivada covariante haga cero al tensor metrico, la
cual introduciremos mas adelante. Pero en general, la forma de denir la conexion
es usando la siguiente regla.
Sea e
a

a=1,...,n
una base de TM
n
no necesariamente coordinada, es decir
e
a
= e
i
a

x
i
. Entonces

e
b
e
a
=
c
ab
e
c
TM
n
donde los coecientes
c
ab
son funciones suaves, vean la gura 5, que se obtienen
del producto
c
ab
= e
c
,
e
b
e
a
), donde
_
e
b
_
b=1, ,n
es la base dual a e
a

a=1, ,n
,
es decir e
b
= e
b
j
dx
j
y se cumple que
(16.4)

e
b
, e
a
_
= e
b
j
e
j
a
_
dx
j
,

x
j
_
=
b
a
.
De hecho, denir la conexion es equivalente a dar los valores de las funciones
c
ab
sobre la variedad. Para una base coordenada, los coecientes de la conexion son

x
j

x
i
=
k
ij

x
k
nosotros vamos a tomar siempre conexiones simetricas, es decir, para las bases
coordenadas se cumple que

k
ij
=
k
ji
Ejercicio 16.68. Estudien como se comportan los coecientes
c
ab
bajo un
cambio de base (de coordenadas).
Conociendo la conexion en la variedad, se puede conocer la derivada covariante
de un vector. La forma de hacerlos se ve en la siguiente proposicion.
4. DERIVADA DE LIE Y DERIVADA COVARIANTE 295
Figure 5. El desplazamiento paralelo de un vector. Este de-
splazamiento en una variedad dene los coecientes de la derivada
covariante entre bases dadas.
Proposici on 16.69. Las componentes de la derivada covariante del vector Y
a lo largo del vector X, se ven como

X
Y =
_
Y
a
|b
X
b
_
e
a
donde e
a

a=1, ,n
es una base de TM
n
y Y
a
|b
= e
b
(Y
a
) +
a
cb
X
c
Demostraci on 16.70. Tomemos X = X
b
e
b
Y = Y
a
e
a
, entonces

e
b
Y =
e
b
(Y
a
e
a
)
= (
e
b
Y
a
) e
a
+Y
a
(
e
b
e
a
)
= e
b
(Y
a
) e
a
+
c
ab
e
c
Y
a
= (e
b
(Y
a
) +
a
cb
Y
c
) e
a
= Y
a
|b
e
a
por la linearidad del operador
ea
se obtiene el resultado deseado.
Notaci on 16.71. En el caso que la base sea una base coordenada dx
i
, se
acostumbra denotar a la derivada covariante no por el simbolo [, sino por ; entonces:

x
j
Y =
_
Y
i
,
j
+
i
kj
Y
k
_

x
i
= Y
i
;j

x
i
Por supuesto Y = dx
j
Y
i
;j

x
i
no depende de las bases.
De hecho, la denicion de la conexion o del transporte paralelo es equivalente.
Si se dene una, se puede denir la otra. En este caso hemos denido a la conexion,
entonces el trasporte paralelo se dene como:
Definici on 16.72. Sea un camino en la variedad M, y sea X = el vector
tangente a lo largo de . Se dice que el vector Y ha sido trasladado paralelamente
a traves de X, si

X
Y = 0
296 16. TENSORES Y P-FORMAS
Supongamos por facilidad que X = X
j
x
j
, y que Y = Y
i
x
i
. Si desarrollamos
la formula de la denicion 16.72, se tiene
0 =
X
Y =
X
j
x
j
Y = X
j

x
j
Y =
_
X
j
Y
i
,
j
+
i
kj
X
j
Y
k
_

x
i
que puede escribirse de la forma equivalente
_
X(Y
i
) +
i
kj
X
j
Y
k
_
=
d
_
Y
i

_
dt
+
i
kj
X
j
Y
k
= 0
donde hemos usado la formula de la cuarva integral de la ecuaci on (16.3) de X en
la igualdad.
Ejemplo 16.73. Vamos a discutir un ejemplo simple, para iniciar, vamos a
suponer que la conexi on es cero. Supongamos que tenemos el vector Y = Y
1
x
1
+
Y
2
x
2
el cual queremos desplazar paralelamente a lo largo de una curva. Ahora
veamos la ecuaci on del desplazamiento paralelo, se tiene
dY
1

dt
= 0,
dY
2

dt
= 0
cuya soluci on es Y
1
= Y
1
0
, Y
2
= Y
2
0
, donde ya hemos puesto las condiciones
iniciales a la soluci on, es decir, el valor del vector Y [
t=t0
en el punto donde se
inicia el desplazamiento. Este vector ser a siempre Y [
t=t0
, es decir, si la conexi on
es cero, un vector se desplaza paralelamente sin cambiar.
Ejemplo 16.74. Ahora vamos a estudiar un ejemplo donde la conexi on no es
cero. Sea la variedad M 2-dimensional, con coordenadas , y con la conexi on

=
sin()
cos() 1

= sin()

=
1
sin()
y vamos a transportar paralelamente un vector sobre esta variedad a lo largo del
vector X dado por
X = sin()

cuya curva integral es un desplazamiento s olo en la direcci on y esta dada por la


parametrizaci on =
0
constante y =
0
t. Entonces encontremos el desplaza-
miento paralelo de un vector en M a lo largo de este vector, obtenemos
0 =
d
_
Y


_
dt
+


=
dy
1
dt
+ sin
2
(
0
)y
2
0 =
d (Y

)
dt
+


=
dy
2
dt
y
1
Para obtener el desplazamiento paralelo de Y , hay que resolver este sistema de ecua-
ciones con las condiciones iniciales correspondientes al punto inicial. La soluci on
del sistema esta dada por
y
1
(t) = C1 sin (sin (
0
) t) +C2 cos (sin (
0
) t)
y
2
(t) =
C2
sin(
0
)
sin (sin (
0
) t)
C1
sin (
0
)
cos (sin(
0
) t)
4. DERIVADA DE LIE Y DERIVADA COVARIANTE 297
Dado el valor inicial de y
1
y y
2
, se jan las constantes y se puede encontrar el
vector desplazado paralelamente en otro punto, para alg un valor de t.
De la misma forma podemos calcular la derivada covariante de una 1-forma,
dado que ya conocemos la conexion en la variedad. Esto se ve en la proposicion
siguiente.
Proposici on 16.75. Sea conexi on en M
n
. Si
e
b
e
a
=
c
ab
e
c
entonces

e
b
e
a
=
a
cb
e
c
.
Demostraci on 16.76. Sea Y = Y
a
e
a
TM
n
y w = w
c
e
c
T

M
n
. Usemos
el hecho que y por lo tanto
e
b
son derivaciones, entonces

e
b
(w
c
Y
c
) = w
c|b
Y
c
+w
c
Y
c
|b
Y como w
c
Y
c
es una funci on, se tiene:
= e
b
(w
c
) Y
c
+ w
c
e
b
(Y
c
) Por otro lado, se sigue que:
= (e
b
(w
c
)
a
cb
w
a
) Y
c
+w
a
(e
b
(Y
a
) +
a
cb
Y
c
)
Por lo que entonces
e
b
w = w
c|b
e
c
= (e
b
(w
c
)
a
cb
w
a
) e
c

Ejercicio 16.77. Demuestre que las componentes de la derivada covariante

e
b
T, aplicada a un tensor T = T
b1br
a1as
e
b1
e
br
e
a1
e
as
estan dadas
por
T
b1br
a1as|b
= e
b
(T
b1br
a1as
) +
r

i=1

bi
cb
T
b1cbr
a1as

s

j=1

c
ajb
T
b1br
a1cas
Existe una relacion entre todas los operadores diferenciales que hemos denido,
la diferencial de p-formas, la derivada de Lie y la derivada covariante. Entre la
diferencial de p-formas y la derivada covariante la relaci on es que la diferencial se
puede facilmente generalizar a espacios con conexion . La diferencial exterior,
denicion 16.21, en espacios con conexion es
dw =
x
j
_
w
i1, ,ip
_
dx
i1
dx
ip
,
que, por ejemplo, para una 1-forma w = w
i
dx
i
se obtiene
dw =
x
j
(w
i
)dx
i
= (w
i,j

k
ij
w
k
)dx
i
dx
j
.
Todas las proposiciones y teoremas que se aplican a la derivada exterior se siguen
igualmente con la denicion extendida. Por lo general, los coecientes de conex on
en un sistema coordenado dx
i
son simetricos, es decir
k
ij
=
k
ji
, en tal caso la
denicion anterior es exactamente la denicion 16.21.
La relacion entre la derivada de Lie y la derivada covariante, la cual veremos
sin demostracion, se sigue de la siguiente proposicon.
Proposici on 16.78. Sea
T = T
b1br
a1as
e
b1
e
br
e
a1
e
as
tensor. Entonces la derivada de Lie a lo largo del vector X = X
c
e
c
de este tensor
esta dada por
(16.5) L
X
T
b1br
a1as
= X
c
T
b1br
a1as|c

n=1
T
b1cbr
a1as
X
bn
|c
+
s

m=1
T
b1br
a1cas
X
c
|am
Vamos a ver algunos ejemplos de como usar la formula (16.5).
298 16. TENSORES Y P-FORMAS
Ejemplo 16.79. Vamos a encontrar la derivada de Lie de un vector Y = Y
b
e
b
a lo largo del vector X = X
c
e
c
. Usando la f ormula (16.5) se tiene
L
X
Y
b
= X
c
Y
b
|c
Y
c
X
b
|c
= [X, Y ]
b
D
b
cd
X
c
Y
d
donde D
b
cd
=
b
dc

b
cd
. Si las componentes de la conexi on son simetricas D
b
cd
= 0,
la ultima igualdad fue dada en la proposci on 16.66 sobre las propiedades de la
derivada de Lie. Vamos a encontrar ahora la derivada de Lie de una uno forma
w = w
a
e
a
a lo largo del mismo vector X = X
c
e
c
. Usando la f ormula (16.5) se
tiene
L
X
w
a
= X
c
w
a|c
+w
c
X
c
|a
Si e
j
=

x
j
, e
i
= dx
i
son bases coordenadas, entoces solo hay que cambiar
el simbolo [ por ; y D
i
jk
= 0 generalmente.
Ejemplo 16.80. Ahora vamos a buscar la derivada de Lie a lo largo del vector
X = X
c
e
c
de un tensor T = T
ab
e
a
e
b
. De nuevo, usando la f ormula (16.5) se
tiene
L
X
T
ab
= X
c
T
ab|c
+T
cb
X
c
|a
+T
ac
X
c
|b
Este resultado lo usaremos m as adelante.
El interes de la derivada de Lie radica en lo siguiente. Supongamos que es
una isometria (ver captulo 9 denicion 9.71). Es decir, esta funci on deja invariate
la metrica (X, Y ) = ((X), (Y )) = (X, Y ). La presencia de isometrias
es com un en problemas reales, por ejemplo, si un prblema tiene simetria axial, la
metrica del problema permanece inalterada alrededor del eje z, o si el prblema a
tratar es periodico, la metrica (Lorentziana) del problema tiene una isometria en
el tiempo. Ahora bien, si es una isometria, la derivada de Lie de la metrica a
lo largo de su vector tangente = X es cero, lo cual se ve de la denicion 16.65.
Es decir, las simetrias de un problema conducen siempre a derivadas de Lie de la
metrica a lo largo del vector de la isometria igual a cero. A los vectores tangente
generados por una isometria se les llama vectores de Killing. Su denicion formal
es la siguiente.
Definici on 16.81. Sea un grupo uniparametrico de trasformaciones que a
su vez es una isomentria

t
g = g. Entonces el vector generado por
x
= X se
llama vector de Killing
La manera de encontrar los vectores de Killing de una variedad M, es utilizando
el ejmplo 16.80. Para esto, supongamos que se tiene una metrica como la denida
en el ejemplo 16.12. Entonces se sigue que
Proposici on 16.82. Un vector de Killing X = X
i
x
i
cumple con la ecuaci on
diferencial
L
X
g
ij
= X
k
g
ij;k
+g
kj
X
k
;i
+g
ik
X
k
;j
= 0
donde la metrica esta dada como g = g
ij
dx
i
dx
j
.
Demostraci on 16.83. Por sustituci on directa en el ejercicio 16.80
Comentario 16.84. Mas adelante veremos que una metrica es compatible con
la conexi on si su derivada covariante es cero, es decir, g = 0. Para estas metricas,
las que m as nos interesan a nosotros, la ecuaci on anterior se reduce a
X
j;i
+X
i;j
= 0
4. DERIVADA DE LIE Y DERIVADA COVARIANTE 299
donde hemos denido X
k;i
= g
kj
X
k
;i
. A esta ecuaci on se le llama la ecuaci on de
Killing
Existen varias propiedades de los tensores cuando se les aplican los operadores
diferenciales que hemos visto. En lo que sigue, vamos a deducir solo algunas de las
propiedades mas importantes. Vamos a iniciar con la siguiente proposicion.
Proposici on 16.85. Sean e
a
= e
a
i
dx
i
1-formas base del espacio cotangente
T

M y la derivada covariante en M, tal que


a
bc
es su conexi on asociada. En-
tonces se sigue que
de
a
=
a
bc
e
b
e
c
Demostraci on 16.86. Sea e
b
= e
k
b

x
k
la base dual a e
a
= e
a
i
dx
i
en TM.
De la denici on de la conexi on
a
bc
, se sigue que

a
bc
= e
a
,
c
e
b
) = e
a
i
dx
i
, e
k
b;j
e
j
c

x
k
) = e
a
k
e
j
c
e
k
b;j
De una forma an aloga se puede ver que

a
bc
=
c
e
a
, e
b
) = e
a
i;j
e
j
c
dx
i
, e
k
b

x
k
) = e
a
k;j
e
j
c
e
k
b
Donde hemos usado para simplicar, la notaci on
ec
=
c
. Si juntamos los dos
resultados anteriores se tiene

a
bc
= e
a
k
e
j
c
e
k
b;j
= e
a
k;j
e
j
c
e
k
b
De la denici on de diferencial exterior se sigue que
de
a
= e
a
k;i
dx
i
dx
k
= e
a
k;i

i
j

k
l
dx
j
dx
l
= e
a
k;i
e
b
j
e
i
b
e
c
l
e
k
c
dx
j
dx
l
= e
a
k;i
e
i
c
e
k
b
e
b
e
c
=
a
bc
e
b
e
c
Esta es la llamada primera forma fundamental de Cartan.
Notaci on 16.87. Es conveniente denir la 1-forma de conex on por

a
b
=
a
bc
e
c
de tal forma que
de
a
+
a
b
e
b
= 0
Para terminar esta secci on, vamos a denir las curvas geodesicas. Una curva
geodesica es aquella que transporta paralelamente su vector tangente. Es decir:
Definici on 16.88. Sea una trayectoria en una variedad M y X su vector
tangente, = X. Se dice que la curva descrita por esta trayectoria es una geodesica
si

X
X = 0
300 16. TENSORES Y P-FORMAS
Comentario 16.89. La ecuaci on geodesica tambien puede escribirse usando la
f ormula (16.3) de la curva integral del vector X.
(16.6)
dX
i

dt
+
i
jk
X
j
X
k
=
d
2
r
i
dt
2
+
i
jk
dr
j
dt
dr
k
dt
= 0
donde hemos usado la f ormula dr
i
/dt = X
i
de la curva integral de X.
Vamos a estudiar un ejemplo sencillo.
Ejemplo 16.90. Vamos a estudiar un ejemplo donde la conexi on es de la var-
iedad M 2-dimensional, con coordenadas , del ejemplo 16.74. Recordando las
ecuaciones del desplazamiento paralelo, podemos escribir las ecuaciones para las
geodesicas en este espacio como
d
2
r

dt
2
+
sin()
cos() 1
_
dr

dt
_
2
+ sin()
_
dr

dt
_
2
= 0
d
2
r

dt
2

2
sin()
dr

dt
dr

dt
= 0
La resoluci on de este sistema no es simple y en algunos casos se pueden dar solu-
ciones parciales o se resuelven estos sistemas numericamente.
5. El Tensor Metrico y el Tensor de Curvatura
La denicion de la conexion es, en general totalmente independiente de la
metrica de la variedad. En esta secci on vamos a denir al tensor de curvatura
en terminos de la conexion. Eso quiere decir que la curvatura de la variedad es,
en general, totalmente independiente de la metrica. El transporte paralelo, equiv-
alente a la conexion, asi como la curvatura, son cantidades que no dependen, en
general, de la metrica de la variedad. Estrictamente hablando, no hay forma de
jar la conexion de una manera universal. En fsica, y mas concretamente en rela-
tividad general, la conexion se ja utilizando las ecuaciones de Einstein. La raz on
por la que introducimos al tensor metrico y al tensor de curvatura en la misma
secci on, es porque hay una manera particular de jar la conex on conociendo el ten-
sor metrico, que es la manera canonica utilzada en fsica para relacionar a los dos
tensores. As, las ecuaciones de Einstein son ecuaciones diferenciales para las com-
ponentes del tensor metrico, que a la vez ja la conexion y con ello a la curvatura.
Esta conexion es la que mas nos va a interesar aqu. Sin embargo, empezaremos
introduciendo al tensor de curvatura sin relacion con el tensor metrico, y despues
discutiremos el caso especial en el que si estan relacionados. Este ultimo caso es de
mucho interes porque la metrica ja la conexion y la curvatura de manera unica y
nos limitaremos a estudiar las propiedades del tensor de curvatura solo para este
caso. Vamos a iniciar introduciendo el tensor metrico.
Definici on 16.91. Sea M
n
una variedad n-dimensional y w
a

a=1, ,n
una
base de T

M. Un tensor del tipo (0, 2) simetrico tal que


g =
ab
w
a
w
b
donde ()
ab
=
ab
= diag(1, , 1), es un tensor metrico de M.
Notaci on 16.92. A la matriz
ab
se le llama la signatura de la variedad.
Si es la matriz identidad, se dice que la variedad es Euclidiana. Si hay solo un
uno con signo diferente a los demas, se dice que la variedad es Riemanniana.
5. EL TENSOR M

ETRICO Y EL TENSOR DE CURVATURA 301


Sin embargo, en algunos libros (de matem aticas) lo que aqu llamamos variedad
Euclidiana lo llaman variedad Riemanniana y lo que aqui llamamos Riemanniana
lo llaman variedad Pseudoriemanniana o variedad Lorenziana.
Con el tensor metrico, la variedad y su espacio tangente adquieren varias es-
tructuras. Si M
n
es una variedad con metrica, entonces g es un producto interno
entre vectores g(X, Y ). El espacio (TM, g) es un espacio Euclidiano y g su pro-
ducto interno. Con este producto se dene una norma tal que la norma del vector
X es [[X[[ =
_
g(X, X). Entoces (TM, [[ [[) es un espacio normado. Con la norma
denimos la metrica sobre TM como
(X, Y ) = [[X Y [[ =
_
g(X Y, X Y ),
entoces (TM, ) es un espacio metrico (vea el captulo 9). Sin embargo, debe quedar
claro que solo si la sigatura corresponde a una variedad Euclidiana (y solo en este
caso), este tensor dene un espacio Euclidiano. En el caso de la signatura Loren-
ziana, el espacio (TM, g) se llama espacio pseudoeuclidiano, (TM, [[[[), [[X[[ =
g(X, X) es un espacio pseudonormado y (TM, ), (X, Y ) = [[X Y [[ es un
espacio pseudometrico o Riemanniano en la variedad. Claramente, si tomamos
una base e
b
dual a w
a
, se tiene que
ab
= g(e
a
, e
b
). El caso mas interesante
en fsica es el de signatura Lorenziana, ya que corresponde al modelo del espacio
tiempo. El espacio tiempo es una variedad Riemanniana 4-dimensional, en este
caso a los 4 vectores base del espacio cotangente se le llama tetrada. En espacios
con signatura Lorenziana entonces los vectores pueden tener normas no positivas.
Se clasica a los vectores segun su norma, si la norma es positiva se dice que el
vector es tipo tiempo, si su norma es nula, el vector es tipo nulo y si tiene
norma negativa, se dice que el vector es tipo espacio. Para signaturas Loren-
zianas podemos usar la signatura = diag(1, 1, 11). Sin embargo, es posible usar
signaturas no diagonales, como
=
_
_
_
_
0 1 0 0
1 0 0 0
0 0 0 1
0 0 1 0
_
_
_
_
Esta signatura dene una base del espacio muy particular llamada tetrada nula, ya
que g(e
a
, e
a
) = 0 (no sumatoria!) para todo a = 1, 2, 3, 4. Esto es, los vectores base
del espacio tangente tienen norma (magnitud) nula. Es mas, el producto interno
de los vectores e
1
y e
2
es g(e
1
, e
2
) = 1, y de los vectores e
3
y e
4
es g(e
3
, e
4
) = 1.
Claramente, en este caso la norma y por tanto la distancia, no cumplen con el
axioma de ser denidas positivas. Esta signatura es de gran interes en relatividad
general.
En una base arbitraria, w
a
= w
a
i
dx
i
, el tensor metrico se escribe como
g = g
ab
w
a
w
b
= g
ab
w
a
i
w
b
j
dx
i
dx
j
= g
ij
dx
i
dx
j
donde hemos denido la cantidad g
ij
= g
ab
w
a
i
w
b
j
. En ocaciones se acostumba
designar por el simbolo ds
2
a la metrica, es decir ds
2
= g
ij
dx
i
dx
j
. Ahora vamos
a denir la metrica compatible con la conexion.
Definici on 16.93. Sea M variedad con conexi on y metrica g. Se dice que
g es una metrica compatible con la conexi on si

c
g = 0, e
c
(g
ab
)
bac

abc
302 16. TENSORES Y P-FORMAS
para todo vector e
c
, donde hemos utilizado el resultado del ejercicio 16.77 y hemos
denido la cantidad
abc
= g
ad

d
bc
.
De aqui se desprende inmediatamente que si la conexion y la metrica g son
compatibles, se sigue entonces una relacion para las componentes de la metrica
dada por
(16.7) dg
ab
=
ba
+
ab
ya que si multiplicamos la relacion de la denicion 16.93 por los duales e
c
de los
vectores base e
c
, se llega a la relacion anterior, recordemos que
c
b
=
c
bd
e
d
.
Esta denicion tambien trae como consecuencia que un tensor metrico compat-
ible con la conexion, dene la univocamente la conexion en la variedad. Esto se ve
en la siguiente proposicion.
Proposici on 16.94. Sea M
n
variedad n-dimensional con conexi on y metrica
g compatible con la conexi on. Entonces las componentes de la conexi on son deter-
minadas univocamente por las componentes del tensor metrico.
Demostraci on 16.95. Sea

x
i

i=1, ,n
una base coordenada de la variedad
M
n
. De la denici on de compatibilidad para esta base coordenada entre la metrica
y la conexi on, se tiene que
g
ij,k
+
jik
+
ijk
= 0
g
ki,j

ikj

kij
= 0
g
kj,i

jki

kji
= 0
Si sumamos estas tres ecuaciones, obtenemos

kij
=
1
2
(g
ki,j
+g
kj,i
g
ij,k
)
ya que
kij
es simetrica en los indices ij. Asi mismo podemos denir an alogamente
los coecientes de conexi on

k
ij
=
1
2
g
kl
(g
li,j
+g
lj,i
g
ij,l
)
donde g
kl
es la matriz inversa a g
ij
, es decir g
kl
g
lj
=
k
j
.
Notaci on 16.96. A los coecientes de conexi on
k
ij
de una base coordenada se
les llama simbolos de Christoel.
Para poder obtener los coeciente de conexion en otra base, observemos que
e
a

a
bc
e
b
e
c
no depende de las bases, asi que

a
bc
e
a
e
b
e
c
=
a
bc
e
i
a

x
i
e
b
j
e
c
k
dx
j
dx
k
=
i
jk

x
i
dx
j
dx
k
donde se ha denido la cantidad

i
jk
= e
i
a

a
bc
e
b
j
e
c
k
Claramente hemos usado las bases duales e
a
y e
b
. Para escribir los coecientes

a
bc
en terminos de los
i
jk
, se usan las relaciones de dualidad e
i
a
e
b
i
=
a
b
y e
i
b
e
b
j
=
i
j
,
de donde obtenemos

a
bc
= e
a
i

i
jk
e
j
b
e
k
c
Ahora vamos a introducir la dos forma de curvatura. La curvatura se dene en
un espacio con conexion, no necesariamente con metrica. Formalmente su denicion
es
5. EL TENSOR M

ETRICO Y EL TENSOR DE CURVATURA 303


Definici on 16.97. Sea M
n
variedad y una conexi on en M
n
. Entonces
la dos forma de curvatura o segunda forma fundamental de Cartan, se
dene como

a
b
= d
a
b
+
a
c

c
b
En termino de sus componentes, podemos escribir a la dos forma de curvatura
como ciertos coecientes por la base de las 2-formas, es decir

a
b
=
1
2
R
a
bcd
e
c
e
d
donde claramente e
a
es una base de T

M
n
. A las componentes R
a
bcd
se les conoce
como tensor de curvatura, ya que a su vez son las componentes de un tensor que
se puede escribir como R = R
a
bcd
e
a
e
b
e
c
e
d
. Tambien podemos obtener las
componentes de la dos forma de curvatura en terminos de las componentes de la
conexion. Observemos que de su denicion se sigue

a
b
=
_

a
bc|d

e
cd

a
be
_
e
d
e
c
+
a
ec

e
bd
e
c
e
d
=
1
2
_

a
bc|d

a
bd|c
_
e
d
e
c
+
1
2
(
a
ec

e
bd

a
ed

e
bc
) e
c
e
d
+
1
2
(
e
cd

a
be
+
e
dc

a
be
) e
d
e
c
=
1
2
_

a
bd|c

a
bc|d
+
a
ec

e
bd

a
ed

e
bc
+D
e
cd

a
be
_
e
c
e
d
de donde obtenemos que las componentes estan dadas por
R
a
bcd
=
a
bd|c

a
bc|d
+
a
ec

e
bd

a
ed

e
bc
+D
e
cd

a
be
En un sistema coordenado, las componentes del tensor de curvatura estan dadas
por una expresion un poco mas simple
R
i
jkl
=
i
jl,k

i
jk,l
+
i
nk

n
jl

i
nl

n
jk
El tensor de curvatura tiene una interpretaci on geometrica doble. Por un lado,
es una medida de la diferencia que existe entre un vector y el mismo al ser trans-
portado paralelamente a lo largo de una curva cerrada. El tensor de curvatura nos
da una medida de cuanto se diferencia el vector inicial y el nal, despues de ser
transportado. Si la curvatura es cero, esa diferencia tambien es cero. Y tambien
nos da la separacion que experimentan dos geodesicas al propagarse paralelamente.
Si se trata de un espacio de curvatura cero, las geodesicas no se separan o se juntan,
se propagan paralelamente. Pero si la curvatura no es cero, estas suelen separarse
o juntarse. El tensor de curvatura es una medida de esta separacion.
El tensor de curvatura cumple con varias identidades y relaciones que sirven
para simplicar su c alculo. Vamos a derivar las mas importantes, empecemos por
una relacion que aplica a la segunda derivada de un vector y al tensor de curvatura.
Proposici on 16.98. Sea M
n
variedad y la conexi on en la variedad. Sea
w = w
i
dx
i
una 1-forma en M
n
. Entonces se sigue que
w
i;j;k
w
i;k;j
= R
l
ijk
w
l
304 16. TENSORES Y P-FORMAS
Demostraci on 16.99. La demostraci on es por c alculo directo, se tiene que
w
i;j
= w
i,j

l
ij
w
l
, entonces se sigue
w
i;j;k
=
_
w
i,j

l
ij
w
l
_
,k

n
ik
_
w
n,j

l
nj
w
l
_

n
jk
_
w
i,n

l
in
w
l
_
Recordemos que las componentes de la conexi on en un sistema coordenado son
simetricas, asi que
w
i;j;k
= w
i,jk

l
ij,k
w
l

l
ij
w
l,k

l
ik
w
l,j

n
ik

l
nj
w
l

n
jk
_
w
i,n

l
in
w
l
_
w
i;k;j
= w
i,jk

l
ik,j
w
l

l
ik
w
l,j

l
ij
w
l,k

n
ij

l
nk
w
l

n
jk
_
w
i,n

l
in
w
l
_
w
i;j;k
w
i;k;j
=
l
ik,j
w
l

l
ij,k
w
l
+
n
ij

l
nk
w
l

n
ik

l
nj
w
l
= R
l
ijk
w
l

Ejercicio 16.100. Sea M


n
variedad y X = X
i
x
i
. Demuestre que
X
i
;j;k
X
i
;k;j
= R
i
ljk
X
l
Ejercicio 16.101. Sea M
n
variedad y T = T
j1jr
i1is

x
j
1


x
jr
dx
i1

dx
is
un tensor en M
n
. Demuestre por inducci on que
T
j1jr
i1is;j;k
T
j1jr
i1is;k;j
=
s

l=1
R
n
i
l
jk
T
j1jr
i1nis

l=1
R
j
l
njk
T
j1njr
i1is
Observen que de la proposicion 16.98 y del ejercicio 16.100 se desprenden la
relacion para las componentes del tensor de curvatura R
i
jkl
= R
i
jlk
. Si aplicamos
la relacion del ejercicio 16.77 al tensor de curvatura, obtenemos
g
nm;j;k
g
nm;k;j
= R
l
njk
g
lm
+R
l
mjk
g
nl
de donde se desprende que para una conexion compatible con la metrica g, se sigue
que R
mnjk
= R
nmjk
, donde R
mnjk
= R
l
njk
g
lm
.
Otra relacion que debemos explorar es las consecuencias sobre la curvatura de
la realcion ddw = 0 para una 1-forma w. Dado que dw = w
i;j
dx
j
dx
i
, se sugue
que
ddw =
_
w
i,j

n
ij
w
n
_
;k
dx
k
dx
j
dx
i
=
_
_
w
i,j

n
ij
w
n
_
,k

l
ik
_
w
l,j

n
lj
w
n
_

l
jk
(w
i,l

n
il
w
n
)
_
dx
k
dx
j
dx
i
=
_

n
ij,k
w
n

n
ij
w
n,k

l
ik
w
l,j

l
ik

n
lj
w
n
_
dx
k
dx
j
dx
i
=
_

n
ij,k

l
ik

n
lj
_
w
n
dx
k
dx
j
dx
i
= R
n
ijk
w
n
dx
k
dx
j
dx
i
= 0
de donde se sigue la relacion
(16.8) R
n
ijk
+R
n
kij
+R
n
jki
= 0.
Una relacion que es muy importante para entender la teora general de la rela-
tividad, son las identidades de Bianchi. Estas identidades se obtienen en la siguiente
proposicion.
5. EL TENSOR M

ETRICO Y EL TENSOR DE CURVATURA 305


Proposici on 16.102 (Identidades de Bianchi). Sea M
n
variedad con conexi on
y tensor de curvatura R
n
ijk
. Entonces se sigue que
R
n
ijk;l
+R
n
ikl:j
+R
n
ilj;k
= 0
Demostraci on 16.103. Sea w = w
l
dx
l
una 1-forma en M
n
. Si usamos la
f ormula del ejercicio 16.101 para el tensor w
i;l
, se obtiene
w
i;l;j;k
w
i;l;k;j
= R
n
ijk
w
n;l
+R
n
ljk
w
i;n
Ahora aplicamos la derivada covariante al resultado de la proposici on 16.98, se
obtiene
w
i;j;k;l
w
i;k;j;l
= R
n
ijk;l
w
n
+R
n
ijk
w
n;l
Ahora usamos el mismo procedimiento anterior, sumamos ambos resultados ante-
riores cambiando los indices j, k, l circularmente. Se obtiene
w
i;l;j;k
w
i;l;k;j
= R
n
ijk
w
n;l
+R
n
ljk
w
i;n
w
i;k;l;j
w
i;k;j;l
= R
n
ilj
w
n;k
+R
n
klj
w
i;n
w
i;j;k;l
w
i;j;l;k
= R
n
ikl
w
n;j
+R
n
jkl
w
i;n
w
i;j;k;l
w
i;k;j;l
= R
n
ijk;l
w
n
+R
n
ijk
w
n;l
w
i;k;l;j
w
i;l;k;j
= R
n
ikl;j
w
n
+R
n
ikl
w
n;j
w
i;l;j;k
w
i;j;l;k
= R
n
ilj;k
w
n
+R
n
ilj
w
n;k
y restamos las 3 identidades de arriba menos los 3 identidades de abajo, se obtiene
0 =
_
R
n
ljk
+R
n
klj
+R
n
jkl
_
w
i;n

_
R
n
ijk;l
+R
n
ikl;j
+R
n
ilj;k
_
w
n
pero lo que esta entre el primer parentesis es cero, por la relaci on (16.8) que enco-
tramos anteriormente, asi que se sigue lo que buscamos.
Notaci on 16.104. A las relaciones anteriores se les llama las Identidades
de Bianchi.
Resumen 16.105. Vamos a resumir las identidades salidas del tensor de cur-
vatura.
1. R
i
jkl
= R
i
jlk
2. R
n
ljk
+R
n
klj
+R
n
jkl
= 0
3. R
n
ijk;l
+R
n
ikl;j
+R
n
ilj;k
Identidades de Bianchi
4. R
mnjk
= R
nmjk
Conexiones Compatibles con la metrica
En lo que sigue veremos algunos ejemplos de curvatura, por supuesto, si conoce-
mos la conexion, es sencillo calcular la curvartura usando su denicion o la segunda
forma fundamental de Cartan. Pero nosotros vamos a utilizar solo conexiones que
son compatibles con la metrica. Asi que para calcular la conexion conociendo la
metrica, puede usarse la denicion de los simbolos de Christoel o la primera forma
fundamental de Cartan. Vamos a resumir todas estas denciones en este espacio.
306 16. TENSORES Y P-FORMAS
Resumen 16.106. Sea M
n
variedad con metrica g =
ab
dw
a
dw
b
= g
ij
dx
i

dx
j
, donde w = w
i
dx
i
es una base y dx
i
es una base coordenada del espacio
contangente T

M
n
. Entonces, la conexi on y la curvatura estan determinadas por
1. dw
a
+
a
b
w
b
= 0
2.
a
b
= d
a
b
+
a
c

c
b
Para una base no coordenada
3.
i
jk
=
1
2
g
il
(g
lj,k
+g
lk,j
g
jk,l
)
4. R
i
jkl
=
i
jl,k

i
jk,l
+
i
nk

n
jl

i
nl

n
jk
Para una base coordenada
Ejemplo 16.107. En este ejemplo vamos a utilizar la notaci on convencional
dw dw dw
2
. Vamos a buscar la metrica de la pelota S
2
. Como la pelota
esta inmersa en
3
, la forma mas simple de encotrar la metrica de la pelota es
substituyendo la ecuaci on de la pelota de radio a, x
2
+y
2
+z
2
= a
2
, en la metrica
euclidiana de
3
, dl
2

3
= dx
2
+dy
2
+dz
2
. Si substituimos
dz
2
=
(xdx +ydy)
2
a
2
(x
2
+y
2
)
obtenemos
dl
2
S
2 = dx
2
+dy
2
+
(xdx +ydy)
2
a
2
(x
2
+y
2
)
Ahora bien, podemos usar coordenadas polares x = Rcos(), y = Rsin() en la
metrica, para obtener
dl
2
S
2 = R
2
d
2
+
a
2
dR
2
a
2
R
2
Conviene escribir la metrica de la pelota en terminos del cociente r = R/a, entonces
la metrica se ve como
dl
2
S
2 = a
2
_
dr
2
1 r
2
+r
2
d
2
_
Para nalizar este ejemplo, vamos a escribir la metrica del espacio
3
en terminos
de las coordenadas esfericas 15.1 (vamos a cambiar la r de la denici on 15.1 por
a, para denotar el radio de la esfera), se obtiene
dl
2

3 = dx
2
+dy
2
+dz
2
= da
2
+a
2
_
d
2
+ sin
2
()d
2
_
la cual es la metrica euclidiana, pero ahora escrita en coordenadas esfericas. Si
limitamos esta metrica a la pelota, es decir, si hacemos a =constante, obtenemos
dl
2
S
2 = a
2
_
d
2
+ sin
2
()d
2
_
= a
2
d
2
que es la metrica de la pelota pero en coordenadas esfericas. Hay que comparala con
la anterior forma que esta en coordenadas polares y con la metrica que se obtiene
si g = dw
1
dw
1
+dw
2
dw
2
, usando las formas de la pelota denidas en 15.2 en
el ejemplo 15.63. Esta comparaci on es la que justica el uso de la notaci on de este
ejemplo.
5. EL TENSOR M

ETRICO Y EL TENSOR DE CURVATURA 307


Ahora vamos a calcular la conexi on y la curvatura. Primero lo haremos usando
la base coordenada. Usando las formulas del resumen 16.106, se obtiene
dl
2
S
2 = a
2
_
dr
2
1 r
2
+r
2
d
2
_

r
rr
=
r
1 r
2

r

= r(1 r
2
) sin
2
(),

= cot(),

r
=
1
r
R

rr
=
1
1 r
2
, R
r
r
= r
2
sin
2
()
y todas las demas componentes igual a cero. Tambien podemos calcular estas can-
tidades de la metrica en coodenadas esfericas, se obtiene
dl
2
S
2 = a
2
_
d
2
+ sin
2
()d
2
_

= cot(),

= sin() cos()
R

= sin
2
(), R

= 1
Ejercicio 16.108. Siguiendo el ejemplo anterior, demuestre que la metrica de
S
3
en coordenadas esfericas esta dada por
dl
2
S
3 = a
2
_
dr
2
1 r
2
+r
2
_
d
2
+ sin
2
()d
2
_
_
donde a es el radio de la esfera S
3
y r/a r. Esta es la parte espacial de la
metrica de Friedman-Robertson-Waker. Calcule la conexi on y el tensor de
curvatura de esta metrica.
Ejemplo 16.109. Sea M
4
una variedad con metrica de signatura Lorenziana
dada por g =
ab
w
a
w
b
,
ab
= diag(1, 1, 1, 1 1), donde la tetrada esta dada por
w
1
=
t
x

x
dx, w
2
=
t
x

x
dy, x > 0
w
3
=
_
3x
2
dz +
_
2
3x
dt, w
4
=
_
2
3x
dt
Lo primero que hay que notar, es que se debe cumplir la relaci on 16.7, es decir,
d
ab
=
ab
+
ba
= 0, entonces la conexi on es antisimetrica en los indices ab.
Recordemos que
ab
=
ad

d
b
. Vamos a calcular la conexi on utilizando las formulas
1 y 2 del resumen 16.106. Para esto encontremos primero la diferencial de la
tetrada, esta es
dw
1
= x
3/2
dt dx, dw
2
=
3
2
x
5/2
t dx dy +x
3/2
dt dy,
dw
3
=
1
2
_
_
3
2
x
1/2
dx dz
_
2
3
x
3/2
dx dt
_
dw
4
=
1
2
_
2
3
x
3/2
dx dt
que en terminos de la tetrada, se obtiene
dw
1
=

6x w
4
w
1
, dw
2
=
3
2

x w
1
w
2
+
1
t

6x w
4
w
2
dw
3
=
1
2

x w
1
w
3
2

x w
1
w
4
, dw
4
=

x w
1
w
4
308 16. TENSORES Y P-FORMAS
De aqui podemos entonces leer las componentes de la conexi on

1
4
=

6xw
1

x w
4

2
1
=
3
2

xw
2
,
2
4
=
1
t

6x w
2
,

3
1
=
1
2

x w
3
+

x w
4
,
3
4
=

x w
1
,
donde hemos tomado en cuenta la antisimetria de la conexi on, por ejemplo, agre-
gando terminos convenientes a las componentes
1
4
y
4
1
. Ahora calculemos el tensor
de curvatura, obtenemos,

1
4
=
1
2
x w
1
w
4

2
1
= x w
2

_
_

3
4
+
6
t
_
w
1
+

6
t
w
4
_

2
4
= x w
2

_
_
3
2
_
1
t
3
_
w
1
3
_
2
t
2
+
1
2
_
w
4
_

3
1
=
1
4
x w
1

_
w
3
2 w
4
_

3
4
= x
_

_
3
2
w
1
w
3
+

6 w
1
w
4
+
1
2
w
3
w
4
_
de donde se pueden leer las componentes de la curvatura en esta base.
Para terminar este captulo, vamos a introducir tres tensores mas, estos son
la contraccion del tensor de curvatura, la traza de este tensor y una combinaci on
muy adecuada de estos dos. Vamos a iniciar con las contracciones del tensor de
curvatura.
Definici on 16.110. Sea M
n
variedad y sea e
a
una base del espacio tangente
con dual e
b
. Sea conexi on en M
n
y tensor de curvatura R = R
a
bcd
e
a
e
b

e
c
e
d
. Entonces el tensor de Ricci es es la contracci on del tensor de curvatura,
tal que

R = C
1
2
R = R
a
bad
e
b
e
d
= R
bd
e
b
e
d
An alogamente, la traza del tensor de Ricci se llama escalar de Ricci, es decir
R = C
1
1

R = R
d
d
donde R
c
d
=
cb
R
bd
La importancia de estas dos nuevas cantidades radica en el siguiente proposicion
Proposici on 16.111. Sea M
n
variedad y sea e
a
una base del espacio tan-
gente con dual e
b
. Sea g =
ab
w
a
w
b
una metrica en M
n
compatible con la
conexi on. Sea conexi on en M
n
y tensor de curvatura R = R
a
bcd
e
a
e
b
e
c
e
d
.
Entonces se sigue que
G
ab
|b
=
_
R
ab

1
2
g
ab
R
_
|b
= 0
5. EL TENSOR M

ETRICO Y EL TENSOR DE CURVATURA 309


Demostraci on 16.112. Vamos a demostrar la proposici on en el sistema co-
ordenado, la demostraci on en general es equivalente. Ecribamos las identidades
Bianchi en componentes, contrayendo los indices adecuados para obtener el tensor
de Ricci, esto es
0 = R
n
ink;l
+R
n
ikl;n
+R
n
iln;k
= R
ik;l
+g
nm
R
mikl;n
R
il;k
= R
i
k;l
g
nm
R
i
mkl;n
R
i
l;k
Y volvamos a contraer los indices
R
k
k;l
g
nm
R
k
mkl;n
R
k
l;k
= R
;l
g
nm
R
ml;n
R
k
l;k
= R
;l
2g
nm
R
ml;n
= 0
Si multiplicamos por 1/2 y la inversa de las componentes de la metrica en esta
ultima expresi on, llegamos al resultado deseado.
Este resultado es de suma importancia en fsica, ya que es la ralacion funda-
mental para denir las ecuaciones de Einstein.
Notaci on 16.113. Al tensor G
ab
e
a
e
b
cuyas componentes estan denidas por
G
ab
= R
ab

1
2
g
ab
R
se le llama tensor de Einstein.
El hecho de que la contraccion del tensor de Einstein con la derivada covariate
sea cero, hacen a este tensor el candidato idonea para ser la parte geometrica de
las ecuaciones fundamentales de la gravitaci on. Vamos a ver un ejemplo.
Ejemplo 16.114. Vamos a calcular el tensor de Ricci de la pelota S
2
en
coordenadas esfericas. Primero hay que usar las propiedades del tensor de cur-
vatura del resumen 16.105 para encontrar todas las componentes no cero del ten-
sor. Lo primero que hay que notar es que la unica componente no cero es R

=
a
2
sin
2
(), y con ellos calcular
R

= R

+R

= 1, R

= R

+R

= 0,
R

= R

+R

= 0, R

= R

+R

= sin
2
(),
Entonces podemos calcular el escalar de Ricci, haciendo R = R

+ R

= 2/a
2
y
con el nalmente calcular el tensor de Einstein. El resultado es que G = 0.
Ejercicio 16.115. Calcule el tensor de Ricci, el escalar de Ricci y el tensor
de Einstein para la metrica de la pelota S
2
en coordenadas polares.
Ejercicio 16.116. Calcule el tensor de Ricci, el escalar de Ricci y el tensor
de Einstein para la metrica de la pelota S
3
en coordenadas esfericas.
Ejercicio 16.117. Calcule el tensor de Ricci, el escalar de Ricci y el tensor
de Einstein para la metrica del ejemplo 16.109
CHAPTER 17
HACES FIBRADOS
1. Haces
Los haces brados son unos de las estructruras matematicas mas fascinantes
que hay. Son la generalizaci on del producto cartesiano entre espacios topologicos.
Ya sabemos que el producto cartesino de dos espacios topologicos es un espacio
topologico. Los haces son productos cartesianos de espacios topologicos localmente,
aunque no necesariamente el espacio resultante, el haz, es un porducto cartesiano.
El ejemplo mas simple es la cinta de M obius. Localmente se puede ver como
producto cartesiano de la recta con el crculo, pero globalmente, es decir, toda la
cinta no es un producto cartesiano. Vamos a iniciar este captulo con la denicion
de haz, luego vamos a introducir el concepto de haz brado.
Definici on 17.1. Un haz es una terna = (E, B, ) donde E y B son espacios
topol ogicos y : E B es una funci on contnua y sobre. Se llama:
A E espacio total,
A B espacio base y
A la proyecci on.
La representacion graca de los haces es como sigue
E

B
Notaci on 17.2. Si b B, F
b
() =
1
(b) se le llama la bra sobre b.
Comentario 17.3. Observe que si b ,= b

, entonces F
b
F
b
= , por eso
E =
bB
F
b
(), el espacio total es la uni on de las bras disjuntas de B. (F
b
,
F
b
),
siendo
F
b
= F
b
U
UE
un subespacio topol ogico de (E,
E
).
Entre los haces existe tambien el concepto de isomorsmo, se puede clasicar
a los haces usando los isomorsmos entre haces, dos de estos son el mismo, si son
isom orcos.
Definici on 17.4. Dos haces = (E, B, ) y

= (E

, B,

) son isom orcos

, si existe f : E E

homeomorsmo, tal que

f = . Gr acamente se
tiene
E
f
E

B
Definici on 17.5. Un haz = (E, B, ) se llama trivial si existen F, espacio
topol ogico y : E B F homeomorsmo y se cumple que

(B F, B,
1
).
311
312 17. HACES FIBRADOS
Gr acamente, un haz es trivial si se ve como
E

B F

1
B
Definici on 17.6. Una secci on s del haz = (E, B, ) es una funci on continua
s : B E tal que s = id[
B
, es decir s(b) F
b
tal que b B. Esto es
E
s
B
Los haces triviales tienen la caracteristica especial de tener una secci on, es
decir, se puede denir una funci on que vaya de la base del haz a todo el haz, a un
punto de cada bra del haz. Esto se ve en la siguiente proposicion
Proposici on 17.7. Todo haz trivial tiene al menos una secci on.
Demostraci on 17.8. Sea = (E, B, ) un haz trivial, : E B F un
homeomorsmo y : B F una funci on continua arbitraria. Entonces s =
B E, b s(b) :=
1
(b, (b)) es continua, pues
1
y lo son, y s(b) =

1
(b, (b)) =
1
(b, (b)) = b. Gr acamente
E

B F
s
1
B

Definici on 17.9. Un haz brado es un haz = (E, B, ) que es localmente


trivial, esto es, para toda cubierta U

J
de B y cada sub-haz
_

1
(U

) , U

, [

1
(U)
_
=
, existe F tal que el haz (U

F, U

,
1
) :=
F
es isom orco a , es decir existe

:
1
(U

) U

F homemorsmo y
1

= [

1
(U)
. Su gr aca sera

1
(U

)

U

F
[

1
(U)

1
U

Notaci on 17.10. A (U

) se le llama sistema de coordenada local del


haz, a F la bra del haz y a

se le llama la trivializaci on local.


Comentario 17.11. Observe que un haz brado tiene siempre una secci on
local, es decir, para cada U

con J el haz tiene una funci on s

. s

: U

1
(U

) con s

= Id[
U
, sin embargo, si el haz no es globalmente trivial, no
existira una secci on del haz (total).
Sea = (E, B, , F, U) haz brado con U = U

J
una cubierta de B. Sean
U

,= , J, (U

) y (U

) dos sistemas de coordinadas locales en y


F la bra del haz. Como es un haz brado, es localmente trivial y por tanto posee
una secci on en cada U

B. Sea s

y s

secciones locales para cada (U

) y
(U

), tales que s

(b) =
1

(b,

(b)) y s

(b) =
1

(b,

(b)). Las funciones


de transicion del haz son funciones g

: U

Aut(F), b g

(b) : F F,
f g

(b)(f) tales que la composicion de homeomorsmos

= (U

) F (U

) F, (b, f)

(b, f)
= (b, g

(b)(f)) ,
2. ESPACIOS G 313
es decir g

queda denida por

= Id[
UaU

. Observe que para


cada F, (g

(b) ,)
subgr.
Aut(F) y por tanto es un grupo llamado el grupo de
estructura del haz. La identidad est a dada por g

(b) y la inversa por g

(b) =
(g

(b))
1
.
2. Espacios G
Los espacios topolgicos pueden tener a su vez, otras estructuras ya sea alge-
braicas o analiticas. En el captulo anterior vimos espacios topologicos dotados
de metrica, norma y producto interno. Vamos a introducir aqui una estructura
algebraica extra dentro de un espacio toplogico, dotando al conjunto que forma
el espacio topologico con una estructura de grupo. A estos espacios se les llama
grupos topolgicos. Su denicion es la siguiente.
Definici on 17.12. Un grupo topol ogico es una terna (G, ,
g
) en donde (G, )
es un grupo y (G,
G
) es un espacio topol ogico, y se cumple que las funciones
a) : GG G, (a, b) a b
b) inv. : G G, a inv(a) = a
1
son continuas.
Hay una manera sencilla de saber si la estructura de grupo de un conjunto
es compatible con la topologa. Vamos a presentar aqu la proposicion sin de-
mostraci on que nos da este criterio. Esta es:
Proposici on 17.13. La terna (G, ,
G
) con (G, ) grupo y (G,
G
) espacio
topol ogico, es un grupo topol ogico ss para toda a, b G y para toda U
ab
1
G
existe U
a
y U
b

G
tal que U
a
(U
b
)
1
=
_
a b
1
[a U
a
, b U
b
_
U
ab
1.
En lo que sigue vamos a introducir dos funciones que son de mucha utilidad
para mas adelante, pero que ahora nos ayudaran a introducir los espacios G. Estas
son las funciones de traslacion. Su denicion es para cualquier grupo topologico,
pero seran de gran utilidad cuando estudiemos grupos de Lie. La caracteristica mas
importante de estas fuciones es que son automormos del grupo topologico. Vamos
a ver esto en la siguiente proposicon.
Proposici on 17.14. Sea (G, ,
G
) grupo topol ogico y g G. Las funciones
Lg : G G
x Lg(x) := gx
y
Rg : G G
x Rg(x) := xg
llamadas traslaci on izquierda y traslaci on derecha por g respectivamente,
son automorsmos de G.
Demostraci on 17.15. Lg y Rg son continuas porque el producto y la inversa
son continuas. Adem as tienen inversa continua, ya que (Lg)
1
= Lg
1
y (Rg)
1
=
Rg
1
, ie. Lg Lg
1
(x) = Lg(g
1
x) = gg
1
x = x e igual para Rg.
Habiendo denido las traslaciones en un grupo topologico, ahora podemos in-
troducir los espacios G. Los espacios G son estructuras en un espacio topologico, de
314 17. HACES FIBRADOS
una manera sencilla, es la axion de un grupo topologico sobre un espacio topologico.
Veamos esto formalmente.
Definici on 17.16. Un espacio G derecho es una terna (E, G, ), donde E es
un espacio topol ogico, G es un grupo topol ogico y : EG E (x, g) (x, g)
es una funci on continua tal que
1) (x, e) = x
2) (x, g
1
g
2
) = ((x, g
1
), g
2
)
Notaci on 17.17. Es com un denotar a (x, g) como xg solamente.
Definici on 17.18. An alogamente, se dene un espacio G izquierdo con
: GE E continua tal que:
1) (e, x) = x
2) (g
1
g
2
, x) = (g
1
, (g
2
, x))
Aqu tambien, suele denotarse a (g, x) por gx. Estas funciones son analogas
a las denidas cuando vimos los grupos uniparemetricos de trasformaciones, en el
captulo anterior. De la misma forma a los grupos uniparametricos, la funci on
induce la funci on

g
: E E
x
g
(x) =
g
(x, g)
que cumple con las propiedades:
i)
e
(x) = x
ii)
g1g2
(x) =
g1

g2
(x)
Se dice entonces que G act ua por la derecha sobre E o analogamente que
act ua por la izquierda de E.
A las acciones derecha e izquierda se les puede clasicar. Una clasicacion esta
dada como sigue.
Definici on 17.19. Sea (G, E, ) un espacio G derecho. La acci on derecha
de G sobre E se dice :
Efectiva si (x, g) = x para toda x E implica g = e
Libre si (x, g) = x para alg un x E implica g = e
Transitiva si para todo x, y E existe alg un y E tal que y = (x, g)
(An alogamente se hace la misma clasicaci on para la acci on por la izquierda)
La accion de grupos sobre espacios topologicos tiene algunas propiedades. Va-
mos a discutir algunas de las mas importantes.
Proposici on 17.20. Si la acci on de G sobre E es libre entonces es efectiva.
Demostraci on 17.21. Supongamos que la acci on no es efectiva, esto implica
que existe alg un g
0
G, g
0
,= e tal que (x, g
0
) = x para toda x E y por lo tanto
la acci on no es libre.
Proposici on 17.22. Si la acci on de G sobre E es libre y transitiva, entonces
para toda x, y E, existe un unico g G tal que (x, g) = y,
Demostraci on 17.23. Sean x, y E y g G tal que (x, g) = y ya que
es transitiva. Sea g

G tal que tambien (x, g

) = y. Entonces x =
_
x, g g
1
_
=
_
(x, g) , g
1
_
=
_
(x, g

) , g
1
_
=
_
x, g

g
1
_
, esto implica que g
1
= e, o
sea g

= g.
3. HACES FIBRADOS PRINCIPALES 315
Los isomorsmos en los espacios G son analogamente denidos en terminos de
sus estructuras separadas. Vamos a ver su denicion formal.
Definici on 17.24. Dos espacios G derechos = (E, G, ) y

= (E

, G,

)
se dicen isom orcos si existe h : E E

homeomorsmo tal que

(h id
G
) = h
_
h
g
=

g
h
_
.
Se denota como
h

o
hid|G

Esta denicion se puede poner en terminos del diagrama


E G

E
h id[
G
h
E

Es decir, el diagrama anterior conmuta.


3. Haces Fibrados Principales
La secci on anterior tiene por objetivo introducir los haces brados principales.
Estos son haces en donde la bra y el grupo que actua en el son el mismo grupo.
Su importancia radica en que estos haces son un excelente modelo para espacios
tiempo multidimensionales. De tal forma que si el espacio tiempo 4 dimensional
es la base del haz, el grupo del haz puede ser parte del grupo de alguna teora de
norma, en donde actua el grupo. La descomposicion del haz da una teora natural
para la unicacion de teoras de norma y el espacio tiempo. Vamos a iniciar con la
denicion de haces brados principales.
Definici on 17.25. Un haz brado principal es un sexteto (P, B, , G; U, )
donde (P, B, , G; U) es un haz brado y (P, G, ) es un espacio G derecho tal que
se cumplen los isomorsmos de G espacios
_

1
(U

) , G,
_
(, id |G)

= (U

G, G, )
donde
: (U

G) G U

G
((x, g) , g

) ((x, g) , g

) := (x, g g

) .
El diagrama

1
(U

) G


1
(U

id [
G

(U

G) G s

G
conmuta.
Entonces un haz brado principal, es un haz brado, es decir, un haz localmente
trivial, en el que el grupo G es lo mismo que la bra y es lo mismo que el grupo
de estructura. Se representa como en la gura 1. De la denicion de , es claro
entonces que G act ua libre y transitivamente sobre el haz.
Proposici on 17.26. Un haz brado principal es trivial si tiene una secci on
(global).
316 17. HACES FIBRADOS
Figure 1. Un haz brado principal, es un haz brado, es decir,
un haz localmente trivial, en el que el grupo G es lo mismo que la
bra y es lo mismo que el grupo de estructura. Estos haces son
muy importantes en fsica.
Demostraci on 17.27. ) Un haz brado trivial tiene una secci on.
) Sea s : B P en el haz = (P, B, , G; U; ) y construyamos un homeo-
morsmo
: P B G
x (x) = (b, g)
con (x) = b y x = (s (b) , g) = s(b)g, es decir (s(b)g) = (b, g). (Esto es siempre
posible, ya que G act ua libre y transtivamente en P). Claramente es sobre.
es inyectiva, ya que
x ,= x

(x = s (b) g) =
= (b, g) ,=
_
x

=
_
s(b

)g, x

/ F
b
s(b)g

F
b
_
=
_
(b

, g)
(b, g

)
Adem as es continua, pues s lo es. Entonces es un homeomorsmo.
Ejemplo 17.28. El ejemplo m as simple es el producto cartesiano. Sea P =
B G, donde B es una variedad y G un grupo. La proyecci on es simplemente

1
(p) = b, con (b) = F
b

= G. Supongamos que B =
4
y G = U (1).
Recordemos que el grupo U (N) = U matriz compleja N N [ UU
+
= 1 por
lo que U(1) =
_
U n umero complejo [ U U = 1
_
. Podemos representar los elemen-
tos de U(1) por g
1
= e
i1
, 0
1
< 2. La acci on de U(1) sobre
4
la denimos
como
:
4
U(1)
4
(x, g) (x, g) = x e
i
,
la cual cumple con las propiedades (note que g
1
g
2
= e
i1
e
i2
= e
i(1+2)
).
1.- (x, e) = x e
0
= x
2.- ((x, g
1
) , g
2
) =
_
x e
i1
, g
2
_
= x e
i1
e
i2
=(x, g
1
g
2
)
3. HACES FIBRADOS PRINCIPALES 317
Los elementos de B G = (x, g) [ x
4
, g U (1). La bra en un punto
x
0
jo ser a F
x0
=
_
x
0
e
i
_ iso

=
_
e
i
_
U(1).
Ejemplo 17.29. Tomemos el haz P

S
1
con bra F = [1, 1]. Tomemos
las cubiertas para el crculo S
1
, U
1
= (0, 2) y U
2
= (, ) y sean A = (0, ) y
B = (, 2) en las intersecciones de estas, A, B U
1
U
2
. Cada una de estas
intersecciones son difeom orcas a S
1
. Tomemos las trivializaciones en A tal que

1
(u) = (, t) y
2
(u) = (, t). La funci on de transici on para A est a dada por
g
12
() : F F, t g
12
() (t) = t. En B podemos escoger las trivalizaciones de
dos formas
I.
1
(u) = (, t)
2
(u) = (, t) B
II.
1
(u) = (, t)
2
(u) = (, t) B
Para el caso I, la funci on de transici on es de nuevo la identidad en F, pero
para el caso II la funci on de transici on es g
12
() (t) = t , B. El grupo de
estructura en el primer caso consta solo de un elemento G
1
= e, mientras que el
segundo tiene 2 elementos G
2
= e, g,
e : F F
e(b) = t
y
g : F F
g(t) = t.
Observen que g
2
= e, por lo que G
2
iso

= 1, 1 = Z
2
iso

= S
0
. Si en II reemplazamos
el intervalo F = [1, 1] por solo los dos puntos F = 1, 1, entonces tenemos un
haz brado principal, con bra Z
2
= 1, 1 = S
0
, el cual es un haz de crculos. El
haz I es un cilindro, mientras que el haz II es la banda de M obius. Gr acamente
sera
S
0
[
P

S
1
vean la gura 2.
Ejemplo 17.30. Otro ejemplo interesante es el haz de Hopf, el cual tambien
es un haz de esferas. Gr acamente es el haz
S
1
[
S
3

S
2
donde
S
3
=
_
x
4
[ (x
1
)
2
+ (x
2
)
2
+ (x
3
)
2
+ (x
4
)
2
= 1 con
_
x = (x
1
, x
2
, x
3
, x
4
__
S
2
=
_
y
3

x
2
+y
2
+z
2
= 1 y = (x, y, z)
_
318 17. HACES FIBRADOS
Figure 2. El cilindro y la cinta de M obius son haces brados
principales si solo se toma a los elementos 1,-1 de la bra. El
cilindro es un haz brado trivial mientras que la cinta de M obius
no es trivial. El grupo de estructura y a la vez la bra son el grupo
Z
2
.
Las esferas pueden ser parametrizados utilizando n umeros complejos como z
0
=
x
1
+ix
2
, z
1
= x
3
+ix
4
, as que S
3
=
_

z
0

2
+

z
1

2
= 1
_
. La proyecci on
: S
3
S
2
(x
1
, x
2
, x
3
, x
4
) =
_
2
_
x
1
x
3
+x
2
x
4
_
, 2
_
x
2
x
3
x
1
x
4
_
, (x
1
)
2
+ (x
2
)
2
(x
3
)
2
(x
4
)
2
_
= (x, y, z)
es una proyecci on. Noten que x
2
+y
2
+z
2
= (x
1
)
2
+ (x
2
)
2
+ (x
3
)
2
+ (x
4
)
2
= 1.
Usando la notaci on del ejemplo 15.7 tenemos que si hacemos
Z = u +iv =
x +iy
1 z
=
x
1
+ix
2
x
3
+ix
4
=
z
0
z
1
y y = (x, y, z) S
2
N = U
N
W = u +iv =
x +iy
1 +z
=
x
3
+ix
4
x
1
+ix
2
=
z
1
z
0
y S
2
S = U
S
es decir Z = 1/W en U
S
U
N
. Las trivializaciones locales las denimos como

N
:
1
(U
S
) U
s
U(1)
(z
0
, z
1
)
S
_
z
0
, z
1
_
=
_
z
0
z
1
,
z
1
[z
1
[
_

S
:
1
(U
N
) U
N
U (1)
_
z
0
, z
1
_

N
_
z
0
, z
1
_
=
_
z
1
z
0
,
z
0
[z
0
[
_
En el ecuador z = 0, entonces

z
0

z
1

=
1

2
. Ah se tiene que las trivial-
izaciones se pueden escribir como

N
_
z
0
, z
1
_
=
_
z
0
z
1
,

2z
1
_
,
S
_
z
0
, z
1
_
=
_
z
1
z
0
,

2z
0
_
,
4. HACES VECTORIALES 319
entonces la funci on de transici on en el ecuador estar a dada por
g
NS
_
x

_
=
z
0
z
1
= x +iy U(1).
En la regi on U
N
U
S
todos los puntos son equivalentes al ecuador, as que U(1) ser a
el grupo de estructura, por lo que tenemos un haz brado principal. Fsicamente,
este haz describe un monopolo de carga 1. Otros ejemplos de haces de Hopf son
S
3
S
7

S
4
y S
7
S
15

S
8
, aunque en este ultimo S
7
no es un grupo como
S
3
= SU(2). El haz S
3
S
7

S
4
puede ser interpretado como el haz de un
instant on de carga 1.
4. Haces Vectoriales
Al igual que los haces principales, los haces vectoriales son utilizados para
describir estructuras fsicas. Con los haces vectoriles se pueden representar los
sistemas de coordenadas de una variedad, los vectores del espacio tangente, etc. Es
por eso de su importancia. Su denicion formal es como sigue.
Definici on 17.31. Un haz vectorial de dimensi on n es un haz brado donde
cada bra es un espacio vectorial de dimension n. Las funciones de transici on
forman el grupo GL(n, ). Vean la gura 3.
Figure 3. La representacion graca de un haz vectorial.
Para enteder la denicion, vamos a ver algunos ejemplos sencillos.
Ejemplo 17.32. El cilindro S
1
es un haz vectorial trivial mientras que la
cinta de M obius es un haz vectorial no trivial, con bra .
320 17. HACES FIBRADOS
Ejemplo 17.33. Una variedad con su espacio tangente en cada punto forma
un haz vectorial llamado el haz tangente. Sea u TM =
pM
p T
p
M
n
un punto en la intersecci on U
i
U
j
tal que (u) = p U
i
U
j
, donde U
i
y
U
j
son cubiertas abiertas de M
n
, varidad. Sean
i
: U
i

n
y
j
: U
j

n
los homeomorsmos de la variedad, tal que
i
(u) = (x
1
, , x
n
) y
j
(u) =
_
y
1
, , y
n
_
, son sistemas de coordenadas en cada abierto. Un vector v sobre el
espacio tangente T
p
M se puede escribir
v
p
= v

p
= v

p
.
Las trivializaciones locales estar an dadas por

i
:
1
(U
i
)[ U
i

n
u
i
(u) =
_
p,
_
v
1
p
, , v
n
p
__

j
:
1
(U
j
)[ U
j

n
u
j
(u) =
_
p,
_
v
1
p
, , v
n
p
__
,
(u) = p donde hemos utilizado el isomorsmo natural
iso : TM
n
v

p
iso
_
v

p
_
=
_
v
1
p
, , v
N
p
_
.
Comentario 17.34. Se puede dotar al haz tangente de una estructura difer-
enciable.
Las funciones v

y v

est an relacionadas entre si por v

p
= G

pv
v
v
p,
dode
G

pv
GL(n, ) es una transformaci on lineal de espacios vectoriales. Una con-
strucci on totalmente analoga se pude hacer con el espacio cotangente, llamada el
haz cotangente . En ambas, las secciones seran campos vectoriales
v : U
i
TM
p v(p) =
_
p, v

p
_
o campos de 1-formas
w : U
i
T

M
p w(p) := (p, w

dx

[
p
)
Ejemplo 17.35. Del ejemplo 15.6 podemos construir el haz vectorial TS
2
. Ten-
emos

N
(x, y, z) =
(x, y)
1 z
= (u
N
, v
N
)
y llamemos

S
(x, y, z) =
(x, y)
1 +z
= (u
S
, v
S
) .
Ellos est an relacionados por
u
N
=
u

u
2
S
+v
2
S
, v
N
=
v

u
2
S
+v
2
S
.
4. HACES VECTORIALES 321
Si escribimos u
S
= r cos () y v
S
= r sin (), tenemos que u
N
= cos () /r, y
v
N
= sin() /r, entonces las trivializaciones estaran dadas por

N
_
p, v
1

u
N
+u
2

v
N
[
p
_
=
_
p, v
1
p
, v
2
p
_
,

S
_
p, v
1

u
S
+ u
2

v
S
[
p
_
=
_
p, v
1
p
, v
2
p
_
con la funci on de transici on
g
SN
=
(u
N
, v
N
)
(u
S
, v
S
)
=
1
r
2
_
cos (2) sin(2)
sin (2) cos (2)
_
Para terminar este captulo, vamos a ver como podemos asociar a cada vector
del haz vectorial un vector de
n
, de esta manera podemos trabajar con la bra
del haz, que de hecho son vectores. Veamos esto.
Definici on 17.36. Sea = (A, B,
B
, F, U

) haz brado y = (P, B, , G; U

, )
un haz principal, ambos con la misma base y grupo de estructura. Se dice que es
un haz asociado a , si las cubiertas U

de y trivializan tanto a A como a P


con las mismas funciones de estructura.
Un ejemplo sencillo de la denicion anterior es el siguiente.
Ejemplo 17.37. Si en el haz tangente asociamos a cada vector base

x

=
(0, ,

1, , 0), lo que obtenemos es un marco de referencia para cada punto.


Este haz es llamado el haz de marcos y es un haz asociado al haz tangente o
cotangente.
CHAPTER 18
GRUPOS DE LIE
Desde el descubrimiento de las teoras de norma, los grupo de Lie han tomado
una relevancia en todas las areas de la fsica, qumica y la ingeniera. Ya ante-
riormente se sabia que las simetrias de los problemas conducia a la existencia de
grupos actuando en espacios asociados al problema. Esta asociaci on esta presente
tambien en las teoras de norma, en donde un grupo de simetra esta actuando so-
bre un espacio asociado al problema fsico, en este caso esta actuando en el espacio
de isoespin. Los grupos de Lie son variedades suaves con estructura de grupo, en
analoga a los grupos topologicos. En este camptulo tambien vamos a introducir
algunos conceptos que vamos a necesitar para la comprencion de los grupos de Lie,
como es el concepto de campos invariates por la izquierda.
1. Campos Invariantes por la Izquierda
La denicion de grupos de Lie es como sigue.
Definici on 18.1. Un grupo de Lie es una terna (G, , /) donde (G, ) es un
grupo, (G, /) es una variedad y las funciones.
1) : GG G, (g
1
, g
2
) g
1
g
2
2) inv : G G, g g
1
son suaves.
En general es suciente con checar que
: GG G
(g
1
, g
2
) (g
1
, g
2
) = g
1
g
1
2
es suave. Un subgrupo de Lie H de G es un grupo en el que H
i
G es un encaje,
o sea si i y di son inyectivas.
Ejemplo 18.2. Uno de los ejemplos mas simples de grupo de Lie es el crculo
S
1
. Como ya hemos visto, el crculo es una variedad diferenciable sobre . Como
grupo, podemos asociar a cada punto su representaci on polar, es decir z = e
i
,
de tal forma que x
2
+ y
2
= z z = 1. Ahora denimos el producto del grupo como
z
1
z
2
= e
1+2
. Claramente, con esta denici on S
1
es un grupo abeliano. Y es un
grupo de Lie porque la funci on (z
1
, z
2
) = z
1
/z
2
= e
(12)
es sueve.
Ejemplo 18.3. Un ejemplo que no es un grupo abeliano, es la esfera S
3
. Como
ya vimos, podemos parametrizar la esfera S
3
como (x
1
)
2
+(x
2
)
2
+(x
3
)
2
+(x
4
)
2
=
z
0
z
0
+z
1
z
1
= 1, donde z
0
= x
1
+ix
2
y z
1
= x
3
+ix
4
. Ahora denamos las matrices
U =
_
z
0
z
1
z
1
z
0
_
323
324 18. GRUPOS DE LIE
en donde el determinante de ellas esta dado por z
0
z
0
+z
1
z
1
= 1. Ahora denimos
el producto en S
3
dado por el producto de matrices. Como el determinante es
uno, estas matrices forman un grupo no abeliano. Es decir, con este producto
la variedad diferenciable S
3
es un grupo llamado SU(2), el grupo de las matrices
unitarias complejas de dos dimensiones.
Ejercicio 18.4. Demuestre que el grupo SU(2) es un grupo de Lie con el
producto denido en el ejemplo anterior.
En lo que sigue veremos algunas estructuras en los grupos de Lie. Iniciaremos
con algunas propiedades de las traslaciones derecha e izquierda sobre los grupos.
Proposici on 18.5. Las traslaciones derecha e izquierda son difeomorsmos.
Demostraci on 18.6. Sea (G, , A) grupo de Lie, con
L
g
: G G
g

L
g
(g

) = gg

y
R
g
: G G
g

R
g
(g

) = g

g.
Claramente L
g
y R
g
son suaves con inversas L
g
= L
g
y R
g
1 = R
1
g
suaves.
Para ahorrar espacio, en lo que sigue estudiaremos todas las proposiciones y
teoremas as como sus demostraciones solo por la izquierda, las demostraciones
por la derecha son completamente analogas. Daremos un peque no comentario solo
cuando sea necesario, vamos a introducir el concepto de invariante por la izquierda.
Definici on 18.7. Sea X TG en donde (G, , A) es grupo de Lie. Se dice que
X es invariante por la izquierda (por la derecha) o L
g
-invariante (R
g
-invariante)
si
d L
g
[
g

(X
g
) = X
g
L

g
= X
gg

_
d R
g
[
g

(X
g
) = X
g
R

g
= X
g

g
_
,
para todos g, g

G.
La primera consecuencia de esta denicion, es que estos vectores quedan deter-
minados si escogemos un solo punto de ellos. En particular se escoge su valor en
la identidad, aunque cualquier punto podra ser igual de bueno para esto. Formal-
mente tenemos.
Proposici on 18.8. Todo campo vectorial invariante por la izquierda o derecha
es determinado por su valor en la identidad.
Demostraci on 18.9. Sea (G, , A) grupo de Lie y X TG invariante por la
izquierda. Se cumple d L
g
[
e
(X
e
) = X
g
. An alogamente para R
g
.
De la misma forma, si un vector se puede trasladar por la acci on izquierda de
ese vector en la identidad, esto implica que el vector es invariante por la izquierda.
Veamos esto.
Proposici on 18.10. Si X TG en un grupo de Lie y se cumple que X
g
=
d L
g
[
e
(X
e
) para todo g G, esto implica que X es invariante por la izquierda
(an alogamente por la derecha).
1. CAMPOS INVARIANTES POR LA IZQUIERDA 325
Demostraci on 18.11. Observemos que L
gg
= L
g
L
g
, esto implica que
dL
gg
= dL
g
dL
g
= d L
g
[
g

o m as especcamente
d L
g
[
g

(X
g
) = d L
g
[
g

d L
g
[
e
(X
e
)
= d (L
g
L
g
)[
e
(X
e
)
= d L
gg
[
e
(X
e
)
= X
gg
,
esto implica que X es invariante por la izquierda (lo mismo por la derecha).
De aqu en adelante solo consideraremos vectores invariantes por la izquierda o
por la derecha. El espacio tangente sera un espacio exclisivamente de estos vectores.
Esto implica que T

G
iso

= T
g
G para todo g G . De hecho se puede demostrar
que para todo grupo de Lie, el haz tangente es un haz trivial, ya que la bra
est a formada por vectores invariantes por la izquierda, los cuales est an globalmente
denidos y estos forman secciones globales en el haz.
Un resultado interesante que vamos a usar en este captulo para denir el
algebra de Lie, es que los parentesis de Poisson estan relacionados si los vectores
lo estan. Esto es.
Proposici on 18.12. Sean (X, Y ) y (X

, Y

) TM
m
TN
n
, M
m
, N
n
var-
iedades y C

(M
m
, N
n
) tal que X, Y y X

, Y

est an relacionados. Entonces


([X, X

] , [Y, Y

]) est an -relacionados.
Demostraci on 18.13. Sea f C

(N, ). Entonces
[Y, Y

] (f) = (Y (Y

(f)) Y

(Y (f)))
= Y (Y

(f)) Y

(Y (f)) =
pero se cumple que

Y = X

, entonces
=

(Y (Y

(f)))

(Y

(Y (f)))
=

Y (Y

(f))

(Y (f))
= X

(Y

(f)) X

(Y (f))
= X (

(F)) X

(f))
= X (X

(f)) X

(X

(f))
= [X, X

] (f) ,
entonces [X, X

] est a relacionado con [Y, Y

].
Es decir, si nos limitamos a los vectores del espacio tangente que son rela-
cionados por la accion izquierda, podemos tener una estructura de algebra en el
espacio tangente del grupo de Lie. A esta algebra se le conoce como el algebra
de Lie del grupo de Lie. Es decir, en un grupo de Lie, el subespacio del espacio
tangente de los vectores asociados por la accion izquieda forman el algebra de Lie
asociada al grupo. Veamos esto formalmente.
Corolario 18.14. Los campos invariatens por la izquierda forman una sub-
algebra ( de TG llamada

Algebra de Lie correspondiente al grupo de Lie G.
326 18. GRUPOS DE LIE
Esta subalgebra es isom orca a TeG en cada punto g G. Se acostumbra
tomar el algebra de Lie ( respecto a G como el algebra de vectores invariantes por
la izquierda en la identidad e G . Si dL
g
(X) = X y dL
g
(Y ) = Y , resulta que
dL
g
([X, Y ]) = [X, Y ].
2. La Funcion Exponencial
En esta secci on vamos a introducir la funci on exponencial. Esta funci on mapea
elementos del algebra de Lie al grupo de Lie correspondiente. Sus propiedades nos
recuerdan a la funci on exponencial en , por eso su nombre. Para poder denir
esta funci on, primero tenemos que introducir algunos conceptos y adaptar conceptos
conocidos a los grupos de Lie. Vamos a iniciar con la introduccion de un grupo
uniparametrico de transformaciones en el grupo de Lie. Para esto vamos a ver
primero una proposicion que utilizaremos aqu.
Proposici on 18.15. Sea (M
n
, /) variedad diferenciable y F Dif (M
n
). Sea
X TM
n
y el grupo 1-parametrico inducido por X. Entonces X es F-invariante
ss
t
F = F
t
.
Demostraci on 18.16. X
y
=

y
(0), (tomando
y
(0) = y) y dF[
y
(X
y
) =
X
y
F

y
, donde X
y
es el vector tangente al camino

y
en y y dF[
y
(X
g
) es el
vector tangente al camino
F(y)
= F
y
en F (g). Se tiene que
F
y
(t) = F
t
(y)
= F
t
F
1
(F (y))
) Si X es F-invariante
X
F(y)
= dF[
y
(X
g
) , esto es

F(y)
(0) = X
F(y)
por lo tanto

F(y)
(f) =
t
(F (y))
= F
t
F
1
(F (y)) , i.e.

t
= F
t
F
1
) Si

t
= F
t
F
1
esto implica que

F(t)
(t) =
t
(F (y))
y esto implica que

F(y)
(0) = X
F(y)
es decir
X
F(y)
= dF[
y
(X
g
)

Usando la proposicion anterior podemos denir la funci on exponencial. Su


denicion es como sigue.
2. LA FUNCI

ON EXPONENCIAL 327
Definici on 18.17. Sea G grupo de Lie y X ( el algebra correspondiente
a G. Sea el grupo uniparametrico que induce a X y
1

t
. La funci on
exponencial se dene como
exp : ( G
X exp(X) :=
1
(e) =
e
(1) .
Es decir
: G G
(t, g) (t, g) ;
con
i) (0, g) = g,
ii) (t +s, g) = (t, (s, g)); X =

e
y
e
(0) = e
La primera propiedad, la cual nos recuerda una de las propiedades de la expo-
nencial de los reales, es que la exponencial del vector 0, es la identidad en el grupo.
Veamos esto.
Proposici on 18.18. exp (0) = e
Demostraci on 18.19.

e
= 0 implica que
e
(t) = cte G, pero
e
(0) = e,
por lo tanto
e
(t) = e. Entonces exp (0) =
e
(1) = e.
El punto interesante ahora, es que con este valor se puede obtener el valor de
la exponencial a lo largo de un parametro. Se sigue la proposicion:
Proposici on 18.20. exp (tX) =
t
(e) =
e
(t)
Demostraci on 18.21. Sea

e
(t) = X, vamos a denotar
e
=
X
. Entonces
d
dt
_
x
i

X
_
= X
i

X
en las coordenadas locales de G. Probemos primero que
rX
(t) =
X
(rt), i.e.

rX
(t) = (rX) =

X
(rt)
lo que implica que
d
dt
_
x
i

rX
(t)
_
=
d
dt
_
x
i

X
(rt)
_
= (rX)
i

rX
(t)
= rX
i

X
(rt) .
Hagamos t

= rt, se obtiene
r
d
dt

_
x
i

rX
(t)
_
= r
d
dt
_
x
i

X
(t

)
_
= rX
i

X
(t

)
lo cual es correcto. Entonces exp(tX) =
tX
(1) =
X
(t). De esta ultima ex-
presi on se tiene que
d
dt
exp (tX) =

X
(t) = X
X(t)
o
d
dt
exp (tX)[
t=0
= X
e
y tambien
exp (tX +sX) =
X
(t +s) =
X
(t)
X
(s) = exp(sX) exp (tX) .

328 18. GRUPOS DE LIE


La propiedad anterior es la que mas nos recuerda las propiedades de la ex-
ponencial, y es la que usaremos al trabajar con esta funci on. Para nalizar esta
secci on, vamos a mencionar mas propiedades de la funci on exponencial que seran
utliles, algunas sin demostracion.
Proposici on 18.22. Sea el grupo uniparametrico inducido por X (,
algebra correspondiente a G, entonces
t
= R
exp(tX)
.
Demostraci on 18.23.

t
(g) =
t
(ge) =
t
L
g
(e) = L
g

t
(e) = g
t
(e) = g exp (tX) = R
exp(tX)
(g) .

Proposici on 18.24. exp: ( G tiene las siguientes propiedades:


i) exp es funci on suave
ii) d exp[
0
= id[
G
iii) Si U
0

G
, exp[
U0
es inyectiva
3. La representaci on Adjunta y la Forma de Maurer Cartan.
Esta secci on la vamos a dedicar a una 1-forma que tiene gran importancia en
teoras de norma. Esta representacion es el campo de norma para una teora basada
en alg un grupo de Lie, por eso su importancia. Aqui la vamos a introducir solo
desde el punto de vista matematico. Para iniciar vamos a ver algunas deniciones
que se van a utilizar mas adelante. Primero denamos la funci on A
g
.
Definici on 18.25. Sea g G grupo de Lie y
A
g
: G G
g

A
g
(g

) = gg

g
1
Lo interesante de A
g
es que es un isomorsmo en el grupo de Lie.
Proposici on 18.26. A
g
Dif (G) y es un homomorsmo de grupos, es decir
es un isomorsmo de grupos de Lie.
Demostraci on 18.27. (A
g
)
1
= A
g
1 y ambas A
g
y A
g
1 son suaves, por
lo tanto A
g
Dif (G). A
g
(xy) = g(xy)g
1
= gxg
1
gyg
1
= A
g
(x)A
g
(y), por lo
tanto A
g
es un homomorsmo.
Comentario 18.28. Observen que A
gg
= A
g
A
g
para todos gg

G.
Para trabajar con los grupos, se utiliza el hecho que estos forman clases de
equivalencia, entonces lo mas sencillo es trabajar con algun representante de la clase.
A este representante lo llamamos asi, un representante del grupo. Formalmente su
denicion es como sigue.
Definici on 18.29. Sea V un espacio vectorial, G un grupo de Lie y G(V ) el
conjunto de transformaciones lineales en V invertibles. Una representaci on de
G sobre V es un homomorsmo : G G (V ) del grupo G al grupo (G (V ) , ).
Un representante singular es la representacion adjunta del grupo, la cual se
dene con la siguiente proposicion.
3. LA REPRESENTACI

ON ADJUNTA Y LA FORMA DE MAURER CARTAN. 329


Proposici on 18.30. La funci on
: G G (T
e
G)
g (g) := d A
g
[
e
:= Ad
g
es una representaci on de G sobre T
e
G, llamada la representaci on adjunta.
Demostraci on 18.31. d A
g
[
g

: T
g
G T
gg

g
1 G es un isomorsmo de espa-
cios vectoriales y d A
g
[
e
(v
e
) = v
e
A

g
es una transformaci on lineal d A
g
[
e
: T
e
G
T
e
G, i.e. d A
g
[
e
G (TeG). Adem as
(gg

) = d A
gg
[
e
= d (A
g
A
g
)[ [
e
= d A
g
[
e=A
g
(e)
d A
g
[
e
por lo que es un homomorsmo de grupos.
Por otro lado, vamos a denir lo que es invarianza por la izquierda o por la
derecha de una 1-forma sobre el grupo de Lie. Recordemos que sobre el grupo, los
vectores interesantes son los vectores invariantes por la izquierda o la derecha, este
concepto lo podemos transladar al espacio cotangente de la siguiente forma.
Definici on 18.32. Sea w
g
T

g
G, G grupo de Lie. w
g
es invariante por
la izquierda si para todos g, g

G,
_
L

g
_
g

(w
g
) = w
g
1
g

o w
g
es invariante por la derecha si
_
R

g
_
g

(w
g
) = w
g

g
1 .
Comentario 18.33. Noten que
_
L

g
_
g

: T

g
G T

L
1
g
(g

)
G = T

g
1
g
G
y
_
R

g
_
g

: T

g
G T

R
1
g
(g

)
G = T

g
1 G.
Al igual que los vectores invariantes por la izquierda o derecha, las 1-formas
invariantes quedan determinadas por su valor en un punto, donde normalmente se
escoge la identidad. Veamos esto.
Proposici on 18.34. Si w TG es invariante por la izquierda o por la derecha,
entonces w est a determinada por su valor en la identidad del grupo.
Demostraci on 18.35. Sea w TG invariante por la izquierda, entonces w
g
=
_
L

g
1
_
e
(w
e
), lo mismo por la derecha.
Ya estamos listos para introducir la forma canonica de Maurer-Cartan. Su
denicion formal esta dada como sigue.
Definici on 18.36. Sea G grupo de Lie y ( su respectiva algebra. La forma
can onica o de Maurer-Cartan sobre el grupo de Lie G es la 1-forma w
g

T

g
G(, con
w
g
: T
g
G T
e
G
X
g
w
g
(X
g
) := dL
g
1

g
(X
g
) .
La primera propiedad importante es que la forma de Maurer-Cartan esta de-
terminada por su valor en la identidad. Es decir:
330 18. GRUPOS DE LIE
Proposici on 18.37. Sea G grupo de Lie y w su forma de Maurer-Cartan.
Entonces w es invariante por la izquierda.
Demostraci on 18.38.
_
L

g
_
g

(w
g
)
_
X
g
1
g

_
=
_
w
g
d L
g
[
g
1
g

_
_
X
g
1
g

_
= d L
g
1

_
d L
g
[
g
1
g

_
X
g
1
g

_
_
=
_
d L
g
1

d L
g
[
g
1
g

_
_
X
g
1
g

_
= d
_
L
g
1 L
g
_

g
1
g

_
X
g
1
g

_
= d L
g
1

g
1
g

_
X
g
1
g

_
= w
g
1
g

_
X
g
1
g

_
lo que implica que
_
L

g
_
g

(w
g
) = w
g
1
g

Si la forma de Maurer-Cartan es invariante por la izquierda, cuando se toma


la accion derecha de ella, el resultado es una formula utilizada mucho en teora de
norma. Vamos a ver esta en la proposicion que sigue.
Proposici on 18.39. Sea G grupo de Lie y w su forma de Maurer-Cartan. Se
sigue que:
_
R

g
_
g

(w
g
) = Ad
g
1 w
g

g
1
Demostraci on 18.40.
_
R

g
_
g

(w
g
)
_
X
g

g
1
_
=
_
w
g
d R
g
[
g

g
1
_
_
X
g

g
1
_
= d L
g
1

d R
g
[
g

g
1
_
X
g

g
1
_
= d
_
L
g
1 R
g
_

g
1
_
X
g

g
1
_
= d
_
L
g
1 R
g
_

g
1
d
_
L
1
gg
1
L
gg
1
_

g
1
_
X
g

g
1
_
= d
_
L
g
1 R
g
_

g
1
d L
1
g

g
1

e
w
g

g
1
_
X
g

g
1
_
= d
_
L
1
g
R
g
L
g

g
1
_

e
w
g

g
1
_
X
g

g
1
_
= d A
g
1

e
w
g

g
1
_
X
g

g
1
_
= Ad
g
1 w
g

g
1
_
X
g

g
1
_

Para trabajar en una variedad con estructura de grupo, en un grupo de Lie,


se procede como sigue. Sean V
1
, , V
n
una base de T
e
G. Con esta base
podemos denir una base a traves de todo el espacio TG usando vectores invari-
antes por la izquierda. Sea X
1
, , X
n
base de TG, tal que dL
g
(V

) = X

(g)
_
d L
g
[
e
(V

) = X
ge
_
y sean

G sus duales, es decir,

, X

) =

. Como
[X

, X

] es tambien invariante por la izquierda, se cumple que [X

, X

] = c

donde las c

son las constantes de estructura del algebra de Lie (, correspondiente


a G, ya que la c

puede ser determinada en e G. Esto se pude ver usando la


3. LA REPRESENTACI

ON ADJUNTA Y LA FORMA DE MAURER CARTAN. 331


invariacia por la izquierda. dL
g
([X

, X

]) = c

(g) para todo g G. En par-


ticular para e G, lo que hace que c

no depende de g. A las constentes c

se les
conoce como constantes de estructura del grupo. Estas constantes cumplen
con algunas propiedades interesantes que quedaran como ejercicio.
Ejercicio 18.41. Demuestren que
a) c

= c

b) c

+c

+c

= 0, identidad de Jacobi
La ecuaci on fundamental de las 1-formas en el espacio contangente de un grupo
de Lie es la que sigue.
Proposici on 18.42. Sea G grupo de Lie y

base
T

G base del espacio


contangente de G. Entonces se cumple la ecuaci on
d

=
1
2
c

donde las c

son las constantes de estructura de (, el algebra correspondiente a


G.
Demostraci on 18.43. Sabemos que
d

(X

, X

) = X

(X

)) X

(X

))

([X

, X

])
= X

) X

(c

) = c

se sigue que

1
2
c

(X

, X

) = c

Asi mismo, la forma de Maurer-Cartan cumple con la misma ecuaci on anterior,


que se acostumbta escribir de una manera mas elegante. Esta forma la veremos en
la siguiente proposicion.
Proposici on 18.44. Sea G grupo de Lie y w su forma de Maurer-Cartan. La
forma de Maurer-Cartan w se puede escribir como
w = V

; w(g) := w
g
,
para toda g G, donde V

es la base del espacio tangente de G, T


e
G
iso

= (;

es base del espacio cotangente de G,

base
T

G y satisface la ecuaci on
d +
1
2
[ ] = 0.
Demostraci on 18.45. Sea Y = Y

T
g
G, con X

la base invariante por


la izquierda de TG, entonces
(Y ) = Y

(X

)
= Y

d L
g
1

g
_
X

[
g
_
= Y

d L
g
1

g
dL
g
(V

)[
e
= Y

d
_
L
g
1 L
g
_

e
(V

) = Y

Por otro lado


V

(Y ) = Y

(X

) = Y

.
332 18. GRUPOS DE LIE
Observen que [ ] = [V

, V

, se sigue entonces
d +
1
2
[ ] =
1
2
V

+
1
2
c

= 0

4. Representaci on de Grupos y Algebras de Lie


El espacio de las matrices es el espacio vectorial mas apropiado para usarse como
representantes de grupos y algebras. En esta secci on veremos los representantes de
los grupos mas usados en fsica, qumica e ingeniera. Primero vamos a ver la
denicion formal.
Definici on 18.46. Sea G un grupo de Lie y H un grupo de Lie de matrices.
Una representaci on de G es un homomorsmo : G H.
Definici on 18.47. Sea ( un algebra de Lie y H un algebra de Lie de matrices.
Una representaci on de ( es un homomorsmo : ( H
Ya en la practica, por lo general se trabaja con las representaciones matriciales
de los grupos o de las algebras. Vamos a resumir las algebras y grupos de matrices
mas importantes.
Ejemplo 18.48. Sean GL(n, ) y GL(n, () los conjuntos de matrices no singu-
lares nn reales y complejas respectivamente. Estos conjuntos forman un grupo con
la multiplicaci on de matrices. Las coordenadas locales de ellos son las n
2
entradas
(X
ij
) = M GL, los cuales forman un grupo de Lie de dimensi on n
2
, real o com-
pleja respectivamente. Topol ogicamente GL(n, ) es un grupo no compacto, para-
compacto y no-conexo. Sea c una trayectoria en GL(n, ), c : (, ) GL(n, ),
c (0) = I la identidad en GL(n, ). Cerca de cero c (s) = I +sA+O
_
s
2
_
, A matriz
n n, real. El vector tangente de c (s) en I es
dc
ds
=
.
c (s)

s=0
= A . Entonces el
algebra correspondiente a GL(n, ) es el conjunto gl (n, ) de matrices reales nn
(singulares o no). An alogamente, el algebra gl (n, () correspondiente a GL(n, ()
es el conjunto de matrices complejas n n.
Vamos a ver algunos ejemplos de los grupos de Lie mas usados en la fsica,
qumica e ingeniera. Primero vamos a estudiar ejemplos de subgrupos de GL(n, )
Ejemplo 18.49. O(n) :=
_
M GL (n, )[ M
T
M = M M
T
= I
_
llamadas
grupo ortogonal. Una curva en O(n) debe cumplir c (s)
T
c (s) = I, por lo que si
la diferenciamos obtenemos c (s)
T
c (s) +c
_
s
T
_
c (s) = 0. En s = 0 uno obtiene que
A
T
+ A = 0. Entonces el algebra correspondiente a O(n) es o (n), el conjunto de
matrices antisimetricas.
Ejemplo 18.50. SL(n, ) := M GL (n, )[ det M = 1, llamado el grupo
especial lineal . Si c es una trayectoria en SL(n, ) , det c (s) = 1+s tr (A) = 1, o
sea tr (A) = 0. Entonces el algebra correspondiente de SL(n, ) es sl (n, ), el con-
junto de matrices con traza cero. La dimensi on de este conjunto es dimSL(n, ) =
n
2
1.
Ejemplo 18.51. SO(n) = O(n) SL(n, ), el grupo especial ortogonal,
su algebra correspondiente es tambien o (n) = so (n). Ambas algebras tienen di-
mensi on dimo (n) =
n(n1)
2
.
4. REPRESENTACI

ON DE GRUPOS Y ALGEBRAS DE LIE 333


Igualmente, los subgrupos de GL(n, () pueden clasicarse como sigue:
Ejemplo 18.52. U (n) =
_
M GL (n, ()[ M M
T
= M
T
M = 1
_
, el grupo
unitario. Su algebra u (n) es el conjunto de matrices complejas antihermitianas
A
T
+A = 0.
Ejemplo 18.53. SL(n, () = M GL (n, ()[ det M = 1, el grupo especial
lineal complejo, su algebra sl (n, () es un conjunto de matrices complejas con
tr (A) = 0.
Ejemplo 18.54. SU (n) = U (n) SL(n, (), grupo especial unitario, su
algebra su (n), es el conjunto de matrices complejas antihermitianas con traza cero.
Ejercicio 18.55. Demuestren con detalle que las algebras de U(n), SL(n, ()
y SU(n) son respectivamente u(n), sl(n, () y su(n).
Ademas existen una innidad de grupos que se clasican diferente. Veamos
algunos ejemplos explicitamente.
Ejemplo 18.56. El grupo de Lorentz se dene como
O(1, 3) =
_
M GL(4, ) [ MM
T
= , = diag (1, 1, 1, 1)
_
el cual no es compacto, es paracompacto y es no-conexo.
Ejercicio 18.57. Encuentren el algebra de Lorentz correspondiente.
Ejemplo 18.58. Los grupos:
O(2) =
__
x y
y x
_
[ x
2
+y
2
= 1
_
; SO(2)
hom

=
_
(x, y)
2
[ x
2
+y
2
= 1
_
son homom orcos, es decir O(2) = SO(2) y ambos son topol ogicamente S
1
, que
adem as es una variedad diferenciable. Su algebra es
o (2) =
__
0 a
a 0
_
[ a
_
= so(2).
Una base de esta algebra como espacio vectorial, es
o (2) =
__
0 1
1 0
__
.
Ejemplo 18.59. El grupo
U (1) = SU (1) = z ( [ zz = 1
hom

=
_
(x, y) [ x
2
+y
2
= zz = 1, z = x +iy
_
.
De nuevo U (1) es topol ogicamente S
1
.
Ejemplo 18.60. Como ya vimos anteriormente, el grupo
SU (2) =
__
z
0
z
1
z
1
z
0
_
[
_
z
0
, z
1
_
(
2
, z
0
z
0
+z
1
z
1
= 1
_
hom

= S
3
,
su correspondiente algebra esta dada por:
su (2) =
_
i
_
c a ib
a +ib c
_
[ a, b, c,
_
.
Una base de esta algebra 3-dimensional se puede escribir como sigue.
_

1
= i
_
0 1
1 0
_
,
2
= i
_
0 i
i 0
_
,
3
= i
_
1 0
0 1
__
334 18. GRUPOS DE LIE
Esta base se llama matrices de Pauli, y son la base can onica del algebra su. Las
matrices de Pauli cumplen con las relaciones de conmutaci on
[
1
,
2
] = 2i
3
,
[
2
,
3
] = 2i
1
,
[
3
,
1
] = 2i
2
.
y suelen ser la base del modelo est andar de partculas elementales.
Ejercicio 18.61. Encuentren una base
i
del algebra o(2) y calculen sus
constantes de estructura c
k
ij
de la relaci on [
i
,
j
] = c
k
ij

k
.
Ejercicio 18.62. Encuentren una base del espacio tangente del grupo SU(2)
y luego su base dual. Con ella construyan sus constantes de estructura. Contruyan
una base
i

i=1,2,3
del algebra su(2) y calculen tambien sus constantes de estruc-
tura c
k
ij
de la relaci on [
i
,
j
] = c
k
ij

k
. Busquen una base del algebra en donde los
dos conjuntos de bases de estructura sean iguales.
Ejercicio 18.63. Encuentren la forma de Maurer-Cartan para el grupo SU(2)
utlilizando la traslaci on izquierda sobre el grupo y luego calculen la traslaci on derecha
sobre ella. Finalmente apliquen este resultado a un vector del espacio tangente de
SU(2).
Ejercicio 18.64. Encuentren una base del espacio tangente del grupo de Lorentz
y luego su base dual. Con ella construyan sus constantes de estructura. Contruyan
una base
i

i=1,2,3
del algebra su(2) y calculen tambien sus constantes de estruc-
tura c
k
ij
de la relaci on [
i
,
j
] = c
k
ij

k
. Busquen una base del algebra en donde los
dos conjuntos de bases de estructura sean iguales.
Ejercicio 18.65. Encuentren la forma de Maurer-Cartan para el grupo de
Lorentz utlilizando la traslaci on izquierda sobre el grupo y luego calculen la traslaci on
derecha sobre ella. Finalmente apliquen este resultado a un vector del espacio tan-
gente del grupo de Lorentz.
Part 7
APLICACIONES
CHAPTER 19
APLICACIONES
En este captulo veremos un par de aplicaciones muy interesante de como se
puede usar todo el material que hemos aprendido a lo largo de este libro, primero
para resolver una clase de ecuaciones diferenciales, no lineales, en derivadas parciales
que son de mucha utilidad en fsica, qumica, ingeniera, etc. y segundo de como
se pueden entender espacios unicados en muchas dimensiones, geometrizando las
teorias de norma. Aqu vamos a ver de forma general y generica como utilizar estos
metodos y daremos un ejemplo para un caso sencillo.
1. Ecuaciones Quirales
La aplicacion a la que nos referimos es la resolucion de las ecuaciones quirales
1
.
Estas ecuaciones son la generalizaci on de la ecuaci on de Laplace para un grupo
arbitrario, aqu veremos como utilizando nuestro conocimientos de ecuaciones def-
erenciales, variable compleja, grupos de Lie, etc, podemos resolver estas complica-
disimas ecuaciones. El metodo se llama mapeos armonicos y su poder y elegancia
son dignos de dedicarles esta captulo.
Las ecuaciones quirales se denen como sigue
Definici on 19.1. Sea G es un grupo de Lie paracompacto y g G un mapeo
tal que
g : (

( G
g g(z, z) G,
Las ecuaciones quirales para g se denen como
(19.1) (g
,z
g
1
)
, z
+ (g
, z
g
1
)
,z
= 0
donde
2
= det g
Se utiliza que el grupo de Lie sea paracompacto para que podamos garantizar
la existencia de una metrica en el espacio correspondiente. Normalmente g(z, z) se
escribe en una representacion matricial de G. Las ecuaciones quirales es un sistema
de ecuaciones de segundo orden, en derivadas parciales, no lineales. Si g es solo una
funci on g = e

, la ecuaci on quiral se transforma en la ecuaci on:


(19.2) (g
,z
g
1
)
, z
+ (g
, z
g
1
)
,z
= (
,z
)
, z
+ (
, z
)
,z
Como veremos mas adelante, la funci on = z+ z. Si hacemos el cambio de variable
z = +i, la ecuaci on (19.2) se transforma en
(19.3) (
,
)
,
+ (
,
)
,
= 0
1
Este captulo esta basado en el artculo Tonatiuh Matos. Exact Solutions of G-invariant
Chiral Equations. Math. Notes, 58, (1995), 1178-1182. Se puede ver en: hep-th /9405082
337
338 19. APLICACIONES
que es la ecuaci on de Laplace en coordenadas cilndricas. Si ahora hacemos el
cambio de variable =

r
2
2mr +
2
sin(), = (r m) cos() la ecuaci on
cambia a:
(19.4) ((r
2
2mr +
2
)
,r
)
,r
+
1
sin()
(sin()
,
)
,
= 0
la cual se reduce para m = = 0 a la ecuaciacion de Laplace en coordenadas
esfericas.
La primera propiedad de las ecuaciones quirales es que pueden ser derivadas de
una Lagrangiana dada por
(19.5) L = tr(g
,z
g
1
g
, z
g
1
).
Esta Lagrangiana representa una teoria topologica cuantica de campo con el grupo
de norma G y lo que vamos a hacer en este captulo es estudiar un metodo para
encontrar la forma explcita de g G en terminos de las coordenadas z y z.
Comentario 19.2. Sea G
c
un subgrupo de G, es decir, G
c
G tal que c G
c
implica que c
,z
= 0 y c
, z
= 0. Entonces la ecuaci on (19.1) es invariante bajo la
acci on izquierda L
c
de G
c
sobre G. Decimos que las ecuaciones quirales (19.1) son
invariantes bajo este grupo.
La primera consecuencia importante de las ecuaciones quirales la estudiaremos
en la siguiente proposicion.
Proposici on 19.3. La funci on = det g es arm onica.
Demostraci on 19.4. Vamos a utilizar la f ormula tr(A
,x
A
1
) = ln(det A)
,x
.
Si tomamos la traza de las ecuaciones quirales (19.1), se obtiene:
0 = tr
_
(g
,z
g
1
)
, z
+ (g
, z
g
1
)
,z

= (ln(det g)
,z
)
, z
+ (ln(det g)
, z
)
,z
= (ln()
,z
)
, z
+ (ln()
, z
)
,z
= 2
,z z
lo que implica que
,z z
= 0.
Las ecuaciones quirales implican la existencia de un superpotencial que
es integrable si las ecuaciones quirales se cumplen. Veamos esto en la siguiente
proposicion.
Proposici on 19.5. Sea una funci on compleja denida por
(19.6)
,z
=
1
4(ln)
,z
tr(g
,z
g
1
)
2
, g G
y
, z
con z en lugar de z. Si g cumple con las ecuaciones quirales, entonces es
integrable.
1. ECUACIONES QUIRALES 339
Demostraci on 19.6. Vamos a usar que (g
1
)
,x
= g
1
g
,x
g
1
en lo que sigue.
Primero observemos lo siguiente.

,z z
=
1
4
tr
_

,z
(g
,z
g
1
g
,z
g
1
)
_
, z
=
1
4
tr
_
1

,z
(g
,z
g
1
)
, z
g
,z
g
1
+
1

,z
g
,z
g
1
g
,z z
g
1

,z
g
,z
g
1
g
,z
g
1
g
, z
g
1


,z z
(
,z
)
2
g
,z
g
1
g
,z
g
1
_
=
1
4
1

,z
tr
__
(g
,z
g
1
)
, z
+g
,z z
g
1
g
,z
g
1
g
, z
g
1
_
g
,z
g
1

=
1
4
1

,z
tr
__
(g
,z
g
1
)
, z
+ (g
, z
g
1
)
,z

,z
g
, z
g
1
_
g
,z
g
1

ya que las matrices dentro de la traza pueden conmutarse sin afectar el resultado.
Si las ecuaciones chirales se cumplen para g, nalmente obtenemos:

,z z
=
1
4
tr
_
g
, z
g
1
g
,z
g
1

Lo cual implica que


,z z
=
, zz

Ahora vamos a construir el metodo de solucion. Sea ( el algebra correspon-
diente del grupo de Lie G. Ya sabemos que la forma de Maurer-Cartan
g
en G,
denda por
g
= L
g1
(g), es una 1-forma sobre G, que toma valores en (, es
decir
g
T

g
G (
Vamos a denir un mapeo sobre G.
Definici on 19.7. Se denen los mapeos A
z
y A
z
del grupo de Lie a su algebra
correspondiente, dados por
A
z
: G (
g A
z
(g) = g
,z
g
1
A
z
: G (
g A
z
(g) = g
, z
g
1
Si g es una representacion de grupo G, entonces la 1-forma de Marure-Cartan
(g) =
g
la podemos escribir como:
(19.7) = A
z
dz +A
z
d z
Usando el hecho de que
g
se puede escribir como en (19.7), vamos a denir
una metrica en el espacio tangente de G, es decir sobre (.
Definici on 19.8. El tensor
(19.8) l = tr(dgg
1
dgg
1
)
sobre G dene una metrica sobre el haz tangente de G.
Con la denicion de una metrica en G podemos denir las conexion y el tensor
de curvatura correspondientes. En particular la metrica (19.8) dene la derivada
covariante. Particularmente, las matrices A
z
(g) y A
z
(g) su derviada covariante
cumple una relacion muy interesante, la cual veremos en el siguiente lema.
340 19. APLICACIONES
Lema 19.9. Sea G grupo de Lie y las matrices A
z
(g) y A
z
(g) denidas como
en la denici on 19.7 y l la metrica (19.8), con derivada covariante . Entonces
(19.9)
a
A
b

b
A
a
= [A
b
, A
a
]
Demostraci on 19.10. De la denici on de A
a
(g) = g
,a
g
1
, se tiene

a
A
b

b
A
a
= A
b,a
A
a,b

c
ab
A
c
+
c
ba
A
c
= (g
b
g
1
)
,a
(g
a
g
1
)
,b
= g
,ab
g
1
g
,a
g
1
g
,b
g
1
g
,ba
g
1
+g
,b
g
1
g
,a
g
1
= A
b
A
a
A
a
A
b

Vale la pena denir el concepto de espacio simetrico en este punto.


Definici on 19.11. Sea M una variedad paracompacta con metrica l. Se dice
que el espacio M es simetrico si el tensor de Riemman derivado de l cumple con
= 0
donde es la derivada covariante de M compatible con l
Con esto ya estamos listos para demostrar el siguiente teorema.
Teorema 19.12. La subvariedad de soluciones de las ecuaciones quirales S
G es una variedad simetrica con metrica dada por (19.8)
Demostraci on 19.13. Solo vamos a dar una gua de la demostraci on. Vamos
a tomar la parametrizaci on
a
a = 1, n, sobre G. El conjunto
a
es un sistema
coordenado de la variedad G n-dimensional. En terminos de esta parametrizaci on,
la forma de Maurer-Cartan puede escribirse como:
(19.10) = A
a
d
a
,
donde A
a
(g) = (

a
g)g
1
. Entonces las ecuaciones quirales pueden ser escritas
como
(19.11)
b
A
a
(g) +
a
A
b
(g) = 0,
donde
a
es la derivada covariante denida por (19.8), es decir
(19.12)
a
A
b
= A
b,a

c
ab
A
c
Claramente la ecuaci on (19.11) se sigue, ya que los coecientes de conexi on son
simetricos. Observemos que
(19.13) l = tr[A
a
(g) A
b
(g)] d
a
d
b
,
entonces los coecientes metricos estan dados por g
ab
= tr[A
a
(g) A
b
(g)]. Usemos
la ecuaci on (19.9) en (19.11), de aqui se inere la realci on
(19.14)
b
A
a
(g) =
1
2
[A
a
, A
b
](g).
De (19.13) podemos calcular la curvatura de Riemann . Se obtiene
(19.15) R
abcd
=
1
4
tr(A
[a
A
b]
A
[c
A
d]
)
1. ECUACIONES QUIRALES 341
donde [a, b] signica conmutaci on de los ndices. Esto es posible gracias a que G es
un espacio paracompacto. De aqu se sigue que
= 0

Ya estamos listos para explicar el metodo para encontrar campos quirales ex-
plicitamente.
Sea V
p
una subvariedad de G y
i
i = 1, , p coordenadas locales total-
mente geodesicas sobre V
p
. La variedad G es conocida, entonces podemos conocer
a la subvariedad V
p
. De hecho, V
p
es un subgrupo de G y V
p
es tambien simetrico.
Las simetrias de G y V
p
tambien son isometrias, ya que ambos son paracompactos
y la metrica Riemanniana (19.13) y i

l respectivamente, donde i es la restriccion


de V
p
sobre G heredan estas isometrias. Supongamos que V
p
tiene d isometrias,
entoces se sigue que:
(19.16) (
i
,z
)
, z
+ (
i
, z
)
,z
+ 2

ijk

i
jk

j
,z

k
, z
= 0
donde i, j, k = 1, , p,
i
jk
son los smbolos de Christoel de i

l y
i
son par ametros
totalmente geodesicos sobre V
p
. En terminos de los par ametros
i
las ecuaciones
quirales se pueden escribir como:
(19.17)
i
A
j
(g) +
j
A
i
(g) = 0
donde
i
es la derivada covariante sobre V
p
. La ecuaci on (19.17) es la ecuaci on de
Killing sobre V
p
para las componentes de A
i
. Puesto que conocemos de hecho a V
p
,
conocemos sus isometrias y por tanto conocemos sus vectores de Killing. Sea
s
,
s = 1, , d, una base del espacio de los vectores de Killing de V
p
y
s
una base de
la subalgebra correspondiente al espacio V
p
. Entonces podemos escribir:
(19.18) A
i
(g) =

i
s

s
donde
s
=

j

j
s

j
y la derivada covariante de V
p
esta dada por
(19.19)
j
A
i
(g) =
1
2
[A
i,
A
j
](g)
Las matrices A
i
cumplen con la condicion de integrabilidad F
ij
(g) = 0, donde
(19.20) F
ij
=
j
A
i

i
A
j
[A
j,
A
i
]
es decir, las A
i
son puramente una norma.
La accion izquierda de G
c
sobre G, dada por L : G
c
G G preserva las
propiedades de los elemetos de S. Conocidos los vectores
s
y
s
uno puede
integrar los elementos de S, puesto que los A
i
(g) ( pueden ser mapeados de
regreso al grupo G utilizando el mapeo exponencial. Sin embargo, no es posible
mapear todos los elementos uno por uno, pero podemos hacer uso de la siguiente
proposicion.
Proposici on 19.14. La relaci on A
c
i
A
i
ssi existe c G
c
tal que A
c
= AL
c
,
es relaci on de equivalencia.
Ejercicio 19.15. Demostrar la proposici on anterior.
342 19. APLICACIONES
Esta relacion de equivalencia separa el conjuto A
i
en clases que llamaremos
[A
i
]. Sea TB un conjunto de representantes de cada clase, es decir TB = [A
i
].
Podemos mapear el conjunto TB ( al subgrupo S por medio del mapeo exponcial
o por integraci on directa. Vamos a denir B como el conjunto de elmentos del
grupo mapeado por cada representante de las clases, es decir B = g S [ g =
exp(A
i
), A
i
TB G. Los elementos de B son a su vez elementos de S porque
las A
i
cumplen con las ecuaciones quirales i.e.B S. Para construir el conjunto
completo S podemos seguir el siguiente teorema.
Teorema 19.16. (S, B, , G
c
, L) es un haz fribrado principal con proyecci on
(L
c
(g)) = g donde L(c, g) = L
c
(g).
Demostraci on 19.17. Las bras de G son las orbitas del grupo G
c
sobre G,
F
g
= g

G [ g

= L
c
(g)
para alg un g B. La topologa de B es su topologa relativa con respecto a G. Sea

F
el espacio brado
F
= (G
c
U
,
U

, ), donde U

es una cubierta abierta


de B. Tenemos el siguiente lema.
Lema 19.18. El espacio brado
F
y = (
1
(U

), U
,
[

1
(Ua)
) son isom orcos.
Demostraci on 19.19. El mapeo

:
1
(U

) = g S [ g

= L
c
(g), g U

cGc
G
c
U

(g

) = (c, g)
es un homeomorsmo y [

1
(U)
(g

) = g =
2

(g

).
Por el lema 19.18 se sigue que el haz brado es localmente trivial. Para
terminar la demostraci on del teorema es suciente con probar que los espacios G
c
,
(S, G
c
, L) y (G
c
U
,
G
c,
) son isomorcos. Pero esto es cierto ya que
id[
Gc

L[
Gc
1
(U)
es un isomormo.
Usando este teorema es ya posible explicar el metodo que queremos estudiar.
Algoritmo 19.20. .
a) Dadas las ecuaciones quirales (19.1), invariantes bajo el grupo de Lie G,
escojan un espacio Riemannian simetrico V
p
con d vectores de Killing, tal que
p n = dim G.
b) Encuentren una representaci on del algebra de Lie correspondiente ( com-
patible con la relaci on de conmutaci on de los vectores de Killing, via la ecuacion
(19.19).
c) Escriban las matrices A
i
(g) explicitamente en terminos de los parametros
geodesicos del espacio simetrico V
p
.
d) Usen la proposici on 19.14 para escoger las clases de equivalencia de A
i
y
escogan un conjunto de representates
e) Mapen los representantes del algebra de Lie al grupo correspondiente.
Las soluciones se pueden contruir usando la acci on izquierda del grupo G
c
sobre
el grupo G.
Este metodo quedara mas claro viendo un ejemplo.
1. ECUACIONES QUIRALES 343
Ejemplo 19.21. Vamos a tomar el grupo de Lie G = SL(2, R) y vamos a
seguir el metodo paso por paso.
a) Escogemos que V
1
es el espacio unidimensional tal que i

l = d
2
. Este
espacio es claramente un espacio Riemanniano simetrico con un vector de Killing.
b) El algebra de Lie correspondiente es sl(2, R) y es el conjunto de matrices
reales 22 con traza cero. La ecuaci on de Killing se reduce a la ecuacion de Laplace
(19.2).
c) Usando la ecuaci on (19.19), obtenemos que
g
,
g
1
= A = constant.
d) Los representantes del conjunto de matrices reales 2 2 con traza cero A
i

estan dados por:


[A
i
] =
__
0 1
a 0
__
e) El mapeo de los representantes del algebra de Lie al grupo se puede llevar a
cabo por la integraci on de la ecuacion diferencial matricial
g
,
= [A
i
]g.
Las soluciones dependen del polinomio caracteristico de [A
i
]. Se obtienen tres casos:
a > 0, a < 0 y a = 0. Para cada caso la matriz g se obtiene:
Para a > 0
(19.21) g = b
_
1 a
a a
2
_
e
a
+c
_
1 a
a a
2
_
e
a
,
donde 4bca
2
= 1
Para a < 0
(19.22) g = b
_
cos(a +
0
) a sin(a +
0
)
a sin(a +
0
) a
2
cos(a +
0
)
_
,
donde a
2
b
2
= 1
Y para a = 0 se tiene
(19.23) g =
_
b +c b
b 0
_
con b
2
= 1, a, b, c y
0
son constantes. As que para cada soluci on de la ecuaci on
de Laplace (19.2) se tendr a una soluci on de la ecuacion quiral. La acci on izquierda
del grupo SL
c
(2, R) sobre SL(2, R) se representa como
g

= CgD,
donde C, D SL
c
(2, R). g

va a ser tambien una soluci on de las ecuaciones quirales


(19.1).
Ejemplo 19.22. Si ahora escogemos una variedad V
2
podemos obtener otra
clase de soluciones de las ecuaciones quirales para el mismo grupo. Todos las var-
iedades dos dimensionales V
2
son conformalmente planas. Sean y dos paramet-
ros del espacio V
2
, as que la metrica m as general que podemos escribir para este
espacio es
dl
2
=
dd
(l +kz)
2
344 19. APLICACIONES
Pero que V
2
se simetrica implica que k es una constante. Un espacio V
2
con cur-
vatura constante tiene tres vectores de Killing. Sean

1
=
1
2V
2
[(k
2
+ 1)d + (k + 1)d]

2
=
1
V
2
[d +d]

3
=
1
2V
2
[(k
2
1)d + (1 k
2
)d]
donde V = 1 + k, una base de los vectores de Killing de V
2
. Las relaciones de
conmutaci on para estos tres vectores de Killing son:
_

1
,
2

= 4k
3
,
_

2
,
3

= 4k
2
,
_

3
,
1

= 4
2
(19.24)
Pero para obtener las relaciones de conmutaci on de sl(2, R) tenemos que poner k =
1. Una representaci on compatible del grupo sl(2, R) con las reglas de conmutaci on
(19.24) son las matrices:

1
= 2
_
1 0
0 1
_
,
2
=
_
0 b
a 0
_
,
3
=
_
0 b
a 0
_
donde ab = 1. Entoces las ecuaciones (19.18) quedan como:
g
,
g
1
= A

=
1
V
2
_

2
1 b(1 )
2
a(1 +)
2
1
2
_
g
,
g
1
= A

=
1
V
2
_

2
1 b(1 )
2
a(1 +)
2
1
2
_
Integrando estas ecuaciones encontramos nalmente
(19.25) g =
1
1
_
c(1 )(1 ) e( )
e( ) d(1 +)(1 +)
_
donde cd = e
2
, a =
e
c
y b =
e
d
. Para la ecuaci on arm onica se obtiene
(
,z
)
, z
+ (
, z
)
,z
+
4
1 +

,z

, z
= 0
(
,z
)
, z
+ (
, z
)
,z
+
4
1 +

,z

, z
= 0 (19.26)
Igualmente como antes, para cada soluci on de las ecuaciones (19.26) en la ecuaci on
(19.25) se obtiene una soluci on distinta para las ecuaciones quirales para el grupo
SL(2, R).
2. Geometrizaci on de Teorias de Norma
En esta secci on
2
veremos como geometrizar las teorias de norma y como usando
un espacio con mas dimensiones de las cuatro conocidas es posible unicar todas
las interacciones de la naturaleza. El problema que tienen estas teorias es que,
como la relatividad general, no pueden ser cuantizadas con las tecnicas conocidas.
El problema es mas profundo de lo que parece, pues algunas teorias de norma si se
2
Una versi on completa de esta secci on se encuentra en Tonatiuh Matos and Antonio Nieto.
Topics on Kaluza-Klein Theories. Rev. Mex. Fs. 39, (1993), S81-S131
2. GEOMETRIZACI

ON DE TEORIAS DE NORMA 345


pueden cuantizar, las teorias geometricas no. La razon puede ser la forma en que
cada teoria entiende las interacciones de la naturaleza. Mientras que la interacci on
es un concepto puramente geometrico en la relatividad general y en las teorias
geom

tricas de unicacion, en teoria de norma la interacci on entre partculas se da


por medio de intercambio de partculas virtuales. Es posible que mientras no haya
un concepto unicado de como debe entenderse la interacci on en la naturaleza, no
va a haber una teoria unicada de todas las fuerzas. Aqu nos vamos a concentrar
en las teorias geometricas de unicac on. Como veremos, la unicacion de todas
las interacciones requiere de la matematica estudiada en estes libro. La razon de
estudiarla es puramente academico y no tiene un sentido fsico necesariamente. A
estas teorias geometricas de unicacion se les llama tambien teorias de Kaluza-
Klein, por ser ellos los primeros en proponerlas.
Vamos a iniciar viendo como es posible geometrizar las teorias de norma. El
principio fundamental de la teoria general de la relatividad de Einstein es que las
interacciones gravitacionales son producto de la geometria del espacio-tiempo. La
materia le dicta al espacio-tiempo como curvarse, mientras que el espacio tiempo
determina la dinamica de la materia. Por supuesto queda abierta la pregunta si
todas las dem as interacciones de la naturaleza tambien son geometricas. Estas
interacciones son modeladas con las teorias de norma. En principio uno puede
geometrizar las teorias de norma observando el principio de acoplamiento mnimo.
Este principio consite en substituir el momento de una partcula p

, con el momento
(19.27) p

+eA
a

t
a
,
donde las A
a

son los potenciales de Yang-Mills y t


a
(, es la base del espacio
tangente a G, el grupo de invariancia de la teoria de norma. En un sistema coorde-
nado, esto se puede interpretar como cambiar las derivadas parciales en el sistema
por la derivada coovariante D

+ eA
a

t
a
en un espacio interno o espacio de
isoespin. Sin embargo, lo que denimos es una conexion en este espacio interno,
donde se cumple una relacion de conmutacion para la derivada covariante dada por:
(19.28) [D

, D

] = eF

donde las funciones F

= F
a

t
a
estan dadas por:
(19.29) F
a

A
a

A
a

+ef
a
bc
A
b

A
c

donde las constantes f


a
bc
son las constantes de estructura del algebra (, es decir
[t
b
, t
c
] = f
a
bc
t
a
Con esta conexion podemos denir la curvatura del espacio. La diferencia aqui
es que el espacio interno no necesariamente tiene una metrica y la conexion A
a

es
diferente a los smbolos de Christoel.
Sea P el haz brado principal (P, B
4
, , G, U, ), o gracamente dado por:
G

B
4
con conexion y cuya bra es un grupo paracompacto G y su base es un espacio
Riemanniano cuatro dimensional, vean la gura 1
346 19. APLICACIONES
Figure 1. El haz brado principal P, invariante ante el grupo
(la bra) G y base el espacio tiempo plano B
4
. es una secci on
cruzada del haz, es la proyeccion y es una trivializaci on, com-
patible con .
Esta denicion induce una metrica en P, ya que las hipotesis anteriores separan
el espacio en una parte vertical, dada por el grupo G y otra horizontal, determinada
por la secci on cruzada . As la metrica sobre P puede ser denida como
g(

U
v
,

V
v
) = g(

U
v
,

V
v
)
g(

U
H
,

V
v
) = 0
g(

U
H
,

V
H
) = g(d(

U
H
), d(

V
H
)) (19.30)
donde g, g y g son las metricas sobre G, sobre el espacio base B
4
y sobre P,
respectivamente. Si
A
es una base de las 1-formas denidas sobre P, la metrica
(19.30) puede ser escrita como
(19.31) g = g

+I
ab

a

b
,
la cual es denida sobre todo P. Vamos a escribir la metrica g en coordenadas
locales. P es un haz brado y por tanto es localmente un producto cartesiano de
un conjunto abierto U B
4
con la bra G. Es decir, como ya vimos, existe un
homeomorsmo , llamado la trivializaci on de P tal que
: P U G
x (b, g)
con b U B
4
y g G.
Sea e
a
una base del espacio tangente vertical de P y e

la base del espacio


complemento, el espacio horizontal, en nuestro caso de cuatro dimensiones. Por
denicion, las proyecciones de los vectores base est an dadas por:
d( e

) = e

d( e
a
) = 0 (19.32)
donde e

es una base del espacio tangente del espacio base U.


2. GEOMETRIZACI

ON DE TEORIAS DE NORMA 347


Ahora vamos a proyectar los vectores base e

y e
a
al espacio tangente de
U G usando la trivializaci on. La proyecc on de U G sobre U es una proyeccion
canonica dada por

1
: U G U,
(x, a) x
de tal forma que
(19.33) =
1

Tomemos la proyeccion de e

, e
a
a T(U G) tal que
d( e

) = B

A
m

e
m
d( e
a
) = C

a
e

+D
m
a
e
m
(19.34)
donde e
m
es una base invariante por la derecha del espacio tangente de G, tal que
e

, e
m
es una base del espacio tangente de U G. Pero de la ecuaci on (19.33)
tenemos:
d( e

) = d
1
d( e

) = B

= e

( e
a
) = d
1
d( e
a
) = C

a
e

= 0 (19.35)
i.e. B

y C

a
= 0. El conjunto d( e
a
) = D
m
a
e
m
es una base del espacio
tangente de G, el cual podemos reescribir simplemente como D
m
a
e
m
e
a
. Entonces
obtenemos.
d( e

) = e

A
m

e
m
(19.36)
d( e
a
) = e
a
. (19.37)
De (19.37) es sencillo obtener la base del espacio contangente correspondiente, esta
es:
e
A
=
_
e

A
m

e
m
e
m
(19.38)

A
=
_

a
+A
a

(19.39)
donde

es la base dual de e

y
m
es la base dual de e
m
. Con esta base
ya podemos escribir la metrica g del haz P en la trivializaci on U, obtenemos
(19.40) g = g

+I
nm
(
n
+A
n

) (
m
+A
m

)
Tambien podemos escribir la metrica (19.40) en un sistema coordenado, por ejem-
plo, sea

= dx

n
= dx
n
A
a

= ekB
a

I
ab
= g
ab
(19.41)
obtenemos
(19.42) g = g

dx

dx

+g
nm
(dx
n
+ekB
n

) (dx
m
+ekB
m

)
348 19. APLICACIONES
la cual se conoce como la metrica de Kaluza-Klein. A diferencia de la metrica origi-
nal la cual fue postulada utilizando muchas hipotesis, esta es solo una construcci on
siguiendo la losofa de las teorias de norma.
Para obterner g vamos a calcular el pull-back de , el cual esta dado por
(19.43)

(X) = X

+X
n
(
n
A
n

)[

1
Entonces el pull-back de la base del espacio contangente de U G es
(19.44)

) =

(
a
+A
a

) =
a
de donde obtenemos
(19.45) g =

g = g

+ I
mn

n

m
[

1
i.e. (19.31). Es claro que g = g

es una metrica de B
4
y g = I
nm

n
es
una metrica de G. Finalmente vamos a ver que las componentes A
a

t
a
pertenecen
a la conexion del haz P proyectada en B
4
. Para hacer esto, recordemos que la 1-
forma de conecc on asgna un cero a los vectores horizontales y un elemento del
algebra de Lie correspondiente a los vectores verticales. Podemos escribir como
(19.46) =
a
t
a
Esto es as, ya que
( e

) =
a
( e

)t
a
= 0
( e
b
) =
a
( e
b
)t
a
=
a
b
t
a
= t
b
. (19.47)
Con este resultado ya podemos proyectar la conexion de P a U B
4
. Para hacer
esto, denimos una secci on cruzada usando la trivializaci on
(19.48) =
1


Id : U P
donde

Id es la funci on identidad denida por

Id : U U G, (19.49)
x (x, e) (19.50)
con e es la identidad en G. Entonces el pull-back de aplicado a esta dado por
(vean la ecuaci on (19.44))

() = (

Id


1
)(
a
t
a
)
=

Id

((
a
+A
a

)t
a
) = A
a

t
a
(19.51)
esto es, A = A
a

t
a
es la proyeccion de la 1-forma de conexion hacia U y representa
el potencial de Yang-Mills en U.
Ejemplo 19.23. Vamos a construir el haz brado principal
G

M
4
en donde M
4
es el espacio tiempo plano, vean la gura 2.
Este haz brado tiene por bra al grupo G. Ahi construimos la conexi on del haz
utilizando las ideas anteriores. En un haz brado principal P, la conexi on dene a
2. GEOMETRIZACI

ON DE TEORIAS DE NORMA 349


Figure 2. El haz brado principal P, invariante ante el grupo
(la bra) G y base el espacio tiempo plano M
4
. es una secci on
cruzada del haz.
la 1-forma Maurer-Cartan tomando valores en el algebra de Lie ( correspondiente
a G. Toda teoria de norma esta basada en un grupo de Lie G. La teria de norma
m as representativa es tal vez aquella basada en el grupo G = SU(2). Existe una
relaci on directa entre los elementos del algebra de Lie y los elementos del espacio
tangente de G. Para SU(2) esta relaci on esta dada por los vectores base
z

y
y

z

_
_
0 0 0
0 0 1
0 1 0
_
_
x

z
z

z

_
_
0 0 1
0 0 0
1 0 0
_
_
y

y
x

y

_
_
0 1 0
1 0 0
0 0 0
_
_
(19.52)
La 1-forma de Maurer-Cartan se dene con la relacion (19.52) y la asociaci on
de las matrices del algebra correspondiente de P en cada punto p P. El punto
crucial aqui es la proyeccion de la 1-forma al espacio base. Para hacer esto,
tomemos una secci on cruzada en P, vean la gura 2. Con podemos proyectar
la 1-forma de conexion al espacio base
(19.53) A =

350 19. APLICACIONES


Otra secci on cruzada
1
, por supuesto, denira otra proyecc on de la conexion
A

pero la relacion entre A y A

la obtenemos del siguiente teorema


Teorema 19.24. Sean A =

y A

1
las conexiones derivadas de las
secciones cruzadas

1
, en un haz brado principal P, con grupo de estructura
G. Entonces
(19.54) A

= aAa
1
+ada
1
donde a es un elemento de transici on de G.
Esta es una relacion bien conocida en teorias de norma. Por ejemplo, para el
grupo G = U(1), que topologicamente es U(1) = S
1
, se tiene que un elemento de
S
1
puede ser escrito como a = e
i
, entonces
(19.55) A

= e
i
A e
i
e
i
de
i
= A +d.
O escrito en componentes
(19.56) A

= A

,
que es justamente la relacion de norma del campo electromagnetico. Es mas, pode-
mos escribir la 1-forma de conexion en general como:
(19.57) = a
1
Aa +a
1
da
Por supuesto, bajo la accion derecha del grupo a a

= ab sobre las bras de P,


queda invariante
= a
1
Aa

+a
1
da

La curvatura se puede obtener de la relacion


= d + = a
1
Ba
donde
(19.58) B = dA +A A =
1
2
B
a

t
a
dx

dx

Naturalmente obedece las identidades de Bianchi


(19.59) d + = 0.
Ejemplo 19.25. Vamos a recordar r apidamente como se ve una soluci on de
las ecuaciones de norma invariantes ante el grupo U(1), el cual es, como ya vimos,
topol ogicamente el crculo. El haz brado aqu consiste en una esfere S
2
cubierta
con una conexi on invariante ante U(1), dada por
A
+
= A

+d.
Como vimos antes, una soluci on de las ecuaciones de Maxwell sobre la esfera S
2
esta dada por
A

=
1
2
[1 cos()]d
que representa el monopolo de Dirac. La curvatura de esta conexi on es
(19.60) F = dA

=
1
2
sin()d d.
2. GEOMETRIZACI

ON DE TEORIAS DE NORMA 351


Ejemplo 19.26. Otro ejemplo interesante es el instanton, el cual es la conexi on
en un un haz brado
SU(2)

S
4
(19.61)
Anque esta construcci on no tiene que ver con fsica, es solo una construcci on
matem atica.
Por otro lado, se pueden construir a las teorias de Yang-Mills con el formalismo
de haces brados, en este caso la bra es el grupo de invariancia y la base el grupo
0(3, 1) o el grupo de Lorentz. Pero tambien se pueden construir las teorias de Yang-
Mills usando una base curva arbitraria. En lo que sigue de este captulo vamos a
hacer esto.
Esto demuestra que el llamado ansatz de Kaluza-Klein no es necesariamente
un ansatz, sino la generalizaci on natural de la teoria de norma a espacios curvos.
Sin embargo, algunos puntos deben de tomarse en cuenta.
Comentario 19.27. La descomposici on (19.30) o (19.31) puede ser hecha solo
si g es invariante ante el grupo G. Pero tambien podemos tomar el grupo cociente
G/H, donde H es un grupo normal de G. Por ejemplo, si G = SU(3) SU(2)
U(1), el grupo m aximo normal de G es el grupo H = SU(2) U(1) U(1), as que
como la dimensi on de G es 12 y la dimensi on de H es 7, la dimensi on mnima de
P para tener la metrica g invariante ante el grupo SU(3) SU(2) U(1) es 7 +
4 = 11. Este parece ser un n umero m agico, pues es la dimensi on de la teoria M y
de supergravedad.
Comentario 19.28. No hay un tratamiento mec anico cu antico de las teorias
de Kaluza-Klein, como no lo hay tampoco de la relatividad general. Pero al incorpo-
rar partculas del grupo SU(2), estas partculas necesariamente son cu anticas y por
tanto el tratatamiento mostrado aqu no puede explicarse a esas partculas. Pero la
contradicci on es m as profunda, pues si el campo gravitatorio son realmente las com-
ponentes de la metrica del espacio tiempo, entonces la cuantizaci on de este espacio
implicara que este es discreto. Pero para tener metrica debera ser un espacio T
2
,
de Haussdor. Por tanto, un espacio discreto no puede tener metrica. La pregunta
que queda abierta es por supuesto si estamos interpretando bien las interacciones
de partculas a nivel cu antico o si la interpretaci on geometrica mostrada aqu es la
correcta. Ojala que alg un lector de este libro nos de algun da la respuesta.
CHAPTER 20
Indice Analitico
A
Absolutamente convergente
Acotado por arriba
Acotado por abajo
Act ua por la derecha
Accion Efectiva
Accion Libre
Accion Transitiva

Algebra

Algebra tensorial

Algebra de Lie

Algebra sobre un conjunto


Anillo
Anillo de los enteros
Anillo de los reales
Anillo conmutativo
Anillo con unidad
Anillo sin divisores de cero
Anillo cociente
Anillo ideal
Argumento
Atlas
Atlas equivalentes
Automorsmo
B
Base
Base coordenada
Biyectiva
Bola
C
Camino
Camino constante
Campocombinacion lineal
Campo de norma
353
354 20. INDICE ANALITICO
Campo ordenado
Carta
Cartas
Cartas compatibles
Cerradura lineal
Clase de equivalencia
Clausura
Celula de Jordan
Cerradura lineal
Codiferencial exterior
Coecientes de Fourier
Cofactores de una matriz
Compacticaci on por un punto
Compacticaci on
Composici on de mapeos
Composici on
Complejo conjugado
Complemento ortogonal
Concatenaci on
Conceptos locales
Condiciones de Cauchy-Riemann
Conjunto abierto
Conjunto cociente
Conjunto compacto
Conjunto complementario
Conjunto complemento
Conjunto denso
Conjunto denso
Conjuntos de Borel
Conjunto de las funciones trigonometricas
Conjunto de funciones suaves
Conjunto diferencia
Conjunto parcialmente ordenado
Conjunto potencia
Conjunto universo
Conjunto vacio
Conexi on
Constantes de estructura
Converge
Convoluci on
Coordenadas nulas
Coordenadas hiporbolicas
Cota superior
Cota inferior
Criterio de comparacion
Cuadraturas
Cubierta
Curva
20. INDICE ANALITICO 355
Curva integral de un vector
D
Delta de Dirac
Delta de Kronecker
Derivada
Derivada exterior adjunta
Derivada de Lie
Desigualdad de Bernoulli
Determinante
Diagramas de Venn
Diferencial
Diensi on (vectorial)
Distancia
Distancia can onica
Distancia discreta
Diferencial exterior
Distancia max
Dominio de denicion
Dominio de la carta
Dominio integral
Dominio de valores
Dos Forma de Curvatura
E
Ecuacion caracteristica
Ecuacion de Difusi on
Ecuacion de Helmholtz
Ecuacion de Killing
Ecuacion de Laplace
Ecuacion de onda
Ecuacion de Poisson
Ecuacion diferencial de Hermite
Ecuacion diferencial de Laguerre
Ecuacion diferencial de Legendre
Ecuacion diferencial ordinaria
Ecuacion lineal ordinaria de primer orden
Ecuacion lineal ordinaria de segundo orden
Ecuaciones elipticas
Ecuaciones hiperbolicas
Ecuaciones parabolicas
Elemento neutro
Entorno
Epimorsmo
Escalar de Ricci
Espacio de Banach
Espacio abiertos
356 20. INDICE ANALITICO
Espacio base
Espacio cerrados
Espacio conexo
Espacio cotangente
Espacio con Medida
Espacio derecho
Espacio de Hausdor
Espacio de Hilbert
Espacio izquierdo
Espacio de Lorentz
Espacio disconexo
Espacio Euclidiano
Espacio Medible
Espacio metrico
Espacio metrizable
Espacio metrico completo
Espacio normal
Espacio normado
Espacio ortogonal
Espacio paracompacto
Espacio Pseudo-Euclidiano
Espacio Pseudometrico
Espacio Pseudonormado
Espacio perpendicular
Espacio regular
Espacio tangente
Espacio topologico
Espacio total
Espacio vectorial
Espacio Unitario
Espacios homeomorfos
Espacios isomorfos
Espacios topologicos
Estructura diferenciable
Eigen valor
Eigen vector
F
Factor integrante
Factores invariantes
relacionados
invariante
Fibra del haz
Fibra sobre un haz
Finita por vecindades
Forma Arm onica
Forma can onica diagonal
Forma can onica
20. INDICE ANALITICO 357
Forma Cerrada
Forma Cocerrada
Forma Coexacta
Forma Exacta
Forma de Maurer-Cartan
Full-back
Frontera de una funcion
Funcion
Funcion
Funcion abierta
Funcioon acotada
Funcion analtica
Funcion armonica
Funcion continua
Funcion continua
Funcion continua
Funcion exponencial
Funcion holomorfa
Funcion indicadora
Funcion medible
Funcion regular
Funcion simple
Funcon suave
Funcion suave en W
Funciones Elementales
Funcion de Green
Funciones de transicion
Funciones de transicion
Funciones suaves en una vecindad
G
Grupo Abeliano
Grupo Conmutativo
Grupo de automorsmos
Grupo de estructura
Grupo de isometras
Grupo de Lorentz
Grupo Ortogonal
Grupo Topologico
Grupo unitario
Grupo especial lineal
Grupo especial lineal complejo
Grupo especial ortogonal
Grupo especial unitario
Grupo uniparametrico de transformacion
H
358 20. INDICE ANALITICO
Haces isomorcos
Haz
Haz cotangente
Haz brado
Haz brado principal
Haz tangente
Haz trivial
Haz vectorial
Haz de Hopf
Haz de marcos
Homomorsmo
Homeomorsmo
I
Identidades de Bianchi
Identidad de Jacobi
Imagen de la carta
Imagen de un conjunto bajo una funcion
Imagen inversa de un conjunto bajo una funcion
Imagen reciproca
Imagen recproca
Inclusi on
Inducci on matematica
Indices covariantes
Indices contravariantes
Inmo
Integral de Gauss
Interseccion de conjuntos
Invariante bajo
Invariante por la izquierda
Invariante por la derecha
Inversa de una matriz
Inversion conforme
Inyectiva
Isometra
Isomorsmo
I-esima funcion coordenada
I-esima funcion coordenada del sistema de coordenadas
L
Lapaciano
Laplaciano
Lazo
Linealmente dependiente
Linealmente independiente
Lmite
Localmente nita
20. INDICE ANALITICO 359
Loop
1-forma
1-forma
M
Mapeo
Mapeo inverso
Mapeos lineales
Matriz adjunta
Matriz antihermitiana
Matriz antisimetrica
Matriz asociada al polinomio
Matriz caracteristica
Matriz cuasidiagonal
Matriz de Jordan
Matrices de Pauli
Matriz diagonal
Matriz hermitiana
Matriz nilpotentes de grado n
Matriz polinomial
Matriz regular
Matriz singular
Matriz simetrica
Matriz transpuesta
Matriz triagonal
Matrices equivalentes
Matrices similares
Maximo
Medida
Medida discreta
Medida de Dirac
Medida de Lebesgue
Medida discreta de probabilidad
Medida de probabilidad
Medida discreta de probabilidad
Metrica Euclideana
Metrica de Friedman-Robertson-Waker
Metrizable
Minimo
Modos normales
M odulo
Monoide
Monomorsmo
Monopolo de Dirac
Metodo de Gauss Jordan
N
360 20. INDICE ANALITICO
Norma
Norma Euclidiana
Norma de Lorentz
N-formas
N-formas
No pertenece al conjunto
Nucleo
O
Operador adjunto
Operador dAlabertiano
Operador autoadjunto
Operador anti-autoadjunto
Operacion Asociativa
Operacion binaria
Operacion Invertible por la izquierda
Operacion Invertible por la derecha
Operacion Conmutativa
Operador * de Hodge
Orden parcial
Ortogonales
Orden
P
Parentesis de Lie
Parte Real
Parte Real
Parte imaginaria
Parte imaginaria
Pertenece al conjunto
Polinomios de Legendre
Polinomios de Hermite
Polinomios de Laguerre
Polinomios de Tchebichef
Polinomios de Jacobi
Polinomios de Gegenbauer
Polinomios de Tchebichef de segunda clase
Polinomios de Legendre
Polinomios asociados de Laguerre
Polinomio carateriztico
Polinomio minimo
Polinomio caracteristico de la ecuacion diferencial
Polinomios de Bessel
Polo de orden m
Polo simple
Potencia n-esima del conjunto
Primera forma fundamental de Cartan
20. INDICE ANALITICO 361
Producto entre clases de equivalencia
Producto escalar
Producto interno
Producto escalar
Producto interno
Producto escalar
Producto cartesiano
Producto de Lie
Producto tensorial
Propiedad topologica
Proyeccion
Proyeccion estereograca
Prueba del cociente
Pseudo-producto interno
Pull-back
Pull-back de tensores covariantes
Punto singular
Punto singular aislado
Punto de adherencia
Punto interior
P-formas
R
Radio de convergencia
Rango
Realesnegativos
Realespositivos
Renamiento
Regi on simplemente conexa
Regi on de conexion m ultiple
Reglade Cramer
Reglasde Morgan
Relacion
Relacion antireexiva
Relacion antisimetrica
Relacion n-ariasobre
Relacion binaria
Relacion de equivalencia
Relacion de recurrencia
Relacion reexiva
Relacion transitiva
Relacion simetrica
Reparametrizacion
Representaci on adjunta
Representaci on de grupos
Restriccion de mapeos
Rotaci on conforme
362 20. INDICE ANALITICO
S
Semicampo
Segunda forma fundamental de Cartan
Serie de Fourier
Serie de Fourier
Series de Laurent
Serie de Maclaurin
Serie de Taylor
Seccion
Simbolos de Chistoel
Semigrupo
Signatura de la Variedad
Singularidad removible
Singularidad evitable
Sistema completo
Sistema de coordenada local del haz
Sistema de coordenadas
Sistema de ecuaciones lineales
Sistema ortogonal
Sitema ortonormal
Sistema ortonormal
Solucion unicamente determinada
Subanillo
Subgrupo
Subgrupo normalgrupo
Subespacio Vectorial
Subconjunto
Subconjunto propio
Subgrupo de Lie
Sucesi on
Sucesi on de Cauchy
Sucesi on convergente
Supercie de Riemann
Suryectiva
Subgrupos
Subcubierta
Supremo
Subespacio topologico
T
Tensor
Tensor de Curvatura
Tensor de Einstein
Tensor de Levi-Civita
Tensor de Ricci
Tensor Metrico
Tetrada
20. INDICE ANALITICO 363
Tetrada Nula
Teorema de Abel
Teorema de Laplace
Teorema de Leibniz
Teorema del residuo
Transformaci on conforme
Transformaci on homograca
Transformada integral
Transformada de Laplace
Transformada de Fourier
Transformada nita de Fourier
Transformaci on de similaridad
Transformaciones lineales
Transformaci on de dualidad
Traslacion conforme
Trayectoria
Trivializacion local
Traza
Traslacion derecha
Traslacion izquierda
Topologa cociente
Topologa discreta
Topologa inducida
Topologa inducida
Topologa indiscreta
Topologas de Sierpinski
Topologa relativa
U
Union de conjuntos
Uno-formas
V
Valor absoluto
Valor propio
Variedad diferenciable
Variedad Euclidiana
Variedad Lorenziana
Variedad Pseudoriemanniana
Variedad Riemanniana
Variedad suave
Variedad suave
Variedades difeom orcas
Variedad real de dimensi on n
Variedad real diferenciable
Vector de Killing
Vector contravariant
364 20. INDICE ANALITICO
Vector covariant
Vector nulo
Vectores perpendiculares
Vector propio
Vector tangente
Vector tipo espacio
Vector tipo nulo
Vector tipo tiempo
Vecindad
W
Wronskiano

S-ar putea să vă placă și