Sunteți pe pagina 1din 217

ALGEBRA MULTILINEAL Y

TENSORIAL

AUTORES

Omar Saldarriaga
Ph.D., State University of New York at Binghamton
Profesor Asociado
Instituto de Matemticas
a
Universidad de Antioquia.

Mauricio Londoo
n
Magister, Universidad Nacional de Colombia
Profesor Auxiliar
Instituto de Matemticas
a
Universidad de Antioquia.

ii

c Copyright by Omar Saldarriaga, 2012.


All rights reserved.


Indice general
0. Preliminares

0.1. Sistemas de Ecuaciones Lineales y matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

0.2. Operaciones con Matrices y Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

11

0.3. Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

18

0.4. Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

20

0.5. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

27

1. Espacios Vectoriales

35

1.1. Denicin y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

35

1.2. Subespacios

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

39

1.3. Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

43

1.4. Bases y Dimensin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

46

1.5. Suma Directa de Espacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

53

1.6. Subespacios fundamentales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

56

2. Transformaciones Lineales

63

2.1. Denicin y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .


o

63

2.1.1. Transformaciones Lineales Inyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

65

2.1.2. Transformaciones Lineales Sobreyectivas . . . . . . . . . . . . . . . . . . . . . . . . . . . .

65

2.2. Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

69

2.3. La matriz de una transformacin con respecto a dos bases . . . . . . . . . . . . . . . . . . . . . .


o

72

2.4. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

76

2.5. Transformaciones Lineales y Suma Directa de Espacios . . . . . . . . . . . . . . . . . . . . . . . .

81

3. Valores y Vectores Propios

83

3.1. Polinomio Caracter


stico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

83

3.2. Matrices Similares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

88

3.3. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

90

iii

iv
3.4. Diagonalizacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o

95

3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100


4. Forma Cannica de Jordan
o

107

4.1. Vectores Propios Generalizados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107


4.2. Forma Cannica de Jordan para Matrices Nilpotentes . . . . . . . . . . . . . . . . . . . . . . . . 113
o
4.3. Forma Cannica de Jordan: Versin General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
o
o
4.4. Polinomio m
nimo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
5. Aplicaciones
5.1. Potencia de una matriz

131
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

5.1.1. Relaciones de recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132


5.1.2. Cadenas de Markov . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
5.2. Exponencial de una matriz diagonalizable . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
5.2.1. Sistemas Lineales de Ecuaciones diferenciales . . . . . . . . . . . . . . . . . . . . . . . . . 137
5.2.2. Torneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
6. El Espacio Dual y Bidual

141

6.1. Notacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141


o
6.2. El Espacio Bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
6.3. El Anulador de un Subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
7. Funciones Bilineales

149

7.1. Denicin y Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149


o
7.2. Funciones Bilineales Simtricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
e
7.3. Formas Bilineales Regulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
7.4. Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
7.5. Clasicacin de las formas bilineales simtricas reales . . . . . . . . . . . . . . . . . . . . . . . . . 162
o
e
8. Espacios con producto interno

165

8.1. Denicin y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165


o
8.2. La matriz del producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
8.3. Ortogonalidad y proyeccin ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
o
8.4. Proceso Gramm-Schmidt y el Teorema de Riesz-Frchet . . . . . . . . . . . . . . . . . . . . . . . 172
e
9. Formas Cuadrticas
a

177

9.1. Matrices Simtricas y Diagonalizacin Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . 177


e
o
9.2. Formas Cuadrticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 178
a


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
10.Formas Multilineales
10.1. Funciones Multilineales

1
183

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183

10.2. Formas n-lineales simtricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184


e
10.3. Formas Alternantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
10.4. Cofactores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
10.5. Matriz Adjunta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
11.Producto Tensorial

197

11.1. Espacios Cociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197


11.2. Producto Tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199
11.3. La propiedad universal del producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
11.4. El problema de extensin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
o
11.5. Propiedades del producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
11.6. Producto Tensorial: Caso general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
11.7. Producto Tensorial Simtrico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
e
11.8. Algebras Tensorial, Simtrica y Exterior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
e

11.8.1. Algebra simtrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213


e

11.8.2. Algebra Exterior . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214

Cap
tulo 0

Preliminares
En este cap
tulo veremos ... Las letras m,n, i, j y k denotarn nmeros enteros positivos y denotaremos por
a u
R el conjunto de los nmeros reales ... m
u
n{m, n} es el menor nmero entre m y n... el conjunto de matrices de
u
tamao m n ser denotado por Mmn (R) y por Mn (R) cuando m = n.
n
a

0.1.

Sistemas de Ecuaciones Lineales y matrices

En esta seccin mostraremos como asociar una matriz a un sistema de ecuaciones lineales, usaremos la
o
solucin a un sistema de ecuaciones lineales para denir operaciones elementales de la sobre matrices y moso
traremos como usar estas operaciones para encontrar la solucin a sistemas lineales usando matrices, ilustrando
o
el mtodo de solucin conocido como reduccin Gauss-Jordan.
e
o
o
Consideremos el siguiente sistema de dos ecuaciones en dos incgnitas:
o

2x + y = 4

(1)

3x + 4y = 1

(2)

Existen varios mtodos para resolver este sistema, por la similitud con el mtodo que expondremos en esta
e
e
seccin destacamos el de eliminacin.
o
o
En este mtodo se usan dos operaciones bsicas para llevar a la solucin de un sistema lineal las cuales son:
e
a
o
1. Sumar un mltiplo de una ecuacin a otra ecuacin con el objetivo de eliminar una de las variables, por
u
o
o
ejemplo la operacin
o
-4 Ecuacin(1) + Ecuacin(2)
o
o
elimina la variable y y produce la ecuacin 5x = 15.
o
2. Multiplicar una ecuacin por una constante no cero con el objetivo de simplicarla, por ejemplo si multio
1
plicamos la nueva ecuacin 5x = 15 por
o
obtenemos x = 3.
5
3

4
3. Si multiplicamos esta ultima ecuacin (x = 3) por -2 y se la sumamos a la Ecuacin (1), obtenemos

o
o
y = 2. Finalmente la solucin al sistema est dada por los valores: x = 3 y y = 2.
o
a
Los mtodos que veremos en este libro son:
e
1. El mtodo de reduccin Gauss-Jordan, el cual veremos en esta seccin.
e
o
o
2. El mtodo de multiplicacin por la matriz inversa, este mtodo solo funciona en algunos casos, ver Teorema
e
o
e
0.12 en la Seccin 0.3.
o
3. La regla de Cramer, ver Teorema 10.10.
Vale la pena notar que si se tiene un sistema de dos ecuaciones lineales en dos incgnitas, hay tres posibles
o
respuestas y estas son:
1. El sistema tiene solucion unica (como en el ejemplo ilustrado anteriormente).

2. El sistema no tiene solucin (o solucin vac caso en el cual, decimos que es inconsistente.
o
o
a),
3. El sistema tiene innitas soluciones, caso en el cual decimos que el sistema es redundante.
El caso general lo resolveremos usando matrices, asociaremos a cada sistema lineal una de estas y aplicaremos
operaciones elementales de la para resolver el sistema. Las operaciones elementales de la sobre matrices son
simplemente operaciones equivalentes a las mencionadas en el mtodo de eliminacin al principio de la seccin.
e
o
o
Veremos que los tres casos expuestos son los mismos en cualquier sistema de ecuaciones lineales.
Denicin 0.1. Una matriz real es un arreglo rectangular de nmeros reales en m las y n columnas
o
u

a11

.
.
.
am1

..
.

a1n

.
. ;
.
amn

donde aij es un nmero real para i = 1, . . . , m y j = 1, . . . , n. A esta matriz se le llama una matriz de tamao
u
n
m n.
En esta seccin se esta interesado en operaciondes de la de una matriz, as en esta seccin se donotar la
o

o
a
i-sima la de una matriz A por Fi . Se usar la notacin Mmn (F) para el conjunto de matrices de tamao m n
e
a
o
n
y por Mn (F) cuando m = n, con F = R o C.
A un sistema lineal de m ecuaciones con n incognitas,
a11 x1 + + a1n xn = b1
.
.
.
am1 x1 + + amn xn = bm ,


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
se le asocia la matriz de tamao m (n + 1)
n

a11

.
.
.
amn

..
.

a1n
.
.
.

a1n

b1

.
.
.
bm

llamada la matriz de coecientes o matriz asociada. Cada la de esta matriz tiene los coecientes de cada
una de las ecuaciones incluyendo el trmino constante al nal de la misma y cada columna est asociada a una
e
a
incognita excepto la ultima columna que contiene los trminos independientes.

1
le corresponde la matriz de coecientes
Ejemplo 0.1. Al sistema lineal
4
4x + 5y = 6
x + 2y = 3

5 6

Las operaciones descritas al principio de la seccin que se realizan sobre las ecuaciones de un sistema lineal en
o
el mtodo de eliminacn se traducen en operaciones de la sobre matrices, llamadas operaciones elementales de
e
o
la, las cuales describimos a continuacin.
o
Denicin 0.2. Sea A una matriz de tamao m n, una operacin elemental de la sobre A es una de
o
n
o
las siguientes operaciones:
1. Multiplicar una la por una constante no cero. Se usar la notacin cFi Fi para indicar que se multiplica
a
o
la la i por la constante c.
2. Sumar un mltiplo de una la a otra la. Se usar la notacin cFi + Fj Fj para indicar que se le suma
u
a
o
c veces la la i a la la j.
En estos dos pasos, la la que aparece despus de la echa es la la que se debe modicar o simplemente,
e
a la que se le debe aplicar la operacin.
o
3. Intercambiar dos las. Se usar la notacin Fi Fj para indicar que se debe intecambiar la la i con la
a
o
la j.
Ejemplo 0.2. Al principio de la seccin resolvimos el sistema de ecuaciones
o

2x + y = 4

aplicando las opera-

3x + 4y = 1
ciones
1. -4 Ecuacin 1 ms Ecuacin 2, de la cual obtenemos la ecuacin 5y = 15,
o
a
o
o
1
2. multiplicamos esta ultima ecuacin por , obteniendo x = 3,

o
5
3. nalmente de, -2 ecuacin (x = 3) ms Ecuacin 1, obtenemos y = 2.
o
a
o
Como en la matriz asociada a un sistema lineal las ecuaciones se representan en las, estas operaciones se
traducen en operaciones de la, de hecho, la primera operacin se traduce en la operacin de la 4F1 + F2 , la
o
o
segunda en 1 F2 y la tercera en 2F2 + F1 . Al aplicar estas operaciones obtenemos
5

2 1
4
2 1 4
1
0 1 2
2 1 4
1
4F +F F

F F
2F +F F

1
2
2
1
2
2
1
1
F2 F2
5
5 0 15
3 4 1
0
1 0
3
1 0 3

1 2

6
De esta ultima matriz obtenemos las ecuaciones x = 3 y y = 2 las cuales nos dan la solucin al sistema. La

o
ultima operacin de intercambiar las las se hace simplemente para que las soluciones aparezcan en orden.

o
Este ultimo ejemplo ilustra el mtodo de solucin de un sistema lineal con operaciones de la sobre matrices, el

e
o
cual es el objetivo de la seccin. Para ilustrar el caso general debemos mostrar como aplicar operaciones de la
o
sobre una matriz de una manera eciente que garantice una solucin, una manera efectiva es llevar la matriz a
o
una matriz en forma escalonada reducida, la cual denimos a continuacin.
o
Denicin 0.3. Sea A una matriz de tamao m n, decimos que A est en forma escalonada reducida si
o
n
a
A satisface las siguientes condiciones:
1. Todas las las nulas (las donde todas las entradas, en esa la, son ceros) estn en la parte inferior de
a
la matriz.
2. La primera entrada no cero de una la no nula es un uno. A esta entrada se le llama pivote.
3. Si dos las consecutivas son no nulas, entonces el pivote de la la de arriba est mas a la izquierda del
a
pivote de la la de abajo.
4. Todas las entradas de una columna donde haya un pivote son cero, excepto la entrada donde est el pivote.
a
Ejemplo 0.3.

A = 0

Las siguientes matrices estn


a

0 0
1 0

B = 0 1
1 0 ,

0 0
0 1

E = 0 0

0 0

0 ,

en forma escalonada reducida:

1 0

C = 0 0 1 ,
,

0 0 0
0

F = 0

0 0

0 0

D = 0 0

0 0
0 0

G = 0 0

0 0

0 1

0 ,

1 ,

donde las entradas * representan un escalar arbitrario. De hecho estas son todas las posibles formas escalonadas
reducidas que se obtienen de matrices 3 3 no nulas.

Ejemplo 0.4. La forma escalonada reducida de la matriz A = 0

2
1 0 13/3

0 1

2/3

1/3

2 1, es la matriz R =

1 8
1
3

1/3

0 0
0
0
Para hacer el clculo de la forma escalonada reducida en MatLab se usa el comando R=rref(A), tambin
a
e
se puede usar adicionalmente el comando format rat para que MatLab entregue la respuesta con nmeros
u
racionales en cada entrada de la matriz.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

El proceso de aplicar operaciones elementales de la sobre una matriz hasta llevarla a su forma escalonada
reducida se le conoce como reduccin Gauss-Jordan. Este proceso nos lleva tambin a determinar si el
o
e
sistema tiene solucin y a encontrarla en el caso de que exista (ver Teorema 0.2). Primero debemos garantizar
o
que es posible llevar cualquier matriz a una matriz en forma escalonada reducida por medio de operaciones
elementales.
Teorema 0.1. Aplicando reduccin Gauss-Jordan, toda matriz se puede llevar a una forma escalonada reducida.
o

0 0 1 1

Ejemplo 0.5. Calcular la forma escalonada de reducida de la matriz A = 2 2 1 4 .

3 3 2 6

0 1
2 1
3 2

1
2 2
F F
2
1
0 0
4

6
3 3

1
2 F2 + F1 F1 1

1
2 F2 + F3 F3 0

1 1

Por tanto la matriz 0 0

0 0

1 0

1 4

1 1

2 6
3/2

1
2 F1

F1 1

1 1/2
0

1 1

2
1 1

0 0
1

6 3F1 + F3 F3 0 0

3
0 3/2 2 F3 + F1 F1 1 1

1
1 F3 + F2 F2 0 0

0
1
0 0

0 0
1

0 0 1/2 2F3 F3 0 0

0 0

1 0 es la forma escalonada reducida de A.

0 1

2 4

Ejemplo 0.6. Calcule la forma escalonada reducida de la matriz A = 2 4

1 2
Las operaciones para reducir esta matriz son las siguientes:

2 4 2 1 F1 F1 1 2 1
1 2 1
2

2 4
2 4
2
4
2 2F1 + F2 F2 0 0

1 2
1
0 0
2
1 2
1 F1 + F3 F3

1 2 0
F2 + F1 F1

0 0 1 .

2F1 + F3 F3 0 0 0
0 1

1/2
1
1/2
0 0

1 .

1 0 .

0 1

2 .

1
4 F2

1 2

F2 0 0

0 0

Ahora que sabemos que toda matriz se puede llevar, por medio de operaciones elementales, a una matriz en

forma escalonada reducida, debemos tambin saber para que nos sirve este resultado en trminos de soluciones
e
e
de sistemas de ecuaciones lineales. El siguiente teorema nos muestra la utilidad de poder reducir matrices a su
forma escalonada reducida ya que de esta ultima podemos determinar si un sistema tiene soluciones y en el caso

armativo tambin nos permite saber si la solucin es unica o existen innitas.


e
o

8
Teorema 0.2. Considere el sistema de ecuaciones
a11 x1 + + a1n xn = b1
.
.
,
.
am1 x1 + + amn xn = bm
la matriz de coecientes asociada al sistema est dada por
a

a11

.
A= .
.
am1

..
.

a1n
.
.
.

amn

b1

.
.
.
bm

y sea A la forma escalonada reducida de A. Tenemos los siguientes casos:


1. Si A tiene pivote en todas las columnas excepto la ultima entonces el sistema tiene solucin unica.

o
2. Si A tiene pivote en la ultima columna entonces el sistema tiene solucin vac

o
a.
3. Si A no tiene pivote en la ultima columna y hay al menos otra columna sin pivote entonces el sistema

tiene innitas solucines.


o
A las variables correspondientes a columnas sin pivote se les llamar variables libres y a las dems se les
a
a
llamar variables bsicas o no libres. La siguiente obervacin nos servir ms adelante.
a
a
o
a a
Observacin 0.1. Los rec
o
procos de las tres armaciones del teorema anterior tambin son ciertos, en la
e
Seccin 0.4 veremos que las operaciones elementales de la son reversibles lo cual permite aplicar operaciones
o
elementales de la a A hasta recuperar la matriz A lo que nos lleva de las soluciones al sistema original.
Corolario 0.3. Un sistema lineal con ms variables que ecuaciones (n > m) nunca tiene solucin unica.
a
o
Ejemplo 0.7. En este ejemplo se muestra las posibles soluciones para sistemas 2 2 segn sus matrices
u
escalonadas reducidas.
1. En el Ejemplo 0.2 se obtuvo que al sistema lineal

2x + y = 4

le corresponde la matriz de coecientes


3x + 4y = 1

1 0
3
2 1 4
. Por el Teorema 0.2 el sistema tiene so y que la matriz escalonada reducida es

0 1 2
3 4 1
lucin unica y esta dada por x = 3 y y = 2.
o

1
1
4
4
x+y = 3
1 3
y su matriz escalonada
2. Al sistema lineal 3
le corresponde la matriz de coecientes 3
1
1
1
1
x+y = 3
1 3
3
3

1 3 0
. Por el Teorema 0.2 el sistema tiene solucin vac
o
a.
reducida es
0 0 1


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

x + 3y = 3

3
y su matriz escalonada
6

1 3

le corresponde la matriz de coecientes


2 6
2x + 6y = 6

3 3
. Por el Teorema 0.2 el sistema tiene innitas soluciones.
0 0

3. Al sistema lineal

1
reducida es
0

Ejemplo 0.8. Determine si el sistema


de forma paramtrica.
e

x1 + x2 + x3 + x4 = 4

Solucin. La matriz de coecientes es


o

tiene soluciones y en el caso armativo escribalas

x3 x4 = 3
1 1

y su forma escalonada reducida est dada por A =


a

0 0 1 1 3

1 1 0
2 1
. Por el Teorema 0.2 el sistema tiene innitas soluciones las cuales se pueden dar en forma

0 0 1 1 3
paramtrica leyendo el sistema de ecuaciones de la matriz A , las cuales son x1 + x2 + 2x4 = 1 y x3 x4 = 3,
e

y escribiendo las variables bsicas en trminos de las variables libres obtenemos


a
e
x1 = 1 x2 2x4
x3 = 3

+ x4 .

De acuerdo a estas ecuaciones las variables x2 y x4 toman valores arbitrarios y por cada par de valores que se le
asignen a estas variables, se tiene una solucin particular, si a estas variables les asignamos valores paramtricos
o
e
x2 = t y x4 = u obtenemos todas las soluciones paramtricas al sistema:
e
x1 = 1 t 2u
x2 = t
x3 = 3 + u
x4 = u.
Ejemplo 0.9. El sistema
x + 2y + 3z = 1
2x 4y 6z = 1

tiene matriz asociada al sistema dada por

2x y 8z = 1
La forma escalonada reducida de esta matriz es la matriz

1 0 13
3

R = 0 1 2
3

0 0
0

A= 2

4 6
1 8

1 .

0 .

Como esta ultima matriz tiene un pivote en la ultima columna, entonces por el Teorema 0.2 el sistema no tiene

solucin.
o

10
Del Teorema 0.2 tambin se desprende el siguiente corolario, para el cual necesitamos la siguiente denicin.
e
o
Denicin 0.4. Un sistema lineal homogneo es un sistema lineal de la forma
o
e
a11 x1 + + a1n xn = 0
.
.
,
.
am1 x1 + + amn xn = 0
es decir, un sistema donde todos los trminos independientes son cero.
e
Corolario 0.4. Un sistema lineal homogneo siempre tiene solucin.
e
o
Terminamos la seccin con la denicin de rango de una matriz.
o
o
Denicin 0.5. Sea A una matriz y A su forma escalonada reducida. Denimos el rango de A, denotado por
o
rango(A), como el nmero de pivotes de A .
u
Ejemplo 0.10. Para las matrices del Ejemplo 0.3 se tiene que
rango(A) = 3, rango(B) = rango(C) = rango(D) = 2 y
rango(E) = rango(F ) = rango(G) = 1.

Problemas
Problema 0.1.1. Use el mtodo Gauss-Jordan para resolver los siguientes sistemas.
e

a.

x 2y + 3z = 7
2x + y z = 7

b.

2x + 4y 4z = 6
2x 5y + 4z = 6

2x y z = 7

d.

x + 2y + 3z + w = 7

4x + 5y + 6z = 2
7x + 8y + 9z = 4

e.

4x + 5y + 6z + 2w = 7
7x + 8y + 9z + 4w = 7

xy+z =4
2x + y + z = 3

x + 16y 14z = 3

x + 2y + 3z = 1

c.

x+yz =7

x + 2y + 3z + 4w = 1
f.

x + 2y + 3z + 3w = 2
x + 2y + 2z + 2w = 3
x+ y+ z+ w =1

Problema 0.1.2. Encuentre las soluciones paramtricas al sistema y uselas para calcular dos soluciones pare

ticulares:
x 2y + 3z + w = 3
y

=2
w=1


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

Problema 0.1.3. Demuestre que el sistema

2x y + 3z =
3x + y 5z =

11

es consistente si y slo si = 2 3.
o

5x 5y + 21z =
Problema 0.1.4. Para los sistemas cuyas matrices aumentadas estn dadas en los numerales a.-c. determine
a
los valores y para los cuales el sistema tenga
I. ninguna solucin
o
II. solucin unica
o
III. innitas soluciones y en este caso dar dos soluciones particulares.

1 0

0
1 0

a. 0 1

b. 0 1

0 0 2 + + 1
0 0 + 2
Problema 0.1.5. Muestre que el sistema

ax + by = 0
cx + dy = 0

c.

1 0

0 1

0 0

2
1

tiene solucin si y slo si ad bc = 0.


o
o

Problema 0.1.6. Haga una lista de todas las matrices 34 que esten en forma escalonada reducida.
Problema 0.1.7. Demuestre el Corolario 0.3 y el Corolario 0.4.
Problema 0.1.8. Muestre que si el nmero de ecuaciones en un sistema lineal homogneo es menor que el
u
e
nmero de sus incgnitas, entonces el sistema tiene una solucin no trivial.
u
o
o
Problema 0.1.9. Muestre que efectuar operaciones elementales en un sistema de ecuaciones produce un sistema
ecuaciones equivalente. Dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.
Problema 0.1.10. Usando el Problema 0.1.9, muestre que un sistema de ecuaciones es equivalente al sistema
de ecuaciones que se obtiene de la correspondiente matriz escalonada reducida.
Problema 0.1.11. Si A es una matriz de tamao m n, demuestre que el rango(A) m
n
n{m, n}.
Problema 0.1.12. Demuestre que el sistema homogeno
e

ax + by = 0

tiene innitas soluciones si y slo si


o

cx + dy = 0
ad bc = 0

0.2.

Operaciones con Matrices y Vectores

En esta seccin se expondrn las operaciones bsicas entre matrices y vectores y se mostrarn las propiedades
o
a
a
a
que estas operaciones satisfacen.
Denicin 0.6. Denimos vector columna (la) como una matriz con una sola columna (la).
o

12



Ejemplo 0.11. v = 2 es un vector columna y w = 0

1

Denicin 0.7. (Operaciones con matrices y vectores)


o

a11 a1n

.
.
..
. y
1. (Suma de matrices) Sean A = .
.
.
.

am1 amn
denimos la matriz A + B como la matriz dada por:

a11 + b11

.
A+B =
.

am1 + bm1
Similarmente, denimos la suma de los vectores x =
a1

Identicando vectores v =

.
.
.

b11

.
B = .
.
bm1

xn

a1n + b1n
.
.
.

amn + bmn

b1n

.
. matrices del mismo tamao,
n
.
bmn

..
.

..
.

.
x1 .
.

1 es un vector la.

y1
x 1 + y1

.
.

.
y y = . como el vector x + y =
.
.
.

yn
x n + yn

con el vector en Rn iniciando en el origen y terminando en el punto

an

(a1 , . . . , an ), obtenemos que la suma de vectores se rige por la Ley del paralolegramo, ver Figura 0.7. En la


a
1
a1

siguiente gura vemos la representacin geomtrica de los vectores v = en R2 y w = a2 en R3 .
o
e

a2
a3

a11 a1n

.
.
..
. una matriz de tamao m n y un
n
2. (Producto de una matriz por un escalar) Sea A = .
.
.
.

am1 amn
escalar (constante real arbitraria), denimos la matriz A como la matriz dada por

a11 a1n

.
.
..
. .
A = .
.
.
.
am1 amn

x1

.
Similarmente, denimos el producto de un vector x = . por un escalar R como el vector x =
.
xn

x1

.
. .
.

xn

Notacin 1. Denotaremos por Omn a la matriz de ceros de tamao m n, o simplemente por O si no hay
o
n
lugar a confusin y al vector cero lo denotaremos por n o simplemente si no hay lugar a confusin.
o
o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

13

El siguiente teorema establece las propiedades que satisfacen estas operaciones en matrices y vectores.
Teorema 0.5. Sean A, B y C matrices de tamaos m n, y escalares, entonces tenemos
n
1.

(A + B) + C = A + (B + C)

2.

A + Omn = Omn + A = A

3.

A + (1A) = 1A + A = O

4.

A+B =B+A

5.

(A + B) = A + B

6.

( + )A = A + A

7.

()A = (A)

8.

1A = A

De la Propiedad 3. de este teorema se observa que 1A es el inverso aditivo de A y este ser denotado por
a
A (el inverso aditivo de una matriz es unico, ver Problema 0.2.3 ). En este sentido la diferencia de dos matrices

A y B, A B, se dene como: A + (B).


El siguiente teorema establece las propiedades anlogas que se cumplen para vectores.
a
Teorema 0.6. Sean x, y y z vectores con n componentes, y escalares, entonces tenemos
1.

(x + y) + z = x + (y + z)

2.

x + n = n + x = x

3.

x + (1x) = 1x + x = n

4.

x+y =y+x

5.

(x + y) = x + y

6.

( + )x = x + x

7.

()x = (x)

8.

1x = x

A continuacin se da la denicin de producto interno de vectores y transpuesta de una matriz, lo cual


o
o
permitir denir el producto de matrices.
a


y1
x1


.
.
Denicin 0.8. Sean x = . y y = . vectores columna de n componentes, denimos el producto
o
.
.
yn
xn
interno o producto escalar de los vectores x y y, denotado por x y, por la frmula
o
n

x y = x 1 y1 + + x n yn =

x i yi .
i=1

a11 a1n

.
.
..
. una matriz de tamao m n, denimos la matriz transpuesta
n
Denicin 0.9. Sea A = .
o
.
.
.
am1 amn
t
de A, denotada por A , como la matriz cuyas columnas son las las de A, esto es:

a11 am1

.
.
..
. .
At = .
.
.
.

a1n amn

Si una matriz A satisface que A = At , decimos que A es simtrica.


e

Si una matriz A satisface que A = At , decimos que A es antisimtrica.


e

14

2 3 1

Ejemplo 0.12. Si A =

1 2

entonces At = 3 2.

1
1 1

Si B = 1
e
2 1 entonces B t = B y B es una matriz simtrica.

1 1
2

2 1
1

e
Si C = 1
2 1 entonces C = C t y C es una matriz antisimtrica.

1
1
2

Ahora pasemos a denir el producto de matrices.

a11 a1n

.
.
..
. una matriz de tamao m n y B =
n
Denicin 0.10. (Producto de matrices) Sea A = .
o
.
.
.

am1 amn

b11 b1q

.
.
..
. de tamao n q. Denimos el producto A B, usualmente denotado por AB, como la matriz
n
.
.
.
.

bn1 bnq

c11 c1q

.
.
..
. donde cij = n aik bkj = ai1 b1j + ai2 b2j + + ain bnj ,
de tamao m q dada por AB = .
n
.
.
k=1
.
cm1 cmq
para i = 1, . . . , m y j = 1, . . . , q.

Este producto coincide con el producto escalar Ai

Bj , donde Ai es la i-sima la de A y Bj es la j-sima


e
e

columna de B.

Ejemplo 0.13. El producto de la matrices A =

y B = 2

3
1

Mientras que el producto BA est dado por


a

AB =

D = 0

a
1 est dado por

3 .

1
0
4

El ejemplo anterior nos muestra que el producto de matrices no es en general conmutativo pero si satisface la
asociatividad.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

15

Teorema 0.7. Sean A, B y C matrices de tamaos m n, n p y p q, respectivamente. Entonces se tiene


n
que
A(BC) = (AB)C.
Una matriz con igual nmero de las y columnas, es de decir de tamao n n, se llama matriz cuadrada.
u
n
El producto de matrices cuadradas satisface otras propiedades importantes, entre ellas la existencia de una
matriz neutra bajo el producto, a la cual se le llama la matriz identidad y se denota por In . Esta matriz se

1 0

.
.
dene por In = . . . . . , es decir, la matriz identidad es la matriz cuyas entradas en la diagonal principal
.
.
0 1
son uno y ceros por fuera esta. Listamos a continuacin ms propiedades de las operaciones con matrices.
o
a
Teorema 0.8. Sean A y C matrices de tamaos m n y n q respectivamente, entonces se tiene lo siguiente:
n
1. Im A = A y AIn = A. En particular si A es una matriz cuadrada de tamao n n entonces AIn = In A = A.
n
2. Okm A = Okn y AOnk = Omk para cualquier k = 1, 2, 3, . En particular si A es una matriz cuadrada de
tamao n n entonces AOnn = Onn A = Onn .
n
3. (A + B)C = AC + BC, donde B es una matriz de tamao m n.
n
4. A(B + C) = AB + AC, donde B es una matriz de tamao n q.
n
A continuacin listamos tres propiedades, que aunque parecen no tener mucha importancia, sern muy utiles
o
a

en muchas demostraciones en el resto del libro.

A1

.
Lema 0.9. Sean A = . una matriz de tamao m n donde A1 , . . . , Am son las las de A, B =
n
.

Am

x1

.
n
B1 Bq de tamao n q donde B1 , . . . , Bq son las columnas de B y x = . un vector columna,
.
xq
entonces
1. Las columnas del producto AB son los vectores columna AB1 , . . . , ABq , es decir
AB = AB1

ABq .

A1 B

.
2. Las las del producto AB son los vectores la A1 B, . . . , Am B, esto es, AB = . .
.

Am B

3. El producto Bx es el vector x1 B1 + + xq Bq . Es decir, el vector Bx es una combinacion lineal de las


columnas de B con coecientes tomados de x.

16
El producto de matrices sirve para establecer otra conexin entre matrices y sistemas de ecuaciones lineales. Sea
o
a11 x1 + + a1n xn = b1
.
.
un sistema de ecuaciones lineales, entonces por denicin del producto de matrices
o
.
am1 x1 + + amn xn = bm


a11 a1n
x1


.
.
.
..
. , x = .
tenemos que este sistema es equivalente a la ecuacin matricial Ax = b donde A = .
o
.
.
.
.
am1 amn
xn

b1

.
y b = . . En lo que sigue del libro usaremos la ecuacin matricial Ax = b en lugar del sistema de ecuaciones.
o
.
bm
Terminamos la seccin con la denicin de matrices triangulares y matriz diagonal.
o
o

a11 a1n

.
.
..
. una matriz de tamao n n, decimos que
Denicin 0.11. Sea A = .
o
n
.
.
.
an1 ann
1. A es triangular superior si aij = 0 para i > j.
2. A es triangular inferior si aij = 0 para i < j.
3. A es diagonal si aij = 0 para i = j.

1 0
1 2 3

Ejemplo 0.14. Las matrices A = 0 3 1, B = 2 3

1 2
0 0 2
triangular superior, triangular inferior y diagonal.

1
0

0 y C = 0

0
2

0 0

3 0 son, respectivamente,

0 2

Problemas


2
3






Problema 0.2.1. Ejecutar las operaciones indicadas con los vectores v = 1, w = 1 y z = 5 .



0
2
3

a.

A+B

b.

b.

3v

AB

c.

3w

3v + 2d 3w.

1
2
2 2

Problema 0.2.2. Ejecutar las operaciones indicadas con las matrices A = 1 3 y B = 3


1 .

0
1
1
1
a.

v+w

c.

d.

3A

Problema 0.2.3. Demuestre que el inverso aditivo de una matriz es unico.

d.

3A + 2B.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

17

Problema 0.2.4. Sean A y B matrices de tamaos m n. Muestre que


n
(a) (A + B)t = At + B t .
(b) (AB t )t = BAt .
Problema 0.2.5. Si P = P t P muestre que P es una matriz proyeccin, es decir, P 2 = P .
o
Problema 0.2.6. Sean A y B matrices de tamaos m n y n p, demuestre que (AB)t = B t At .
n
Problema 0.2.7. Demuestre los Teoremas 0.5, 0.6 y 0.8.
Problema 0.2.8. Es muy posible que los estudiantes que esten tomando lgebra lineal por primera vez esten
a
acostumbrados a que al multiplicar dos cosas distintas de cero su resultado sea distinto de cero. En la multiplicacin de matrices esto puede no ocurrir. Al resolver este problema encontrarn ejemplos de esta situacin y de
o
a
o
otras situaciones a las que posiblemente no esten acostumbrados.

1
1 0
3
3
0 1
, D =
, C =
, B =
Sean A =
0
1 0
52 52
0 0

0
0

los siguientes productos:

, E =

0
0

y F = 0

1
0

1 0

0 1. Calcule

0 0

(a) AA, F F F y BC. Puede concluir algo ms general del producto BC?
a
(b) DD y EE.
Problema 0.2.9. Sean A, B Mn (R), demuestre lo siguiente
1. Si A y B son triangulares superiores, entonces AB es triangular superior.
2. Si A y B son triangulares inferiores, entonces AB es triangular inferior.
3. Si A y B son matrices diagonales, entonces AB es diagonal.
4. En todos los anteriores casos, si las entradas en las diagonales principales de A y de B son, respectivamente, a11 , . . . , ann y b11 , . . . , ann , entonces las entradas en la diagonal principal de AB son a11 b11 , . . . , ann bnn .
Problema 0.2.10. Sean A, B Mn (R) con B =

. .. .
. . .
.
.

diagonal, demuestre lo siguiente:

0 n

1. Si las columnas de A son C1 , . . . , Cn entonces las columnas de AB son 1 C1 , . . . , n Cn . Es decir, si


A = [ C1 Cn ] entonces AB = [ 1 C1 n Cn ].
F1

2. Si las las de A son F1 , . . . , Fn entonces las columnas de BA son 1 F1 , . . . , n Fn . Es decir, si A =

Fn

1 F1

entonces BA =

.
.
.

n Fn

.
.
.

18
Problema 0.2.11. Una matriz cuadrada se llama una matriz de probabilidad si cada componente es no-negativa
y la suma de los elementos de cada la es 1. Demuestre que si A y B son dos matrices de probabilidad tamaos
n
m n y n q, entonces AB es una matriz de probabilidad.
Problema 0.2.12. Si A y B son matrices simtricas demuestre lo siguiente
e
1. A + B es simtrica.
e
2. (AB)t = BA.
Problema 0.2.13. Si A es una matriz de tamao m n, demuestre que AAt y At A son matrices simtricas.
n
e
Problema 0.2.14. Sea A Mn (R), muestre que A + At es simtrica y A At es antisimtrica y A =
e
e
1
2 (A

+ At ) + 1 (A At )
2

Problema 0.2.15. Si A Mmn (R), demuestre que rangoA = 1 si y slo si existen vectores v Rm y w Rn
o
tal que A = vwt .

Problema 0.2.16. Sean v1 , v2 y v3 vectores en Rn y un escalar. Demuestre lo siguiente:


v1 = 0,

0.3.

v1 v2 = v2 v1 ,

v1 (v2 + v3 ) = v1 v2 + v1 v3 ,

(v1 ) v2 = v1 (v2 ) = (v1 v2 )

v1 v2 0.

Inversa de una Matriz

Las matrices invertibles juegan un papel fundamental en el lgebra lineal, en particular la posibibilidad de
a
tener la inversa de una matriz nos permitir resolver algunos sistemas de ecuaciones lineales de manera muy
a
simple. Se comienza esta seccin con la denicin de este concepto.
o
o
Denicin 0.12. Sea A una matriz cuadrada de tamao n n, decimos que A es invertible si existe una
o
n
matriz B de tamao n n tal que AB = BA = In .
n

2 1
es invertible ya que el producto
Ejemplo 0.15. La matriz A =
1 1


1
2 1
1

=
1
1 1
2

1
1


1 0
1
= I2 .
=
0 1
2

En general si A es una matriz con una la de ceros entonces A no es invertible. Esta armacin se deja como
o
ejercicio, Problema 0.3.5.

Ejemplo 0.16. No toda matriz tiene inversa, por ejemplo, si la matriz A =

entonces existir una matriz B =


a

1 1
0 0

tuviera una inversa,

tal que AB = BA = I2 . Sin embargo AB =

a+b

c+d


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

tendriamos que

a+b

c+d

invertible.

= I2 =

1 0
0 1

19

, por tanto 0=1 lo cual es una contradccin y A no puede ser


o

Las matrices inversas satisfacen las siguientes propiedades.


Lema 0.10. Sea A una matriz n n una matriz invertible, entonces la inversa es unica.

Notacin 2. Como la inversa de una matriz invertible es unica, entonces de ahora en adelante la denotaremos
o

por A1 .
Teorema 0.11. Sean A y B matrices de tamaos n n, entonces:
n
1. Si A y B son invertibles entonces AB es invertible y (AB)1 = B 1 A1 .
2. A es invertible si y slo si At es invertible y en este caso se tiene que (At )
o

= A1 .

Si Ax = b es un sistema de ecuaciones con A invertible, entonces el sistema tiene solucin unica y esta es fac
o
l
de calcular como se muestra a continuacin.
o
Teorema 0.12. Sea Ax = b un sistema de ecuaciones lineales de n ecuaciones con n incognitas. Si A es
invertible entonces el sistema tiene solucin unica y esta est dada por x = A1 b.
o
a
x y + 3z = 2

Ejemplo 0.17. Resuelva el sistema lineal x 2y + 2z = 1.


2x

+ 2z = 0

2
3

Solucin. El sistema es equivalente a la ecuacin Ax = b con A = 1 2 2 y b = 1 y de acuerdo al


o
o

0
2
0 2
1
teorema anterior la solucin a dada por x = A b. La inversa de la matriz A est dada por
o est
a

2/3

= 1/3

2/3

1/3

2/3

1/3

1 1

1
o
1/6 y la solucn es x = A b = 0 , es decir, x = 1, y = 0 y z = 1.

1
1/6
2/3

Problemas

Problema 0.3.1. Demuestre que una matriz A =


y bc = 1 a2 .

es su propia inversa si y slo si A = I o a = d


o

Problema 0.3.2. Encuentre cuatro matrices 22 que sean sus propias inversas.
Problema 0.3.3. Sea A una matriz m n y sea B una matriz n m con n < m, demuestre que AB no es
invertible. (Ayuda: Demuestre que existe x = 0 tal que ABx = 0.)

20
Sean A, B y C matrices de tamao n n.
n
Problema 0.3.4. Demuestre que si A = BC con A y B invertibles entonces C es invertible.
Problema 0.3.5. Demuestre que si una matriz A tiene una la o una columna de ceros, entonces A no es
invertible (Use el Lema 0.9.)
Problema 0.3.6. Demuestre el Teorema 0.12.
Problema 0.3.7. Demuestre que A1 es invertible y que (A1 )1 = A.
Problema 0.3.8. Si A es 4 3 y B es 3 4 muestre que AB = I. (Ayuda: Muestre que la ecuacin Bx = 0
o
tiene una solucin no trivial.)
o
Problema 0.3.9. Generalizando el problema anterior, si A es m n y B es n m y m > n entonces AB = I.
Problema 0.3.10. Una matriz A Mn (F) se llama ortogonal si At = A1 . Si A y B son ortogonales entonces
AB y A1 son ortogonales. (Esto demuestra que el conjunto de matrices ortogonales es un grupo.)

Problema 0.3.11. Si A es una matriz ortogonal entonces P = AAt es una matriz proyeccin, es decir, P 2 = P .
o
Problema 0.3.12. Muestre que si A es una matriz simtrica entonces A1 es simtrica.
e
e

0.4.

Matrices Elementales

En esta seccin introduciremos las matrices elementales las cuales estn asociadas a las operaciones elemeno
a
tales denidas en la Seccin 1invertible.
o
Denicin 0.13. Sea E una matriz de tamao n n, decimos que E es una matriz elemental si E se obtiene
o
n
de la identidad al aplicar una operacin elemental de la.
o
Ejemplo 0.18. Las siguientes matrices son matrices elementales:

1
0
1 2 0
0 1 0

B = 0 1 0 y C = 0 3
A = 1 0 0 ,

0
0
0 0 1
0 0 1

0 .

Cada una de estas matrices se obtiene al aplicar una operacin sobre la matriz identidad, como se muestra a
o
conitunacin:
o

0
0 1 0
F F

2
1

1 0 0 = A
1 0

0 1
0 0 1

1 2 0
0

2F + F F
1
1

2
0 1 0 = B
0

0 0 1
1

1 0

1 0

0 1

0 0


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

1 0

0 1

0 0

1
0

0
0
3F2 F2
0
1

21
0

3 0 = C

0 1

Notacin 3. Como hay tres tipos diferentes de operaciones elementales, hay un nmero igual de tipos de
o
u
matrices elementales entonces usaremos la siguiente notacin.
o
Eij denotar la matriz elemental que se obtiene al intercambiar las las i y j de la matriz identidad.
a
Eij (c) denotar la matriz que se obtiene al sumar c veces la la i a la la j de la matriz identidad.
a
Ei (c) la matriz que se obtiene al multiplicar por la constante c la la i de la matriz identidad.
Ejemplo 0.19. En el ejemplo anterior tenemos que A = E12 , B = E21 (2) y C = E2 (3).
Las operaciones elementales de la son reversibles, es decir, al aplicar una operacin elemental de la, siempre
o
se puede aplicar otra operacin elemental que deshaga la operacin aplicada. Esto se muestra en le siguiente
o
o
ejemplo.
Ejemplo 0.20. Para ilustrar la reversibilidad de las operaciones elementales consideremos la matriz A =

0 1 3

o
2 0 2, si intercambiamos las las 1 y 2 de esta matriz y aplicaramos nuevamente la misma operacin,

3 1 0
obtenemos la matriz orginal como se muestra a continuacin
o

1 3

F F
2
1
0
0 2

3
1 0

0 2

F F
2
1
2
1 3

3
1 0

1 3

0 2

1 0

En general, si se intercambian dos las de una matriz, la operacin se puede revertir al volver a intercambiarlas
o
una vez mas. Esto a la vez nos dice que la matriz elemental Eij , asociada a esta operacin de intercambio de
o
1
dos las, es invertible y es igual a su propia inversa, esto es Eij = Eij .

Volviendo a la matriz A, si multiplicamos la la 2 por 1/2 y despus multiplicamos la misma la por 2 obtenemos
e
la matriz original como se muestra a continuacin
o

1 3
0 1

0 2 2 F2 F2 1 0

1 0
3 1

3
0 1 3

2F2 F2 2 0 2
1

0
3 1 0

En general, si se multiplica una la de una matriz por una constante c = 0, la operacin se puede revertir al
o
1
volver a multiplicar la misma la de la nueva matriz por la constante . Esto a la vez nos dice que la matriz
c
elemental Ei (c), asociada a esta operacin de multiplicar la la i por una constante c = 0, es invertible y su
o
1
.
inversa est dada por Ei (c)1 = Ei
a
c

22
1
de la la 2 a la la 1 y
2
de la la 2 a la la 1 obtenemos la matriz original como se muestra a continuacin
o

1
0 1 3 2 F2 + F1 F1
1 1 4 1 F2 + F1 F1
0

2 0 2
2 0 2
2

3 1 0
3 1 0
3
Una vez mas regresamos a la matriz A, si le sumaramos

despus le sumaramos
e

1 3

1
2

0 2

1 0

En general, si se le suma c veces la la i de una matriz a la la j, la operacin se puede revertir al volver a sumar
o

c veces la la i a la la j. Esto una vez mas nos dice que la matriz elemental Eij (c), asociada a esta operacin
o

de sumar c veces la la i a la la j, tambin es invertible y su inversa est dada por Eij (c)1 = Eij (c) .
e
a
De acuerdo a lo observado en el ejemplo anterior tenemos el siguiente resultado.
Teorema 0.13. Toda matriz elemental es invertible y las inversas estan dadas por
1
Eij = Eij ,

Eij (c)1 = Eij (c)

Ei (c)1 = Ei

1
c

La importancia de las matrices elementales reside en el hecho de que estas matrices reemplazan las opercaciones elementales ya que aplicar una operacin elemental a una matriz A es equivalente a multiplicar la matriz
o
elemental correspondiente a la operacin por A. Esto lo expresamos en el siguiente teorema.
o
Teorema 0.14. Sea A una matriz de tamao m n y E una matriz elemental de tamao m m asociada a
n
n
una operacin elemental de la, el producto EA es la matriz que se obtiene al aplicar la operacin elemental de
o
o
la a la matriz A.
En el siguiente ejemplo vericamos que al aplicar una operacin elemental se obtiene la misma matriz que al
o
multiplicar la matriz asociada a la operacin elemental, considerarermos un caso por cada operacin elemental.
o
o

2 2
4

o
Ejemplo 0.21. Sea A = 0 1 1. Al aplicar la operacin que multiplica la primera la por 1/2 obtenemos

4 5
1

1 1
2
1/2 0 0

la matriz 0 1 1. La matriz elemental asociada a esta operacin es la matriz E1 ( 1 ) = 0


o
1 0y
2

4 5
1
0
0
1

1 1
2

1
es fcil vericar que E1 ( 2 )A = 0 1 1.
a

4 5
1

2 2
4

Si en la matriz A le sumamos -2 veces la la 1 a la la 3 obtenemos la matriz 0 1 1. La matriz

0 1 7

1 0 0

a
elemental asociada a esta operacin est dada por E13 (2) = 0 1 0, es fcil vericar que E13 (2)A =
o
a

2 0 1


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

2 2

0 1

0 1

23

1.

2 2

Finalmente, si en la matriz A intercambiamos las las 2 y 3 obtenemos la matriz 4 5

0 1

2
1 0 0

a
elemental asociada a esta operacin de la es E23 = 0 0 1 y es fcil ver que E23 A = 4
o

0
0 1 0

1 . La matriz

2
4

5
1 .

1 1

Al aplicar reduccin Gauss-Jordan a una matriz, por cada operacin elemental de la, hay una matriz
o
o

elemental, la matriz que se obtiene al aplicar la operacin de la a la matriz identidad. Como toda matriz se
o
puede reducir a una forma escalonada reducida, entonces se tiene el siguiente teorema.
Teorema 0.15. Toda matriz se puede expresar como el producto de un nmero nito de matrices elementales
u
por una matriz en forma escalonada reducida. Mas concretamente, si A es una matriz de tamao m n, existen
n
matrices elementales E1 , . . . , Ek todas de tamao m m y una matriz escalonada reducida A tal que
n

Ejemplo 0.22. Expresar la matriz A = 1

2
en forma escalonada reducida.

A = E1 Ek A .

1 0

1 2 como un producto de matrices elementales por una matriz

2 2

Solucin Necesitamos aplicar reduccin Gauss-Jordan a la matriz A indicando las matrices elementales asoo
o
ciadas a

cada operacin aplicada


o

1 0
1 1

1 2 F1 +F2 F2 0 0

2 2
2 2
E12 (1)

0
1

0
2

2 2F1 +F3 F3 0
E13 (2)

Por el Teorema 0.14 tenemos que E23 (2)E2


tiene que

1
2

1 0
1

0 2 1 F2 F2 0
2

0 2
0
1
E2 ( 2 )

1 0

1 1 0

0 0 1
0 1

0 2 2F2 +F3 F3 0 0 0
E23 (2)

1 1 0

E13 (2)E12 (1)A = A con A = 0 0 1. Entonces se

0 0 0

A = E12 (1)1 E13 (2)1 E2

1
2

E23 (2)1 A

= E12 (1)E13 (2)E2 (2)E23 (2)A .


Las matrices elementales tambin nos sirven para dar un criterio de invertibilidad de una matriz. Primero
e
debemos observar lo siguiente.

24
Lema 0.16. Sea A una matriz de tamao n n en forma escalonada reducida, entonces A es invertible si y
n
slo si A = I.
o
De esto se desprende el siguiente resultado.
Teorema 0.17. Sea A una matriz de tamao n n, entonces A es invertible si y slo si A se puede escribir
n
o
como un producto de matrices elementales.

Ejemplo 0.23. Expresar la matriz A = 1


1
1 y su inversa como un producto de matrices elementales.

1 2 2
Solucin Abajo se muestra la reduccin Gauss-Jordan de esta matriz indicando la matriz elemental asociada a
o
o
cada operacin aplicada de acuerdo a la Notacin 3
o
o

1 2
0

F2 +F3 F3 0
E23 (1)

F1 F2

E12

0 1

0
2

1 2 F1 +F3 F3 0

0 0

F3 +F1 F1

0
1 2

0 1
0

0 0

1 1

E13 (1)

1 2 2F3 +F2 F2 0

0 1
0

E31 (1)

1 0

0 1

E32 (2)

De aqu tenemos que E32 (2)E31 (1)E23 (1)E13 (1)E12 A = I, por tanto

A1 = E32 (2)E31 (1)E23 (1)E13 (1)E12

1
A = E12 E13 (1)1 E23 (1)1 E31 (1)1 E32 (2)1

= E12 E13 (1)E23 (1)E31 (1)E32 (2)


Una de las aplicaciones mas importantes de las matrices elementales es el algoritmo para calcular la inversa de
una matriz, el cual enunciamos a continuacin.
o
Teorema 0.18. (Algoritmo para calcular A1 ) Sea A una matriz invertible de tamao nn, al aplicar reduccin
n
o
Gauss-Jordan a la matriz aunmentada

obtenemos la matriz

A1

de tamao n q, al aplicar reduccin Gauss-Jordan a la matriz aumentada


n
o
I

A1 B

. Ms an, si B es una matriz


a u
A B

Ejemplo 0.24. Sean A = 1


1

1 2

1 2

1 y B = 2 3, calcular A1 y A1 B.

0 1
2

obtenemos la matriz


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
Solucin Si aplicamos reduccin Gauss-Jordan a la matriz
o
o

1 0

0 1

0 0

A I

obtenemos la matriz

0 1 2
1

25

Por tanto A1 = 1 2 2.

1
1
1

Para la segunda matriz aplicamos reduccin Gauss-Jordan a la matriz


o

1 0

0 1

0 0

A B

obteniendo

0 5 10

1
3
6

Por tanto A1 B = 5 10.

3
6
Observacin 0.2. Del Teorema 0.18 se sigue que al aplicar reduccin Gauss-Jordan a una matriz invertible A
o
o
se obtiene I, si se aplican las mismas operaciones elementales que se aplicaron a A para reducirla a I entonces
se obtiene el producto de las correspondientes matrices elementales, producto que a su vez es igual a A1 . Es
decir, si E1 , . . . , Ek son las matrices elementales asociadas a las operaciones elementales que se usaron para
reducir la matriz A, entonces al aplicar las mismas operaciones elementales y en el mismo orden sobre la matriz
I, el resultado nal es A1 .
Esto es cierto ya que aplicar una operacin elemental a una matriz es equivalente a multiplicar por la matriz
o
elemental asociada a la operacin a la izquierda, al comenzar con I obtenemos
o
E

2
1
k

I E1 I = E1 Ek E1 = A1

Observacin 0.3. Si en el teorema anterior las columnas de la matriz B son los vectores b1 , . . . , bq , entonces al
o
aplicar reduccin Gauss-Jordan a la matriz aumentada
o
A1 B = A1 b1

A b1

bq

obtenemos la matriz

A1 bq , obteniendo soluciones simultaneas a los sistemas Ax = b1 , . . . , Ax = bq .

Ejemplo 0.25. Usar la observacin anterior para resolver los sistemas


o
x2 + 2x3 = 2

x2 + 2x3 = 1
x1 + x2 + x3 = 2
x1 2x2 2x3 = 0

x1 + x2 + x3 = 3 .
x1 2x2 2x3 = 1

26
Solucin Estos sistemas son equivalentes a las ecuaciones matriciales
o

2
1
0
1
2

Ax = b1 y Ax = b2 donde A = 1
1
1 , b1 = 2 y b 1 = 3

1
0
1 2 2
y se pueden resolver simultaneamente calculando la forma escalonada reducida de la matriz aumentada

0
1
2 1 2

a
1
1
1 2 3 , la cual est dada por (ver ejemplo anterior)

1 2 2 0 1

1 0 0
4
7

a
0 1 0 5 10 y por tanto las respectivas soluciones a los sistemas estn dadas por

3
6
0 0 1



x1 = 5

3

A b1

x2 = 10 .

Terminamos la seccin con el siguiente teorema que ser util en el prximo cap
o
a
o
tulo, en este teorema se
explota el hecho de que las operaciones elementales son reversibles.
Teorema 0.19. Sea A una matriz de tamao m n y A su forma escalonada reducida. Entonces Ax = 0 si
n
y slo si A x = 0, es decir, x es una solucin al sistema homogneo Ax = 0 si y slo si x es una solucin al
o
o
e
o
o
sistema A x = 0.
Demostracin. Ejercicio.
o

Problemas
Problema 0.4.1. Determine si

A = 1

la matriz es invertible

2
1 1

B = 0
2 2

3
4 1

y en caso armativo calcule su inversa

2 0
4
0 4

C = 0 2 10
2 2

3 1
1
1 1

Problema 0.4.2. Escriba las matrices y sus inversas como producto de matrices elementales

2 0 4
1 1 1

B = 0 2 2
A = 1 2 2

3 1 1
4 4 1

b2


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

27

Problema 0.4.3. si A y B tienen la misma forma escalonada reducida entonces existen matrices elementales
E1 , . . . , Es tal que A = E1 Es B.
Problema 0.4.4. Escriba la matriz como un producto de matrices elementales por una matriz en forma esca

1 1 1 1 1 1

1 1 1 1 1 2

lonada reducida B =

1 1 1 1 2 3

1 1 1 2 3 4

Problema 0.4.5. Sea A Mn (F), si existe B Mn (F) tal que AB = In demuestre que
1. la ecuacin Ax = b tiene solucin para todo b Fn ,
o
o
2. rangoA = n,
3. la forma escalonada reducida de A es In ,
4. existe C invertible tal que CA = I,
5. C = B,
6. A es invertible.

Este ejercicio muestra que en la denicin de matriz invertible solo es necesario exigir que exista una matriz B
o
tal que AB = I.
Problema 0.4.6. Sea A Mn (F) con rango(A) = k, demuestre que existen matrices B y C invertibles tal que

Ik
0k(nk)
.
BAC =
0(nk)k 0(nk)(nk)
Ayuda: Use operaciones columna, demuestre que aplicar una operacin columna a la matriz A es equivalente a
o

multiplicar a A por una matriz elemental a la derecha, o use operaciones la en la matriz transpuesta.
Problema 0.4.7. Sean A, B Mn (F), demuestre que rango(A) = rango(B) si y slo si existen matrices
o
invertibles C y D tal que B = CAD.

0.5.

Determinantes

El determinante es una de las nociones con ms aplicaciones en matemticas, ste se usa para denir conceptos
a
a
e
geomtricos como volumen y orientacin, adems proporciona una caracterizacin de matrices invertibles la cual
e
o
a
o
veremos en el cap
tulo de formas multilineales. En esta seccin solo haremos mencin a la denicin y a algunos
o
o
o
conceptos bsicos, el tema lo estudiaremos en ms detalle en el cap
a
a
tulo de formas multilineales.

28
Denicin 0.14. Sea A una matriz de tamao m n, para 1 i m y 1 j n, denimos el ij-simo
o
n
e
menor de A, al cual denotaremos por Aij , como la matriz obtenida de A al eliminar su i-sima la y j-sima
e
e
columna.
Ahora denimos el determinante

a11 a1n

.
.
..
. una matriz de tamao n n. Denimos el
n
Denicin 0.15. (Determinante) Sea A = .
o
.
.
.
an1 ann
determinante de A, el cual denotaremos por det(A), recursivamente como sigue:

Si n = 2 entonces det(A) = a11 a22 a12 a21 .


Para n 3,
n

(1)1+i a1i det (C1i )

det(A) =
i=1

= a11 det (A11 ) a12 det (A12 ) + + (1)1+n a1n det (A1n ) .

Ejemplo 0.26. Sea A = 0

1 0

o
a
0 , de acuerdo a esta denicin el determinante de A est dado por:

1
1

(1)1+i a1i det (A1i )

det(A) =
i=1

= a11 det (A11 ) a12 det (A12 ) + a13 det (A13 )

0 1
0 0
1 0

+ 0 det
(1) det
= 2 det
1 1
1 1
1 1

= 2(1 1 0 1) + (0 1 0 1) + 0(0 1 1 1)
=2

Denicin 0.16. Sea A una matriz n n, el ij-simo cofactor de A, denotado por Cij , se dene como
o
e
Cij = (1)i+j det Aij ,
donde Aij es el ij-simo menor de A.
e
Observacin 0.4. Con esta denicin podemos re-escribir la frmula de del determinante como sigue:
o
o
o
n

det(A) =
i=1

a1i C1i = a11 C11 + + a1n C1n .

A esta frmula se le conoce como la expansin por cofactores de A a lo largo de la primera la.
o
o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

1 0

29

1 1, calcular C11 , C12 y C13 y calcular el determinante de A.

2 1

1 1
= 1 1 1 2 = 1
Solucin: C11 = (1)1+1 det A11 = (1)2 det
o
2 1

0 1
= 1 (0 1 1 (1)) = 1
C12 = (1)1+2 det A12 = (1)3 det
1 1

0 1
= 0 2 1 (1) = 1
C13 = (1)1+3 det A13 = (1)4 det
1 2
det(A) = a11 C11 + a12 C12 + a13 C13 = 1 (1) + 1 (1) + 0 1 = 0

Ejemplo 0.27. Sea A = 0

Los siguientes resultados se deducen facilmente de la denicin.


o

a11
0
0

0
a21 a22

Lema 0.20. Sea A = .


.
. una matriz triangular inferior, entonces
.
..
.
.
.
.
.
.

an1 an2 ann


det(A) = a11 a22 ann .
Es decir, el determinante de una matriz triangular inferior es el producto de las entradas en la diagonal.
Corolario 0.21. Sea In la matriz identidad de tamao n n, entonces det(I) = 1.
n
El siguiente teorema nos permite calcular el determinante usando cofactores por cualquier la o cualquier
columna, lo cual resulta ser extremadamente util.

a11 a1n

.
.
..
. entonces el determinante de A se puede calcular usando la expansin
Teorema 0.22. Sea A = .
o
.
.
.

an1 ann
por cofactores en cualquier la y cualquier columna, es decir, para 1 i, j n tenemos que:
n

det(A) = ai1 Ci1 + ai2 Ci2 + + ain Cin =


Expansin por cofactores en la la i
o

aik Cik

(3)

k=1
n

det(A) = a1j C1j + a2j C2j + + anj Cnj


Expansin por cofactores en la columna j
o

ahj Chj

=
h=1

Demostracin. Primero demostraremos la frmula (3) por induccin sobre n


o
o
o
Para n = 2 tenemos
Expansin en la segunda la = a21 a12 + a22 a11 = det(A).
o

(4)

30
Ahora supongamos que el teorema se cumple para cualquier matriz de tamao (n 1) (n 1) y probemos
n
que det(A) =expansin en la la i.
o
Por denicin tenemos que
o

(1)1+j a1j det(A1j )

det(A) =

(5)

j=1

Ahora, como la matriz Aij es de tamao (n 1) (n 1), entonces por la hiptesis de induccin tenemos que
n
o
o
su determinante se puede calcular por expansin en la la i, por tanto
o
det(A1j ) = (1)i+1 ai1 det(A1j )i1 + + (1)i+n ain det(A1j )in

(6)

(1)i+k aik det(A1j )ik

k=1

De las ecuaciones (5) y (6) tenemos que


n

det(A) =

(1)

1+j

j=1
n
n

(1)i+k aik det(A1j )ik

a1j

(7)

k=1

(1)1+j+i+k a1j aik det(A1j )ik


j=1 k=1

La idea es demostrar que la expansin por cofactores en la la i coincide con esta frmula.
o
o
Ntese que como Cik = (1)i+k det(Aik ), entonces tenemos que
o
n

(1)i+k aik det(Aik )

aik Cik =

Expansin por cofactores en la la i =


o

(8)

k=1

k=1

Ahora, por denicin de determinante tenemos que


o
n

(1)1+j a1j det(Aik )1j

det(Aik ) =

(9)

j=1

De las ecuaciones (8) y (9) tenemos


n

Expansin por cofactores en la la i =


o

(1)i+k aik

(1)1+j a1j det(Aik )1j


j=1

k=1
n
n

(1)i+k+1+j aik a1j det(Aik )1j

(10)

k=1 j=1

Finalmente ntese que (A1j )ik = (Aik )1j ya que ambas se obtienen al eliminar las las 1 e i y las columnas j y
o
k de A. Entonces las ecuaciones (7) y (10) son iguales, por tanto
det(A) = expansin por cofactores en la la i.
o
Similarmente se demuestra que det(A) coincide con la

Ejemplo 0.28. Calcular determinante de A = 2

0
la y segunda columna.

expansin por cofactores en cualquier columna.


o

0 1

o
0
1 usando expansin por cofactores en la tercera

1
0


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

31

Solucin: Usando expansin en la tercera la tenemos:


o
o
det(A) = (1)3+1 a31 det(A31 ) + (1)3+2 a32 det(A32 ) + (1)3+3 a33 det(A33 )

1 0
1 1
0 1

+ 0 det
1 det
= 0 det
2 0
2
1
0
1
= 1(1 + 2) = 1.

Ahora, usando expansin por cofactores en la segunda columna tenemos:


o
det(A) = (1)1+2 a12 det(A12 ) + (1)2+2 a22 det(A22 ) + (1)3+2 a32 det(A32 )

1 1
1 1
2 1

1 det
+ 0 det
= 0 det
2
1
0
0
0 0
= 1(1 + 2) = 1.

Haciendo uso del Teorema 0.22 podemos demostrar lo siguiente:


Corolario 0.23. Sea A una matriz de tamao n n,
n
1. si A tiene una la o una columna de ceros, entonces det(A) = 0.
2. det A = det At .
3. Si A es triangular superior entonces det A = al producto de las entradas de la diagonal.
El siguiente resultado proporciona varias caracterizaciones de matriz invertible.
Proposicin 0.24. (Caracterizacin de matrices invertibles) Sea A una matriz cuadrada de tamao n n,
o
o
n
entonces las siguientes armaciones son equivalentes:
1. A es invertible.
2. La funcin TA : Rn Rn denida por TA (x) = Ax es biyectiva.
o
3. El sistema Ax = n tiene solucin unica.
o
4. rango(A) = n
5. A es un producto de matrices elementales.
6. det(A) = 0.
7. At es invertible.
Demostracin. 1 2: Si A en invertible denimos la funcin S : Rn Rn denida por S(x) = A1 x, se
o
o
sigue facilmente que TA S = id = S TA y por tanto TA es biyectiva.

32
2 3: Si TA es biyectiva, existe S tal que TA S = id = S TA . Si Ax = 0 entonce TA (x) = Ax = 0, se sigue
que
x = id(x) = S TA (x) = S(0),
Ntese a dems que TA (0) = A0 = 0 y 0 = TA S(0) = TA (S(0)), se sigue que TA (0) = TA (S(0)) y como TA es
o
a
inyectiva tenemos que S(0) = 0. Concluimos que x = S(0) = 0.
3 4: Sabemos que A = P A donde P = E1 Es us un producto de matrices elementales y por tanto

invertible y A la forma escalonada reducida de A. Se sigue que Ax = 0 si y slo si A x = 0.


o

Si rango(A) < n, entonces A tiene las y columnas sin pivote, entonces la ecuacin A x = 0 tiene solucin
o
o
b = 0, entonces Ab = P A b = 0 y se sigue que b es una solucin no trivial a la ecuacin Ax = 0, lo cual contradice
o
o
la hiptesis ya que 0 es otra solucin a la ecuacin. Por tanto rangoA = n.
o
o
o
4 5: Sabemos que A = P A con P el producto de matrices elementales y A la forma escalonada reducida
de A. Si rangoA = n entonces A tiene pivotes en cada columna y por tanto A = In , se sigue que A = P =
producto de matrices elementales.
5 6: Si A = E1 Es con E1 , . . . , Es matrices elementales, como det Ei = 0 entonces det A = det E1 det Es =
0.
En el Cap
tulo 10 veremos que el determinante del producto es el producto de los determinantes y la
demostracin se har de manera independiente de lo hecho hasta ahora.
o
a
6 1: Sabemos que A = P A con P invertible y A en forma escalonada reducida. Si A tiene las de ceros
entonces det A = 0 y por tanto det A = det P det A = 0 lo que contradice la hiptesis, por tanto A no tiene
o

las de ceros y en consecuencia tiene un pivote en cada la, se sigue qua A = I y concluimos que A = P es
invertible.
1 7: Si A es invertible tenemos que I = I t = (A1 A)t = At (A1 )t y por tanto At es invertible.
Similarmente se demuestra 7 1.
La siguiente propiedad del determinante ser util en el Cap
a
tulo 3.

B C
con B Mp (F) y D Mnp (F) entonces
Teorema 0.25. Sea A Mn (F) una matriz tal que A =
0 D
det A = det B det D.

Demostracin. Por induccin sobre p.


o
o
a11 a12

0 a22
Si p = 1, tenemos que A = .
.
.
.
.
.

a22

a2n
.

.
. entonces B = a11 , D = .
..

.
.
.
an2
0 an2 ann
Aplicando cofactores a A a lo largo de la primera columna obtenemos que

a1n

..
.

a2n

.
. y det B = a11 .
.
ann

det A = a11 C11 + a21 C21 + + an1 Cn1 = a11 det A11 = det B det D.
=0

=0

=D


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

33

Supongamos ahora que el resultado es cierto para submatrices de tamao (p 1) (p 1) y que B =


n

a11 a1p

.
.
..
. . Aplicando nuevamente cofactores en la primera columna de A obtenemos que
.
.
.
.
ap1 app
det A = a11 C11 + + ap1 Cp1 + ap+1,1 Cp+1,1 + + an1 Cn1 = a11 det A11 + + (1)p+1 ap1 det Ap1
=0

=0

a22

.
.
.
= a11 det

ap2

..
.

a2p
.
.
.

app

a22

.
= a11 det .
.
induccin
o
ap2

..
.

B11

a12
.
.
.

..
.

C1

+ + (1)1+p ap1 det

ap1,2

D
0

a12
a2p

.
.
. det D + + (1)1+p ap1 det .
.
.
ap1,2
app

= (a11 det B11 + + (1)

p+1

a1p
.
.
.

Cp

ap1,p

..
.

a1p
.
.
.

ap1,p

=Bp1

det D

ap1 det Bp1 ) det D

frmula por cofactores para det B


o

= det B det D

Terminamos el cap
tulo con dos propiedades conocidas del determinante, cuya demostracin postergaremos
o
para el Cap
tulo 10 (Ver Teorema 10.9).
Teorema 10.9. Sean A, B Mn (F) entonces
1. det(AB) = det(A) det(B),
2. Si A es invertible entonces det(A1 ) =

1
.
det(A)

Problemas

a b 0 0 0
b a b 0 0
0 b a 0 0

Problema 0.5.1. Si Tn = det(An ) donde An es de la matriz tridiagonal: An = . . . . . . . entonces


. . . . . .
. .
. . .
2

Tn = aTn1 b Tn2

0 0 0 a b
0 0 0 b a

Si a = 2 y b = 1 demuestre que Tn = n + 1. En general demuestre que si a = 2b entonces Tn = (n + 1)bn


Si a = 1 y b = 1 muestre que Tn = Tn1 Tn2 . Muestre que Tn+6 = Tn para todo entero positivo n.
Determine T900 .

34

a b
b
a
0 b

Problema 0.5.2. Si Sn = det(An ) donde An es la matriz tridiagonal An = .


.
.

0
0

Sn = aSn1 + b2 Sn2

.
.
.

0
0

0
b
a

. ..
. .
.

0 0
0 0
0 0

.
.
.

. entonces
.
.

0
a b
0 b a

Si a = 1 y b = 1 demuestre que {Sn } es la sucesin de Fibonacci.


o
Problema 0.5.3. Si B es antisimtrica con n impar entonces det B = 0.
e
Problema 0.5.4. Si A es simtrica invertible entonces A1 es simtrica.
e
e
Problema 0.5.5. Una matriz se llama ortognal si A1 = At . Demuestre que si B es una matriz ortogonal
entonces det B = 1.
Problema 0.5.6. Demuestre que si P es una matriz proyeccin, es decir P 2 = P , entonces det P = 0 o
o
det P = 1.
Problema 0.5.7. Demuestre que si A, B Mn (F) con n impar y AB = BA entonces det A = 0 o det B = 0.
1
1

1
c1

Problema 0.5.8. Sea A = .


.
.
n1
c1

Problema 0.5.9. Si A =

c2

. ..
.
.
.
n1

c2

cn

. . Demuestre que det A =


.
.

cn1
n

i<j

(ci cj ).

Mn (F) con B Mp (F) y D Mnp (F) entonces det A = det B det D.

Cap
tulo 1

Espacios Vectoriales
1.1.

Denicin y Ejemplos
o

Comenzamos con la denicin de espacio vectorial.


o
Denicin 1.1. Sea V un conjunto no vacio con dos operaciones + : V V V y : F V V , donde
o
F = R o C, decimos que V es un espacio vectorial sobre F si para todo x, y y z V y para todo y F se
cumple lo siguiente:
1. (x + y) + z = x + (y + z),
2. existe 0 V tal que 0 + x = x + 0 = x, (Al elemento 0 se le llama el neutro de V )
3. existe w tal que x + w = w + x = , (A w se le llama el inverso aditivo de x)
4. x + y = y + x,
5. (x + y) = x + y,
6. ( + ) x = x + x,
7. ( x) = () x,
8. 1 x = x.

1
m

Ejemplo 1.1. 1. El conjunto F

.
.
.

1 , . . . , n F

n
1

.
.
.

.
.
.

.
.
.

n +n

x1

1 +1

es un espacio vectorial bajo las operaciones

.
.
.

.
.
.

xn

2. El conjunto de matrices m n es un espacio vectorial bajo las operaciones


11 1n

. .. .
.
. .
.
.

n1 nn

11 1n

. .. .
.
. .
.
.

n1 nn

11 +11 1n +1n

.
.
.

..

.
.
.

n1 +n1 nn +nn

11 1n

. .. .
.
. .
.
.

n1 nn

x11 x1n

.
.
.

..

.
.
.

. (1.1)

xn1 xnn

A este conjunto lo denotaremos por Mmn (R) cuando las entradas sean reales y por Mmn (C) cuando las
entradas sean complejas. En el caso en que m = n, usaremos la notacin Mn (R) o Mn (C).
o
35

36
3. Sea Pn = {a0 + a1 t + + an tn | a0 , . . . , an R} el conjunto de polinomios de grado a lo sumo n en la
indeterminada t, este conjunto es un espacio vectorial sobre R bajo las operaciones:
a0 + a1 t + + an tn + b0 + b1 t + + bn tn = (a0 + b0 ) + (a1 + b1 )t + + (an + bn )tn y
(a0 + a1 t + + an tn ) = a0 + a1 t + + an tn .
4. Si X es un conjunto, el conjunto de funciones de X en F, {f : X F | f es una funcin }, es un espacio
o
vectorial sobre F con las operaciones de suma y producto por escalar denidos por:
(f + g)(x) = f (x) + g(x)

(f )(x) = f (x).

5. Generalizando el ejemplo anterior, el conjunto de funciones de X en V , {f : X V | f es una funcin },


o
con X es un conjunto y V un espacio vectorial sobre F, es un espacio vectorial sobre F con las operaciones
de suma y producto por escalar denidos por:
(f + g)(x) = f (x) + g(x)

(f )(x) = f (x)

donde es el producto por escalar de la esctructura de espacio vectorial denida en V .


6. El conjunto de polinomios con entradas en F,
F[t] = {a0 + a1 t + + an tn | a0 , . . . , an F, n N {0}} ,
es un espacio vectorial con las mismas operaciones denidas en 3
7. Todo campo F es un espacio vectorial sobre si mismo.
8. El conjunto C de nmeros complejos es un espacio vectorial sobre R bajo la suma usual de complejos y el
u
producto por escalar real usual, es decir:
(a + bi) + (c + di) = a + c + (b + d)i

(a + bi) = a + bi,

donde a, b, c, d y son nmeros reales.


u
En general si E y F son campos con E F entonces F es un espacio vectorial sobre E.
Los detalles se dejan como ejercicio al lector.
Los espacios vectoriales satisfacen las siguientes propiedades que se desprenden de la denicin.
o
Teorema 1.1. Sea V un espacio vectorial, x V y F entonces
1. El neutro es unico, es decir, si y son neutros entonces = ,

2. el inverso aditivo de x es unico, es decir, si w y w son inversos aditivos de x entonces w = w , (dada la

unicidad del inverso aditivo de x, este ser denotado por x)


a


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
3. = ,

4. 0 x = ,

5. 1 x = x,
Demostracin.
o

37

6. Si x = entonces = 0 o x = .
1. = + = + = .

2. w = w + = w + (x + w ) = (w + x) + w = + w = w .
3. + = ( + ) = , sumand el inverso aditivo de a ambos lados tenemos: = ..
4. 0x = (0 + 0)x = 0x + 0x, sumando el inverso aditivo de 0x a ambos lados tenemos que = 0x.
5. 1x + x = 1x + 1x = (1 + 1)x = 0x = . como el inverso aditivo de x es unico, tenemos que 1x = x.

6. Supongamos que x = y que = 0. Multiplicando a ambos lados por

1
tenemos que x =

= .

Problemas

Problema 1.1.1. Demuestre que R+ = {x R | x > 0} es un espacio vectorial bajo las operaciones
x y = xy

x = x ,

para todo x, y R+ y todo R.


Problema 1.1.2. Generalizando el problema anterior, demuestre que el conjunto
n

(R+ ) = {(x1 , . . . , xn ) | x1 , . . . , xn R+ } es un espacio vectorial bajo las operaciones


(x1 , . . . , xn ) (y1 , . . . , yn ) = (x1 y1 , . . . , xn yn )

(x1 , . . . , xn ) = (x , . . . , x ).
1
n

Problema 1.1.3. Determine cuales de los siguientes conjuntos son espacios vectoriales con las operaciones
indicadas. Si no lo son, enuncie las propiedades que no cumplen.
1. El conjunto de matrices simtricas, {A Mn (R) | At = A}, bajo la suma y el producto por escalar usual de
e
matrices. (La suma y producto usual de matrices se dieron en la Ecuacin 1.1.)
o
2. El conjunto de matrices anti-simtricas, {A Mn (R) | At = A}, bajo la suma y el producto por escalar
e
usual de matrices.

x
3. El conjunto R+ R = x, y R, x > 0 bajo la suma y el producto por escalar usual de R2 . (La suma

y
n
y producto usual de vectores en R se dieron en el Ejemplo 1.1 .)

x
4. El conjunto (R \ R+ ) (R \ R+ ) = x, y R, x, y < 0 bajo la suma y el producto por escalar usual

y
de R2 .

38
5. El conjunto
R+ R+ R \ R+ R \ R+ = (x, y) R2 | x, y 0

x, y 0

bajo la suma y producto por escalar usuales de R2 .

6. El conjunto y x, y R, x > 0 bajo la suma y el producto por escalar usual de R3 .

xy

7. El conjunto {a + at2 + + at2n | a R} bajo las operaciones de suma y producto por escalar usual de
polinomios. (Ver Ejemplo 1.1
tem 3.)

a 1
a R bajo las operaciones usuales para matrices.
8. El conjunto

a a

9. El conjunto {a0 + a1 t + + an tn | a0 = 1} bajo las operaciones de suma y producto por escalar usual de
polinomios.

Problema 1.1.4. Demuestre que R R \ {0} es un espacio vectorial con las operaciones (a1 , a2 ) + (b1 , b2 ) =
(a1 + b1 , a2 b2 ) y (a, b) = (a, b ).

1 a

a R es un espacio vectorial bajo la suma


Problema 1.1.5. Demuestre que el conjunto V =
0 1

denida por A B = AB donde AB denota el producto usual de matrices y el producto por escalar denido por

1 a
1 a
.
=

0 1
0 1

Problema 1.1.6. Demuestre que un plano que pasa por el origen,

S = (x, y, z) R3 | x + y + z = 0,

, , R ,

es un espacio vectorial bajo la suma y producto por escalar usuales de R3 .


Problema 1.1.7. Generalizando el problema anterior, demuestre que un hiperplano que pasa por el origen,
S = {(x1 , . . . , xn ) Rn | 1 x1 + + n xn = 0,

1 , . . . , n R} ,

es un espacio vectorial bajo la suma y producto por escalar usuales de Rn .


Problema 1.1.8. Generalizando an ms el Problema 1.1.6, demuestre que el conjunto de soluciones a un
u
a
sistema homogneo,
e

S = (x1 , . . . , xn ) Rn

11 x1 + + 1n xn = 0
.
.
,
.
n1 x1 + + nn xn = 0

ij R, para i, j = 1, . . . , n.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

39

es un espacio vectorial bajo la suma y producto por escalar usuales de Rn .


Ayuda: Recuerde que las soluciones al sistema de ecuaciones son las soluciones a la ecuacin matricial
o

11 1n
x1

.
.
.
..
. y x = . .
Ax = 0 con A = .
.
.
.
.
n1 nn
xn

Problema 1.1.9. Demuestre que los conjuntos dados en los numerales 4. y 5. del Ejemplo 1.1 son espacios
vectoriales con las operaciones indicadas.
Problema 1.1.10. Sea V un espacio vectorial y sean x, y V , para cada una de las siguientes ecuaciones,
demuestre que existe un unico z V que la satisface

1.

1.2.

x + z = y.

2.

x z = y.

3.

z = x.

4.

x + z = y.

Subespacios

En esta seccin se dar un criterio para determinar cuando un subconjunto de un espacio vectorial es tambin
o
a
e
un espacio vectorial (bajo las mismas operaciones), al cual se le conoce como subespacio vectorial o simplemente
subespacio. Tambin se mostrarn los teoremas bsicos acerca de subespacios los cuales nos permitirn construir
e
a
a
a
subespacios a partir de otros.
Denicin 1.2. Sea V un espacio vectorial y = W V , decimos que W es un subespacio de V si W es
o
tambin un espacio vectorial bajo las mismas operaciones de suma y producto por escalar de V .
e
Ejemplo 1.2.

1. En el Ejemplo 1.1 vimos que Pn es un espacio vectorial para to n, como Pn1 Pn y

ambos son espacios vectoriales, tenemos que Pn1 es un subespacio de Pn .


2. Tambin tenemos que Pn es un subespacio de F[t] para todo n, al ser un espacio vectorial y subconjunto
e
de R[t].
3. El conjunto de nmeros reales R es un espacio vectorial, el conjunto de nmeros complejos C tambin es
u
u
e
un espacio vectorial, como R C tenemos que R es un subespacio de C.
En teor para demostrar que un subconjunto no vacio de un espacio vectorial V es un subespacio, es necesario
a
determinar si cumple las ocho condiciones de la denicin de espacio vectorial, Denicin 1.1, sin embargo, el
o
o
siguiente teorema nos da un criterio en el que se demuestra que solo es necesario mostrar que este es cerrado
bajo la suma y el producto por escalar.
Teorema 1.2. Sea V un espacio vectorial y = W V , entonces W es un subespacio de V si para todo

w, w W y para todo R se satisface que


1. w + w W ,

40
2. w W .
Demostracin. Debemos demostrar W cumple las ocho condiciones de espacio vectorial.
o
1. La asociatividad se cumple para todo v, v y v V , entoncs en particular si estos estn en W .
a
2. Como W = , existe w W , entonces por hipteses w = (1)w W y por tanto 0 = w + w W .
o
3. Si w W entonces por la hiptesis 2. tenemos que w = (1)w W .
o
4-8. Estas propiedades se cumplen para todo w, w V , en particular si w, w W .
Por tanto W es un espacio vectorial y como W V , tenemos que W es un subespacio de V .
x1

.
.
.

Ejemplo 1.3. Sea H =

Fm , demuestre que H es un subespacio de Fm .

xn = 0

xn

Solucin. Primerontese que H ya que n H, veamos que H satisface las condiciones 1. y 2. del
o
o
=
y1
x1
.
.
Teorema 1.2. Sean . , . H y F, entonces xn = 0 = yn por tanto
.
.
yn1
yn

xn1
xn

x1

y1

x1

y1

.
.
.
.
. + . = . + . =
.
.
.
.
xn1
xn

yn1
yn

xn1
0

yn1
0

x1 +y1

.
.
.

xn1 +yn1
0

x1

x1

.
.
H y . = . =
.
.
xn1
xn

xn1
0

x1

.
.
.

xn1
0

H.

El Teorema 1.2 no solo facilita la vericacin de si un subconjunto es un subespacio, tambin facilita las
o
e
demostraciones de los siguientes teoremas.
Teorema 1.3. Sea V un espacio vectorial y sean W1 y W2 subespacios de V entonces W1 W2 es un subespacio
de V .
Demostracin. Como W1 y W2 son subespacios, entonces 0 W1 y 0 W2 , se sigue que 0 W1 W2 y por
o
tanto W1 W2 = . Ahora mostremos las condiciones 1. y 2. del Teorema 1.2.
Sean w, w W1 W2 , entonces w, w W1 y w, w W2 , luego w + w W1 y w + w W2 , por tanto

w + w W1 W2 .

Sea R, como W1 y W2 son subespacios tenemos que w W1 y w W2 , por tanto w W1 W2 .


Concluimos que W1 W2 es un subespacio de V .
Teorema 1.4. Sea V un espacio vectorial y sean W1 y W2 subespacios de V y denamos
W1 + W2 = {w1 + w2 | w1 W1 y w2 W2 }
entonces W1 + W2 es un subespacio de V .
Demostracin. Esta se deja como ejercicio.
o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

41

Denicin 1.3. Sea V un espacio vectorial sobre un campo F y sean v1 , v2 , . . . , vn V denimos el subespacio
o
generado por los vectores v1 , v2 . . . , v y denotado por gen{v1 , . . . , vn }, como el conjunto
gen{v1 , . . . , vn } = {1 v1 + + n vn | 1 , . . . , n F}.
A los elementos de la forma 1 v1 + + n vn se le llaman combinaciones lineales de los vectores v1 , . . . , vn .
Se deja como ejercicio al lector vericar que el subespacio generado por un conjunto de vectores de un espacio
vectorial V es un subespacio de V .

Problemas

a
Problema 1.2.1. Sea V = M2 (R), demuestre que H1 =
0
son subespacios de V y describa el conjunto H1 H2 .

a, b, c R y H2 =
b

c
b

a, b R

a
b

Problema 1.2.2. Demuestre el Teorema 1.4


x1

.
n
. 1 x1 + + n xn = 0, 1 , . . . , n R
Problema 1.2.3. Demuestre que un hiperplano H de R , H = .

n
n
es un subespacio de R .
Problema 1.2.4. Sea A una matriz mn, demuestre que el conjunto H = {x Rn | Ax = 0} es un subespacio

de Rn . (Este ejercicio es una generalizacin del ejercicio anterior, ntese que en el ejercicio anterior la matriz
o
o
A es la matriz A = [1

n ]. )

Problema 1.2.5. La traza de una matriz A = (aij ) Mn (R) se dene como tr(A) = a11 + +ann . Demuestre
que el conjunto de matrices de traza cero es un subespacio de Mn (R), a este subespacio se le denota por sln (R)
o sl(n, R).
Problema 1.2.6. Sean A, B Mn (R) y , R, demuestre que
1. tr(A + B) = tr(A) + tr(B),
2. tr(AB) = tr(BA)
3. tr(At ) = tr(A).
Problema 1.2.7. De ejemplos de subconjuntos de R2 que cumplan lo siguiente:
1. que sea cerrado bajo el producto por escalar pero no que sea cerrado bajo la suma,
2. que sea cerrado bajo la suma pero que no sea cerrado bajo el producto por escalar.

42
Problema 1.2.8. Demuestre que el conjunto solucin de el sistema homogneo
o
e
a11 x1 + + a1n xn = 0
.
.
.

am1 x1 + + amn xn = 0
n
es un subespacio de R.

x1
a11 a1n

.
.

..
. la matriz del sistema, demuestre que x = . es una solucin al
o
Ayuda: Sea A = .
.
.
.
.
.

xn
am1 amn
sistema si y slo si Ax = 0 y use el Ejercicio 1.2.4.
o

Problema 1.2.9.

1. Construya un contraejemplo que muestre que la unin de subespacios no es un


o

subespacio.
2. Sea V un espacio vectorial y W1 y W2 subespacios de V , demuestre que W1 W2 es un subespacio si y
slo si W1 W2 o W2 W1 .
o
Problema 1.2.10. Sea V un espacio vectorial y sean W1 y W2 subespacios de V , demuestre que W1 + W2 es
el subespacio ms pequeo que contiene a W1 y a W2 .
a
n
Problema 1.2.11. Demuestre que el conjunto de matrices simtricas,
e
Sn (F) = {A Mn (F) | A es simtrica },
e
es un subespacio de Mn (F).
Problema 1.2.12. Demuestre que el conjunto de matrices antisimtricas,
e
An (F) = {A Mn (R) | A es antisimtrica },
e
es un subespacio de Mn (R).
Problema 1.2.13. Una funcin se llama par si f (x) = f (x), para todo x. Demuestre que el conjunto de
o
funciones pares es un subespacio vectorial de F(R, R).
Demuestre tambin que el subconjuto formado por las funciones impares, funciones tal que f (x) = f (x),
e
para todo x, tambin es un subespacio de F(R, R).
e
Problema 1.2.14. Sea F = F([0, 1], R), el conjunto de funciones del intervalo [0, 1] en R, demuestre que los
siguientes subconjuntos son subespacios de F:
1. el conjunto C([0, 1], R) de funciones continuas del intervalo [0, 1] en R,
1

2. el conjunto

f F

f (x)dx = 0 .
0


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

43

Problema 1.2.15. Sea V un espacio vectorial y sean H1 y H2 subespacios, demuestre que H1 H2 es el


subespacio ms grande contenido en H1 y H2 .
a
Problema 1.2.16. Sea V = {f : R R | f es una funcin } el espacio de funciones de R en R. Determine
o
si los siguientes conjuntos son subespacios de V .
1.

H1 =

f V

l f (x) = + .
m

x0

2.

H2 =

f V

l
m f (x) = 0 .

Problema 1.2.17. Sean H, K y L subespacios de un espacio vectorial V . Haga lo siguiente


1. Muestre que (H K) + (H L) H (K + L).
2. Exhiba un contraejemplo que muestre que la igualdad H (K + L) = (H K) + (H L) no es cierta.
3. Muestre que si K H entonces H (K + L) = K + (H L).
4. Muestre que H + (K L) (H + K) (H + L).
5. Exhiba un contraejemplo que muestre que la igualdad H + (K L) = (H + K) (H + L) no es cierta.
Problema 1.2.18. Si A V es un subconjunto de un espacio vectorial V , denimos L(A) como el conjunto
L(A)=interseccin de subespacios que contienen a A, muestre lo siguiente:
o
1. L(A) es el subespacio ms pequeo de V que contiene a A.
a
n
2. L({x}) = {ax : a R}.
3. H es un subespacio de V si y slo si L(H) = H.
o
4. Si A B entonces L(A) L(B).
5. Si H1 y H2 son subespacios entonces L(H1 H2 ) = H1 + H2
n

6. L(A) =
i=0

i ai n Z0 , i F, ai A para i = 1 . . . , n .

Problema 1.2.19. Muestre que {p R4 [t] |

1.3.

1
0

p(x)dx = 0} es un subespacio .

Independencia Lineal

En esta seccin se estudiar el concepto de independencia lineal el cual nos permitir determinar cuando un
o
a
a
vector en un conjunto dado de vectores se puede expresar en trminos de los dems.
e
a
Denicin 1.4. Sea V un espacio vectorial y sean v1 , . . . , vk V , decimos que el conjunto {v1 , . . . , vk } es
o
linealmente independiente (abreviadamente LI) si 1 v1 + +k vk = 0 implica que 1 = 2 = = k = 0.
Si el conjunto {v1 , . . . , vk } no es linealmente independiente, decimos que es linealmente dependiente (abreviadamente LD).

44
Observacin 1.1. De la denicin anterior se deprende que si el conjunto {v1 , . . . , vk } es linealmente depeno
o
diente si y slo si existen constantes 1 , . . . , k , no todas cero, talque
o
1 v1 + + k vk = 0.

(1.2)

Lo que es equivalente a decir que alguno de los vi se puede escribir como una combinacin lineal de los demas,
o
esto ya que al menos uno de los i = 0, por tanto despejando por vi en (1.2) tenemos
vi =

1
i1
i+1
k
v1
vi1
vi+1
vk .
i
i
i
i

Es decir, un conjunto es linealmente dependiente si y slo si uno de los vectores es una combinacin lineal de
o
o
los dems.
a
De esta ultima armacin obtenemos una interpretacin geomtrica que podemos usar para conjuntos pe
o
o
e
queos de vectores la cual exhibimos a continuacin.
n
o
El conjunto de vectores {v, w} es LD si y slo si w = v, es decir, el conjunto {v, w} es LD si y slo si w es
o
o

un mltiplo de v. La siguiente gura nos muestra las posibilidades y aunque se usando una grca en R2 , vale
u
a
la pena aclarar que la misma situacin se cumple para un par de vectores en cualquier dimensin.
o
o

w
w
v

Vectores LD

Vectores LI

Un conjunto formado por tres vectores {v, w, z} es LD si y slo si uno de ellos es combinacin lineal de los
o
o
otros. Esta ultima propiedad nos lleva a dos casos:

Caso 1: Dos vectores, digamos w y z, son ambos mltiplos de v. En este caso los tres vectores estn contenidos
u
a
en una l
nea.
Caso 2: Un vector, digamos z, es combinacin lineal de v y w, pero v no es mltiplo de w. En este caso
o
u
tenemos que z es de la forma z = v + w y como la suma de dos vectores se rige por la ley del paralelogramo,
esta ultima ecuacin implica que z est contenido en el mismo plano que contiene a v y w.

o
a
Concluimos que tres vectores son LD si y slo si estos estn contenidos en una l
o
a
nea o en un plano.
En consecuencia tenemos que tres vectores en R2 son necesariamente LD. La siguiente gura nos muestra
los posibles casos geomtricos de tres vectores
e


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

45

w
v

w
Vectores LD

Vectores LI

Vectores LD

Del Teorema 1.7 se deduce facilmente que cuatro vectores en R3 son LD, por tanto, para exhibir geomtricae
mente cuatro vectores LI se necesitan al menos 4 dimensiones y por este motivo no podemos exhibir ms guras
a
como las dos anteriores en las que se consideren cuatro o ms vectores.
a
Ejemplo 1.4. 1. El conjunto

v1 =

3v1 2v2 v3 = 0.
2. El conjunto de vectores

v1 =

1
1
0

1
1
2

, v2 =

, v2 =
0
1
1

2
3
0

, v3 =
1
0
1

, v3 =

1
9
6

es LD ya que v3 = 3v1 2v2 de donde

es LI ya que si existieran constantes 1 , 2 , 3 tal

que 1 v1 + 2 v2 + 3 v3 = 0 entonces tendr


amos que
0
0
0

= 1 v 1 + 2 v 2 + 3 v 3 = 1
=

Se sigue que

1 +3 =0
1 +2 =0 ,
2 +3 =0

1
1
0

0
2
2

3
0
3

1
1 +
0
1 +3
1 +2
2 +3

0
1
1

+ 3

1
0
1

lo cual es equivalente a la ecuacin matricial


o
1
2
3

1 0 1
1 1 0
0 1 1

Al aplicar reduccin Gauss-Jordan a la matriz


o

1 0 1
1 1 0
0 1 1

0
0
0

(1.3)

obtenemos la matriz identidad, lo que muestra que la

unica solucin al sistema (1.3) es la trivial, 1 = 0, 2 = 0 y 3 = 0. Por tanto el conjunto {v1 , v2 , v3 } es LI.

Problemas

Problema 1.3.1. Sean v1 , . . . , vk vectores en Fn y sea A = [ v1 . . . vk ] la matriz cuyas columnas son los
vectores v1 , . . . , vk , demuestre que {v1 , . . . , vk } es LI si y slo si A x = 0 tiene solucin unica x = 0 donde A
o
o
es la forma escalonada reducida de A.
Problema 1.3.2. Determine cuales de los siguientes conjuntos son linealmente independientes, si no lo son,
encuentre una dependencia lineal entre los vectores:
a.

1
1
2 , 1
1
3

b.

1
1
1
2 , 1 , 1
3
1
3

c.

1
1
1
1
2 , 1 ,
3
1
3

d.

1
1
1
2 , 1 , 1
3
1
3
4
1
1

46
Problema 1.3.3. Encuentre el valor de a para los que los vectores son linealmente independientes.
2
2
2

1
2
3

1
1
a

Problema 1.3.4. Determine la relacin entre y para que los vectores v1 = (1, 0, 0), v2 = (0, 1, 0) y
o
v3 = (, , + ) sean LD y exhiba una dependencia lineal entre los vectores.
Problema 1.3.5. Encuentre vectores v1 , v2 y v3 de tal forma que v1 , v2 sean LI y v2 , v3 sean tambin LI pero
e
que v1 , v2 , v3 sean LD.
Problema 1.3.6. Sea V un espacio vectorial y sean v1 , v2 V , demuestre que {v1 , v2 } es linealmente dependiente si y slo si v2 = cv1 con c R, es decir, si v2 es un mltiplo de v1 .
o
u
Problema 1.3.7. Sean v, w R3 con v = 0, demuestre que
1. si v, w son LD entonces {v, w} es una l
nea que pasa por el origen,
2. si v, w son LI entonces {v, w} es un plano que pasa por el origen,
Problema 1.3.8. Sea V un espacio vectorial, sean v1 , v2 , v3 V y sean w1 = v1 v2 , w2 = v2 v3 y w3 = v3 .
Demuestre que {v1 , v2 , v3 } es linealmente independiente si y slo si {w1 , w2 , w3 } es linealmente independiente.
o
Problema 1.3.9. Sea V un espacio vectorial, sean v1 , v2 , v3 V y sean w1 = v1 v2 , w2 = v2 v3 y
w3 = v3 v1 . Demuestre que {w1 , w2 , w3 } es linealmente dependiente.
Problema 1.3.10. Demuestre que si el conjunto {v1 , . . . , vn } es LI y k < n entonces el conjunto {v1 , . . . , vk }
tambin es LI.
e
Problema 1.3.11. Demuestre que si el conjunto {v1 , . . . , vn } es LD y vn+1 es otro vector entonces el conjunto
{v1 , . . . , vn , vn+1 } tambin es LD.
e
Problema 1.3.12. Sean v, w R3 vectores LI, demuestre que gen{v} + gen{w} es el plano que contiene a los
vectores v y w.
Problema 1.3.13. Sean v, w R3 vectores LD, demuestre que gen{v} + gen{w} es la l
nea que contiene al
vector v.
Problema 1.3.14. Demuestre que el conjunto {sen(x), sen(2x), cos(x), cos(2x)} es LI.

1.4.

Bases y Dimensin
o

En esta seccin estudiaremos el concepto de base, el objetivo principal es mostrar que todo espacio vectorial
o
tiene una base, haremos una demostracin para el caso nito y mostraremos que, en este caso, el nmero de
o
u
vectores en una base es invariante. Comenzamos con la denicin de base para un espacio vectorial.
o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

47

Denicin 1.5. Sea V un espacio vectorial sobre una campo F y sean v1 , . . . , vn V , decimos que el conjunto
o
{v1 , . . . , vn } es una base (nita) para V si
1. los vectores v1 , . . . , vn son linealmente independientes,
2. V = gen{v1 , . . . , vn }, es decir, los vectores v1 , . . . , vn generan a V .
Observacin 1.2. No todo espacio vectorial tiene una base nita, en los ejemplos mostraremos algunos espacios
o
que no poseen una base nita.
Ejemplo 1.5.

1. Sea n > 0 un entero jo y para i = 1, . . . , n, sea ei el vector de Fn cuya i-sima entrada


e

es un 1 y las dems entradas nulas, es decir, ei = (0, . . . , 1, . . . , 0).


a
Es fcil ver que el conjunto {e1 , . . . , en } es una base para Fn . A esta base se le llama la base estndar de
a
a

Fn .

2. El conjunto {1, t, t2 } es una base para el espacio de polinomios de grado a lo sumo 2, P2 , ya que por
denicin tenemos que
o
P2 = {a0 + a1 t + a2 t2 | a0 , a1 , a2 F } = gen{1, t, t2 }
y adems es fcil ver que el conjunto {1, t, t2 } es LI.
a
a
3. En general el conjunto {1, t, . . . , tn } es una base para Pn .




1 0
0
0 0
0 1
,
,
,
4. Una base para M22 (F) est dada por
a
0 0
0
1 0
0 0

0
.
1

5. En general una base para el espacio Mmn (F) est dada por el conjunto {Eij | i = 1, dots, n, j = 1, . . . , m},
a
donde Eij es la matriz m n con un 1 en la posicin ij y cero en las demas posiciones.
o

Ejemplo 1.6. En este ejemplo mostraremos espacios que no poseen base nita.
1. El conjunto R[t] no tiene una base nita, ya que tiene subconjuntos LI de cardinalidad arbitraria. Por ejemplo
el conjunto {1, t, t2 , . . . , tn } es LI para todo n. Adems ningn subconjunto nito de R[t] lo genera concluimos
a
u
que no puede tener una base nita.
Un polinomio p(t) = a0 + a1 t + a2 t2 + + an tn F[t] se puede ver como una funcin de X en R con X R,
o
esto a travs de la evaluacin que a cada x X le asigna el valor que se obtiene al evaluar el polinomio en
e
o
x, es decir, al polinomio lo podemos ver como la funcin:
o
p:

x
donde p(x) = a0 + a1 x + a2 x2 + + an xn R.

p(x)

48
2. El conjunto de funciones {f : X R} con X R no posee una base nita, por el comentario anterior ste
e
conjunto contiene al conjunto de polinomios R[t] y por tanto contiene conjuntos LI de cardinal arbitrario de
los cuales ninguno lo genera.
Cuando un conjunto tiene una base nita, el nmero de vectores en una base es invariante, esto lo mostramos
u
a continuacin.
o
Teorema 1.5. Sea V un espacio vectorial sobre F y sean {v1 , . . . , vk } y {w1 , . . . , wl } subconjuntos de V , si
{v1 , . . . , vk } y {w1 , . . . , wl } son bases para V , entonces k = l. Es decir, todas las bases de V tienen exactamente
el mismo nmero de vectores.
u
Demostracin. Primero supongamos que l > k, como los vectores v1 , . . . , vk forman una base para V , entonces
o
por denicin de base tenemos que V = gen{v1 , . . . , vk } y por tanto para i = 1, . . . , l existen constantes
o
1i , . . . , ki tal que
wi = 1i v1 + + ki vk .
Uniendo estas ecuaciones para i = 1, . . . , l obtenemos:
w1 = 11 v1 + + k1 vk
w2 = 12 v1 + + k2 vk
.
.
.
.

(1.4)

wl = 1l v1 + + kl vk
Consideremos el sistema homogneo de ecuaciones lineales
e
11 x1 + + 1l xl = 0
.
.
.
k1 x1 + + kl xl = 0
Como l > k, este sistema tiene mas variables que ecuaciones y por tanto tiene al menos una solucin no trivial,
o
es decir, exiten constantes no todas nulas 1 , . . . , l tal que
11 1 + + 1l l = 0
.
.
.
k1 1 + + kl l = 0
Entonces tenemos lo siguiente
1 w1 + + l wl = 1 (1l v1 + + kl vk ) + + l (1l v1 + + kl vk )
= (1 11 + + l 1l ) v1 + + (1 k1 + + l kl ) vk = 0
=0

=0

De esto se sigue que el conjunto {w1 , . . . , wl } es LD, lo cual contradice la hiptesis de que este conjunto es una
o
base. Por tanto no se puede dar que l > k
Un razonamiento similar muestra la hiptesis l < k tampoco es posible y por tanto k = l.
o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

49

Denicin 1.6. Sea V un espacio vectorial con una base nita, denimos la dimensin de V , denotado por
o
o
dim V , como el nmero de elementos en la base. Si el espacio no admite una base nita decimos que es de
u
dimensin innita.
o
Ejemplo 1.7. Del Ejemplo 1.5 obtenemos lo siguiente
1. dim Fn = n

2. dim P2 = 3

3. dim Pn = n + 1

4. dim M22 = 4

5. dim Mmn = mn

Del Ejemplo 1.6 se sigue que el espacio de polinomios con coecientes reales: R[t] y el espacio de funciones
de X R a R: F(X, R) son de dimensin innita.
o
El siguiente resultado ser de mucha utilidad en el resto de la seccin.
a
o
Lema 1.6. Sea V un espacio vectorial y sean v1 , . . . , vn , v V . Si {v1 , . . . , vn } es LI y v gen{v1 , . . . , vn }
/
entonces {v1 , . . . , vn , v} es LI.
Demostracin. Supongamos que {v1 , . . . , vn } es LI y v gen{v1 , . . . , vn } y veamos que {v1 , . . . , vn , v} es LI.
o
/
Para esto supongamos que existen constantes 1 , . . . , n , F tal que
1 v1 + + n vn + v = 0

(1.5)

y veamos que 1 = = k = = 0.
Primero ntese que = 0, ya que si = 0 entonces despejando a v en la Ecuacin (1.5) obtenemos
o
o
v=

n
1
v1
vn gen{v1 , . . . , vn }

lo cual contradice la hiptesis, por tanto = 0 y la Ecuacin (1.5) se reduce a 1 v1 + + n vn = 0, como los
o
o
vectores v1 , . . . , v son LI entonces tenemos que 1 = = k = 0 y se sigue que el conjunto {v1 , . . . , vn , v} es
LI.
El siguiente resultado se sigue del Teorema 1.5 y en su demostracin se puede ver la utilidad del lema
o
anterior.
Teorema 1.7. Sea V un espacio vectorial con dim V = n y sea {v1 , . . . , vm } V un conjunto LI entonces
m n. Es decir, un subconjunto LI de V tiene a lo sumo n vectores.
Demostracin. Si V = gen{v1 , . . . , vm } entonces el conjunto {v1 , . . . , vm } es una base y por el teorema anterior
o
tenemos que m = n.
Si V = gen{v1 , . . . , vm }, como gen{v1 , . . . , vm } es un subespacio de V tenemos que gen{v1 , . . . , vm }

V y

por tanto existe v = vm+1 V tal que vm+1 gen{v1 , . . . , vm }, del lema anterior se sigue que {v1 , . . . , vm , vm+1 }
/
es LI.
Nuevamente tenemos dos posibilidades: V = gen{v1 , . . . , vm , vm+1 } o gen{v1 , . . . , vm , v}

V . En el primer

caso el conjunto {v1 , . . . , vm , vm+1 } es una base de V y n = m + 1 > m. En el segundo caso en el cual existe
v = vm+2 gen{v1 , . . . , vm , vm+1 }, entonces por el lema anterior tenemos que {v1 , . . . , vm , vm+1 , vm+2 } es LI.
/

50
Continuando de esta forma, como dim V es nita, el proceso termina en un nmero nito de pasos encontranu
do vectores vm+1 , . . . , vs tal que el conjunto {v1 , . . . , vm , vm+1 , . . . , vs } es LI y V = gen{v1 , . . . , vm , vm+1 , . . . , vs },
conluyendo de esta forma que el conjunto {v1 , . . . , vm , vm+1 , . . . , vs } es una base de V y por el Teorema anterior
s = dim V = n y por tanto m s = n.
Corolario 1.8. Sea V un espacio vectorial con dim V = n y sea {v1 , . . . , vk } un conjunto LI con k < n entonces
{v1 , . . . , vk } no puede generar a V .
Demostracin. Ejercicio
o
El resto de la seccin lo dedicaremos a mostrar tres teoremas importantes del lgebra lineal: El Teorema
o
a
de la base incompleta, todo espacio vectorial con dimensin nita tiene un base y el Teorema de la dimensin.
o
o
Comenzamos con el siguiente lema que nos ayudar en las demostraciones de estos teoremas.
a
Lema 1.9. Sea V un espacio vectorial con dim V = n y sea {v1 , . . . , vn } V un conjunto LI entonces el
conjunto {v1 , . . . , vn } es una base.
Demostracin. Solo nos resta demostrar que V = gen{v1 , . . . , vn }. Sabemos que gen{v1 , . . . , vn } V , si
o
gen{v1 , . . . , vn } = V entonces existe v V tal que v gen{v1 , . . . , vn } y aplicando el Lema 1.6 tenemos que
/
{v1 , . . . , vn , v} es LI y del Teorema 1.7 se sigue que n + 1 dim V = n, lo cual es absurdo. Concluimos que
V = gen{v1 , . . . , vn } y por tanto el conjunto {v1 , . . . , vn } es una base.
Teorema 1.10. (El Teorema de la base incompleta) Sea V un espacio vectorial con dim V = n y sea
{v1 , . . . , vk } V un conjunto LI con k = n entonces existen vectores vk+1 , . . . , vn tal que {v1 , . . . , vk , vk+1 , . . . , vn }
es una base de V .
Demostracin. Como {v1 , . . . , vk } es linealmente independiente, entonces gen{v1 , . . . , vk } = V ya que si
o
gen{v1 , . . . , vk } = V entonces {v1 , . . . , vk } es una base de V y por el Teorema 1.5 tendriamos que k = n. Por
tanto existe v V tal que v gen{v1 , . . . , vk }, aplicando el Lema 1.6 tenemos que {v1 , . . . , vk , v} es linealmente
/
independiente.
Tomemos vk+1 = v y as tenemos que {v1 , . . . , vk , vk+1 } es linealmente independiente.

Si V = gen{v1 , . . . , vk , vk+1 } entonces el conjunto {v1 , . . . , vk , vk+1 } es una base y terminamos la demostracin, pero si gen{v1 , . . . , vk , vk+1 } = V entonces existe w V tal que w gen{v1 , . . . , vk , vk+1 }, aplicando
o
/
nuevamente el Lema 1.6 tenemos que {v1 , . . . , vk , vk+1 , w} es linealmente independiente.
Hacemos vk+2 = w y tenemos que {v1 , . . . , vk , vk+1 , vk+2 } es linealmente independiente.
Continuando de manera inductiva conseguimos vectores vk+1 , . . . , vn tal que {v1 , . . . , vk , vk+1 , . . . , vn } es LI,
entonces como dim(V ) = n, por el Lema 1.9 tenemos que el conjunto {v1 , . . . , vk , vk+1 , . . . , vn } es una base para
V.
En el siguiente teorema hacemos una demostracin constructiva de que todo espacio vectorial de dimensin
o
o
nita tiene una base, se puede demostrar en general que cualquier espacio vectorial tiene una base, pero para
espacios de dimensin arbitraria la demostracin es no constructiva y se hace uso del Axioma de Eleccin.
o
o
o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

51

Teorema 1.11. Sea V un espacio vectorial con dim V = n > 0, entonces existen vectores v1 , . . . , vn V tal
que {v1 , . . . , vn } es una base de V .
Demostracin. Sea v V \ {0}, si V = gen{v} entonces {v} es una base de V y terminamos, si no, existe
o
v2 V \ gen{v}. El Lema 1.6 garantiza que el conjunto {v, v2 } es LI ya que v2 gen{v}.
/
Si V = gen{v, v2 } terminamos la demostracin, en caso contrario, tomamos v3 V \gen{v, v2 }. Continuando
o
de manera inductiva obtenemos vectores v1 , . . . , vn tal que H = gen{v, v2 , . . . , vn }.
Como para cada i, el vector vi se toma de forma que vi gen{v, v2 , . . . , vi1 } entonces el Lema 1.6 garantiza
/
que el conjunto {v, v2 , . . . , vi1 , vi } es LI, en particular el conjunto {v, v2 , . . . , vn } es LI y como dim V = n,
concluimos por el Lema 1.9, que este conjunto es una base para V .
Teorema 1.12. (El Teorema de la Dimensin.) Sea V un espacio vectorial con dim V = n y sean W1 y
o
W2 subespacios de V . Entonces
dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) dim(W1 W2 ).
Demostracin. Sea n = dim(V ), r = dim(W1 ), s = dim(W2 ) y t = dim(W1 W2 ). Sea {w1 , . . . , wt } una base
o
para W1 W2 , entonces por el Teorema de la base incompleta, tenemos que existen vectores xt+1 , . . . , xr tal que
{w1 , . . . , wt , xt+1 , . . . , xr } es una base para W1 y existen vectores yt+1 , . . . , ys tal que {w1 , . . . , wt , yt+1 , . . . , ys }
es una base para W2 .
Armacin 1: El conjunto {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } es linealmente independiente.
o
Demostracin: supongamos que
o
1 w1 + + t wt + t+1 xt+1 + + r xr + t+1 yt+1 + + s ys = 0.

(1.6)

Sea v = t+1 yt+1 + + s ys W2 , entonces por 1.6 tenemos que


v = t+1 yt+1 + + s ys = 1 w1 t wt t+1 xt+1 + r xr W1
por tanto v W1 W2 , entonces existen constantes 1 , . . . , t tal que v = 1 w1 + + t wt .
Luego 0 = v v = 1 w1 + + t wt t+1 yt+1 s ys y como {w1 , . . . , wt , yt+1 , . . . , ys } es linealmente
independiente, por ser base de W2 , entonces
0 = 1 = = t = 1 = = s .
Entonces 1.6 se reduce a 1 w1 + + t wt + t+1 xt+1 + + r xr = 0, pero como {w1 , . . . , wt , xt+1 , . . . , xr }
es linealmente independiente, por ser base de W1 , tenemos que
0 = 1 = = t = 1 = = s .
Concluimos que {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } es linealmente independiente, lo que demuestra la Armacin 1.
o

52
Armacin 2: El conjunto {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } genera a W1 + W2 .
o
Demostracin: Sea w W1 + W2 , entonces existen x W1 y y W2 tal que w = x + y.
o
Como {w1 , . . . , wt , xt+1 , . . . , xr } es una base para W1 , existen constantes 1 , . . . , r tal que
x = 1 w1 + + t wt + t+1 xt+1 + + r xr .

(1.7)

Similarmente existen constantes 1 , . . . , s tal que


y = 1 w1 + + t wt + t+1 yt+1 + + s ys .

(1.8)

De las Ecuaciones 1.7 y 1.8 tenemos que


w =x + y
=1 w1 + + t wt + t+1 xt+1 + + r xr
+ 1 w1 + + t wt + t+1 yt+1 + + s ys
=(1 + 1 )w1 + + (t + t )wt
+ t+1 xt+1 + + r xr + t+1 yt+1 + + s ys .
Lo que demuestra la Armacin 2.
o
De las armaciones 1. y 2. tenemos que el conjunto
{w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } es una base para W1 + W2 . Por tanto
dim(W1 + W2 ) = t + r t + s t = r + s t = dim(W1 ) + dim(W2 ) dim(W1 W2 ).

Problemas
Problema 1.4.1. Sea V un espacio vectorial con dim V = n y sea H V un subespacio de V , demuestre que
dim H dim V .
Problema 1.4.2. Sea V un espacio vectorial y sea H V un subespacio de V , demuestre que si dim H = dim V
entonces H = V .
Problema 1.4.3. Sea V un espacio vectorial, {v1 , . . . , vn } V un conjunto LD y sea H = gen{v1 , . . . , vn } V .
Demuestre que existen vi1 , . . . , vik con 1 i1 ik n tal que {vi1 , . . . , vik } es un subconjunto LI y
H = gen{vi1 , . . . , vik }.
Problema 1.4.4. Sea V un espacio vectorial con dim V = n y sean v1 , . . . , vn V , si V = gen{v1 , . . . , vn }
demuestre que el conjunto {v1 , . . . , vn } es una base de V .
Problema 1.4.5. Sea V un espacio vectorial con dim V = n, demuestre que existe un subconjunto nito de V
con n vectores es LI si y slo si genera a V si y slo si es una base de V .
o
o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

53

Problema 1.4.6. Determine si el conjunto de vectores genera a R4

1 ,
a.
3

1
1
2
1

1 , 2 , 0
1 ,
b.
1
2
1
3

2
2
0
1

1
1
2
1 , 2 , 7
5
1
2
2
2
3

Problema 1.4.7. Sea V un espacio vectorial, sean v1 , v2 , v3 V y sean u1 = v1 v2 , u2 = v2 v3 y u3 = v3 .


Demuestre que el conjunto {v1 , v2 , v3 } genera a V si y slo si el conjunto {u1 , u2 , u3 } genera a V .
o
Problema 1.4.8. Demuestre que {Eij + Eji | 1 i < j n} {Eii | 1 i n} es una base de Sn (F) y
determine su dimensin. (Este subespacio se deni en el Problema 1.2.11.)
o
o
Problema 1.4.9. Demuestre que {Eij Eji | 1 i < j n} es una base de An (R) y determine su dimensin.
o
(Este subespacio se deni en el Problema 1.2.12.)
o
Problema 1.4.10. Demuestre que {Eij | 1 i n} {Ejj Ej+1,j+1 | 1 j < n} es una base para sln (F) y
determine su dimensin. (Este subespacio se deni en el Problema 1.2.5.)
o
o
Problema 1.4.11. Sea V un espacio vectorial con dim V = n y sean v1 , . . . , vk V , si V = {v1 , . . . , vk }
entonces k n. Es decir, un conjunto generador tiene al menos n vectores.
Problema 1.4.12. Sean v1 , . . . , vk vectores en Fn y sea A = [ v1 . . . vk ] la matriz cuyas columnas son los
vectores v1 , . . . , vk , demuestre que Fn = gen{v1 , . . . , vk } si y slo si Ax = b tiene solucin para todo b Fn .
o
o
Demuestre que el conjunto {v1 , . . . , vk } es base si y slo si Ax = b tiene solucin unica para todo b Fn
o
o

1.5.

Suma Directa de Espacios

Terminamos el cap
tulo con la denicin de suma directa y las propiedades ms relevantes.
o
a
Denicin 1.7. (Suma Directa) Sean V un espacio vectorial y W1 y W2 subespacios de V , decimos que V
o
es la suma directa de W1 y W2 , lo cual denotamos por V = W1 W2 , si V = W1 + W2 y W1 W2 = {0}.
Los siguientes resultados exhiben condiciones sucientes y necesarias para que un espacio sea suma directa
de dos subespacios.
Teorema 1.13. Sean V un espacio vectorial y W1 y W2 subespacios de V . Entonces V = W1 W2 si y slo si
o
V = W1 + W2 y dim W1 + dim W2 = dim V .
Demostracin. Si V = W1 W2 entonces por denicin tenemos que V = W1 + W2 y por el Teorema de
o
o
la dimensin (Teorema 1.12) tenemos que
o
dim V = dim W1 + dim W2 dim(W1 W2 ) = dim W1 + dim W2 .
=0

Si V = W1 + W2 y dim W1 + dim W2 = dim V por el Teorema de la dimensin tenemos que


o
dim V = dim W1 + dim W2 dim(W1 W2 ),
se sigue que dim(W1 W2 ) = 0 y por tanto V = W1 W2 .

54
Teorema 1.14. Sean V un espacio vectorial, W1 y W2 subespacios de V y X y Y bases para W1 y W2 ,
respectivamente. Entonces V = W1 W2 si y slo si X Y es una base para V .
o
Demostracin. Supongamos que V = W1 W2 y sean X = {v1 , . . . , vr } y Y = {w1 , . . . , ws } bases de W1
o
y W2 . Veamos que {v1 , . . . , vr , w1 , . . . , ws } es LI.
Supongamos que
1 v 1 + + r v r + 1 w1 + + s ws = 0

(1.9)

y denamos x = 1 v1 + + r vr entonces x W1 y de (1.9) se sigue que x = 1 v1 + + r vr = (1 w1 +


+ s ws ) y por tanto x W2 . Se sigue que x W1 W2 pero por hiptesis W1 W2 = {0}, luego x = 0 y
o
como x = 1 v1 + + r vr y {v1 , . . . , vr } es LI por ser base para W1 tenemos que 1 = = r = 0. Adems
a
como (1 w1 + + s ws ) = x = 0 y {w1 , . . . , ws } es LI entonces 0 = 1 = = s .
Concluimos que X Y = {v1 , . . . , vr , w1 , . . . , ws } es LI. Ahora, por el teorema anterior dim V = dim W1 +
dim W2 = r + s entonces X Y es un conjunto LI con r + s = dim V elementos y por tanto es una base de V .
Supongamos que X Y = {v1 , . . . , vr , w1 , . . . , ws } es una base para V .
Armacin 1. V = W1 + W2
o
Demostracin. Sea v V , como {v1 , . . . , vr , w1 , . . . , ws } es una base para V , existen constantes 1 , . . . , r , 1 , . . . , s
o
tal que
v = 1 v1 + + r vr + 1 w1 + + s ws W1 + W2 .
W1

W2

La otra inclusin es clara ya que como W1 y W2 son subespacios entonces W1 + W2 es un subespacio, en


o
particular es un subconjunto. Esto demuestra la armacin.
o
Armacin 2. W1 W2 = {0}.
o
Demostracin. Sea v W1 W2 , entonces v W1 y v W2 . Como {v1 , . . . , vr } es una base de W1 , existen
o
constantes 1 , . . . , r tal que
v = 1 v 1 + + r v r .

(1.10)

Un argumento similar garantiza la existencia de constantes 1 , . . . , s tal que


v = 1 v 1 + + r v r .

(1.11)

De las ecuaciones 1.10 y 1.11 tenemos que


0 = v v = 1 v 1 + + r v r 1 w1 + + s ws .
Ahora, como {v1 , . . . , vr , w1 , . . . , ws } es linealmente independiente, por ser base para V , tenemos que 0 = 1 =
= r = 1 = = s . Por tanto v = 1 v1 + + r vr = 0 y W1 W2 {0}. La otra inclusin es trivial ya
o
que 0 W1 + W2 luego {0} W1 W2 . Lo que prueba la armacin.
o
De las armaciones 1. y 2. tenemos que V = W1 W2 .
Terminamos la seccin con una ultima caracterizacin de la suma directa de espacios vectoriales.
o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

55

Teorema 1.15. Sea V un espacio vectorial, sean W1 y W2 subespacios de V . Entonces V = W1 W2 si y slo


o
si para todo v V existen vectores unicos w1 W1 y w2 W2 tal que v = w1 + w2 .

Demostracin. : Supongamos que V = W1 W2 , entonces por denicin tenemos que V = W1 + W2 ,


o
o
por tanto para v V existen w1 W1 y w2 W2 tal que v = w1 + w2 .

Ahora veamos que estos vectores son unicos: supongamos que v = w1 +w2 y que v = w1 +w2 con w1 , w1 W1

y w2 , w2 W2 . Entonces tenemos que

0 = v v = (w1 w1 ) + (w2 w2 )

se sigue que w1 w1 = w2 w2 W2 , pero como w1 , w1 W1 tenemos que w1 w1 W1 y por tanto

w1 w1 W1 W2 = {0}, obtenemos que w1 w1 = 0 o equivalentemente w1 = w1 . Similarmente se demuestra

que w2 = w2 .

: Supongamos que para todo v V existen vectores unicos w1 W1 y w2 W2 tal que v = w1 + w2 .

Se sigue que V = W1 + W2 , ahora veamos que W1 W2 = {0}.


Sea x W1 W2 , entonces x = 0 + x W1 + W2 y x = x + 0 W1 + W2 , como la expresin es unica se
o

sigue que x = 0.

Problemas
Problema 1.5.1. Sea V un espacio vectorial, {v1 , . . . , vn } una base de V y v V , entonces existen constantes
unicas 1 , . . . , n talque v = 1 v1 + + n vn .

Problema 1.5.2. Demuestre que R2 = gen {(1, 0)} gen {(1, 1)}.
Problema 1.5.3. Demuestre que Mn (R) = Sn (R) An (R), donde Sn (R) = {A Mn (R | At = A} y An (R) =
{A Mn (R | At = A}. (Use el Ejercicio 0.2.14).

Problema 1.5.4. Sea V un espacio vectorial y H1 y H2 subespacio de V tal que V = H1 + H2 , demuestre que
V = H1 H2 si y slo si dim(H1 H2 ) = 0.
o
Problema 1.5.5. Sean H1 y H2 subespacios de un espacio vectorial V , si dim H1 = dim H2 = dim V 1
entonces dim(H1 H2 ) = dim V 2. Deduzca que dos planos en R3 siempre siempre tienen una interseccin no
o

trivial.
Problema 1.5.6. Sean H y K subespacios de un espacio vectorial V , si dim H = dim V 1 y KH entonces
dim(H K) = dim K 1.
Problema 1.5.7. Muestre que todo espacio vectorial de dimensin nita es una suma directa de subespacios
o
vectoriales de dimensin 1.
o

56
Problema 1.5.8. Demuestre que si W es un subespacio de un espacio vectorial V entonces existe un subespacio
Z de V tal que V = W Z
Problema 1.5.9. Probar que si V = W1 Wn , entonces
1. dimV =

n
i=1

dimWi .

2. Si v V entonces v se escribe de manera unica como v = w1 + + wn , con wi Wi para i = 1, . . . , n.

Problema 1.5.10. Si V y W son subespacios de Rn con dim V >

n
2

y dim W >

n
2

entonces V W = {0}.

Problema 1.5.11. Si A, B V son subconjuntos de un espacio vectorial V y A B {0} muestre que


L(AU B) = L(A) L(B), donde L(A) = interseccin de los subespacios que contienen a A.
o
Problema 1.5.12. Si W1 = {A Mn (R) | aij = 0 para i j} es el conjunto de matrices estrictamente
triangulares superiores y y W2 = {A Mn (R) | aij = 0 para i < j} es el conjunto de matrices triangulares
inferiores entonces Mn (R) = W1 W2 .
Problema 1.5.13. Sea V un espacio vectorial y X Y V tal que X es LI y V = genY entonces existe una
base Z tal que X Z Y . En particular si Y es una base muestre que existe S Y tal que XU S es una base
de V .
Problema 1.5.14. Sean V = F(R, R), W1 = {f V | f (x) = f (x), para todo x V } el subespacio de la
funciones pares y W2 = {f V | f (x) = f (x), para todo x V } el subespacio de la funciones impares,
demuestre que V = W1 W2 .

1.6.

Subespacios fundamentales

Terminamos el cap
tulo con el tema de subespacios fundamentales, en la seccin aprenderemos a calcular
o
una base para el espacio nulo de una matriz y una base para el espacio generado por las columnas de una matriz,
llamado el espacio columna. Comenzamos deniendo los subespacios fundamentales.
Denicin 1.8. Sea A una matriz de tamao m n denimos los siguientes subespacios:
o
n
1. El espacion nulo de A, denotado N ul(A), se dene como
N ul(A) = {x Rn | Ax = 0.}
2. El espacio columna, denotado Col(A), se dene como
Col(A) = gen{c1 , . . . , cn },
donde c1 , . . . , cn son las columnas de A.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

57

3. El espacio la de A, denotado por F il(A), se dene como


t
t
F il(A) = gen{f1 , . . . , fm },

donde f1 , . . . , fm son las las de A.

4. El espacio nulo a izquierda de A, denotado por N uliz(A), se dene como


N uliz(A) = {x Rm | At x = 0.}

Se sigue del Ejercicio 1.2.4 que el espacio nulo y el nulo a izquierda de una matriz son subespacios de Fn y
Fm , respectivamente y del Ejercicio ?? se sigue que el espacio columna y el espacio la son tambin subespacios
e
de Fm y Fn , respectivamente.
El propsito ahora es dar un procedimiento que nos permita hallar una base para los subespacios fundamentales.
o
Calcular el espacio nulo de una matriz A es mas sencillo, ya que los vectores x en este espacio son solucin
o
a la ecuacin Ax = 0, el cual se resuelve aplicando Gauss-Jordan a la matriz [ A 0 ] (ver ejemplo abajo). El
o
procedimiento para calcular una base para el espacio columna se sigue del siguiente teorema.

Teorema 1.16. Sea A una matriz de tamao m n y sea A la forma escalonada reducida de A. Entonces los
n
vectores para los cuales la columna de A tiene un pivote, forman una base para Col(A) y por tanto dim Col(A) =
rango(A). Adems se tiene que dim N ul(A) = n rango(A).
a
Demostracin. Sea k = rango(A), sin prdida de generalidad, supongamos que las primeras k columnas de
o
e
A tienen pivote, es decir
1 0 b
1,k+1
. ... . . ...
. .
. .
.
.
A = 0 1 bk,k+1
0 0 0
. . . . .
. .. . .
..
.
. .
0 0

b1n

.
.
.

.
.
.

bkn
0

(1.12)

Sean c1 , . . . , cn las columnas de A, vamos a demostrar que los vectores c1 , . . . , ck forman una base para Col(A).
Primero ntese que los vectores c1 , . . . , ck son linealmente independientes ya que stos forman las primeras
o
e
columnas de A y por tanto la forma escalonada reducida de la submatriz [ c1

ck

] est dada por las primeras k


a

las de A y de la Ecuacin (1.12), se obtiene que sta tiene un pivote en cada columna, de esta forma es fcil
o
e
a
ve que los vectores c1 , . . . , ck son linealmente independientes.
Antes de demostrar que estos vectores generan el espacio columna, calculemos una base para el espacio nulo.

58
x1

Para esto tomemos x =

.
.
.

, de la Ecuacin (1.12) tenemos lo siguiente


o

xn
x1 +b1,k+1 xk+1 ++b1n xn =0

x1

.
.
.

xn

N ul(A) si y slo si Ax = 0 si y slo si A x = 0 si y slo si


o
o
o

.
.
.

xk +bk,k+1 xk+1 ++bkn xn =0

x1 =b1,k+1 xk+1 b1n xn

.
.
.
xk =bk,k+1 xk+1 bkn xn
b

x1 b1,k+1 xk+1 b1n xn


b1n
1,k+1
.
.
.
.

.
.
.
.
.
.
.
xk bk,k+1 xk+1 bkn xn
b.kn
= xk+1 bk,k+1 + + xn
si y slo si xk+1 =
o
. (1.13)
xk+1

1
.
0

.
.
.
.
.
.
.
.
.
.
.
si y slo si
o

xn

xn

b1n
b1n
1,k+1
1,k+1

.
.
.
.

.
.
.
.
.
.
.
.
bk,k+1 , . . . , bkn . Ntese adems que los vectores bk,k+1 , . . . , bkn
o
a
Entonces N ul(A) = gen
0
0
1

.
.
.

.
.
.
.

.
.
.
.
1

son claramente LI y por tanto forman una base para N ul(A). De esto se sigue que los vectores c1 , , cn
satisfacen las ecuaciones

1,k+1

.
.
.

1,k+1

.
.
.
= A bk,k+1 = [ c1
1
.
.
.
0

.
.
.

.
.
.
b1n
.
.
b.kn
= A 0 = [ c1

.
.
.
1

.
.
.
cn ] bk,k+1
1
.
.
.
0

b1n
.
.
b.kn
cn ]

0
.
.
.
1

Por el Lema 0.9 tenemos que estas ecuaciones matriciales son equivalentes a las ecuaciones
b1,k+1 c1 bk,k+1 ck + ck+1 = 0

b1n c1 bkn ck + cn = 0

o equivalentemente

ck+1 = b1,k+1 c1 + + bk,k+1 ck

o equivalentemente

cn = b1n c1 + + bkn ck

.
.
.

Obtenemos que cada uno de los vectores ck+1 , . . . , cn es una combinacin lineal de los vectores c1 , . . . , ck . Por
o
tanto si x Col(A), obtenemos que
x =1 c1 + + k ck + k+1 ck+1 + + n cn
=1 c1 + + k ck + k+1 (b1,k+1 c1 + + bk,k+1 ck ) + + n (b1n c1 + + bkn ck )
=(1 + k+1 b1,k+1 + + n b1n )c1 + + (k + k+1 bk,k+1 + + n bkn )ck gen{c1 , ck }


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

59

Concluimos que ColA = gen{c1 , . . . , ck }, entonces los vectores c1 , . . . , ck generan a Col(A) y como son linealmente independientes entonces forman una base para Col(A).
Finalmente, observese que dim Col(A) = k = rango(A) y por la Ecuacin (1.13) tenemos que dim N ul(A) =
o
n k = n rango(A).
De este resultado se desprende el siguiente corolario.
Corolario 1.17. Sea A una matriz de tamao m n, entonces
n
dim Col(A) + dim N ul(A) = n = # de columnas de A.
1 1 0 1
2 2 1 4
3 3 1 5

Ejemplo 1.8. Calcule los cuatro subespacios fundamentales de la matriz A =


Solucin: Calculando la forma escalonada reducida de A obtenemos
o
1 1 0 1
2 2 1 4
3 3 1 5

1 1 0 1
0 0 1 2
0 0 1 2

2F1 +F2 F2
2F1 +F3 F3

1 1 0 1
0 0 1 2
0 0 0 0

F2 +F3 F3

entonces por el teorema anterior la primera y tercera columna de A forman una base para el espacio columna
de A, es decir
Col(A) = gen

1
2
3

0
1
1

Ahora para el espacio nulo resolvemos el sistema Ax = 0 o equivalentemente A x = 0 y obtenemos lo siguiente


x1
x2
x3
x4

0
0
0

x1 x2

x1
x2
x3
x4

1
1
0
0

1
1
2
1

x2 x4
x2
2x4
x4

x1 = x2 x4

x3 + 2x4 = 0

Por tanto N ul(A) = gen

+ x4 = 0

= x2

x3 =
1
1
0
0

+ x4

2x4
1
1
2
1

Para calcular el espacio la y el nulo a izquierda, calculamos la escalonada reducida de At


1 2 3
1 2 3
0 1 1
1 4 5

Se sigue que F il(A) = gen


si
At

x1
x2
x3

Por tanto N uliz(A) = gen

1
1
0
1
0
0
0
0
1
1
1

F1 +F2 F2
F1 +F4 F4

2
2
1
4

1
0
0
0

3
0
1
2

F2 F3

1
0
0
0

2
1
0
2

3
1
0
2

, adems un vector x =
a

x1 + x3 = 0

2
0
1
2

x2 + x3 = 0

x1 = x3
x2 = x3

2F2 +F1 F1
2F2 +F4 F4

x1
x2
x3

x1
x2
x3

1
0
0
0

0
1
0
0

1
1
0
0

satisface la ecuacin At x = 0 si y solo


o

x3
x3
x3

1
1
1

El siguiente teorema nos permite calcular bases alternativas para el espacio columna y el espacio la de una
matriz.
Teorema 1.18. Sea A una matriz, entonces tenemos que F ilA = F ilA donde A es la forma escalonada
reducida de A, adems se tiene que dim F ilA = rango(A). Es decir, el espacio la de una matriz coincide con
a
el espacio de su forma escalonada reducida.

60

Demostracin. Sean f1 , . . . , fm las las de A y sean f1 , . . . , fk las las no nulas de A , entonces k = rango(A).
o

Como A se obtiene de A aplicando operaciones elementales de la, las cuales envuelven combinaciones lineales
de las de A, entonces tenemos que fi gen{f1 , . . . , fm }, para i = 1, . . . , k. De esto se deduce que F ilA F ilA.

Ahora, como las operaciones elementales son reversibles y podemos recuperar la matriz A de A por medio

de operaciones elementales, entonces tenemos que fi gen{f1 , . . . , fk }, para i = 1, . . . , m. Deducimos que

F ilA F ilA y por tanto F ilA = F ilA.

Es fcil ver que los vectores f1 t , . . . , fk t son LI ya que la matriz A est en forma escalonada reducida y los
a
a

pivotes estn en diferentes columnas, por tanto estos forman una base de A, concluimos que dim F ilA = k =
a
rango(A).
Corolario 1.19. Sea A una matriz de tamao m n, entonces rango(A) = rango(At ).
n
Demostracin. De la denicin de espacio la y espacio columna tenemos que F il(A) = Col(At ) y por el
o
o
teorema anterior dim F il(A) = rango(A) y por el Teorema 1.16 tenemos que dim Col(At ) = rango(At ), por
tanto
rango(A) = dim F il(A) = dim Col(At ) = rango(At ).

Ejemplo 1.9. Sea A =

1 1 0 1
2 2 1 4
3 3 1 5

la matriz del Ejemplo 1.8. En ese ejemplo se calcul que las matrices
o
1 1 0 1
y (At ) =
0 0 1 2
0 0 0 0
0
, v2 = 1 . Se deja como
1

escalonadas reducidas de A y At respectivamente son A =


F il(At ) = F il(At ) se tiene que Col(A) = gen v1 =

1
0
1

1
0
0
0

0
1
0
0

1
1
0
0

y como Col(A) =

ejercicio al lector vericar

que v1 = c1 2c3 y v2 = c3 , donde c1 y c3 son la primera y tercera columna de la matriz A, lo que verica que
en realidad el espacio generado por v1 y v2 es igual al espacio columna de A.
1
1
0
1

Adems F il(A) = F il(A ), entonces F il(A) = gen w1 =


a

, w2 =

0
0
1
2

. Se deja como ejercicio al

lector vericar que w1 = f1 y w2 = 2f1 + f2 donde f1 y f2 son la primera y segunda la de A. Lo que verica
que el espacio generado por w1 y w2 es igual al espacio la de A.

Problemas

Problema 1.6.1. Encuentre los cuatro subespacios fundamentales cada una de las siguientes matrices
1 2
a. A= 2 4
1 2

1 1 2
b. B= 2 2 4
1 9 2

1 2 3 4
c. C= 5 6 7 8
9 10 11 12

Problema 1.6.2. Encuentre una base para el subespacio solucin del sistema lineal
o
a.

2x1 x2 + 3x3

=0

4x1 + 2x2 6x3

=0

b.

2x1 x2 + 3x3

=0

x1 + x2 x3

=0


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

61

Ayuda: Escriba el sistema en la forma Ax = 0, por el Ejercicio 1.2.4 tenemos que x es solucin al sistema si y
o
slo si x N ul(A).
o
Problema 1.6.3. Sean A y B matrices tal que AB = 0, demuestre que Col(B) N ul(A) y F il(B) N uliz(A).
Problema 1.6.4. Determine las dimensiones de los cuatro subespacios fundamentales de una matriz que satisface:
a. A es 8 7 con rango 5.

b. A es 7 5 con rango 5.

Problema 1.6.5. Demuestre o de un contraejemplo de las siguientes armaciones


1. Si las columnas de A son LD tambin lo son las las de A.
e
2. Si las columnas de A son LI tambin lo son las las de A.
e
3. Si X es una base de Rn y W Rn es un subespacio entonces un subconjunto de X es una base de W .
Problema 1.6.6. Si A = [I2 I2 ] determine ColA y N ulA.
Problema 1.6.7. Si A es 34 con N ulA = gen{(1, 1, 1, 0)} determine lo siguiente
1. rangoA,
2. la forma escalonada A de A,
3. F ilA

Problema 1.6.8. Si A = 0 0 0 1, cuales de los subespacios N ulA, N ulizA, ColA y F ilA se pueden

0 0 0 0
determinar y que se puede decir de los demas.

1 1 1

Problema 1.6.9. Determine el espacio columna en los siguientes casos


1. si A es 3 6 y Ax = b tiene solucin para todo b,
o
2. si A es 44 y Ax = 0 tiene solucin unica,
o
3. A es 2 3 y A tiene una inversa a derecha.
Problema 1.6.10. Sea A una matriz 4 3, si N ulA = gen{(1, 1, 1), (1, 0, 0)} determine la forma escalonada

reducida A de A y una base para F ilA.

Problema 1.6.11. Determine el tamao de A para que dim N ulA = dim N ulizA + 1.
n
Problema 1.6.12. Sea A Mn (R), Nk = N ul(Ak ) y Ck = Col(Ak ), demuestre que para todo k 1 se tiene
que
1. Nk Nk+1

62
2. Ck+1 Ck
3. A(Ck ) = Ck+1 donde A(Ck ) = {Ax | x Ck }.
Problema 1.6.13. Sea A Mmn (F), muestre que b ColA si y slo si Ax = b tiene solucin.
o
o

Deduzca que Col(A) = {Ax | x Rn }. (Este problema muestra que el espacio columna es el espacio solucin
o

a la ecuacin Ax = b).
o
Problema 1.6.14. Sea A Mmn (R) y B Mnq (R), muestre que lo siguiente
1. Col(AB) Col(A) y deduzca que rango(AB) rango(A)
2. Si B tiene inversa a la derecha, en particular si B es invertible, entonces Col(AB) = Col(A). Concluya
que en este caso rango(AB) = rango(B).
Problema 1.6.15. Sea B Mmn (R) y A Mnq (R), muestre que lo siguiente
1. rango(BA) rango(A). (Ayuda: Use el hecho que rango(At ) = rango(B t ).)
2. Si B es invertible entonces rango(BA) = rango(A).
Problema 1.6.16. Sean A Mmn (F), B Mm (R) y C Mn (R) con B y C invertibles, muestre lo siguiente:
1. rango(BAC) = rango(A).
2. Demuestre que el rango es invariante. (Ayuda: Use el
tem anterior y el Problema 0.4.6.)
3. Deduzca que si A Mn (R) entonces
rango(A) = rango(C 1 AC)

rango(A) = rango(C t AC).

Problema 1.6.17. Si A es m p y B es p q con m < p < q y AB = 0, muestre que rangoA + rangoB p.


Problema 1.6.18. De un ejemplo de dos matrices A y B tal que Col(AB) = Col(A).
Problema 1.6.19. Si A es 8 10 con rango 6 determine las dimensiones de N ulA y N ulizA. Repetir si A es
(m + 1) m con rango m 1.

Cap
tulo 2

Transformaciones Lineales
Carreta

2.1.

Denicin y Ejemplos
o

En esta seccin se estudiarn funciones entre espacios vectoriales que preservan la estructura, estas funciones
o
a
se llaman tranformaciones lineales, comenzamos con la denicin.
o
begindenition Sean V y W espacios vectoriales y T : V W una funcin, decimos que T es una transo
formacin lineal si satisface:
o
1. T (v + v ) = T (v) + T (v ), para todo v, v V .
2. T (v) = T (v), para todo v V y para todo R.
Observacin 2.1. Como consecuencia de la denicin tenemos que si T : V W es una transformacin
o
o
o
lineal, v1 , . . . , vn V y 1 , . . . , n R entonces
1. T (1 v1 + 2 v2 ) = 1 T (v1 ) + 2 T (v2 ), y en general
2. T (1 v1 + + n vn ) = 1 T (v1 ) + + n T (vn ).
Ejemplo 2.1.

1. Sean V y W espacios vectoriales sobre R. La funcin nula f : V W denida por f (v) = 0,


o

para todo v V y la funcin identidad Id : V V denida por Id(v) = v son transformaciones lineales.
o
2. Si a R, entonces Ta : R R dada por Ta (x) = ax para todo x R, es una transformacin lineal. El
o
grco de Ta es una recta pasando por el origen (0, 0) R2 con pendiente a.
a

3. Sean a1 , , an R. La funcin T : Rn R denida por T (1 , , n ) =


o

n
i=1

ai i , es una transfor-

macin lineal tal que T (ei ) = ai , donde los ei denotan los elementos de la base cannica de Rn .
o
o
63

64

x
o
4. La funcin T : R2 R denida por T = x + y es una transformacin lineal ya que
o
y


x
x
x + x
x
x
= x + x + y + y = (x + y) + (x + y ) = T + T .
T + = T
y
y
y
y + y
y



x
x
x
T = T = x + y = (x + y) = T .
y
y
y

5. Si A es una matriz m n, la funcin T : Rn Rm denida por T (x) = Ax es una transformacin lineal


o
o
ya que satisface los axiomas 1 y 2 de la denicin, ms espec
o
a
camente tenemos que
T (x + y) = A(x + y) = Ax + Ay = T (x) + T (y)

T (x) = A(x) = Ax = T (x).


6. La funcin D : R[t] R[t] denida por D(p(t)) = p (t) es una transformacin lineal ya que
o
o
D(p(t) + q(t)) = (p(t) + q(t)) = p (t) + q (t) = D(p(t)) + D(p(t)).
Destacamos las siguientes propiedades que cumple cualquier transformacin lineal.
o
Teorema 2.1. Sean V y W espacios vectoriales y T : V W una transformacin lineal, entonces
o
1. T (0) = 0.
2. T (v) = T (v).
Demostracin.
o

1. T (0) = T (0 + 0) = T (0) + T (0) por tanto T (0) = 0.

2. T (v) = T ((1)v) = 1T (v) = T (v).

En el siguiente teorema mostramos que la composicin de trasnformaciones lineales tambin es una transo
e
formacin lineal.
o
Teorema 2.2. Sean V, W y Z espacios vectoriales y sean T : V W y S : W Z transformaciones
lineales, entonces S T es una transformacin lineal.
o
Demostracin. Sean v, v V y R,
o
S T (v + v ) = S(T (v + v )) = S(T (v) + T (v )) = S(T (v)) + S(T (v ))
= S T (v) + S T (v )

S T (v) = S(T (v) = S(T (v)) = S(T (v)) = S T (v)


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

2.1.1.

65

Transformaciones Lineales Inyectivas

Comenzamos el estudio de las transformaciones inyectivas con la dencin de kernel de la transformacin.


o
o
Denicin 2.1. Sean V y W espacios vectoriales y sea T : V W una transformacin lineal, denimos el
o
o
ncleo o kernel de T como el conjunto
u
ker(T ) = {x V | T (x) = 0}.
Se tiene la siguiente relacin entre la inyectividad de una transformacin lineal y su kernel.
o
o
Teorema 2.3. Sea T : V W una transformacin lineal, entonces T es inyectiva si y slo si ker(T ) = {0}.
o
o
Demostracin. Supongamos que T es inyectiva, entonces si T (x) = T (y), tenemos que x = y.
o
Ahora, supongamos que x ker(T ), entonces T (x) = 0 = T (0), luego x = 0 y por tanto ker(T ) {0}. La
otra inclusin se da ya que ker(T ) es un subespacio de V y por tanto 0 ker(T ). Concluimos que ker(T ) = {0}.
o
Supongamos que ker(T ) = {0} y demostremos que si T (x) = T (y), entonces x = y, para todo x, y V .
Supongamos entonces que T (x) = T (y). Luego T (x y) = T (x) + T (y) = T (x) T (y) = 0, se sigue que
x y ker(T ) = {0} por tanto x y = 0 o equivalentemente x = y. Concluimos que T es inyectiva.
Ejemplo 2.2. La transformacin lineal D : F[t] F[t] denida por D(p(t)) = p (t) no es inyectiva ya que
o
para todo c F tenemos que D(c) = y por tanto ker(D) = {0}. Ms an, es fcil ver que ker(D) es el conjunto
a u
a
de polinomios constantes.
Ejemplo 2.3. Sea A Mmn (F) y T : Fn Fm la transformacin lineal denida por T (x) = Ax entonces
o
tenemos que
ker(T ) = {v Fn | 0 = T (v) = Av} = N ul(A).

2.1.2.

Transformaciones Lineales Sobreyectivas

Comenzamos recordando las deniciones de imagen de una funcin y de funcin sobreyectiva.


o
o
Denicin 2.2. Sean V y W espacios vectoriales y T : V W una transformacin lineal,
o
o
1. Denimos la imagen de T , denotada por Im(T ), como el conjunto
Im(T ) = {T (v) | v V } = {w W | existe v V tal que w = T (v)}.
2. Decimos que T es sobreyectiva si Im(T ) = W .
3. Si H V es un subespacio de V , denimos la imagen de H por T , T (H), como el conjunto:
T (H) = {T (h) | h V } = {w W | existe h H tal que w = T (h)}.

66
Ejemplo 2.4. Sea A Mmn (F) y T : Fn Fm la transformacin lineal denida por T (x) = Ax entonces
o
tenemos que
Im(T ) = {w Fm | w = T (v) para algn v Fn }
u
= {w Fm | w = A(v) para algn v Fn }
u
= Col(A)
Concluimos que Im(T ) = Col(A).

Problemas
Problema 2.1.1. Determine si la funcin es una transformacin lineal y en los casos armativos, calcule la
o
o
matriz de la transformacin lineal correspondiente.
o


xy
x
.
1. T : R2 R2 denida por T =
x
y


xy

2. T : R2 R3 denida por T = x + 1.

y
y2


y
xy
.
3. T : R4 R2 denida por T =

z
zw

w


xz
x


4. T : R3 R3 denida por T y = y z .


xz
z

x

x z
5. T : R3 R2 denida por T y =
.

yz
z

6. T : Rn Rn1

x
1

denida por T =

xn

x1 xn
x1 + x2 xn
.
.
.
x1 + + xn1 xn


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

67





2
1


0
1


2
3
Problema 2.1.2. Sea T : R R tal que T = 2 y T = 1. Calcule la matriz de T y


1
0
2
2

1
T .
1
Problema 2.1.3. Calcule la matriz de la transformacin que rota el plano 90 y luego proyecta sobre el eje y.
o

Problema 2.1.4. Sea V = F([a, b], R el conjunto de las funciones continuas del intervalo [a,b] en R. Dena
T : V R por T (f ) =

b
a

f (x)dx. Demuestre que T es una transformacin lineal.


o

Problema 2.1.5. Muestre que una funcin T : Rn R es una transformacin lineal si y solamente si existen
o
o
a1 , , an R tales que T (x1 , , xn ) =

n
i=1

ai x i .

Problema 2.1.6. Considere la funcin D : P3 P2 denida por D(a + bt + ct2 + dt3 ) = b + 2ct + 3dt2 .
o
Demuestre que D es una transformacin lineal. Dena esta transformacin lineal de forma general, es decir,
o
o
dena la funcin D :: Pn+1 Pn . Esta transformacin lineal se llama derivacin.
o
o
o
1
Problema 2.1.7. Considere la funcin I : P2 P3 denida por I(a + bt + ct2 ) = at + 2 bt2 + 1 ct3 . Demuestre
o
3

que I es una transformacin lineal. Dena esta transformacin lineal de forma general, es decir, dena la
o
o
funcin I : Pn Pn+1 . Esta transformacin lineal se llama integracin.
o
o
o
el kernel est relacionado con el nulo de la matriz
a
Problema 2.1.8. Calcular el kernel de las transformaciones lineales del Problema 2.1.1.
Problema 2.1.9. Determine cuatro transformaciones lineales de R3 en R3 cuyos ncleos tengan dimensiones
u
0, 1, 2 y 3 respectivamente.
Problema 2.1.10. Demuestre que si T : U V y S : V W son inyectivas entonces T S es inyectiva,
es decir, la composicin de transformaciones inyectivas es inyectiva.
o
Problema 2.1.11. Demuestre que T : Rn Rm es inyectiva entonces existe una transformacin lineal
o
S : Rm Rn tal que S T = id. (Ayuda: Muestre que la matriz de T tiene inversa a izquierda.)
Problema 2.1.12. Sea T : R2 R2 denida por T (x, y) = (y, 0), muestre que = ImT .
Problema 2.1.13. Calcular la imagen de las transformaciones lineales del Problema 2.1.1.

Problema 2.1.14. Considere R4 y los subespacios V = (1, 0, 1, 1), (0, 1, 1, 1) y

W = (x, y, z, t) R4 : x + y = 0
ker(T ) = V y Im(T ) = W .

t + z = 0 . Determine una transformacin lineal T : R4 R4 tal que


o

68

Problema 2.1.15. Encuentre una transformacin lineal T : R4 R4 tal que: ker(T ) = (1, 0, 1, 0), (1, 0, 0, 1)
o
y Im(T ) = (1, 1, 0, 2), (0, 1, 1, 0) .

Problema 2.1.16. Sea V un espacio vectorial de dimensin n.


o
1. Si es impar, probar que no existe ninguna transformacin lineal T : V V tal que ker(T ) = Im(T ).
o
2. Muestre que la armacin anterior es falsa si n es par.
o

Problema 2.1.17. Sea V un espacio vectorial y T : V V una transformacin lineal. Probar que las siguientes
o
condiciones son equivalentes:
1. ker(T ) Im(T ) = 0.
2. Si (T T )(v) = 0 para v V , entonces T (v) = 0.

Problema 2.1.18. Muestre que si T : U V es una transformacin lineal inyectiva, entonces dimV dimU .
o
Problema 2.1.19. Sea A Mn (R), T : Rn Rn denida por T (v) = Av y Ck = Col(Ak ), demuestre que
para todo k 1 se tiene que Im(Ck ) = Ck+1
Problema 2.1.20. Demuestre que composicin de transformaciones sobreyectivas es sobreyectiva.
o
Problema 2.1.21. Si T es sobreyectiva entonces existe una TL S tal que T S = id y muestre que S es
inyectiva.
Problema 2.1.22. Si T : V V es una transformacin lineal y H V es un subespacio, decimos que H es
o
T -invariante si T (H) H. Muestre que ImT y son T -invariantes.
Problema 2.1.23. Si T : V V es una TL y W V es un subespacio T -invariante muestre que T/W :
W W es una TL, donde T/W es la restriccin de T a W .
o
Problema 2.1.24. Sea T : V W una transformacin lineal y H W un subespacio. La imgagen inversa
o
de H se dene como el conjunto
T 1 (H) = {v V | T (v) H}.
Muestre que T 1 (H) es un subespacio.
Problema 2.1.25. Si T : V W y S : W Z son TL con S sobreyectiva entonces Im(T ) = Im(T oS).
(Ayuda:Use el Problema 1.6.14)
Problema 2.1.26. Sean T, S : V V TL, demuestre que Im(T + S) ImT + ImS y concluya que
rango(A + B) rangoA + rangoB.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

2.2.

69

Isomorsmos

Las transformaciones lineales biyectivas (inyectivas y sobreyectivas) se llaman isomorsmos, la palabra isomorsmo proviene de las ra griegas iso:igual y morsmo:forma. En esta seccin veremos como los isomorsmos
ces
o
preservan la estructura de los espacios vectoriales. Comenzamos con la denicin de isomorsmo.
o
Denicin 2.3. Sean V y W espacios vectoriales y T : V W una transformacin lineal, decimos que
o
o
T es un isomorsmo si es una funcin biyectiva. Tambin diremos que V es isomorfo a W si existe un
o
e
isomorsmo entre ellos, lo cual denotaremos V W .
=
Teorema 2.4. Sea T : V W una transformacin lineal entonces su funcin inversa T 1 es tambin una
o
o
e
transformacin lineal.
o
Demostracin. Sean w1 , w2 W , como T es sobre, existen v1 , v2 V tal que w1 = T (v1 ) y w2 = T (v2 ),
o
entonces
T 1 (w1 + w2 ) = T 1 (T (v1 ) + T (v2 )) = T 1 (T (v1 + v2 )) = v1 + v2
= T 1 (w1 ) + T 1 (w2 ).
Ahora, sea F, entonces tenemos
T 1 (w1 ) = T 1 (T (v1 )) = T 1 (T (v1 )) = v1 = T 1 (w1 ).
Por tanto T 1 es lineal.
Ejemplo 2.5. Sea T : Fn Fm la transformacin lineal denida por T (v) = Av con A Mmn (F). Ntese
o
o
que T es invertible si y slo si N ul(A) = {0} y Col(A) = Fm lo que ocurre si y slo si m = n y A es invertible.
o
o

Se obtiene adems que T 1 (v) = A1 v.


a

El siguiente teorema muestra como los isomorsmo conservan la estructura de los espacios vectoriales, en
otras palabras, el siguiente teorema justica por que las transformaciones biyectivas son llamadas isomorsmos.
Teorema 2.5. Sean V y W espacios vectoriales, T : V W un isomorsmo, {v1 , . . . , vn } V y v V .
Entonces se tiene lo siguiente:
1. El conjunto {v1 , . . . , vn } es linealmente independiente si y slo si el conjunto {T (v1 ), . . . , T (vn )} es linealo
mente independiente.
2. El conjunto {v1 , . . . , vn } genera a V si y slo si el conjunto {T (v1 ), . . . , T (vn )} genera a W .
o
3. El conjunto {v1 , . . . , vn } es una base para V si y slo si el conjunto {T (v1 ), . . . , T (vn )} es una base para
o
W.
4. dim V = dim W .

70
5. v v1 , . . . , vn si y slo si T (v) T (v1 ), . . . , T (vn ) .
o
Demostracin.
o

1. Supongamos que el conjunto {v1 , . . . , vn } es linealmente independiente y suponga-

mos que 1 T (v1 ) + + n T (vn ) = 0. Entonces 0 = T (0) = T (1 v1 + + n vn ). Como T es inyectiva,


tenemos que 1 v1 + + n vn = 0. Ahora, como {v1 , . . . , vn } es linealmente independiente, tenemos que
1 = = n = 0. De aqu concluimos que {T (v1 ), . . . , T (vn )} es linealmente independiente.

Supongamos que {T (v1 ), . . . , T (vn )} es linealmente independiente y supongamos que 1 v1 + +


n vn = 0. Entonces tenemos que 0 = T (0) = T (1 v1 + + n vn ) = 1 T (v1 ) + + n T (vn ). Como
{T (v1 ), . . . , T (vn )} es linealmente independiente tenemos que 1 = = n = 0. Por tanto {v1 , . . . , vn }
es linealmente independiente.
2. Como T es un isomorsmo, es en particular inyectivo y sobreyectivo, por tanto ker(T ) = {0} y W = Im(T ).
Entonces tenemos lo siguiente:
{T (v1 ), . . . , T (vn )} genera a W si y slo si {T (v1 ), . . . , T (vn )} genera a Im(T ) si y slo si para todo v V
o
o
existen constantes 1 , . . . , n tal que T (v) = 1 T (v1 ) + + n T (vn ) si y slo si para todo v V existen
o
constantes 1 , . . . , n tal que T (v) = T (1 v1 + + n vn ) si y slo si para todo v V existen constantes
o
1 , . . . , n tal que 0 = T (1 v1 + + n vn ) T (v) = T (1 v1 + + n vn v) si y slo si para todo
o
v V existen constantes 1 , . . . , n tal que 1 v1 + + n vn v ker(T ) = {0} si y slo si para todo
o
v V existen constantes 1 , . . . , n tal que 1 v1 + + n vn v = 0 si y slo si para todo v V existen
o
constantes 1 , . . . , n tal que v = 1 v1 + + n vn si y slo si {v1 , . . . , vn } genera a V .
o
3. Es inmediato de 1 y 2.
4. Es inmediato de 3
5. v v1 , . . . , vn si y slo si existen constantes 1 , . . . , n tal que v = 1 v1 + + n vn si y slo si
o
o
existen constantes 1 , . . . , n tal que T (v) = T (1 v1 + + n vn ) = 1 T (v1 ) + + n T (vn ) si y slo si
o
T (v) T (v1 ), . . . , T (vn ) .

Los isomorsmos satisfacen adems lo siguiente.


a
Teorema 2.6. Sean V, W espacios vectoriales sobre F, H V , K W y T : V W un isomorsmo,
entonces se cumple lo siguiente:
1. H es un subespacio de V si y slo si T (H) es un subespacio de W . Ms an, {v1 , . . . , vs } es base de H si
o
a u
y slo si {T (v1 ), . . . , T (vs )} es base de T (H).
o
2. K es un subespacio de W si y slo si T 1 (K) es un subespacio de V . Ms an, {w1 , . . . , wr } es base de
o
a u
K si y slo si {T 1 (w1 ), . . . , T 1 (ws )} es base de T 1 (K).
o

Demostracin. Se deja como ejercicio.


o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

71

Problemas

a R el espacio vectorial con suma denida por A B = AB donde

1 a
1 a
=
. Demuestre
AB denota el producto usual de matrices y el producto por escalar denido por
0 1
0 1
que V R.
=

1
Problema 2.2.1. Sea V =
0

Problema 2.2.2. Muestre que las siguientes transformaciones lineales de R3 en R3 son invertibles y determine
su transformacin lineal inversa.
o
1. T (x, y, z) = (x 3y 2z, y 4z, z).
2. T (x, y, z) = (x, x y, 2x + y z).

Problema 2.2.3. Sea T : R2 R2 dada por T (x1 , x2 ) = (x1 + x2 , x1 ) para todo (x1 , x2 ) R2 . Probar que T

es un isomorsmo y exhiba T 1 .

Problema 2.2.4. Sea U un espacio vectorial y S, T : U U transformaciones lineales invertibles. Probar que
S T es invertible y (S T )1 = T 1 S 1 .

Problema 2.2.5. Sean T : R3 R2 y S : R2 R3 transformaciones lineales.


1. Probar que S T no es invertible.
2. Hallar un ejemplo donde T S no es invertible y otro donde lo sea.

Problema 2.2.6. Sean V un espacio vectorial de dimensin nita y T : V V una transformacin lineal.
o
o

Suponga que exista S : V V tal que T S = IdV . Demuestre que T es invertible y S = T 1 . De un ejemplo

que muestre que lo anterior es falso cuando V no es de dimensin nita.


o

Problema 2.2.7. Sea T : U V una transformacin lineal inyectiva. Muestre que V tiene un subespacio
o
isomorfo a U .

72

Problema 2.2.8. Sea T : U V una transformacin lineal. Muestre que Im(T ) U/ ker(T ), donde U/ ker(T )
o
=
indica el espacio cociente de U por ker(T ).

Problema 2.2.9. Sea A Mn (R) y T : Mn (R)M (R) la funcin denida por T (X) = AX. Muestre que T es
o
una transformacin lineal y muestre que T es invertible si y slo si A es invertible.
o
o

2.3.

La matriz de una transformacin con respecto a dos bases


o

Lo primero que debemos observar es que todo espacio vectorial V de dimensin n sobre F es isomorfo a
o
Fn , el isomorsmo entre V y Fn se construye tomando una base arbitraria de V y notando que, al escribir un
vector como combinacin lineal de los elementos de la base, los coecientes determinan un vector en Fn , al cual
o
llamaremos vector representacin. Esto lo denimos a continuacin.
o
o
n

Denicin 2.4. Sea V un espacio vectorial sobre F y sea X = {v1 , . . . , vn } una base de V , para v =
o
denimos el vector representacin de v en la base X, vX , como el vector
o

i=1

i v i V ,

vX = (1 , . . . , n ).
Ejemplo 2.6. Sea X = {E11 , E21 , E12 , E22 } la base estndar de M22 (F), donde Eij es la matriz 22 con un 1
a

2 3
entonces tenemos que AX = (2, 1, 3, 1).
en la ij-sima entrada y ceros en las dems entradas, y sea A =
e
a
1 1

Por medio de la representacin de un vector en trminos de una base podemos mostrar que un espacio n
o
e

dimensional es isomorfo a Fn .
Teorema 2.7. Sea V un espacio vectorial y X = {v1 , . . . , vn } una base para V , entonces V Rn . Un isomor=

smo entre estos espacios est dado por la funcin RX : V Rn denida por RX (v) = vX , a esta funcin se
a
o
o
le conoce como el isomorsmo representacin en la base X.
o
Demostracin. Veamos que RX es un isomorsmo.
o
RX es lineal: Sean v, w V y R, como {v1 , . . . , vn } es una base para V , existen 1 , . . . , n , 1 . . . , n F
tal que v = 1 v1 + + n vn y w = 1 v1 + + n vn , luego
RX (v + w) = RX (1 v1 + + n vn + 1 v1 + + n vn ) = RX ((1 + 1 )v1 + + (n + n )vn )
= (1 + 1 , . . . , n + n ) = (1 , . . . , n ) + (1 , . . . , n )
= RX (1 v1 + + n vn ) + RX (1 v1 + + n vn )
= RX (v) + RX (w).


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

73

RX (v) = RX ((1 v1 + + n vn ))
= RX (1 v1 + + n vn )
= (1 , . . . , n ) = (1 , . . . , n )
= RX (1 v1 + + n vn )
= RX (v).
RX es inyectiva: Para esto veamos que ker(RX ) = {0}.
Sea v = 1 v1 + + n vn ker(RX ), entonces 0 = RX (v) = (1 , . . . , n ). Entonces 1 = = n = 0
y por tanto v = 0.
La otra inclusin es inmediata ya que T (0) = 0 y por tanto 0 ker(T ).
o

RX es sobreyectiva: Sea y = (1 , . . . , n ) Fn , y sea v = 1 v1 + + n vn V , entonces tenemos que


RX (v) = RX (1 v1 + + n vn ) = (1 , . . . , n ) = y.
Por tanto RX es sobreyectiva.
Concluimos que RX es un isomorsmo.
Ejemplo 2.7. El conjunto {1, t, t2 , t3 } es una base del espacio V = P3 , por tanto V es isomorfo a R4 y un
isomorsmo entre estos espacios est dado por
a
RX (a0 + a1 t + a2 t2 + a3 t3 ) = (a0 , a1 , a2 , a3 ).
A continuacin denimos la matriz de una transformacin con respecto a dos bases.
o
o
Denicin 2.5. Sea T : V W una transformacin lineal y sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm }
o
o
bases de V y W , respectivamente. Denimos la matriz de T con respecto a las bases X y Y ,

TX , como la

matriz dada por:


Y

TX = T (v1 )Y

T (v1 )Y .

Ejemplo 2.8. Sea D : R3 [t] R2 [t] la transformacin lineal denida por D(p(t)) = p (t) y sean X =
o

{1, t, t2 , t3 } y Y = {1, t, t2 } bases de R3 y R2 , respectivamente. Ntese que la imagnes de los vectores de la base
o
e
X y sus representaciones en la base Y son las siguientes:
D(1) = 0
D(t) = 1

Se sigue que

DX = 0 0
Y

0 0

por tanto D(t2 )Y = (0, 2, 0)

D(t3 ) = 3t2
0 1

por tanto D(t)Y = (1, 0, 0)

D(t2 ) = 2t

por tanto D(1)Y = (0, 0, 0)

por tanto D(t3 )Y = (0, 0, 3)

0 0

2 0 .

0 3

74
Ejemplo 2.9. Sea T : R2 [t] R3 [t] denida por T (a0 + a1 t + a2 t2 ) = a0 t + a1 t2 + a2 t3 y sean X = {1, t, t2 , t3 }
y Y = {1, t, t2 } bases de R2 [t] y R3 [t], resepectivamente. Entonces tenemos que
T (1) = t

por tanto

T (1)X = (0, 1, 0, 0)

por tanto

T (t)X = (0, 0, 1, 0)

por tanto

T (t2 )X = (0, 0, 0, 1)

T (t) = t

T (t2 ) = t3
Se sigue que

X TY

= T (1)X

T (t2 )X

T (t)X

0 0

1 0
=

0 1

0 0

0
.

Las principales propiedades de la matriz de la transformacin son las siguientes.


o
Teorema 2.8. Sea T : V W una transformacin lineal y sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases
o
de V y W , respectivamente, entonces se cumple lo siguiente:
1. para todo v tenemos que T (v)Y = Y TX vX ,
2. la matriz

TX la unica con la propiedad enunciada en

tem 1.

Demostracin.
o

1. Sea v = 1 v1 + + n vn V , entonces tenemos que vX = (1 , . . . , n ) y

T (v) = 1 T (v1 ) + + n T (vn ).


Como el isomorsmo representacin en una base es lineal tenemos que
o
T (v)Y = RY (T (v)) = 1 RY (T (v1 )) + + n RY (T (vn ))

= 1 T (v1 )Y + + n T (vn )Y = [T (v1 )Y T (vn )Y ]

.
.
.

= Y TX v X

2. Sea A Mmn F tal que T (v)Y = AvX para todo v V . En particular para i = 1 . . . , n se tiene que
T (vi )Y = A(vi )X .
Pero (vi )X = ei = (0, . . . , 1 , . . . , 0), entonces T (vi )Y = A(vi )X = Aei = isima columna de A. Por
e
i

tanto

A = [T (v1 )Y T (vn )Y ] = Y TX .

Ejemplo 2.10. Sea T : R2 [t] R3 [t] denida por T (a0 + a1 t + a2 t2 ) = a0 t + a1 t2 + a2 t3 y sean X y Y las
bases denidas en el ejemplo anterior, en ese mismo ejemplo vimos que

X TY

Sea v = 2 t entonces vY = (2, 0, 1), por tanto


T (v)X = X TY vY =
Concluimos que T (v) = 2t t3 .

0
1
0
0

0
0
1
0

0
0
0
1

2
0
1

0
2
0
1

0
1
0
0

0
0
1
0

0
0
0
1


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

75

En la siguiente proposicin mostramos que la matriz de la composicin de dos transformaciones es el producto


o
o
de la respectivas matrices.
Proposicin 2.9. Sean T : U V y S : V W transformaciones lineales y sean X, Y y Z bases de U , V
o
y W , respectivamente, entonces la matriz de la transformacin S T con respecto a las bases X y Z est dada
o
a
por
Z (S

T )X = Z SY Y TX ,

es decir, la matriz de la composicin S T es el producto de las respectivas de S y de T .


o
Demostracin. Por el Teorema anterior aplicado a las matrices Z SY y
o
Z SY

TX tenemos que

Y TX uX = Z SY Y T (u)Y = S(T (u))Z = S T (u)Z .

Por la condicin de unicidad de la matriz de Z (S T )X tenemos que Z (S T )X = Z SY Y TX .


o
Ejemplo 2.11. Sean D y T las transformaciones de los ejemplos 2.8 y 2.9. Por la proposicin anterior tenemos
o
que la matriz

(D T )Y de D T est dada por


a

1 0

(D T )Y = Y DX X TY = 0 2

0 0

0 .

De esto se deduce que D T (1) = 1, D T (t) = 2t y D T (t2 ) = 3t2 , lo cual es fcil de vericar al aplicar la
a
composicin.
o
Tambin se sigue que
e

X (T

D)X = X TY Y DX

0
=

0 0
1 0
0 2
0 0

0
.

Del Teorema 2.8 obtenemos que el conjunto de transformaciones lineales L(V, W ) de V en W con V y W de
dimensiones n y m, respectivamente, est en correspondencia uno a uno con el conjunto de matrices Mm,n (R),
a
la correspondencia depende de la escogencia de bases X de V y Y de W
L(V, W )

Mm,n (R)

A = X TY

T (v)Y = AvX

la correspondencia es tal que la composicin de transformaciones se traduce en producto de matrices, tambin


o
e
es fcil ver que la inversa de una transformacin invertible se corresponde con la inversa de su matriz.
a
o
Ms adelante veremos la utilidad de esta correspondencia ya que usaremos la matriz de una transformacin
a
o
para conseguir informacin util acerca de la transformacin, por ejemplo, la usaremos para calcular el kernel y
o
o

76
la imagen de la transformacin, tambin para determinar si una transformacin lineal es inyectiva, si es sobre,
o
e
o
si es biyectiva, tambin usaremos la correspondencia para demostrar ciertas propiedades importantes de las
e
transformaciones lineales.

2.4.

Cambio de Base

Si V es un espacio vectorial y X y Y son bases de V , sabemos que podemos representar a un vector V


en trminos de la base X y tambin en trminos de la base Y , es decir, tenemos tanto el vector vX y vY . A
e
e
e
continuacin denimos la matriz de cambio de base y mostraremos como se puede usar esta matriz para calcular
o
vY si se conoce vX .
Denicin 2.6. Sea V un espacio vectorial sobre F de dimensin nita n y sean X = {v1 , . . . , vn } y Y bases
o
o
de V , denimos la matriz

Y IX

de cambio de la base X a la base Y como la matriz


Y IX

= [(v1 )Y . . . (vn )Y ] .

Ntese que esta es exactamente la matriz de la transformacin identidad con respecto a las bases X y Y .
o
o
Proposicin 2.10. Si V un espacio vectorial sobre F de dimensin nita n y sean X = {v1 , . . . , vn } y Y bases
o
o
de V entonces tenemos que
1.

Y IX vX

2.

Y IX

= vY para todo v V ,

es unica con la propiedad expuesta en

tem anterior.

Demostracin. La matriz
o

Y IX

es la matriz de la transformacin identidad entonces el resultado se sigue del


o

Teorema 2.8.
Ejemplo 2.12. Sea X = {p1 = 1 + t, p2 = 1 t2 , p3 = 1 + t + t2 } y Y = {1, t, t2 } bases de R2 [t] entonces
tenemos que
Y IX

= [(p1 )Y (p2 )Y (p3 )Y ] = 1


0

0 1

1 .

Ntese adems que si p = 2p1 + p2 p3 entonces pX = (2, 1, 1) y por tanto


o
a

2
2
1
1 1

pY = Y I X pX = 1
0 1 1 = 1 .

2
1
0 1 1

Es decir p = 2 + t t2 , lo cual es fcil de vericar reemplazando directamente a p1 , p2 y p3 en la ecuacin


a
o
p = 2p1 + p2 p3 .


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

77

Ejemplo 2.13. En realidad la matriz de de base es una matriz de cambio coordenadas, considere por
cambio

de

1
2
0
1
ejemplo las bases E = e1 = , e2 = and X = v1 = , v2 = bases de R2 , en la siguiente

2
1
1
0
gura vemos los dos pares de ejes coordenados y un vector w en trminos de ambas bases
e

w
w

v2

v1

e2
e1

Por denicin tenemos que


o

E IX

= [(v1 )E (v2 )E ] =

2 1
1


2
Como se ve en la gura el vector w = 2v1 + v2 tiene coordenadas en esta base wX = , por tanto el vector
1
w tiene coordenadas estndar dadas por
a

3
2
2 1
= .
w = wE = E I X wX =
4
1
1
2
Esto se verica facilmente de la gura ya que las coordenadas del vector w en trminos de la base E son (3,4).
e
Otras propiedades importantes de la matriz de cambio de base son las siguientes:
Proposicin 2.11. Sea V un espacio vectorial y sean X, Y y Z bases de V , entonces tenemos lo siguiente:
o
1. La matriz de cambio de base
2.

Z IY

IX es invertible y (Y IX )1 = X IY .

Y IX = Z IX

Demostracin.
o

1. Ntese que para todo v V tenemos que


o
X IY Y IX vX

= X IY vY = vx

=vY

como esto es para todo v se sigue que

X IY Y IX

= I y por tanto (Y IX )1 = X IY .

78
2. En este caso tenemos que para v V arbitrario
Z IY

Y IX vX = Z IY vY = vz ,

la igualdad se sigue de propiedad de unicidad de Z IX , es decir, Z IY Y IX vX = Z IX .

Esta ultima proposicin nos da el siguiente procedimiento fcil para calcular la matriz de cambio de base.

o
a
Procedimiento 2.1. Si X = {v1 , . . . , vn } y Y = {w1 , . . . , wn } son bases de un espacio vectorial V y si
E = {e1 , . . . , en } es cualquier base de V (por ejemplo una base estndar) entonces hacemos lo siguiente:
a
1. Sea A = [ (v1 )E (vn )E ] la matriz formada por los vectores de la base X representados trminos en la
e
base E y B = [ (w1 )E (wn )E ] la matriz formada por los vectores de la base B representados trminos
e
en la base E, es decir, A = E IX y B = E IY .
2. De acuerdo a la proposicin anterior tenemos que
o
= Y IE E IX = B 1 A.

1
1
1
3
Ejemplo 2.14. Sean X = v1 = , v2 = y Y = w1 = , w2 = , calcule la matriz de

2
1
1
1
cambio de base de X a Y .
Y IX

Solucin. Las matrices de cambio de base a la base estndar estn dadas por
o
a
a

3
1
1 1
.
y B = [ (w1 )E (w1 )E ] = [ w1 w2 ] =
A = [ (v1 )E (v1 )E ] = [ v1 v2 ] =
1 1
1 2

2 3
.
Un calculo fcil muestra que Y IX = B 1 A = 1
a
4
2
5
As por ejemplo, el vector v = 3v1 + 2v2 que en la base X est dado por v = (3, 2), en la base Y est dado

a
a
por

se sigue que v = w2 .

1 2 3 3 0
,
=
vY = Y IX vX =
4 2
1
2
5

La siguiente proposicin es similar a la Proposicin 2.11 y tambin nos da un procedimiento para calcular
o
o
e
la matriz de una transformacin con respecto a dos bases.
o
Proposicin 2.12. Sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases de espacios vectoriales V y W , respectio
vamente, y sea T : V W una transformacin lineal. Si A = [ (v1 )F (vn )F ] la matriz formada por los
o
vectores de la base X representados en trminos en una base estndar F de V y B = [ (w1 )E (wm )E ] la
e
a
matriz formada por los vectores de la base Y representados en trminos de una base estndar E de W , es decir,
e
a
A = F IX y B = E IY , entonces tenemos que
Y

TX = Y IE E TF F IX = B 1 E TF A.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

79

Demostracin. Sea v V , entonces tenemos que


o
Y IE

E TF F IX vX = Y IE E TF vF = Y IE T (v)E = T (v)Y .

Por la propiedad de unicidad de la matriz de la transformacin enunciada en la Proposicin 2.8 tenemos que
o
o
Y

TX = B 1 E TF A.

Ejemplo 2.15. Sea D : R3 [t] R2 [t] la transformacin derivacin D(p(t)) = p (t), denida en el Ejemplo
o
o
2.8. Sean F = {1, t, t2 , t3 } y E = {1, t, t2 } las bases estndar de R3 [t] y R2 [t], respectivamente. Sean X = {x1 =
a

1 + t + t2 , x2 = 1 t, x3 = t t2 , x4 = t2 t3 } y Y = {y1 = 1 + t, y2 = 1 + t2 , y3 = 1 + t + t2 } otras bases de


R3 [t] y R2 [t], respectivamente, calcular

DX .

Solucin. En el Ejemplo 2.8 encontramos que


o

E DF

0 1

= 0 0

0 0

De la denicin de las bases X y Y tenemos lo siguiente:


o
A = F IX = [(x1 )F (x2 )F (x3 )F (x4 )F ] =

1 1 0 0
1 1 1 0
1 0 1 1
0 0 0 1

0 0

2 0 .

0 3

and B = E IY = [(y1 )E (y2 )E (y3 )E ] =

1 1 1
1 0 1
0 1 1

DX = B 1 E DF A, y usando MatLab para el clculo se obtiene que


a

1 1
1
3

1
3 2 .
Y DX = B
E DF A = 1 1

1
1 3 1

El Teorema anterior nos dice que

Esta matriz es util para hacer clculos directamente con las bases X y Y , por ejemplo, si v = 2x1 + x3 + 2x4

a
entonces tenemos que
D(v)Y = Y DX vX =

1 1 1 3
1 1 3 2
1 1 3 1

2
0
1
2

9
3
3

por tanto D(v) = 9y1 3y2 3y3 .


En el siguiente corolario se relacionan las matriz de una transformacin con respecto a una base con la matriz
o
de la transformacin con respecto a otra base.
o
Corolario 2.13. Sea V un espacio vectorial T : V V una transformacin lineal y sean X y Y bases de V ,
o
si A = X IY es la matriz de cambio de base entonces tenmos que
Y

TY = A1 X TX A.

La importancia de este corolario la veremos en el cap


tulo de valores y vectores propios, ah veremos que

esto signica que las matrices de una transformacin con respecto a bases distintas son similares.
o

80
Ejemplo 2.16. Sea D : R2 [t] R2 [t] la transformacin derivacin D(p(t)) = p (t). Es fcil ver que la matriz
o
o
a
de D con respecto a la base E = {1, t, t2 } est dada por
a

E DE

0 1 0
0 0 2
0 0 0

Sea F = {p1 = 1 t t2 , p2 = 1 + t, p3 = 1} una base de R2 [t], la matriz de cambio de base de est dada por
a
A = E IF =

1 1 1
1 1 0
1 0 0

Se sigue que la matriz de D con respecto a la base F est dada por


a

0 0 0

1
F DF = A
E DE A = 2 0 0 .

1 1 0

Esto se verica fcilmente ya que


a

D(p1 ) = D(1 t t2 ) = 1 2t = 2p2 + p3 ,


As D(p1 )F =

0
2
1

, D(p2 )F =

0
0
1

y D(p3 )F =

0
0
0

D(p2 ) = D(1 + t) = 1 = p3

D(p3 ) = 0.

El siguiente resultado que muestra como se puede usar la matriz de una transformacin para calcular el
o
kernel y la imagen.
Teorema 2.14. Sean V y W espacios vectoriales sobre un campo F, T : V W una aplicacin lineal,
o
X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases de V y W , respectivamente y A = Y TX la matriz de T con respecto

a las bases X y Y . Si RX : V Rn y RY : W Rm son los isomosmos representacin en trminos de las


o
e

bases X y Y , respectivamente, entonces tenemos lo siguiente


1. ker T = RX 1 (N ul(A)).
2. ImT = RY 1 (Col(A)).
Demostracin.
o

1. Hacemos las demostracin en ambos casos por equivalencias.


o
v ker T si y slo si 0 = T (v) si y slo si 0 = Y TX vX = AvX
o
o
si y slo si vX = RX (v) = N ulA si y slo si v RX 1 (N ulA)
o
o

2.
w ImT si y slo si w = T (v) para algn v V
o
u
si y slo si wY = T (v)Y = Y TX vX = AvX para algn v V
o
u
si y slo si RY (w) = AvX para algn v V
o
u
si y slo si RY (w) ColA si y slo si w RY 1 (ColA).
o
o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
Ejemplo 2.17. En el ejemplo anterior tenemos que A = E DE =
ColA = gen

1
0
0

Como RX (1) =

0
1
0
1
0
0

81
0 1 0
0 0 2
0 0 0

y se sigue que N ulA = gen

1
0
0

.
y RX (t) =

0
1
0

se tiene que

1
ker D = Rx (N ulA) = gen{1}

1
ColD = Rx (ColA) = gen{1, t}.

Terminamos la seccin con el siguiente resultado que se desprende del anterior.


o
Corolario 2.15. Sea T : V W una aplicacin lineal entonces se tiene que
o
dim ker T + dim ImT = dim V.
Demostracin. Del Corolario 1.17 tenemos que dim N ulA + dim ColA = # de columnas de A = dim V .
o
Como RX es un isomorsmo, el Teorema 2.6 y el teorema anterior implican que dim N ulA = dim ker T y
dim ColA = dim ImT .
Concluimos que dim ker T + dim ImT = dim V.

2.5.

Transformaciones Lineales y Suma Directa de Espacios

Terminamos el cap
tulo con un resultado que ser muy util en los Cap
a

tulos 3 y 4.
Teorema 2.16. Sea V un espacio vectorial, W1 y W2 subespacios de V y T : V V una transformacin
o
lineal. Si H1 y H2 son T invariantes y V = W1 W2 entonces Im(T ) = T (W1 ) T (W2 ).
Ms an, si X1 y X2 son bases de W1 y W2 , respectivamente, y X = X1 X2 entonces
a u

A 0

X TX =
0 B

o
donde A = X1 (T /W1 )X1 es la matriz de la restriccin de T a W1 con respecto a la base X1 y B = X2 (T /W2 )X2
es la matriz de la restriccin de T a W2 con respecto a la base X2 .
o
Demostracin. la primera parte ntese que si w Im(T ), entonces existe v V tal que T (v) = w, y por
o
o
hiptesis, existen v1 W1 y v2 W2 unicos, tal que v = v1 + v2 . Por tanto
o

w = T (v) = T (v1 + v2 ) = T (v1 ) + T (v2 ) T (W1 ) + T (W2 ).


De la unicidad de v1 y v2 se sigue que Im(T ) T (W1 ) T (W2 ). La otra inclusin es clara ya que T (W1 ) ImT
o
y T (W2 ) ImT .
Para la segunda parte, sean X1 = {v1 , . . . , vr } y X2 = {w1 , . . . , ws } bases de W1 y W2 , respectivamente.
Como W1 y W2 son T invariante tenemos que
s

ij vj

T (vi ) =
j=1

kh wh

T (wk ) =
h=1

para

i = 1, . . . , r y k = 1, . . . , s.

(2.1)

82
Se sigue entonces que

X TX

11
.
.
.

k1
=

.
.
.
0

..
.

1r
.
.
.

0
.
.
.

..
.

kr

..
.

0
.
.
.

11
.
.
.

..
.

s1

0
.
.
.

0
A 0
=
.

1s
0 B

.
.
.
ss

De la Ecuacin 2.1 se sigue que A = X1 (T /W1 )X1 y B = X2 (T /W2 )X2 .


o

Problemas
Problema 2.5.1. Seai T : V V es una transformacin lineal tal que T 2 = T , demuestre lo siguiente
o
1. V = Im(T ) ker(T ).
2. Si existe tal que T (v) = v para algn v V entonces = 0 o = 1
u
3. La imagen de T es el conjunto de puntos jos de T , es decir, ImT = {v V | T (v) = v}.
Problema 2.5.2. Demuestre que si P es una matriz proyeccin, es decir, si P 2 = P y P = I entonces
o
det P = 0.
Problema 2.5.3. Si T : V W es un isomorsmo y V = H1 H2 entonces W = T (H1 ) T (H2 ).
Problema 2.5.4. Sea T : V V una aplicacin lineal, demuestre que existe k > 0 tal que V = Im(T k )
o
Ker(T k ).

Problema 2.5.5. Sea T : V V una aplicacin lineal, si ImT = Im(T 2 ) entonces ImT N ulT = {0} y
o
V = ImT KerT .
Problema 2.5.6. Sea T : V V una TL con V = W1 W2 , si W1 , W2 son T -invariantes demuestre que T
es un isomorsmos si y slo si T/W1 y T/W2 son isomorsmos.
o

Cap
tulo 3

Valores y Vectores Propios


Comenzamos este libro con el tpico de valores y vectores propios, el el cual es uno de los ms importantes
o
a
en el lgebra lineal y tal vez del cual se conocen ms aplicaciones dentro de las matemticas y a otras reas. El
a
a
a
a
objetivo principal es estudiar la diagonalizacin de matrices y los criterios para que una matriz sea diagonalizable.
o
El cap
tulo en s es una motivacin para estudiar la descomposicin Jordan de una matriz, ya que como veremos,
,
o
o
no toda matriz es diagonalizable, pero en el prximo cap
o
tulo veremos que toda matriz tiene una forma Jordan.

3.1.

Polinomio Caracter
stico

Denicin 3.1. Sea A una matriz de tamao nn, decimos que es un valor propio de A si existe un vector
o
n
v tal que Av = v. En este caso decimos que v es un vector propio de valor propio .
Si es un valor propio de una matriz A y v es un vector propio de valor propio entonces se tiene que la
Av = v = Iv o equivalentemente (A I)v = 0. Esto es, v N ul(A I) y por tanto det(A I) = 0. Esta
ultima ecuacin produce un polinomio en trminos de y es llamado el polinomio caracteristico de A.

o
e
Teorema 3.1. Sea A una matriz de tamao nn, entonces es un valor propio si y solo si det(A I) = 0.
n
Demostracin. es un valor propio si y solo si existe v = 0 tal que Av = v si y solo si existe v = 0 tal que
o
Av = Iv si y solo si existe v = 0 tal que Av Iv = 0 si y solo si existe v = 0 tal que (A I)v = 0 si y solo
si A I no es invertible si y solo det(A I) = 0.
A continuacin denimos el polinomio caracter
o
stico de una matriz, este polinomio contiene informacin
o
importante de la matriz, en particular sus ra
ces son los valores propios.
Denicin 3.2. Sea A una matriz de tamao nn, denimos el polinomio caracteristico pA (x) de A por
o
n
pA (x) = det(A xI).
83

84
Del teorema anterior se deduce el siguiente procedimiento para calcular los valores y vectores propios de una
matriz A.
Procedimiento 3.1. (Procedimiento para calcular los valores y vectores propios)
1. Calcular el polinomio caracteristico pA (x) = det(A xI),
2. Resolver la ecuacin pA (x) = 0, cuyas soluciones son los valores propios de la matriz.
o
3. Para cada valor propio encontrado en en el paso anterior, calcular una base para N ul(A I). Los
vectores en dicha base son vectores propios de valor propio .

4 5
calcular los valores y vectores propios de A.
Ejemplo 3.1. Sea
2 3
El polinomio caracteristico de A, est dado por
a

4x
5
= x2 x 2
pA (x) = det(A xI) = det
2
3 x
Ahora resolvemos pA (x) = (x 2)(x + 1) = 0 cuyas soluciones son = 2 y = 1.

2 5
, cuya forma escalonada
Ahora calculamos N ul(A I) con = 2. Esto es, N ul(A 2I) = N ul
2 5

1 5
2
reducida es
. De esto tenemos que
0 0



5
5
x
x
2 y
N ul(A 2I) si y solo si x = 5 y si y solo si =
= y 2
2
y
1
y
y

5

Entonces v = 2 es un vector propio de valor propio = 2.


1

Ahora calculamos N ul(A I) con = 1. Esto es, N ul(A + I) = N ul

reducida es

1 1

. De lo anterior tenemos que

5
2

5
, cuya forma escalonada
2




1
y
x
x
N ul(A + I) si y solo si x = y si y solo si = = y
1
y
y
y

1
Entonces v = es un vector propio de valor propio = 1.
1

En el ejemplo anterior se puede ver que los vectores propios encontrados son linealmente independientes, esto
no es una casualidad, de hecho vectores propios correspondientes a valores propios distintos son linealmente
independientes.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

85

Teorema 3.2. Sea A una matriz de tamao nn y sean v1 , . . . , vk vectores propios con valores propios
n
1 , . . . , k , respectivamente. Si los i son diferentes entre si entonces los vectores v1 , . . . , vk son linealmente
independientes.
Demostracin. Por induccin sobre k
o
o
Para k = 2, supongamos que
1 v 1 + 2 v 2 = 0

(3.1)

multiplicando por A ambos lados obtenemos 1 Av1 +2 Av2 = 0, equivalentemente


1 v 1

2 v 2

1 1 v1 + 2 2 v2 = 0.

(3.2)

Ahora multiplicamos la ecuacion (3.1) por 1 obtenemos


1 1 v1 + 2 1 v2 = 0.

(3.3)

Restando la Ecuacin (3.3) de la Ecuacin (3.2) tenemos que 2 (1 2 )v2 = 0, como 1 = 2 entonces
o
o
1 2 = 0 y como v2 = 0 entonces 2 = 0, reemplazando este valor en la Ecuacin (3.1) tenemos que 1 v1 = 0
o
y como v1 = 0 entonces 1 = 0 y por tanto v1 y v2 son linealmente independientes.
Supongamos por induccin que k 1 vectores propios correspondientes a k 1 valores propios distintos son
o
linealmente independientes y supongamos que
1 v1 + + k vk = 0,

(3.4)

multiplicando por A ambos lados tenemos que 1 Av1 + + k Avk = 0 o equivalentemente


1 v1

k vk

1 1 v1 + + k k vk = 0.

(3.5)

Ahora, multiplicando a ambos lados de la Ecuacin (3.4) por k tenemos


o
1 k v1 + + k k vk = 0.

(3.6)

Restando la Ecuacin (3.6) de la Ecuacin (3.5)obtenemos


o
o
1 (1 k )v1 + + k1 (k1 k )vk1 = 0.
Como v1 , . . . , vk1 son k 1 vectores propios correspondientes a distintos valores propios entonces por hiptesis
o
de induccin son linealmente independientes, por tanto
o
1 (1 k ) = = k1 (k1 k ) = 0
=0

=0

como 1 k = 0, , k1 k = 0 entonces 1 = = k1 = 0. Reemplazando estos valores en la Ecuacin


o
(3.4) obtenemos k vk = 0 y como vk = 0 entonces k = 0 y por tanto los vectores v1 , . . . , vk son linealmente
independientes.

86
Denicin 3.3. Sea A una matriz de tamao nn, al conjunto
o
n
E = {v : Av = v}
se le llama el subespacio propio de valor propio .
Observacin 3.1. Ntese que E = N ul(A I) y por tanto E es un subespacio de Rn .
o
o


5
1
Ejemplo 3.2. En el Ejemplo 3.1 tenemos que E2 = 2 y E1 = .
1
1

5
6
9

Ejemplo 3.3. Calcule los valores y vectores propios de la matriz A = 3 4 9.

0
0
2
Solucin. Usando MatLab o Mupad encontramos que el polinomio caracter
o
sitco de A est dado por pA =
a
x3 3x2 + 4 = (x + 1)(x 2)2 . Por tanto los valores propios son 1 = 1 de multiplicidad 1 y 2 = 2 de
multiplicidad 2.
Nuevamente usando paquetes computacionales tenemos que los subespacios propios son E1


y E2 = gen 1 , 0

0
1

= gen 1

A cada valor propio de una matriz le podemos asociar dos invariantes: la multiplicidad algebraica y la

dimensin del subespacio propio E , estos dos valores tienen gran importancia porque nos permiten decidir
o
cuando una matriz es o no diagonalizable, concepto que estudiaremos en la Seccin 3.4.
o
Denicin 3.4. Sea A una matriz de tamao nn, pA (x) el polinomio caracter
o
n
stico y sean 1 , . . . s los valores
propios de A,
1. Decimos que la multiplicidad algebrica de i , es k si (x i )k es la mxima potencia de x i que divide
a
a
a pA (x). La multiplicidad algebraica de ser denotada por a .
a
e
a
2. La multiplicidad geomtrica de i esta dada por dim Ei . La multiplicidad geomtrica de ser denotada
e
por g .
Ejemplo 3.4. En el ejemplo anterior tenemos que a1 = 1 = g2 y a2 = 2 = g2 .
Ejemplo 3.5. En el Ejemplo 3.1 tenemos que a1 = g1 = 1 y a2 = g2 = 1.
Ejemplo 3.6. Calcular la multiplicidad algebraica y geomtrica de cada uno de los valores de la matriz
e

3 1
0
0

1
3
0
0

.
A=

7 1 4
0

7 1
0 4


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

87

Solucin. El polinomio caracter


o
stica de esta matriz es pA (x) = (x + 4)2 (x 4)(x + 2), luego los valores propios
de esta matriz son 1 = 4, 2 = 4 y 3 = las
2 y multiplicidades
a
algebraicas son a4 = 2, 4 = 1 = a2 .

1/2
1/2

0 0
1/2
1/2

y E4 =
y por tanto las
Los subespacios propios son E4 = gen , , E2 =

1 0
1/2
1/2

0
1/2
1/2

respectivas multiplicidades geomtricas son g4 = 2 y g2 = 1 = g4 .


e

Ntese que en este ejemplo se tiene que los valores propios tienen multiplicidad geomtrica y algebrica
o
e
a

iguales.
Hasta ahora solo hemos visto ejemplos donde los valores propios tienen multiplicidad geomtrica y algebraica
e
iguales, pero esto no siempre se cumple, de hecho es posible que la multiplicidad geomtrica sea estrictamente
e
menor que la multiplicidad algebrica, a continuacin damos ejemplos donde esto sucede. La multiplicidad
a
o
algebraica nunca puede ser menor que la geomtrica, ver Teorema 3.4.
e
Ejemplo 3.7. Calcular las multiplicidades algebrica
a

A= 1

y geomtrica de los valores propios de la matriz


e

2
1

6
1 .

2 3

Solucin. El polinomio caracter


o
stico de esta matriz est dado por pA (x) = (4 + x)3 , por tanto = 4 es el
a

unico valor propio con multiplicidad algebrica 3.

a
2


El subespacio propio E4 tiene base dada por 1 , 0 , lo cual muestra que g3 = 2 < 3 = a3 .

0
1

Ejemplo 3.8. Calcular las multiplicidades algebrica y geomtrica de los valores propios de la matriz
a
e

4 1
1

A = 0 5
1 .

1
0 3

Solucin. El polinomio caracter


o
stico de esta matriz est dado por p(x) = (4 + x)3 , luego = 4 es el unico
a

valor propio de A y su multiplicidad algebraica es a4 = 3.


Una base para el subespacio propio de E4


est dada por 1 . Por tanto g3 = 1 < 3 = a3 .
a

Como los valores propios son las ra de el polinomio caracter


ces
stico, y sabemos que existen polinomios con
coecientes reales (incluso enteros) y ra
ces complejas, entonces tambin existen matrices con entradas reales
e
(incluso enteras) y valores propios complejos, a continuacin damos un ejemplo.
o

88

1 2 2

Ejemplo 3.9. Calcular los valores y vectores propios de la matriz A = 2 1 2.

4 1 3
Solucin. El polinomio caracter
o
stico de esta matriz es el polinomio pA (x) = x3 x2 + x 1 = (x 1) (x2 + 1)
De aqui deducimos que los valores propios 1 = 1,2 = i y 3 = i. los respectivos vectores propios son
son

1/3
3/5 1/5i
3/5 + 1/5i

v1 = 2/3 de valor propio = 1, v2 = 3/5 1/5i de valor propio = i y v3 = 3/5 + 1/5i de valor

1
1
1
propio = i.

3.2.

Matrices Similares

Denicin 3.5. Sean A y B matrices de tamao nn, decimos que A y B son similares si existe una matriz
o
n
invertible C tal que A = CBC 1 . Escribiremos A B para denotar que A y B son similares.

1
3 0
2 1
son similares, ya que si tomamos C =
y B =
Ejemplo 3.10. Las matrices A =
1
0 1
1 2
entonces tenemos que A = CBC 1 .

La siguiente propiedad de matrices similares es importante para lo que sigue.


Teorema 3.3. Sean A y B matrices de tamao nn, si A y B son similares entonces pA (x) = pB (x) y por
n
tanto A y B tienen los mismos valores propios.
Demostracin. Como A y B son similares, entonces existe una matriz invertible C tal que B = CAC 1 ,
o
pB (x) = det(B xI) = det(CAC 1 xI) = det(CAC 1 xCIC 1 )
= det C(A xI)C 1 = det(C) det(A xI) det(C 1 )
= det(C) det(A xI)

1
= det(A xI)
det(C)

= pA (x).

Denicin 3.6. Sea A una matriz de tamao nn, decimos que A es diagonalizable si existe una matriz
o
n
diagonal D tal que A D.

Ejemplo 3.11. La matriz A =

la matriz diagonal

3
0

0
.
1

2
1

1
es diagonalizable ya que en el Ejemplo 3.10 vimos que A es similar a
2


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

89

El Teorema 3.3 nos permite ver de manera fcil que no todas las matrices son diagonalizables, como se
a
muestra a continuacin.
o

1
no es diagonalizable. Por el absurdo supongamos que existe
1

a 0
.
una matriz D diagonal tal que A D, supongamos que D =
0 b
Ntese que los valores propios de A son = 1 con multiplicidad 2 y los valores propios de D son = a y
o

1
Ejemplo 3.12. Veamos que la matriz A =
0

= b. Como A D, entonces por el Teorema 3.3 A y D tienen los mismos valores valores propios, por tanto
a = b = 1, entonces D = I.
Finalmente, como A D, existe una matriz invertible C tal que A = CDC 1 por tanto

1 1
0 1

= A = C D C 1 = CIC 1 = I =
=I

1
0

De esta igualdad se debe dar que 1 = 0, lo que es absurdo. Concluimos que A no es diagonalizable.

Este ejemplo tambin muestra que el rec


e
proco del Teorema 3.3 no es cierto ya que la matriz A =

la matriz identidad tienen los mismos valores propios, sin embargo no son similares.

1 1
0 1

En los ejemplos de la seccin anterior vimos que la multiplicidad geomtrica de de los valores propios es
o
e
menor o igual a la multiplicidad algebraica, esto es cierto en general.
Teorema 3.4. Sea A una matriz de tamao nn y sea un valor propio de A, entonces g a , es decir,
n
multiplicidad geomtrica de multiplicidad algebra de .
e
ca
Demostracin. Sea un valor propio de A, Como es un valor propio, entonces existe v = 0 tal que Av = v
o
y por tanto E = 0.
Supongamos que dim E = k y sean v2 , . . . , vk tal que {v, v2 , . . . , vk } es una base para E , entonces

Avi = vi para i = 1, . . . , k. Ahora sean wk+1 , . . . , wn tal que {v, v2 , . . . , vk , wk+1 , . . . , wn } es una base para Rn
y sea
S= v

v2

...

vk

wk+1

...

wn , como {v, v2 , . . . , vk , wk+1 , . . . , wn } es una base, entonces S es invertible

y se tiene que
I = S 1 S = S 1 v
= S 1 v

v2

S 1 v2

vk

wk+1
S 1 vk

wn

S 1 wk+1

S 1 wn ,

de donde S 1 v = e1 , S 1 v2 = e2 , . . . , S 1 vk = ek .
Ahora denamos B = S 1 AS, entonces como A y B son similares, por el teorema anterior tenemos que

90
pA (x) = pB (x) y la matriz B tiene la siguiente forma:
B = S 1 AS = S 1 A v
Av

=S

Avk
v

v 2

S 1 v

S 1 v2

S 1 v

Av2

= S 1

v2

v k

= e1

e2

e2

Awn

Awk+1

Awn

S 1 Awk+1

S 1 Awn

ek

S 1 Awk+1

ek

S 1 Awk+1

.
.
.

0
=

.
.
.
0

wn

S 1 vk

donde R = S 1 Awk+1

Awk+1

S 1 vk

S 1 v2

e1

wk+1

S 1 vk

S 1 v2

1
= S v

vk

..
.

0
.
.
.

..
.

0
.
.
.

S 1 Awn

S 1 Awn . Entonces si escribimos R =

y R2 es una matriz (n k) (n k), tenemos que

.
.
.

0
B=

.
.
.
0

..
.

0
.
.
.

..
.

0
.
.
.

S 1 Awn

R1
R2

con R1 una matriz k (n k)

R1

R2

por tanto pA (x) = pB (x) = det(B xI) = (1)k (x )k det R2 , de donde


multiplicidad algebrica de k = multiplicidad geomtrica de .
a
e

3.3.

Cambio de Base

El objetivo de esta seccin es demostrar que si A B entonces las matrices estn relacionadas por un cambio
o
a
de coordenadas (cambio de base), para llegar a esto debemos denir cambio de coordenadas.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

91

Denicin 3.7. Sean X = {x1 , . . . , xn } y Y = {y1 , . . . , yn } bases para Rn , denimos la matriz del cambio de
o
base (o cambio de coordenadas) de la base X a la base Y como la matriz.
Y IX

= (x1 )Y (xn )Y .

1
1
0
1
a
Ejemplo 3.13. Sea E = e1 = , e2 = la base estndar de R2 y sea X = x1 = , x2 =

1
1
1
0
entonces la matriz E IX est dada por
a

1
1
.
(x2 )E = x1 x2 =
E IX = (x1 )E
1 1

Teorema 3.5. Sean X = {x1 , . . . , xn } y Y = {y1 , . . . , yn } bases para Rn y sea v Rn , entonces


v Y =Y IX v X .
Demostracin. Como X es una base, entonces existen constantes 1 , . . . , n tal que
o
v = 1 x 1 + + n x n

entonces vX

(3.7)

1

.
= . , y como Y es una base, para 1 i n, existen constantes 1i , . . . , ni tal que
.
n
xi = 1i y1 + + ni yn ,

1i

.
luego (xi )Y = . , por tanto
.
ni
Y IX

= (x1 )Y

(xn )Y

De las Ecuaciones (3.7) y (3.8) tenemos que

11

.
= .
.
n1

..
.

1n

.
.
.
nn

v = 1 x 1 + + n x n
= 1 (11 y1 + + n1 yn ) + + n (1n y1 + + nn yn )
= (1 11 + + n 1n )y1 + + (1 n1 + + n nn )yn
luego


1 11 + + n 1n
11

.
.
vY =
= .
.

.
1 n1 + + n nn
n1

..
.

IX


1
1n

. .
. . =Y IX v Y .
. .
n
nn
vY

(3.8)

92

2
1
Ejemplo 3.14. Considere las bases X = x1 = , x2 = y Y =

1
0
v = 2x1 + 3x2 , expresar a v en trminos de la base Y .
e

Solucin. Ntese que x1 = y1 y2 y x2 = 2y1 y2 , luego (x1 )Y =


o
o

Y IX

. Ahora, como vX
1


2
= , entonces
3

v Y =Y IX v X
Es decir, v = 8y1 5y2 .



4
3
y1 = , y2 = de R2 y

1
1

y (x2 )Y =

, de donde


8
2
= .
=
5
3
1 1
1

La dicultad que a menudo se encuentra al usar este procedimiento es en el clculo de la matriz de cambio
a
de base

Y IX ,

la cual, en este ejemplo, fue fcil calcular. El siguiente teorema nos dar una forma efectiva de
a
a

calcular esta matriz en el caso general.


Teorema 3.6. Sean X = {x1 , . . . , xn } y Y = {y1 , . . . , yn } bases para Rn y sean A = x1
y1

yn . Entonces

Y IX

= B 1 A.

xn y B =

Demostracin. Expresando los vectores x1 , . . . , xn en trminos de la base Y obtenemos:


o
e
x1 = 11 y1 + n1 yn
.
.
.
.

(3.9)

xn = 1n y1 + nn yn

1n
11

.
.
Entonces (x1 )Y = . , . . . , (xn )Y = . y por tanto
.
.
nn
n1

11 1n

.
.
..
. .
.
Y IX = .
.
.

n1 nn
De la Ecuacin (3.9) tenemos que
o


x1
11 n1
y1


. .
. .
..
. . .
. = .
.
. .
. .
xn
1n nn
yn

Transponiendo, obtenemos

x1

=A

x n = y1

=B

yn

11

.
.
.
n1

..
.

=Y IX

1n

.
. ,
.
nn


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
por tanto A = B

Y IX ,

93

multiplicando a ambos lados por B 1 obtenemos


Y IX

= B 1 A.

De este teorema se sigue un procedimiento para calcular la matriz del cambio de base, el cual damos a continuacin.
o

1
2
1
1
Ejemplo 3.15. Considere las bases X = x1 = , x2 = y Y = y1 = , y2 = de R2 ,

0
1
1
1

1
calcular Y IX y vY si vX = .
1

1
1

Solucin. Hacemos A = x1 x2 y b = y1 y2 y obtenemos Y IX = B 1 A =


o
3 1

0
Finalmente, por el Teorema 3.5 tenemos que vY =Y IX vX = , es decir, v = 2y2 .
2


2
1

1
1
1
1





Ejemplo 3.16. Considere las bases X = 1 , 2 , 2 y Y = 2 , 1 , 1 de R3 . Calcular la

1
3
3
2
1
2
matriz de cambio de base Y IX y calcular vY si v = 2x1 x2 + x3 .

Solucin. Denimos A = x1
o

x 3 y B = y1

x2

y2

y3 , entonces

Y IX

2
6




Ahora, para el calculo de vY , tenemos que vX = 1 y vY =Y IX vX = 15


1
5
Entonces tenemos que v = 6y1 + 15y2 5y3 .

= B 1 A = 1

5
5

8 .

Las matrices de cambio de base cumplen las siguientes propiedades.


Teorema 3.7. Sean X = {x1 , . . . , xn }, Y = {y1 , . . . , yn } y Z = {z1 , . . . , zn } bases de Rn entonces tenemos que:
1.

Y IX

= (X IY )1

2.

Z IX

= Z I Y Y I X

Demostracin. 1. Sean A = x1
o
B 1 A y

X IY

= A1 B, por tanto

(X I Y )

2. Sea C = z1
C 1 A, entonces

x n , B = y1

= A1 B

yn , por el Teorema 3.6 tenemos que

Z IX

= B 1 A =Y IX .

zn entonces por el Teorema 3.6 tenemos que


Z IX

Y IX

Y IX

= C 1 A = C 1 BB 1 A =Z IY Y IX .

= B 1 A,

Z IY

= C 1 B y

94

La siguiente es la propiedad ms importante de la matriz con respecto a dos bases.


a
De nuevo el problema en este teorema es el clculo de la matriz
a

TX , en el siguiente teorema se har explicito


a

un procedimiento para calcular dicha matriz.


Teorema 3.8. Sea T : Rn Rm una transformacin lineal, sean X = {x1 , . . . , xn } y Y = {y1 , . . . , ym } bases
o

para Rn y Rm , respectivamente y sean A = x1


Y

x n y B = y1

...

TX = B 1 T (x1 )

...

yn , entonces

T (xn ) ,

ms an
a u
Y

TX = B 1 E TE A.

En palabras el teorema dice que la matriz de T con respecto a las bases X y Y es el producto de las matrices la
inversa de la matriz de Y , la matriz de T y la matriz de X.
Demostracin.
o
X TY

= T (x1 )Y
=

Y IE T (x1 )

= B 1

T (xn )Y =

E TE x 1

Y IE T (xn )
E TE x n

Y IE T (x1 )E

Y IE T (xn )E

= Y IE T (x1 )

T (xn )

= B 1 E TE x1

xn

= B 1 E TE A


2x y
x
, sean X =
Ejemplo 3.17. Sea T : R2 R2 la transformacin lineal dada por T =
o
x+y
y

1
1
2
1
1
x1 = , x2 = y Y = y1 = , y2 = bases de R2 , calcular Y TX y T (v)Y si vX =

1
1
1
0
1

2 1
y as

Solucin. Primero ntese que E TE =


o
o
1
1

T (x1 ) =E TE x1 =

T (x2 ) =E TE x2 =
Entonces

TX = y1

y2

T (x1 )

T (x2 ) =

2
1


1
1
=
2
1
1

2 1


3
= .
0
1
1

2 1
1

1
1
1

2
0


2 0
3
.
=
5 3
0


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
Finalmente, tenemos que:

T (v)Y =Y TX vX =

2
5

95


2
1
0
= .
8
1
3


x + y + 3z


2x + y 2z

3
4

y sean
Ejemplo 3.18. Considere la tranformacin T : R R denida por T y =
o


x + 2y + z

z
x y + 2z

1
1
1
1

1
1
2

2
1
1
1



, y2 = , y3 = , y4 = bases de R3
X = x1 = 1 , x2 = 2 , x3 = 2 y Y = y1 =


1
1

3
2
1

4
3
2
1
y R4 , respectivamente. Calcular la matriz Y TX y T (v)Y si v = x1 x2 + x3 .

1 1 1 1

2
1
1

2 1 1 1

Solucin. Hacemos A = [x1 x2 x3 ] = 1


o
2 2, B = [y1 y2 y3 y4 ] =

3 2 1 1

1 2
3
4 3 2 1

1
1
3
3
11 14

2
5 16
1 2
20

. Usando el Teorema 3.8 obtenemos Y TX = B 1 E TE A =


.
E TE =

8 5
2
1
1

1 1
2
12
7
1


28


41

.
Finalmente, multiplicamos Y TX por vX = 1, lo que nos da T (v)Y =

1
6
Finalizamos la seccin con la siguiente observacin, en la cual muestra que las matrices de una transformacin
o
o
o

lineal con respecto a bases diferentes son similares:


Observacin 3.2. Sea T : Rn Rn una transformacin lineal y sea X = {x1 , . . . , xn } una base para Rn .
o
o
Entonces las matrices

X TX

E TE

son similares, ya que por el Teorema 3.8 tenemos que

X TX

= A1 E TE A,

o equivalentemente
E TE

donde A = x1

3.4.

= A X TX A1

xn .

Diagonalizacin
o

En esta seccin se darn condiciones sucientess y necesarias para que una matriz sea diagonalizable, coo
a
menzamos con el siguiente resultado.

96
Teorema 3.9. Sea A una matriz de tamao nn, entonces A es diagonalizable si y solo si A tiene n vectores
n

1 0 0

0 2 . . . 0

propios linealmente independientes. En este caso A es similar a la matriz diagonal D = .


. ..
.
.
.
.
.
.
.
.
0
0 n
donde 1 , . . . , n son los valores propios de A y si los correspondientes vectores propios son v1 , . . . , vn entonces
A = CDC 1 con C = v1

vn .

Demostracin. Supongamos que A es diagonalizable, entonces existe una matriz D diagonal y una
o
matriz invertible C tal que A = CDC 1 . Sean c1 , . . . , cn las columnas de C y 1 , . . . , n las entradas en la
diagonal de D.
Armacin: Los vectores c1 , . . . , cn son vectores propios de A con valores propios 1 , . . . , n .
o
Como A = CDC 1 entonces AC = DC, por tanto

[Ac1

Acn ] = A[c1 cn ] = AC = DC

1 0

.
.
..
. [c 1 c n ] = [ 1 c 1
= .
.
.
.

0 n

n cn ].

De esta igualdad se sigue que Ac1 = 1 c1 , , Acn = n cn , lo que demuestra la armacin.


o
Finalmente, como la matriz C es invertible, entonces sus columnas c1 , . . . , cn son linealmente independientes,
por tanto A tiene n vectores propios linealmente independientes.
Sean v1 , . . . , vn vectores propios linealmente independientes de A con valores propios 1 , . . . , n , respectivamente, es decir, Avi = i vi , para i = 1, . . . , n.
Sea X = {v1 , . . . , vn } entonces X es una base para Rn y sea T : Rn Rn la transformacin lineal determinada
o

por A, es decir, T (x) = Ax, para todo x Rn .

Como T (ei ) = Aei = i-sima columna de A, entonces E TE = A. Ahora, sea C = v1


e
Teorema 3.8 tenemos que

X TX

=C

E TE

C=C

AC, por tanto

vn , entonces por el

A=C

Ahora veamos que

X TX

X TX C

(3.10)

es una matriz diagonal. Como T (vi ) = Avi = i vi = 0v1 + + i vi + + 0vn ,


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

entonces T (vi )X


0
.
.
.


= i , por tanto

.
.
.
0

X TX

= T (v1 )

De la Ecuacin (3.10) tenemos que A y


o

T (v2 )

X TX

0
T (vn ) = .
.
.

97

2
.
.
.

..
.

0
.
.
.

son similares y de la ecuacin (3.11),


o

(3.11)

X TX

es diagonal, por tanto

A es diagonalizable.

1
5
5
tiene vectores propios v1 = y v2 = de valores propios 2 y
Ejemplo 3.19. La matriz A =
1
2
2 3
-1, respectivamente (ver Ejemplo 3.1.)

Si tomamos la base X = {v1 , v2 } de R2 , formada por los valores propios de la matriz A, C = v1

2
0
, entonces de acuerdo al Teorema 3.9 tenemos que
matriz de vectores propios y D =
0 1

v2 la

A = CDC 1 .

Esto lo podemos vericar de la siguiente manera. De acuerdo al Teorema 3.8 la matriz

X AX

de A con respecto

a la base X esta dada por:


X AX

1 1 1 4 5 5
= C 1 AC =

3 2
2
2 3
5

de donde C 1 AC = D y por tanto


2
0
1
= D,
=
0 1
1

A = CDC 1 .

1
3
0
0

Ejemplo 3.20. En el Ejemplo 3.6 calculamos los valores y vectores propios de la matriz A =

7 1 4
0

7 1
0 4

0
0
1/2

0
0
1/2
y v2 = ambos de valor propio = 4, v3 =

y encontramos que los vectores propios son v1 =


1
0
1/2

0
1
1/2

98

1/2

1/2
de valor propio = 2. Como A tiene cuatro vectores linealmente indepen
de valor propio = 4 y v4 =

1/2

1/2
dientes entonces A es diagonalizable y A = CDC 1 con

0 0
1/2
1/2
4
0 0 0

0 0 1/2
0 4 0 0
1/2

C=
y
D=

1 0

0
1/2
1/2
0 4 0

0 1
1/2
1/2
0
0 0 2

Corolario 3.10. Si una matriz A de tamao nn tiene n valores propios distintos, entonces A es diagonalizable.
n

2 2 3

Ejemplo 3.21. La matriz A = 5


1 3 tiene tres valores propios diferentes, = 1, = 3 y = 2.

6
0 5

1 0 0

Por tanto A es diagonalizable, de hecho A es similar a la matriz D = 0 3 0.

0 0 2
Teorema 3.11. Sea A una matriz de tamao nn, entonces A tiene n vectores propios linealmente indepenn
dientes si y solo si para cada valor propio , se tiene que
multiplicidad geomtrica de = multiplicidad algebrica de .
e
a
En particular, si todos los valores propios de A son diferentes, todos los vectores propios de A son linealmente
independientes.
Demostracin. Para comenzar la demostracin, supongamos que A tiene k valores propios distintos, 1 , . . . , k ,
o
o
con multiplicidades n1 , . . . , nk , respectivamente. Es decir, el polinomio caracter
stico de A est dado por pA () =
a
( 1 )n1 ( k )nk , con n = n1 + + nk .
Supongamos que A tiene n vectores propios linealmente independientes, sean v11 , . . . , v1m1 , . . . ,
vk1 , . . . , vkmk estos vectores con m1 + + mk = n y agrupados de tal forma que v11 , . . . , v1m1 tienen valor
propio 1 , v21 , . . . , v2m2 tienen valor propio 2 y, de manera inductiva, vk1 , . . . , vkmk tienen valor propio k .
Como para i = 1, . . . , k, multiplicidad geomtrica de i multiplicidad algebrica de i , entonces mi ni ,
e
a
ahora si mi < ni para algn i = 1, . . . , k entonces tenemos que
u
n = m1 + + mk < n1 + + nk = n,
lo cual es imposible, por tanto para todo i = 1, . . . , k, mi = ni , es decir, para todo i = 1, . . . , k tenemos que
multiplicidad geomtrica de i = multiplicidad algebrica de i .
e
a


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

99

Supongamos que la multiplicidad geomtrica de cada valor propio es igual a la multiplicidad algebrica,
e
a
entonces dim(Ej ) = nj , para 1 j k. Sean {v11 , . . . , v1n1 }, {v21 , . . . , v2n2 }, . . . ,
{vk1 , . . . , vknk } bases para E1 , E2 , . . . , Ek , respectivamente.
Veamos que los vectores v11 , . . . , v1n1 , v21 , . . . , v2n2 , , vk1 , . . . , vknk son linealmente independientes.
Supongamos que
11 v11 + + 1n1 v1n1 + + k1 vk1 + + knk vknk = 0

(3.12)

o
y sean v1 = 11 v11 + + 1n1 v1n1 , . . . , vk = k1 vk1 + + knk vknk , entonces la ecuacin (3.12) se convierte
en
v1 + v2 + + vk = 0.

(3.13)

Armacin: v1 = v2 = = vk = 0
o
Supongamos que algunos de los vj = 0, como vij Ei para 1 i k entonces tenemos que v1 E1 ,
v2 E2 , . . . , vk Ek , entonces los vectores de la lista v1 , . . . , vk que son no nulos, son vectores propios de
valores propios 1 , . . . , k , respectivamente. Como los valores propios 1 , . . . , k son distintos, entonces, por el
Teorema 3.2, los vectores no nulos de la lista v1 , . . . , vk son linealmente independientes, pero de la Ecuacin (3.13)
o
se sigue que estos vectores son linealmente dependientes, lo cual es contradictorio y por tanto v1 = = vk = 0,
y la armacin se cumple.
o
Luego para 1 j k tenemos que
0 = vj = j1 vj1 + + jn1 vjnj ,
pero como los vectores {vj1 , . . . , vjnj } son una base para Ej , entonces son linealmente independientes y por
tanto j1 = = jnj = 0. Como esto es para todo j = 1, . . . , k tenemos que
11 = = 1n1 = = k1 = = knk = 0.
Entonces los vectores v11 , . . . , v1n1 , v21 , . . . , v2n2 , . . . , vk1 , . . . , vknk son linealmente independientes y como todos estos son vectores propios de A y n1 + + nk = n, entonces A tiene n vectores propios linealmente
independientes.
Corolario 3.12. Sea A una matriz A de tamao nn, entonces A es diagonalizable si y solo si para todo valor
n
propio de A se cumple que
multiplicidad geomtrica de = multiplicidad algebrica de .
e
a
Demostracin. El corolario se sigue de los Teoremas 3.9 y 3.11.
o

1
3
0
0
tiene valores propios
Ejemplo 3.22.
1. En el Ejemplo 3.6 vimos que la matriz A =

7 1 4
0

7 1
0 4
= 4, = 4 y = 2 y que las multiplicidades geomtricas y algebraicas eran a4 = g4 = 2, a4 = g4 = 1
e
y a2 = g2 = 1, entonces la matriz es diagonalizable.

100

3 2

4 1

2. En el Ejemplo 3.7 vimos que el unico valor propio de la matriz A = 1 6

1 es = 4 con

1 2 3
multiplicidad algebraica a4 = 3 y geomtrica g4 = 2, entonces por el corolario anterior A no es diagoe
nalizable.

3. En el Ejemplo 3.8 vimos que el unico valor propio de la matriz A = 0 5

1 es = 4 con

1
0 3
multiplicidad algebraica es a4 = 3 y geomtrica g4 = 1, por tanto A no es diagonalizable.
e

3.5.

Ejercicios

1. Encuentre los valores, vectores y subespacios propios de la matriz y determine si es diagonalizable.

3
2
2 1
2 2
,
,
,
c. C =
b. B =
a. A =
0 3
5 2
5
1

5 4

d. D = 4 5

2 2

0
1

e. E = 0
0

1 3

2. Para cada una de las matrices diagonalizables del problema anterior escriba la matriz en la forma M DM 1
con D diagonal.
3. Demuestre que A y At tienen los mismos valores propios.

En los problemas 4-8 1 , 2 , . . . , n son los valores propios de una matriz A.


4. Demuestre que los valores propios de A son 1 , 2 , . . . , n .
5. Demuestre que |A| = 1 2 n .
6. Demuestre que los valores propios de A I son 1 , 2 , . . . , n .
7. Demuestre que los valores propios de Am son m , m , . . . , m .
n
1
2
8. Sean v es un vector propio de A con valor propio , f () = a0 + a1 + + ak k un polinomio y
f (A) = a0 I + a1 A + + ak Ak , entonces f (A)v = f ()v. Use el resultado para demostrar que los valores
propios de f (A) son f (1 ), f (2 ), . . . , f (n ).
9. Sea A una matriz y sea pA () el polinomio carater
stico de A, demuestre que pA (A) = 0, donde pA (A) es
la matriz denida como en el problema anterior.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

101

10. Sea A una matriz nn con entradas reales y sea v Cn un vector propio de A de valor propio , demuestre

que v es un vector propio de A de valor propio .

2 2
(del problema 1.a.) y f () = 1 2 + 33 .
11. Verique el problema 7. si A =
5
1

12. Determine cual de las siguientes 3

3 0

a. A = 0 3

0 0

matrices es diagonalizable

0
3 1 0

b. B = 0 3 0
0

3
0 0 3

3 1

c. C = 0 3

0 0

13. Demuestre que si B es invertible entonces AB y BA son similares.

1
0
1
1
0
1







14. Sean X = x1 = 1 , x2 = 1 , x3 = 0 y Y = y1 = 1 , y2 = 1 , y3 = 0 bases de

2
1
0
1
1
0
R3 . Encuentre las matrices de cambio de base Y IX y X IY .

1 1
1
.
15. Sea T : R3 R2 la transformacin lineal cuya matriz E TE est dada por E TE =
o
a
0 2 1

1
0
1




Calcular la matriz Z TX de T con respecto a las bases X = x1 = 1 , x2 = 1 , x3 = 0 de

0
1
2

1
0
R3 y Z = z1 = , z2 = de R2 .

1
1

1 1

16. Sea T : R3 R3 la transformacin lineal cuya matriz E TE est dada por E TE = 0 2 1. Calcular
o
a

1 0 1

1
0
1





la matriz X TX de T con respecto a la base X = x1 = 1 , x2 = 1 , x3 = 0 de R3 .

2
1
0

Mas Problemas.




17. Sea X = x1 = 1 , x2 = 1 , x3 = 0 una base de R3 , encontrar una base Y = {y1 , y2 , y3 }

2
1
0

1 0 1

tal que X IY = 1 1 0.

0 1 1

102

1 0 1

I X = 1 1 0 .
Y

0 1 1

0
1
19. Sea T : R3 R2 una transformacin lineal y sea Z = z1 = , z2 = una base para R2 y
o

1
1

1
0
1

1 1
1



, calcular la
X = x1 = 1 , x2 = 1 , x3 = 0 una base para R3 . Si Z TX =

0 2 1

2
1
0
matriz E TE .

0
1
x + 2y
x
y sea Y = y1 = , y2 = una base de
20. Sea T : R2 R2 denida por T =

1
1
2x + y
y

1 1
.
R2 . Calcular la base X tal que Y TX =
0 2

1 1
2 1
.
. Demuestre que no existe una base X tal que X TX =
21. Sea T : R2 R2 tal que E TE =
0 1
1 1
18. Repetir el problema anterior si en lugar de

X IY se nos da

Problema 3.5.1. Si A es invertible y v es un vector propio de A entonces v es un vector propio de A1 .

B C
entonces pA (x) = pB (x)pD (x).
Problema 3.5.2. Si A =
0 D
Problema 3.5.3. Si A Mn (R) y v E entonces v E .

Problema 3.5.4. A es invertible si y slo si = 0 no es un valor propio de A si y slo si pA (0) = 0.


o
o
Problema 3.5.5. A es nilpotente si y slo si = 0 es el unico valor propio de A.
o

Problema 3.5.6. Sean A, B Mn (R) y X una base de Rn , demuestre que

X (A

+ B)X = X AX + X BX .

Problema 3.5.7. Demuestre que la traza de una matriz es independiente de la base, es decir, si A Mn (R) y

X una base de Rn entonces trA = tr(X AX ).


Problema 3.5.8. Determine

E TE

si T (2, 1) = (3, 1) y T (1, 1) = (1, 2).

Problema 3.5.9. Si A B entonces tr(A) = tr(B) y det A = det B.


0 0 0 0 a0
1 0 0 0

0 1 0 0
Problema 3.5.10. Si A = . . . . . .
. . . . .
...
.

a1
a2

.
.
.

0 0 0 0 an2
0 0 0 1 an1

demuestre que pA (x) = xn + an1 xn1 + + a1 x + a0 .

Problema 3.5.11. Sea A Mn (R), si existe v R tal que {v, Av, . . . , An1 v} es una base de Rn y
0 0 0 0 a0
1 0 0 0

An v = a0 v a1 Av an1 An1 v entonces

X AX

0 1 0 0
= . . . .. .
. . . . .
...
.

a1
a2

.
.
.

0 0 0 0 an2
0 0 0 1 an1


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
Problema 3.5.12. Dar los valores y vectores propios

Problema 3.5.13. Para que valor de la matriz 0

103

y pedir la matriz A

2 0 es diagonalizable.

1 0

Problema 3.5.14. Si (1, 1, 2), (1, 1, 1) y (0, 1, 1) son vectores propios de A y A(1, 0, 0) = (2, 1, 1) determine los
valores propios de A.
Problema 3.5.15. Demuestre que A es diagonalizable si y slo si A1 es diagonalizable si y slo si At es
o
o
diagonalizable.
Problema 3.5.16. Sea T : V V una transformacin lineal y X una base de V , demuestre que T : V V
o

es invertible si y slo si la matriz


o

X TX

es invertible.

Problema 3.5.17. Sea T : V V una transformacin lineal demuestre que las siguientes armaciones son
o
equivalentes
1. T es invertible
2. T es inyectiva
3. T es sobreyectiva
Problema 3.5.18. Demuestre que si A es nilpotente, es decir, si Ak = 0 para algn k > 0, entonces = 0 es
u
el unico valor propio de A.

Problema 3.5.19. Si A2 = I entonces los valores propios de A son = 1 o = 1.


Problema 3.5.20. Si 1 , . . . , k son los valores propios de A entonces
1

1
1
1 , . . . , k

son los valores propios de

Problema 3.5.21. Si A es diagonalizable y

0 a

Problema 3.5.22. Si la matriz A = 0 0

0 0

x = es el unico valor propio de A entonces A = I.

c es diagonalizable entonces a = b = c = 0.

Problema 3.5.23. Si B es invertible entonces AB BA.

Problema 3.5.24. Si 1 , . . . , n son los valores propios de un matriz diagonalizable A entonces tr(A) =
1 + + n . Cul es la traza de Ak .
a
Problema 3.5.25. Si 1 , . . . , n son los valores propios de A entonces det(A) = 1 n .
Problema 3.5.26. Si A es diagonalizable con valores propios postivos 1 , . . . , n , demuestre que existe R tal
que R2 = A.

104
Problema 3.5.27. Si A tiene valores propios 4 y 9 con respectivos vectores propios (2, 1) y (1, 1), calcule R tal
que R2 = A.
Problema 3.5.28. Si A2 = A demuestre lo siguiente
1. los valores propios de A son = 0 o = 1,
2. cada columna no nula de A es un vector propio de A.
3. Cn = N ul(A) Col(A),
4. A es diagonalizable.
5. si A = I y A = 0 entonces = 0 y = 1 son ambos valores propios de A.
6. Si A = I entonces det A = 0.
Problema 3.5.29. Determine An si A tiene vectores propios (1, 1) y (1, 0) con correspondientes valores propios
1
1 = 1 y 2 = 2 .

Problema 3.5.30. Si A es diagonalizable con valores propios tal que 1 = 1 y |i | < 1 demuestre que l Ak
m
k

es una matriz de rango 1.


Problema 3.5.31. Sea v Cn \ {0} y P = vv t , demuestre que v es un vector propio de P y que E0 = V con
V = gen{v}. Es P diagonalizable?
Problema 3.5.32. Demuestre que A + I es invertible si y slo si = 1 no es un valor propio de A.
o
Problema 3.5.33. Si A Mn (C) es invertible, demuestre que existe Cn tal que A + I no es invertible.
Problema 3.5.34. Si A y B son diagonalizables y AB = BA, demuestre que A y B son simultaneamente
diagonalizables, es decir, existe una base X tal que

X AX

X BX

son ambas diagonales. (Ayuda: Si es un

valor propio de A, muestre que E es B-invariante.)


Problema 3.5.35. Si A y B conmutan y son diagonalizables y los respectivos valores propios son 1 , . . . , n y
1 , . . . , n entonces los valores propios de A + B son 1 + 1 , . . . , n + n .
Problema 3.5.36. Si A y B conmutan y son nilpotentes entonces A + B es nilpotente.
Problema 3.5.37. Si A Mn (R) y v es un vector propio de valor propio entonces v es un vector propio de
valor propio .
Problema 3.5.38. Demuestre que A es simtrica si y slo si los vectores propios de A correspondientes a
e
o
diferentes valores propios son ortogonales.
Problema 3.5.39. Demuestre que si A es simtrica 22 entonces los valores propios son reales. Muestre
e
adems que los valores propios son reales positivos si y slo si a11 , a22 > 0 y det A > 0.
a
o
Problema 3.5.40. Muestre que para = 0 las matrices A y A + I no pueden ser similares.

Cap
tulo 4

Forma Cannica de Jordan


o
En el cap
tulo anterior vimos que no todas las matrices son diagonalizables, en este cap
tulo estudiaremos
una descomposicin que generaliza la diagonalizacin, llamada la forma cacnica de Jordan, y que contrario a lo
o
o
o
que sucede con la diagonalizacin, este se puede hallar para toda matriz compleja. El objetivo de este Cap
o
tulo
es desarrollar toda la teor suciente y desarrollar un algoritmo para calcular la forma cannica de Jordan.
a
o

4.1.

Vectores Propios Generalizados

Comenzamos con un ejemplo que motiva la necesidad de estudiar la forma cannica de Jordan
o

3 1
, el polinomio caracter
stico de A es pA (x) = (x 4)2 lo que implica que = 4
Ejemplo 4.1. Sea A =
1 5
es el unico valor propio de A con multiplicidad algebraica a = 2.


1
Es fcil ver que el subespacio propio de A de valor propio = 2 est dado por E2 = gen y por tanto
a
a
1
la multiplicidad geomtrica de = 2 es g = 1 y por tanto A es no es diagonalizable (g < a ).
e
Esto quiere decir que existe una base X tal que la matriz X AX es diagonal, an si completamos una base
no
u
1
usando el vector propio .
1

2
1
Por ejemplo si tomamos la base X = v1 = , v2 = y calculamos la matriz de A con respecto a

3
1

esta base obtenemos que

Por tanto

X AX

Av1 = 4v1 = 4v1 + 0v2



7
Av2 = = 5v1 + 6v2
13

4 5
. Jordan se dio cuenta que se podia mejorar la presentacin de la matriz escogiendo
o
=
0
6

105

106
un vector v2 que cumpla la ecuacin (A 4I)x = v1 , ecuacin para la cual podemos tomar el vector v2 = e1
o
o
como solucin.
o
De esta forma tenemos que (A4I)v2 = v1 Av2 = v1 +4v2 y por tanto con respecto a la base X = {v1 , v2 }

tenemos que

X AX

4 1
0 4

El ejemplo anterior ensea que la clave para encontrar una base adecuada es encontrar una solucin a la
n
o
ecuacin (A I)x = v con un vector propio y v un vector propio de valor propio . El prximo ejemplo
o
o
muestra como la iteracin de esta ecuacin conduce al clculo de una base adecuada cuando la matriz no es
o
o
a
diagonalizable.

4 1

stico pA (x) = (x + 4)3 y por


Ejemplo 4.2. Sea A = 0 5
1 , esta matriz tiene polinomio caracter

1
0 3
tanto su unico valor propio es = 4. Usando MatLab para calcular susvectores propios nos damos cuanta que la


base para el subespacio de vectores propios E4 est dada por v1 = 1 y por tanto A es no diagonalizable.
a

1
Si procedemos como en el ejemplo anterior, resolviendo la ecuacin (A + 4I)x = v1 obtenemos
o
>> a = [4 1 1; 0 5 1; 1 0 3]; v1 = [1; 1; 1]; linsolve(a + 4 eye(3), v1)

1


Obtenemos que una solucin a esta ecuacin est dada por el vector v2 = 1.
o
o
a

0
Ahora iterando el proceso, buscaremos una solucin a la ecuacin (A + 4I)x = v2 , el cual podemos hacer en
o
o

MatLab con el comando


>> v2 = [1; 1; 0]; linsolve(a + 4 eye(3), v2)


0


En este caso obtenemos como solucin al vector v3 = 1. Si tomamos X = {v1 , v2 , v3 } obtenemos que X
o

0
es una base y adems que la matriz de A con respecto a esta base, X AX , est dada por
a
a

4
1
0

(4.1)
1 .
X AX = 0 4

0
0 4
Como la matriz de A con respecto a la base X est dada por
a

X AX

= P 1 AP donde P es la matriz formada

por los vectores en la base X, es decir, P = [v1 v2 v3 ], la Ecuacin (4.1) se puede comprobar en MatLab con el
o
comando
>> P = [v1, v2, v3]; xAx = P (1) a P.
La Ecuacin (4.1) tambin es clara de la escogencia de los vectores v1 , v2 y v3 , ya que primero que todo v1
o
e
es un vector propio de A de valor propio 4 y por tanto Av1 = 4v1 . Los vectores v2 y v3 son soluciones a las


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

107

ecuaciones (A+4I)x = v1 y (A+4I)x = v2 , respectivamente. Por tanto v2 satisface las ecuacin Av2 = v1 4v2 ,
o
esto ya que (A + 4I)v2 = v1 lo que es equivalente a Av2 + 4v2 = v1 y por tanto Av2 = v1 4v2 . Similarmente
Av3 = v2 4v3 , de todo esto obtenemos la siguiente
Av1

= 4v1

Av2

= v1 4v2

= v1 4v2 + 0v3

Av3

= v2 4v3

= 0v1 + v2 4v3

Por tanto obtenemos que

X AX

= (Av1 )X

= 4v1 + 0v2 + 0v3

(Av2 )X

(Av1 )X =

(Av2 )X =
(Av3 )X =

(Av2 )X = 0

4
0

4
0
0
1
4
0
0
1
4

En este ultimo ejemplo vale la pena notar que el vector v2 satisface la ecuacin (A + 4I)2 v2 = 0, ya que este

o
satisface (A + 4I)v2 = v1 y v1 a la vez satisface (A + 4I)v1 = 0 por ser vector propio. Similarmente el vector v3
satisface la ecuacin (A + 4I)3 v3 = 0, es decir, v2 y v3 son vectores propios generalizados, lo cual denimos a
o
continuacin.
o
Denicin 4.1. Sea A Mn (C) decimos que un vector v Cn es un vector propio generalizado para A si
o

existe p > 0 tal que (A I)p v = 0 para algn .


u

El siguiente teorema expone las propiedades de los vectores propios generalizados, algunas de las cuales
fueron visualizadas en los Ejemplos 4.1 y 4.2.
Teorema 4.1. Sea A Mn (C), v un vector propio generalizado para A y p el m
nimo entero tal que (AI)p v =
0 entonces
1. (A I)p1 v es un vector propio de valor propio y para k < p 1 el vector (A I)k v no es un vector
propio.
2. Las matrices A y (A I)k conmutan.
3. El conjunto Cv = {(A I)p1 v, . . . , (A I)v, v} es linealmente independiente. Al conjunto Cv se le
llama un ciclo de vectores generalizados.
4. Si Hv = gen{(A I)p1 v, . . . , (A I)v, v} entonces Hv es un subespacio invariante bajo A, es decir,
a
A(Hv ) Hv . Ms an, la matriz A|Hv est dada por
a u

1 0

0 1

0 0
A|Hv = . . .
. . .
. . .

0 0 0

..
.

0
.
.
.

. .
.
.

(4.2)

108
Demostracin.
o

1. Sea w = (A I)p1 v, entonces


(A I)w = (A I)(A I)p1 v = (A I)p v = 0.

Por tanto w es un vector propio de valor propio .


2. Es fcil ver por induccin que
a
o
k

(A I)k =

(1)kj kj Aj .
j=0

Luego

A(A I)k = A

k
j=0

j=0

(1)kj kj Aj =

k
j=0

(1)kj kj Aj+1

(1)kj kj Aj A

= (A I)k A
Por tanto A y (A I)k conmutan.

3. Por induccin. Si p = 1 entonces v es un vector propio y por tanto v = 0 es LI.


o
Supongamos que el resultado es cierto para p 1 vectores. Sea vi = (A I)i , para i = 0, . . . , p 1 y
supongamos que
0 v0 + + p1 vp1 = 0.

(4.3)

Como vi+1 = (A I)vi , si multiplicamos (4.3) por A I obtenemos:


0 v1 + + p2 vp1 = 0
Como {v1 , . . . , vp1 } es un ciclo de vectores de longitud p 1, entonces por la hiptesis de induccin es
o
o
LI, luego 0 = = p2 = 0. Por tanto (4.3) se reduce a p1 vp1 = 0. Como vp1 = 0 por ser vector
propio, tenemos que p1 = 0 y por tanto Cv = {vp1 , . . . , v0 = v} es LI.
4. Como (A I)vi1 = vi entonces para i = 0, . . . , p 2 tenemos que
Avi = vi+1 + vi ,

(4.4)

y para i = p 1, como vp1 es un vector propio entonces (A I)vp1 = 0 o equivalentemente


Avp1 = vp1 .

(4.5)

Por tanto A(Hv ) Hv


Si ordenamos la base {vp1 , . . . , v0 = v} de Hv entonces la matriz de A|Hv con respecto a esta base
est dada por
a
A|Hv = [(Avp1 )Cv (Av0 )Cv ] ,

(4.6)


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

109

o
e
donde (Avi )Cv es la representacin del vector Avi en trminos de Cv . De las ecuaciones (4.5) y (4.4)
obtenemos que

(Avp1 )Cv

1
0
0








0

1
0








0
0

0
, (Avp2 )C = , (Avp3 )C = , . . . (Av0 )C = .
= .
v
v
v
.
.
.
.
.
.
.
.
.
.
.




0
0
0
1




0
0
0

(4.7)

Entonces de las ecuaciones (4.6) y (4.7) obtenemos que la matriz de A|Hv tiene la forma de un bloque de
Jordan como en la Ecuacin (4.2).
o



Ejemplo 4.3. Los vectores v1 = 1,

1

1 1

propio = 1 de la matriz A = 0
0

1
0
(A I)v1 = 0


1




v2 = 0 y v3 = 0 son vectores propios generalizados de valor


0
1

1, ya que

(A I)2 v2 = 0

(A I)3 v3 = 0

Un clculo simple muestra que (A I)2 v2 = v1 y (A I)v3 = v2 y por tanto los vectores v1 , v2 y v3 forman un
a
ciclo de vectores propios generalizados.
El teorema anterior garantiza el conjunto X = {v1 , v2 , v3 } es linealmente independiente y por tanto es una

base de C3 , dejamos como ejercicio vericar que la matriz de A, vista como transformacin lineal, con respecto
o
a la base X, est dada por
a

AX = 0
X

1 0

1 1 .

0 1

Tambin dejamos al lector vericar que esta matriz no es diagonalizable y de hecho la matriz
e

X AX

es la forma

cannica de Jordan de A.
o
Denicin 4.2.
o

1. A la matriz de la forma (4.2) se le llama bloque de Jordan y ser denotada por Jp ().
a

2. Sean A y B son matrices de tamans p p y q q, respectivamente. Denimos la matriz A B como la


o
matriz

AB =

Opq

Oqp

110
El objetivo fundamental de este cap
tulo es demostrar que para toda matriz compleja A, se puede encontrar
una base bajo la cual A se descompone en bloques de Jordan, es decir, bajo la cual
A = Jp1 (1 ) Jpk (k ).

(4.8)

La idea central es encontrar un algoritmo para calcular todos los ciclos de vectores generalizados y demostrar
que estos forman una base para Cn .
Denicin 4.3. Sea A una matriz n n y sea un valor propio de A. Denotaremos por K al conjunto de
o
vectores propios generalizados de valor propio , es decir
K = {v | (A I)p v = 0, para algn p > 0. }
u
Es claro de la denicin que E K , pero en el prximo teorema se demostrar que K es un subespacio
o
o
a
vectorial que contiene a E y que tambin es invariante bajo A.
e
Teorema 4.2. Sea A una matriz n n y sea un valor propio de A entonces
1. Todo vector propio de A es un vector propio generalizado y por tanto E K .
2. K es un subespacio.
3. K es invariante bajo A.
4. A I es nilpotente en K .
Demostracin.
o

1. Si v E , entonces (A I)v = 0 y por tanto v K .

2. Sean v, w K y sea C. Entonces existen enteros p1 > 0 y p2 > 0 tal que (A I)p1 v = 0 y
(A I)p2 w = 0, entonces

(A I)p1 +p2 (v + w) = (A I)p1 +p2 v + (A I)p1 +p2 w = 0 + 0 = 0 y


=0

=0

(A I)p1 (v) = (A I)p1 v = 0 = 0.


De esto se sigue que K es un subespacio.
3. Sea v K , entonces existe un entero p > 0 tal que (A I)p v = 0. Como A y (A I) conmutan,
entonces tenemos que
(A I)p Av = A(A I)p v = A0 = 0.
Por tanto Av K .
4. Sea p = mx{j | (A I)j v = 0}. Si este mximo no existiera entonces existir un vector v K
a
a
a

tal que el conjunto (A I)j v | j Z0 es innito y por el Teorema 4.1 este conjunto es linealmente

independiente entonces dim K = lo cual es imposible. Deducimos que (A I)p = 0 en K .


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

111

PROBLEMAS
Problema 4.1.1. Demuestre que si A es nilpotente entonces el unico valor propio de A es = 0 y deduzca que

K0 = Cn .

4.2.

Forma Cannica de Jordan para Matrices Nilpotentes


o

El siguiente teorema demuestra la existencia de la forma de Jordan para matrices nilpotentes y es el paso
fundamental para la demostracin en el caso general.
o
Teorema 4.3. Sea A Mn (C) una matriz nilpotente y p el m
nimo entero tal que Ap+1 = 0, entonces existe
una base de Cn tal que la matriz de A con respecto a esta base tiene la forma
A = Jp1 (0) Jps (0)

(4.9)

con p = p1 p2 ps .
Demostracin. Denamos Wi = ImAi = Ai (Cn ). Se sigue que
o
Wi+1 = Ai+1 (Cn ) = Ai (A(Cn )) Ai (Cn ) = Wi
Cn

como p es el m
nimo tal que Ap+1 = 0 y Ap = 0, entonces tenemos la secuencia de inclusiones
0 = Wp+1 Wp W1 W0 = Cn
adems tenemos que A(Wi ) = A(Ai (Cn ) = Ai+1 (Cn ) = Wi+1 .
a
Para i = 1, . . . , n, tomemos si = dim Wi y sea {up1 , . . . , upsp } una base de Wp . Como Wp = A(Wp1 ),
tenemos que para i = 1, . . . , sp , existen vectores up1,1 , . . . , up1,sp tal que Aup1,i = up i para i = 1, . . . , sp .
Ntese que los vectores up1 , . . . , upsp , up1,1 , . . . , up1,sp son linealmente independientes, ya que si existen
o
constantes tal que
p1 up1 + + psp upsp + p1,1 up1,1 + + p1,sp up1,sp = 0

(4.10)

aplicando A a ambos lados tenemos que


0 = p1 Aup1 + + psp upsp +p1,1 up1,1 + + p1,sp up1,sp = p1,1 up1 + + p1,sp upsp
=0

=0

up1

upsp

y como {up1 , . . . , upsp } es linealmente idependiente, obtenemos que p1,1 = = p1,sp = 0. Entonces la
Ecuacin 4.10 se reduce a
o
p1 up1 + + psp upsp = 0
y nuevamente por la independencia lineal del conjunto {up1 , . . . , upsp }, tenemos que p1 = = psp = 0.
Concluimos que los vectores up1 , . . . , upsp , up1,1 , . . . , up1,sp son linealmente independientes.

112
Como Wp Wp1 , entonces el conjunto {up1 , . . . , upsp , up1,1 , . . . , up1,sp } es un subconjunto linealmente
independiente de Wp1 , sean up1,sp +1 , . . . , up1,sp1 vectores en Wp1 tal que el conjunto
{up1 , . . . , upsp , up1,1 , . . . , up1,sp , up1,sp +1 , . . . , up1,sp1 } es una base de Wp1 .
Armacin 1.: Los vectores up1,sp +1 , . . . , up1,sp1 se pueden tomar de tal que up1,sp +1 , . . . , up1,sp1 ker A
o
demostracin de la armacin: Si el vector up1,sp +1 ker A, entonces 0 = Aup1,sp +1 Wp y tenemos
o
o
/

o
que Aup1,sp +1 = 1 up1 + + sp upsp . Denimos u = up1,sp +1 1 up1,1 + + sp up1,sp , ntese que
si reemplazamos up1,sp1 por u , el conjunto {up1 , . . . , upsp , up1,1 , . . . , up1,sp , u } sigue siendo linealmente
independiente y u ker A ya que

Au = Aup1,sp +1 1 Aup1,1 + + sp Aup1,sp


up,1

up,sp

= 1 up1 + + sp upsp 1 up1 sp upsp = 0


Un razonamiento similar muestra que los vectores up1,sp +2 , . . . , up1,sp1 se pueden tomar en ker A. Lo que
demuestra la armacin 1.
o
Como AWp2 = Wp1 tenemos que para cada vector up1,i con i = 1, . . . , sp1 , existe un vector up2,i
Wp2 tal que Aup2,i = up1,i .
Nuevamente tenemos el conjunto
up2,1

...

up2,sp

up1,sp +1

...

up2,sp1

up1,1

...

up1,sp

up1,sp +1

...

up1,sp1

up,1

...

up,sp

(4.11)

es linealmente independiente, ya que si existieran constantes ij tal que


p2,1 up2,1 + + p2,sp1 up2,sp1 + p1,1 up1,1 + + p1,sp1 up1,sp1 + p,1 up,1 + + p,sp up,sp = 0
(4.12)
aplicando A obtenemos
p2,1 Aup2,1 + + p2,sp1 Aup2,sp1 +p1,1 Aup1,1 + + p1,sp1 Aup1,sp1 +
=up1,1

=up1,sp1

up,1

=up,sp1

p,1 Aup,1 + + p,sp Aup,sp = 0


=0

=0

entonces la expresin (4.12) se convierte en


o
p2,1 up1,1 + + p2,sp1 up1,sp1 + p1,1 up,1 + + p1,sp1 up,sp1 = 0
pero como el conjunto {up1,1 , . . . , up1,sp1 , up,1 . . . , up,sp1 } forma una base para Wp1 y es por tanto linealmente independiente, tenemos que las constantes p2,1 = = p2,sp1 = p1,1 = = p1,sp1 = 0 y la
expresin (4.12) se reduce a
o
p,1 up,1 + + p,sp up,sp = 0


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

113

y como el conjunto {up,1 , . . . , up,sp } es una base para Wp obtenemos que las constantes p,1 , . . . , p,sp son nulas,
lo que muestra que los vectores en (4.11) son linealmente independientes.
Como los vectores en (4.11) estn en Wp2 , entonces existen vectores up2,sp1 +1 , . . . , up2,sp2 tal que los
a
vectores
up2,1

...

up2,sp

up1,sp +1

...

up2,sp1

up1,1

...

up1,sp

up1,sp +1

...

...

up2,sp2

up1,sp1

up,1

up2,sp1 +1

up,sp

(4.13)

forman una base para Wp2 y usando un razonamiento similar al usado en la Armacin 1 podemos tomar los
o
vectores up2,sp1 +1 , . . . , up2,sp2 en el ker A.
Continuando de manera inductiva obtenemos la lista de vectores
u0,1

...

u0,sp

...

u0,s1

u1,1
.
.
.

...
.
.
.

u1,sp
.
.
.

...

...

...

u0,s1

u1,s1

up,1

u0,s1 +1

up,sp

(4.14)

de tal forma que se cumplen las siguientes 3 condiciones


1. para i = 0, . . . , p las ultimas p + 1 i las son una base para Wi , en particular todos los vectores de esta

lista forman una base para W0 = Cn .

2. para i = 0, . . . , p, los vectores ui,si+1 +1 , . . . , ui,si pertenecen al ker A.


3. para i = 1, . . . , p tenemos que Aui1,k = uik y por tanto cada columna es un ciclo de vectores propios
generalizados. Por ejemplo, para los vectores en la primera columna tenemos que
Aup1,1 = up1 ,

A2 up2,1 = AAup2,1 = Aup1,1 = up1 , . . . , Ap1 u11 = up1

Ap u01 = AAp1 u11 = up1

por tanto
up1 = Ap u01 ,

up1,1 = Ap1 u01 , . . . , u1,1 = Au01

y como up1 ker A entonces este es un vector propio de A de valor propio 0.


Por tanto los vectores en cada columna generan un subespacio invariante bajo A y la matriz de A restringido
a este subespacio tiene la forma

donde pi es la longitud de la columna.

0 0
0 0 1 0 0
0 0 0 0 0

0 1 0

J0 (pi ) = . . . . . . .
... ...
..
...
0 0 0 0 1
0 0 0 0 0

Si ordenamos los vectores en la Lista (4.14) por columnas, obtenemos la base


X = {up1 . . . , u11 , . . . , u01 , up2 . . . , u12 , . . . , u02 , . . . , u0s0 },
Ciclo de vectores

Ciclo de vectores

114
y por el numeral 3 de arriba tenemos que la matriz de A con respecto a esta base X est dada por
a

0 1 0

. . .
.
0
. . .. . 0

..
.
0 0 1

0 0 0

.
.

= Jp (0) Jp (0),
..
.
.
X AX =
s1
1
.
.
.

0 1 ... 0

. . .
.

0
0 . . .. .
.
. .
0 0 1
0 0 0

con p = p1 p2 p3 . . . .

De esta demostracin se deduce un algoritmo simple para calcular la base de Jordan y la forma Jordan
o
para una matriz nilpotente, el cual describimos a continuacin. En la base Jordan tenemos que los vectores que
o
se adicionan para completar una base del subespacio Wi , pertenecen al ker A. Estos vectores son los vectores
subrayados en la siguiente lista:
u0,1

...

...

...

...

u0,sp1

...

u0,s2 +1

...

u0,s1

u1,1
.
.
.

...
.
.
.

...
.
.
.

...
.
.
.

...
.
.
.

u1,sp1
.
.
.

...

u1,s2 +1

...

...

up1,sp

up1,sp +1

...

...

u0,s0

up1,sp1

up,1

...

u1,s1

up1,1

u0,s1 +1

up,sp

(4.15)

Ntese adems que ningn otro vector en esa lista pretenece a ker(A), ya que al aplicar A a cualquier otro
o
a
u
vector uij obtendriamos el vector que est debajo de ste, ya que Auij = ui+1,j . Como todos estos vectores
a
e
forman una base para Cn , concluimos que estos vectores subrayados forman una base para ker A. Los vectores
que estn encima de los subrayados son soluciones a las ecuaciones Ax = u, con u un vector en esta base de
a
ker A, e inductivamente los vectores ms arriba son soluciones a ecuaciones de la forma Ax = u.
a
De esto obtenemos que para calcular la base de Jordan de una matriz, se debe calcular una base para ker A,
despus buscar soluciones a las ecuaciones Ax = u con u en la base del ker A, algunas de estas ecuaciones
e
posiblemente no tengan solucin, y continuar buscando soluciones a las ecuaciones Ax = v para cada vector v
o
encontrado en el segundo paso y continuar de esta forma hasta completar n vectores, lo que nos da una base de
Jordan. El algoritmo es como sigue.
Procedimiento 4.1. (Algoritmo para Calcular una Base de Jordan para una Matriz Nilpotente)
Sea A Mn (C) una matriz nilpotente y p la m
nima potencia tal que Ap = 0, para calcular la base de Jordan
hacemos lo siguiente:
1. Calculamos los vectores propios u1 , . . . , us de A, es decir, una base para el espacio ker A. En este paso se
encuentran los vectores subrayados en la Lista (4.15).
2. Para i = 1, . . . , s resolvemos la ecuacin Ax = ui . En este paso se encontrar los vectores que estn
o
an
a
una la arriba de los vectores calculados en el paso anterior. Ntese que no todas estas ecuaciones tienen
o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

115

solucin, ya que por ejemplo los vectores en el ker A que estn en la primera la, como u0,s0 , para este
o
a
o
vector la ecuacin Ax = u0,s0 no tiene solucin. A cada vector encontrado en este paso los etiquetamos
o
u2i si este es solucin a la ecuacin Ax = ui .
o
o
3. Para cada vector u2i calculado en el paso 2, resolvemos la ecuacin Ax = u2i , si la ecuacin tiene solucin,
o
o
o
la etiquetamos u3i .
4. Se repiten el paso 3 hasta encontrar n vectores propios generalizados.

2
3
4
6

1 3 4 5
, es fcil ver que A4 = 0 y por tanto A es nilpotente.

a
Ejemplo 4.4. (MatLab) Sea A =

0
1
0
0

0
0
1
1
Procedemos a calcular una base de Jordan para A usando MatLab.
1. Usamos el comando null(A) para calcular una base para el espacio nulo de A
>> null(A)



0
Este clculo nos produce el vector u1 = .
a

1

1

2. Ahora necesitamos encontrar una solucin a la ecuacin Ax = u1 , la cual resolvemos con MatLab usando
o
o
el comando
>> linsolve[A, u1 ]

1


1
Obtenemos que el vector u2 = es el vector buscado.

1

0

Ahora necesitamos buscar una solucin a la ecuacin Ax = u2 . Para esto procedemos de manera similar
o
o
al paso anterior,
>> linsolve[A, u2 ]

2


1
Obtenemos que el vector u3 = es una solucin a la ecuacin.
o
o

0

0

El siguiente paso es buscar una solucin a la ecuacin Ax = u3 , nuevamente repetimos el procedimiento


o
o

aplicado
>> linsolve[A, u3 ]

116

1


0
y obtenemos el vector u4 = .

0

0

Como la
matriz A es
44, con este ultimo hemos completado una base de C4 y por tanto concluimos
vector

2
1
1

1
1
0
, u2 = , u3 = , u4 = e1 es una base de Jordan.
que J = u1 =

0
1
1

0
0
1

Para vericar hacemos C = [u1 u2 u3 u4 ] y calculamos C 1 AC, lo que nos da la matriz de A en la base J y
obtenemos
C = [u1 u2 u3 u4 ]; inv(C) A C
ans =
0 1

0 0

0 0

1 0

0 0

0 1

0 0 0 0
La cual es la forma cannica de Jordan de A.
o
Corolario 4.4. Sea A una matriz n n y una valor propio de A, entonces existe una base de K tal que la
matriz de A con respecto a esta base tiene la forma
A = Jp1 () Jps ().

(4.16)

A esta base se le llama base de Jordan para K .


Demostracin. La matriz A I es nilpotente en K . Entonces por el Teorema 4.3 existe una base de K tal
o
que la matriz de A I con respecto a esta base tiene la forma (4.9). Entonces
A = Jp1 (0) Jps (0) + I = Jp1 () Jps ().

2 3

Ejemplo 4.5. (MatLab) Sea A = 2


3

1 1

0
0
y calcule una base de Jordan para K1 .

6 8
5

1 2
0

10

8 . Demuestre que = 1 es un valor propio de A

Solucin. Usamos MatLab para calcular el polinomio caracter


o
stico de A como sigue


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

117

>> A = [3 3 4 5 7; 2 3 6 8 10; 2 3 5 6 8; 1 1 1 2 4; 0 0 0 1 2]; factor(poly(sym(A)))


ans =
(x 1)5
Esto indica que pA () = ( 1)5 y por tanto = 1 es un valor propio. Ms an, = 1 es el unico valor
a u

propio de A y por tanto K1 = C5 . Entonces A I es nilpotente y podemos aplicar el Procedimiento 4.1 para
calcular la base pedida.
Primero calculamos los vectores propios de A:
>> v1 = null(A eye(5), r )
v1 =
1

Las columnas de esta matriz son los vectores propios de A, es decir, u11

los podemos denir en MatLab con los comados



2


= 1 y u12


0

0

1


0


= 0 . Estos vectores


1

1

>> u11 = v1(:, 1); u12 = v1(:, 2);


Estos comandos denen los vectores u11 y u12 como la primera y segunda columna de la matriz v1, respectivamente.
El segundo paso consiste en calcular soluciones a las ecuaciones (A I)x = u11 y (A I)x = u12, usamos
MatLab para resolverlas como sigue
>> linsolve(a-eye(5),u11), linsolve(a-eye(5),u12),

Con este clculo obtenemos que los vectores u21


a

ecuaciones.





1
2




= 0 y u22 = 0 son soluciones a las respectivas




0
1


0
0

El siguiente paso es encontrar soluciones, si existen, para las ecuaciones (A I)x = u21 y (A I)x = u22.
Usando Matlab nos damos cuenta que la primera ecuacin no tiene solucin y una solucin a la segunda est dada
o
o
o
a

118



2


por u32 = 0


0

0
Por tanto tenemos que X = {u11, u21, u12, u22, u23} es la base buscada. Podemos vericar esto en MatLab,
si denimos B = [u11 u21 u12 u22 u23], la matriz de A con respecto a la base X,

X AX

est dada por


a

X AX

B 1 AB. Usando MatLab para calcular este producto obtenemos


>> inv(B) A B

1 1

0 0

0 0

1 1

0 1

0 0

La respuesta que se obtiene es la matriz 0

0. Lo que corrobora que X es la base de Jordan.

PROBLEMAS

Sea A una matriz en Mn (C)


Problema 4.2.1. Demuestre que si A tiene un unico valor propio entonces A I es nilpotente. Demuestre

tambin que existe una base X de Cn tal que


e
X AX

= A = Jp1 () Jps ()

con

p = p 1 p 2 ps .

Problema 4.2.2. Demuestre que N ul(Ai ) N ul(Ai+1 ), para i = 1, 2, . . .


Problema 4.2.3. Demuestre que A(N ul(Ai+1 ) N ul(Ai ).
Problema 4.2.4. Demuestre que si existe un entero k tal que Im(Ak ) = Im(Ak+1 ) entonces Im(Ak ) = Im(At )
para todo t k.
Problema 4.2.5. Demuestre que si existe un entero k tal que Im(Ak ) = Im(Ak+1 ) entonces N ul(Ak ) =
N ul(At ) para todo t k.
Problema 4.2.6. Demuestre que si existe un entero k tal que Im((A I)k ) = Im((A I)k+1 ) entonces
K = N ul((A I)k ).

4.3.

Forma Cannica de Jordan: Versin General


o
o

En esta seccin mostraremos la existencia de la forma cannica de Jordan para una matriz arbitraria.
o
o
Teorema 4.5. (Descomposicin Jordan de una matriz) Sea A una matriz n n, sean 1 , . . . , s los
o
a
distintos valores propios de A y ni la multiplicidad algebrica de i entonces


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

119

1. Ki j=i Kj = 0.
2. dim Ki = ai , para i = 1, . . . , s
3. Cn = K1 Ks .
4. Existe una base de Cn , llamada base de Jordan, tal que la matriz de A con respecto a esta tiene la forma
(4.8).
Demostracin.
o

1. Supongamos que v1 K1 j>1 Kj , entonces v1 = 2 v2 + + s vs y para i =

1, . . . , s, sea pi > 0 el m
nimo entero tal que (A i I)pi vi = 0. Por el Teorema 4.1 tenemos que (A
1 I)p1 1 v1 es un vector propio de valor propio 1 . Ntese que, para j = 2, . . . , s, al aplicar (A j I)pj al
o
vector (A 1 I)p1 1 v1 obtenemos

pj
pj

(A j I) (A 1 I)

p1 1

(1)k k Apj k
j

v1 =

(A 1 I)p1 1 v1

k=0
pj

(1)k k Apj k (A 1 I)p1 1 v1


j

k=0

p k

=1 j

(A1 I)p1 1 v1

pj

p k

(1)k k 1j
j
k=0
pj

(A 1 I)p1 1 v1

p k

(1)k k 1j
j
k=0

(A 1 I)p1 1 v1

= (j 1 )pj (A 1 I)p1 1 v1
Por tanto si aplicamos (A 2 I)p2 (A s I)ps al vector (A 1 I)p1 1 v1 obtenemos
(A 2 I)p2 (A s I)ps (A 1 I)p1 1 v1 = (2 1 )p2 (s 1 )ps (A 1 I)p1 1 v1 .

(4.17)

Ahora, ntese que (A 2 I)p2 (A s I)ps vj = 0 por tanto


o
(A 2 I)p2 (A s I)ps v1 = (A 2 I)p2 (A s I)ps (2 v2 + x vs )

(4.18)

= 2 (A 2 )p2 (A s )ps v2 + + s (A 2 )p2 (A s )ps vs


=0
Luego de (4.17) y (4.18) tenemos que
(2 1 )p2 (s 1 )ps (A 1 I)p1 1 v1 = 0,
de donde (A 1 I)p1 1 v1 = 0, pero esto no es posible ya que (A 1 I)p1 1 v1 es un vector propio. Por
tanto v1 = 0 y Ki j=i Kj = 0.
2. Sabemos que A i I es nilpotente en Ki , entonces existe una base i de Ki tal que
i [A

i I]i = Jp1 (0) Jpt (0).

120
a
Sea mi = dim Ki , como esta matriz es triangular superior, tenemos que el polinomio carcteristico de
stico de A es
esta matriz es (t i )mi . Como esto es para cada i, tenemos que el polinomio caracter
(t 1 )m1 (t s )ms
Por tanto mi = ai = multiplicidad algebraica de i , para i = 1, . . . , s.
s

3. Como a1 + + as = n entonces
que

dim Ki = n, entonces por la parte 1. de este teorema, tenemos


j=0

Cn = K1 Ks .
4. Por el Corolario 4.4 existe una base i para Ki , para i = 1, . . . , s tal que la matriz de A|Ki tiene la
forma (4.16) con = i . Por la parte 4.5 tenemos que s i es una base de Cn bajo la cual la matriz de
i=1
A tiene la forma (4.8).

El procedimiento para el clculo de la base bajo la cual una matriz obtiene la forma cannica de Jordan es
a
o
como sigue.
Procedimiento 4.2. (Algoritmo para calcular una base de Jordan) Sea A una matriz n n, para
calcular una base de Jordan para A hacemos lo siguiente
1. Calculamos los valores propios 1 , . . . , s de A,
2. Para i = 1, . . . , s aplicamos el Procedimiento 4.1 a la matriz A i I, el cual nos dar una base i para
a
K i .
3. De acuerdo al teorema anterior la unin de las bases encontradas en el paso anterior es una base de Jordan
o
para A.

3 1

4 12

11

Ejemplo 4.6. Calcular la forma cannica de Jordan de la matriz A = 1


o

3 1

3 1

3 1

3 1

3 1

1 1

5 4

Solucin El polinomio caracter


o
stico de esta matriz est dado por pA (x) = (x 2) (x 3) (x 1)3 y los valores
a
propios de A son 1 = 1, 2 = 2 y 3 = 3. Para cada uno de estos valores, debemos aplicar el Procedimiento
4.1.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

121

Para 1 = 1, calculamos los vectores propios de A, es decir N ul(A I) y encontramos que

1
E1 = N ul(A I) = gen v1 = 2
3

4
5

Ahora calculamos N ul(A I)2 y obtenemos

N ul(A I)2 = gen

w1 =

1
4
3 , w2
2
1
0

1
1

3
2
1

0
1

De acuerdo al Procedimiento 4.1, ahora necesitamos calcular una solucin a la ecuacin (A I)x = v1. La cual
o
o
calculamos con el comando matlinSolve(A I, v1 ) en Mupad y obtenemos que el vector
1/5

es una solucin a tal ecuacin.


o
o

v2 =

1/5
4/5

3/5
2/5
1/5
0

Ahora necesitamos una solucin a la ecuacin (A I)x = v2, usando el comando matlinSolve(A I, v2 )
o
o
obtenemos que el vector

es una solucin.
o

v3 =

4/25
21/25
16/25

12/25
8/25
4/25
0

Como la multipliciada algebraica de = 1 es 3, entonces dim K1 = 3 y por tanto {v1 , v2 , v3} es una base de
K1 . De esto deducimos que la forma cannica de Jordan de A contiene bloque
o
el
1 Jordan J3 (1).

1
Continuamos con = 2. Primero encontramos que N ul(A 2I) = y1 = 1 .
1

2
3

Ahora calculamos una solucin a la ecuacin (A 2I)x = y1 . Para esto usamos el comando matlinsolve(A
o
o

2I, y1 ) en Mupad y obtenemos el vector

1/3
1/3

1/3

y2 = 1/3 .
2/3
1/3
0

Como la multipicidad geomtrica de = 2 es 2, entonces dim K2 = 2 y por tanto {y1 , y2 } es una base de
e
K2 y deducimos que la forma cannica de Jordan de A contiene el bloque Jordan J2 (2).
o
Finalmente aplicamos el mismo procedimiento con el valor propio = 3. Primero obtenemos que

1
N ul(A 3I) = gen z1 = 1 .
1

1
1

122
A continuacin calculamos una solucin a la ecuacin (A3I)x = z1, la cual podemos calcular en Mupad usando
o
o
o
1
1

1
e
el comando matlinsolve(A 3I, z1) y obtenemos que el vector z2 = 1 . En este caso tambin tenemos que
1
1
0

{z1 , z2 } es una base de K3 , ya que este tiene dimensin 2=multiplicidad algebraica del valor propio 3 y podemos
o
concluir que la forma cannica de Jordan de A contiene el bloque de Jordan J2 (3).
o

As la base de Jordan esta formada por los vectores X = {v1 , v2 , v3 , y1 , y2 , z1 , z2 } y con respecto a esta base

la forma Jordan est dada por


a
1 1 0 0 0 0 0
0 1 1 0 0 0 0

X AX

0 0 1 0 0 0 0
= J3 (1) J2 (2) J2 (3) = 0 0 0 2 1 0 0
0 0 0 0 2 0 0
0 0 0 0 0 3 1
0 0 0 0 0 0 3

Dejamos al lector vericar que efectivamente el cambio de base B 1 AB produce la matriz


B = [v 1

v2

v3

y1

y2

z1

X AX

con

z2 ].

1 2 1

1
Ejemplo 4.7. Calcular una base bajo la cual la matriz A =

1
cannica de Jordan
o

2 2 1
0

1 1

1 3 2
2 4 1
3 6 3

1 1

1 1

1 1
obtiene su forma

1 1

2 1

0 0

Solucin. El polinomio caracter


o
stico de esta matriz es pA (x) = (x + 1)6 , es decir, = 1 es el unico valor

propio de A con multiplicidad algebraica 6.


De acuerdo al procedimiento anterior, debemos aplicar el Procedimiento 4.1 a la matriz A + I, el cual
comienza calculando los vectores propios de A obteniendo

E1 = N ul(A + I) = gen

u11 =

3
3 , u12
2
1
0

2
2
= 2
1
0
1

Ahora calculamos soluciones a las ecuaciones (A + I)x = u11 y (A + I)x = u12 . Usando los comandos
matlinsolve(A + I, u11 ) y matlinsolve(A + I, u12 ) en Mupad, obtenemos los vectores

u21 =

9
9
8
4
0
0

7
7

u22 = 6
3
0
0

El siguiente paso es calcular soluciones a las ecuaciones (A + I)x = u21 y (A + I)x = u22 . Usando los comandos
matlinsolve(A + I, u21 ) y matlinsolve(A + I, u22 ) en Mupad, obtenemos los vectores

u31 =

27
26
22
9
0
0

21
20

u32 = 17 .
7
0
0


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

123

Como dim K1 = 6 = multiplicidad algebraica de = 1, tenemos que los vectores u11 , u21 , u23 , u12 , u22 , u32
forman una base de Jordan de A y con respecto a esta base la matriz de Jordan J de A est dada por
a
1 1 0 0 0 0
0 1 1 0 0 0
0 0 1 0 0 0
0 0 0 1 1 0 .
0 0 0 0 1 1
0 0 0 0 0 1

J = J3 (1) J2 (1) =

PROBLEMAS

Sea A una matriz en Mn (C)


Problema 4.3.1. Para cada una de las siguientes matrices calcule una base de Jordan y la forma de Jordan
de la matriz
a. A =

0 3 4 5
7
2 6 6 8 10
2 3 2 6
8
1 1 1 5 4
0 0 0 1 1

d. A =

1 0 0 1 1
0 1 0 1 1
1 1 1 1 1
1 0 1 2 1
1 0 0 0 0

b. A =

e. A =

3 1 1 1 2
1 3 2 3 4
1 1 1 4 5
0 0 1 2 0
0 0 0 1 3

1
0
1
1
1
1

1
2
0
1
2
3

2
2
1
3
4
6

1
1
1
2
1
3

1
1
1
1
2
0

1
1
1
1
1
0

c. A =

f. A =

3 1 1 1 2
1 3 2 3 4
2 2 2 6 8
2 2 3 6 6
1 1 1 1 0

1 0
3
4
4
4
4

1 1 1 1
2 1 1 1 1
1 1 1 1 1
0 0 1 1 1
0 1 0 3 1
0 2 2 7 0

Problema 4.3.2. Demuestre que A es diagonalizable si y solo si para todo valor propio se tiene que Im(A
I) = Im((A I)2 ).

Problema 4.3.3. Sea A una matriz con tres valores propios = 2, 4 y 5. Si para = 2 hay tres ciclos de vectores
propios {v11 , v21 , v31 , v41 }, {v12 , v22 } y {v13 }, para = 4 hay dos ciclos de vectores propios {w11 , w21 , w31 } y
{w12 } y para = 5 hay dos ciclos de vectores propios {x11 , x21 } y {x12 }, determine lo siguiente:
1. La forma cannica de A.
o
2. Los vectores propios de A.
3. Una base de K4
4. Una base de N ul((A 2I)2 )
Problema 4.3.4. Si la matriz de A con respecto a la base X = {x1 , . . . , x11 } est dada por
a
J3 (1) J4 (2) J1 (2), determine lo siguiente
1. Los ciclos de vectores propios para = 1.
2. Los ciclos de vectores propios para = 2.
3. Los vectores propios de A.
4. Una base de K2
5. Una base de K1
6. Una base de N ul((A 2I)3 )

X AX

= J3 (1)

124

4.4.

Polinomio m
nimo

En esta seccin mostraremos....


o
Denicin 4.4. Sea A Mn (C,
o
1. Si p(x) =

n
i=0

ai xi C[x], denimos la matriz p(A) como p(A) =

n
i=0

ai Ai , donde A0 = I.

2. Denimos el polinomio m
nimo de A, como el polinomio mnico de grado minimal tal que p(A) = 0.
o
Proposicin 4.6. El polinomio m
o
nimo es unico.

Demostracin. Sean m(x) y p(x) polinomios de grado minimal tal que m(A) = 0 = p(A). Por el algoritmo
o
de la divisin para polinomios en una variable tenemos que existen polinomios q(x) y r(x) tal que
o
p(x) = q(x)m(x) + r(x)

con

grado(r(x)) < grado(m(x).

entonces se tiene que r(A) = p(A) q(A)m(A) y por tanto r(A) = p(A) q(A)m(A) = 0, lo que contradice la
minimalidad del grado de m(x), se sigue que m(x)|p(x). Similarmente se demuestra que p(x)|m(x). Se sigue que
p(x) = cm(x) con c constante. Como p(x) y m(x) son mnicos se cumple que c = 1 y por tanto p(x) = m(x).
o
Notacin 4. Al polinomio de la matriz A lo denotaremos por mA (x).
o
Proposicin 4.7. Sea mA (x) el polinomio m
o
nimo de A y sea p(x) un polinomio entonces p(A) = 0 si y slo
o
si mA (x)|p(x).
Demostracin. Si p(A) = 0, por el algoritmo de la divisin tenemos que p(x) = mA (x)q(x) + r(x) donde r = 0
o
o
o grador(x) <gradomA (x). Si r = 0 tenemos que r(A) = p(A) mA (A) q(A) = 0, lo que contradice que mA (x)
=0

=0

es el polinomio m
nimo. Por tanto r = 0 y mA (x)|p(x).
Si mA (x)|p(x) entonces p(x) = mA (x)q(x) y por tanto p(A) = mA (A)q(A) = 0.
A continuacin usaremos la forma cannica de Jordan para determinar el polinomio m
o
o
nimo de una matriz
A. Para esta construccin necesitamos las siguientes observaciones. En lo que sigue denotaremos por Eij a la
o
matriz con un 1 en la ij-sima entrada y ceros en las dems entradas. Es importante notar que Eij Ekl = jk Eil .
e
a
Observacin 4.1. Sean A, B Mn (C)
o
A1

..

1. Si A =

As

entonces Ak =

Ak
1

..

Ak
s

Un fcil clculo muestra que esta observacin es cierta.


a
a
o
A1

2. Si A =

B1

..

yB=
As

..

con Ai y Bi del mismo tamao, para i = 1, . . . , s, entonces


n
Bs
A1 B1

AB =

..

Un fcil clculo muestra que esta observacin es cierta.


a
a
o

.
As Bs


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

125

3. Jp (0)p = 0 y Jp (0)p1 = E1p = 0, es decir, Jp (0) es es nilpotente con


ndice de nilpotencia p.

p1

pk

Ei,i+1 , veamos por induccin que Jp (0)k =


o

Demostracin. Jp (0) =
o
i=1

Ei,i+k .
i=1

Para k = 1 es claro.
pk

Supongamos que Jp (0)k =

Ei,i+k entonces
i=1

p1

pk

Jp (0)k+1 = Jp (0)k Jp (0) =

Ei,i+k
i=1

Ei,i+k Ej,j+1

i=1

i=1 j=1
p(k+1)

pk p1

pk p1

Ei,i+1 =

i+k,j Ei,i+k Ej,j+1 =

Ei,i+k+1 .

i=1 j=1

i=1

Se sigue que Jp (0)p1 = E1p = 0 y que Jp (0)p = 0.

4. Si A = Jp () entonces (A I)p = 0 y para k < p se tiene que (A I)k = 0.


Proposicin 4.8. Sea A Mn (C) y sea J = Jp11 (1 ) Jp1t1 (1 ) Jps1 (s ) Jpsts (s ) la
o
forma Jordan de A con pi1 piti para i = i, . . . , s. Entonces
(A 1 I)p11 (A s I)ps1 = O.
Demostracin. Ntese que
o
o
Jp

11

J i I =

(1 i )

..

.
Jp1t (1 i )
1

..

.
Jpi1 (0)

..

.
Jpit (0)
i

..

.
Jps1 (s 1 )

..

.
Jpsts (s i )

elevando a la pi1 , por la parte 4. de la observacin anterior y usando el hecho que pi1 piti tenemos lo
o

126
siguiente
(J i I)pi1 =
(Jp (1 i ))pi1

11

..

(Jp1t (1 i ))pi1
1

..

(Jpi1 (0))pi1
=0

..

(Jpiti (0))pi1
=0

..

(J

p11

(1 i ))pi1

..

(Jp1t (1 i ))pi1

(Jps1 (s 1 ))pi1

..

..

..

..

(Jps1 (s 1 ))pi1

..

(Jpsts (s i ))pi1

Ahora, usando la parte 2 en la observacin anterior se sigue que


o
(J 1 I)p11 (J s I)ps1 =
0
...

..

(Jps1 (s 1 ))p11

..
.

(Jpsts (s 1 ))p11

(Jp

11

(1 s ))ps1

..

(Jpsts (s i ))pi1

(Jp1t (1 s ))ps1

..

..

Finalmente, como J es la forma cannica de A tenemos que A = CJC


o
y (A i )pi1 = C(J i )pi1 C 1 , por tanto

=0

entonces (A i ) = C(J i )C 1

(A 1 )p11 (A s )ps1 = C ((J 1 )p11 (J s )ps1 ) C 1 = C0C 1 = 0.


=0

Ntese adems que si ki < pi1 con i = 1, . . . , s, tenemos que (A 1 )p11 (A s )ki (A s )ps1 = 0.
o
a

nimo de A, donde pi1 es la longitud del bloque


Concluimos que (x 1 )p11 (x 1 )ps1 es el polinomio m

Jordan ms grande para el valor propio i con i = 1, dtos, s.


a
Corolario 4.9. (Teorema de Cayley-Hamilton) Sea A Mn (C) y sea pA (x) el polinomio caracter
stico,
entonces pA (A) = 0


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

127

Demostracin. Es claro que mA (x)|p(x), ya que p(x) = (1 x)a1 (s x)as donde ai es la multiplicidad
o
algebraica de i , para i = 1, . . . , s. Como ai es la suma de las longitudes de los bloques Jordan, es decir,
ai = pi1 + + piti pi1 .
Entonces se sigue del teorema anterior y la Proposicin 4.7 que pA (A) = 0.
o

128

Cap
tulo 5

Aplicaciones
En este cap
tulo asumiremos que la forma cannica de Jordan de A es la matriz J y por tanto A = CJC 1
o
donde C es la matriz formada por vectores en una base de Jordan de A.

5.1.

Potencia de una matriz

Si A = CJC 1 , se tiene que Ak = CJ k C 1 . De hecho si suponemos por induccin que Ak1 = CJ k1 C 1


o
entonces
Ak = Ak1 A = CJ k1 C 1 C JC 1 = CJ k1 JC 1 = CJ k C 1 .
=I

2
.
.
.

..
.

0
Si A es diagonalizable con J = .
.
.

k
1

k
2
.
.
.

..
.

0
.
.
.

0
, es fcil ver que J =
a

.
n
0
0
.
.
.

k
n

r(m1)

Problema 5.1.1. Demuestre que si J = Jm () es un bloque de Jordan, entonces

0
k
J = .
.
.

r
1

r
2
r
1

r
m2
r
m3

r(m2)

r2

...

r1

...

0
.
.
.

r
.
.
.

...
..
.

.
.
.

...

...

r1
r

r(m3)

Ejemplo 5.1. Calcule la k-sima potencia de la matriz A =


e
129

2 1
1 2

r
m1
r
m2
r
m3

r(m2)

r(m3)

r
r1

130

1
Se puede ver que los vectores propios de A son v1 = de valor propio = 1 y v3 = de valor propio
1
1
= 3, entonces tenemos que

1
1
3 0
1
1

A=
1 1
0 1
1 1

3k

Por tanto

Ak =

5.1.1.

1
1

3 0

1 1
0 1
1

1 1



1 k
1
(3 + 1)
0 1 1
= 2

1 k
1 2 1 1
2 (3 1)

1 k
2 (3
1 k
2 (3

1)
+ 1)

Relaciones de recurrencia

Si se tiene una relacin de recurrencia determinada por una ecuacin de la forma an = an1 + an2 ,
o
o
entonces tenemos el sistema de ecuaciones

an = an1 + an2 ,

an
=
El cual es equivalente al sistema

an1 = an1 ,
1
an1

el cual es cierto para todo n. Si hacemos A =

an1

an2

an2

an3

, . . . , obtenemos

an1
an2

y si continuamos aplicando el sistema a los vectores

= An1 1 .
an1
a0
an

(5.1)

Si conocemos los valores de a1 y a0 , entonces con la Ecuaci (5.1) obtenemos una frmula para an en trminos
on
o
e

1 0
C 1 , con C la matriz de vectores propios
de los valores propios de A y n. Esto se da porque si A = C
0 2

n1
0
1
C 1 .
y 1 y 2 los valores propios de A, entonces An1 = C
n1
0
2

Ejemplo 5.2. (Sucecin de Fibonacci) La secuencia de Fibonacci satisface la relacin Fn = Fn1 + Fn2 ,
o
o

para n 2, con F0 = 0 y F1 = 1. Encuentre una frmula para calcular el n-simo trmino n .


o
e
e
F

F
1 1
Fn
n1
=
De acuerdo a las ecuaciones Fn = Fn1 +Fn2 y Fn1 = Fn1 , tenemos el sistema
1 0
Fn2
Fn1
y por tanto

Los vectores propios de A son v1 =


valor propio 1 = 1 (1 +
2

5).

Fn

Fn1

1
2

= An1

F1
F0

, con A =

1 1
1 0

5
1+ 5
con valor propio 1 = 1 (1 5) y v2 = 2
con
2
1
1


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

1
2

Por tanto A = CDC 1 con C =


obtenemos que

1
2

1
5
5
2 1
yD=
0
1

De esto concluimos que Fn =

5.1.2.

1
2

F1

5
2

1
2

1+

y de estos
5

= An1 = CDn1 C 1
Fn1
F0
0

n1
1
0
1 5
=C 2

1
5
0
2 1

n
1
1
1

+ 25 5 1 25
2
5 2

n1
5
1
1
1
1

+ 2
5 2 25
5 2
Fn

1+

131

1
2

5
2


1
1
n1 C
0

n1

Cadenas de Markov

Esta subseccin tambin se trata de una aplicacin de la potencia de matrices y lo expondremos con ejemplos.
o
e
o
Ejemplo 5.3. Dos compaias A y B manipulan el mercado de celulares y se calcula que A tiene el 60 % de los
n
clientes, mientras que B maneja el 40 % del mercado. La compaia A prepara una agresiva campaa comercial
n
n
la cual, de acuerdo a un estudio de mercado, acarrear las siguientes consecuencias:
a
El 90 % de los clientes de A permancern con A y el resto se ir a B
a
a
El 30 % de los clientes de B se cambiarn a A y el resto permanecer con B.
a
a
Determine los porcentajes de clientes de A y B si se aplica la campaa 1 vez, 10 veces, k veces e indenidan
mente.
Si Xk y Yk es el porcentaje de clientes de A y B respectivamente despus de aplicar la campaa k veces
e
n
entonces tenemos que
Xk = 0,9Xk1 + 0,3Yk1
Yk = 0,1Xk1 + 0,7Yk1

equivalentemente

Xk
Yk

0,9
0,1

0,3 Xk1
.

0,7
Yk1

Por tanto, despues de aplicar la campaa una vez otbtenemos


n




0,66
0,6
0,9 0,3
X0
0,9 0,3
X1
.
=
=
=
0,34
0,4
0,1 0,7
0,1 0,7
Y0
Y1
Es decir, A manejar el 66 % de los clientes y B el 34 %.
a
Si se aplica la campaa 10 veces obtenemos que
n

X10
Y10

0,9 0,3
0,1 0,7

X9
Y9

0,9 0,3
0,1 0,7

X8
Y8

= =

0,9 0,3
0,1 0,7

10

X0
Y0

Es decir, despus de aplicar la campaa 10 veces, A dominar el 74.9 % del mercado.


e
n
a

0,749
0,251

132


0,9 0,3
,6
.
Despue de aplicar la campaa k veces obtenemos que = Ak = Ak , donde A =
s
n
0,1 0,7
,4
Y0
Yk
Para determinar la k- potencia de A calculamos los valores y vectores propios y encontramos que los
esima

1
3
vectores v1 = y v2 = de valores propios = 1
1
1

1 0
3 1
. De lo cual se obtiene
yD=
con C =
0 0,6
1
1

1
0
3 1
1
1

Ak = CDk C 1 =
0 0,6k 4 1
1
1
De esta forma tenemos que

Xk
Yk

= Ak

0, 6
0, 4

Xk

X0

y = 0,6, respectivamente, por tanto: A = CDC 1

que


1
3 + 0,6k
1
= 4
1
k
3
4 1 0,6

1
4
1
4

3 0,6k+1
1 + 0,6k+1

3
4
1
4

1 0,6k

1 + 3 0,6k

Por tanto el porcentaje de clientes de A despus de aplicar la campaa k veces ser el


e
n
a
B ser
a

1
4

1 + 0,6k+1

1
4

3 0,6k+1 % y el de

Esto indica que si se aplica la campaa indenidamente el mximo porcentaje de clientes que obtiene A es
n
a
1
1
k+1
X = l
m
3 0,6
= 0,75 % y el m
nimo porcentaje al que B llegar es Y = l
a
m
3 + 0,6k+1 =
k 4
k 4
0,25 %.
Comparando este ultimo resultado con el obtenido al aplicar la campaa 10 veces obtenemos que es suciente

n
con aplicar esta alrededor de 10 veces para obener un buen benecio para la compaia.
n

PROBLEMAS
Problema 5.1.2. Encuentre el valor del trmino x20 de una sucecin que satisface la relacin de recurrencia
e
o
o
xn = xn1 + 2xn2 con x0 = x1 = 1. Encuentre una frmula en trminos de n para calcular el n-simo trmino.
o
e
e
e
Problema 5.1.3. Resuelva la relacin de recurrencia Tn = 2bTn1 b2 Tn2 con T1 = 2b, T2 = 3b2 y b cualquier
o
real.
Problema 5.1.4. Resuelva la relacin de recurrencia Tn = aTn1 a2 Tn2 con T1 = a, T2 = 0 y a cualquier
o
real.
Problema 5.1.5. Resuelva la relacin de recurrencia Tn = aTn1 + a2 Tn2 con T1 = a, T2 = 2a y a cualquier
o
real.
Problema 5.1.6. Encuentre una frmula en trminos de n para calcular el n-simo trmino de una sucecin
o
e
e
e
o
que satisface la relacin de recurrencia xn = 3xn1 + 4xn2 con x0 = 1 y x1 = 1.
o
Problema 5.1.7. Dos compaias A y B que manipulan el mercado de celulares preparan una campaa comercial
n
n
y de promociones. Un estudio de mercado predijo que esta campaa arrojar los siguientes resultados:
n
a
Dos tercios de los clientes de A se quedaran en A y el resto se cambiar a B
a
Dos quintos de los clientes de B se quedaran en B y el resto se cambiar a A
a


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

133

1. Cul ser el porcentaje de clientes de cada compaia si se continua llevando a cabo estas campaa indea
a
n
n
nidamente?

2. Si la compaia A tiene 60 porciento del mercado, cul ser el porcentaje de clientes de cada compaia si
n
a
a
n
se aplica la campaa 1 vez, 10 veces, 20 veces?
n

Problema 5.1.8. Un pa tiene 3 regiones A, B y C y cada ao sus habitantes cambian de residencia de la


s
n
siguiente forma:
Un 20 % de los habitantes de A emigran a B y un 5 % emigra a C
Un 3 % de los habitantes de B emigran a A y un 5 % emigra a C
Un 10 % de los habitantes de C emigran a A y un 2 % emigra a B

1. Si A tiene el 30 % de los habitantes, B tiene el 30 % y C tiene el 40 %, calcule el porcentaje de los habitantes


si este proceso se continua indenidamente

2. Calcule la cantidad de habitantes de cada regin en 20 aos.


o
n

5.2.

Exponencial de una matriz diagonalizable

La funcin exponencial de un real x, se dene como la serie ex =


o

k=0

1 k
x . Se sabe que esta serie es
k!

convergente para todo x R y por tanto ex est bien denido para todo x.
a

1 k
A y
k!
k=0
mostraremos en esta seccin que esta matriz est bien denida si A es diagonalizable. En general la matriz de
o
a
De igual forma para una matriz A deniremos la matriz exponencial como la matriz eA =

cualquier matriz compleja est bien denida, pero esto requiere de la forma de Jordan, en esta seccin solo nos
a
o
concentraremos en las matrices diagonalizables.

134

eD

2
.
.
.

..
.

0
.
.
.

0
Primero, si D = .
.
.

es diagonal, entonces

k
1

1 k
1 0

=
D =
k!
k! .
.
k=0
k=0
.
0

1 k
1
0

k=0 k!

1 k

k! 2
=
k=0

.
.

.
.

.
.

0
0

k
2
.
.
.

0
.
.
.

k=0

k
1

k
2
.
.
.

..
.

0
.
.
.

k
n

e 2
.
.
.

..
.

0
.
.
.

e n

1 0
=

.
k=0 k! .

.
k
0
n

..
.

..

e 1



0
0
=
.
.
.
.
.
.

0
1 k

n
k!

Ahora, si la matriz A es diagonalizable con A = CDC 1 , tenemos que:

k=0

1 k
A =
k!

k=0

1
(CDC 1 )k =
k!
A

por tanto e est bien denido y e = Ce C


a

2 1
.
Ejemplo 5.4. Calcular eA si A =
1 2

k=0
1

Problema 5.2.1.

eA = CeD C 1 =

1. Demuestre

0
J
e =.

.
.

k=0

1 k
D
k!

C 1 = CeD C 1 ,

En el Ejemplo 5.1 vimos que A = CDC 1 con C =

1
CDk C 1 = C
k!

1 1

1 1

e3

yD=

1 1

3
0

0
. Entonces
1
e4

e2

e4

e2

que si J = Jm () es un bloque de Jordan, entonces


1

(m3)! e

(m1)! e

(m3)! e

(m2)! e

1
2! e

1
2! e

0
.
.
.

0
.
.
.

e
.
.
.

..
.

.
.
.
.
.
.

.
.
.
.
.
.

...

1
2! e

...

...

(m2)! e

(m3)! e

.
.
.
.
.
.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

135

2. Si J = J1 Js con Ji = Jpi ](i ) un bloque de Jordan, para i = 1, . . . , s demuestre que eJ = eJ1 eJs .
3. Si A = CJC 1 con J la forma cannica de Jordan, demuestre que eA = CeJ C 1 .
o
Este ejercicio demuestra que para toda matriz compleja A, la exponencial de A existe.

5.2.1.

Sistemas Lineales de Ecuaciones diferenciales

Considere el sistema lineal de ecuaciones diferenciales de la forma

x = a x + + a x ,
1
11 1
1n n

.
.
El cual es equivalente al sistema
.


x = a x + + a x ,
n1 1
nn n
n


a11
x
1

. .
. = .
. .
an1
x
n

x1
a11

.
.
el cual tambin, por simplicidad, escribiremos X = AX con X = . y A = .
e
.
.
xn
an1

..
.

..
.


x1
a1n

. .
. . ,
. .
xn
ann

a1n

.
. .
.
ann


c1

.
,
Teorema 5.1. La solucin al sistema X = AX est dado por X = eAt C con C = . con c1 , cn constantes.
o
a
.
cn

Demostracin. Derivando la ecuacin X = eAt C con respecto a t obtenemos


o
o

dX
dt

d(eAt C)
dt

d(eAt )
dt C

y esta

ultima la podemos determinar como sigue:

d
d(eAt )
=
l
m
dt
dt n
n

= l
m

k=0

1 kd k
A
t = l
m
n
k! dt

k=0
n

= A l
m

k=1
n1

= A l
m

d
1
(At)k =
l
m
k!
dt n

k=0

k=1

k=0

1 k k
A t
k!

1 k k1
A kt
k!

1
Ak1 tk1
(k 1)!
1 k k
A t = AeAt .
(k)!

Por tanto X = AeAt C = AX.

Ejemplo 5.5. Resolver el sistema de ecuaciones lineales


x1 = 2x1 + x2 ,


x = x1 + 2x2 .
2


x
2 1
x
1
1 . Por el teorema anterior tenemos que la
El sistema se puede escribir en la forma =

1 2
x2
x2
At
solucin a este sistema est dado por X = e C.
o
a

136

Por el Ejemplo 5.1 sabemos que la matriz A =

C=

1
1

3 0
y por tanto
yD=
0 1
1
1

eAt = CeDt C 1 = C

e3t

Finalmente obtenemos la solucin


o

x1
x2

1
se puede escribir como el producto A = CDC 1 con
2

C 1

= eAt C =

1 e3t + et
=
2 e3t et

c1 e3t + c2 et
c1 e3t c2 et

Es decir, las solucin al sistema est dada por


o
a

x1 = c1 e3t + c2 et

e3t et

e3t + et

x2 = c1 e3t c2 et

con c1 y c2 constantes.
Entre las mltiples aplicaciones de estos sistemas de ecuaciones diferenciales aparecen los mdelos poblaciou
o
nales los cuales se dividen en 3:
1. El modelo competitivo, cuando el crecimiento de una poblacin hace reducir el crecimiento de otra. En
o

a11 a12
satisfacen a11 , a22 > 0 y a12 , a21 < 0.
este caso los coecientes en la matriz A =
a21 a22

2. El modelo presa-depredador, cuando una poblacin elimina a la otra, en este se cumple a11 , a22 , a21 > 0
o
y a12 < 0 o a11 , a22 , a12 > 0 y a21 < 0.
3. El modelo simbitico o cooperativo, en el cual dos especies crecen de manera proporcional. En este se
o
cumple que a11 , a22 < 0 y a12 , a21 > 0.

Problema 5.2.2.

1. Demuestre que si J = Jm () es un bloque de Jordan, entonces

etJ

et

tet

t2 t
2! e

et

tet

t2 t
2! e

et

te

0
.
.
.

0
.
.
.

0
.
.
.

et
.
.
.

..
.

.
.
.
.
.
.

.
.
.
.
.
.

...

et

tet

t2 t
2! e

...

et

tet

...

et

tm3 t
(m3)! e

tm1 t
(m1)! e

tm3 t
(m3)! e

tm2 t
(m2)! e

tm2 t
(m2)! e

tm3 t
(m3)! e

.
.
.
.
.
.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

5.2.2.

137

Torneos

En un torneo con n equipos en el cual se enfrentan todos contra todos, las posiciones nales no muestran
completamente el ranking adecuado de los equipos, ya que el equipo con ms victorias pudo haber obtenido
a
estas a costa de los equipos ms debiles y viceversa, un equipo con pocos puntos puede haber derrotado
a
a los equipos fuertes pero no haber logrado vencer a los ms debiles. En este caso el ranking real de los
a
equipos no es el que muestra el cuadro de posiciones. Una manera de hacer un ranking mas adecuado se
puede obtener usando valores y vectores propios como sigue.
Denimos la matriz de incidencia A con entrada aij = 1 si el equipo i derrot al equipo j y aij = 0 en caso
o
contrario y denotamos por ri el ranking del equipo i con r1 + + rn = 1, si suponemos que el ranking
de cada equipo es veces a la suma de los rankings de los equipos que el derrot, es decir, el ranking de
o
i es proporcional a la suma de los equipos a los que derrot, obtenemos que r = Ar o equivalentemente
o
Ar =

1
r

y por tanto r es un vector propio de A. Entre los vectores propios de A escogeremos el vector

propio correspondiente al vector propio dominante. La existencia de un vector propio adecuado se garantiza
por el Teorema de Perron-Frobenius.
Ejemplo 5.6. En un torneo con seis equipos A F se dieron los siguientes resultados:
A derrot a B, C, D y a E; B derrot a C, D y a E; C derrot a D y a F; D derrot a E y a F; E derrot a
o
o
o
o
o
C y a F; F derrot a A y a B
o
Las posiciones de este torneo son lideradas por A con 4 victorias, seguido de B con 3, seguido por C, D,
E y F cada uno con dos victorias. Pero el ranking basado en la fortaleza del equipo y no el nmero de
u
victorias se obtiene del vector propio de la matriz de incidencia A asociado al valor conpropio dominante
garantizado por el Teorema de Perron-Frobenius.

0 1 1 1 1 0
0 0 1 1 1 0

En este caso la matriz de incidencia es la matriz A = 0 0 0 1 0 1 . Usando el comando


0 0 0 0 1 1
0 0 1 0 0 1
1 1 0 0 0 0

numeric :: eigenvectors(A) en Mupad obtenemos que el vector propio asociado al valor propio dominante

est dado por r =


a

0,586
0,41
0,319
0,319 .
0,319
0,426

En este ranking se obtiene que A es el equipo ms fuerte, pero esta vez seguido por F en lugar de B.
a

PROBLEMAS

Problema 5.2.3. Calcule la exponencial de la matriz A =

Problema 5.2.4. Calcule la exponencial de cada una de

1
Problema 5.2.5. Calcular la matriz eA donde A =
3

2b

b2

con b C.

las matrices del Problema 4.3.1

138
Problema 5.2.6. Resuelva los sistemas de ecuaciones diferenciales:

a.


x = x1 + 2x2 ,
1


x = 3x1 + 2x2 .
2

x =

3y + 5z,

c. y = x 5y 4z.


z =
y z.

x1 (0) = 1
x2 (0) = 1
x(0) = 2
y(0) = 3
z(0) = 1

x = 3x 16y + 14z, x(0) = 1

b. y = x 9y + 9z.
y(0) = 1


z = x 6y + 6z.
z(0) = 2

x = 8x + 9y + 14z,

x(0) = 2

d. y = 3x 4y 10z. y(0) = 1


z = x y + z.
z(0) = 1

Problema 5.2.7. Calcule el ranking de un torneo con 7 equipos en el cual se dieron los siguientes
resultados:
A derrot a B, C, D, E y a F; B derrot a C, D, E y a F; C derrot a D, E y a G; D derrot a E, F y a
o
o
o
o
G; E derrot a F y a G, F derrot a C y a G y G derrot a A y a B.
o
o
o

Cap
tulo 6

El Espacio Dual y Bidual


6.1.

Notacin
o

Sean V y W espacios vectorial sobre F con F = R o F = C, denotaremos por L(V, W ) al conjunto de


transformaciones lineales de V en W , es decir
L(V, W ) = {f : V W | f es una transformacin lineal },
o
otras notaciones: L(V, W ) =End(V, W ) =HomF (V, W )
En este cap
tulo nos centraremos en estudiar el conjunto L(V, W ) en el caso particular en el que W = F
es el campo de base de V , a este conjunto se le llama el dual de V .
Denicin 6.1. Sea V un espacio vectorial sobre F = R o C, denimos el dual de V , denotado por V , al
o
conjunto L(V, F), es decir, V = L(V, F) = {f : V F/f es una transformacin lineal }, a los elementos
o
del dual se le llaman funcionales lineales.
La primera observacin que se puede hacer acerca del espacio dual V es que una base de V induce una
o
base en V , llamada la base dual. Esto lo presentamos en el siguiente teorema.
Teorema 6.1. Sea V un espacio vectorial y sea X = {v1 , v2 , . . . , vn } una base de V , para i = 1, . . . , n
denimos las funciones

vi :

j v j

v=
j=1

F
fi (v) = i

entonces el conjunto X = {v1 , . . . , vn } es una base de V . A esta base se le llama la base dual de X.

Demostracin. Debemos demostrar que efectivamente las funciones v1 , . . . , vn pertenecen a V y que


o

estas forman una base de V .


139

140
a) La funcin vi es una transformacin lineal:
o
o
n

j v j , w =

Sean v =

j=1

j=1

j vj y F, entonces

vi (v + w) = vi

vi (v) = vi

n
j=1
n
j=1

b) El conjunto {v1 , . . . , vn } es L.I.

(j + j )vj = i + i = vi (v) + vi (w)

(j )vj = i = vi (v).

Supongamos que existe 1 , . . . , n F tal que 1 v1 + + n vn = 0. para 1 j n arbitrario,

tenemos que 1 v1 (vj )+ +j vj (vj )+ +n vn (vj ) = 0(vj ) = 0 por tanto, 1 = 2 = = n = 0

y as {v1 , . . . , vn } es L.I.

c) El conjunto {v1 , . . . , vn } genera a V

Sea f : V R una T.L, sea 1 = f (v1 ), . . . , n = f (vn ) entonces, 1 , . . . , n R; veamos que

f = 1 v 1 + + n v n .

Sea v =

j vj V entonces 1 v1 (v) + + n vn (v) = 1 1 + + n n = f (v). Como V es

arbitrario se tiene que f = 1 f1 + + n fn .

Concluimos que X = {v1 , . . . , vn } es una base para V .

Ejemplo 6.1. Sea V = F2 y {e1 , e2 } la base estndar, una base para V est dada por {e , e }, de hecho
a
a
1 2

si f V y f (e1 ) = 1 y f (e2 ) = 2 entonces f = 1 e + 2 e .


1
2

Esto se cumple en general, se deja como ejercicio para el lector mostrar lo siguiente.
Problema 6.1.1. Sea V un espacio vectorial, V su espacio dual y {v1 , . . . , vn } una base de V , si f V

es tal que f (vi ) = i , para i = 1, . . . , n, entonces f = 1 v1 + + n vn .

Para i = 1, . . . , n, el elemento vi de X se puede ver como la transformacin que anula los elementos de
o

la base X excepto a vi , es decir,

vi :

v1
.
.
.

0
.
.
.

vi
.
.
.

1
.
.
.

vn

o simplemente vi (vj ) = ij , para 1 i, j n y donde es la funcin delta de Kronecker.


o

Problema 6.1.2. Sea V un espacio vectorial, v V y V su dual, demuestre que si f (v) = 0 para todo
f V entonces v = 0.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

141

Ejemplo 6.2. La construccin anterior se puede generalizar, si V = Fn y v V , podemos denir el


o

elemento v V como la funcin denida por


o
v (w) =

1 t
v w,
vt v

para todo

w V.

Es claro que v V ya que si w V tenemos que v (w) =

1 t
vt v v w

v (v) = 1.

F y tambin se cumple que


e

En general, si V es un espacio vectorial, X = {v1 , . . . , vn } es una base de V y v = a1 v1 + + an vn V ,



a1

.
o
tenemos que vX = . y denimos v como la funcin
.
an
v (w) =

1
v X t wX ,
vX t vX

para todo

w V,

donde wX es la representacin de w en la base X.


o

Para ver un caso particular considere V = P2 con base X = {1, x, x2 }, si v = 2+x2 tenemos que vX
y

1
vX t vX

= 1 , por tanto el elemento v satisface lo siguiente:


5

v (x) =

v (x2 ) =

Por tanto tenemos que v =


1
2

0 1] 0 =
5
0

1
1 t
vX 1X = [2
5
5

v (1) =

1 t
1
v X x X = [2
5
5

1 t 2
1
vX (x )X = [2
5
5

1
2 + (x2 ) .
5


2


= 0

1


0


1] 1 = 0

0


0
2

0 1] 0 =
5
1

El teorema anterior implica lo siguiente.


Corolario 6.2. dim V = dim V

Demostracin. Si {v1 , , vn } es una base de V entonces por el Teorema 6.1 tenemos que {v1 , , vn }
o

es una base de V ambas bases con igual nmero de elementos. Por tanto dim V = dim V .
u

142

6.2.

El Espacio Bidual

Denicin 6.2. Sea V un espacio vectorial, denimos el espacio bidual de V , denotado por V como el
o
conjunto
V = L(V , R) = {f : V R/f es una transformacin lineal }.
o
En el Teorema 6.1 se demuestra que un espacio vectorial V y su dual V son isomorfos y en la demostracin
o
de ste se exhibe un isomorsmo, el cual depende de la escogencia de una base {v1 , . . . , vn } de V . A un
e
isomorsmo de esta clase se le llama Isomorsmo cannico. Esto obviamente implica un isomorsmo
o
entre V y V , el cual, por transitividad nos dice que V es isomorfo a V bajo un ismorsmo cannico.
o
El prximo teorema exhibe un isomorsmo entre V y su espacio bidual V que no depende de ninguna
o
base. A los isomorsmos se les conoce como Isomorsmos naturales.
a
Teorema 6.3. Sea V un espacio vectorial entonces V V , adems el isomorsmo es natural, es decir,
=
no depende de la base escogida.

Demostracin. Para v V jo denimos la funcin


o
o

v :

V
f

funcin es lineal.
o

. Veamos que esta

v (f ) = f (v)

Sean f, g V y sea F
v (f + g) = (f + g)(v) = f (v) + g(v) = v (f ) + v (g)
v (f ) = (f )(v) = f (v) = f (v)

Por tanto tenemos que v V , para todo v V . Ahora denimos la funcin


o
y veamos que sta dene un isomorsmo.
e

V
(v) = v

es lineal: Sean v, w V y f V , veamos que (v + w) = (v) + (w), es decir, v+w = v + w


y tambin que (v) = (v), es decir, v = v .
e
v+w (f ) = f (v + w) = f (v) + f (w) = v (f ) + w (f ) = (v + w )(f ) como f es arbitrario tenemos
que
v+w = v + w .
Ntese tambin que v (f ) = f (v) = f (v) = v (f ) por tanto v = v entonces
o
e
(v) = v = v = (v).
es 1-1.
supongamos que v 0 entonces para todo f V , v (f ) = 0 o equivalentemente, para todo f V
f (v) = 0, entonces por el Ejercicio 6.1.2 tenemos que v = 0.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

143

Finalmente, como dim V = dim V = dim V concluimos que es un isomorsmo.


Denicin 6.3. (Aplicacin Transpuesta) Sea f : V W una transformacin lineal, sta transforo
o
o
e
macin se puede extender a los espacios duales de V y W .
o
Denimos la funcin:
o
ft :

V
f t ()

donde f t ()(v) = (f (v)), para todo v V . A la funcin f t se le llama la aplicacin transpuesta


o
o
La Matriz de la Aplicacin Transpuesta
o

Sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases de V y W respectivamente y sean X = {v1 , . . . , vn }

y Y = {w1 , . . . , wm } las bases duales de V y W respectivamente y sea A =Y [f ]X la matriz de f con

respecto a las bases X y Y , si las entradas de A son

a11

.
A= .
.
am1
entonces como A = f (v1 )Y

f (v2 )Y

a1i

.
f (vi )Y = .
.
ami

a12
.
.
.
am2

a1n

.
.
.
amn

..
.

f (vn )Y

tenemos que para i = 1, . . . , n

equivalentemente

f (vi ) = a1i w1 + + ami wm .

Ntese que f t (wj )(vi ) = wj f (vi ) = wj (a1i w1 + + ami wm ) = aji


o

Por el Ejercicio 6.1.1 tenemos que f t (wj ) = aj1 v1 + + ajn vn , es decir, f t (wj )X

la matriz de f t con respecto a las bases X y Y ,

X [f

]Y = f t (w1 )X

X [f

f t (wm )X

]Y , est dada por


a

a11

.
= .
.
a1n

a21
.
.
.

..
.

a2n

aj1

.
= . y por tanto
.
ajn

am1

.
. = At .
.
amn

Concluimos que la matriz de la aplicacin transpuesta f t es la transpuesta de la matriz de la transformacin


o
o
f.
Ejemplo 6.3. Sea f : P2 P1 la transformacin derivacin, es decir, f (p(t)) = p (t). una base de P2 es
o
o

X = {p0 = 1, p1 = x, p2 = x2 } y una base de P1 es Y = {s0 = 1, s1 = x}.

144
Como f (p0 ) = 0, f (p1 ) = 1 y f (p2 ) = 2x tenemos que la matriz de f con respecto a las bases dadas
est dada por
a

A=

0 1
0 0

0
.
2

Las bases duales P y P son Y = {s , s } y X = {p , p , p }, respectivamente. De acuerdo al razona1


2
0 1
0 1 2

miento anterior tenemos que la matriz de f t con respecto

t
X [f ]Y = 1

por tanto tenemos que f t (s ) = p y f t (s ) = 2p .


0
1
1
2

a estas bases duales est dada por


a

0 ,

Esto lo podemos corroborar de manera directa aplicando la denicin de la aplicacin transpuesta como
o
o
sigue:
f t (s )(p0 ) = s (f (p0 )) = s (f (1)) = s (0) = 0
0
0
0
0
f t (s )(p1 ) = s (f (p1 )) = s (f (x)) = s (1) = 1
0
0
0
0

equivalentemente

f t (s ) = p
1
0

equivalentemente

f t (s ) = 2p
1
2

f t (s )(p2 ) = s (f (p2 )) = s (x2 ) = s (2x) = 0


0
0
0
0
f t (s )(p0 ) = s (f (p0 )) = s (f (0)) = s (0) = 0
1
1
1
1
f t (s )(p1 ) = s (f (p1 )) = s (f (x)) = s (1) = 0
1
1
1
1
f t (s )(p2 ) = s (f (p2 )) = s (f (x2 )) = s (2x) = 2
1
1
1
1

PROBLEMAS
Problema 6.2.1. Demuestre que T : V W es un isomorsmo si y solo so la aplicacin transpuesta
o
T : W V es un isomorsmo.

Problema 6.2.2. Sea V un EV de dimensin nita y sea x V y dena x V por x(f ) = f (x).
o

Demostrar que si x(f ) = 0 para todo f V entonces x = 0.

Problema 6.2.3. Sea V un EV de dimensin nita, demostrar que toda base de V es la base dual de
o
alguna base de V .
Problema 6.2.4. Determine cules de las siguientes funciones son funcionales lineales
a
a) f : P (R) R denida por f (p) = 2p (0) + p (1), donde P (R) es el conjunto de polinomios con
coecientes reales.

b) f : R2 R denida por f

x
y

= xy.

c) f : M22 R denida por f (A) = trA.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

145

d) . f : R3 R denida por f y = x2 + y 2 + z 2 .

z
1

e) f : P (R) R denida por f (p) =

p(t)dt.
0

Problema 6.2.5. Calcular la base dual de las siguientes bases

0
1

a) = 0 , 2 , 0 R3

1
1
1

b) = 1 + x, 1 x, x2 P2 .

Problema 6.2.6. Sean f1 , f2 y f3 V con V = R3 denidas por f1 y = x2y, f2 y =

z
z

x + y + z y f1 y = y 3z. Demostrar que = {f1 , f2 , f3 } es una base de V y encontrar una

z
base de V talque = .
2

p(t)dt y f2 =

Problema 6.2.7. Sea V = P1 y denamos f1 =


0

es una base de V y encontrar una base de V cuya base dual sea .

p(t)dt, demuestre que = {f1 , f2 }

Problema Calcular T (f
) donde es la aplicacin transpuesta de T : R2 R2 denida por
o
T

6.2.8.

x
3x + 2y
x
= 2x + y.
y f
=
T
y
x
y

Problema 6.2.9. Sea T : Rn Rm una funcin. Demostrar que T es lineal si y solo si existen
o

f1 (x)

.
f1 , . . . , fm (Rn ) tal que T (x) =
para todo x Rn .
.

fm (x)
Problema 6.2.10. Sea V = Pn , sean c0 , . . . , cn constantes diferentes y para i = 0, . . . , n denamos
fi (p) = p(ci ). Demuestre lo siguiente
a) {f0 , . . . , fn } es una base de V .
b) existen polinomios unicos p0 , . . . , pn tal que pi (cj ) = ij .

b
a

pi (t)dt.

p(ci )di donde di =

p(t)dt =

c)

i=0

146

6.3.

El Anulador de un Subespacio

Denicin 6.4. (El Anulador de un Subconjunto.) Sea V un espacio vectorial y W V , denimos


o
el anulador de W , An (W ), como el conjunto

An (W ) = { V | (w) = 0 para todo w W }.


El anulador de un subconjunto es un subespacio de V .
Si , An (W ) y F tenemos que para w W
( + )(w) = (w) + (w) = 0, por tanto + An (W )
()(w) = (w) = 0 por tanto An (W )
Ejemplo 6.4. Sea V = F2 y sea W = {e1 }, el anulador de W es el subespacio An (W ) = gen{e }.
2
Esto ya que si = 1 e + 2 e An(W ) tenemos que
1
2
0 = (e1 ) = 1 e (e1 ) + 2 e (e2 ) = 1 ,
1
2
por tanto = 2 e gen{e }.
2
2
De manera anloga, si W es un subconjunto de V , denimos el anulador de W como el conjunto
a
An(W ) = {x V | (x) = 0, para todo W }.

Problemas
Problema 6.3.1. Sea V un espacio vectorial y W un subespacio de V , si {u1 , . . . , un } es una base de V
con {u1 , . . . , us } una base de W , demuestre que {u , . . . , u } es una base de An (W ).
n
s+1

Problema 6.3.2. Sea V un espacio vectorial y W un subespacio de V y {u1 , . . . , un } es una base de V .

Demuestre que si {u , . . . , u } es una base de An (W ) entonces {u1 , . . . , us } una base de An(An (W )).
n
s+1

Problema 6.3.3. Sean V y V espacios vectoriales, T : V W una transformacin lineal y T la


o

aplicacin transpuesta. Demuestre que ker T = An (Im(T )).


o

a) Si W V , demuestre que An(An (W )) = W si y solo si W es un subespacio.

n
j sj | j F, sj S, para j = 1, . . . , n, con n Z+ .
Si S V , denimos el conjunto genS =

Problema 6.3.4.

j=1

b) Demuestre que genS es un subespacio de V .

c) Demuestre que genS es el subespacio ms pequeo de V que contiene a S.


a
n
d) Demuestre que An(An (S)) = genS. (Este ejercicio generaliza la parte 1 a).
Problema 6.3.5. Sea V un espacio vectorial y U V un subespacio, denamos T : V U la funcin
o

denida por T (f ) = f /U . Muestre que T es una transformacin lineal sobreyectiva con ker T = An (U ).
o

Cap
tulo 7

Funciones Bilineales
Las funciones bilineales juegan un papel importante en matemticas y en f
a
sica, ya que a partir de estas
se pueden denir muchos conceptos en muchas reas como en las lgebras de Lie, geometr diferencial
a
a
a
y reas de la f
a
sica. Un caso particular de las funciones bilineales son las formas bilineales se usan para
denir mtricas como las mtricas Lorentzianas y aparecen en muchos contextos con diferente nombres,
e
e
como en las lgebras simetrizables a izquierda en donde se denen productos simtricos a izquierda, el cual
a
e
es solo una forma bilineal con propiedades adicionales.
A menos que se indique lo contrario, en este cap
tulo todos los espacios vectoriales son de dimensin nita
o
y el campo de base se denotar por F con F = R o C.
a

7.1.

Denicin y Ejemplos
o

En esta seccin se introduciran algunos conceptos bsicos de las funciones bilineales y se hablar de la
o
a
a
matriz de una forma bilineal y tambin se mostrar como calcular esta matriz y la matriz cambio de base.
e
a
Denicin 7.1. Sean V, W y Z espacios vectoriales sobre un campo F, decimos que una funcin :
o
o
V W Z es bilineal si satisface:
a) (v + v , w) = (v, w) + (v , w),
b) (v, w + w ) = (v, w) + (v, w ),
c) (v, w) = (v, w) = (v, w),
para todo v, v V , w, w W y para todo F.
Notacin 5. El conjunto de funciones bilineales de V W en Z ser denotado por L2 (V, W ; Z), es decir,
o
a
L2 (V, W ; Z) = { : V W Z | es bilineal }.
147

148
En el caso particular en que V = W y Z = F, el espacio ser denotado por L2 (V ), es decir, L2 (V ) =
a
L(V, V ; F) y se le llama el conjunto de formas bilineales.
Ejemplo 7.1. Sea V = Mn (F) el conjunto de matrices n n con entradas en un campo F
a) La funcin [ , ] : V V V denida por [A, B] = AB BA es bilineal. A esta funcin se le conoce
o
o
como el producto corchete en V .
b) La funcin : V V F denida por (A, B) = tr(AB) es una forma bilineal.
o
c) La funcin : V V F denida por (A, B) = tr(A)tr(B) es una forma bilineal.
o
Se deja como un ejercicio al lector vericar que estas funciones son bilineales.
El espacio de formas bilineales de un espacio vectorial nito dimensional tiene una base cannica, la cual
o
describimos en el siguiente Lema.
Lema 7.1. Sea V un espacio vectorial sobre un campo F, X = {v1 , . . . , vn } una base de V y X la base
dual. Para i, j = 1, . . . , n denimos la funcin
o
ij :

V V

(v, w)

ij (v, w) = vi (v)vj (w).

entonces ij L2 (V ) y el conjunto {ij }n


i,j=1 es una base de L2 (V ).
Demostracin. Para todo i, j = 1, . . . , n, la funcin ij es bilineal:
o
o

ij (v + v , w) = vi (v + v )vj (w) = (vi (v) + vi (v ))vj (w)

= vi (v)vj (w) + vi (v )vj (w)

= ij (v, w) + ij (v , w).
Similarmente se demuestra que ij (v, w + w ) = ij (v, w) + ij (v, w ) y por tanto la funcin ij es
o
bilineal para todo i, j = 1, . . . , n.
El conjunto {ij }n
i,j=1 es linealmente independiente:
n

Supongamos que
i,j=1

ij ij = 0, entonces para todo v, w V se tiene que


n

ij ij (v, w) = 0.
i,j=1

Esto se cumple, en particular, para los vectores de la base, por tanto para todo h, k = 1, . . . , n tenemos
que

ij vi (vh ) vj (vl ) = hl .

ij ij (vh , vl ) =

0=
i,j=1

i,j=1

ih

jl


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

149

De esta igualdad concluimos que {ij }n


i,j=1 es linealmente independiente.
El conjunto {ij }n
i,j=1 genera a L2 (V ):

Sea L2 (V ) y para cada i, j = 1, . . . , n, denotemos por ij = (vi , vj ). Armamos que =


n

h v h , w =

Sean v =

hk hk .
h,k=1

k vk V , entonces tenemos

k=1

h=1

(v, w) =

(7.1)

h,k=1

h,k=1

k=1

h k hk

h k (vh , vk ) =

k v k

h v h ,
h=1

Por otra parte tenemos

hk hk (v, w) =
h,k=1

h,k=1

hk hk
n

i v i ,
i=1

hk

j=1

j v j

i j hk (vi , vj )
i=1 j=1

h,k=1

h,k

hk h k .

(7.2)

h,k=1

De las Ecuaciones (7.1) y (7.2) obtenemos el reultado.


Concluimos que el conjunto {ij }n
i,j=1 es una base de L2 (V ).
La matriz de una forma bilineal: Si L2 (V ) y X = {v1 , . . . , vn } una base de V , a le podemos
asociar la matriz

X []X

= ((vi , vj )), llamada la matriz de con respecto a la base X.

Est matriz tiene la propiedad de que si v, w V y vX , wX son las representaciones de v y w en la base


a
X, entonces
t
(v, w) = vX

X []X wX .

Si jamos una base X de V , existe una correspondencia entre L2 (V ) y Mn (F) donde a cada funcin
o
L2 (V ) le correponde la matriz

X []X

de en la base X y a cada matriz A Mn (F) se le asigna la

t
funcin bilineal denida por (v, w) = vX AwX .
o

L2 (V )

Mn (F)

X []X

t
donde A es la forma bilineal denida por (v, w) = vX Awx .

Ntese que si A =X []X entonces = A .


o
Ejemplo 7.2. Sea V = M2 (F) el conjunto de matrices 2 2 con entradas en un campo F,
X = {u1 = E11 , u2 = E21 , u3 = E12 , u4 = E22 } la base estndar de V y L2 (V ) es la forma bilineal
a

150
denida por (A, B) = tr(AB). Ntese que
o
(u1 , u1 ) = tr(E11 ) = 1

(u1 , u2 ) = tr(0) = 0

(u1 , u3 ) = tr(E12 ) = 0

(u1 , u4 ) = tr(0) = 0

(u2 , u1 ) = tr(E21 ) = 0

(u2 , u2 ) = tr(0) = 0

(u2 , u3 ) = tr(E22 ) = 1

(u2 , u3 ) = tr(0) = 0

(u3 , u1 ) = tr(0) = 1

(u3 , u2 ) = tr(E11 ) = 1 (u3 , u3 ) = tr(0) = 0

(u3 , u4 ) = tr(E12 ) = 0

(u4 , u1 ) = tr(0) = 0

(u4 , u2 ) = tr(E21 ) = 0 (u4 , u3 ) = tr(0) = 0

(u4 , u4 ) = tr(E22 ) = 1

Por tanto la matriz de con respecto a la base X est dada por


a

Si A =

1
2

2 1
entonces
yB=
1 0
1
0

X []X

(A, B) = At X []X BX = 1
X

Efectivamente vemos que AB =

2
3

2 0

0
=

0 0
0 1
1 0
0 0

0
.


2


1
1 X []X = 4

1

0

1
y por tanto (A, B) = tr(AB) = 4.
2

Cambio de base: Si Y es otra base de V , P =X IY es la matriz de cambio de base y A =X []X es la


matriz de en la base X, como vX =

X IY

v Y = P v Y y wX =

X IY

wY = P wY , tenemos

t
t
(v, w) = vX AwX = (P vY )t AP wX = vY P t AP wY ,

por tanto concluimos que

[]Y = P t AP es la matriz de en la base Y .

Ejemplo 7.3. Continuando Ejemplo 7.2, si en lugar de base de V = M2 (F), consideramos la base
el
la

0 1
0 1
1 0
1
0
, tenemos que la matriz de cambio de
, y4 =
, y3 =
, y2 =
Y = y1 =

1 0
1 0
0 1
0 1

1 1
0 0

0 0
1 1
, por tanto
base est dada por P =E IY = (y1 )E (y2 )E (y2 )E (y2 )E =
a

0 0 1 1

1 1
0 0

2 0

0 2
t

Y []Y = P E []E P =
0 0

0 0

0
.

2 0

0 2
0


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

Ntese adems que A


o
a

1
0

2 1

151

= y1 + y2 + y4 por tanto
= y1 + y3 + y4 y B =
1 0
1

(A, B) = At
Y

[]Y BY = 1 0 1

lo cual coincide con el resultado calculado en el Ejemplo 7.2.


1


1
1 Y []Y = 4

0

1

Problemas
Problema 7.1.1. Sea V un espacio vectorial sobre un campo F y sean 1 , 2 V , demuestre que la
funcin f : V V F denida por f (v1 , v2 ) = 1 (v1 )2 (v2 ) es una funcin bilineal.
o
o
Problema 7.1.2. Determine si el rec
proco del problema anterior tambin es cierto, es decir, si f L2 (V ),
e

determine si existen 1 , 2 V tal que f (v1 , v2 ) = 1 (v1 )2 (v2 ).

Problema 7.1.3. Determine cuales de las siguientes funciones son bilineales, en caso armativo, escoja
una base del espacio y calcule la matriz de la forma bilineal con respecto a la base escogida:
f:

V V

(x, y)

a)

R
f (x, y) = det A

donde A = x y es la matriz cuyas columnas son x y y.

b) : R R R denida por (x, y) = 2x y.


c) : R R R denida por (x, y) = x y 2 .
d) : V V R denida por (f, g) = f (0)g (0) donde V es el espacio vectorial sobre R generado
por {sen(t), cos(t), sen2 (t), sen(t) cos(t), cos2 (t)}.

Problema 7.1.4. Demuestre que la funcin : V V R donde V = C[0, 1] es el espacio de funciones


o
1

f1 (t)f2 (t)dt es una forma bilineal.

continuas en el intervalo [0,1], denida por (f1 , f2 ) =


0

Problema 7.1.5. Calcule la matriz de cada una de las siguientes formas bilineales

x
x
1 2

3
3
a) : R R R denida por y1 , y2 = x1 x2 + y1 y2 2y1 z2 + z1 y2 .

z2
z1

b) : M2 (R) M2 (R) R denida por (A, B) = tr(AB) tr(A)tr(B), con R.

Problema 7.1.6. Calcule las matrices de la forma bilineal del Ejemplo 7.1 parte c).
Problema 7.1.7. Sea : V W Z una funcin bilineal y sea x V jo, demuestre que la funcin
o
o
x :

o
Z denida por x (y) = (x, y) es una transformacin lineal.

152
Problema 7.1.8. Sea L2 (V ) una forma bilineal, sea x V jo y x : V F denida por
x (y) = (x, y). Demuestre que la funcin
o

es una transformacin lineal.


o

Problema 7.1.9. Si V es un espacio vectorial, X = {x1 , . . . , xn } y Y = {y1 , . . . , yn } son bases de V y


L2 (V ), denimos la matriz de con respecto a las bases X y Y como la matriz

X []Y

= ((xi , yj )).

Demuestre que para todo v, w V se tiene que


t
(v, w) = vX X []Y wY .

Problema 7.1.10. Si V es un espacio vectorial, X es una base de V y L2 (V ) \ {0}, demuestre que


existe una base Y de V tal que

X []Y

= I.

Problema 7.1.11. Sean V y W espacios vectoriales sobre un campo F, T : V W una transformacin


o
lineal sobreyectiva y : W W F una funcin. Considere la funcin
o
o
T :

V V

(v, v )

F
T (v, v ) = (T (v), T (v ))

Desmuestre lo siguiente:
a) L2 (W ) si y solo s T L2 (V )

b) La funcin T : L2 (W ) L2 (V ) denida por T () = T es una tranformacin lineal inyectiva.


o
o
c) T es un isomorsmo si y slo si T tambin lo es.
o
e
Problema 7.1.12. Si en el problema anterior tomamos V = W = R2 [t], si T : V W es la
tranformacin lineal denida por T (p) = p y si : W W R es la forma bilineal denida por
o
(p1 , p2 ) =

coef (p1 )

coef (p2 ), calcule lo siguiente:

a) La matriz de T con respecto a la base 1, t, t2 .


b) La matriz de T con respecto a alguna base de L2 (R2 [t]), donde T es la transformacin lineal denida
o
en el problema anterior.

7.2.

Funciones Bilineales Simtricas


e

Las funciones bilineales simtricas son el tpico ms importante de este cap


e
o
a
tulo porque ser de gran
a
importancia en lo que sigue del texto, sino tambin porque es el que ms aplicaciones tiene a otras reas.
e
a
a
Denicin 7.2. Sea V un espacio vectorial sobre un campo F y L2 (V ),
o
a) decimos que es simtrica si (v, w) = (w, v) para todo v, w V ,
e
b) decimos que es antisimtrica si (v, w) = (w, v) para todo v, w V ,
e


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

153

Notacin 6. Denotaremos por S(V ) al conjunto de funciones bilineales simtricas y por A(V ) al conjunto
o
e
de funciones bilineales antisimetricas.
Lema 7.2. Sea L2 (V ) y X una base de V arbitraria,
a) S(V ) si y solo si

X []X

es una matriz simtrica.


e

b) A(V ) si y solo si

X []X

es una matriz antisimtrica.


e

Demostracin. Supongamos que X = {v1 , . . . , vn }, sea A =


o

X []X

la matriz de con respecto a esta

base y aij = (vi , vj ) la ijsima entrada de A.


e
a) La funcin es simtrica si y solo s aij = (vi , vj ) = (vj , vi ) = aji si y solo s A es simtrica.
o
e

e
b) La funcin es antisimtrica si y solo s aij = (vi , vj ) = (vj , vi ) = aji si y solo s A es
o
e

antisimtrica.
e

Este ultimo lema establece correspondencias bi-un

vocas entre formas bilineales simtricas (anti-simtricas)


e
e
y matrices simtricas (anti-simtricas). Solo nos resta observar que el espacio de matrices es la suma
e
e
directa del subespacio de matrices simtricas y el subespacio de matrices anti-simetricas, resultado que
e
e
dejamos como ejercicio en el siguiente problema.
Problema 7.2.1. Demuestre que el conjunto {Eii , Ejk Ekj , Ejk + Ekj | 1 i n, 1 j < k n},
donde Eij es la matriz cuya ij-sima entrada es un 1 y las dems entradas son cero, es una base de Mn (F).
e
a
Concluya que Mn (F) es la suma directa del subespacio de matrices simtricas y el subespacio de matrices
e
anti-simtricas.
e
Teorema 7.3. Sea V un espacio vectorial sobre F, entonces L2 (V ) = S(V ) A(V ).
Demostracin. El resultado se sigue del problema anterior y del Lema 7.2.
o

Problemas
Problema 7.2.2. Escriba cada una de las matrices como una suma de una matriz simtrica y una matriz
e
antisimtrica
e

A = 2

1 2

1 0

4 1

2 5 2

B = 1 4 1

3 2 3

1 1

C = 2 1

2 2

Problema 7.2.3. Para las formas bilineales del Problema 7.1.3 partes a. y d. y del Problema 7.1.5,
determine si es simtrica, antisimtrica o escribala como una suma de una forma bilineal simtrica y una
e
e
e
antisimtrica.
e

154

7.3.

Formas Bilineales Regulares

Denicin 7.3. Sea V un espacio vectorial sobre F y S(V ),


o
a) Denimos el radical de , Rad(), como el conjunto
Rad() = {x V | (x, y) = 0, para todo y V } .
b) Decimos que es regular si Rad() = {0}.
c) Denimos el rango de , denotado por ran(), por la frmula
o
ran() = dim(V ) dim(Rad()).
Ejemplo 7.4. Sea : M2 (F) M2 (F) F denida por (A, B) = tr(A)tr(B). Las matrices E12 y E21
estn en Rad() ya que para todo A M2 (F) tenemos que
a
(E12 , A) = tr(E12 ) tr(A) = 0

(E21 , A) = tr(E21 ) tr(A) = 0.

=0

=0

Esto a la vez muestra que no es regular.


Teorema 7.4. Sean V un espacio vectorial, S(V ) y X una base de V . Si A =X []X es la matriz de
en la base X entonces ran() = ran(A).
Demostracin. Sea {u1 , . . . , ur } una base de Rad() y sean ur+1 , . . . , un tal que el conjunto
o
Y = {ur+1 , . . . , un , u1 , . . . , ur } es una base de V . Sea W = gen{ur+1 , . . . , un }, entonces V = W Rad()
y como para i = 1, . . . , r tenemos que (ui , x) = 0 para todo x V , tenemos que la matriz de con
respecto a Y tiene la forma
Y

[]Y =

Armamos adems que C es invetible. Para esto veamos que N ul(C) = {0}. Sea z N ul(C) con
a


r+1

z
.
z = . , entonces tomando x = r+1 ur+1 + + n un W tenemos que xY = y por tanto para
.
0
n
todo v V se cumple que

0
Cz(= 0)
z
C 0
t
= vY = 0.
= vY
(v, x) = vY Y []y xY = vY
0
0
0
0 0

Por tanto x Rad() y como x W , se tiene que x Rad() W = {0}, de donde x = 0 y concluimos
que N ul(C) = {0} lo que implica que C es invertible.
De esto obtenemos que rango (Y []Y ) = rango(C) = n r = dim V dim Rad() = rango().


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
Esta ultima frmula no depende de la base Y , ya que si P =

o
la base X, entonces P es invertible y como A =

[]X = P t

155
X

IY es la matriz de cambio de base de Y a

[]Y P tenemos que

rango(A) = rango(Y []Y ).

Ejemplo 7.5. Sea : M2 (F) M2 (F) F denida por (A, B) = tr(A)tr(B). Es fcil ver que la matriz
a
de con respecto a la base X = {E11 , E21 , E12 , E22 } est dada
a

1 0 0

0 0 0
A = X []X =

0 0 0

1 0 0

por

Por tanto rango(A) = 1. Adems como Rad() = sl2 (F) = gen{E11 E22 , E12 , E21 }, tenemos que
a
rango() = dim M2 (F) dim Rad() = 4 3 = 1.
Este ultimo teorema nos permite demostrar el siguiente criterio para determinar, de una forma sencilla,

si una forma bilineal simtrica es regular.


e
Teorema 7.5. Sean V un espacio vectorial, S(V ) y X una base de V . Si A =

X []X

es la matriz

de en la base X entonces es regular si y solo s det(A) = 0.

Demostracin. La forma bilineal es regular si y solo s Rad() = {0} si y solo s dim V = rango() =
o

rango(A) si y solo s A es invertible si y solo s det(A) = 0.

Ejemplo 7.6. Sea : M2 (F) M2 (F) F denida por (A, B) = tr(AB). Como la matriz de con
respecto a la base X = {E11 , E21 , E12 , E22 } est dada por
a

1 0

0 0
A = X []X =

0 1

0 0

0 0

1 0

0 0

0 1

entonces det A = 1 y por tanto el teorema anterior garantiza que es regular.

Problemas
Problema 7.3.1. Sean A, B Mn (F) demuestre lo siguiente:
a) Col(AB) Col(A),
b) rango(AB) rango(A),

156
c) rango(AB) rango(B),
d) Si B es invertible entonces rango(AB) = rango(A) y rango(BA) = rango(A).
Problema 7.3.2. Sea S(V ) una forma bilineal, sea x V jo, x : V F denida por x (y) =
:

(x, y) y

. Demuestre lo siguiente

a) Ker() = Rad()
b) es un isomorsmo si y solo si es regular. Concluya que si es regular, entonces para todo
funcional lineal f V existe x V tal que f (v) = (x, v), para todo v V . (Esta es la versin
o
general del Teorema de Riesz-Frechet).
c) Sea {v1 , . . . , vn } una base de V , demuestre que existe una base {w1 , . . . , wn } de V tal que (vi , wj ) =
ij .
Problema 7.3.3. Sea V = M2 (R) y : V V R denida por tr(AB) tr(A)tr(B). Determine
lo siguiente:
a) los valores de y para los cuales es regular.
b) calcule Rad() si = 2 y = 1 y, en este caso, calcule U si U = {E11 }.
Problema 7.3.4. Sea S(V ) una forma bilineal, demuestre lo siguiente
a) Si V = Fn , X es una base de V y A =

X AX

es la matriz de con respecto a la base X, demuestre

que Rad() = N ul(A).


b) En general, demuestre que si X = {x1 , . . . , xn } es una base de V y A =

X AX

es la matriz de con

respecto a la base X, demuestre que Rad() = T (N ul(A)), donde T : Fn V es la tranformacin


o

lineal denida por T (ei ) = xi , con {e1 , . . . , en } la base estndar de Fn .


a

Problema 7.3.5. Sea V = M2 (R) y sea : V V R denida por (A, B) = tr(AB) tr(A)tr(B).
Calcule lo siguiente:
a) los valores de para los cuales no es regular.
b) el radical de para cada uno de los valores de encontrados en el numeral anterior.
Problema 7.3.6. Calcule el radical de cada una de las componentes simtricas de las formas bilineales
e
del Problema 7.2.3
Problema 7.3.7. Calcule el radical de la formas bilineal : M2 (F) M2 (F) F denida por (A, B) =
tr(A)tr(B).
Problema 7.3.8. Demuestre que si : Mn (F) Mn (F) F es la forma bilineal denida por (A, B) =
tr(A)tr(B) entonces Rad() = sln (F) = {A Mn (F) | tr(A) = 0}.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

7.4.

157

Complemento Ortogonal

Denicin 7.4. Sea V un espacio vectorial, U un subespacio de V y S(V ), denimos el complemento


o

ortogonal de U con respecto a , el cual denotaremos por U , como el conjunto


U = {x V | (x, y) = 0, para todo y U }.

Teorema 7.6. Sea V un espacio vectorial, U un subespacio de V y S(V ) regular, entonces


dim(V ) = dim(U ) + dim(U ).
Demostracin. Sea {u1 , . . . , us } una base de U y sean us+1 , . . . , un vectores tal que
o
X = {u1 , . . . , us , us+1 , . . . , un } es una base de V , sea A =X []X la matriz de con respecto a esta base
T :

Fn

y sea

vX

el isomorsmo que representa los vectores de v en trminos de la base X.


e

Sea A1 la matriz formada por las primeras i las de

a11

.
.
A1 = .

as1

A, es decir

a1n

.
..
.
.
.

asn

con aij = (ai , aj ). Como es regular, entonces det(A) = 0 lo cual implica que rango(A1 ) = s y por tanto
dim N ul(A1 ) = n s
Armacin: U = T 1 (N ul(A), la imagen inversa de N ul(A) bajo el isomorsmo T .
o
Sea w U , entonces (v, w) = 0 para todo v U . En particular para i = 1, . . . , s tenemos que
0 = (ui , w) = (ui )X AwX = et AwX = i sima la de A wX = i sima la de A1 wX
e
e
i
Como esto se cumple para cada la de A1 , tenemos que AwX = 0 y por tanto wX = N ul(A1 ), luego
w = T 1 wX T 1 (N ul(A1 ).
Sea w T 1 (N ul(A1 ), entonces wX = T (w) N ul(A1 ), luego A1 wX = 0, por tanto para = 1, . . . , s
tenemos que
0 = et A1 wX = et AwX = (ut )X AwX = (ui , w)
i
i
i
y por tanto w U .
Como T es un isomorsmo entonces dim T 1 (N ul(A1 )) = dim N ul(A1 ) = n s, luego
dim(U ) = dimT 1 (N ul(A1 )) = n s = dim V dim U.

Aunque dim W + dim W = dim V , en general no es cierto que V = W W ya que hay casos en los
que an con regular se tiene que W W = 0 como se muestra en el siguiente ejemplo
u

158
Ejemplo 7.7. Sea V = M2 (R) y se : V V R denida por (A, B) = tr(AB). Por el Ejemplo 7.2
tenemos que la matriz de con respecto a la base estndar
a

1 0 0

0 0 1

X []X =
0 1 0

0 0 0

de M2 (F) est dada por


a

0
,

como esta matriz tiene determinante no nulo entonces es regular.

Sea W = gen{E21 }, ntese que


o
(E21 , E11 ) = det(E21 E11 ) = det(E21 ) = 0,
y

(E21 , E21 ) = det(E21 E21 ) = det(0) = 0

(E21 , E22 ) = det(E21 E22 ) = det(0) = 0

por tanto E11 , E21 , E22 W . De esta forma W W = 0 ya que E21 W W = 0.


Problema 7.4.1. Si V = M2 (R), : V V R es la forma bilineal denida por (A, B) = tr(AB) y

W = gen{E21 } demuestre que W = gen{E11 , E21 , E22 }.

Teorema 7.7. (Diagonalizacin de funciones bilineales simtricas) Sea V un espacio vectorial y


o
e
S(V ), entonces existe una base X = {v1 , . . . , vn } de V tal que
(vi , vj ) = 0

si

i=j

(vi , vi ) = ci

para

i = 1, . . . , n.

Adems, existe r tal que c1 , . . . , cr = 0 y cr+1 = = cn = 0.


a
En el caso complejo podemos tomar c1 = = cr = 1 y en el caso real existe p tal que c1 = = cp = 1
y cp+1 = = cr = 1. En este caso al par (p, r p) se le llama la signatura de .
Demostracin. Si = 0 entonces es claramente diagonalizable. Supongamos que = 0, es decir
o
existen x, y V tal que (x, y) = 0, entonces existe u1 V tal que (u1 , u1 ) = 0, ya que si ste no
e
existiera tendr
amos que (x, x) = 0 para todo x V y se sigue para todo x, y V

1
(x, y) =
(x + y, x + y) (x, x) (y, y) = 0
2
=0

=0

=0

Completemos la demostracin por induccin sobre dim V . Si dim V = 1, no hay nada que demostrar, ahora
o
o
supongamos que el teorema es cierto en espacios vectoriales de dimensin igual a dim V 1.
o
Sea n = dim V y sea T : V F la funcin denida por T (v) = (v, u1 ). Es claro que T es una
o
transformacin lineal ya que es bilineal, adems es sobreyectiva ya que T (u1 ) = (u1 , u1 ) = 0,
o
a
entonces tenemos que dim ker T = n 1. Entonces por la hiptesis inductiva tenemos que existe una base
o
{u2 , . . . , un } de ker T tal que (ui , uj ) = 0 para 2 i = j n.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

159

Como el conjunto {u2 , . . . , un } es una base de ker T y u1 ker T entonces el conjunto X = {u1 , u2 , . . . , un }
/
es linealmente independiente y por tanto una base para V . Finalmente ntese que los vectores u2 , . . . , un
o
ker T y por tanto se tiene que 0 = T (uj ) = (uj , u1 ), para j = 2, . . . , n, entonces el conjunto X es la base
de V buscada, ya que si denimos ci = (ui , ui ), con i = 1, . . . , n, obtenemos

c1 0 0

0 c2 0

[]X = .
X
. ..
. .
.
.
.
. .
.
.

0 0 cn

Para la segunda parte del Teorema, en el caso complejo, denimos vi =

1
ui ,
ci

de las dos ra
ces cuadradas de ci , tomamos Y = {v1 , . . . , vn } entonces P =

X IY

obtenemos que

[]Y = P t

X []X P

c1

.
= .
.
0

..
.

0
.
.
.

c1

.
.
.
1
0
cn

..
.

0
c1
. .
. .
. .
cn
0

..
.

ci denota cualquiera

0
c1

.
.
..
. y
= .
.
.
.
1
0
c n

donde

0
.
.
.

1

.
= .
.
1
0
cn

..
.

.
.
.
1

En el caso real, reorganizamos los vectores tal que |c1 |, . . . , |cp | > 0 y |cp+1 |, . . . , |cn | < 0 y hacemos
vi =

1
ui
ci

para i = 1, . . . , p y vi =

1 ui
ci

para i = p + 1, . . . , n. Entonces
1 0

0
c1

P = X IY =

t
y en este caso Y []Y = P X []X P =

..

.
.
.

. .. .
.
. .
.
.
1

cp

. .. .
.
. .
.
.

..

1
cp+1

.
.
.

..

.
.
.

..

.
.
.

1
cn

Ejemplo 7.8. Sea V = Mn (F), : V V F la forma bilineal denida por (A, B) = tra(AB) y Y la

base del Ejemplo 7.3. De acuerdo a este ejemplo la matriz de

2 0
0

0 2
0

Y []Y =
0 0 2

0 0
0

Por tanto la base Y =

diagonal con 1s y -1s.

1
1
1
1
y1 , y2 , y4 , y3
2
2
2
2

con respecto a Y est dada por


a

0
.

es una base bajo la cual la matriz de es una matriz

160

Problemas
Problema 7.4.2. Sea S(V ) regular, sea U un subespacio de V y dena f : V U la funcin
o

f (v) :

, demuestre que f es una transformacin lineal con ker f =


o
u f (v)(u) = (u, v)
y f sobreyectiva. (Este problema determina otra forma de mostrar que dim U + dim U = dim V .)

denida por

Problema 7.4.3. Sea V un espacio vectorial real con dim V = 2n, {v1 , . . . , v2n } una base de V y sea
sea

0 In
t
. Muestre que
la forma bilineal denida por (v, w) = vX SwX con S =
In 0
a) S(V ),

b) es no degenerada,
c) si U = gen{v1 , . . . , vn } entonces U U .

7.5.

Clasicacin de las formas bilineales simtricas reales


o
e

Si es una forma bilineal simtrica sobre C, el Teorema 7.7 garantiza que esta se puede diagonalizar a
e
una matriz de 1s y 0s. Es claro que el nmero de 1s es el rango de la matriz y por tanto es invariante.
u
En el caso real la forma bilineal diagonaliza a una matriz de 1s, -1s y 0s y resulta que en este caso
tambin el nmero de 1s ( y por tanto el nmero de -1s) es invariante. Este resultado es conocido como
e
u
u
el Teorema de la signatura de Silvester.
En esta seccin V denotar un espacio vectorial nito dimensional sobre R.
o
a
Teorema 7.8. (Teorema de la signatura de Sylvester) Sea V un espacio vectorial, sea S(V ), y
sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wn } bases de V tal que
(vi , vj ) = 0

i=j

(wi , wj ) = 0

i=j

(vi , vi ) = 1

i = 1, . . . , p

(wi , wi ) = 1

i = 1, . . . , q

(vi , vi ) = 1 i = p + 1, . . . , r
(vi , vi ) = 0

i = r + 1, . . . , n

(wi , wi ) = 1 i = q + 1, . . . , r
(wi , wi ) = 0

i = r + 1, . . . , n

Entonces p = q.

Demostracin. Supongamos que q > p y sea {w1 , . . . , wn } la base dual de Y . El sistema de ecuaciones
o

wk (x) = 0,

con

k = q + 1, . . . , r

x gen{vp+1 , . . . , vr }

(7.3)

es un sistema con r q ecuaciones en r p incognitas. Como r p > r q entonces el sistema tiene


soluciones no triviales.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

161

Sea x = p+1 vp+1 + + r vr una solucin no trivial. Escribiendo x en trminos de Y , obtenemos que
o
e
x = y +z con y gen{w1 , . . . , wq } y z gen{wr+1 , . . . , wn }, ya que los vectores wq+1 , . . . , wr no satisfacen
el Sistema 7.3. Entonces tenemos lo siguiente:
(x, x) = (y, y) + (z, z) +2 (y, z) = (y, y) 0.
=0

Por otra parte

=0

(ui , ui ) < 0,

(x, x) =
i=p+1

<0

lo cual es absurdo y por tanto q p.


Similarmente se demuestra que p q. Conlcuimos que q = p.
Denicin 7.5. Con la notacin del teorema anterior, decimos que el par (p, r p) es la signatura de .
o
o
Ejemplo 7.9. De acuerdo al Ejemplo 7.8, la forma bilineal : Mn (R) Mn (R) R denida por
(A, B) = tra(AB) tiene signatura (3,1).
Denicin 7.6. Sea S(V ),
o
a) es positiva denida si (x, x) > 0 para todo x V \ {0}.
b) es negativa denida si (x, x) < 0 para todo x V \ {0}.
c) es semi-positiva denida si (x, x) 0 para todo x V .
d) es semi-negativa denida si (x, x) 0 para todo x V .
Teorema 7.9. Sea S(V ) con dim(V ) = n y (p, r p) la signatura de , entonces
a) es positiva denida si y solo s p = r = n.

b) es negativa denida si y solo s p = 0 y r = n.

c) es semi-positiva denida si y solo s p = r n.

d) es semi-negativa denida si y solo s p = 0 y r n.

162

Cap
tulo 8

Espacios con producto interno


Los espacios con producto interno son muy importantes en todas las reas de la matemtica. En particular
a
a
en anlisis funcional y en topolog son relevantes, ya que stos de por s cuentan con una estructura
a
a
e
,
propia de espacio normado y proporcionan ejemplos importantes en estas teor esta norma los dota con
as,
una geometr con la cual se pueden hacer mediciones en estos espacios.
a

8.1.

Denicin y propiedades
o

Comenzamos la seccin con la denicin de producto interno.


o
o
Denicin 8.1. Sea V un espacio vectorial sobre F, con F = R o C, y sea
o

: V V F una

funcin,
o
a) Decimos que

es una funcin sesquilineal si satisface:


o

1) x, y = y, x , para todo x, y V . Donde y, x denota el conjugado complejo de y, x .


2) x, y + z = x, y + x, z , para todo x, y, z V .
3) x, y = x, y , para todo x, y V .
Ntese que bajo estos axiomas se sigue que x, x R.
o
b) Si

es una forma sesquilineal, decimos que es positiva denida si x, x > 0 para todo x V \ {0}.

c) Decimos que

es un producto interno sobre V , si

es una forma sesquilineal positiva denida.

Observacin 8.1. Si F = R entonces una funcin sesquilineal


o
o

es simplemente una funcin bilineal


o

simtrica. En este caso un producto interno es una funcin bilineal simtrica positiva denida.
e
o
e
Lo ms importante de un producto interno en un espacio vectorial es la obtencin de una geometr en
a
o
a
el espacio, ya que con ste se puede denir una nocin de distancia, de ngulos y de ortogonalidad. A
e
o
a
163

164
continuacin denimos la nocin de norma (o distancia) y mostraremos como con el producto interno se
o
o
puede denir una norma.
Denicin 8.2. (Norma) Sea V un espacio vectorial sobre F, decimos que una funcin || || : V F
o
o
es una norma si satisface:
a) ||x|| > 0 para todo x V \ {0} y ||0|| = 0.
b) ||x|| = || ||x||, para todo F y para todo x F.
c) ||x+y|| ||x||+||y||, para todo x, y V . (Esta propiedad es conocida como la desigualdad triangular)
Si V es un espacio vectorial sobre F con un producto interno

y si denimos ||x|| =

x, x , vamos a

demostrar que la funcin || || : V F es una norma. La parte ms laboriosa es demostrar que satisface la
o
a
desigualdad triangular, para esto necesitamos demostrar primero la siguiente desigualdad, conocida como
la Desigualdad de Cauchy-Schwartz.
Lema 8.1. (Desigualdad de Cauchy-Schwartz) Sea V es un espacio vectorial sobre F,
producto interno sobre V y denamos ||x|| =

un

x, x , para todo x V . Entonces

| x, y | ||x|| ||y||,

para todo x, y V.

Demostracin. Si y = 0 la desigualdad es inmediata. Supongamos que y = 0 y ntese que para F


o
o
arbitrario se tiene los siguiente
0 ||x y||2 = x y, x y = x y, x x y, y
= x, x y, x x, y + y, y
= ||x||2 y, x x, y + ||2 ||y||2
Si hacemos =

y,x
||y||2 ,

(8.1)

la desigualdad (8.1) se convierte en


| y, x |2
| y, x |2
+
||y||2
||y||2
2
| y, x |
= ||x||2
||y||2

0 ||x||2 2

(8.2)

De esto ultimo obtenemos que 0 ||x||2 ||y||2 | y, x |2 y por tanto | y, x | ||x|| ||y||.

|| || :

Esto nos permite demostrar que la funcin


o

Teorema 8.2. Sea V un espacio vectorial sobre F y ,


|| || : V F denida por ||x|| =

F
||x|| =

es una norma sobre V .


x, x

un producto interno sobre V , entonces la funcin


o

x, x es una norma sobre V .

Demostracin. Sean x, y V y F, entonces tenemos lo siguiente:


o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

165

a) Si x = 0 se sigue que 0, 0 = 0 y por tanto ||0|| = 0.


Si x = 0, como el producto interno es positivo denido tenemos que x, x > 0 y por tanto ||x|| =
x, x > 0.
b) ||x||2 = x, x = x, x = ||2 ||x||2 , por tanto
||x|| = ||||x||.
c) La desigualdad triangular tambin se cumple ya que
e
||x + y|| = x + y, x + y = x + y, x + x + y, y
= x, x + y, x + x, y + y, y
= x,y

= ||x||2 + 2Re x, y + ||y||2


||x||2 + 2| x, y | + ||y||2
||x||2 + 2||x|| ||y|| + ||y||2
= (||x|| + ||y||)

Por Cauchy-Schwartz.

por tanto ||x + y|| ||x|| + ||y||.


Concluimos que la funcin || || es una norma.
o

Problemas
Problema 8.1.1. Demuestre que en la desigualdad de Cauchy-Schwartz se cumple la igualdad si y slo
o
si u y v son linealmente dependientes.
Problema 8.1.2. Demuestre que los siguientes son productos internos en el espacio dado.

x2
x1
= 2x1 x2 + x2 y1 + x1 y2 + y1 y2 en R2 .
,
a.
y2
y1
b. x, y = xt At Ay en Rn donde A es una matriz invertible n n.
n
i=1

c. v, w =
d. p, q =
j,k

i i en V con una base {v1 , . . . , vn } y v =

n
i=1

i v i y w =

a j bk
en R[x] de polinomios en una variable sobre x donde p =
j+k+1
1

p(x)q(x)dx.)

(Ayuda: Demuestre que p, q =


0

Problema 8.1.3. Sea V un espacio con producto interno


a. 0, w = 0 para todo w V .
b Si v, w = 0 para todo w V entonces v = 0.

, , demuestre que

n
i=1

i v i .
aj x j y q =

bk x k .
k

166
Problema 8.1.4. Sea V un espacio con producto interno

, . Demuestre que para todo u, v V se

cumple lo siguiente
u + v, u + v

u, u +

v, v .

Problema 8.1.5. Sea V un espacio vectorial real con producto interno


u, v V se cumple que
u, v =

1
||u + v||2 ||u v||2
4

u, v =

, . Demuestre que para todo

1
||u + v||2 ||u||2 ||v||2
2

Problema 8.1.6. Sea V un espacio vectorial complejo con producto interno


todo u, v V se cumple que
u, v =

1
||u + v||2 ||u v||2 i||u + iv||2 + i||u iv||2
4

Problema 8.1.7. Demuestre que si


entonces

+ ,

, . Demuestre que para

son dos productos internos en un espacio vectorial V

es un producto interno y ,

es un producto interno con R>0 .

Problema 8.1.8. De un contraejemplo de dos productos internos cuya diferencia no sea un producto
interno.
Problema 8.1.9. El producto interno usual en Rn se dene por x, y = xt y. Si

es el producto

interno usual en R haga lo siguiente

1
2
y z un vector talque x, z = 2 y y, z = 1, encontrar z.
yy=
a. Sea x =
1
3
b. Muestre que para todo z R2 se tiene que z = e1 , z e1 + e2 , z e2

Problema 8.1.10. Sea A una matriz 2x2 y considere la funcin


o
x, y

= x Ay. Demuestre que

: R2

2
t

R denida por

dene un producto interno si y slo si A = A , a11 > 0, a22 > 0 y


o

det A > 0.
Problema 8.1.11. Encuentre los valores de para los que el producto denido por

x
x
1 , 2 = x1 x2 3x1 y2 3x2 y1 + y1 y2
y1
y2
sea un producto interno en R2 .

Problema 8.1.12. Sea V un espacio vectorial real o complejo con producto interno, demostrar que para
todo x, y V se cumple

||x + y||2 + ||x y||2 = 2||x||2 + 2||y||2 .

Esta frmula es conocida como la ley del paralelogramo.


o
Problema 8.1.13. Sea V un espacio vectorial con producto interno

, , sea {v1 , . . . , vn } una base de V

y 1 , . . . , n F, demuestre que existe un unico x tal que x, vi = i , para i = 1, . . . , n.

Problema 8.1.14. Sea V un espacio vectorial con producto interno


z, x = z, y para todo z V .

, . Muestre que x = y si y slo si


o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

8.2.

167

La matriz del producto interno

Si V es un espacio vectorial con un producto interno

y X = {u1 , . . . , un } es una base de V , denimos

la matriz del producto interno en la base X, como la matriz

u1 , u1

..
.
[ , ]X =
.
.
X

un , u1

u1 , un
.
.
.
un , un

Esta matriz satisface la propiedad que u, w = uX AvX , con A =X [ , ]X .


Con esta denicin de matriz, el espacio V y la matriz A satisfacen propiedades similares a las obtenidas
o
para formas bilineales regulares, las cuales dejamos como ejercicio al lector.

Problemas
Sea V un espacio vectorial con producto interno

, , X = {u1 , . . . , un } una base de V y A =X [ , ]X

la matriz del producto interno


Problema 8.2.1. Si denimos Rad ,

= {x V | x, y = 0 para todo y V } entonces Rad ,

= {0}.

Problema 8.2.2. det A = 0.


Problema 8.2.3. Existe una base Y de V tal que

8.3.

[ , ]Y = I n .

Ortogonalidad y proyeccin ortogonal


o

Comenzamos la seccin deniendo el ortogonalidad entre vectores.


o
Denicin 8.3. Sea V un espacio vectorial con un producto interno
o

y sean x, y V , decimos que

y sea W un subespacio de V ,

x y y son ortogonales, los cual denotamos por x y, si x, y = 0.


Ahora pasamos a denir el complemento ortogonal.
Denicin 8.4. Sea V un espacio vectorial con un producto interno
o

denimos el complemento ortogonal de W , el cual denotamos por W , como el conjunto


W = {y V |

x, y = 0, para todo x W } .

Continuando con las similaridades entre formas bilineales simtricas regulares y espacios con producto
e
interno tenemos el siguiente resultado cuya demostracin es anloga a la demostracin del Lema 7.6
o
a
o
Lema 8.3. Sea V un espacio vectorial con producto interno

dim V = dim W + dim W .

y sea W V un subespacio, entonces

168
Demostracin. Se deja como ejercicio.
o
Tenemos la siguiente propiedad.
Teorema 8.4. Sea V un espacio vectorial con un producto interno

y sea W un subespacio de V ,

entonces V = W W .
Demostracin. Es fcil ver que W es un subespacio de V , veamos primero que W W = {0}.
o
a
Sea x W W , entonces x, x = 0, si x = 0 por denicin de producto interno x, x > 0, lo cual es
o
absurdo. Concluimos que x = 0.
Sea {w1 , . . . , ws } una base de W y n = dim V , por el lema anterior tenemos que
dim W = dim V dim W = n s,
entonces tomemos {ws+1 , . . . , wn } una base de W . Veamos que el conjunto {w1 , . . . , ws , ws+1 , . . . , wn }
es linealmente independiente y por tanto una base de V .
Supongamos que 1 w1 + + n wn = 0 con 1 , . . . , n F. Sea y1 = 1 w1 + + s ws y y2 =
s+1 ws+1 + + n wn , entonces y1 W , y2 W y y1 + y2 = 0. Se sigue que y1 = y2 W y por
tanto y1 W W = {0}, entonces y1 = 0 = y2 . Como w1 , . . . , ws es linealmente independiente y y1 = 0,
obtenemos que 1 = = s = 0 y como ws+1 , . . . , wn tambin es linealmente independiente y y2 = 0,
e
obtenemos que s+1 = = n = 0. Concluimos que {w1 , . . . , wn } es linealmente independiente y por
tanto una base de V .
Se sigue que V = W + W y como W W = {0} concluimos que V = W W .
Denicin 8.5. (Proyeccin Ortogonal) Sea V un espacio vectorial con un producto interno
o
o

sea W un subespacio de V . Por el teorema anterior, todo vector x V se puede descomponer en la suma

x = x1 + x2 con x1 W y x2 W , denimos la proyeccin ortogonal de x sobre W , la cual denotamos


o
por proyW x, como el vector x1 , es decir,
proyW x = x1 .
Teorema 8.5. Sea V un espacio vectorial con un producto interno

, , sea W un subespacio de V y sea

x V . Entonces para w W , ||x w|| es m


nimo si w = proyW x.
Demostracin. Sabemos que x = proyW x + x con x W . Entonces
o
||x w|| = ||proyW x + x w|| = ||proyW x w + x || ||proyW x w|| + ||x ||
La expresin es m
o
nima si ||proyW x w|| = 0 o equivalentemente si w = proyW x. Adems en este caso
a

tenemos que ||x w|| = ||x ||. Mientras que si w = proyW x, como w proyW x W y x W , entonces

w proyW x no es un mltiplo escalar de x y por tanto


u

||x w|| < ||proyW x w|| + ||x ||,


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

169

es decir, la desigualdad es estricta.

Problemas
Problema 8.3.1. Demuestre que si H y K son subespacios de un espacio vectorial V con producto interno
y H K, demuestre que K H y que H = (H ) .
Problema 8.3.2. Sea V un espacio vectorial nito dimensional con producto interno

y sea S V ,

denamos
n

W (S) =

i s i

v=
i=1

si S, para i = 1, . . . , n para algn entero positivo n.


u

Demuestre lo siguiente
a) W (S) es un subespacio de V
b) (S ) = W (S).
Problema 8.3.3. Sea V un espacio vectorial, V1 y V2 subespacios de V tal qu V = V1 V2 y sean
y

interno

productos internos denidos en V1 y V2 , respectivamente. Demuestre que existe un unico producto

en V tal que:

a. V1 = V2 ,
b. x, y = x, y

con x, y Vi para i = 1, 2.

Problema 8.3.4. Sea V = C 1 (R), el espacio vectorial de funciones continuas, y

el producto interno

f (t)g(t)dt, calcular W

en V denido por f, g =

si W = {f V | f es impar}.

Problema 8.3.5. Sea V es un espacio con producto interno

, , X = {v1 , . . . , vn } una base de V tal

que vi , vj = ij y f : V Fn el isomorsmo representacin en la base X denido por f (v) = vX .


o
Demuestre que f es una isometr es decir,
a,
v, w = vX wX ,

para todo

v, w V,

donde denota el producto interno usual en Fn .


Problema 8.3.6. Con la misma notacin del problema anterior, si W un subespacio de V y W = Im(W ),
o
demuestre que
(proyW v)X = proyW vX ,

para todo

v V.

Problema 8.3.7. Sea V un espacio con producto interno y W V un subespacio y sean P1 , P2 : V V

las transformaciones proyeccin sobre W y sobre W denidas por P1 (v) = proyW v y P2 (v) = proyW v.
o

Demuestre que P1 + P2 = idV y que P1 P2 = 0.

170
Problema 8.3.8. Sea V un espacio con producto interno y sean W1 , W2 subespacios de V , demuestre que

(W1 W2 ) = W1 W2 .

Problema 8.3.9. Sea V un espacio con producto interno y sean W1 , W2 subespacios de V , muestre que

(W1 W2 ) = W1 + W2 .

8.4.

Proceso Gramm-Schmidt y el Teorema de Riesz-Frchet


e

Comenzamos esta seccin con la denicin de base ortogonal y base ortonormal


o
o
Denicin 8.6. Sea V un espacio vectorial con un producto interno
o

y sea X = {v1 , . . . , vn } un

subconjunto nito de V .
a) Decimos que X es un conjunto ortogonal si vi , vj = 0 para 1 i = j n.
b) Decimos que X es un conjunto ortonormal si es ortogonal y ||vi || = 1 para i = 1, . . . , n.
A continuacin demostramos que conjuntos ortogonales son linealmente independientes.
o
Lema 8.6. Sea V un espacio vectorial con un producto interno ,

y sea X = {v1 , . . . , vn } un subconjunto

ortogonal (ortonormal) de V , entonces X es linealmente independiente.


Demostracin. Supongamos que 1 v1 + + n vn = 0, entonces para i = 1, . . . , n tenemos que
o
n

0=

j v j

vi ,

j v i , v j = i .

=
j=i

j=1

=ij

Por tanto los i son todos nulos y X es linealmente independientes.


Una de las ventajas importantes de computar una base ortonormal es que permite calcular proyecciones
de una manera eciente. Esto se muestra a continuacin.
o
Teorema 8.7. Sea W un subespacio de un espacio vectorial V con un producto interno

y sea

{w1 , . . . , wk } es una base ortonormal de W . Entonces para todo x V tenemos que


proyW x = w1 , x w1 + + wk , x wk .
Demostracin. Sabemos que proyW x W , sabemos que existen constantes 1 , . . . , k F tal que
o
proyW x = 1 w1 + + k wk . Entonces para i = 1, . . . , k tenemos
k

wi , proyW =

j wj

wi ,
j=1

j wj , wi = i .

=
j=1

ji


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

171

Tambin sabemos que x = proyW x+x con x W , entonces w, x = 0 para todo w W . En particular
e
wi , x = 0 para i = 1, . . . , k. Por tanto tenemos que

wi , x = wi , proyW x + x = wi , proyW x + wi , x = wi , proyW x = i .


=0

Luego i = wi , x y por tanto


proyW x = w1 , x w1 + + wk , x wk .

Observacin 8.2. En el caso de que la base {w1 , . . . , wk } sea ortogonal entonces la proeccin de x sobre
o
o
W est dada por
a
proyW x =

wk , x
w1 , x
w1 + +
wk .
w1 , w1
wk , wk

Esto se deja como ejercicio al lector, ver Problema 8.4.1


Corolario 8.8. Sea W un subespacio de un espacio vectorial V con un producto interno

y sea

{w1 , . . . , wk } es una base ortonormal de W . Entonces para todo x W tenemos que


x = w1 , x w1 + + wk , x wk .
Demostracin. En este caso x = proyW x y el corolario se sigue del teorema anterior.
o
Estos resultados nos permiten demostrar el proceso de ortonormalizacin de una base, tambin conocido
o
e
como el proceso Gramm-Schmidt.
Teorema 8.9. Sea V un espacio vectorial con un producto interno

y sea X = {v1 , . . . , vn } una base

de V si hacemos
w1 = v 1 ,

W1 = gen{w1 }

w2 = v2 proyW1 v2

W2 = gen{w1 , w2 }

w3 = v3 proyW2 v3
.
.
.

W3 = gen{w1 , w2 , w3 }
.
.
.

wn1 = vn1 proyWn2 vn1

Wn1 = gen{w1 , . . . , wn1 }

wn = vn proyWn1 vn
Entonces {w1 , . . . , wn } es una base ortogonal de V .
Ms an, si hacemos qi =
a u

1
||wi || wi

para i = 1, . . . , n, entonces {q1 , . . . , qn } es una base ortonormal de V .

Demostracin. Por denicin de proyeccin ortogonal tenemos que wi = vi proyWi1 vi es ortogonal


o
o
o
al subespacio Wi1 para i = 1, . . . , k y por tanto wi ortogonal a cada uno de los vectores w1 , . . . , wi1 .
Entonces tenemos que los vectores w1 , . . . , wk son ortogonales entre s es decir, el conjunto {w1 , . . . , wk }
,
es un conjunto ortogonal.

172
Solo nos resta demostrar que H = gen{w1 , . . . , wk }.
Como el conjunto {w1 , . . . , wk } es ortogonal, entonces por el Lema 8.6, ste es LI, y como dim H = k =
e
dim gen{w1 , . . . , wk } es suciente demostrar que w1 , . . . , wk H.
Primero ntese que w1 = v1 H.
o
Tambin tenemos que w2 = v2 proyw1 v2 = v2
e

v2 ,w1
w1 ,w1

w1 H.

Continuando por induccin supongamos que w1 , . . . , wi1 H, entonces


o
wi = vi proyWi1 vi = vi

v i , w1
vi , wi1
w1
wi1 H.
w1 , w1
wi1 , wi1

Concluimos que w1 , . . . , wk H y por tanto el conjunto {w1 , . . . , wk } es una base ortogonal para H.
Ejemplo 8.1. Sea V = R3 con el producto interno denido por v, w = v t Aw donde es la matriz

2 1 0

A = 1 1 0, calcule una base ortonormal de V = R3 con respecto a este producto.

0 0 1

Solucin. Consideremos la base estndar de R3 pero en el orden {v1 = e3 , v2 = e1 , v3 = e2 }. De acuerdo


o
a
al proceso Gramm-Schdmit hacemos w1 = v1 = e3 , es fcil ver que w1 , w1 = 1.
a
t
El siguiente paso es calcular z2 = v2 proyw1 v2 = v2 w1 , v2 w1 = v2 (w1 Av2 )w1 , esto lo calculamos

en MatLab como sigue, pero antes se deben denir la matriz A y los vectores v1 , v2 y v3 .
>> A=[2 1 0;1 2 0;0 0 1], v1=[0;0;1], v2=[1;0;0], v3=[0;1;0], w1 = v1
>> z2 = v2 (w1 A v2) w1
Con este clculo obtenemos z2 = v2 = e1 , como queremos que la base sea ortonormal hacemos w2 =
a

1
||z2 || z2 ,

lo cual se calcula con el comando


>> w2 = (1/sqrt(z2 A z2)) z2


con este clculo obtenemos w2 = 0 . El siguiente paso es calcular el tercer vector ortogonal con la
a

0
frmula z3 = v3 proyW2 v3 con W2 = gen{w1 , w2 } y como esta base es ortognal entonces
o
t
t
z3 = v3 w1 , v3 w1 w2 , v3 w2 = v3 (w1 Av3 )w1 (w2 Av3 )w2

Esto lo calculamos con MatLab con la frmula


o
>> z3 = v3 (w1 A v3) w1 (w2 A v3) w2

1/2

Con este clculo obtenemos z3 = 1 . Finalmente para hacer la base ortonormal hacemos w3 =
a

0
1
||z3 || z3 , lo cual se calcula con el comando


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

173

>> w3 = (1/sqrt(z3 A z3)) z3



1

6

obteniendo w3 = 2 .
3
0

Terminamos el cap
tulo con el teorema de Riesz-Frchet, el cual dice que todo funcional lineal se puede
e
escribir en trminos del producto interno.
e
Teorema 8.10. (Teorema de Riesz-Frchet) Sea V un espacio vectorial con un producto interno , .
e
Si f V entonces existe un unico xf V tal que f (y) = xf , y , para todo y V .

Demostracin. Sea {w1 , . . . , wn } una base ortonormal de V , y sea xf =


o
y V tenemos

f (wi )wi . Entonces para


i=1

f (y) = f

wi , y wi

wi , y f (wi ).

=
i=1

i=1

Por otra parte


n

xw , y =

f (wi )wi , y

f (wi ) wi , y .

=
i=1

i=1

Por tanto f (y) = (xw , y).


Ahora veamos la unicidad: Supongamos que f (y) = xf , y = x , y para todo y V . Entonces tenemos
que 0 = xf x , y para todo y V . Es decir xf x V . Como V = V V , entonces V = {0}.

Por tanto xf x = 0 o equivalentemente xf = x .

Problemas
Problema 8.4.1. Sea V un espacio vectorial con producto interno

y sea x V . Demuestre que si

{w1 , . . . , wk } es una base ortogonal entonces la proyeccin ortogonal de x sobre W est dada por
o
a
proyW x =

w1 , x
wk , x
w1 + +
wk .
w1 , w1
wk , wk

Problema 8.4.2. Sea {u1 , . . . , uk } una conjunto ortonormal en un espacio V con producto interno, sea
x V y para i = 1, . . . , k, sea i = ui , x . Demuestre lo siguiente:
k

a)
i=1

|i |2 ||x||2 .

Esta frmula es conocida como la desigualdad de Bessel.


o
b) La igualdad en (a) se cumple si y slo si x gen{u1 , . . . , uk }. (Ayuda: Para la primera implicacin
o
o
k

considere la expresin ||x


o

i=1

i ui ||2 )

174
Problema 8.4.3. Sea V un espacio vectorial con producto interno
normal de V . Muestre

, , sea {v1 , . . . , vn } una base orto-

vk , x vk , y ,

x, y =
k=1

para todo x, y V .
Problema 8.4.4. Sean v1 , . . . , vk vectores ortogonales en un espacio con producto interno, demuestre que
||v1 + + vk ||2 = ||v1 ||2 + + ||vk ||2
Problema 8.4.5. Sea V un espacio vectorial con producto interno
ortonormal de V , T : V V una transformacin lineal y A =
o

[T (v1 )]

que aij = vi , T (vj ) .

, = {v1 , . . . , vn } una base

[T (vn )]

. Demuestre

Problema 8.4.6. Sea V un espacio vectorial nito dimensional con producto interno y T : V V una
transformacin lineal. Demuestre lo siguiente:
o
a) Existe una tranformacin lineal T : V V tal que v, T (w) = T (v), w , para todo v, w V .
o
(Use el Teorema de Riesz-Frechet)
b) Si T es invertible entonces T es invertible y (T )1 = (T 1 ) .
c) Calcule D si D : P3 P3 es la transformacin lineal diferenciacin, es decir D(a0 + a1 t + a2 t2 +
o
o
1

a3 t3 ) = a1 + 2a2 t + 3a3 t2 , bajo el producto interno en P3 dado por p, q =

p(x)q(x)dx.
0

Problema 8.4.7. Sea V = M22 con el producto interno A, B = tr(AB t ) y sea T (A) = P 1 AP con P
una matriz invertible 2x2, calcule T .
1

Problema 8.4.8. Dena f, g =


todo f P3 .

f (t)g(t)dt con f, g P3 , encuentre g0 talque g0 , f = f (0) para

Cap
tulo 9

Formas Cuadrticas
a
9.1.

Matrices Simtricas y Diagonalizacin Ortogonal


e
o

a11

.
Denicin 9.1. Sea A = .
o
.
am1

..
.

a1n

.
. de tamao m n con entradas complejas.
n
.
amn

1. Denimos la matriz conjugada de A, denotada por A, como la matriz que se obtiene al conjugar las
entradas de A, estos es

a11

.
A= .
.
am1

..
.

a1n

.
.
.
amn

2. La transpuesta hermitiana de A, denotada por AH , se dene como AH = A .


3. Decimos que A es hermitiana si A = AH .

1
1i
1
1
1i
, ntese que A =
=
o
Ejemplo 9.1. Considere la matriz A =
1+i
2
1i
1+i
2

1
1i
t
. Como A = AH entonces A es una matriz hermitiana.
y AH = A =
1+i
2

1+i
2

Teorema 9.1. Sea A una matriz hermitiana de tamao nn entonces los valores propios de A son reales.
n

Esto es, si es un valor propio de A entonces R. En particular, si A una matriz simtrica con
e
entradas reales, entonces sus valores propios son reales y por tanto sus vectores propios son reales.
t

Demostracin. Como A es hermitiana, entonces A = AH = A de donde At = A, entonces


o
t

v v = v t v = v t v Av = v t Av = v t AH v = v t A v = (Av)t v
= (Av)t v = (v)t v = v t v = v v.
175

176
De donde se sigue que ( )v v = 0, como v = 0 entonces v v = 0. Por tanto , es decir = .
Teorema 9.2. Sea A una matriz hermitiana de tamao nn y sean x y y vectores propios de valores
n
propios 1 y 2 , respectivamente. Si 1 = 2 entonces x y = 0, es decir, x y y son ortogonales. El teorema
tambin se cumple si A es una matriz simtrica con entradas reales.
e
e
Demostracin.
o
1 (v1 v2 ) = (1 v1 v2 ) = (Av1 v2 ) = (Av1 )t v2 = (Av1 )t v2
= v1 t A

AH =A

v2 = v1 t Av2 = v1 t 2 v2 = 2 v1 t v2 = 2 (v1 v2 ).

Luego (1 2 )v1 v2 = 0, como 1 = 2 entonces v1 v2 = 0.

2 1
. Los valores propios de A son = 1 y = 3 los cuales son nmeros
u
Ejemplo 9.2. Sea A =
1 2


1
1
o
reales y los vectores propios son v1 = y v2 = . Ntese que v1 v2 = 0.
1
1

2 1 1

Ejemplo 9.3. La matriz simtrica A = 1


e
2 1 debe tener valores propios reales, usamos MatLab

1 1
2
para calcular la factorizacin de su polinomio caracter
o
stico:
>> A = [2 1 1; 1 2 1; 1 1 2]; f actor(poly(sym(A)))
ans =
x (x 3)2
Por tanto los valores propios son = 0 y = 2 de multiplicidad 2.

9.2.

Formas Cuadrticas
a

Denicin 9.2. Una forma cuadrtica es una expresin de la forma


o
a
o
n

aii x2 +
i
i=1

aij xi xj .
i<j

aii x2 +
i

Ntese que si F =
o
i=1

a11

a12
2

.
.
.
a1n
2

a12
2

a22
.
.
.

..
.

a2n
2

aij xi xj es una forma cuadrtica entonces F = xt Qx donde Q =


a
i<j

x1

.
.
. y x = . .

.
.
xn

a1n
2
a2n
2

ann


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

177

Ejemplo 9.4. forma caudrtica F = 2x2 + 2xy + 2y 2 se puede escribir matricialmente como F =
a
La

x
2 1
.
x y
y
1 2

Observacin 9.1. Un hecho muy conocido, pero que no ser demostrado en este libro, es que toda matriz
o
a
simtrica es diagonalizable, esto hecho lo usaremos en el siguiente teorema.
e

Teorema 9.3. (Teorema de los ejes principales) Sea F = xt Qx un forma cuadrtica en n variables con
a
Q una matriz simtrica. Como Q es diagonalizable existen vectores propios v1 , . . . , vn de Q linealmente
e
independientes. Sean 1 , . . . , n los respectivos valores propios correspondientes a v1 , . . . , vn y sea X =
{v1 , . . . , vn }, entonces X es una base de Rn . Entonces bajo la base X, la forma cuadrtica tiene la forma:
a
2
2
F = 1 y1 + + n yn .

Demostracin. Primero veamos que a la base X la podemos tomar ortonormal.


o
Si los i son todos distintos, entonces los vectores propios son ortogonales y X es ortogonal, si no lo
o
son, tomamos v11 , . . . , v1k1 , . . . , vs1 , . . . , vsks una reindexacin de los vectores de X de tal manera que
v11 , . . . , v1k1 son vectores propios de valor propio 1 ,. . . vs1 , . . . , vsks vectores propios de valores propios
s . Aplicando Gramm-Schmidt a cada uno de los conjuntos {v11 , . . . , v1k1 , }, . . . ,
{vs1 , . . . , vsks } obtenemos vectores w11 , . . . , w1k1 , . . . ,ws1 , . . . , wsks formando una base ortogonal y redenimos
X=

1
1
1
1
w1k1 , . . . ,
wsks
w11 , . . . ,
ws1 , . . . ,
||w11 ||
||w1k1 ||
||ws1 ||
||wsks ||

Por tanto X es ortonormal.

Como X es una base de vectores propios entonces

.
X QX = .
.
0
Adems sabemos que
a

X QX

0
.
.
.

= BQB 1 donde B = v1

una matriz ortogonal y B 1 = B t , por tanto


Q = B 1

..
.

X QX B

(9.1)

vn . Como X es ortonormal, entonces B es

t
= B X QX B

(9.2)

Denamos y = Bx y sean y1 , . . . , yn las componentes de y, entonces de (9.2) tenemos que la forma


cuadrtica tiene la forma
a
F = xt Qx = xt B t

X QX Bx

= (Bx)t

X QX Bx

Luego de (9.1) y (9.3) tenemos que


2
2
F = 1 y1 + + n yn .

= yt

X QX y.

(9.3)

178
Adems ntese que los ejes de esta forma cuadrtica son los vectores de la base X, los cuales son perpena o
a
diculares.
Observacin 9.2. Una ecuacin de la forma F = c con F una forma cuadrtica y c una constante es
o
o
a
una seccin cnica.
o o
El teorema de los ejes principales nos permite identicar la secciones cnicas. Sea xt Qx = c una cnica
o
o
con c > 0 constante y sean 1 , . . . , 2 los valores propios de Q, entonces tenemos lo siguiente:
Si Q es 2x2 y:
a) 1 , 2 > 0 entonces xt Qx = c es una elipse.
b) 1 , 2 < 0 entonces xt Qx = c es vacia.
c) 1 2 < 0 entonces xt Qx = c es una hiprbola.
e
d) 1 2 = 0 entonces xt Qx = c es una forma degenerada.
En el caso 3x3 tenemos:
a) Si 1 , 2 , 3 > 0 entonces xt Qx = c es un elipsoide.
b) Si 1 , 2 , 3 < 0 entonces xt Qx = c es vacia.
c) Si uno de los i es positivo y los otros negativos entonces xt Qx = c es un hiperboloide de 2 hojas
d) Si uno de los i es negativo y los otros positivos, entonces xt Qx = c es un hiperboloide de una hoja.
e) Si c = 0 y uno de los i es positivo y los otros negativos o dos positivos y uno negativo entonces
xt Qx = c es un cono.
Ahora consideremos la ecuacin z = xt Qx con z variable y Q de tamano 2x2 con valores propios 1 y
o
n
2 . Entonces tenemos lo siguiente
a) Si 1 2 > 0 entonces z = xt Qx es un paraboloide el
ptico.
b) Si 1 2 < 0 entonces z = xt Qx es un paraboloide hiperblico o silla de montar.
o
Ejemplo 9.5. seccin cnica 2x2 + 2xy + 2y 2 = 4 se puede escribir matricialmente en la forma
o
o
La

x
2 1
= 4.
x y
y
1 2

1
1
2 1
son v1 = y v2 = con valores propios 1 y 3, respectivamente.
Los vectores propios de Q =
1
1
1 2
Entonces con respecto a la base X = {v1 , v2 } tenemos que la ecuacin de la forma cuadrtica est dada
o
a
a
por x2 + 3y 2 = 4 cuya ecuacin corresponde a una elipse.
o

Ahora, si consideramos la ecuacin z = 2x2 + 2xy + 2y 2 entonces con respecto a la base X la ecuacin
o
o
tiene la forma z = x2 + 3y 2 el cual corresponde a un paraboloide el
ptico.


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

179

Ejemplo 9.6. La seccin cnica 4xy = 5 se puede escribir matricialmente en la forma x


o o
5.


1
son v1 = y v2 = con valores propios
Los vectores propios de Q =
1
1
2 0
1
-2 y 2, respectivamente. Normalizando estos vectores obtenemos w1 = 2 v1 y w2 =

0 2


x
=
y
y
2 0

1
v2 ,
2

0 2

entonces con

respecto a la base X = {w1 , w2 } tenemos que la ecuacin de la seccin cnica est dada por 2x2 +2y 2 = 5
o
o o
a

cuya ecuacin corresponde a una hiprbola abierta en la direccin de y , es decir, en direccin de la


o
e
la
o

5/2
5/2
y 5 w 2 =
.
linea generada por v2 y con interceptos 5 w2 = 25 v2 =
2
2
5/2
5/2
Ahora, si consideramos la ecuacin z = 4xy entonces con respecto a la base X la ecuacin tiene la forma
o
o
z = 2x2 + 2y 2 la cual corresponde a un paraboloide hiperblico o silla de montar.
o

Ejemplo 9.7. (MatLab) Sea Q = 1


5

1 1
t
ecuacin x Qx = 5.
o

o
1, determinar que tipo de cnica corresponde a la

Solucin. Usamos MatLab para calcular los valores propios de A,


o
>> A = [5 1 1; 1 5 1; 1 1 5]; eig(A)
ans =
6
3
6
Por tanto la cnica corresponde a un elipsoide. Para calcular los
o
ejes coordenados, calculamos los vectores


1
1
1






propios los cuales son v1 = 1 con valor propio 3 y v2 = 1 y v3 = 0 ambos de valor propio 6.



1
0
1
Ntese que v2 y v3 no son ortogonales, pero estos forman una base para subespacio propio E6 , entonces
o
el

1/2

usando Gramm-Schmidt, reemplazamos v3 por w3 = v3 proyv2 v3 = 1/2. Obtenemos que los ejes

1
coordenados bajo los cuales la grca de xt Qx = 5 es un elipsoide son las lineas determinadas por los
a
vectores:


1


v1 = 1 ,

1

1


v2 = 1

0

1/2

w3 = 1/2 .

180

Ejemplo 9.8. Sea Q = 5

1
5.

o
o
1 1, determinar que tipo de cnica corresponde a la ecuacin xt Qx =

1
5
5

Solucin. Se puede ver que los valores propios de Q son = 3, 6 y 6. Por tanto la cnica corresponde
o
o
a un hiperboloide de una hoja.


1/2
1


Es fcil ver que los vectores propios de Q son v1 = 1 con valor propio 3, v2 = 1/2 de valor propio
a


1
1

1


6 y v3 = 1 de valor propio -6. De donde se sigue que la ecuacin de esta cnica con respecto a la base
o
o

0
{v1 , v2 , v3 } es 3x2 + 6y 2 6z 2 = 5, la cual corresponde a un hiperboloide de una hoja cuyo eje central es
la linea generada por el vector v3 .
Ejemplo 9.9. Determine el tipo de cnica determinada por la cuadrtica 2xy + 2xz + 2yz = 5.
o
a

0 1 1

Solucin. La matriz de la forma cuadrtica es Q = 1 0 1 cuyos vectores propios ortogonales son


o
a

1 1 0


1
1/2
1


o
v1 = 1 y v2 = 1/2 ambos de valor propio -1 y v3 = 1 de valor propio 2. Por tanto la ecuacin


1
1
0
2
2
de esta cnica con respecto a la base {v1 , v2 , v3 } es x y + 2z 2 = 5 cuya grca corresponde a un
o
a
paraboloide de dos hojas cuyo eje central es la linea generada por el vector v3 .
Problemas
a) Encuentre una matriz ortogonal Q y una matriz diagonal D

3 2
3
4
c. A = 1
b. A =

a. A =

2 3
4 3
0

tal que A = QDQt si:

1 3 0
1 0

3 0 d. A = 3 1 0

0 0 1
0 2

b) Para cada una de las matrices del problema anterior identique el tipo de cnica representada por la
o
forma cuadrtica xt Ax = 4 y bosquejar su graca.
a
c) Para las matrices dadas en los Problemas 1 aa. y 1 ab. identique el tipo de supercie que que representa la ecuacin z = xt Ax con z variable.
o
d) Para cada una de las matrices del Problema 1 a encuentre una base X de vectores propios y encuentre
la matriz

X AX .

Cap
tulo 10

Formas Multilineales
En este cap
tulo deniremos las formas multilineales y daremos sus propiedades bsicas, tambin introdua
e
ciremos las formas multilineales simtricas y alternadas. En la ultima seccin deniremos el determinante
e

o
de una matriz como una funcin multilineal alternada y mostraremos que esta denicin es equivalente a
o
o
la que se dio en la Seccin 0.5.
o

10.1.

Funciones Multilineales

Denicin 10.1. Sean W1 , . . . , Wn y V espacios vectoriales sobre un campo F, decimos que una funcin
o
o
f : W1 Wn V es n-lineal si satisface

a) f (w1 , . . . , wi + wi , . . . , wn ) = f (w1 , . . . , wi , . . . , wn ) + f (w1 , . . . , wi , . . . , wn )

b) f (w1 , . . . , wi , . . . , wn ) = f (w1 , . . . , wi , . . . , wn )

para todo i = 1, . . . , n, F y wi , wi Wi .

Ejemplo 10.1. Si W1 , . . . , Wn y V espacios vectoriales sobre un campo F y para i = 1, . . . , n tomamos


fi Wi entonces la funcin f : W1 Wn V denida por f (w1 , . . . , wn ) = f1 (w1 ) fn (wn ) es
o
una funcin n-lineal.
o
Notacin 7. Al conjunto de funciones n-lineales de W1 Wn en V lo denotaremos por L(W1 , . . . , Wn ; V ).
o
Si W = W1 = = Wn usaremos la notacin Ln (W ; V ) por L(W, . . . , W ; V ) y si se cumple adems que
o
a
nveces

V = F usaremos la notacin Ln (W ) por Ln (W ; F).


o
Al conjunto Ln (W ) se le llama el conjunto de formas n-lineales en W .
El siguiente teorema nos da una base de Ln (W ), ste es una generalizacin del Teorema 7.1.
e
o
181

182
Teorema 10.1. Si W es un espacio vectorial sobre un campo F y sea {w1 , . . . , wm } una base de W y

{w1 , . . . , wm } la base dual. Denimos la funcin i1 ,...,in : W n F determinada por


o

i1 ,...,in (v1 , . . . , vn ) = wi1 (v1 ) win (vn )


m

entonces el conjunto {i1 ,...,in }i1 ,...,in =1 es una base de Ln (W ) y por tanto dim(Ln (W )) = (dim W )n .
Demostracin. Se dejea como ejercicio al lector.
o
Problema 10.1.1. Demuestre el Teorema 10.1.
Problema 10.1.2. Si W1 , . . . , Wn son espacios vectoriales sobre un campo F y sea {wi1 , . . . , wimi } una

o
base de Wi y {wi1 , . . . , wimi } la base dual, con i = 1, . . . , n. Denimos la funcin j1 ,...,jn : V n F

determinada por

j1 ,...,jn (v1 , . . . , vn ) = w1j1 (v1 ) wnjn (vn )

(10.1)

entonces el conjunto {j1 ,...,jn }, donde cada ji corre de 1 a mi = dim Wi , es una base de L(W1 , . . . , Wn ; F)
y por tanto dim L(W1 , . . . , Wn ; F) = dim W1 dim Wn .

10.2.

Formas n-lineales simtricas


e

Denicin 10.2. Sea Ln (V ) con V un espacio vectorial sobre F, decimos que es una forma nlineal
o
simtrica si para todo v1 , . . . , vn V se cumple que
e
(v1 , . . . , vi , vi+1 , . . . , vn ) = (v1 , . . . , vi , vi+1 , . . . , vn )

con

1 i < n.

Al conjunto de formas n-lineales simtricas lo denotaremos por Sn (V ).


e
Problema 10.2.1. Muestre que si Sn (V ) y v1 , . . . , vn V entonces se cumple que
a) (v1 , . . . , vi , . . . , vj , . . . , vn ) = (v1 , . . . , vj , . . . , vi , . . . , vn ), para todo 1 i < j n,
b) (v1 , . . . , vn ) = (v(1) , . . . , v(n) ) para todo Sn , donde Sn denota el conjunto de biyecciones del
conjunto {1, . . . , n} tambin conocido como el conjunto de permutaciones de {1, . . . , n}.
e
Es importante observar que si Ln (V ) y denimos la funcin s() : V n F determinada por
o
s()(v1 , . . . , vn ) =

1
n!

(v(1) , . . . , v(n) )
Sn

donde Sn es el conjunto de permutaciones de {1, . . . , n}, entonces s() Sn (V ).


s:

Ln (V )

Sn (V )

A la funcin
o

s()

se le llama la funcin simetrizante.


o

o
Problema 10.2.2. Si {v1 , . . . , vk } es una base de V y j1 ,...,jn es la forma n-lineal denida en la Ecuacin
10.1 entonces el conjunto {s(j1 ,...,jn ) | 1 j1 jn k} es una base de Sn (V ). Se sigue que la
funcin simetrizante es sobreyectiva y que la dimensin de Sn (V ) est dada por dim Sn (V ) =
o
o
a

n+k
k


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

10.3.

183

Formas Alternantes

Denicin 10.3. Si Ln (V ) es una forma n-lineal, decimos que es alternada si para todo v1 , . . . , vn
o
V se cumple que
(v1 , . . . , vi , vi+1 , . . . , vn ) = (v1 , . . . , vi+1 , vi , . . . , vn )
para todo i = 1, . . . , n 1.
El conjunto de n-formas alternadas lo denotaremos por n (W ).
Las propiedades bsicas de las formas alternantes son las siguientes.
a
Lema 10.2. Sea n (V ), F y sean v1 , . . . , vn V entonces:
a) (v1 , . . . , vi , . . . , vj , . . . , vn ) = (v1 , . . . , vj , . . . , vi , . . . , vn ) para todo 1 i < j n.
b) Si vi = 0 para algn i entonces (v1 , . . . , vn ) = 0,
u
c) (v1 , . . . , vn ) = n (v1 , . . . , vn ),
d) Si vi = vj para algn i, j entonces (v1 , . . . , vn ) = 0,
u
e) (v1 , . . . , vi + vj , . . . , vj . . . , vn ) = (v1 , . . . , vi , . . . , vj . . . , vn )

Demostracin. 1.
o
(v1 , . . . , vi , . . . , vj , . . . , vn ) = (1)ji (v1 , . . . , vi1 , vi+1 , . . . , vj , vi . . . , vn )
= (1)ji (1)ji1 (v1 , . . . , vi1 , vj , . . . , vi . . . , vn )
= (v1 , . . . , vj , . . . , vi . . . , vn )
2.
(v1 , . . . , vi , . . . , vn ) = (v1 , . . . , O, . . . , vn ) = (v1 , . . . , 0 O, . . . , vn )
= 0 (v1 , . . . , O, . . . , vn )
=0
3. Como n (V ) Ln (V ) se tiene que (v1 , . . . , vn ) = n (v1 , . . . , vn ).
4. Por la parte 1. de este Lema tenemos que
(v1 , . . . , vi . . . , vj , . . . , vn ) = (v1 , . . . , vj . . . , vi , . . . , vn )
ahora supongamos que vi = vj entonces (v1 , . . . , vi . . . , vi , . . . , vn ) = (v1 , . . . , vi . . . , vi , . . . , vn ) de
donde 2(v1 , . . . , vi . . . , vi , . . . , vn ) = 0 y por tanto (v1 , . . . , vi . . . , vi , . . . , vn ) = 0.

184
5.
(v1 , . . . , vi , . . . , vj + vi , . . . , vn ) = (v1 , . . . , vi , . . . , vj , . . . , vn ) + (v1 , . . . , vi , . . . , vi , . . . , vn )
= (v1 , . . . , vi , . . . , vj , . . . , vn ) + (v1 , . . . , vi , . . . , vi , . . . , vn )
=0

= (v1 , . . . , vi , . . . , vj , . . . , vn )

Corolario 10.3. Si los vectores v1 , . . . , vn son LD y n (V ) entonces (v1 , . . . , vn ) = 0.


Demostracin. Como los vectores v1 , . . . , vn son LD, existe j tal que vj = 1 v1 + +j1 vj1 . Entonces
o
(v1 , . . . , vj1 , vj, . . . , an ) = (v1 , . . . , vj1 , 1 v1 + + j1 vj1 , . . . , vn )
= 1 (v1 , . . . , vj1 , v1 , . . . , vn ) + + j1 (v1 , . . . , vj1 , vj1 , . . . , vn )
=0

=0

=0

De esto tambin se desprende el siguiente corolario.


e
Corolario 10.4. Si dim V = k entonces para n > k se tiene que dim n (V ) = 0.
Demostracin. Esto se sigue del corolario anterior y del hecho que n vectores en V son necesariamente
o
LD.
Es importante notar que si Ln (V ) y denimos la forma A() Ln (V ) determinada por
A()(v1 , . . . , vn ) =

1
n!

(1)sgn() (v(1) , . . . , v(n) )


Sn

donde sgn() denota el signo de la permutacin , entonces A() es una forma alternada.
o
A:

Ln (V )

n (V )

A la funcin
o

A()

se le llama la funcin alternante.


o

o
Problema 10.3.1. Si {v1 , . . . , vk } es una base de V y j1 ,...,jn es la forma n-lineal denida en la Ecuacin
10.1 entonces el conjunto {A(j1 ,...,jn ) | 1 j1 < < jn k} es una base de n (V ). Se sigue que la
funcin alternante es sobreyectiva y que la dimensin de An (V ) est dada por dim An (V ) =
o
o
a

n
k

En el resto de la seccin veremos el determinante como una forma n-lineal alternada y mostratermos
o
que n (Fn ) = gen{det}, tambin veremos las propiedades del determinante. Para el resto del cap
e
tulo
usaremos la siguiente notacin.
o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

185

Notacin 8. Si f Ln (Fm ) y A = [a1 an ] Mmn (F) es una matriz m n con columnas a1 , . . . , an ,


o
abusaremos de la notacin y hablaremos de f (A) y en este caso f (A) = f (a1 , . . . , an ).
o
Observacin 10.1. El Lema 10.2 implica las siguientes propiedades para una forma f n (Fm ) y sean
o
A, B Mmn (F):
a) si A es obtenida de A al intercambiar dos columnas entonces f (A ) = f (A),
b) Si A tiene una columna de ceros entonces f (A) = 0,
c) f (A) = n f (A),
d) Si A tiene dos columnas iguales entonces f (A) = 0.
e) Si B se obtiene de A sumando un mltiplo de una columna de A a otra columna, es decir, si
u
A =

a1

f (A) = f (B).

ai

aj

an

y B =

a1

n
Teorema 10.5. Sea f n (F y A Mnn (F), si A =

...

ai + aj

a11

0
.
.
.

a22
.
.
.

..
.

0
.
.
.

ann

f (A) = a11 a22 ann f (In ).

aj

an

entonces

es diagonal, entonces

Demostracin. f (A) = f (a11 e1 , . . . , ann en ) = a11 ann f (e1 , . . . , en ) = a11 ann f (In ).
o
Del Problema 10.3.1 sabemos que dim n (Fn ) = 1, el siguiente teorema ser clave para determinar una
a
forma que genere el espacio n (Fn ).

a11

a12
a22
.
.
.

f (A) =

Sn

..
.

an2

a21
n
Teorema 10.6. Sea f n (F ) y A = .
.
.

an1

a1n

a2n

. entonces
.
.
ann

sgn()a(1)1 a(2)2 a(n)n f (In ).


n

aij j eij . Entonces

Demostracin. Para j = 1, . . . , n sea aj = (a1j , . . . , anj ) =


o
ij =1

f (A) = f (a1 , . . . , an ) = f

ain n ein

ai1 1 ei1 , . . . ,
in =1

i1 =1
n

=
i1 =1
n

=
i1 =1

ai1 1

ain n f (ei1 , . . . , ein )


in =1

in =1

ai1 1 ain n f (ei1 , . . . , ein )

(10.2)

186

Ahora, ntese que si existen h y k tal que ih = ik entonces f (ei1 , . . . , ein ) = 0. Por tanto las unicas
o
ntuplas i1 , . . . , in en la expresin (10.2) para las cuales f (ei1 , . . . , ein ) = 0 son las n-tuplas tal que
o
i1 , . . . , in son todos diferentes, es decir, las n-tuplas tal que (i1 , . . . , in ) es una permutacin de 1, . . . , n.
o
Deniendo la permutacin de {1, . . . , n} para la cual (j) = ij , tenmos que la expresin (10.2) se
o
o
convierte en
f (A) =
Sn

a(1)1 a(n)n f (e(1) , . . . , e(n) )

Finalmente, para re-escribir la expresin f (e(1) , . . . , e(n) ) con los sub-


o
ndices en orden, se necesitan aplicar las transposiciones que aparecen en la descomposicin de como producto de transposiciones, como por
o
cada transposicin la expresin f (e(1) , . . . , e(n) ) se multiplica por -1, tenemos que f e(1) , . . . , e(n) =
o
o
sgn()f (e1 , . . . , en ), por tanto
f (A) =
Sn

=
Sn

=
Sn

a(1)1 a(n)n f e(1) , . . . , e(n)


sgn()f (e1 ,...,en )

sgn()a(1)1 a(n)n f (e1 , . . . , en )


sgn()a(1)1 a(n)n f (In )

Ahora demostramos que la funcin det : Fn F denida por det(A) =


o
es una forma n-lineal alternada y genera al espacio n (Fn ).

a11

a21
Teorema 10.7. Sea A = .
.
.

an1

det(A) =

Sn

a12

a22
.
.
.

..
.

an2

a1n

Sn

sgn()a(1)1 a(2)2 a(n)n

a2n
n n

. y sea det : (F ) F denida por


.
.
ann

sgn()a(1)1 a(2)2 a(n)n entonces det n (Fn ) y det(In ) = 1. Ms an, si g n (Fn )


a u

es tal que g(In ) = 1 entonces g = det.


a1i
b1i


.
.
Demostracin. Primero mostremos que det es lineal en cada componente. Sea ai = . y bi = .
o
.
.
ani
bni


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

187

para i = 1, . . . , n. Entonces para j jo tenemos que


det(a1 , . . . , aj + bj , . . . , an ) =
Sn

=
Sn

sgn()a(1)1 (a(j)j + b(j)j ) a(n)n


sgn()a(1)1 a(j)j a(n)n
+
Sn

sgn()a(1)1 b(j)j a(n)n

= det(a1 , . . . , aj , . . . , an ) + det(a1 , . . . , bj , . . . , an )

det(a1 , . . . , aj , . . . , an ) =

Sn

sgn()a(1)1 a(j)j a(n)n

=
Sn

sgn()a(1)1 a(j)j a(n)n

= det(a1 , . . . , aj , . . . , an ).
Ahora mostremos que det es una n-forma alternada.
Sea = (i

o
i + 1) la permutacin de Sn para la cual (i) = i + 1 y (j) = j si j < i o j > i + 1. Entonces

la funcin : Sn Sn tal que () = es una biyeccin de Sn , por tanto


o
o
det(a1 , . . . , ai , ai+1 , . . . , an ) =
Sn

=
Sn

=
Sn

=
Sn

sgn()a(n)1 a(i)i a(i+1)i+1 a(n)n


sgn() a(1)1 a(i)i a(i+1),i+1 a(n)n
sgn()sgn()

sgn() sgn() a(1)1 a(i+1)i a(i)i+1 a(n)n


1

sgn()(1)a(1)1 a(i+1)i a(i),i+1 a(n)n

= det(a1 , . . . , ai+1 , ai , . . . , an )
Ahora supongamos que g es una n-forma alternada tal que g(In ) = 1, entonces por el Teorema 10.6
g(a1 , . . . , an ) =
Sn

sgn()a(1)1 a(n)n g(In ) =


=1

Sn

sgn()a(1)1 a(n)n = det(a1 , . . . , an ).

El siguiente resultado se sigue de este teorema.


Corolario 10.8. El espacio de n-formas alternadas en Fn es 1-dimesional, en particular n (Fn ) =
gen{det} y si f n (Fn ) y A Mnn (F) entonces f (A) = det(A)f (In ).
Ahora podemos deducir las siguientes propiedades importantes del determinante.

188
Teorema 10.9. Sean A, B Mnn (C) entonces
1. det(AB) = det(A) det(B),
2. Si A es invertible entonces det(A1 ) =

1
.
det(A)

Demostracin. 1. Sea g : (Fn ) F denida por


o
g(b1 , . . . , bn ) = det(Ab1 , . . . , Abn ).
Veamos que g n (Fn ).
g es n-lineal:
g(b1 , . . . , bi + b , . . . , bn ) = det(Ab1 , . . . , A(bi + b ), . . . , Abn ) = det(Ab1 , . . . , Abi + Ab , . . . , Abn )
i
i
i
= det(Ab1 , . . . , Abi , . . . , Abn ) + det(Ab1 , . . . , Ab , . . . , Abn )
i
= g((b1 , . . . , bi , . . . , bn ) + g(b1 , . . . , b , . . . , bn )
i
g es alternada:
g(b1 , . . . , bi , bi+1 , . . . , bn ) = det(Ab1 , . . . , Abi , Abi+1 , . . . , Abn ) = det(Ab1 , . . . , Abi+1 , Abi , . . . , Abn )
= g(b1 , . . . , bi+1 , bi , . . . , bn )
Recordemos que la j-sima columna de A es Aej , entonces tenemos que g(In ) = g(e1 , . . . , en ) =
e
det(Ae1 , . . . , Ae n) = det(A), se sigue del corolario anterior que g(B) = det(B)g(In ) = det(B) det(A).
Pero por la denicin de g tenemos que si B = [b1 , . . . , bn ] entonces
o
g(B) = g(b1 , . . . , bn ) = det(Ab1 , . . . , Abn ) = det(AB).
Concluimos que det(AB) = g(B) = det(A) det(B).
2. Si A es invertible entonces I = AA1 , se sigue que
1 = det(I) = det(AA1 ) = det(A) det(A1 ).
Por tanto det(A1 ) =

1
det(A) .

Para matrices invertibles podemos resolver sistemas de ecuaciones lineales Ax = b usando la famosa regla
de Cramer, cuya demostracin hacemos a continuacin.
o
o
Teorema 10.10. (Regla de Cramer) Sea b Fn , A = a1
a1 , . . . , an son las columnas de A y denamos la matrices
A1 = b

a2

an ,

A2 = a1

a2

an una matriz n n donde

an , . . . , An = a1

a2

b ,

si A es invertible entonces la solucin al sistema Ax = b est dada por el vector x = (1 , . . . , n ) donde


o
a
1 =

det(A1 )
,
det(A)

2 =

det(A2 )
det(An )
, . . . , n =
.
det(A)
det(A)


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

189

Demostracin. Como A es invertible, sabemos que el sistema Ax = b tiene solucin unica. Sea
o
o
n

x = (1 , . . . , n ) dicha solucin, entonces tenemos que b = 1 a1 + + n an =


o
1 j n jo tenemos
n

i=1

i=1

i det(a1 , . . . , ai , . . . , an )

i ai , . . . , an ) =

det Aj = det(a1 , . . . , b , . . . , an ) = det(a1 , . . . ,

xi ai . Por tanto para


i=1

= 1 det(a1 , . . . , a1 , . . . , an ) + + j det (a1 , . . . , aj , . . . , an ) + . . .


=0

=A

+ n det(a1 , . . . , an , . . . , an )
=0

= j det A.
De esto se sigue que j =

detAj
.
det A

Problemas
Problema 10.3.2. Demuestre que A es invertible si y slo si det A = 0.
o
2

Problema 10.3.3. Sea T : Fn Fn una funcin lineal y considere la funcin DT : Fn F denida


o
o
por DT (a1 , . . . , an ) = det (T (a1 ), . . . , T (an )) y sea c = DT (In ), demuestre lo siguiente:
a) DT es una funcin multilineal alternada.
o
b) DT (a1 , . . . , an ) = c det(a1 , . . . , an ).
c) Si X es una base de Fn y A =

10.4.

X TX

entonces det A = c.

Cofactores

En estos momentos tenemos dos deniciones diferentes de determinante, la primera se dio en ultima

seccin de los preliminares a travez de cofactores y en la seccin anterior denimos el determinante


o
o
como la unica forma n-lineal alternada en n (Fn ) con la propiedad que det(In ) = 1. En esta seccin

o
mostraremos que ambas deniciones son equivalentes. La estrategia a seguir es la siguiente: usaremos la
denicin de determinante como la unica forma n-lineal alternada cuyo valor en In es 1 y mostraremos
o

que Cof : (Fn )n F denida por


n

(1)1+j a1j Cof1 (A1j ),

Cof (A) = Cof1 (A) =


j=1

donde A1j es el 1j menor de A; es decir la matriz que se obtiene de A al eliminar la la 1 y la columna


j, es una forma n-lineal alternada. Del Corolario 0.21 tenemos que Cof1 (I) = 1 y por tanto det = Cof1 .

190
Un hecho importante que ser util en la demostracin de que Cof es una funcin n-lineal alternada es el
a
o
o
hecho de que Cof = Cofi = Cof i , para i = 1, . . . , n, donde Cofi es el cofactor obtenido por expansn en
o
la la i y Cof i es el cofactor obtenido por expansin en la columna i. Ms especicamente
o
a
n

(1)i+j aij Cof1 (Aij )

Cofi (A) =

(1)j+i aji Cof1 (Aji ).

Cof i (A) =

j=1

j=1

Estas frmulas se demostraron en le Teorema 0.22. Procedemos ahora a demostrar que Cof n (Fn ).
o
Teorema 10.11. La funcin Cof es una n-forma alternada.
o
Demostracin. Primero mostremos la linearidad en cada componente. Sean a1 , . . . , an Fn con
o
ai = (a1i , . . . , ani ), entonces usando cofactores en la i-sima columna obtenemos:
e
Cof (a1 , . . . , ai + bi , . . . , an ) = Cof i (a1 , . . . , ai + bi , . . . , an )
n

(1)j+i (aji + bji )Cof (a1 , . . . , ai1 , ai+1 , . . . , an )

=
j=1
n

(1)j+i aji Cof (a1 , . . . , ai1 , ai+1 , . . . , an )

=
j=1

+ (1)j+i bji Cof (a1 , . . . , ai1 , ai+1 , . . . , an )


n

(1)j+i aji Cof (a1 , . . . , ai1 , ai+1 , . . . , an )

=
j=1

(1)j+i bji Cof (a1 , . . . , ai1 , ai+1 , . . . , an )

+
j=1

= Cofi (a1 , . . . , ai , . . . , an ) + Cofi (a1 , . . . , bi , . . . , an )


= Cof (a1 , . . . , ai , . . . , an ) + Cof (a1 , . . . , bi , . . . , an )
Cof (a1 , . . . , ai , . . . , an ) = Cofi (a1 , . . . , ai , . . . , an )
n

(1)j+i aji Cof (a1 , . . . , ai1 , ai+1 , . . . , an )

j=1
n

(1)j+i aji Cof (a1 , . . . , ai1 , ai+1 , . . . , an )

=
j=1

= Cofi (a1 , . . . , ai , . . . , an )
= Cof (a1 , . . . , ai , . . . , an )
Ahora veamos que Cof es alternada.
Usando expansin por cofactores en la i-sima columna de Cof (a1 , . . . , ai , ai+1 , . . . , an ) tenemos
o
e
Cof (a1 , . . . , ai , ai+1 , . . . , an ) = Cof i (a1 , . . . , ai , . . . , an )
n

(1)j+i aji Cof (a1 , . . . , ai1 , ai+1 , . . . , an )

=
j=1

(10.3)


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

191

Ahora, usando cofactores en la columna i + 1 de Cof (a1 , . . . , ai+1 , ai , . . . , an ) tenemos:


Cof (a1 , . . . , ai+1 , ai , . . . , an ) = Cofi+1 (a1 , . . . , ai+1 , ai , . . . , an )
n

(1)j+i+1 aji Cof (a1 , . . . , ai1 , ai+1 , . . . , an )

=
j=1
n

(1)j+i aji Cof (a1 , . . . , ai1 , ai+1 , . . . , an )

=
j=1

(1)j+i aji Cof (a1 , . . . , ai1 , ai+1 , . . . , an )

(10.4)

j=1

De las ecuaciones (10.3) y (10.4) obtenemos que


Cof (a1 , . . . , ai , ai+1 , . . . , an ) = Cof (a1 , . . . , ai+1 , ai , . . . , an ).

A continuacin deducimos que det = Cof .


o
Corolario 10.12. Sea A Mnn (F), entonces det(A) = Cof (A).
Demostracin. Por el Corolario 0.21 tenemos que Cof (In ) = 1 entonces como Cof n (Fn , se sigue
o

por el Teorema 10.7 que para todo A Mn (Fn )

Cof (A) = det(A)Cof (In ) = det(A).


Concluimos que Cof = det .

Problemas

10.5.

Matriz Adjunta

Denicin 10.4. Sea A Mnn (C), denimos el ij-simo cofactor de A, denotado Cij , por la ecuacin
o
e
o
Cij = (1)i+j Cof (Aij ) = (1)i+j det(Aij ).
Denicin 10.5. Sea A Mnn (C), denimos la matriz adjunta de A, denotada por adj(A), como la
o
matriz:

C11

.
adj(A) = .
.
Cn1

..
.

t
C1n
C11

.
.
. = .
.
.
Cnn
C1n

..
.

Cn1

.
. .
.
Cnn

192
Lema 10.13. Sea A Mnn (C), entonces para todo i, k = 1, . . . , n se tiene que
n

ajk Cji = ik det(A).

(10.5)

j=1

Demostracin. Si i = k (10.5) se convierte en


o
n

aji (1)i+j Aji = Cofi (A) = det(A).

aji Cji =
j=1

j=1

Si i = k veamos que det(A) = 0. Sea B =

a1

ak

ak

, la matriz que se obtiene

an

de A reemplazando la isima columna de A por la ksima columna de A. Entoonces por el Lema 10.2
e
e
tenemos que det(B) = 0. Si denotamos por Djk el jksimo cofactor de B y notando que para j = 1, . . . , n
e
se cumple que Bji = Aji , ya que al borrar la isima columna de B se obtiene lo mismo que al borrar la
e
isima columna de A. Luego Dji = (1)i+j Bji = (1)i+j Aji = Cji y por tanto
e
n

n
j=1

Teorema 10.14. Sea A Mnn (C), entonces A1 =

ajk Cji .

bji Dji =

0 = det(B) = Cof (B) = Cofi (B) =

ajk

Cji

j=1

1
adj(A).
det(A)

Demostracin. Ntese que


o
o

a11

a21
A adj(A) = .
.
.

an1
n

a12

a1n

a22
.
.
.

..
.

a2n
.
.
.

an2

ann

C11



C12

.
.
.
C1n

a1j C2j

j=1
n

a1j C1j

j=1

=0

det(A)

a2j C1j

a2j C2j

j=1

j=1
=0

=det(A)

.
.
.

.
.
.

..

anj C2j

anj C1j
j=1

j=1
=0

=0

det(A)

0
.
.
.

det(A)
.
.
.

..
.

0
.
.
.

det(A)

C21

Cn1

C22
.
.
.

..
.

Cn2
.
.
.

C2n

Cnn

a1j Cnj

=0

a2j Cnj

j=1

=0

anj Cnj

j=1

j=1

=det(A)

= det(A) In .


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
De donde A1 =

1
adj(A).
det(A)

Problemas
Problema 10.5.1. Sea A Mn (F) y B = adj(A), demuestre lo siguiente:
a) B 1 =

1
det A A

b) det B = (det A)n1 .

193

194

Cap
tulo 11

Producto Tensorial
11.1.

Espacios Cociente

Denicin 11.1. Sea V un espacio vectorial sobre un campo F y sea H un subespacio de V ,


o
1. para v V denimos el subconjunto v + H de V como
v + H = {v + h | h H}.
2. Denimos el conjunto cociente de V por H, denotado por V /H, como el conjunto
V /H = {v + H | v V }.
3. Para v, v V y F, denimos la suma y multiplicacin por escalar en V /H por las ecuaciones
o
v + H + v + H = (v + v ) + H

(v + H) = v + H

(11.1)

Lema 11.1. Sea V un espacio vectorial, H un subespacio de V y v, v V , entonces v + H = v + H si


y solo si v v H.

Demostracin. Supongamos que v + H = v + H, como v = v + 0 v + H = v + H entonces existe


o
h H tal que v = v + h luego v v = h H.

Ahora, supongamos que v v H, sea h = v v , veamos que v + H = v + H. Sea x v + H, entonces

existe h1 H tal que x = v + h1 = v v + v +h1 = v + h + h v + H. De manera similar se demuestra


h

la otra inclusin, por tanto v + H = v + H.


o
Teorema 11.2. Sea V un espacio vectorial sobre un campo F y sea H un subespacio de V , entonces las
operaciones denidas en (11.1) estn bien denidas y dotan a V /H con estructura de espacio vectorial
a
sobre F.
195

196
Demostracin. Veamos que las operaciones (11.1) estn bien denidas: Supongamos que v + H = v + H
o
a
y w+H = w +H, entonces vv H y ww H entonces (v+w)(v +w ) = vv +ww H entonces
por el Lema 11.1 (v + w) + H = (v + w ) + H. Ademas si es un escalar entonces v v = (v v ) H
y por tanto v + H = v + H.

Veamos ahora que con estas operaciones V /H es un espacio vectorial:


1. (v + H) + (w + H) = (v + w) + H = (w + v) + H = (w + H) + (v + H).
2. ((v + H) + (w + H)) + z + H = (v + w) + H + z + H = ((v + w) + z) + H = (v + (w + z)) + H =
v + H + (w + z) + H = v + H + ((w + H) + (z + H))
3. v + H + 0 + H = (v + 0) + H = v + H
4. v + H + (v) + H = (v v) + H = 0 + H
5. (v + H + v + H) = (v + v + H) = (v + v ) + H = (v + v ) + H = v + H + v + H.
6. ( + )(v + H) = ( + )v + H = (v + v) + H = v + H + v + H
7. ()(v + H) = ()v + H = (v) + H = (v + H)
8. 1(v + H) = 1v + H = v + H.
Conluimos que V /H es un espacio vectorial.
Notacin 9. Al conjunto V /H se le llamar el espacio cociente de V por H.
o
a
Problema 11.1.1. Sea V un espacio vectorial nito dimensional y H V un subespacio, si {h1 , . . . , hn }
es una base de V tal que {h1 , . . . , hk } es una base de H, demostrar que
V /H = gen{hk+1 + H, . . . , hn + H}.
Problema 11.1.2. Sean V, W un espacio vectorial, H, K V subespacios, demuestre los teoremas de
ismorsmo para espacios cociente
1. Si T : V W es una transformacin lineal entonces
o
V /kerT ImT.
=
2.
H +K H
=
H
H K
3. Si H K entonces K/H es un subespacio de V /H y
(V /H)/(K/H) V /K.
=


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

197

4. La funcin T : V V /H denida por T (v) = v + H es una transformaci lineal sobreyectiva


o
n
y establece una correspondencia uno a uno entre los subespacios de V que contienen a H y los
subespacios de V /H. Esta correpondencia satisface lo siguiente, si K y L son subespacios de V que
contienen a H entonces,
a. K L si y solo si T (K) T (L)
b. si K L entonces dim(L/K) = dim(T (L)/T (K)).
c. T (K L) = T (K) T (L).
Problema 11.1.3. Sean V, W espacios vectoriales sobre un campo F, sea T : V W una transformacin
o
lineal y H V un subespacio de V . Demuestre que la funcin T : V /H W denida por T (v + H) =
o
T (v) es una transformacin lineal bien denida si y slo si H ker(T ).
o
o
Problema 11.1.4. Sea T : V V una transformacin lineal y W V es un subespacio T -invariante
o
de V demuestre que

a) T : V /W V /W denida por T (v + W ) = T (v) + W es una tranformacin lineal bien denida


o
b) Si : V V /W est denida por (v) = v +W entonces es una tranformacin lineal sobreyectiva
a
o
con ker = W
c) El siguiente diagrama conmuta
V

V /W
d) Si X es una base de V y A =

X TX

V /W

es la matriz de T y f, g y h son los polinomios caracter


sticos

de A, A/W y A, respectivamente, entonces f = gh.

11.2.

Producto Tensorial

En esta seccin haremos una construccin del producto tensorial de dos espacios vectoriales V y W . Alo
o
gunos autores preeren no hacer esta construccin y demuestran que existe un unico espacio vectorial
o

E(V, W ) tal que las funciones bilineales de V W en un espacio Z se convierten en transformaciones


lineales de E(V, W ) en Z y denen este espacio como el producto tensorial V W . La propiedad de linearizarfunciones bilineales es conocida como la Propiedad universal del producto tensorial y ser demostrada
a
en la siguiente seccin. Comenzamos la construccin con la siguiente convencin.
o
o
o
Notacin 10. Sean V y W espacios vectoriales sobre F, el elemento (v, w) de V W , ser denotado por
o
a
ev,w .

198
Denicin 11.2. Sean V y W espacios vectoriales sobre F, y sea TV,W = gen{ev,w | v V, w W }.
o
Ahora, considere el subespacio H de TV,W generado por las relaciones:
H = gen{ev+v ,w ev,w ev ,w ; ev,w+w ev,w ev,w ; ev,w ev,w ; ev,w ev,w | v, v V, w, w W, F}.
Denimos el producto tensorial de V W como el espacio cociente
V F W = TV,W /H.
Notacin 11. Ntese que los elementos de V W son combinaciones lineales de elementos de la forma
o
o
ev,w + H con v V y w W , a estos elementos los denotaremos por v w, es decir
v w = ev,w + H.

(11.2)

Cuando no haya lugar a confusin usaremos la notacin V W en lugar de V F W .


o
o
Al hacer el cociente por las relaciones bilineales obtenemos que el producto tensorial satisface estas relaciones, esto se demuestra en el siguiente lema.
Lema 11.3. Sean V y W espacios vectoriales sobre un campo F y sean v, v V , w, w W y F,
entonces se tiene que
(v + v ) w = v w + v w
v (w + w ) = v w + v w
(v) w = v (w) = (v w).
Demostracin. Como ev+v ,w (ev,w + ev ,w ) H entonces por el Lema 11.1 tenemos que
o
ev+v ,w + H = (ev,w + ev ,w ) + H = ev,w + H + ev,w + H,
pero por (11.2), esto es equivalente a
(v + v ) w = v w + v .
Similarmente, de el hecho que ev,w+w (ev,w + ev,w ) H, se demuestra que v (w + w ) = v w + v w .
Ahora, como ev,w ev,w H tenemos que ev,w + H = ev,w + H = (ev,w + H), y por (11.2) esto es
equivalente a
(v) w = (v w).
Similarmente se demuestra que v (w) = (v w).
Problema 11.2.1. Sean V y W espacios vectoriales nito dimensionales sobre un campo F. Demuestre
que si {v1 , . . . , vn } es una base de V y {w1 , . . . , wm } es una base de W , entonces
V W = gen{v1 w1 , . . . , v1 wm , . . . , vn w1 , . . . , vn wm }
y por tanto V W es nito dimensional con dim(V W ) mn.

(11.3)


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

199

Al nal de la prxima seccin estaremos en capacidad de demostrar que el conjunto generador en (11.3)
o
o
es en realidad una base para V W .

11.3.

La propiedad universal del producto tensorial

En esta seccin demostramos la Propiedad Universal del producto tensorial, la cual se resume en lo siguieno
te: las funciones bilineales de V W en un espacio Z se extienden de manera unica a transformaciones

lineales de V W en Z y viceversa. Como consecuencia obtenemos una correspondencia bi-un


voca entre
el espacio de transformaciones bilineales de V W en Z y las transformaciones lineales de V W en
Z, esta correspondencia es en realidad un isomorsmo entre estos espacios. Comenzamos enunciando y
demostrando la Propiedad Universal.
Teorema 11.4. (Propiedad universal) Sean V, W y Z espacios vectoriales sobre un campo F y sea
i : V W V W la funcin denida por i(v, w) = v w, entonces tenemos lo siguiente:
o
1. Si T : V F W Z es una transformacin lineal entonces = T i : V W Z es una funcin
o
o
bilineal.
2. Si : V W Z es una funcin bilineal entonces existe una unica transformacin lineal
o

o
T : V F W Z tal que T i = , es decir, tal que el siguiente diagrama conmuta.

Demostracin.
o

1. Facilmente se demuestra que = T i es bilineal.

2. Si es bilineal, denimos T (v w) = (v, w) y extendemos linealmente, es decir,


i v i wi

T
i

Como los elementos de la forma

=
i

i T (vi wi ).

i vi wi generan a V W pero no son necesariamente una base, se

debe demostrar que T est bien denida, es decir, que si vw = v w entonces T (vw) = T (v w ).
a
Para esto denamos la funcin S : TV,W Z denida por S (ev,w ) = (v, w) y la extendemos
o
linealmente, es decir,
i evi ,wi

S
i

i S (evi ,wi ).
i

Veamos que H ker(S ), para lo cual es suciente mostrar que los generadores de (H) pertenecen

200
a ker(S ).
S (ev+v ,w ev,w ev ,w ) = S (ev+v ,w ) S (ev,w ) S (ev ,w )
= (v + v , w) (v, w) (v , w)
= (v, w) + (v , w) (v, w) (v , w) = 0
S (ev,w+w ev,w ev,w ) = S (ev,w+w ) S (ev,w ) S (ev,w )
= (v, w + w ) (v, w) (v, w )
= (v, w) + (v, w ) (v, w) (v, w ) = 0
S (ev,w ev,w ) = S (ev,w ) S (ev,w ) = (v, w) (v, w)
= (v, w) (v, w) = 0
S (ev,w ev,w ) = S (ev,w ) S (ev,w ) = (v, w) (v, w)
= (v, w) (v, w) = 0
Concluimos que H ker(S ), entonces por el Problema 11.1.3, la funcin S : TV,W /H Z denida
o
o
por S (ev,w + H) = S (ev,w ) es una transformacin lineal bien denida. Como V W = TV,W /H,
ev,w + H = v w y S (ev,w ) = (v, w) tenemos que la transformacin
o
S :

V W

vw

Z
(v, w)

est bien denida. Ntese que T (v w) = (v, w) = S (v w) entonces tenemos que T = S y por
a
o
tanto T es una transformacin lineal bien denida.
o
Claramente T i(v, w) = T (i(v, w)) = T (v w) = (v, w) y por tanto T i = . Finalmente ntese
o

que T es unica con esta propiedad, ya que si existiera T : V W Z tal que T i(v, w) = ,

entonces tendr
amos que para todo v V y todo w W
T (v w) = T (i(v, w)) = T i(v, w) = (v, w) = T i(v, w) = T (i(v, w)) = T (v w),
y por tanto T = T .

Este teorema implica que el espacio de funciones bilineales L2 (V, W ; Z) es isomorfo al espacio de transformaciones lineales de V W en Z. Esto lo demostramos a continuacin.
o
Corolario 11.5. Sean V , W y Z espacios vectoriales sobre un campo F, entonces se tiene que
L2 (V, W ; Z) L(V F W, Z),
=
donde L2 (V, W ; Z) es el espacio de las funciones bilineales de V W en Z y L(V F W, Z) es el espacio de
las transformaciones lineales de V F W en Z. El isomorsmo env una funcin bilineal L2 (V, W ; Z)
a
o

en la transformacin lineal T L(V F W, Z).


o


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

201

Demostracin. Considere la funcin H1 : L2 (V, W ; Z) L(V F W, Z) denida por H1 () = T . Es


o
o
fcil ver que H1 es lineal.
a
Ahora considere la funcin H2 : L(V F W, Z) L2 (V, W ; Z) denida por H2 (T ) = T i. Tambin es
o
e
fcil ver que H2 es lineal y adems H1 H2 = id y H2 H1 = id, por tanto H1 y H2 son isomorsmos de
a
a

donde concluimos que L2 (V, W ; Z) L(V F W, Z).


=

Problema 11.3.1. Sean V y W espacios vectoriales sobre un campo F con dim V = n y dim W = m y
K un campo tal que F K.
1. Use el Corolario 11.5 para demostar que
dim(V W ) = dim V dim W.
2. Use 1. y el Ejercicio 11.2.1 para concluir que si {v1 , . . . , vn } y {w1 , . . . , wm } son bases de V y W ,
respectivamente, entonces {v1 w1 , . . . , v1 wm , . . . , vn w1 , . . . , vn wm } es una base de V F W .

11.4.

El problema de extensin
o

Una pregunta natural que surge de la teor de espacios vectoriales es la siguiente: Si V es un espacio
a
vectorial sobre un campo F y K es un campo que contiene a F, como puedo extender la estructura de V
para que sea un espacio vectorial sobre K? Este es conocido como el problema de extensin y una respuesta
o
se puede dar usando el producto tensorial, como se muestra en el siguiente teorema.
Teorema 11.6. (Teorema de extensin) Sean F y K campos con F K y sea V un espacio vectorial
o
sobre F, entonces V = K F V es un espacio vectorial sobre K bajo la suma usual de V y el producto por
escalar denido por
k(k v) = (kk ) v,

para todo k, k K y para todo v V.

(11.4)

Demostracin. Denamos la accin de K sobre TK,V denida en los generadores por


o
o
k ek ,v = ekk ,v ,

para todo

k, k K y para todo v V,

(11.5)

Primero ntese que H es invariante bajo esta accin, ya que


o
o
k (ek1 +k2 ,v ek1 ,v ek2 ,v ) = k ek1 +k2 ,v k ek1 ,v k ek2 ,v = ek(k1 +k2 ),v ekk1 ,v ekk2 ,v
= ekk1 +kk2 ,v ekk1 ,v ekk2 ,v H
k (ek ,v1 +v2 ek ,v1 ek ,v2 ) = k ek ,v1 +v2 k ek ,v1 k ek ,v2 = ekk ,v1 +v2 ekk ,v1 ekk ,v2 H
k (ek ,v1 ek ,v1 ) = k ek ,v1 k ek ,v1 = ek(k ),v1 k ek ,v1 = ekk ,v1 ekk ,v1 H
k (ek ,v1 ek ,v1 ) = k ek ,v1 k (ek ,v1 ) = ekk ,v1 k ek ,v1 = ekk ,v1 ekk ,v1 H

202
Armacin: El producto por escalar denido en (11.4) est bien denido, es decir, si k, k1 y k2 K y
o
a
v1 , v2 V son tal que k1 v1 = k2 v2 entonces kk1 v1 = kk2 v2 .
o
Supongamos que k1 v1 = k2 v2 , entonces ek1 ,v1 ek2 ,v2 H. Como H es invariante bajo la accin (11.5)
o
entonces k(ek1 ,v1 ek2 ,v2 ) H, pero de la Ecuacin (11.5), tenemos que kek1 ,v1 = ekk1 ,v1 y kek2 ,v2 = ekk2 ,v2 ,
por tanto
ekk1 ,v1 ekk2 ,v2 = kek1 ,v1 kek2 ,v2 = k(ek1 ,v1 ek2 ,v2 ) H,
luego por el Lema 11.1 tenemos que ekk1 ,v1 + H = ekk2 ,v2 + H, o equivalentemente
kk1 v1 = kk2 v2 .
Por la denicin de K V , ste es un espacio vectorial sobre F y por tanto un grupo aditivo, veamos que
o
e
satisface las dems condiciones para ser un espacio vectorial sobre K.
a
Sean k, k1 , k2 K
(k1 + k2 )(k v) = ((k1 + k2 )k) v = (k1 k + k2 k) v = k1 k v + k2 k v = k1 (k v) + k2 (k v).
k(k1 v1 + k2 v2 ) = k(k1 v1 ) + k(k2 v2 ).
(k1 k2 )(k v) = ((k1 k2 )k) v = (k1 (k2 k)) v = k1 ((k2 k) v) = k1 (k2 (k v)).
1(k v) = (1k) v = k v.

Problemas
T :

K F F

kf

Problema 11.4.1. Considere la funcin


o

kf

a) Demuestre que T es un isomorsmo sobre F. (Ayuda: Demuestre que la funcin : K F K


o
denida por (k, t) = kt es bilineal y use la propiedad universal.)
b) Demuestre que T es tambin un isomorsmo sobre K.
e
c) Determine la inversa de T .
Problema 11.4.2. Sea V un espacio vectorial sobre un campo F y sea {v1 , . . . , vn } una base de V
demuestre que el conjunto {1 v1 , . . . , 1 vn } es una base de K F V como espacio vectorial sobre K.
(Ntese que dimF (V ) = dimK (K F V ), teniendo K F V una base similar.a la base de V , lo cual explica
o
por que el espacio K F V extiende la estructura de F-espacio vectorial de V a K-espacio vectorial.
Ntese adems que estos espacios, como espacios vectoriales sobre F, son isomorfos si y slo si F = K, ya
o
a
o
que si F

K entonces dimF K > 1 y por tanto dim(K F V ) = dim(K) dim(V ) > dim(V ). )

Problema 11.4.3. Sea Q( 2) = Q 2Q donde

(2)Q = { 2 q | q Q}. Ntese que Q( (2) es un


o
1

b
a
campo bajo la suma y producto usual de reales y con inversos (a+b 2) = a2 2b2 a2 2b2 2. Determine

lo siguiente


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

203

a) La dimensin de Q( 2) Qn como espacio vectorial sobre Q.


o

b) La dimensin de Q( 2) Qn como espacio vectorial sobre Q( 2).


o

c) Una base para Q( 2) Q3 como espacio vectorial sobre Q.

d) Una base para Q( 2) Q3 como espacio vectorial sobre Q( 2).

11.5.

Propiedades del producto tensorial

En esta seccin veremos algunas propiedades del producto tensorial y en las demostraciones se podr obo
a
servar la importancia y utilidad de la Propiedad Universal.
Teorema 11.7. Sean V, W y Z espacios vectoriales sobre un campo F y K un campo tal que F K.
Entonces tenemos lo siguiente:
1. V F W W F V.
=
2. (V F W ) F Z V F (W F Z).
=
3. (V W ) F Z (V F Z) (W F Z).
=
4. Si dim V = n entonces K F V Kn .
=
Demostracin.
o

1. Sea 1 : V W W V denida por 1 (v, w) = w v, 1 es claramente bilineal,

entonces por el Teorema 11.4 existe una unica transformacin lineal

o
T1 : V W W V
tal que T1 (v w) = 1 (v, w) = w v.
Ahora, considere la funcin 2 : W V V W denida por (w, v) = v w, 2 es claramente
o
bilineal, entonces aplicando nuevamente el Teorema 11.4 existe una transformacin lineal unica
o

T2 : W V V W
tal que T2 (w v) = 1 (w, v) = v w.
Ntese que T1 T2 = id y T2 T1 = id, de donde tenemos que ambas transformaciones son isomorsmos
o
y por tanto V W W V.
=

2. Para z Z jo, sea z : V W V (W Z) la funcin denida por z (v, w) = v (w z). Esta


o
funcin es claramente bilineal, entonces por el Teorema 11.4, existe una unica transformacin lineal
o

o
Tz : V W V (W Z)
tal que Tz (v w) = z (v, w) = v (w z).

204
Ahora denamos la funcin 1 : (V W )Z V (W Z) denida por 1 (v w, z) = Tz (v w) =
o
v (wz). Es fcil ver que es bilineal, entonces por el Teorema 11.4, existe una unica transformacin
a

o
lineal
T1 : (V W ) Z V (W Z)
tal que T1 ((v w) z) = 1 (v w, z) = v (w z).
Para construir la inversa, comencemos por jar v V y consideremos la funcin
o
v : W Z (V W ) Z denida por 2 (w z) = (v w) z. Est funcin es claramente bilineal,
a
o
por tanto existe una unica transformacin lineal

o
Tv : W Z (V W ) Z
tal que Tv (w z) = v (w, z) = (v w) z.
Ahora considere la funcin 2 : V (W Z) (V W ) Z denida por 2 (v, w z) = Tv (w z) =
o
(v w) v. Es fcil ver que 2 es bilineal y por tanto existe una unica trasnformacin lineal
a

o
T2 : V (W Z) (V W ) Z
tal que T2 (v (w z)) = 2 (v, w z) = (v w) z.

Ntese que T1 T2 = id y T2 T1 = id. Entonces T1 y T2 son isomorsmos y por tanto (V W ) Z


o
=

V (W Z).
3. Sea : (V W ) Z (V Z) (W Z) denida por ((v, w), z) = (v z, w z). Es fcil ver
a
que esta funcin es bilineal, entonces existe una unica transformacin lineal
o

o
T : (V W ) Z (V Z) (W Z)
tal que T ((v, w) z) = ((v, w), z) = (v z, w z).
Para construir la inversa de T , considere las funciones 1 : V Z (V W ) Z denida por
1 (v, z) = (v, 0) z y 2 : W Z (V W ) Z denida por 2 (w, z) = (0, w) z. Es fcil ver
a
que 1 y 2 son bilineales, entonces existen transformaciones lineales
T1 : V Z (V W ) Z

T2 : W Z (V W ) Z

denidas por T1 (v z) = 1 ((v, z) = (v, 0) z y T2 (w z) = 2 (w, z) = (0, w) z. Finalmente,


considere la funcin
o
T : (V Z) (W Z) (V W ) Z
denida por T (v z1 , w z2 ) = T1 (v z1 ) + T2 (w z2 ) = (v, 0) z1 + (0, w) z2 .
Veamos que T es la inversa de T :

T T (v z1 , w z2 ) = T (T1 (v z1 ) + T2 (w z2 )) = T ((v, 0) z1 + (0, w) z2 )


= T ((v, 0) z1 ) + T ((0, w) z2 ) = (v z1 , 0 z1 ) + (0 z2 , w z2 )
=0

= (v z1 , 0) + (0, w z2 ) = (v z1 , w z2 ) y

=0


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

205

T T ((v, w) z) = T (v z, w z) = T1 (v z) + T2 (w z) = (v, 0) z + (0, w) z


= ((v, 0) + (0, w)) z = (v, w) z.
4. Primero ntese que
o
K Fn K (F F) (K F) (K F) (F F) (K K) Kn
=
=
=
=
=
nveces

nveces

nveces

nveces

Ahora, si V es un espacio vectorial sobre F con dim V = n entonces V Fn , luego


=
K V K Fn Kn .
=
=

Teorema 11.8. (Producto tensorial de funciones) Sean V, V , W y W espacios vectoriales sobre F y sean
T : V W y T : V W transformaciones lineales, entonces
1. Existe una unica transformacin lineal, que denotaremos por T T , de V V en W W tal que

o
T T (v v ) = T (v) T (v ).

2. Si S : W Z y S : W Z son transformaciones lineales entonces


S S T T = (S T ) (S T ).
Demostracin.
o

1. Considere la funcin : V V W W denida por (v, v ) = T (v) T (v ).


o

Es fcil ver que es bilineal y por tanto existe una unica transformacin, la cual llamaremos T T ,
a

o
T T : V V W W
tal que T T (v v ) = (v, v ) = T (v) T (v ).
2. Sean v V y v V , entonces
S S T T (v v ) = S S (T (v) T (v )) = S(T (v)) S (T (v ))
= S T (v) S T (v ) = S T S T (v v ).
Como esta igualdad se cumple para v y v arbitrarios entonces concluimos que
S S T T = S T S T .

Problema 11.5.1. Con la notacin del teorema anterior, demuestre que si T y T son isomorsmos,
o
entonces T T es un isomorsmo.
De esto se sigue que si V W y V W entonces V V W W .
=
=
=

206
Terminamos la seccin con el siguiente isomorsmo de especial importancia.
o
Teorema 11.9. Sean V, W y Z espacios vectoriales sobre un campo F, entonces
L(V, L(W, Z)) L(V W, Z),
=
donde en general L(M, N ) denota el espacio de transformaciones lineales de M en N .
Demostracin. Si f : V L(W, Z) es una transformacin lineal y v V , denotaremos la imagen f (v)
o
o
de v por fv y denimos la funcin f : V W Z por f (v, w) = fv (w). Veamos que esta funcin es
o
o
bilineal.
Como f es lineal entonces fv+v = f (v + v ) = f (v) + f (v ) = fv + fv , luego
(v + v , w) = fv+v (w) = (fv + fv )(w) = fv (w) + fv (w) = (v, w) + (v , w)
(v, w + w ) = fv (w + w ) = fv (w) + fv (w ) = (v, w) + (v, w )
Entonces por el Teorema 11.4, existe una unica transformacin lineal

o
Tf : V W Z
tal que Tf (v w) = f (v, w) = fv (w).
Ahora, considere la funcin : L (V, L(W, Z)) L(V W, Z) denida por (f ) = Tf . Veamos que
o
es un isomorsmo.
1. es lineal:
Primero ntese que si f, f L(W, Z), F, v V y w W se tiene que
o
Tf +f (v w) = (f + f )v (w) = (f + f )(v)(w) = (f (v) + f (v))(w)

= (fv + fv )(w) = fv (w) + fv (w) = Tf (v w) + Tf (v w)

= (Tf + Tf )(v w).


Como esta igualdad es para v y w arbritrarios, entonces Tf +f = Tf + Tf , por tanto
(f + f ) = Tf +f = Tf + Tf = (f ) + (f ).
2. es inyectivo:
Sea f Ker, entonces 0 = (f ) = Tf , luego Tf (v w) = 0, para todo v V y todo w W .
Como Tf (v w) = fv (w), entonces fv (w) = 0, para todo v V y todo w W . De aqu se sigue que

0 = fv = f (v) para todo v V , por tanto f = 0. Entonces Ker = {0} y es lineal.


3. es sobre:
Sea L L(V W, Z) y sea = L i donde i : V W V W est denida por i(v, w) = v w,
a
entonces es bilineal. Para v V jo, denimos la funcin fL,v : W Z por fL,v (w) = (v, w).
o
Como es bilineal, entonces fL,v es lineal. Finalmente denimos fL : V L(W, Z) por fL (v) = fL,v .


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

207

Veamos que (fL ) = L. Sean v V y w W , entonces


(fL )(v w) = TfL (v w) = fL v (w) = fL (v)(w) = (v, w) = L i(v, w) = L(v w).
De donde (fL ) = L y por tanto es sobre.

Problemas
Para los siguientes problemas, V , W y Z son espacios vectoriales sobre un campo F, V , W y Z sus
respectivos duales, L(V, W ) el conjunto de transformaciones lineales de V y W y L2 (V, W ; Z) el conjunto
de funciones bilineales de V W en Z.
Problema 11.5.2. Demuestre que si V V entonces V W V W .
=
=
Problema 11.5.3. Considere la funcin H : V W L(V, W ) denida por H(f, w)(v) = Tf,w donde
o
Tf,w : V W es la transformacin denida por Tf,w (v) = f (v)w. Demuestre que H es un isomorsmo.
o

Problema 11.5.4. Use el Ejercicio 11.5.3 y el Teorema 11.9 para demostrar que (V W ) V W .
=

Problema 11.5.5. Demuestre que L2 (V, W ; F) L(V, W ).


=
Problema 11.5.6. Demuestre que dim L2 (V, W ; Z) = dim(V ) dim(W ) dim(Z).
Problema 11.5.7. Sean Pn [x] y Pm [y] los conjuntos de polinomios de grado menor o igual que n y m en
las variables x y y, respectivamente, demuestre que la funcin
o
T :

Pn [x] Pm [y]

Pm+n [x, y]

pq

T (p q) = p(x)q(y)

es una transformacin lineal inyectiva. Bajo que condiciones es T un isomorsmo?


o
Problema 11.5.8. Considere la funcin
o
T :

L2 (V, W ; F) Z

L2 (V, W ; Z)

T ( z)

donde T (z) : V W Z se dene por T (z)(v, w) = (v, w)z. Demuestre que T es un isomorsmo.
Problema 11.5.9. Considere la funcin
o
V W

L2 (V, W ; F)

f g

H:

H(f g)

donde H(f g) : V W W est denida por H(f g)(v, w) = f (v)g(w). Demuestre que H es un
a
isomorsmo.

208
Problema 11.5.10. Considere la funcin
o
H:

L2 (V, W ; F)

(V W )

H()

donde H() : V W F est denida por H()(v w) = (v, w). Demuestre que H es un isomorsmo.
a
Problema 11.5.11. Considere la funcin
o
V W

L(W, V )

vf

H:

H(v f )

donde H(v f ) : W V est denida por H(v f )(w) = f (w)v. Demuestre que H es un isomorsmo.
a
Para los problemas 11.5.12 al 11.5.16 se tendr que T : V V y S : W W son transformaciones
a
lineales y A =

TX y B =

SY sus respectivas matrices con respecto a bases X = {v1 , . . . , vn } y

Y = {w1 , . . . , wm } de V y W .
Adems usaremos la notacin A B para denotar a la matriz de la transformacin T S con respecto a
a
o
o
la base {v1 w1 , . . . , v1 wm , . . . , vn w1 , . . . , vn wm }.

a11 B
a11 a1n

.
.
.
..
. entonces A B = .
Problema 11.5.12. Si A = .
.
.
.
.
an1 B
an1 ann

..
.

Problema 11.5.13. Si C es la matriz de T S, demuestre que

a1n B

.
.
.
ann B

a) rango(A B) = rango(A)rango(B).
b) tr(A B) = tr(A)tr(B).
c) det(A B) = det(A)m det(B)n .
Problema 11.5.14. Demuestre que Ker(T S) = Ker(T ) W + V Ker(S).
Problema 11.5.15. Demuestre que Im(T S) = Im(T ) Im(S).
Problema 11.5.16. Sean T : V W , T : W Z, S : V W y S : W Z transformaciones

lineales y sean A A , B y B sus respectivas matrices con respecto a algunas bases de estos espacios.
Demostrar que
(A B )(A B) = A A B B.
Problema 11.5.17. Si V y W son espacios vectoriales sobre F, demuestre que la funcin
o

es una transformacin lineal.


o

L(V, W ) L(V , W )

L(V V , W W )

(f, g)

T :

Tf,g = f g


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

11.6.

209

Producto Tensorial: Caso general

Denicin 11.3. Sean V1 , . . . , Vn espacios vectoriales sobre un campo F,


o
a) Denimos el conjunto TV1 ,...,Vn como el espacio vectorial generado por el conjunto
{ev1 ,...,vn | vi Vi , para i = 1, . . . , n}.
Donde ev1 ,...,vn = (v1 , . . . , vn ).
b) Considere el subespacio H de TV1 ,...,Vn como el subespacio

H = gen{ev1 ,...,vi +vi ,...,vn ev1 ,...,vi ,...,vn ev1 ,...,vi ,...,vn ; ev1 ,...,vi ,...,vn e1 ,...,vi ,...,vn | vi Vi , para i = 1, . . . , n y

c) Denimos el producto tensorial de los espacios V1 , . . . , Vn , denotado por V1 Vn , como el cociente


V1 Vn = TV1 ,...,Vn /H.
Notacin 12. Al elemento ev1 ,...,vn + H de V1 Vn lo denotaremos por v1 vn .
o
Lema 11.10. Sean V1 , . . . , Vn espacios vectoriales sobre un campo F entonces para i = 1, . . . , n tenemos
lo siguiente
v 1 v i + wi v n = v 1 v i v n + v 1 wi v n
v1 vi vn = v1 vi vn
Teorema 11.11. (Propiedad universal) Sean V1 , . . . , Vn y Z espacios vectoriales sobre un campo F
y sea i : V1 Vn V1 Vn la funcin denida por i(v1 , . . . , vn ) = v1 vn , entonces
o
tenemos lo siguiente:
1. Si T : V1 Vn Z es una transformacin lineal entonces = T i : V n Z es una funcin
o
o
miltilineal.
2. Si : V1 Vn Z es una funcin multilineal entonces existe una unica transformacin lineal
o

o
T : V1 Vn Z tal que T i = , es decir, tal que el siguiente diagrama conmuta.

11.7.

Producto Tensorial Simtrico


e

En esta seccin deniremos el producto simtrico y sus propiedades.


o
e
Denicin 11.4. Sea V un espacio vectorial sobre un campo F, considere el subespacio H de TV, . . . , V
o
nveces

como el subespacio

H = gen{ev1 ,...,vi +vi ,...,vn ev1 ,...,vi ,...,vn ev1 ,...,vi ,...,vn ; ev1 ,...,vi ,...,vn e1 ,...,vi ,...,vn ; ev1 ,...,vi ,vi+1 ,...,vn ev1 ,...,vi+1 ,vi ,...,vn

210
Denimos el producto simtrico V V , al cual denotamos por S n (V ) como el cociente
e
S n (V ) = TV, . . . , V /H
nveces

Notacin 13. Al elmento ev1 ,...,vn + H lo denotaremos por v1 vn .


o
Lema 11.12. Sea V un espacio vectorial sobre un campo F entonces para i = 1, . . . , n tenemos lo siguiente
v 1 v i + wi v n = v 1 v i v n + v 1 wi v n
v1 vi vn = v1 vi vn
y para i = 1, . . . , n 1 tenemos que
v1 vi vi+1 vn = v1 vi+1 vi vn .
Problema 11.7.1. Demuestre que S n (V ) = T n (V )/I donde I es el subespacio de T n (V ) generado por el
conjunto {v1 vi vi+1 vn v1 vi+1 vi vn | 1 i n 1}.
Problema 11.7.2. Sea {v1 , . . . , vm } una base de V , demuestre que una base de S n (V ) est dada por el
a

conjunto {vi1 vin | 1 i1 in m}. Concluya que dim S n (V ) =

n+m
n

Teorema 11.13. (Propiedad universal) Sean V y Z espacios vectoriales sobre un campo F y sea
i : V n S n (V ) la funcin denida por i(v1 , . . . , vn ) = v1 vn , entonces tenemos lo siguiente:
o
1. Si T : S n (V ) Z es una transformacin lineal entonces = T i : V n Z es una funcin
o
o
miltilineal simtrica.
e
2. Si : V n Z es una funcin multilineal simtrica entonces existe una unica transformacin lineal
o
e

o
T : S n (V ) Z tal que T i = , es decir, tal que el siguiente diagrama conmuta.

11.8.

Algebras Tensorial, Simtrica y Exterior


e

Denicin 11.5. Sea V es un espacio vectorial sobre un campo F,


o
a) denimos T m (V ) como el espacio vectorial
T m (V ) = V V
n veces

T 1 (V ) = V
T 0 (V ) = F

para m 2


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

211

b) denimos el lgebra tensorial como el espacio vectorial


a
T (V ) = T m (V )
m=0
Al espacio vectorial T (V ) se le llama el lgebra vectorial, ya que este tambin estructura de anillo bajo el
a
e
producto
(m1 mr ) (m m ) = m1 mr m m .
1
s
1
s
Adems es un lgebra graduada ya que de la denin del producto es fcil ver que T m (V ) T n (V )
a
a
o
a
T m+n (V )

Teorema 11.14. (Propiedad Universal) Sea V un espacio vectorial sobre un campo F, W una Fa
lgebra y : V W una transformacin lineal, entonces existe un unico homomorsmo de F-lgebras
o

a
: T (V ) W tal que |V = .
Teorema 11.15. Sea V un espacio vectorial sobre F y {v1 , . . . , vn } una base de V , entonces el conjunto
{vi1 vik | 1 ij n para j = 1, . . . , k}
es una base para T k (V ), de esto tenemos que dim(T k (V )) = nk .
Denicin 11.6. Decimos que un anillo S es graduado si S es la suma directa de subespacios
o
S = S0 S1 S2 = Sk
k=0
y se satisface que Sm Sn Sm+n .
a) Un ideal I de S se llama graduado si I = (I Sk )
k=0
Teorema 11.16. Sea R un anillo graduado e I un ideal graduado de S entonces S/I es un anillo graduado.
Demostracin. Sea Ik = ISk y denamos : S Sk /Ik por (s0 , s1 , . . . ) = (s0 +I0 , s1 +I1 , . . . ).
o
k=0
Entonces es sobreyectivo. Veamos que Ker = I.

: Sea x = (s0 , s1 , . . . ) Ker entonces sk Ik for k = 1, 2, . . . . Luego x = (s0 , s1 , . . . ) Ik =


k=0

I.
Por otra parte si x = (s0 , s1 , . . . ) I = Ik entonces sk Ik for k = 1, 2, . . . y por tanto (s0 , s1 , . . . ) =
k=0
(s0 + I0 , s1 + I1 , . . . ) = ( . . . ).
0, 0,

De estos obtenemos que S/I Sk /Ik y S/I es graduado.


= k=0

11.8.1.

Algebra simtrica
e

Denicin 11.7. Sea V un espacio vectorial, T (V ) el lgebra tensorial. Denimos el lgebra simtrica
o
a
a
e
de V como el cociente S(V ) = T (V )/C(V ) donde C(V ) es el ideal generado por los elementos de la forma
vi vj vj vi .

212
Lema 11.17. Sea V un espacio vectorial sobre un campo F, sea C k (V ) el ideal de T k (V ) generado por
los elementos de la forma vi vj vj vi y sea S k (V ) = T k (V )/C k (V ) donde S 0 (V ) = S 1 (V ) = {0}.

Entonces S(V ) = S k (V ).
k=0

Denicin 11.8. Sea : V k W una funcin multilineal, decimos que es una funcin simtrica si
o
o
o
e
para i = 1, . . . , k se cumple que
(v1 , . . . , vi , vi+1 , . . . , vk ) = (v1 , . . . , vi+1 , vi , . . . , vk ).
Teorema 11.18. Sea V un espacio vectorial, {v1 , . . . , vn } una base de V y W una F-lgebra conmutativa,
a
entonces
a) C k (V ) es tambin generado por el conjunto {v1 vk v(1) v(k) | Sk }.
e
b) Si : V k W es una funcin multilineal simtrica, entonces existe una unica transformacin
o
e

o
lineal : S k (V ) W tal que = i donde i : V k S k (V ) es la funcin denida por
o
i(v1 , . . . , vk ) = v1 vk .
c) (Propiedad Universal) Si : V W es una transformacin lineal, existe un unico homomorsmo
o

de F-lgebras : S(V ) W tal que |V = .


a
Teorema 11.19. Sea V un espacio vectorial sobre un campo F de dimensin n, entonces S(V ) es isomorfo
o
al anillo de polinomios F[x1 , . . . , xn ] y S k (V ) es isomorfo a al conjunto de polinomios homogneos de grado
e

k. En particular dim(S k (V ) =

11.8.2.

k+n1
n1

Algebra Exterior

Denicin 11.9. Sea V un espacio vectorial, T (V ) el lgebra tensorial. Denimos el lgebra exterior de
o
a
a
V como el cociente (V ) = T (V )/A(V ) donde A(V ) es el ideal generado por los elementos de la forma
v v.
La imagen del elemento v1 vk en (V ) ser denotada por v1 vk
a
Lema 11.20. Sea V un espacio vectorial sobre un campo F, sea Ak (V ) el ideal de T k (V ) generado por

los elementos de la forma v v y sea k (V ) = T k (V )/Ak (V ) donde 0 (V ) = 1 (V ) = {0}. Entonces

(V ) = k (V ).
k=0

Teorema 11.21. Sea V un espacio vectorial, {v1 , . . . , vn } una base de V entonces


a) k (V ) es tambin generado por el conjunto {v1 vk | vi = vi+1 para algni = 1, . . . , n 1.}
e
u
b) Si : V k W es una funcin multilineal alternada, entonces existe una unica transformacin
o

o
lineal : k (V ) W tal que = i donde i : V k S k (V ) es la funcin denida por
o
i(v1 , . . . , vk ) = v1 vk .


Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO

213

Teorema 11.22. Sea V un espacio vectorial sobre un campo F y sea {v1 , . . . , vn } una base de V , entonces
el conjunto {vi1 vik | 1 i1 < < ik k} es una base de k (V ). En particular dim(k (V )) =

n
k

Problemas
Problema 11.8.1. Exhiba bases de S 3 (R4 ), S 3 (R2 ), S 2 (R3 ) y 3 (R4 ).
En los siguientes problemas V denota un espacio vectorial nito dimensional.
Problema 11.8.2. Demuestre que existe una correspondencia biun
voca entre el espacio S k (V ) y el espacio Sk (V ) de formas k-lineales simtricas.
e
Problema 11.8.3. Demuestre que existe una correspondencia biun
voca entre el espacio k (V ) y el
espacio Ak (V ) de formas k-lineales alternadas.
Problema 11.8.4. Demuestre que T 2 (V ) S 2 (V ) 2 (V ).
=

S-ar putea să vă placă și