Documente Academic
Documente Profesional
Documente Cultură
TENSORIAL
AUTORES
Omar Saldarriaga
Ph.D., State University of New York at Binghamton
Profesor Asociado
Instituto de Matemticas
a
Universidad de Antioquia.
Mauricio Londoo
n
Magister, Universidad Nacional de Colombia
Profesor Auxiliar
Instituto de Matemticas
a
Universidad de Antioquia.
ii
Indice general
0. Preliminares
11
18
20
0.5. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
27
1. Espacios Vectoriales
35
35
1.2. Subespacios
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
39
43
46
53
56
2. Transformaciones Lineales
63
63
65
65
2.2. Isomorsmos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
69
72
76
81
83
83
88
90
iii
iv
3.4. Diagonalizacin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
o
95
107
131
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
141
149
165
177
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
10.Formas Multilineales
10.1. Funciones Multilineales
1
183
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
197
Cap
tulo 0
Preliminares
En este cap
tulo veremos ... Las letras m,n, i, j y k denotarn nmeros enteros positivos y denotaremos por
a u
R el conjunto de los nmeros reales ... m
u
n{m, n} es el menor nmero entre m y n... el conjunto de matrices de
u
tamao m n ser denotado por Mmn (R) y por Mn (R) cuando m = n.
n
a
0.1.
En esta seccin mostraremos como asociar una matriz a un sistema de ecuaciones lineales, usaremos la
o
solucin a un sistema de ecuaciones lineales para denir operaciones elementales de la sobre matrices y moso
traremos como usar estas operaciones para encontrar la solucin a sistemas lineales usando matrices, ilustrando
o
el mtodo de solucin conocido como reduccin Gauss-Jordan.
e
o
o
Consideremos el siguiente sistema de dos ecuaciones en dos incgnitas:
o
2x + y = 4
(1)
3x + 4y = 1
(2)
Existen varios mtodos para resolver este sistema, por la similitud con el mtodo que expondremos en esta
e
e
seccin destacamos el de eliminacin.
o
o
En este mtodo se usan dos operaciones bsicas para llevar a la solucin de un sistema lineal las cuales son:
e
a
o
1. Sumar un mltiplo de una ecuacin a otra ecuacin con el objetivo de eliminar una de las variables, por
u
o
o
ejemplo la operacin
o
-4 Ecuacin(1) + Ecuacin(2)
o
o
elimina la variable y y produce la ecuacin 5x = 15.
o
2. Multiplicar una ecuacin por una constante no cero con el objetivo de simplicarla, por ejemplo si multio
1
plicamos la nueva ecuacin 5x = 15 por
o
obtenemos x = 3.
5
3
4
3. Si multiplicamos esta ultima ecuacin (x = 3) por -2 y se la sumamos a la Ecuacin (1), obtenemos
o
o
y = 2. Finalmente la solucin al sistema est dada por los valores: x = 3 y y = 2.
o
a
Los mtodos que veremos en este libro son:
e
1. El mtodo de reduccin Gauss-Jordan, el cual veremos en esta seccin.
e
o
o
2. El mtodo de multiplicacin por la matriz inversa, este mtodo solo funciona en algunos casos, ver Teorema
e
o
e
0.12 en la Seccin 0.3.
o
3. La regla de Cramer, ver Teorema 10.10.
Vale la pena notar que si se tiene un sistema de dos ecuaciones lineales en dos incgnitas, hay tres posibles
o
respuestas y estas son:
1. El sistema tiene solucion unica (como en el ejemplo ilustrado anteriormente).
2. El sistema no tiene solucin (o solucin vac caso en el cual, decimos que es inconsistente.
o
o
a),
3. El sistema tiene innitas soluciones, caso en el cual decimos que el sistema es redundante.
El caso general lo resolveremos usando matrices, asociaremos a cada sistema lineal una de estas y aplicaremos
operaciones elementales de la para resolver el sistema. Las operaciones elementales de la sobre matrices son
simplemente operaciones equivalentes a las mencionadas en el mtodo de eliminacin al principio de la seccin.
e
o
o
Veremos que los tres casos expuestos son los mismos en cualquier sistema de ecuaciones lineales.
Denicin 0.1. Una matriz real es un arreglo rectangular de nmeros reales en m las y n columnas
o
u
a11
.
.
.
am1
..
.
a1n
.
. ;
.
amn
donde aij es un nmero real para i = 1, . . . , m y j = 1, . . . , n. A esta matriz se le llama una matriz de tamao
u
n
m n.
En esta seccin se esta interesado en operaciondes de la de una matriz, as en esta seccin se donotar la
o
o
a
i-sima la de una matriz A por Fi . Se usar la notacin Mmn (F) para el conjunto de matrices de tamao m n
e
a
o
n
y por Mn (F) cuando m = n, con F = R o C.
A un sistema lineal de m ecuaciones con n incognitas,
a11 x1 + + a1n xn = b1
.
.
.
am1 x1 + + amn xn = bm ,
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
se le asocia la matriz de tamao m (n + 1)
n
a11
.
.
.
amn
..
.
a1n
.
.
.
a1n
b1
.
.
.
bm
llamada la matriz de coecientes o matriz asociada. Cada la de esta matriz tiene los coecientes de cada
una de las ecuaciones incluyendo el trmino constante al nal de la misma y cada columna est asociada a una
e
a
incognita excepto la ultima columna que contiene los trminos independientes.
1
le corresponde la matriz de coecientes
Ejemplo 0.1. Al sistema lineal
4
4x + 5y = 6
x + 2y = 3
5 6
Las operaciones descritas al principio de la seccin que se realizan sobre las ecuaciones de un sistema lineal en
o
el mtodo de eliminacn se traducen en operaciones de la sobre matrices, llamadas operaciones elementales de
e
o
la, las cuales describimos a continuacin.
o
Denicin 0.2. Sea A una matriz de tamao m n, una operacin elemental de la sobre A es una de
o
n
o
las siguientes operaciones:
1. Multiplicar una la por una constante no cero. Se usar la notacin cFi Fi para indicar que se multiplica
a
o
la la i por la constante c.
2. Sumar un mltiplo de una la a otra la. Se usar la notacin cFi + Fj Fj para indicar que se le suma
u
a
o
c veces la la i a la la j.
En estos dos pasos, la la que aparece despus de la echa es la la que se debe modicar o simplemente,
e
a la que se le debe aplicar la operacin.
o
3. Intercambiar dos las. Se usar la notacin Fi Fj para indicar que se debe intecambiar la la i con la
a
o
la j.
Ejemplo 0.2. Al principio de la seccin resolvimos el sistema de ecuaciones
o
2x + y = 4
3x + 4y = 1
ciones
1. -4 Ecuacin 1 ms Ecuacin 2, de la cual obtenemos la ecuacin 5y = 15,
o
a
o
o
1
2. multiplicamos esta ultima ecuacin por , obteniendo x = 3,
o
5
3. nalmente de, -2 ecuacin (x = 3) ms Ecuacin 1, obtenemos y = 2.
o
a
o
Como en la matriz asociada a un sistema lineal las ecuaciones se representan en las, estas operaciones se
traducen en operaciones de la, de hecho, la primera operacin se traduce en la operacin de la 4F1 + F2 , la
o
o
segunda en 1 F2 y la tercera en 2F2 + F1 . Al aplicar estas operaciones obtenemos
5
2 1
4
2 1 4
1
0 1 2
2 1 4
1
4F +F F
F F
2F +F F
1
2
2
1
2
2
1
1
F2 F2
5
5 0 15
3 4 1
0
1 0
3
1 0 3
1 2
6
De esta ultima matriz obtenemos las ecuaciones x = 3 y y = 2 las cuales nos dan la solucin al sistema. La
o
ultima operacin de intercambiar las las se hace simplemente para que las soluciones aparezcan en orden.
o
Este ultimo ejemplo ilustra el mtodo de solucin de un sistema lineal con operaciones de la sobre matrices, el
e
o
cual es el objetivo de la seccin. Para ilustrar el caso general debemos mostrar como aplicar operaciones de la
o
sobre una matriz de una manera eciente que garantice una solucin, una manera efectiva es llevar la matriz a
o
una matriz en forma escalonada reducida, la cual denimos a continuacin.
o
Denicin 0.3. Sea A una matriz de tamao m n, decimos que A est en forma escalonada reducida si
o
n
a
A satisface las siguientes condiciones:
1. Todas las las nulas (las donde todas las entradas, en esa la, son ceros) estn en la parte inferior de
a
la matriz.
2. La primera entrada no cero de una la no nula es un uno. A esta entrada se le llama pivote.
3. Si dos las consecutivas son no nulas, entonces el pivote de la la de arriba est mas a la izquierda del
a
pivote de la la de abajo.
4. Todas las entradas de una columna donde haya un pivote son cero, excepto la entrada donde est el pivote.
a
Ejemplo 0.3.
A = 0
0 0
1 0
B = 0 1
1 0 ,
0 0
0 1
E = 0 0
0 0
0 ,
1 0
C = 0 0 1 ,
,
0 0 0
0
F = 0
0 0
0 0
D = 0 0
0 0
0 0
G = 0 0
0 0
0 1
0 ,
1 ,
donde las entradas * representan un escalar arbitrario. De hecho estas son todas las posibles formas escalonadas
reducidas que se obtienen de matrices 3 3 no nulas.
2
1 0 13/3
0 1
2/3
1/3
2 1, es la matriz R =
1 8
1
3
1/3
0 0
0
0
Para hacer el clculo de la forma escalonada reducida en MatLab se usa el comando R=rref(A), tambin
a
e
se puede usar adicionalmente el comando format rat para que MatLab entregue la respuesta con nmeros
u
racionales en cada entrada de la matriz.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
El proceso de aplicar operaciones elementales de la sobre una matriz hasta llevarla a su forma escalonada
reducida se le conoce como reduccin Gauss-Jordan. Este proceso nos lleva tambin a determinar si el
o
e
sistema tiene solucin y a encontrarla en el caso de que exista (ver Teorema 0.2). Primero debemos garantizar
o
que es posible llevar cualquier matriz a una matriz en forma escalonada reducida por medio de operaciones
elementales.
Teorema 0.1. Aplicando reduccin Gauss-Jordan, toda matriz se puede llevar a una forma escalonada reducida.
o
0 0 1 1
3 3 2 6
0 1
2 1
3 2
1
2 2
F F
2
1
0 0
4
6
3 3
1
2 F2 + F1 F1 1
1
2 F2 + F3 F3 0
1 1
0 0
1 0
1 4
1 1
2 6
3/2
1
2 F1
F1 1
1 1/2
0
1 1
2
1 1
0 0
1
6 3F1 + F3 F3 0 0
3
0 3/2 2 F3 + F1 F1 1 1
1
1 F3 + F2 F2 0 0
0
1
0 0
0 0
1
0 0 1/2 2F3 F3 0 0
0 0
0 1
2 4
1 2
Las operaciones para reducir esta matriz son las siguientes:
2 4 2 1 F1 F1 1 2 1
1 2 1
2
2 4
2 4
2
4
2 2F1 + F2 F2 0 0
1 2
1
0 0
2
1 2
1 F1 + F3 F3
1 2 0
F2 + F1 F1
0 0 1 .
2F1 + F3 F3 0 0 0
0 1
1/2
1
1/2
0 0
1 .
1 0 .
0 1
2 .
1
4 F2
1 2
F2 0 0
0 0
Ahora que sabemos que toda matriz se puede llevar, por medio de operaciones elementales, a una matriz en
forma escalonada reducida, debemos tambin saber para que nos sirve este resultado en trminos de soluciones
e
e
de sistemas de ecuaciones lineales. El siguiente teorema nos muestra la utilidad de poder reducir matrices a su
forma escalonada reducida ya que de esta ultima podemos determinar si un sistema tiene soluciones y en el caso
8
Teorema 0.2. Considere el sistema de ecuaciones
a11 x1 + + a1n xn = b1
.
.
,
.
am1 x1 + + amn xn = bm
la matriz de coecientes asociada al sistema est dada por
a
a11
.
A= .
.
am1
..
.
a1n
.
.
.
amn
b1
.
.
.
bm
o
2. Si A tiene pivote en la ultima columna entonces el sistema tiene solucin vac
o
a.
3. Si A no tiene pivote en la ultima columna y hay al menos otra columna sin pivote entonces el sistema
2x + y = 4
1 0
3
2 1 4
. Por el Teorema 0.2 el sistema tiene so y que la matriz escalonada reducida es
0 1 2
3 4 1
lucin unica y esta dada por x = 3 y y = 2.
o
1
1
4
4
x+y = 3
1 3
y su matriz escalonada
2. Al sistema lineal 3
le corresponde la matriz de coecientes 3
1
1
1
1
x+y = 3
1 3
3
3
1 3 0
. Por el Teorema 0.2 el sistema tiene solucin vac
o
a.
reducida es
0 0 1
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
x + 3y = 3
3
y su matriz escalonada
6
1 3
3 3
. Por el Teorema 0.2 el sistema tiene innitas soluciones.
0 0
3. Al sistema lineal
1
reducida es
0
x1 + x2 + x3 + x4 = 4
x3 x4 = 3
1 1
0 0 1 1 3
1 1 0
2 1
. Por el Teorema 0.2 el sistema tiene innitas soluciones las cuales se pueden dar en forma
0 0 1 1 3
paramtrica leyendo el sistema de ecuaciones de la matriz A , las cuales son x1 + x2 + 2x4 = 1 y x3 x4 = 3,
e
+ x4 .
De acuerdo a estas ecuaciones las variables x2 y x4 toman valores arbitrarios y por cada par de valores que se le
asignen a estas variables, se tiene una solucin particular, si a estas variables les asignamos valores paramtricos
o
e
x2 = t y x4 = u obtenemos todas las soluciones paramtricas al sistema:
e
x1 = 1 t 2u
x2 = t
x3 = 3 + u
x4 = u.
Ejemplo 0.9. El sistema
x + 2y + 3z = 1
2x 4y 6z = 1
2x y 8z = 1
La forma escalonada reducida de esta matriz es la matriz
1 0 13
3
R = 0 1 2
3
0 0
0
A= 2
4 6
1 8
1 .
0 .
Como esta ultima matriz tiene un pivote en la ultima columna, entonces por el Teorema 0.2 el sistema no tiene
solucin.
o
10
Del Teorema 0.2 tambin se desprende el siguiente corolario, para el cual necesitamos la siguiente denicin.
e
o
Denicin 0.4. Un sistema lineal homogneo es un sistema lineal de la forma
o
e
a11 x1 + + a1n xn = 0
.
.
,
.
am1 x1 + + amn xn = 0
es decir, un sistema donde todos los trminos independientes son cero.
e
Corolario 0.4. Un sistema lineal homogneo siempre tiene solucin.
e
o
Terminamos la seccin con la denicin de rango de una matriz.
o
o
Denicin 0.5. Sea A una matriz y A su forma escalonada reducida. Denimos el rango de A, denotado por
o
rango(A), como el nmero de pivotes de A .
u
Ejemplo 0.10. Para las matrices del Ejemplo 0.3 se tiene que
rango(A) = 3, rango(B) = rango(C) = rango(D) = 2 y
rango(E) = rango(F ) = rango(G) = 1.
Problemas
Problema 0.1.1. Use el mtodo Gauss-Jordan para resolver los siguientes sistemas.
e
a.
x 2y + 3z = 7
2x + y z = 7
b.
2x + 4y 4z = 6
2x 5y + 4z = 6
2x y z = 7
d.
x + 2y + 3z + w = 7
4x + 5y + 6z = 2
7x + 8y + 9z = 4
e.
4x + 5y + 6z + 2w = 7
7x + 8y + 9z + 4w = 7
xy+z =4
2x + y + z = 3
x + 16y 14z = 3
x + 2y + 3z = 1
c.
x+yz =7
x + 2y + 3z + 4w = 1
f.
x + 2y + 3z + 3w = 2
x + 2y + 2z + 2w = 3
x+ y+ z+ w =1
Problema 0.1.2. Encuentre las soluciones paramtricas al sistema y uselas para calcular dos soluciones pare
ticulares:
x 2y + 3z + w = 3
y
=2
w=1
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
2x y + 3z =
3x + y 5z =
11
es consistente si y slo si = 2 3.
o
5x 5y + 21z =
Problema 0.1.4. Para los sistemas cuyas matrices aumentadas estn dadas en los numerales a.-c. determine
a
los valores y para los cuales el sistema tenga
I. ninguna solucin
o
II. solucin unica
o
III. innitas soluciones y en este caso dar dos soluciones particulares.
1 0
0
1 0
a. 0 1
b. 0 1
0 0 2 + + 1
0 0 + 2
Problema 0.1.5. Muestre que el sistema
ax + by = 0
cx + dy = 0
c.
1 0
0 1
0 0
2
1
Problema 0.1.6. Haga una lista de todas las matrices 34 que esten en forma escalonada reducida.
Problema 0.1.7. Demuestre el Corolario 0.3 y el Corolario 0.4.
Problema 0.1.8. Muestre que si el nmero de ecuaciones en un sistema lineal homogneo es menor que el
u
e
nmero de sus incgnitas, entonces el sistema tiene una solucin no trivial.
u
o
o
Problema 0.1.9. Muestre que efectuar operaciones elementales en un sistema de ecuaciones produce un sistema
ecuaciones equivalente. Dos sistemas de ecuaciones son equivalentes si tienen las mismas soluciones.
Problema 0.1.10. Usando el Problema 0.1.9, muestre que un sistema de ecuaciones es equivalente al sistema
de ecuaciones que se obtiene de la correspondiente matriz escalonada reducida.
Problema 0.1.11. Si A es una matriz de tamao m n, demuestre que el rango(A) m
n
n{m, n}.
Problema 0.1.12. Demuestre que el sistema homogeno
e
ax + by = 0
cx + dy = 0
ad bc = 0
0.2.
En esta seccin se expondrn las operaciones bsicas entre matrices y vectores y se mostrarn las propiedades
o
a
a
a
que estas operaciones satisfacen.
Denicin 0.6. Denimos vector columna (la) como una matriz con una sola columna (la).
o
12
Ejemplo 0.11. v = 2 es un vector columna y w = 0
1
a11 a1n
.
.
..
. y
1. (Suma de matrices) Sean A = .
.
.
.
am1 amn
denimos la matriz A + B como la matriz dada por:
a11 + b11
.
A+B =
.
am1 + bm1
Similarmente, denimos la suma de los vectores x =
a1
Identicando vectores v =
.
.
.
b11
.
B = .
.
bm1
xn
a1n + b1n
.
.
.
amn + bmn
b1n
.
. matrices del mismo tamao,
n
.
bmn
..
.
..
.
.
x1 .
.
1 es un vector la.
y1
x 1 + y1
.
.
.
y y = . como el vector x + y =
.
.
.
yn
x n + yn
an
(a1 , . . . , an ), obtenemos que la suma de vectores se rige por la Ley del paralolegramo, ver Figura 0.7. En la
a
1
a1
siguiente gura vemos la representacin geomtrica de los vectores v = en R2 y w = a2 en R3 .
o
e
a2
a3
a11 a1n
.
.
..
. una matriz de tamao m n y un
n
2. (Producto de una matriz por un escalar) Sea A = .
.
.
.
am1 amn
escalar (constante real arbitraria), denimos la matriz A como la matriz dada por
a11 a1n
.
.
..
. .
A = .
.
.
.
am1 amn
x1
.
Similarmente, denimos el producto de un vector x = . por un escalar R como el vector x =
.
xn
x1
.
. .
.
xn
Notacin 1. Denotaremos por Omn a la matriz de ceros de tamao m n, o simplemente por O si no hay
o
n
lugar a confusin y al vector cero lo denotaremos por n o simplemente si no hay lugar a confusin.
o
o
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
13
El siguiente teorema establece las propiedades que satisfacen estas operaciones en matrices y vectores.
Teorema 0.5. Sean A, B y C matrices de tamaos m n, y escalares, entonces tenemos
n
1.
(A + B) + C = A + (B + C)
2.
A + Omn = Omn + A = A
3.
A + (1A) = 1A + A = O
4.
A+B =B+A
5.
(A + B) = A + B
6.
( + )A = A + A
7.
()A = (A)
8.
1A = A
De la Propiedad 3. de este teorema se observa que 1A es el inverso aditivo de A y este ser denotado por
a
A (el inverso aditivo de una matriz es unico, ver Problema 0.2.3 ). En este sentido la diferencia de dos matrices
(x + y) + z = x + (y + z)
2.
x + n = n + x = x
3.
x + (1x) = 1x + x = n
4.
x+y =y+x
5.
(x + y) = x + y
6.
( + )x = x + x
7.
()x = (x)
8.
1x = x
x y = x 1 y1 + + x n yn =
x i yi .
i=1
a11 a1n
.
.
..
. una matriz de tamao m n, denimos la matriz transpuesta
n
Denicin 0.9. Sea A = .
o
.
.
.
am1 amn
t
de A, denotada por A , como la matriz cuyas columnas son las las de A, esto es:
a11 am1
.
.
..
. .
At = .
.
.
.
a1n amn
14
2 3 1
Ejemplo 0.12. Si A =
1 2
entonces At = 3 2.
1
1 1
Si B = 1
e
2 1 entonces B t = B y B es una matriz simtrica.
1 1
2
2 1
1
e
Si C = 1
2 1 entonces C = C t y C es una matriz antisimtrica.
1
1
2
a11 a1n
.
.
..
. una matriz de tamao m n y B =
n
Denicin 0.10. (Producto de matrices) Sea A = .
o
.
.
.
am1 amn
b11 b1q
.
.
..
. de tamao n q. Denimos el producto A B, usualmente denotado por AB, como la matriz
n
.
.
.
.
bn1 bnq
c11 c1q
.
.
..
. donde cij = n aik bkj = ai1 b1j + ai2 b2j + + ain bnj ,
de tamao m q dada por AB = .
n
.
.
k=1
.
cm1 cmq
para i = 1, . . . , m y j = 1, . . . , q.
columna de B.
y B = 2
3
1
AB =
D = 0
a
1 est dado por
3 .
1
0
4
El ejemplo anterior nos muestra que el producto de matrices no es en general conmutativo pero si satisface la
asociatividad.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
15
1 0
.
.
dene por In = . . . . . , es decir, la matriz identidad es la matriz cuyas entradas en la diagonal principal
.
.
0 1
son uno y ceros por fuera esta. Listamos a continuacin ms propiedades de las operaciones con matrices.
o
a
Teorema 0.8. Sean A y C matrices de tamaos m n y n q respectivamente, entonces se tiene lo siguiente:
n
1. Im A = A y AIn = A. En particular si A es una matriz cuadrada de tamao n n entonces AIn = In A = A.
n
2. Okm A = Okn y AOnk = Omk para cualquier k = 1, 2, 3, . En particular si A es una matriz cuadrada de
tamao n n entonces AOnn = Onn A = Onn .
n
3. (A + B)C = AC + BC, donde B es una matriz de tamao m n.
n
4. A(B + C) = AB + AC, donde B es una matriz de tamao n q.
n
A continuacin listamos tres propiedades, que aunque parecen no tener mucha importancia, sern muy utiles
o
a
A1
.
Lema 0.9. Sean A = . una matriz de tamao m n donde A1 , . . . , Am son las las de A, B =
n
.
Am
x1
.
n
B1 Bq de tamao n q donde B1 , . . . , Bq son las columnas de B y x = . un vector columna,
.
xq
entonces
1. Las columnas del producto AB son los vectores columna AB1 , . . . , ABq , es decir
AB = AB1
ABq .
A1 B
.
2. Las las del producto AB son los vectores la A1 B, . . . , Am B, esto es, AB = . .
.
Am B
16
El producto de matrices sirve para establecer otra conexin entre matrices y sistemas de ecuaciones lineales. Sea
o
a11 x1 + + a1n xn = b1
.
.
un sistema de ecuaciones lineales, entonces por denicin del producto de matrices
o
.
am1 x1 + + amn xn = bm
a11 a1n
x1
.
.
.
..
. , x = .
tenemos que este sistema es equivalente a la ecuacin matricial Ax = b donde A = .
o
.
.
.
.
am1 amn
xn
b1
.
y b = . . En lo que sigue del libro usaremos la ecuacin matricial Ax = b en lugar del sistema de ecuaciones.
o
.
bm
Terminamos la seccin con la denicin de matrices triangulares y matriz diagonal.
o
o
a11 a1n
.
.
..
. una matriz de tamao n n, decimos que
Denicin 0.11. Sea A = .
o
n
.
.
.
an1 ann
1. A es triangular superior si aij = 0 para i > j.
2. A es triangular inferior si aij = 0 para i < j.
3. A es diagonal si aij = 0 para i = j.
1 0
1 2 3
1 2
0 0 2
triangular superior, triangular inferior y diagonal.
1
0
0 y C = 0
0
2
0 0
3 0 son, respectivamente,
0 2
Problemas
2
3
Problema 0.2.1. Ejecutar las operaciones indicadas con los vectores v = 1, w = 1 y z = 5 .
0
2
3
a.
A+B
b.
b.
3v
AB
c.
3w
3v + 2d 3w.
1
2
2 2
0
1
1
1
a.
v+w
c.
d.
3A
d.
3A + 2B.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
17
1
1 0
3
3
0 1
, D =
, C =
, B =
Sean A =
0
1 0
52 52
0 0
0
0
, E =
0
0
y F = 0
1
0
1 0
0 1. Calcule
0 0
(a) AA, F F F y BC. Puede concluir algo ms general del producto BC?
a
(b) DD y EE.
Problema 0.2.9. Sean A, B Mn (R), demuestre lo siguiente
1. Si A y B son triangulares superiores, entonces AB es triangular superior.
2. Si A y B son triangulares inferiores, entonces AB es triangular inferior.
3. Si A y B son matrices diagonales, entonces AB es diagonal.
4. En todos los anteriores casos, si las entradas en las diagonales principales de A y de B son, respectivamente, a11 , . . . , ann y b11 , . . . , ann , entonces las entradas en la diagonal principal de AB son a11 b11 , . . . , ann bnn .
Problema 0.2.10. Sean A, B Mn (R) con B =
. .. .
. . .
.
.
0 n
Fn
1 F1
entonces BA =
.
.
.
n Fn
.
.
.
18
Problema 0.2.11. Una matriz cuadrada se llama una matriz de probabilidad si cada componente es no-negativa
y la suma de los elementos de cada la es 1. Demuestre que si A y B son dos matrices de probabilidad tamaos
n
m n y n q, entonces AB es una matriz de probabilidad.
Problema 0.2.12. Si A y B son matrices simtricas demuestre lo siguiente
e
1. A + B es simtrica.
e
2. (AB)t = BA.
Problema 0.2.13. Si A es una matriz de tamao m n, demuestre que AAt y At A son matrices simtricas.
n
e
Problema 0.2.14. Sea A Mn (R), muestre que A + At es simtrica y A At es antisimtrica y A =
e
e
1
2 (A
+ At ) + 1 (A At )
2
Problema 0.2.15. Si A Mmn (R), demuestre que rangoA = 1 si y slo si existen vectores v Rm y w Rn
o
tal que A = vwt .
0.3.
v1 v2 = v2 v1 ,
v1 (v2 + v3 ) = v1 v2 + v1 v3 ,
v1 v2 0.
Las matrices invertibles juegan un papel fundamental en el lgebra lineal, en particular la posibibilidad de
a
tener la inversa de una matriz nos permitir resolver algunos sistemas de ecuaciones lineales de manera muy
a
simple. Se comienza esta seccin con la denicin de este concepto.
o
o
Denicin 0.12. Sea A una matriz cuadrada de tamao n n, decimos que A es invertible si existe una
o
n
matriz B de tamao n n tal que AB = BA = In .
n
2 1
es invertible ya que el producto
Ejemplo 0.15. La matriz A =
1 1
1
2 1
1
=
1
1 1
2
1
1
1 0
1
= I2 .
=
0 1
2
En general si A es una matriz con una la de ceros entonces A no es invertible. Esta armacin se deja como
o
ejercicio, Problema 0.3.5.
1 1
0 0
a+b
c+d
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
tendriamos que
a+b
c+d
invertible.
= I2 =
1 0
0 1
19
Notacin 2. Como la inversa de una matriz invertible es unica, entonces de ahora en adelante la denotaremos
o
por A1 .
Teorema 0.11. Sean A y B matrices de tamaos n n, entonces:
n
1. Si A y B son invertibles entonces AB es invertible y (AB)1 = B 1 A1 .
2. A es invertible si y slo si At es invertible y en este caso se tiene que (At )
o
= A1 .
Si Ax = b es un sistema de ecuaciones con A invertible, entonces el sistema tiene solucin unica y esta es fac
o
l
de calcular como se muestra a continuacin.
o
Teorema 0.12. Sea Ax = b un sistema de ecuaciones lineales de n ecuaciones con n incognitas. Si A es
invertible entonces el sistema tiene solucin unica y esta est dada por x = A1 b.
o
a
x y + 3z = 2
+ 2z = 0
2
3
0
2
0 2
1
teorema anterior la solucin a dada por x = A b. La inversa de la matriz A est dada por
o est
a
2/3
= 1/3
2/3
1/3
2/3
1/3
1 1
1
o
1/6 y la solucn es x = A b = 0 , es decir, x = 1, y = 0 y z = 1.
1
1/6
2/3
Problemas
Problema 0.3.2. Encuentre cuatro matrices 22 que sean sus propias inversas.
Problema 0.3.3. Sea A una matriz m n y sea B una matriz n m con n < m, demuestre que AB no es
invertible. (Ayuda: Demuestre que existe x = 0 tal que ABx = 0.)
20
Sean A, B y C matrices de tamao n n.
n
Problema 0.3.4. Demuestre que si A = BC con A y B invertibles entonces C es invertible.
Problema 0.3.5. Demuestre que si una matriz A tiene una la o una columna de ceros, entonces A no es
invertible (Use el Lema 0.9.)
Problema 0.3.6. Demuestre el Teorema 0.12.
Problema 0.3.7. Demuestre que A1 es invertible y que (A1 )1 = A.
Problema 0.3.8. Si A es 4 3 y B es 3 4 muestre que AB = I. (Ayuda: Muestre que la ecuacin Bx = 0
o
tiene una solucin no trivial.)
o
Problema 0.3.9. Generalizando el problema anterior, si A es m n y B es n m y m > n entonces AB = I.
Problema 0.3.10. Una matriz A Mn (F) se llama ortogonal si At = A1 . Si A y B son ortogonales entonces
AB y A1 son ortogonales. (Esto demuestra que el conjunto de matrices ortogonales es un grupo.)
Problema 0.3.11. Si A es una matriz ortogonal entonces P = AAt es una matriz proyeccin, es decir, P 2 = P .
o
Problema 0.3.12. Muestre que si A es una matriz simtrica entonces A1 es simtrica.
e
e
0.4.
Matrices Elementales
En esta seccin introduciremos las matrices elementales las cuales estn asociadas a las operaciones elemeno
a
tales denidas en la Seccin 1invertible.
o
Denicin 0.13. Sea E una matriz de tamao n n, decimos que E es una matriz elemental si E se obtiene
o
n
de la identidad al aplicar una operacin elemental de la.
o
Ejemplo 0.18. Las siguientes matrices son matrices elementales:
1
0
1 2 0
0 1 0
B = 0 1 0 y C = 0 3
A = 1 0 0 ,
0
0
0 0 1
0 0 1
0 .
Cada una de estas matrices se obtiene al aplicar una operacin sobre la matriz identidad, como se muestra a
o
conitunacin:
o
0
0 1 0
F F
2
1
1 0 0 = A
1 0
0 1
0 0 1
1 2 0
0
2F + F F
1
1
2
0 1 0 = B
0
0 0 1
1
1 0
1 0
0 1
0 0
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
1 0
0 1
0 0
1
0
0
0
3F2 F2
0
1
21
0
3 0 = C
0 1
Notacin 3. Como hay tres tipos diferentes de operaciones elementales, hay un nmero igual de tipos de
o
u
matrices elementales entonces usaremos la siguiente notacin.
o
Eij denotar la matriz elemental que se obtiene al intercambiar las las i y j de la matriz identidad.
a
Eij (c) denotar la matriz que se obtiene al sumar c veces la la i a la la j de la matriz identidad.
a
Ei (c) la matriz que se obtiene al multiplicar por la constante c la la i de la matriz identidad.
Ejemplo 0.19. En el ejemplo anterior tenemos que A = E12 , B = E21 (2) y C = E2 (3).
Las operaciones elementales de la son reversibles, es decir, al aplicar una operacin elemental de la, siempre
o
se puede aplicar otra operacin elemental que deshaga la operacin aplicada. Esto se muestra en le siguiente
o
o
ejemplo.
Ejemplo 0.20. Para ilustrar la reversibilidad de las operaciones elementales consideremos la matriz A =
0 1 3
o
2 0 2, si intercambiamos las las 1 y 2 de esta matriz y aplicaramos nuevamente la misma operacin,
3 1 0
obtenemos la matriz orginal como se muestra a continuacin
o
1 3
F F
2
1
0
0 2
3
1 0
0 2
F F
2
1
2
1 3
3
1 0
1 3
0 2
1 0
En general, si se intercambian dos las de una matriz, la operacin se puede revertir al volver a intercambiarlas
o
una vez mas. Esto a la vez nos dice que la matriz elemental Eij , asociada a esta operacin de intercambio de
o
1
dos las, es invertible y es igual a su propia inversa, esto es Eij = Eij .
Volviendo a la matriz A, si multiplicamos la la 2 por 1/2 y despus multiplicamos la misma la por 2 obtenemos
e
la matriz original como se muestra a continuacin
o
1 3
0 1
0 2 2 F2 F2 1 0
1 0
3 1
3
0 1 3
2F2 F2 2 0 2
1
0
3 1 0
En general, si se multiplica una la de una matriz por una constante c = 0, la operacin se puede revertir al
o
1
volver a multiplicar la misma la de la nueva matriz por la constante . Esto a la vez nos dice que la matriz
c
elemental Ei (c), asociada a esta operacin de multiplicar la la i por una constante c = 0, es invertible y su
o
1
.
inversa est dada por Ei (c)1 = Ei
a
c
22
1
de la la 2 a la la 1 y
2
de la la 2 a la la 1 obtenemos la matriz original como se muestra a continuacin
o
1
0 1 3 2 F2 + F1 F1
1 1 4 1 F2 + F1 F1
0
2 0 2
2 0 2
2
3 1 0
3 1 0
3
Una vez mas regresamos a la matriz A, si le sumaramos
despus le sumaramos
e
1 3
1
2
0 2
1 0
En general, si se le suma c veces la la i de una matriz a la la j, la operacin se puede revertir al volver a sumar
o
c veces la la i a la la j. Esto una vez mas nos dice que la matriz elemental Eij (c), asociada a esta operacin
o
de sumar c veces la la i a la la j, tambin es invertible y su inversa est dada por Eij (c)1 = Eij (c) .
e
a
De acuerdo a lo observado en el ejemplo anterior tenemos el siguiente resultado.
Teorema 0.13. Toda matriz elemental es invertible y las inversas estan dadas por
1
Eij = Eij ,
Ei (c)1 = Ei
1
c
La importancia de las matrices elementales reside en el hecho de que estas matrices reemplazan las opercaciones elementales ya que aplicar una operacin elemental a una matriz A es equivalente a multiplicar la matriz
o
elemental correspondiente a la operacin por A. Esto lo expresamos en el siguiente teorema.
o
Teorema 0.14. Sea A una matriz de tamao m n y E una matriz elemental de tamao m m asociada a
n
n
una operacin elemental de la, el producto EA es la matriz que se obtiene al aplicar la operacin elemental de
o
o
la a la matriz A.
En el siguiente ejemplo vericamos que al aplicar una operacin elemental se obtiene la misma matriz que al
o
multiplicar la matriz asociada a la operacin elemental, considerarermos un caso por cada operacin elemental.
o
o
2 2
4
o
Ejemplo 0.21. Sea A = 0 1 1. Al aplicar la operacin que multiplica la primera la por 1/2 obtenemos
4 5
1
1 1
2
1/2 0 0
4 5
1
0
0
1
1 1
2
1
es fcil vericar que E1 ( 2 )A = 0 1 1.
a
4 5
1
2 2
4
0 1 7
1 0 0
a
elemental asociada a esta operacin est dada por E13 (2) = 0 1 0, es fcil vericar que E13 (2)A =
o
a
2 0 1
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
2 2
0 1
0 1
23
1.
2 2
0 1
2
1 0 0
a
elemental asociada a esta operacin de la es E23 = 0 0 1 y es fcil ver que E23 A = 4
o
0
0 1 0
1 . La matriz
2
4
5
1 .
1 1
Al aplicar reduccin Gauss-Jordan a una matriz, por cada operacin elemental de la, hay una matriz
o
o
elemental, la matriz que se obtiene al aplicar la operacin de la a la matriz identidad. Como toda matriz se
o
puede reducir a una forma escalonada reducida, entonces se tiene el siguiente teorema.
Teorema 0.15. Toda matriz se puede expresar como el producto de un nmero nito de matrices elementales
u
por una matriz en forma escalonada reducida. Mas concretamente, si A es una matriz de tamao m n, existen
n
matrices elementales E1 , . . . , Ek todas de tamao m m y una matriz escalonada reducida A tal que
n
2
en forma escalonada reducida.
A = E1 Ek A .
1 0
2 2
Solucin Necesitamos aplicar reduccin Gauss-Jordan a la matriz A indicando las matrices elementales asoo
o
ciadas a
1 0
1 1
1 2 F1 +F2 F2 0 0
2 2
2 2
E12 (1)
0
1
0
2
2 2F1 +F3 F3 0
E13 (2)
1
2
1 0
1
0 2 1 F2 F2 0
2
0 2
0
1
E2 ( 2 )
1 0
1 1 0
0 0 1
0 1
0 2 2F2 +F3 F3 0 0 0
E23 (2)
1 1 0
0 0 0
1
2
E23 (2)1 A
24
Lema 0.16. Sea A una matriz de tamao n n en forma escalonada reducida, entonces A es invertible si y
n
slo si A = I.
o
De esto se desprende el siguiente resultado.
Teorema 0.17. Sea A una matriz de tamao n n, entonces A es invertible si y slo si A se puede escribir
n
o
como un producto de matrices elementales.
1 2 2
Solucin Abajo se muestra la reduccin Gauss-Jordan de esta matriz indicando la matriz elemental asociada a
o
o
cada operacin aplicada de acuerdo a la Notacin 3
o
o
1 2
0
F2 +F3 F3 0
E23 (1)
F1 F2
E12
0 1
0
2
1 2 F1 +F3 F3 0
0 0
F3 +F1 F1
0
1 2
0 1
0
0 0
1 1
E13 (1)
1 2 2F3 +F2 F2 0
0 1
0
E31 (1)
1 0
0 1
E32 (2)
De aqu tenemos que E32 (2)E31 (1)E23 (1)E13 (1)E12 A = I, por tanto
1
A = E12 E13 (1)1 E23 (1)1 E31 (1)1 E32 (2)1
obtenemos la matriz
A1
A1 B
1 2
1 2
1 y B = 2 3, calcular A1 y A1 B.
0 1
2
obtenemos la matriz
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
Solucin Si aplicamos reduccin Gauss-Jordan a la matriz
o
o
1 0
0 1
0 0
A I
obtenemos la matriz
0 1 2
1
25
Por tanto A1 = 1 2 2.
1
1
1
1 0
0 1
0 0
A B
obteniendo
0 5 10
1
3
6
3
6
Observacin 0.2. Del Teorema 0.18 se sigue que al aplicar reduccin Gauss-Jordan a una matriz invertible A
o
o
se obtiene I, si se aplican las mismas operaciones elementales que se aplicaron a A para reducirla a I entonces
se obtiene el producto de las correspondientes matrices elementales, producto que a su vez es igual a A1 . Es
decir, si E1 , . . . , Ek son las matrices elementales asociadas a las operaciones elementales que se usaron para
reducir la matriz A, entonces al aplicar las mismas operaciones elementales y en el mismo orden sobre la matriz
I, el resultado nal es A1 .
Esto es cierto ya que aplicar una operacin elemental a una matriz es equivalente a multiplicar por la matriz
o
elemental asociada a la operacin a la izquierda, al comenzar con I obtenemos
o
E
2
1
k
I E1 I = E1 Ek E1 = A1
Observacin 0.3. Si en el teorema anterior las columnas de la matriz B son los vectores b1 , . . . , bq , entonces al
o
aplicar reduccin Gauss-Jordan a la matriz aumentada
o
A1 B = A1 b1
A b1
bq
obtenemos la matriz
x2 + 2x3 = 1
x1 + x2 + x3 = 2
x1 2x2 2x3 = 0
x1 + x2 + x3 = 3 .
x1 2x2 2x3 = 1
26
Solucin Estos sistemas son equivalentes a las ecuaciones matriciales
o
2
1
0
1
2
Ax = b1 y Ax = b2 donde A = 1
1
1 , b1 = 2 y b 1 = 3
1
0
1 2 2
y se pueden resolver simultaneamente calculando la forma escalonada reducida de la matriz aumentada
0
1
2 1 2
a
1
1
1 2 3 , la cual est dada por (ver ejemplo anterior)
1 2 2 0 1
1 0 0
4
7
a
0 1 0 5 10 y por tanto las respectivas soluciones a los sistemas estn dadas por
3
6
0 0 1
x1 = 5
3
A b1
x2 = 10 .
Terminamos la seccin con el siguiente teorema que ser util en el prximo cap
o
a
o
tulo, en este teorema se
explota el hecho de que las operaciones elementales son reversibles.
Teorema 0.19. Sea A una matriz de tamao m n y A su forma escalonada reducida. Entonces Ax = 0 si
n
y slo si A x = 0, es decir, x es una solucin al sistema homogneo Ax = 0 si y slo si x es una solucin al
o
o
e
o
o
sistema A x = 0.
Demostracin. Ejercicio.
o
Problemas
Problema 0.4.1. Determine si
A = 1
la matriz es invertible
2
1 1
B = 0
2 2
3
4 1
2 0
4
0 4
C = 0 2 10
2 2
3 1
1
1 1
Problema 0.4.2. Escriba las matrices y sus inversas como producto de matrices elementales
2 0 4
1 1 1
B = 0 2 2
A = 1 2 2
3 1 1
4 4 1
b2
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
27
Problema 0.4.3. si A y B tienen la misma forma escalonada reducida entonces existen matrices elementales
E1 , . . . , Es tal que A = E1 Es B.
Problema 0.4.4. Escriba la matriz como un producto de matrices elementales por una matriz en forma esca
1 1 1 1 1 1
1 1 1 1 1 2
lonada reducida B =
1 1 1 1 2 3
1 1 1 2 3 4
Problema 0.4.5. Sea A Mn (F), si existe B Mn (F) tal que AB = In demuestre que
1. la ecuacin Ax = b tiene solucin para todo b Fn ,
o
o
2. rangoA = n,
3. la forma escalonada reducida de A es In ,
4. existe C invertible tal que CA = I,
5. C = B,
6. A es invertible.
Este ejercicio muestra que en la denicin de matriz invertible solo es necesario exigir que exista una matriz B
o
tal que AB = I.
Problema 0.4.6. Sea A Mn (F) con rango(A) = k, demuestre que existen matrices B y C invertibles tal que
Ik
0k(nk)
.
BAC =
0(nk)k 0(nk)(nk)
Ayuda: Use operaciones columna, demuestre que aplicar una operacin columna a la matriz A es equivalente a
o
multiplicar a A por una matriz elemental a la derecha, o use operaciones la en la matriz transpuesta.
Problema 0.4.7. Sean A, B Mn (F), demuestre que rango(A) = rango(B) si y slo si existen matrices
o
invertibles C y D tal que B = CAD.
0.5.
Determinantes
El determinante es una de las nociones con ms aplicaciones en matemticas, ste se usa para denir conceptos
a
a
e
geomtricos como volumen y orientacin, adems proporciona una caracterizacin de matrices invertibles la cual
e
o
a
o
veremos en el cap
tulo de formas multilineales. En esta seccin solo haremos mencin a la denicin y a algunos
o
o
o
conceptos bsicos, el tema lo estudiaremos en ms detalle en el cap
a
a
tulo de formas multilineales.
28
Denicin 0.14. Sea A una matriz de tamao m n, para 1 i m y 1 j n, denimos el ij-simo
o
n
e
menor de A, al cual denotaremos por Aij , como la matriz obtenida de A al eliminar su i-sima la y j-sima
e
e
columna.
Ahora denimos el determinante
a11 a1n
.
.
..
. una matriz de tamao n n. Denimos el
n
Denicin 0.15. (Determinante) Sea A = .
o
.
.
.
an1 ann
determinante de A, el cual denotaremos por det(A), recursivamente como sigue:
det(A) =
i=1
= a11 det (A11 ) a12 det (A12 ) + + (1)1+n a1n det (A1n ) .
1 0
o
a
0 , de acuerdo a esta denicin el determinante de A est dado por:
1
1
det(A) =
i=1
0 1
0 0
1 0
+ 0 det
(1) det
= 2 det
1 1
1 1
1 1
= 2(1 1 0 1) + (0 1 0 1) + 0(0 1 1 1)
=2
Denicin 0.16. Sea A una matriz n n, el ij-simo cofactor de A, denotado por Cij , se dene como
o
e
Cij = (1)i+j det Aij ,
donde Aij es el ij-simo menor de A.
e
Observacin 0.4. Con esta denicin podemos re-escribir la frmula de del determinante como sigue:
o
o
o
n
det(A) =
i=1
A esta frmula se le conoce como la expansin por cofactores de A a lo largo de la primera la.
o
o
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
1 0
29
2 1
1 1
= 1 1 1 2 = 1
Solucin: C11 = (1)1+1 det A11 = (1)2 det
o
2 1
0 1
= 1 (0 1 1 (1)) = 1
C12 = (1)1+2 det A12 = (1)3 det
1 1
0 1
= 0 2 1 (1) = 1
C13 = (1)1+3 det A13 = (1)4 det
1 2
det(A) = a11 C11 + a12 C12 + a13 C13 = 1 (1) + 1 (1) + 0 1 = 0
a11
0
0
0
a21 a22
a11 a1n
.
.
..
. entonces el determinante de A se puede calcular usando la expansin
Teorema 0.22. Sea A = .
o
.
.
.
an1 ann
por cofactores en cualquier la y cualquier columna, es decir, para 1 i, j n tenemos que:
n
aik Cik
(3)
k=1
n
ahj Chj
=
h=1
(4)
30
Ahora supongamos que el teorema se cumple para cualquier matriz de tamao (n 1) (n 1) y probemos
n
que det(A) =expansin en la la i.
o
Por denicin tenemos que
o
det(A) =
(5)
j=1
Ahora, como la matriz Aij es de tamao (n 1) (n 1), entonces por la hiptesis de induccin tenemos que
n
o
o
su determinante se puede calcular por expansin en la la i, por tanto
o
det(A1j ) = (1)i+1 ai1 det(A1j )i1 + + (1)i+n ain det(A1j )in
(6)
k=1
det(A) =
(1)
1+j
j=1
n
n
a1j
(7)
k=1
La idea es demostrar que la expansin por cofactores en la la i coincide con esta frmula.
o
o
Ntese que como Cik = (1)i+k det(Aik ), entonces tenemos que
o
n
aik Cik =
(8)
k=1
k=1
det(Aik ) =
(9)
j=1
(1)i+k aik
k=1
n
n
(10)
k=1 j=1
Finalmente ntese que (A1j )ik = (Aik )1j ya que ambas se obtienen al eliminar las las 1 e i y las columnas j y
o
k de A. Entonces las ecuaciones (7) y (10) son iguales, por tanto
det(A) = expansin por cofactores en la la i.
o
Similarmente se demuestra que det(A) coincide con la
0
la y segunda columna.
0 1
o
0
1 usando expansin por cofactores en la tercera
1
0
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
31
1 0
1 1
0 1
+ 0 det
1 det
= 0 det
2 0
2
1
0
1
= 1(1 + 2) = 1.
1 1
1 1
2 1
1 det
+ 0 det
= 0 det
2
1
0
0
0 0
= 1(1 + 2) = 1.
32
2 3: Si TA es biyectiva, existe S tal que TA S = id = S TA . Si Ax = 0 entonce TA (x) = Ax = 0, se sigue
que
x = id(x) = S TA (x) = S(0),
Ntese a dems que TA (0) = A0 = 0 y 0 = TA S(0) = TA (S(0)), se sigue que TA (0) = TA (S(0)) y como TA es
o
a
inyectiva tenemos que S(0) = 0. Concluimos que x = S(0) = 0.
3 4: Sabemos que A = P A donde P = E1 Es us un producto de matrices elementales y por tanto
Si rango(A) < n, entonces A tiene las y columnas sin pivote, entonces la ecuacin A x = 0 tiene solucin
o
o
b = 0, entonces Ab = P A b = 0 y se sigue que b es una solucin no trivial a la ecuacin Ax = 0, lo cual contradice
o
o
la hiptesis ya que 0 es otra solucin a la ecuacin. Por tanto rangoA = n.
o
o
o
4 5: Sabemos que A = P A con P el producto de matrices elementales y A la forma escalonada reducida
de A. Si rangoA = n entonces A tiene pivotes en cada columna y por tanto A = In , se sigue que A = P =
producto de matrices elementales.
5 6: Si A = E1 Es con E1 , . . . , Es matrices elementales, como det Ei = 0 entonces det A = det E1 det Es =
0.
En el Cap
tulo 10 veremos que el determinante del producto es el producto de los determinantes y la
demostracin se har de manera independiente de lo hecho hasta ahora.
o
a
6 1: Sabemos que A = P A con P invertible y A en forma escalonada reducida. Si A tiene las de ceros
entonces det A = 0 y por tanto det A = det P det A = 0 lo que contradice la hiptesis, por tanto A no tiene
o
las de ceros y en consecuencia tiene un pivote en cada la, se sigue qua A = I y concluimos que A = P es
invertible.
1 7: Si A es invertible tenemos que I = I t = (A1 A)t = At (A1 )t y por tanto At es invertible.
Similarmente se demuestra 7 1.
La siguiente propiedad del determinante ser util en el Cap
a
tulo 3.
B C
con B Mp (F) y D Mnp (F) entonces
Teorema 0.25. Sea A Mn (F) una matriz tal que A =
0 D
det A = det B det D.
0 a22
Si p = 1, tenemos que A = .
.
.
.
.
.
a22
a2n
.
.
. entonces B = a11 , D = .
..
.
.
.
an2
0 an2 ann
Aplicando cofactores a A a lo largo de la primera columna obtenemos que
a1n
..
.
a2n
.
. y det B = a11 .
.
ann
det A = a11 C11 + a21 C21 + + an1 Cn1 = a11 det A11 = det B det D.
=0
=0
=D
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
33
a11 a1p
.
.
..
. . Aplicando nuevamente cofactores en la primera columna de A obtenemos que
.
.
.
.
ap1 app
det A = a11 C11 + + ap1 Cp1 + ap+1,1 Cp+1,1 + + an1 Cn1 = a11 det A11 + + (1)p+1 ap1 det Ap1
=0
=0
a22
.
.
.
= a11 det
ap2
..
.
a2p
.
.
.
app
a22
.
= a11 det .
.
induccin
o
ap2
..
.
B11
a12
.
.
.
..
.
C1
ap1,2
D
0
a12
a2p
.
.
. det D + + (1)1+p ap1 det .
.
.
ap1,2
app
p+1
a1p
.
.
.
Cp
ap1,p
..
.
a1p
.
.
.
ap1,p
=Bp1
det D
= det B det D
Terminamos el cap
tulo con dos propiedades conocidas del determinante, cuya demostracin postergaremos
o
para el Cap
tulo 10 (Ver Teorema 10.9).
Teorema 10.9. Sean A, B Mn (F) entonces
1. det(AB) = det(A) det(B),
2. Si A es invertible entonces det(A1 ) =
1
.
det(A)
Problemas
a b 0 0 0
b a b 0 0
0 b a 0 0
Tn = aTn1 b Tn2
0 0 0 a b
0 0 0 b a
34
a b
b
a
0 b
0
0
Sn = aSn1 + b2 Sn2
.
.
.
0
0
0
b
a
. ..
. .
.
0 0
0 0
0 0
.
.
.
. entonces
.
.
0
a b
0 b a
1
c1
Problema 0.5.9. Si A =
c2
. ..
.
.
.
n1
c2
cn
cn1
n
i<j
(ci cj ).
Cap
tulo 1
Espacios Vectoriales
1.1.
Denicin y Ejemplos
o
1
m
.
.
.
1 , . . . , n F
n
1
.
.
.
.
.
.
.
.
.
n +n
x1
1 +1
.
.
.
.
.
.
xn
. .. .
.
. .
.
.
n1 nn
11 1n
. .. .
.
. .
.
.
n1 nn
11 +11 1n +1n
.
.
.
..
.
.
.
n1 +n1 nn +nn
11 1n
. .. .
.
. .
.
.
n1 nn
x11 x1n
.
.
.
..
.
.
.
. (1.1)
xn1 xnn
A este conjunto lo denotaremos por Mmn (R) cuando las entradas sean reales y por Mmn (C) cuando las
entradas sean complejas. En el caso en que m = n, usaremos la notacin Mn (R) o Mn (C).
o
35
36
3. Sea Pn = {a0 + a1 t + + an tn | a0 , . . . , an R} el conjunto de polinomios de grado a lo sumo n en la
indeterminada t, este conjunto es un espacio vectorial sobre R bajo las operaciones:
a0 + a1 t + + an tn + b0 + b1 t + + bn tn = (a0 + b0 ) + (a1 + b1 )t + + (an + bn )tn y
(a0 + a1 t + + an tn ) = a0 + a1 t + + an tn .
4. Si X es un conjunto, el conjunto de funciones de X en F, {f : X F | f es una funcin }, es un espacio
o
vectorial sobre F con las operaciones de suma y producto por escalar denidos por:
(f + g)(x) = f (x) + g(x)
(f )(x) = f (x).
(f )(x) = f (x)
(a + bi) = a + bi,
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
3. = ,
4. 0 x = ,
5. 1 x = x,
Demostracin.
o
37
6. Si x = entonces = 0 o x = .
1. = + = + = .
2. w = w + = w + (x + w ) = (w + x) + w = + w = w .
3. + = ( + ) = , sumand el inverso aditivo de a ambos lados tenemos: = ..
4. 0x = (0 + 0)x = 0x + 0x, sumando el inverso aditivo de 0x a ambos lados tenemos que = 0x.
5. 1x + x = 1x + 1x = (1 + 1)x = 0x = . como el inverso aditivo de x es unico, tenemos que 1x = x.
1
tenemos que x =
= .
Problemas
Problema 1.1.1. Demuestre que R+ = {x R | x > 0} es un espacio vectorial bajo las operaciones
x y = xy
x = x ,
(x1 , . . . , xn ) = (x , . . . , x ).
1
n
Problema 1.1.3. Determine cuales de los siguientes conjuntos son espacios vectoriales con las operaciones
indicadas. Si no lo son, enuncie las propiedades que no cumplen.
1. El conjunto de matrices simtricas, {A Mn (R) | At = A}, bajo la suma y el producto por escalar usual de
e
matrices. (La suma y producto usual de matrices se dieron en la Ecuacin 1.1.)
o
2. El conjunto de matrices anti-simtricas, {A Mn (R) | At = A}, bajo la suma y el producto por escalar
e
usual de matrices.
x
3. El conjunto R+ R = x, y R, x > 0 bajo la suma y el producto por escalar usual de R2 . (La suma
y
n
y producto usual de vectores en R se dieron en el Ejemplo 1.1 .)
x
4. El conjunto (R \ R+ ) (R \ R+ ) = x, y R, x, y < 0 bajo la suma y el producto por escalar usual
y
de R2 .
38
5. El conjunto
R+ R+ R \ R+ R \ R+ = (x, y) R2 | x, y 0
x, y 0
xy
7. El conjunto {a + at2 + + at2n | a R} bajo las operaciones de suma y producto por escalar usual de
polinomios. (Ver Ejemplo 1.1
tem 3.)
a 1
a R bajo las operaciones usuales para matrices.
8. El conjunto
a a
9. El conjunto {a0 + a1 t + + an tn | a0 = 1} bajo las operaciones de suma y producto por escalar usual de
polinomios.
Problema 1.1.4. Demuestre que R R \ {0} es un espacio vectorial con las operaciones (a1 , a2 ) + (b1 , b2 ) =
(a1 + b1 , a2 b2 ) y (a, b) = (a, b ).
1 a
denida por A B = AB donde AB denota el producto usual de matrices y el producto por escalar denido por
1 a
1 a
.
=
0 1
0 1
S = (x, y, z) R3 | x + y + z = 0,
, , R ,
1 , . . . , n R} ,
S = (x1 , . . . , xn ) Rn
11 x1 + + 1n xn = 0
.
.
,
.
n1 x1 + + nn xn = 0
ij R, para i, j = 1, . . . , n.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
39
11 1n
x1
.
.
.
..
. y x = . .
Ax = 0 con A = .
.
.
.
.
n1 nn
xn
Problema 1.1.9. Demuestre que los conjuntos dados en los numerales 4. y 5. del Ejemplo 1.1 son espacios
vectoriales con las operaciones indicadas.
Problema 1.1.10. Sea V un espacio vectorial y sean x, y V , para cada una de las siguientes ecuaciones,
demuestre que existe un unico z V que la satisface
1.
1.2.
x + z = y.
2.
x z = y.
3.
z = x.
4.
x + z = y.
Subespacios
En esta seccin se dar un criterio para determinar cuando un subconjunto de un espacio vectorial es tambin
o
a
e
un espacio vectorial (bajo las mismas operaciones), al cual se le conoce como subespacio vectorial o simplemente
subespacio. Tambin se mostrarn los teoremas bsicos acerca de subespacios los cuales nos permitirn construir
e
a
a
a
subespacios a partir de otros.
Denicin 1.2. Sea V un espacio vectorial y = W V , decimos que W es un subespacio de V si W es
o
tambin un espacio vectorial bajo las mismas operaciones de suma y producto por escalar de V .
e
Ejemplo 1.2.
40
2. w W .
Demostracin. Debemos demostrar W cumple las ocho condiciones de espacio vectorial.
o
1. La asociatividad se cumple para todo v, v y v V , entoncs en particular si estos estn en W .
a
2. Como W = , existe w W , entonces por hipteses w = (1)w W y por tanto 0 = w + w W .
o
3. Si w W entonces por la hiptesis 2. tenemos que w = (1)w W .
o
4-8. Estas propiedades se cumplen para todo w, w V , en particular si w, w W .
Por tanto W es un espacio vectorial y como W V , tenemos que W es un subespacio de V .
x1
.
.
.
xn = 0
xn
Solucin. Primerontese que H ya que n H, veamos que H satisface las condiciones 1. y 2. del
o
o
=
y1
x1
.
.
Teorema 1.2. Sean . , . H y F, entonces xn = 0 = yn por tanto
.
.
yn1
yn
xn1
xn
x1
y1
x1
y1
.
.
.
.
. + . = . + . =
.
.
.
.
xn1
xn
yn1
yn
xn1
0
yn1
0
x1 +y1
.
.
.
xn1 +yn1
0
x1
x1
.
.
H y . = . =
.
.
xn1
xn
xn1
0
x1
.
.
.
xn1
0
H.
El Teorema 1.2 no solo facilita la vericacin de si un subconjunto es un subespacio, tambin facilita las
o
e
demostraciones de los siguientes teoremas.
Teorema 1.3. Sea V un espacio vectorial y sean W1 y W2 subespacios de V entonces W1 W2 es un subespacio
de V .
Demostracin. Como W1 y W2 son subespacios, entonces 0 W1 y 0 W2 , se sigue que 0 W1 W2 y por
o
tanto W1 W2 = . Ahora mostremos las condiciones 1. y 2. del Teorema 1.2.
Sean w, w W1 W2 , entonces w, w W1 y w, w W2 , luego w + w W1 y w + w W2 , por tanto
w + w W1 W2 .
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
41
Denicin 1.3. Sea V un espacio vectorial sobre un campo F y sean v1 , v2 , . . . , vn V denimos el subespacio
o
generado por los vectores v1 , v2 . . . , v y denotado por gen{v1 , . . . , vn }, como el conjunto
gen{v1 , . . . , vn } = {1 v1 + + n vn | 1 , . . . , n F}.
A los elementos de la forma 1 v1 + + n vn se le llaman combinaciones lineales de los vectores v1 , . . . , vn .
Se deja como ejercicio al lector vericar que el subespacio generado por un conjunto de vectores de un espacio
vectorial V es un subespacio de V .
Problemas
a
Problema 1.2.1. Sea V = M2 (R), demuestre que H1 =
0
son subespacios de V y describa el conjunto H1 H2 .
a, b, c R y H2 =
b
c
b
a, b R
a
b
x1
.
n
. 1 x1 + + n xn = 0, 1 , . . . , n R
Problema 1.2.3. Demuestre que un hiperplano H de R , H = .
n
n
es un subespacio de R .
Problema 1.2.4. Sea A una matriz mn, demuestre que el conjunto H = {x Rn | Ax = 0} es un subespacio
de Rn . (Este ejercicio es una generalizacin del ejercicio anterior, ntese que en el ejercicio anterior la matriz
o
o
A es la matriz A = [1
n ]. )
Problema 1.2.5. La traza de una matriz A = (aij ) Mn (R) se dene como tr(A) = a11 + +ann . Demuestre
que el conjunto de matrices de traza cero es un subespacio de Mn (R), a este subespacio se le denota por sln (R)
o sl(n, R).
Problema 1.2.6. Sean A, B Mn (R) y , R, demuestre que
1. tr(A + B) = tr(A) + tr(B),
2. tr(AB) = tr(BA)
3. tr(At ) = tr(A).
Problema 1.2.7. De ejemplos de subconjuntos de R2 que cumplan lo siguiente:
1. que sea cerrado bajo el producto por escalar pero no que sea cerrado bajo la suma,
2. que sea cerrado bajo la suma pero que no sea cerrado bajo el producto por escalar.
42
Problema 1.2.8. Demuestre que el conjunto solucin de el sistema homogneo
o
e
a11 x1 + + a1n xn = 0
.
.
.
am1 x1 + + amn xn = 0
n
es un subespacio de R.
x1
a11 a1n
.
.
..
. la matriz del sistema, demuestre que x = . es una solucin al
o
Ayuda: Sea A = .
.
.
.
.
.
xn
am1 amn
sistema si y slo si Ax = 0 y use el Ejercicio 1.2.4.
o
Problema 1.2.9.
subespacio.
2. Sea V un espacio vectorial y W1 y W2 subespacios de V , demuestre que W1 W2 es un subespacio si y
slo si W1 W2 o W2 W1 .
o
Problema 1.2.10. Sea V un espacio vectorial y sean W1 y W2 subespacios de V , demuestre que W1 + W2 es
el subespacio ms pequeo que contiene a W1 y a W2 .
a
n
Problema 1.2.11. Demuestre que el conjunto de matrices simtricas,
e
Sn (F) = {A Mn (F) | A es simtrica },
e
es un subespacio de Mn (F).
Problema 1.2.12. Demuestre que el conjunto de matrices antisimtricas,
e
An (F) = {A Mn (R) | A es antisimtrica },
e
es un subespacio de Mn (R).
Problema 1.2.13. Una funcin se llama par si f (x) = f (x), para todo x. Demuestre que el conjunto de
o
funciones pares es un subespacio vectorial de F(R, R).
Demuestre tambin que el subconjuto formado por las funciones impares, funciones tal que f (x) = f (x),
e
para todo x, tambin es un subespacio de F(R, R).
e
Problema 1.2.14. Sea F = F([0, 1], R), el conjunto de funciones del intervalo [0, 1] en R, demuestre que los
siguientes subconjuntos son subespacios de F:
1. el conjunto C([0, 1], R) de funciones continuas del intervalo [0, 1] en R,
1
2. el conjunto
f F
f (x)dx = 0 .
0
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
43
H1 =
f V
l f (x) = + .
m
x0
2.
H2 =
f V
l
m f (x) = 0 .
6. L(A) =
i=0
i ai n Z0 , i F, ai A para i = 1 . . . , n .
1.3.
1
0
p(x)dx = 0} es un subespacio .
Independencia Lineal
En esta seccin se estudiar el concepto de independencia lineal el cual nos permitir determinar cuando un
o
a
a
vector en un conjunto dado de vectores se puede expresar en trminos de los dems.
e
a
Denicin 1.4. Sea V un espacio vectorial y sean v1 , . . . , vk V , decimos que el conjunto {v1 , . . . , vk } es
o
linealmente independiente (abreviadamente LI) si 1 v1 + +k vk = 0 implica que 1 = 2 = = k = 0.
Si el conjunto {v1 , . . . , vk } no es linealmente independiente, decimos que es linealmente dependiente (abreviadamente LD).
44
Observacin 1.1. De la denicin anterior se deprende que si el conjunto {v1 , . . . , vk } es linealmente depeno
o
diente si y slo si existen constantes 1 , . . . , k , no todas cero, talque
o
1 v1 + + k vk = 0.
(1.2)
Lo que es equivalente a decir que alguno de los vi se puede escribir como una combinacin lineal de los demas,
o
esto ya que al menos uno de los i = 0, por tanto despejando por vi en (1.2) tenemos
vi =
1
i1
i+1
k
v1
vi1
vi+1
vk .
i
i
i
i
Es decir, un conjunto es linealmente dependiente si y slo si uno de los vectores es una combinacin lineal de
o
o
los dems.
a
De esta ultima armacin obtenemos una interpretacin geomtrica que podemos usar para conjuntos pe
o
o
e
queos de vectores la cual exhibimos a continuacin.
n
o
El conjunto de vectores {v, w} es LD si y slo si w = v, es decir, el conjunto {v, w} es LD si y slo si w es
o
o
un mltiplo de v. La siguiente gura nos muestra las posibilidades y aunque se usando una grca en R2 , vale
u
a
la pena aclarar que la misma situacin se cumple para un par de vectores en cualquier dimensin.
o
o
w
w
v
Vectores LD
Vectores LI
Un conjunto formado por tres vectores {v, w, z} es LD si y slo si uno de ellos es combinacin lineal de los
o
o
otros. Esta ultima propiedad nos lleva a dos casos:
Caso 1: Dos vectores, digamos w y z, son ambos mltiplos de v. En este caso los tres vectores estn contenidos
u
a
en una l
nea.
Caso 2: Un vector, digamos z, es combinacin lineal de v y w, pero v no es mltiplo de w. En este caso
o
u
tenemos que z es de la forma z = v + w y como la suma de dos vectores se rige por la ley del paralelogramo,
esta ultima ecuacin implica que z est contenido en el mismo plano que contiene a v y w.
o
a
Concluimos que tres vectores son LD si y slo si estos estn contenidos en una l
o
a
nea o en un plano.
En consecuencia tenemos que tres vectores en R2 son necesariamente LD. La siguiente gura nos muestra
los posibles casos geomtricos de tres vectores
e
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
45
w
v
w
Vectores LD
Vectores LI
Vectores LD
Del Teorema 1.7 se deduce facilmente que cuatro vectores en R3 son LD, por tanto, para exhibir geomtricae
mente cuatro vectores LI se necesitan al menos 4 dimensiones y por este motivo no podemos exhibir ms guras
a
como las dos anteriores en las que se consideren cuatro o ms vectores.
a
Ejemplo 1.4. 1. El conjunto
v1 =
3v1 2v2 v3 = 0.
2. El conjunto de vectores
v1 =
1
1
0
1
1
2
, v2 =
, v2 =
0
1
1
2
3
0
, v3 =
1
0
1
, v3 =
1
9
6
= 1 v 1 + 2 v 2 + 3 v 3 = 1
=
Se sigue que
1 +3 =0
1 +2 =0 ,
2 +3 =0
1
1
0
0
2
2
3
0
3
1
1 +
0
1 +3
1 +2
2 +3
0
1
1
+ 3
1
0
1
1 0 1
1 1 0
0 1 1
1 0 1
1 1 0
0 1 1
0
0
0
(1.3)
unica solucin al sistema (1.3) es la trivial, 1 = 0, 2 = 0 y 3 = 0. Por tanto el conjunto {v1 , v2 , v3 } es LI.
Problemas
Problema 1.3.1. Sean v1 , . . . , vk vectores en Fn y sea A = [ v1 . . . vk ] la matriz cuyas columnas son los
vectores v1 , . . . , vk , demuestre que {v1 , . . . , vk } es LI si y slo si A x = 0 tiene solucin unica x = 0 donde A
o
o
es la forma escalonada reducida de A.
Problema 1.3.2. Determine cuales de los siguientes conjuntos son linealmente independientes, si no lo son,
encuentre una dependencia lineal entre los vectores:
a.
1
1
2 , 1
1
3
b.
1
1
1
2 , 1 , 1
3
1
3
c.
1
1
1
1
2 , 1 ,
3
1
3
d.
1
1
1
2 , 1 , 1
3
1
3
4
1
1
46
Problema 1.3.3. Encuentre el valor de a para los que los vectores son linealmente independientes.
2
2
2
1
2
3
1
1
a
Problema 1.3.4. Determine la relacin entre y para que los vectores v1 = (1, 0, 0), v2 = (0, 1, 0) y
o
v3 = (, , + ) sean LD y exhiba una dependencia lineal entre los vectores.
Problema 1.3.5. Encuentre vectores v1 , v2 y v3 de tal forma que v1 , v2 sean LI y v2 , v3 sean tambin LI pero
e
que v1 , v2 , v3 sean LD.
Problema 1.3.6. Sea V un espacio vectorial y sean v1 , v2 V , demuestre que {v1 , v2 } es linealmente dependiente si y slo si v2 = cv1 con c R, es decir, si v2 es un mltiplo de v1 .
o
u
Problema 1.3.7. Sean v, w R3 con v = 0, demuestre que
1. si v, w son LD entonces {v, w} es una l
nea que pasa por el origen,
2. si v, w son LI entonces {v, w} es un plano que pasa por el origen,
Problema 1.3.8. Sea V un espacio vectorial, sean v1 , v2 , v3 V y sean w1 = v1 v2 , w2 = v2 v3 y w3 = v3 .
Demuestre que {v1 , v2 , v3 } es linealmente independiente si y slo si {w1 , w2 , w3 } es linealmente independiente.
o
Problema 1.3.9. Sea V un espacio vectorial, sean v1 , v2 , v3 V y sean w1 = v1 v2 , w2 = v2 v3 y
w3 = v3 v1 . Demuestre que {w1 , w2 , w3 } es linealmente dependiente.
Problema 1.3.10. Demuestre que si el conjunto {v1 , . . . , vn } es LI y k < n entonces el conjunto {v1 , . . . , vk }
tambin es LI.
e
Problema 1.3.11. Demuestre que si el conjunto {v1 , . . . , vn } es LD y vn+1 es otro vector entonces el conjunto
{v1 , . . . , vn , vn+1 } tambin es LD.
e
Problema 1.3.12. Sean v, w R3 vectores LI, demuestre que gen{v} + gen{w} es el plano que contiene a los
vectores v y w.
Problema 1.3.13. Sean v, w R3 vectores LD, demuestre que gen{v} + gen{w} es la l
nea que contiene al
vector v.
Problema 1.3.14. Demuestre que el conjunto {sen(x), sen(2x), cos(x), cos(2x)} es LI.
1.4.
Bases y Dimensin
o
En esta seccin estudiaremos el concepto de base, el objetivo principal es mostrar que todo espacio vectorial
o
tiene una base, haremos una demostracin para el caso nito y mostraremos que, en este caso, el nmero de
o
u
vectores en una base es invariante. Comenzamos con la denicin de base para un espacio vectorial.
o
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
47
Denicin 1.5. Sea V un espacio vectorial sobre una campo F y sean v1 , . . . , vn V , decimos que el conjunto
o
{v1 , . . . , vn } es una base (nita) para V si
1. los vectores v1 , . . . , vn son linealmente independientes,
2. V = gen{v1 , . . . , vn }, es decir, los vectores v1 , . . . , vn generan a V .
Observacin 1.2. No todo espacio vectorial tiene una base nita, en los ejemplos mostraremos algunos espacios
o
que no poseen una base nita.
Ejemplo 1.5.
Fn .
2. El conjunto {1, t, t2 } es una base para el espacio de polinomios de grado a lo sumo 2, P2 , ya que por
denicin tenemos que
o
P2 = {a0 + a1 t + a2 t2 | a0 , a1 , a2 F } = gen{1, t, t2 }
y adems es fcil ver que el conjunto {1, t, t2 } es LI.
a
a
3. En general el conjunto {1, t, . . . , tn } es una base para Pn .
1 0
0
0 0
0 1
,
,
,
4. Una base para M22 (F) est dada por
a
0 0
0
1 0
0 0
0
.
1
5. En general una base para el espacio Mmn (F) est dada por el conjunto {Eij | i = 1, dots, n, j = 1, . . . , m},
a
donde Eij es la matriz m n con un 1 en la posicin ij y cero en las demas posiciones.
o
Ejemplo 1.6. En este ejemplo mostraremos espacios que no poseen base nita.
1. El conjunto R[t] no tiene una base nita, ya que tiene subconjuntos LI de cardinalidad arbitraria. Por ejemplo
el conjunto {1, t, t2 , . . . , tn } es LI para todo n. Adems ningn subconjunto nito de R[t] lo genera concluimos
a
u
que no puede tener una base nita.
Un polinomio p(t) = a0 + a1 t + a2 t2 + + an tn F[t] se puede ver como una funcin de X en R con X R,
o
esto a travs de la evaluacin que a cada x X le asigna el valor que se obtiene al evaluar el polinomio en
e
o
x, es decir, al polinomio lo podemos ver como la funcin:
o
p:
x
donde p(x) = a0 + a1 x + a2 x2 + + an xn R.
p(x)
48
2. El conjunto de funciones {f : X R} con X R no posee una base nita, por el comentario anterior ste
e
conjunto contiene al conjunto de polinomios R[t] y por tanto contiene conjuntos LI de cardinal arbitrario de
los cuales ninguno lo genera.
Cuando un conjunto tiene una base nita, el nmero de vectores en una base es invariante, esto lo mostramos
u
a continuacin.
o
Teorema 1.5. Sea V un espacio vectorial sobre F y sean {v1 , . . . , vk } y {w1 , . . . , wl } subconjuntos de V , si
{v1 , . . . , vk } y {w1 , . . . , wl } son bases para V , entonces k = l. Es decir, todas las bases de V tienen exactamente
el mismo nmero de vectores.
u
Demostracin. Primero supongamos que l > k, como los vectores v1 , . . . , vk forman una base para V , entonces
o
por denicin de base tenemos que V = gen{v1 , . . . , vk } y por tanto para i = 1, . . . , l existen constantes
o
1i , . . . , ki tal que
wi = 1i v1 + + ki vk .
Uniendo estas ecuaciones para i = 1, . . . , l obtenemos:
w1 = 11 v1 + + k1 vk
w2 = 12 v1 + + k2 vk
.
.
.
.
(1.4)
wl = 1l v1 + + kl vk
Consideremos el sistema homogneo de ecuaciones lineales
e
11 x1 + + 1l xl = 0
.
.
.
k1 x1 + + kl xl = 0
Como l > k, este sistema tiene mas variables que ecuaciones y por tanto tiene al menos una solucin no trivial,
o
es decir, exiten constantes no todas nulas 1 , . . . , l tal que
11 1 + + 1l l = 0
.
.
.
k1 1 + + kl l = 0
Entonces tenemos lo siguiente
1 w1 + + l wl = 1 (1l v1 + + kl vk ) + + l (1l v1 + + kl vk )
= (1 11 + + l 1l ) v1 + + (1 k1 + + l kl ) vk = 0
=0
=0
De esto se sigue que el conjunto {w1 , . . . , wl } es LD, lo cual contradice la hiptesis de que este conjunto es una
o
base. Por tanto no se puede dar que l > k
Un razonamiento similar muestra la hiptesis l < k tampoco es posible y por tanto k = l.
o
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
49
Denicin 1.6. Sea V un espacio vectorial con una base nita, denimos la dimensin de V , denotado por
o
o
dim V , como el nmero de elementos en la base. Si el espacio no admite una base nita decimos que es de
u
dimensin innita.
o
Ejemplo 1.7. Del Ejemplo 1.5 obtenemos lo siguiente
1. dim Fn = n
2. dim P2 = 3
3. dim Pn = n + 1
4. dim M22 = 4
5. dim Mmn = mn
Del Ejemplo 1.6 se sigue que el espacio de polinomios con coecientes reales: R[t] y el espacio de funciones
de X R a R: F(X, R) son de dimensin innita.
o
El siguiente resultado ser de mucha utilidad en el resto de la seccin.
a
o
Lema 1.6. Sea V un espacio vectorial y sean v1 , . . . , vn , v V . Si {v1 , . . . , vn } es LI y v gen{v1 , . . . , vn }
/
entonces {v1 , . . . , vn , v} es LI.
Demostracin. Supongamos que {v1 , . . . , vn } es LI y v gen{v1 , . . . , vn } y veamos que {v1 , . . . , vn , v} es LI.
o
/
Para esto supongamos que existen constantes 1 , . . . , n , F tal que
1 v1 + + n vn + v = 0
(1.5)
y veamos que 1 = = k = = 0.
Primero ntese que = 0, ya que si = 0 entonces despejando a v en la Ecuacin (1.5) obtenemos
o
o
v=
n
1
v1
vn gen{v1 , . . . , vn }
lo cual contradice la hiptesis, por tanto = 0 y la Ecuacin (1.5) se reduce a 1 v1 + + n vn = 0, como los
o
o
vectores v1 , . . . , v son LI entonces tenemos que 1 = = k = 0 y se sigue que el conjunto {v1 , . . . , vn , v} es
LI.
El siguiente resultado se sigue del Teorema 1.5 y en su demostracin se puede ver la utilidad del lema
o
anterior.
Teorema 1.7. Sea V un espacio vectorial con dim V = n y sea {v1 , . . . , vm } V un conjunto LI entonces
m n. Es decir, un subconjunto LI de V tiene a lo sumo n vectores.
Demostracin. Si V = gen{v1 , . . . , vm } entonces el conjunto {v1 , . . . , vm } es una base y por el teorema anterior
o
tenemos que m = n.
Si V = gen{v1 , . . . , vm }, como gen{v1 , . . . , vm } es un subespacio de V tenemos que gen{v1 , . . . , vm }
V y
por tanto existe v = vm+1 V tal que vm+1 gen{v1 , . . . , vm }, del lema anterior se sigue que {v1 , . . . , vm , vm+1 }
/
es LI.
Nuevamente tenemos dos posibilidades: V = gen{v1 , . . . , vm , vm+1 } o gen{v1 , . . . , vm , v}
V . En el primer
caso el conjunto {v1 , . . . , vm , vm+1 } es una base de V y n = m + 1 > m. En el segundo caso en el cual existe
v = vm+2 gen{v1 , . . . , vm , vm+1 }, entonces por el lema anterior tenemos que {v1 , . . . , vm , vm+1 , vm+2 } es LI.
/
50
Continuando de esta forma, como dim V es nita, el proceso termina en un nmero nito de pasos encontranu
do vectores vm+1 , . . . , vs tal que el conjunto {v1 , . . . , vm , vm+1 , . . . , vs } es LI y V = gen{v1 , . . . , vm , vm+1 , . . . , vs },
conluyendo de esta forma que el conjunto {v1 , . . . , vm , vm+1 , . . . , vs } es una base de V y por el Teorema anterior
s = dim V = n y por tanto m s = n.
Corolario 1.8. Sea V un espacio vectorial con dim V = n y sea {v1 , . . . , vk } un conjunto LI con k < n entonces
{v1 , . . . , vk } no puede generar a V .
Demostracin. Ejercicio
o
El resto de la seccin lo dedicaremos a mostrar tres teoremas importantes del lgebra lineal: El Teorema
o
a
de la base incompleta, todo espacio vectorial con dimensin nita tiene un base y el Teorema de la dimensin.
o
o
Comenzamos con el siguiente lema que nos ayudar en las demostraciones de estos teoremas.
a
Lema 1.9. Sea V un espacio vectorial con dim V = n y sea {v1 , . . . , vn } V un conjunto LI entonces el
conjunto {v1 , . . . , vn } es una base.
Demostracin. Solo nos resta demostrar que V = gen{v1 , . . . , vn }. Sabemos que gen{v1 , . . . , vn } V , si
o
gen{v1 , . . . , vn } = V entonces existe v V tal que v gen{v1 , . . . , vn } y aplicando el Lema 1.6 tenemos que
/
{v1 , . . . , vn , v} es LI y del Teorema 1.7 se sigue que n + 1 dim V = n, lo cual es absurdo. Concluimos que
V = gen{v1 , . . . , vn } y por tanto el conjunto {v1 , . . . , vn } es una base.
Teorema 1.10. (El Teorema de la base incompleta) Sea V un espacio vectorial con dim V = n y sea
{v1 , . . . , vk } V un conjunto LI con k = n entonces existen vectores vk+1 , . . . , vn tal que {v1 , . . . , vk , vk+1 , . . . , vn }
es una base de V .
Demostracin. Como {v1 , . . . , vk } es linealmente independiente, entonces gen{v1 , . . . , vk } = V ya que si
o
gen{v1 , . . . , vk } = V entonces {v1 , . . . , vk } es una base de V y por el Teorema 1.5 tendriamos que k = n. Por
tanto existe v V tal que v gen{v1 , . . . , vk }, aplicando el Lema 1.6 tenemos que {v1 , . . . , vk , v} es linealmente
/
independiente.
Tomemos vk+1 = v y as tenemos que {v1 , . . . , vk , vk+1 } es linealmente independiente.
Si V = gen{v1 , . . . , vk , vk+1 } entonces el conjunto {v1 , . . . , vk , vk+1 } es una base y terminamos la demostracin, pero si gen{v1 , . . . , vk , vk+1 } = V entonces existe w V tal que w gen{v1 , . . . , vk , vk+1 }, aplicando
o
/
nuevamente el Lema 1.6 tenemos que {v1 , . . . , vk , vk+1 , w} es linealmente independiente.
Hacemos vk+2 = w y tenemos que {v1 , . . . , vk , vk+1 , vk+2 } es linealmente independiente.
Continuando de manera inductiva conseguimos vectores vk+1 , . . . , vn tal que {v1 , . . . , vk , vk+1 , . . . , vn } es LI,
entonces como dim(V ) = n, por el Lema 1.9 tenemos que el conjunto {v1 , . . . , vk , vk+1 , . . . , vn } es una base para
V.
En el siguiente teorema hacemos una demostracin constructiva de que todo espacio vectorial de dimensin
o
o
nita tiene una base, se puede demostrar en general que cualquier espacio vectorial tiene una base, pero para
espacios de dimensin arbitraria la demostracin es no constructiva y se hace uso del Axioma de Eleccin.
o
o
o
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
51
Teorema 1.11. Sea V un espacio vectorial con dim V = n > 0, entonces existen vectores v1 , . . . , vn V tal
que {v1 , . . . , vn } es una base de V .
Demostracin. Sea v V \ {0}, si V = gen{v} entonces {v} es una base de V y terminamos, si no, existe
o
v2 V \ gen{v}. El Lema 1.6 garantiza que el conjunto {v, v2 } es LI ya que v2 gen{v}.
/
Si V = gen{v, v2 } terminamos la demostracin, en caso contrario, tomamos v3 V \gen{v, v2 }. Continuando
o
de manera inductiva obtenemos vectores v1 , . . . , vn tal que H = gen{v, v2 , . . . , vn }.
Como para cada i, el vector vi se toma de forma que vi gen{v, v2 , . . . , vi1 } entonces el Lema 1.6 garantiza
/
que el conjunto {v, v2 , . . . , vi1 , vi } es LI, en particular el conjunto {v, v2 , . . . , vn } es LI y como dim V = n,
concluimos por el Lema 1.9, que este conjunto es una base para V .
Teorema 1.12. (El Teorema de la Dimensin.) Sea V un espacio vectorial con dim V = n y sean W1 y
o
W2 subespacios de V . Entonces
dim(W1 + W2 ) = dim(W1 ) + dim(W2 ) dim(W1 W2 ).
Demostracin. Sea n = dim(V ), r = dim(W1 ), s = dim(W2 ) y t = dim(W1 W2 ). Sea {w1 , . . . , wt } una base
o
para W1 W2 , entonces por el Teorema de la base incompleta, tenemos que existen vectores xt+1 , . . . , xr tal que
{w1 , . . . , wt , xt+1 , . . . , xr } es una base para W1 y existen vectores yt+1 , . . . , ys tal que {w1 , . . . , wt , yt+1 , . . . , ys }
es una base para W2 .
Armacin 1: El conjunto {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } es linealmente independiente.
o
Demostracin: supongamos que
o
1 w1 + + t wt + t+1 xt+1 + + r xr + t+1 yt+1 + + s ys = 0.
(1.6)
52
Armacin 2: El conjunto {w1 , . . . , wt , xt+1 , . . . , xr , yt+1 , . . . , ys } genera a W1 + W2 .
o
Demostracin: Sea w W1 + W2 , entonces existen x W1 y y W2 tal que w = x + y.
o
Como {w1 , . . . , wt , xt+1 , . . . , xr } es una base para W1 , existen constantes 1 , . . . , r tal que
x = 1 w1 + + t wt + t+1 xt+1 + + r xr .
(1.7)
(1.8)
Problemas
Problema 1.4.1. Sea V un espacio vectorial con dim V = n y sea H V un subespacio de V , demuestre que
dim H dim V .
Problema 1.4.2. Sea V un espacio vectorial y sea H V un subespacio de V , demuestre que si dim H = dim V
entonces H = V .
Problema 1.4.3. Sea V un espacio vectorial, {v1 , . . . , vn } V un conjunto LD y sea H = gen{v1 , . . . , vn } V .
Demuestre que existen vi1 , . . . , vik con 1 i1 ik n tal que {vi1 , . . . , vik } es un subconjunto LI y
H = gen{vi1 , . . . , vik }.
Problema 1.4.4. Sea V un espacio vectorial con dim V = n y sean v1 , . . . , vn V , si V = gen{v1 , . . . , vn }
demuestre que el conjunto {v1 , . . . , vn } es una base de V .
Problema 1.4.5. Sea V un espacio vectorial con dim V = n, demuestre que existe un subconjunto nito de V
con n vectores es LI si y slo si genera a V si y slo si es una base de V .
o
o
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
53
1 ,
a.
3
1
1
2
1
1 , 2 , 0
1 ,
b.
1
2
1
3
2
2
0
1
1
1
2
1 , 2 , 7
5
1
2
2
2
3
1.5.
Terminamos el cap
tulo con la denicin de suma directa y las propiedades ms relevantes.
o
a
Denicin 1.7. (Suma Directa) Sean V un espacio vectorial y W1 y W2 subespacios de V , decimos que V
o
es la suma directa de W1 y W2 , lo cual denotamos por V = W1 W2 , si V = W1 + W2 y W1 W2 = {0}.
Los siguientes resultados exhiben condiciones sucientes y necesarias para que un espacio sea suma directa
de dos subespacios.
Teorema 1.13. Sean V un espacio vectorial y W1 y W2 subespacios de V . Entonces V = W1 W2 si y slo si
o
V = W1 + W2 y dim W1 + dim W2 = dim V .
Demostracin. Si V = W1 W2 entonces por denicin tenemos que V = W1 + W2 y por el Teorema de
o
o
la dimensin (Teorema 1.12) tenemos que
o
dim V = dim W1 + dim W2 dim(W1 W2 ) = dim W1 + dim W2 .
=0
54
Teorema 1.14. Sean V un espacio vectorial, W1 y W2 subespacios de V y X y Y bases para W1 y W2 ,
respectivamente. Entonces V = W1 W2 si y slo si X Y es una base para V .
o
Demostracin. Supongamos que V = W1 W2 y sean X = {v1 , . . . , vr } y Y = {w1 , . . . , ws } bases de W1
o
y W2 . Veamos que {v1 , . . . , vr , w1 , . . . , ws } es LI.
Supongamos que
1 v 1 + + r v r + 1 w1 + + s ws = 0
(1.9)
W2
(1.10)
(1.11)
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
55
Ahora veamos que estos vectores son unicos: supongamos que v = w1 +w2 y que v = w1 +w2 con w1 , w1 W1
0 = v v = (w1 w1 ) + (w2 w2 )
que w2 = w2 .
sigue que x = 0.
Problemas
Problema 1.5.1. Sea V un espacio vectorial, {v1 , . . . , vn } una base de V y v V , entonces existen constantes
unicas 1 , . . . , n talque v = 1 v1 + + n vn .
Problema 1.5.2. Demuestre que R2 = gen {(1, 0)} gen {(1, 1)}.
Problema 1.5.3. Demuestre que Mn (R) = Sn (R) An (R), donde Sn (R) = {A Mn (R | At = A} y An (R) =
{A Mn (R | At = A}. (Use el Ejercicio 0.2.14).
Problema 1.5.4. Sea V un espacio vectorial y H1 y H2 subespacio de V tal que V = H1 + H2 , demuestre que
V = H1 H2 si y slo si dim(H1 H2 ) = 0.
o
Problema 1.5.5. Sean H1 y H2 subespacios de un espacio vectorial V , si dim H1 = dim H2 = dim V 1
entonces dim(H1 H2 ) = dim V 2. Deduzca que dos planos en R3 siempre siempre tienen una interseccin no
o
trivial.
Problema 1.5.6. Sean H y K subespacios de un espacio vectorial V , si dim H = dim V 1 y KH entonces
dim(H K) = dim K 1.
Problema 1.5.7. Muestre que todo espacio vectorial de dimensin nita es una suma directa de subespacios
o
vectoriales de dimensin 1.
o
56
Problema 1.5.8. Demuestre que si W es un subespacio de un espacio vectorial V entonces existe un subespacio
Z de V tal que V = W Z
Problema 1.5.9. Probar que si V = W1 Wn , entonces
1. dimV =
n
i=1
dimWi .
n
2
y dim W >
n
2
entonces V W = {0}.
1.6.
Subespacios fundamentales
Terminamos el cap
tulo con el tema de subespacios fundamentales, en la seccin aprenderemos a calcular
o
una base para el espacio nulo de una matriz y una base para el espacio generado por las columnas de una matriz,
llamado el espacio columna. Comenzamos deniendo los subespacios fundamentales.
Denicin 1.8. Sea A una matriz de tamao m n denimos los siguientes subespacios:
o
n
1. El espacion nulo de A, denotado N ul(A), se dene como
N ul(A) = {x Rn | Ax = 0.}
2. El espacio columna, denotado Col(A), se dene como
Col(A) = gen{c1 , . . . , cn },
donde c1 , . . . , cn son las columnas de A.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
57
Se sigue del Ejercicio 1.2.4 que el espacio nulo y el nulo a izquierda de una matriz son subespacios de Fn y
Fm , respectivamente y del Ejercicio ?? se sigue que el espacio columna y el espacio la son tambin subespacios
e
de Fm y Fn , respectivamente.
El propsito ahora es dar un procedimiento que nos permita hallar una base para los subespacios fundamentales.
o
Calcular el espacio nulo de una matriz A es mas sencillo, ya que los vectores x en este espacio son solucin
o
a la ecuacin Ax = 0, el cual se resuelve aplicando Gauss-Jordan a la matriz [ A 0 ] (ver ejemplo abajo). El
o
procedimiento para calcular una base para el espacio columna se sigue del siguiente teorema.
Teorema 1.16. Sea A una matriz de tamao m n y sea A la forma escalonada reducida de A. Entonces los
n
vectores para los cuales la columna de A tiene un pivote, forman una base para Col(A) y por tanto dim Col(A) =
rango(A). Adems se tiene que dim N ul(A) = n rango(A).
a
Demostracin. Sea k = rango(A), sin prdida de generalidad, supongamos que las primeras k columnas de
o
e
A tienen pivote, es decir
1 0 b
1,k+1
. ... . . ...
. .
. .
.
.
A = 0 1 bk,k+1
0 0 0
. . . . .
. .. . .
..
.
. .
0 0
b1n
.
.
.
.
.
.
bkn
0
(1.12)
Sean c1 , . . . , cn las columnas de A, vamos a demostrar que los vectores c1 , . . . , ck forman una base para Col(A).
Primero ntese que los vectores c1 , . . . , ck son linealmente independientes ya que stos forman las primeras
o
e
columnas de A y por tanto la forma escalonada reducida de la submatriz [ c1
ck
las de A y de la Ecuacin (1.12), se obtiene que sta tiene un pivote en cada columna, de esta forma es fcil
o
e
a
ve que los vectores c1 , . . . , ck son linealmente independientes.
Antes de demostrar que estos vectores generan el espacio columna, calculemos una base para el espacio nulo.
58
x1
.
.
.
xn
x1 +b1,k+1 xk+1 ++b1n xn =0
x1
.
.
.
xn
.
.
.
.
.
.
xk =bk,k+1 xk+1 bkn xn
b
.
.
.
.
.
.
.
xk bk,k+1 xk+1 bkn xn
b.kn
= xk+1 bk,k+1 + + xn
si y slo si xk+1 =
o
. (1.13)
xk+1
1
.
0
.
.
.
.
.
.
.
.
.
.
.
si y slo si
o
xn
xn
b1n
b1n
1,k+1
1,k+1
.
.
.
.
.
.
.
.
.
.
.
.
bk,k+1 , . . . , bkn . Ntese adems que los vectores bk,k+1 , . . . , bkn
o
a
Entonces N ul(A) = gen
0
0
1
.
.
.
.
.
.
.
.
.
.
.
1
son claramente LI y por tanto forman una base para N ul(A). De esto se sigue que los vectores c1 , , cn
satisfacen las ecuaciones
1,k+1
.
.
.
1,k+1
.
.
.
= A bk,k+1 = [ c1
1
.
.
.
0
.
.
.
.
.
.
b1n
.
.
b.kn
= A 0 = [ c1
.
.
.
1
.
.
.
cn ] bk,k+1
1
.
.
.
0
b1n
.
.
b.kn
cn ]
0
.
.
.
1
Por el Lema 0.9 tenemos que estas ecuaciones matriciales son equivalentes a las ecuaciones
b1,k+1 c1 bk,k+1 ck + ck+1 = 0
b1n c1 bkn ck + cn = 0
o equivalentemente
o equivalentemente
cn = b1n c1 + + bkn ck
.
.
.
Obtenemos que cada uno de los vectores ck+1 , . . . , cn es una combinacin lineal de los vectores c1 , . . . , ck . Por
o
tanto si x Col(A), obtenemos que
x =1 c1 + + k ck + k+1 ck+1 + + n cn
=1 c1 + + k ck + k+1 (b1,k+1 c1 + + bk,k+1 ck ) + + n (b1n c1 + + bkn ck )
=(1 + k+1 b1,k+1 + + n b1n )c1 + + (k + k+1 bk,k+1 + + n bkn )ck gen{c1 , ck }
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
59
Concluimos que ColA = gen{c1 , . . . , ck }, entonces los vectores c1 , . . . , ck generan a Col(A) y como son linealmente independientes entonces forman una base para Col(A).
Finalmente, observese que dim Col(A) = k = rango(A) y por la Ecuacin (1.13) tenemos que dim N ul(A) =
o
n k = n rango(A).
De este resultado se desprende el siguiente corolario.
Corolario 1.17. Sea A una matriz de tamao m n, entonces
n
dim Col(A) + dim N ul(A) = n = # de columnas de A.
1 1 0 1
2 2 1 4
3 3 1 5
1 1 0 1
0 0 1 2
0 0 1 2
2F1 +F2 F2
2F1 +F3 F3
1 1 0 1
0 0 1 2
0 0 0 0
F2 +F3 F3
entonces por el teorema anterior la primera y tercera columna de A forman una base para el espacio columna
de A, es decir
Col(A) = gen
1
2
3
0
1
1
0
0
0
x1 x2
x1
x2
x3
x4
1
1
0
0
1
1
2
1
x2 x4
x2
2x4
x4
x1 = x2 x4
x3 + 2x4 = 0
+ x4 = 0
= x2
x3 =
1
1
0
0
+ x4
2x4
1
1
2
1
x1
x2
x3
1
1
0
1
0
0
0
0
1
1
1
F1 +F2 F2
F1 +F4 F4
2
2
1
4
1
0
0
0
3
0
1
2
F2 F3
1
0
0
0
2
1
0
2
3
1
0
2
, adems un vector x =
a
x1 + x3 = 0
2
0
1
2
x2 + x3 = 0
x1 = x3
x2 = x3
2F2 +F1 F1
2F2 +F4 F4
x1
x2
x3
x1
x2
x3
1
0
0
0
0
1
0
0
1
1
0
0
x3
x3
x3
1
1
1
El siguiente teorema nos permite calcular bases alternativas para el espacio columna y el espacio la de una
matriz.
Teorema 1.18. Sea A una matriz, entonces tenemos que F ilA = F ilA donde A es la forma escalonada
reducida de A, adems se tiene que dim F ilA = rango(A). Es decir, el espacio la de una matriz coincide con
a
el espacio de su forma escalonada reducida.
60
Demostracin. Sean f1 , . . . , fm las las de A y sean f1 , . . . , fk las las no nulas de A , entonces k = rango(A).
o
Como A se obtiene de A aplicando operaciones elementales de la, las cuales envuelven combinaciones lineales
de las de A, entonces tenemos que fi gen{f1 , . . . , fm }, para i = 1, . . . , k. De esto se deduce que F ilA F ilA.
Ahora, como las operaciones elementales son reversibles y podemos recuperar la matriz A de A por medio
Es fcil ver que los vectores f1 t , . . . , fk t son LI ya que la matriz A est en forma escalonada reducida y los
a
a
pivotes estn en diferentes columnas, por tanto estos forman una base de A, concluimos que dim F ilA = k =
a
rango(A).
Corolario 1.19. Sea A una matriz de tamao m n, entonces rango(A) = rango(At ).
n
Demostracin. De la denicin de espacio la y espacio columna tenemos que F il(A) = Col(At ) y por el
o
o
teorema anterior dim F il(A) = rango(A) y por el Teorema 1.16 tenemos que dim Col(At ) = rango(At ), por
tanto
rango(A) = dim F il(A) = dim Col(At ) = rango(At ).
1 1 0 1
2 2 1 4
3 3 1 5
la matriz del Ejemplo 1.8. En ese ejemplo se calcul que las matrices
o
1 1 0 1
y (At ) =
0 0 1 2
0 0 0 0
0
, v2 = 1 . Se deja como
1
1
0
1
1
0
0
0
0
1
0
0
1
1
0
0
y como Col(A) =
que v1 = c1 2c3 y v2 = c3 , donde c1 y c3 son la primera y tercera columna de la matriz A, lo que verica que
en realidad el espacio generado por v1 y v2 es igual al espacio columna de A.
1
1
0
1
, w2 =
0
0
1
2
lector vericar que w1 = f1 y w2 = 2f1 + f2 donde f1 y f2 son la primera y segunda la de A. Lo que verica
que el espacio generado por w1 y w2 es igual al espacio la de A.
Problemas
Problema 1.6.1. Encuentre los cuatro subespacios fundamentales cada una de las siguientes matrices
1 2
a. A= 2 4
1 2
1 1 2
b. B= 2 2 4
1 9 2
1 2 3 4
c. C= 5 6 7 8
9 10 11 12
Problema 1.6.2. Encuentre una base para el subespacio solucin del sistema lineal
o
a.
2x1 x2 + 3x3
=0
=0
b.
2x1 x2 + 3x3
=0
x1 + x2 x3
=0
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
61
Ayuda: Escriba el sistema en la forma Ax = 0, por el Ejercicio 1.2.4 tenemos que x es solucin al sistema si y
o
slo si x N ul(A).
o
Problema 1.6.3. Sean A y B matrices tal que AB = 0, demuestre que Col(B) N ul(A) y F il(B) N uliz(A).
Problema 1.6.4. Determine las dimensiones de los cuatro subespacios fundamentales de una matriz que satisface:
a. A es 8 7 con rango 5.
b. A es 7 5 con rango 5.
Problema 1.6.8. Si A = 0 0 0 1, cuales de los subespacios N ulA, N ulizA, ColA y F ilA se pueden
0 0 0 0
determinar y que se puede decir de los demas.
1 1 1
Problema 1.6.11. Determine el tamao de A para que dim N ulA = dim N ulizA + 1.
n
Problema 1.6.12. Sea A Mn (R), Nk = N ul(Ak ) y Ck = Col(Ak ), demuestre que para todo k 1 se tiene
que
1. Nk Nk+1
62
2. Ck+1 Ck
3. A(Ck ) = Ck+1 donde A(Ck ) = {Ax | x Ck }.
Problema 1.6.13. Sea A Mmn (F), muestre que b ColA si y slo si Ax = b tiene solucin.
o
o
Deduzca que Col(A) = {Ax | x Rn }. (Este problema muestra que el espacio columna es el espacio solucin
o
a la ecuacin Ax = b).
o
Problema 1.6.14. Sea A Mmn (R) y B Mnq (R), muestre que lo siguiente
1. Col(AB) Col(A) y deduzca que rango(AB) rango(A)
2. Si B tiene inversa a la derecha, en particular si B es invertible, entonces Col(AB) = Col(A). Concluya
que en este caso rango(AB) = rango(B).
Problema 1.6.15. Sea B Mmn (R) y A Mnq (R), muestre que lo siguiente
1. rango(BA) rango(A). (Ayuda: Use el hecho que rango(At ) = rango(B t ).)
2. Si B es invertible entonces rango(BA) = rango(A).
Problema 1.6.16. Sean A Mmn (F), B Mm (R) y C Mn (R) con B y C invertibles, muestre lo siguiente:
1. rango(BAC) = rango(A).
2. Demuestre que el rango es invariante. (Ayuda: Use el
tem anterior y el Problema 0.4.6.)
3. Deduzca que si A Mn (R) entonces
rango(A) = rango(C 1 AC)
Cap
tulo 2
Transformaciones Lineales
Carreta
2.1.
Denicin y Ejemplos
o
En esta seccin se estudiarn funciones entre espacios vectoriales que preservan la estructura, estas funciones
o
a
se llaman tranformaciones lineales, comenzamos con la denicin.
o
begindenition Sean V y W espacios vectoriales y T : V W una funcin, decimos que T es una transo
formacin lineal si satisface:
o
1. T (v + v ) = T (v) + T (v ), para todo v, v V .
2. T (v) = T (v), para todo v V y para todo R.
Observacin 2.1. Como consecuencia de la denicin tenemos que si T : V W es una transformacin
o
o
o
lineal, v1 , . . . , vn V y 1 , . . . , n R entonces
1. T (1 v1 + 2 v2 ) = 1 T (v1 ) + 2 T (v2 ), y en general
2. T (1 v1 + + n vn ) = 1 T (v1 ) + + n T (vn ).
Ejemplo 2.1.
para todo v V y la funcin identidad Id : V V denida por Id(v) = v son transformaciones lineales.
o
2. Si a R, entonces Ta : R R dada por Ta (x) = ax para todo x R, es una transformacin lineal. El
o
grco de Ta es una recta pasando por el origen (0, 0) R2 con pendiente a.
a
n
i=1
ai i , es una transfor-
macin lineal tal que T (ei ) = ai , donde los ei denotan los elementos de la base cannica de Rn .
o
o
63
64
x
o
4. La funcin T : R2 R denida por T = x + y es una transformacin lineal ya que
o
y
x
x
x + x
x
x
= x + x + y + y = (x + y) + (x + y ) = T + T .
T + = T
y
y
y
y + y
y
x
x
x
T = T = x + y = (x + y) = T .
y
y
y
En el siguiente teorema mostramos que la composicin de trasnformaciones lineales tambin es una transo
e
formacin lineal.
o
Teorema 2.2. Sean V, W y Z espacios vectoriales y sean T : V W y S : W Z transformaciones
lineales, entonces S T es una transformacin lineal.
o
Demostracin. Sean v, v V y R,
o
S T (v + v ) = S(T (v + v )) = S(T (v) + T (v )) = S(T (v)) + S(T (v ))
= S T (v) + S T (v )
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
2.1.1.
65
2.1.2.
66
Ejemplo 2.4. Sea A Mmn (F) y T : Fn Fm la transformacin lineal denida por T (x) = Ax entonces
o
tenemos que
Im(T ) = {w Fm | w = T (v) para algn v Fn }
u
= {w Fm | w = A(v) para algn v Fn }
u
= Col(A)
Concluimos que Im(T ) = Col(A).
Problemas
Problema 2.1.1. Determine si la funcin es una transformacin lineal y en los casos armativos, calcule la
o
o
matriz de la transformacin lineal correspondiente.
o
xy
x
.
1. T : R2 R2 denida por T =
x
y
xy
2. T : R2 R3 denida por T = x + 1.
y
y2
y
xy
.
3. T : R4 R2 denida por T =
z
zw
w
xz
x
4. T : R3 R3 denida por T y = y z .
xz
z
x
x z
5. T : R3 R2 denida por T y =
.
yz
z
6. T : Rn Rn1
x
1
denida por T =
xn
x1 xn
x1 + x2 xn
.
.
.
x1 + + xn1 xn
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
67
2
1
0
1
2
3
Problema 2.1.2. Sea T : R R tal que T = 2 y T = 1. Calcule la matriz de T y
1
0
2
2
1
T .
1
Problema 2.1.3. Calcule la matriz de la transformacin que rota el plano 90 y luego proyecta sobre el eje y.
o
Problema 2.1.4. Sea V = F([a, b], R el conjunto de las funciones continuas del intervalo [a,b] en R. Dena
T : V R por T (f ) =
b
a
Problema 2.1.5. Muestre que una funcin T : Rn R es una transformacin lineal si y solamente si existen
o
o
a1 , , an R tales que T (x1 , , xn ) =
n
i=1
ai x i .
Problema 2.1.6. Considere la funcin D : P3 P2 denida por D(a + bt + ct2 + dt3 ) = b + 2ct + 3dt2 .
o
Demuestre que D es una transformacin lineal. Dena esta transformacin lineal de forma general, es decir,
o
o
dena la funcin D :: Pn+1 Pn . Esta transformacin lineal se llama derivacin.
o
o
o
1
Problema 2.1.7. Considere la funcin I : P2 P3 denida por I(a + bt + ct2 ) = at + 2 bt2 + 1 ct3 . Demuestre
o
3
que I es una transformacin lineal. Dena esta transformacin lineal de forma general, es decir, dena la
o
o
funcin I : Pn Pn+1 . Esta transformacin lineal se llama integracin.
o
o
o
el kernel est relacionado con el nulo de la matriz
a
Problema 2.1.8. Calcular el kernel de las transformaciones lineales del Problema 2.1.1.
Problema 2.1.9. Determine cuatro transformaciones lineales de R3 en R3 cuyos ncleos tengan dimensiones
u
0, 1, 2 y 3 respectivamente.
Problema 2.1.10. Demuestre que si T : U V y S : V W son inyectivas entonces T S es inyectiva,
es decir, la composicin de transformaciones inyectivas es inyectiva.
o
Problema 2.1.11. Demuestre que T : Rn Rm es inyectiva entonces existe una transformacin lineal
o
S : Rm Rn tal que S T = id. (Ayuda: Muestre que la matriz de T tiene inversa a izquierda.)
Problema 2.1.12. Sea T : R2 R2 denida por T (x, y) = (y, 0), muestre que = ImT .
Problema 2.1.13. Calcular la imagen de las transformaciones lineales del Problema 2.1.1.
W = (x, y, z, t) R4 : x + y = 0
ker(T ) = V y Im(T ) = W .
68
Problema 2.1.15. Encuentre una transformacin lineal T : R4 R4 tal que: ker(T ) = (1, 0, 1, 0), (1, 0, 0, 1)
o
y Im(T ) = (1, 1, 0, 2), (0, 1, 1, 0) .
Problema 2.1.17. Sea V un espacio vectorial y T : V V una transformacin lineal. Probar que las siguientes
o
condiciones son equivalentes:
1. ker(T ) Im(T ) = 0.
2. Si (T T )(v) = 0 para v V , entonces T (v) = 0.
Problema 2.1.18. Muestre que si T : U V es una transformacin lineal inyectiva, entonces dimV dimU .
o
Problema 2.1.19. Sea A Mn (R), T : Rn Rn denida por T (v) = Av y Ck = Col(Ak ), demuestre que
para todo k 1 se tiene que Im(Ck ) = Ck+1
Problema 2.1.20. Demuestre que composicin de transformaciones sobreyectivas es sobreyectiva.
o
Problema 2.1.21. Si T es sobreyectiva entonces existe una TL S tal que T S = id y muestre que S es
inyectiva.
Problema 2.1.22. Si T : V V es una transformacin lineal y H V es un subespacio, decimos que H es
o
T -invariante si T (H) H. Muestre que ImT y son T -invariantes.
Problema 2.1.23. Si T : V V es una TL y W V es un subespacio T -invariante muestre que T/W :
W W es una TL, donde T/W es la restriccin de T a W .
o
Problema 2.1.24. Sea T : V W una transformacin lineal y H W un subespacio. La imgagen inversa
o
de H se dene como el conjunto
T 1 (H) = {v V | T (v) H}.
Muestre que T 1 (H) es un subespacio.
Problema 2.1.25. Si T : V W y S : W Z son TL con S sobreyectiva entonces Im(T ) = Im(T oS).
(Ayuda:Use el Problema 1.6.14)
Problema 2.1.26. Sean T, S : V V TL, demuestre que Im(T + S) ImT + ImS y concluya que
rango(A + B) rangoA + rangoB.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
2.2.
69
Isomorsmos
Las transformaciones lineales biyectivas (inyectivas y sobreyectivas) se llaman isomorsmos, la palabra isomorsmo proviene de las ra griegas iso:igual y morsmo:forma. En esta seccin veremos como los isomorsmos
ces
o
preservan la estructura de los espacios vectoriales. Comenzamos con la denicin de isomorsmo.
o
Denicin 2.3. Sean V y W espacios vectoriales y T : V W una transformacin lineal, decimos que
o
o
T es un isomorsmo si es una funcin biyectiva. Tambin diremos que V es isomorfo a W si existe un
o
e
isomorsmo entre ellos, lo cual denotaremos V W .
=
Teorema 2.4. Sea T : V W una transformacin lineal entonces su funcin inversa T 1 es tambin una
o
o
e
transformacin lineal.
o
Demostracin. Sean w1 , w2 W , como T es sobre, existen v1 , v2 V tal que w1 = T (v1 ) y w2 = T (v2 ),
o
entonces
T 1 (w1 + w2 ) = T 1 (T (v1 ) + T (v2 )) = T 1 (T (v1 + v2 )) = v1 + v2
= T 1 (w1 ) + T 1 (w2 ).
Ahora, sea F, entonces tenemos
T 1 (w1 ) = T 1 (T (v1 )) = T 1 (T (v1 )) = v1 = T 1 (w1 ).
Por tanto T 1 es lineal.
Ejemplo 2.5. Sea T : Fn Fm la transformacin lineal denida por T (v) = Av con A Mmn (F). Ntese
o
o
que T es invertible si y slo si N ul(A) = {0} y Col(A) = Fm lo que ocurre si y slo si m = n y A es invertible.
o
o
El siguiente teorema muestra como los isomorsmo conservan la estructura de los espacios vectoriales, en
otras palabras, el siguiente teorema justica por que las transformaciones biyectivas son llamadas isomorsmos.
Teorema 2.5. Sean V y W espacios vectoriales, T : V W un isomorsmo, {v1 , . . . , vn } V y v V .
Entonces se tiene lo siguiente:
1. El conjunto {v1 , . . . , vn } es linealmente independiente si y slo si el conjunto {T (v1 ), . . . , T (vn )} es linealo
mente independiente.
2. El conjunto {v1 , . . . , vn } genera a V si y slo si el conjunto {T (v1 ), . . . , T (vn )} genera a W .
o
3. El conjunto {v1 , . . . , vn } es una base para V si y slo si el conjunto {T (v1 ), . . . , T (vn )} es una base para
o
W.
4. dim V = dim W .
70
5. v v1 , . . . , vn si y slo si T (v) T (v1 ), . . . , T (vn ) .
o
Demostracin.
o
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
71
Problemas
1 a
1 a
=
. Demuestre
AB denota el producto usual de matrices y el producto por escalar denido por
0 1
0 1
que V R.
=
1
Problema 2.2.1. Sea V =
0
Problema 2.2.2. Muestre que las siguientes transformaciones lineales de R3 en R3 son invertibles y determine
su transformacin lineal inversa.
o
1. T (x, y, z) = (x 3y 2z, y 4z, z).
2. T (x, y, z) = (x, x y, 2x + y z).
Problema 2.2.3. Sea T : R2 R2 dada por T (x1 , x2 ) = (x1 + x2 , x1 ) para todo (x1 , x2 ) R2 . Probar que T
es un isomorsmo y exhiba T 1 .
Problema 2.2.4. Sea U un espacio vectorial y S, T : U U transformaciones lineales invertibles. Probar que
S T es invertible y (S T )1 = T 1 S 1 .
Problema 2.2.6. Sean V un espacio vectorial de dimensin nita y T : V V una transformacin lineal.
o
o
Suponga que exista S : V V tal que T S = IdV . Demuestre que T es invertible y S = T 1 . De un ejemplo
Problema 2.2.7. Sea T : U V una transformacin lineal inyectiva. Muestre que V tiene un subespacio
o
isomorfo a U .
72
Problema 2.2.8. Sea T : U V una transformacin lineal. Muestre que Im(T ) U/ ker(T ), donde U/ ker(T )
o
=
indica el espacio cociente de U por ker(T ).
Problema 2.2.9. Sea A Mn (R) y T : Mn (R)M (R) la funcin denida por T (X) = AX. Muestre que T es
o
una transformacin lineal y muestre que T es invertible si y slo si A es invertible.
o
o
2.3.
Lo primero que debemos observar es que todo espacio vectorial V de dimensin n sobre F es isomorfo a
o
Fn , el isomorsmo entre V y Fn se construye tomando una base arbitraria de V y notando que, al escribir un
vector como combinacin lineal de los elementos de la base, los coecientes determinan un vector en Fn , al cual
o
llamaremos vector representacin. Esto lo denimos a continuacin.
o
o
n
Denicin 2.4. Sea V un espacio vectorial sobre F y sea X = {v1 , . . . , vn } una base de V , para v =
o
denimos el vector representacin de v en la base X, vX , como el vector
o
i=1
i v i V ,
vX = (1 , . . . , n ).
Ejemplo 2.6. Sea X = {E11 , E21 , E12 , E22 } la base estndar de M22 (F), donde Eij es la matriz 22 con un 1
a
2 3
entonces tenemos que AX = (2, 1, 3, 1).
en la ij-sima entrada y ceros en las dems entradas, y sea A =
e
a
1 1
Por medio de la representacin de un vector en trminos de una base podemos mostrar que un espacio n
o
e
dimensional es isomorfo a Fn .
Teorema 2.7. Sea V un espacio vectorial y X = {v1 , . . . , vn } una base para V , entonces V Rn . Un isomor=
smo entre estos espacios est dado por la funcin RX : V Rn denida por RX (v) = vX , a esta funcin se
a
o
o
le conoce como el isomorsmo representacin en la base X.
o
Demostracin. Veamos que RX es un isomorsmo.
o
RX es lineal: Sean v, w V y R, como {v1 , . . . , vn } es una base para V , existen 1 , . . . , n , 1 . . . , n F
tal que v = 1 v1 + + n vn y w = 1 v1 + + n vn , luego
RX (v + w) = RX (1 v1 + + n vn + 1 v1 + + n vn ) = RX ((1 + 1 )v1 + + (n + n )vn )
= (1 + 1 , . . . , n + n ) = (1 , . . . , n ) + (1 , . . . , n )
= RX (1 v1 + + n vn ) + RX (1 v1 + + n vn )
= RX (v) + RX (w).
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
73
RX (v) = RX ((1 v1 + + n vn ))
= RX (1 v1 + + n vn )
= (1 , . . . , n ) = (1 , . . . , n )
= RX (1 v1 + + n vn )
= RX (v).
RX es inyectiva: Para esto veamos que ker(RX ) = {0}.
Sea v = 1 v1 + + n vn ker(RX ), entonces 0 = RX (v) = (1 , . . . , n ). Entonces 1 = = n = 0
y por tanto v = 0.
La otra inclusin es inmediata ya que T (0) = 0 y por tanto 0 ker(T ).
o
TX , como la
TX = T (v1 )Y
T (v1 )Y .
Ejemplo 2.8. Sea D : R3 [t] R2 [t] la transformacin lineal denida por D(p(t)) = p (t) y sean X =
o
{1, t, t2 , t3 } y Y = {1, t, t2 } bases de R3 y R2 , respectivamente. Ntese que la imagnes de los vectores de la base
o
e
X y sus representaciones en la base Y son las siguientes:
D(1) = 0
D(t) = 1
Se sigue que
DX = 0 0
Y
0 0
D(t3 ) = 3t2
0 1
D(t2 ) = 2t
0 0
2 0 .
0 3
74
Ejemplo 2.9. Sea T : R2 [t] R3 [t] denida por T (a0 + a1 t + a2 t2 ) = a0 t + a1 t2 + a2 t3 y sean X = {1, t, t2 , t3 }
y Y = {1, t, t2 } bases de R2 [t] y R3 [t], resepectivamente. Entonces tenemos que
T (1) = t
por tanto
T (1)X = (0, 1, 0, 0)
por tanto
T (t)X = (0, 0, 1, 0)
por tanto
T (t2 )X = (0, 0, 0, 1)
T (t) = t
T (t2 ) = t3
Se sigue que
X TY
= T (1)X
T (t2 )X
T (t)X
0 0
1 0
=
0 1
0 0
0
.
tem 1.
Demostracin.
o
.
.
.
= Y TX v X
2. Sea A Mmn F tal que T (v)Y = AvX para todo v V . En particular para i = 1 . . . , n se tiene que
T (vi )Y = A(vi )X .
Pero (vi )X = ei = (0, . . . , 1 , . . . , 0), entonces T (vi )Y = A(vi )X = Aei = isima columna de A. Por
e
i
tanto
A = [T (v1 )Y T (vn )Y ] = Y TX .
Ejemplo 2.10. Sea T : R2 [t] R3 [t] denida por T (a0 + a1 t + a2 t2 ) = a0 t + a1 t2 + a2 t3 y sean X y Y las
bases denidas en el ejemplo anterior, en ese mismo ejemplo vimos que
X TY
0
1
0
0
0
0
1
0
0
0
0
1
2
0
1
0
2
0
1
0
1
0
0
0
0
1
0
0
0
0
1
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
75
T )X = Z SY Y TX ,
TX tenemos que
1 0
(D T )Y = Y DX X TY = 0 2
0 0
0 .
De esto se deduce que D T (1) = 1, D T (t) = 2t y D T (t2 ) = 3t2 , lo cual es fcil de vericar al aplicar la
a
composicin.
o
Tambin se sigue que
e
X (T
D)X = X TY Y DX
0
=
0 0
1 0
0 2
0 0
0
.
Del Teorema 2.8 obtenemos que el conjunto de transformaciones lineales L(V, W ) de V en W con V y W de
dimensiones n y m, respectivamente, est en correspondencia uno a uno con el conjunto de matrices Mm,n (R),
a
la correspondencia depende de la escogencia de bases X de V y Y de W
L(V, W )
Mm,n (R)
A = X TY
T (v)Y = AvX
76
la imagen de la transformacin, tambin para determinar si una transformacin lineal es inyectiva, si es sobre,
o
e
o
si es biyectiva, tambin usaremos la correspondencia para demostrar ciertas propiedades importantes de las
e
transformaciones lineales.
2.4.
Cambio de Base
Y IX
= [(v1 )Y . . . (vn )Y ] .
Ntese que esta es exactamente la matriz de la transformacin identidad con respecto a las bases X y Y .
o
o
Proposicin 2.10. Si V un espacio vectorial sobre F de dimensin nita n y sean X = {v1 , . . . , vn } y Y bases
o
o
de V entonces tenemos que
1.
Y IX vX
2.
Y IX
= vY para todo v V ,
tem anterior.
Demostracin. La matriz
o
Y IX
Teorema 2.8.
Ejemplo 2.12. Sea X = {p1 = 1 + t, p2 = 1 t2 , p3 = 1 + t + t2 } y Y = {1, t, t2 } bases de R2 [t] entonces
tenemos que
Y IX
0 1
1 .
2
2
1
1 1
pY = Y I X pX = 1
0 1 1 = 1 .
2
1
0 1 1
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
77
Ejemplo 2.13. En realidad la matriz de de base es una matriz de cambio coordenadas, considere por
cambio
de
1
2
0
1
ejemplo las bases E = e1 = , e2 = and X = v1 = , v2 = bases de R2 , en la siguiente
2
1
1
0
gura vemos los dos pares de ejes coordenados y un vector w en trminos de ambas bases
e
w
w
v2
v1
e2
e1
E IX
= [(v1 )E (v2 )E ] =
2 1
1
2
Como se ve en la gura el vector w = 2v1 + v2 tiene coordenadas en esta base wX = , por tanto el vector
1
w tiene coordenadas estndar dadas por
a
3
2
2 1
= .
w = wE = E I X wX =
4
1
1
2
Esto se verica facilmente de la gura ya que las coordenadas del vector w en trminos de la base E son (3,4).
e
Otras propiedades importantes de la matriz de cambio de base son las siguientes:
Proposicin 2.11. Sea V un espacio vectorial y sean X, Y y Z bases de V , entonces tenemos lo siguiente:
o
1. La matriz de cambio de base
2.
Z IY
IX es invertible y (Y IX )1 = X IY .
Y IX = Z IX
Demostracin.
o
= X IY vY = vx
=vY
X IY Y IX
= I y por tanto (Y IX )1 = X IY .
78
2. En este caso tenemos que para v V arbitrario
Z IY
Y IX vX = Z IY vY = vz ,
Esta ultima proposicin nos da el siguiente procedimiento fcil para calcular la matriz de cambio de base.
o
a
Procedimiento 2.1. Si X = {v1 , . . . , vn } y Y = {w1 , . . . , wn } son bases de un espacio vectorial V y si
E = {e1 , . . . , en } es cualquier base de V (por ejemplo una base estndar) entonces hacemos lo siguiente:
a
1. Sea A = [ (v1 )E (vn )E ] la matriz formada por los vectores de la base X representados trminos en la
e
base E y B = [ (w1 )E (wn )E ] la matriz formada por los vectores de la base B representados trminos
e
en la base E, es decir, A = E IX y B = E IY .
2. De acuerdo a la proposicin anterior tenemos que
o
= Y IE E IX = B 1 A.
1
1
1
3
Ejemplo 2.14. Sean X = v1 = , v2 = y Y = w1 = , w2 = , calcule la matriz de
2
1
1
1
cambio de base de X a Y .
Y IX
Solucin. Las matrices de cambio de base a la base estndar estn dadas por
o
a
a
3
1
1 1
.
y B = [ (w1 )E (w1 )E ] = [ w1 w2 ] =
A = [ (v1 )E (v1 )E ] = [ v1 v2 ] =
1 1
1 2
2 3
.
Un calculo fcil muestra que Y IX = B 1 A = 1
a
4
2
5
As por ejemplo, el vector v = 3v1 + 2v2 que en la base X est dado por v = (3, 2), en la base Y est dado
a
a
por
se sigue que v = w2 .
1 2 3 3 0
,
=
vY = Y IX vX =
4 2
1
2
5
La siguiente proposicin es similar a la Proposicin 2.11 y tambin nos da un procedimiento para calcular
o
o
e
la matriz de una transformacin con respecto a dos bases.
o
Proposicin 2.12. Sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases de espacios vectoriales V y W , respectio
vamente, y sea T : V W una transformacin lineal. Si A = [ (v1 )F (vn )F ] la matriz formada por los
o
vectores de la base X representados en trminos en una base estndar F de V y B = [ (w1 )E (wm )E ] la
e
a
matriz formada por los vectores de la base Y representados en trminos de una base estndar E de W , es decir,
e
a
A = F IX y B = E IY , entonces tenemos que
Y
TX = Y IE E TF F IX = B 1 E TF A.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
79
E TF F IX vX = Y IE E TF vF = Y IE T (v)E = T (v)Y .
Por la propiedad de unicidad de la matriz de la transformacin enunciada en la Proposicin 2.8 tenemos que
o
o
Y
TX = B 1 E TF A.
Ejemplo 2.15. Sea D : R3 [t] R2 [t] la transformacin derivacin D(p(t)) = p (t), denida en el Ejemplo
o
o
2.8. Sean F = {1, t, t2 , t3 } y E = {1, t, t2 } las bases estndar de R3 [t] y R2 [t], respectivamente. Sean X = {x1 =
a
DX .
E DF
0 1
= 0 0
0 0
1 1 0 0
1 1 1 0
1 0 1 1
0 0 0 1
0 0
2 0 .
0 3
1 1 1
1 0 1
0 1 1
1 1
1
3
1
3 2 .
Y DX = B
E DF A = 1 1
1
1 3 1
Esta matriz es util para hacer clculos directamente con las bases X y Y , por ejemplo, si v = 2x1 + x3 + 2x4
a
entonces tenemos que
D(v)Y = Y DX vX =
1 1 1 3
1 1 3 2
1 1 3 1
2
0
1
2
9
3
3
TY = A1 X TX A.
esto signica que las matrices de una transformacin con respecto a bases distintas son similares.
o
80
Ejemplo 2.16. Sea D : R2 [t] R2 [t] la transformacin derivacin D(p(t)) = p (t). Es fcil ver que la matriz
o
o
a
de D con respecto a la base E = {1, t, t2 } est dada por
a
E DE
0 1 0
0 0 2
0 0 0
Sea F = {p1 = 1 t t2 , p2 = 1 + t, p3 = 1} una base de R2 [t], la matriz de cambio de base de est dada por
a
A = E IF =
1 1 1
1 1 0
1 0 0
0 0 0
1
F DF = A
E DE A = 2 0 0 .
1 1 0
0
2
1
, D(p2 )F =
0
0
1
y D(p3 )F =
0
0
0
D(p2 ) = D(1 + t) = 1 = p3
D(p3 ) = 0.
El siguiente resultado que muestra como se puede usar la matriz de una transformacin para calcular el
o
kernel y la imagen.
Teorema 2.14. Sean V y W espacios vectoriales sobre un campo F, T : V W una aplicacin lineal,
o
X = {v1 , . . . , vn } y Y = {w1 , . . . , wm } bases de V y W , respectivamente y A = Y TX la matriz de T con respecto
2.
w ImT si y slo si w = T (v) para algn v V
o
u
si y slo si wY = T (v)Y = Y TX vX = AvX para algn v V
o
u
si y slo si RY (w) = AvX para algn v V
o
u
si y slo si RY (w) ColA si y slo si w RY 1 (ColA).
o
o
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
Ejemplo 2.17. En el ejemplo anterior tenemos que A = E DE =
ColA = gen
1
0
0
Como RX (1) =
0
1
0
1
0
0
81
0 1 0
0 0 2
0 0 0
1
0
0
.
y RX (t) =
0
1
0
se tiene que
1
ker D = Rx (N ulA) = gen{1}
1
ColD = Rx (ColA) = gen{1, t}.
2.5.
Terminamos el cap
tulo con un resultado que ser muy util en los Cap
a
tulos 3 y 4.
Teorema 2.16. Sea V un espacio vectorial, W1 y W2 subespacios de V y T : V V una transformacin
o
lineal. Si H1 y H2 son T invariantes y V = W1 W2 entonces Im(T ) = T (W1 ) T (W2 ).
Ms an, si X1 y X2 son bases de W1 y W2 , respectivamente, y X = X1 X2 entonces
a u
A 0
X TX =
0 B
o
donde A = X1 (T /W1 )X1 es la matriz de la restriccin de T a W1 con respecto a la base X1 y B = X2 (T /W2 )X2
es la matriz de la restriccin de T a W2 con respecto a la base X2 .
o
Demostracin. la primera parte ntese que si w Im(T ), entonces existe v V tal que T (v) = w, y por
o
o
hiptesis, existen v1 W1 y v2 W2 unicos, tal que v = v1 + v2 . Por tanto
o
ij vj
T (vi ) =
j=1
kh wh
T (wk ) =
h=1
para
i = 1, . . . , r y k = 1, . . . , s.
(2.1)
82
Se sigue entonces que
X TX
11
.
.
.
k1
=
.
.
.
0
..
.
1r
.
.
.
0
.
.
.
..
.
kr
..
.
0
.
.
.
11
.
.
.
..
.
s1
0
.
.
.
0
A 0
=
.
1s
0 B
.
.
.
ss
Problemas
Problema 2.5.1. Seai T : V V es una transformacin lineal tal que T 2 = T , demuestre lo siguiente
o
1. V = Im(T ) ker(T ).
2. Si existe tal que T (v) = v para algn v V entonces = 0 o = 1
u
3. La imagen de T es el conjunto de puntos jos de T , es decir, ImT = {v V | T (v) = v}.
Problema 2.5.2. Demuestre que si P es una matriz proyeccin, es decir, si P 2 = P y P = I entonces
o
det P = 0.
Problema 2.5.3. Si T : V W es un isomorsmo y V = H1 H2 entonces W = T (H1 ) T (H2 ).
Problema 2.5.4. Sea T : V V una aplicacin lineal, demuestre que existe k > 0 tal que V = Im(T k )
o
Ker(T k ).
Problema 2.5.5. Sea T : V V una aplicacin lineal, si ImT = Im(T 2 ) entonces ImT N ulT = {0} y
o
V = ImT KerT .
Problema 2.5.6. Sea T : V V una TL con V = W1 W2 , si W1 , W2 son T -invariantes demuestre que T
es un isomorsmos si y slo si T/W1 y T/W2 son isomorsmos.
o
Cap
tulo 3
3.1.
Polinomio Caracter
stico
Denicin 3.1. Sea A una matriz de tamao nn, decimos que es un valor propio de A si existe un vector
o
n
v tal que Av = v. En este caso decimos que v es un vector propio de valor propio .
Si es un valor propio de una matriz A y v es un vector propio de valor propio entonces se tiene que la
Av = v = Iv o equivalentemente (A I)v = 0. Esto es, v N ul(A I) y por tanto det(A I) = 0. Esta
ultima ecuacin produce un polinomio en trminos de y es llamado el polinomio caracteristico de A.
o
e
Teorema 3.1. Sea A una matriz de tamao nn, entonces es un valor propio si y solo si det(A I) = 0.
n
Demostracin. es un valor propio si y solo si existe v = 0 tal que Av = v si y solo si existe v = 0 tal que
o
Av = Iv si y solo si existe v = 0 tal que Av Iv = 0 si y solo si existe v = 0 tal que (A I)v = 0 si y solo
si A I no es invertible si y solo det(A I) = 0.
A continuacin denimos el polinomio caracter
o
stico de una matriz, este polinomio contiene informacin
o
importante de la matriz, en particular sus ra
ces son los valores propios.
Denicin 3.2. Sea A una matriz de tamao nn, denimos el polinomio caracteristico pA (x) de A por
o
n
pA (x) = det(A xI).
83
84
Del teorema anterior se deduce el siguiente procedimiento para calcular los valores y vectores propios de una
matriz A.
Procedimiento 3.1. (Procedimiento para calcular los valores y vectores propios)
1. Calcular el polinomio caracteristico pA (x) = det(A xI),
2. Resolver la ecuacin pA (x) = 0, cuyas soluciones son los valores propios de la matriz.
o
3. Para cada valor propio encontrado en en el paso anterior, calcular una base para N ul(A I). Los
vectores en dicha base son vectores propios de valor propio .
4 5
calcular los valores y vectores propios de A.
Ejemplo 3.1. Sea
2 3
El polinomio caracteristico de A, est dado por
a
4x
5
= x2 x 2
pA (x) = det(A xI) = det
2
3 x
Ahora resolvemos pA (x) = (x 2)(x + 1) = 0 cuyas soluciones son = 2 y = 1.
2 5
, cuya forma escalonada
Ahora calculamos N ul(A I) con = 2. Esto es, N ul(A 2I) = N ul
2 5
1 5
2
reducida es
. De esto tenemos que
0 0
5
5
x
x
2 y
N ul(A 2I) si y solo si x = 5 y si y solo si =
= y 2
2
y
1
y
y
5
reducida es
1 1
5
2
5
, cuya forma escalonada
2
1
y
x
x
N ul(A + I) si y solo si x = y si y solo si = = y
1
y
y
y
1
Entonces v = es un vector propio de valor propio = 1.
1
En el ejemplo anterior se puede ver que los vectores propios encontrados son linealmente independientes, esto
no es una casualidad, de hecho vectores propios correspondientes a valores propios distintos son linealmente
independientes.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
85
Teorema 3.2. Sea A una matriz de tamao nn y sean v1 , . . . , vk vectores propios con valores propios
n
1 , . . . , k , respectivamente. Si los i son diferentes entre si entonces los vectores v1 , . . . , vk son linealmente
independientes.
Demostracin. Por induccin sobre k
o
o
Para k = 2, supongamos que
1 v 1 + 2 v 2 = 0
(3.1)
2 v 2
1 1 v1 + 2 2 v2 = 0.
(3.2)
(3.3)
Restando la Ecuacin (3.3) de la Ecuacin (3.2) tenemos que 2 (1 2 )v2 = 0, como 1 = 2 entonces
o
o
1 2 = 0 y como v2 = 0 entonces 2 = 0, reemplazando este valor en la Ecuacin (3.1) tenemos que 1 v1 = 0
o
y como v1 = 0 entonces 1 = 0 y por tanto v1 y v2 son linealmente independientes.
Supongamos por induccin que k 1 vectores propios correspondientes a k 1 valores propios distintos son
o
linealmente independientes y supongamos que
1 v1 + + k vk = 0,
(3.4)
k vk
1 1 v1 + + k k vk = 0.
(3.5)
(3.6)
=0
86
Denicin 3.3. Sea A una matriz de tamao nn, al conjunto
o
n
E = {v : Av = v}
se le llama el subespacio propio de valor propio .
Observacin 3.1. Ntese que E = N ul(A I) y por tanto E es un subespacio de Rn .
o
o
5
1
Ejemplo 3.2. En el Ejemplo 3.1 tenemos que E2 = 2 y E1 = .
1
1
5
6
9
0
0
2
Solucin. Usando MatLab o Mupad encontramos que el polinomio caracter
o
sitco de A est dado por pA =
a
x3 3x2 + 4 = (x + 1)(x 2)2 . Por tanto los valores propios son 1 = 1 de multiplicidad 1 y 2 = 2 de
multiplicidad 2.
Nuevamente usando paquetes computacionales tenemos que los subespacios propios son E1
y E2 = gen 1 , 0
0
1
= gen 1
A cada valor propio de una matriz le podemos asociar dos invariantes: la multiplicidad algebraica y la
dimensin del subespacio propio E , estos dos valores tienen gran importancia porque nos permiten decidir
o
cuando una matriz es o no diagonalizable, concepto que estudiaremos en la Seccin 3.4.
o
Denicin 3.4. Sea A una matriz de tamao nn, pA (x) el polinomio caracter
o
n
stico y sean 1 , . . . s los valores
propios de A,
1. Decimos que la multiplicidad algebrica de i , es k si (x i )k es la mxima potencia de x i que divide
a
a
a pA (x). La multiplicidad algebraica de ser denotada por a .
a
e
a
2. La multiplicidad geomtrica de i esta dada por dim Ei . La multiplicidad geomtrica de ser denotada
e
por g .
Ejemplo 3.4. En el ejemplo anterior tenemos que a1 = 1 = g2 y a2 = 2 = g2 .
Ejemplo 3.5. En el Ejemplo 3.1 tenemos que a1 = g1 = 1 y a2 = g2 = 1.
Ejemplo 3.6. Calcular la multiplicidad algebraica y geomtrica de cada uno de los valores de la matriz
e
3 1
0
0
1
3
0
0
.
A=
7 1 4
0
7 1
0 4
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
87
1/2
1/2
0 0
1/2
1/2
y E4 =
y por tanto las
Los subespacios propios son E4 = gen , , E2 =
1 0
1/2
1/2
0
1/2
1/2
Ntese que en este ejemplo se tiene que los valores propios tienen multiplicidad geomtrica y algebrica
o
e
a
iguales.
Hasta ahora solo hemos visto ejemplos donde los valores propios tienen multiplicidad geomtrica y algebraica
e
iguales, pero esto no siempre se cumple, de hecho es posible que la multiplicidad geomtrica sea estrictamente
e
menor que la multiplicidad algebrica, a continuacin damos ejemplos donde esto sucede. La multiplicidad
a
o
algebraica nunca puede ser menor que la geomtrica, ver Teorema 3.4.
e
Ejemplo 3.7. Calcular las multiplicidades algebrica
a
A= 1
2
1
6
1 .
2 3
a
2
El subespacio propio E4 tiene base dada por 1 , 0 , lo cual muestra que g3 = 2 < 3 = a3 .
0
1
Ejemplo 3.8. Calcular las multiplicidades algebrica y geomtrica de los valores propios de la matriz
a
e
4 1
1
A = 0 5
1 .
1
0 3
est dada por 1 . Por tanto g3 = 1 < 3 = a3 .
a
88
1 2 2
4 1 3
Solucin. El polinomio caracter
o
stico de esta matriz es el polinomio pA (x) = x3 x2 + x 1 = (x 1) (x2 + 1)
De aqui deducimos que los valores propios 1 = 1,2 = i y 3 = i. los respectivos vectores propios son
son
1/3
3/5 1/5i
3/5 + 1/5i
v1 = 2/3 de valor propio = 1, v2 = 3/5 1/5i de valor propio = i y v3 = 3/5 + 1/5i de valor
1
1
1
propio = i.
3.2.
Matrices Similares
Denicin 3.5. Sean A y B matrices de tamao nn, decimos que A y B son similares si existe una matriz
o
n
invertible C tal que A = CBC 1 . Escribiremos A B para denotar que A y B son similares.
1
3 0
2 1
son similares, ya que si tomamos C =
y B =
Ejemplo 3.10. Las matrices A =
1
0 1
1 2
entonces tenemos que A = CBC 1 .
1
= det(A xI)
det(C)
= pA (x).
Denicin 3.6. Sea A una matriz de tamao nn, decimos que A es diagonalizable si existe una matriz
o
n
diagonal D tal que A D.
la matriz diagonal
3
0
0
.
1
2
1
1
es diagonalizable ya que en el Ejemplo 3.10 vimos que A es similar a
2
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
89
El Teorema 3.3 nos permite ver de manera fcil que no todas las matrices son diagonalizables, como se
a
muestra a continuacin.
o
1
no es diagonalizable. Por el absurdo supongamos que existe
1
a 0
.
una matriz D diagonal tal que A D, supongamos que D =
0 b
Ntese que los valores propios de A son = 1 con multiplicidad 2 y los valores propios de D son = a y
o
1
Ejemplo 3.12. Veamos que la matriz A =
0
= b. Como A D, entonces por el Teorema 3.3 A y D tienen los mismos valores valores propios, por tanto
a = b = 1, entonces D = I.
Finalmente, como A D, existe una matriz invertible C tal que A = CDC 1 por tanto
1 1
0 1
= A = C D C 1 = CIC 1 = I =
=I
1
0
De esta igualdad se debe dar que 1 = 0, lo que es absurdo. Concluimos que A no es diagonalizable.
la matriz identidad tienen los mismos valores propios, sin embargo no son similares.
1 1
0 1
En los ejemplos de la seccin anterior vimos que la multiplicidad geomtrica de de los valores propios es
o
e
menor o igual a la multiplicidad algebraica, esto es cierto en general.
Teorema 3.4. Sea A una matriz de tamao nn y sea un valor propio de A, entonces g a , es decir,
n
multiplicidad geomtrica de multiplicidad algebra de .
e
ca
Demostracin. Sea un valor propio de A, Como es un valor propio, entonces existe v = 0 tal que Av = v
o
y por tanto E = 0.
Supongamos que dim E = k y sean v2 , . . . , vk tal que {v, v2 , . . . , vk } es una base para E , entonces
Avi = vi para i = 1, . . . , k. Ahora sean wk+1 , . . . , wn tal que {v, v2 , . . . , vk , wk+1 , . . . , wn } es una base para Rn
y sea
S= v
v2
...
vk
wk+1
...
y se tiene que
I = S 1 S = S 1 v
= S 1 v
v2
S 1 v2
vk
wk+1
S 1 vk
wn
S 1 wk+1
S 1 wn ,
de donde S 1 v = e1 , S 1 v2 = e2 , . . . , S 1 vk = ek .
Ahora denamos B = S 1 AS, entonces como A y B son similares, por el teorema anterior tenemos que
90
pA (x) = pB (x) y la matriz B tiene la siguiente forma:
B = S 1 AS = S 1 A v
Av
=S
Avk
v
v 2
S 1 v
S 1 v2
S 1 v
Av2
= S 1
v2
v k
= e1
e2
e2
Awn
Awk+1
Awn
S 1 Awk+1
S 1 Awn
ek
S 1 Awk+1
ek
S 1 Awk+1
.
.
.
0
=
.
.
.
0
wn
S 1 vk
donde R = S 1 Awk+1
Awk+1
S 1 vk
S 1 v2
e1
wk+1
S 1 vk
S 1 v2
1
= S v
vk
..
.
0
.
.
.
..
.
0
.
.
.
S 1 Awn
.
.
.
0
B=
.
.
.
0
..
.
0
.
.
.
..
.
0
.
.
.
S 1 Awn
R1
R2
R1
R2
3.3.
Cambio de Base
El objetivo de esta seccin es demostrar que si A B entonces las matrices estn relacionadas por un cambio
o
a
de coordenadas (cambio de base), para llegar a esto debemos denir cambio de coordenadas.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
91
Denicin 3.7. Sean X = {x1 , . . . , xn } y Y = {y1 , . . . , yn } bases para Rn , denimos la matriz del cambio de
o
base (o cambio de coordenadas) de la base X a la base Y como la matriz.
Y IX
= (x1 )Y (xn )Y .
1
1
0
1
a
Ejemplo 3.13. Sea E = e1 = , e2 = la base estndar de R2 y sea X = x1 = , x2 =
1
1
1
0
entonces la matriz E IX est dada por
a
1
1
.
(x2 )E = x1 x2 =
E IX = (x1 )E
1 1
entonces vX
(3.7)
1
.
= . , y como Y es una base, para 1 i n, existen constantes 1i , . . . , ni tal que
.
n
xi = 1i y1 + + ni yn ,
1i
.
luego (xi )Y = . , por tanto
.
ni
Y IX
= (x1 )Y
(xn )Y
11
.
= .
.
n1
..
.
1n
.
.
.
nn
v = 1 x 1 + + n x n
= 1 (11 y1 + + n1 yn ) + + n (1n y1 + + nn yn )
= (1 11 + + n 1n )y1 + + (1 n1 + + n nn )yn
luego
1 11 + + n 1n
11
.
.
vY =
= .
.
.
1 n1 + + n nn
n1
..
.
IX
1
1n
. .
. . =Y IX v Y .
. .
n
nn
vY
(3.8)
92
2
1
Ejemplo 3.14. Considere las bases X = x1 = , x2 = y Y =
1
0
v = 2x1 + 3x2 , expresar a v en trminos de la base Y .
e
Y IX
. Ahora, como vX
1
2
= , entonces
3
v Y =Y IX v X
Es decir, v = 8y1 5y2 .
4
3
y1 = , y2 = de R2 y
1
1
y (x2 )Y =
, de donde
8
2
= .
=
5
3
1 1
1
La dicultad que a menudo se encuentra al usar este procedimiento es en el clculo de la matriz de cambio
a
de base
Y IX ,
la cual, en este ejemplo, fue fcil calcular. El siguiente teorema nos dar una forma efectiva de
a
a
yn . Entonces
Y IX
= B 1 A.
xn y B =
(3.9)
xn = 1n y1 + nn yn
1n
11
.
.
Entonces (x1 )Y = . , . . . , (xn )Y = . y por tanto
.
.
nn
n1
11 1n
.
.
..
. .
.
Y IX = .
.
.
n1 nn
De la Ecuacin (3.9) tenemos que
o
x1
11 n1
y1
. .
. .
..
. . .
. = .
.
. .
. .
xn
1n nn
yn
Transponiendo, obtenemos
x1
=A
x n = y1
=B
yn
11
.
.
.
n1
..
.
=Y IX
1n
.
. ,
.
nn
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
por tanto A = B
Y IX ,
93
= B 1 A.
De este teorema se sigue un procedimiento para calcular la matriz del cambio de base, el cual damos a continuacin.
o
1
2
1
1
Ejemplo 3.15. Considere las bases X = x1 = , x2 = y Y = y1 = , y2 = de R2 ,
0
1
1
1
1
calcular Y IX y vY si vX = .
1
1
1
1
1
1
1
Ejemplo 3.16. Considere las bases X = 1 , 2 , 2 y Y = 2 , 1 , 1 de R3 . Calcular la
1
3
3
2
1
2
matriz de cambio de base Y IX y calcular vY si v = 2x1 x2 + x3 .
Solucin. Denimos A = x1
o
x 3 y B = y1
x2
y2
y3 , entonces
Y IX
2
6
Ahora, para el calculo de vY , tenemos que vX = 1 y vY =Y IX vX = 15
1
5
Entonces tenemos que v = 6y1 + 15y2 5y3 .
= B 1 A = 1
5
5
8 .
Y IX
= (X IY )1
2.
Z IX
= Z I Y Y I X
Demostracin. 1. Sean A = x1
o
B 1 A y
X IY
= A1 B, por tanto
(X I Y )
2. Sea C = z1
C 1 A, entonces
x n , B = y1
= A1 B
Z IX
= B 1 A =Y IX .
Y IX
Y IX
= C 1 A = C 1 BB 1 A =Z IY Y IX .
= B 1 A,
Z IY
= C 1 B y
94
x n y B = y1
...
TX = B 1 T (x1 )
...
yn , entonces
T (xn ) ,
ms an
a u
Y
TX = B 1 E TE A.
En palabras el teorema dice que la matriz de T con respecto a las bases X y Y es el producto de las matrices la
inversa de la matriz de Y , la matriz de T y la matriz de X.
Demostracin.
o
X TY
= T (x1 )Y
=
Y IE T (x1 )
= B 1
T (xn )Y =
E TE x 1
Y IE T (xn )
E TE x n
Y IE T (x1 )E
Y IE T (xn )E
= Y IE T (x1 )
T (xn )
= B 1 E TE x1
xn
= B 1 E TE A
2x y
x
, sean X =
Ejemplo 3.17. Sea T : R2 R2 la transformacin lineal dada por T =
o
x+y
y
1
1
2
1
1
x1 = , x2 = y Y = y1 = , y2 = bases de R2 , calcular Y TX y T (v)Y si vX =
1
1
1
0
1
2 1
y as
T (x1 ) =E TE x1 =
T (x2 ) =E TE x2 =
Entonces
TX = y1
y2
T (x1 )
T (x2 ) =
2
1
1
1
=
2
1
1
2 1
3
= .
0
1
1
2 1
1
1
1
1
2
0
2 0
3
.
=
5 3
0
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
Finalmente, tenemos que:
T (v)Y =Y TX vX =
2
5
95
2
1
0
= .
8
1
3
x + y + 3z
2x + y 2z
3
4
y sean
Ejemplo 3.18. Considere la tranformacin T : R R denida por T y =
o
x + 2y + z
z
x y + 2z
1
1
1
1
1
1
2
2
1
1
1
, y2 = , y3 = , y4 = bases de R3
X = x1 = 1 , x2 = 2 , x3 = 2 y Y = y1 =
1
1
3
2
1
4
3
2
1
y R4 , respectivamente. Calcular la matriz Y TX y T (v)Y si v = x1 x2 + x3 .
1 1 1 1
2
1
1
2 1 1 1
3 2 1 1
1 2
3
4 3 2 1
1
1
3
3
11 14
2
5 16
1 2
20
8 5
2
1
1
1 1
2
12
7
1
28
41
.
Finalmente, multiplicamos Y TX por vX = 1, lo que nos da T (v)Y =
1
6
Finalizamos la seccin con la siguiente observacin, en la cual muestra que las matrices de una transformacin
o
o
o
X TX
E TE
X TX
= A1 E TE A,
o equivalentemente
E TE
donde A = x1
3.4.
= A X TX A1
xn .
Diagonalizacin
o
En esta seccin se darn condiciones sucientess y necesarias para que una matriz sea diagonalizable, coo
a
menzamos con el siguiente resultado.
96
Teorema 3.9. Sea A una matriz de tamao nn, entonces A es diagonalizable si y solo si A tiene n vectores
n
1 0 0
0 2 . . . 0
vn .
Demostracin. Supongamos que A es diagonalizable, entonces existe una matriz D diagonal y una
o
matriz invertible C tal que A = CDC 1 . Sean c1 , . . . , cn las columnas de C y 1 , . . . , n las entradas en la
diagonal de D.
Armacin: Los vectores c1 , . . . , cn son vectores propios de A con valores propios 1 , . . . , n .
o
Como A = CDC 1 entonces AC = DC, por tanto
[Ac1
Acn ] = A[c1 cn ] = AC = DC
1 0
.
.
..
. [c 1 c n ] = [ 1 c 1
= .
.
.
.
0 n
n cn ].
X TX
=C
E TE
C=C
vn , entonces por el
A=C
X TX
X TX C
(3.10)
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
entonces T (vi )X
0
.
.
.
= i , por tanto
.
.
.
0
X TX
= T (v1 )
T (v2 )
X TX
0
T (vn ) = .
.
.
97
2
.
.
.
..
.
0
.
.
.
(3.11)
X TX
A es diagonalizable.
1
5
5
tiene vectores propios v1 = y v2 = de valores propios 2 y
Ejemplo 3.19. La matriz A =
1
2
2 3
-1, respectivamente (ver Ejemplo 3.1.)
2
0
, entonces de acuerdo al Teorema 3.9 tenemos que
matriz de vectores propios y D =
0 1
v2 la
A = CDC 1 .
X AX
de A con respecto
1 1 1 4 5 5
= C 1 AC =
3 2
2
2 3
5
2
0
1
= D,
=
0 1
1
A = CDC 1 .
1
3
0
0
Ejemplo 3.20. En el Ejemplo 3.6 calculamos los valores y vectores propios de la matriz A =
7 1 4
0
7 1
0 4
0
0
1/2
0
0
1/2
y v2 = ambos de valor propio = 4, v3 =
1
0
1/2
0
1
1/2
98
1/2
1/2
de valor propio = 2. Como A tiene cuatro vectores linealmente indepen
de valor propio = 4 y v4 =
1/2
1/2
dientes entonces A es diagonalizable y A = CDC 1 con
0 0
1/2
1/2
4
0 0 0
0 0 1/2
0 4 0 0
1/2
C=
y
D=
1 0
0
1/2
1/2
0 4 0
0 1
1/2
1/2
0
0 0 2
Corolario 3.10. Si una matriz A de tamao nn tiene n valores propios distintos, entonces A es diagonalizable.
n
2 2 3
6
0 5
1 0 0
0 0 2
Teorema 3.11. Sea A una matriz de tamao nn, entonces A tiene n vectores propios linealmente indepenn
dientes si y solo si para cada valor propio , se tiene que
multiplicidad geomtrica de = multiplicidad algebrica de .
e
a
En particular, si todos los valores propios de A son diferentes, todos los vectores propios de A son linealmente
independientes.
Demostracin. Para comenzar la demostracin, supongamos que A tiene k valores propios distintos, 1 , . . . , k ,
o
o
con multiplicidades n1 , . . . , nk , respectivamente. Es decir, el polinomio caracter
stico de A est dado por pA () =
a
( 1 )n1 ( k )nk , con n = n1 + + nk .
Supongamos que A tiene n vectores propios linealmente independientes, sean v11 , . . . , v1m1 , . . . ,
vk1 , . . . , vkmk estos vectores con m1 + + mk = n y agrupados de tal forma que v11 , . . . , v1m1 tienen valor
propio 1 , v21 , . . . , v2m2 tienen valor propio 2 y, de manera inductiva, vk1 , . . . , vkmk tienen valor propio k .
Como para i = 1, . . . , k, multiplicidad geomtrica de i multiplicidad algebrica de i , entonces mi ni ,
e
a
ahora si mi < ni para algn i = 1, . . . , k entonces tenemos que
u
n = m1 + + mk < n1 + + nk = n,
lo cual es imposible, por tanto para todo i = 1, . . . , k, mi = ni , es decir, para todo i = 1, . . . , k tenemos que
multiplicidad geomtrica de i = multiplicidad algebrica de i .
e
a
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
99
Supongamos que la multiplicidad geomtrica de cada valor propio es igual a la multiplicidad algebrica,
e
a
entonces dim(Ej ) = nj , para 1 j k. Sean {v11 , . . . , v1n1 }, {v21 , . . . , v2n2 }, . . . ,
{vk1 , . . . , vknk } bases para E1 , E2 , . . . , Ek , respectivamente.
Veamos que los vectores v11 , . . . , v1n1 , v21 , . . . , v2n2 , , vk1 , . . . , vknk son linealmente independientes.
Supongamos que
11 v11 + + 1n1 v1n1 + + k1 vk1 + + knk vknk = 0
(3.12)
o
y sean v1 = 11 v11 + + 1n1 v1n1 , . . . , vk = k1 vk1 + + knk vknk , entonces la ecuacin (3.12) se convierte
en
v1 + v2 + + vk = 0.
(3.13)
Armacin: v1 = v2 = = vk = 0
o
Supongamos que algunos de los vj = 0, como vij Ei para 1 i k entonces tenemos que v1 E1 ,
v2 E2 , . . . , vk Ek , entonces los vectores de la lista v1 , . . . , vk que son no nulos, son vectores propios de
valores propios 1 , . . . , k , respectivamente. Como los valores propios 1 , . . . , k son distintos, entonces, por el
Teorema 3.2, los vectores no nulos de la lista v1 , . . . , vk son linealmente independientes, pero de la Ecuacin (3.13)
o
se sigue que estos vectores son linealmente dependientes, lo cual es contradictorio y por tanto v1 = = vk = 0,
y la armacin se cumple.
o
Luego para 1 j k tenemos que
0 = vj = j1 vj1 + + jn1 vjnj ,
pero como los vectores {vj1 , . . . , vjnj } son una base para Ej , entonces son linealmente independientes y por
tanto j1 = = jnj = 0. Como esto es para todo j = 1, . . . , k tenemos que
11 = = 1n1 = = k1 = = knk = 0.
Entonces los vectores v11 , . . . , v1n1 , v21 , . . . , v2n2 , . . . , vk1 , . . . , vknk son linealmente independientes y como todos estos son vectores propios de A y n1 + + nk = n, entonces A tiene n vectores propios linealmente
independientes.
Corolario 3.12. Sea A una matriz A de tamao nn, entonces A es diagonalizable si y solo si para todo valor
n
propio de A se cumple que
multiplicidad geomtrica de = multiplicidad algebrica de .
e
a
Demostracin. El corolario se sigue de los Teoremas 3.9 y 3.11.
o
1
3
0
0
tiene valores propios
Ejemplo 3.22.
1. En el Ejemplo 3.6 vimos que la matriz A =
7 1 4
0
7 1
0 4
= 4, = 4 y = 2 y que las multiplicidades geomtricas y algebraicas eran a4 = g4 = 2, a4 = g4 = 1
e
y a2 = g2 = 1, entonces la matriz es diagonalizable.
100
3 2
4 1
1 es = 4 con
1 2 3
multiplicidad algebraica a4 = 3 y geomtrica g4 = 2, entonces por el corolario anterior A no es diagoe
nalizable.
1 es = 4 con
1
0 3
multiplicidad algebraica es a4 = 3 y geomtrica g4 = 1, por tanto A no es diagonalizable.
e
3.5.
Ejercicios
3
2
2 1
2 2
,
,
,
c. C =
b. B =
a. A =
0 3
5 2
5
1
5 4
d. D = 4 5
2 2
0
1
e. E = 0
0
1 3
2. Para cada una de las matrices diagonalizables del problema anterior escriba la matriz en la forma M DM 1
con D diagonal.
3. Demuestre que A y At tienen los mismos valores propios.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
101
10. Sea A una matriz nn con entradas reales y sea v Cn un vector propio de A de valor propio , demuestre
2 2
(del problema 1.a.) y f () = 1 2 + 33 .
11. Verique el problema 7. si A =
5
1
3 0
a. A = 0 3
0 0
matrices es diagonalizable
0
3 1 0
b. B = 0 3 0
0
3
0 0 3
3 1
c. C = 0 3
0 0
1
0
1
1
0
1
14. Sean X = x1 = 1 , x2 = 1 , x3 = 0 y Y = y1 = 1 , y2 = 1 , y3 = 0 bases de
2
1
0
1
1
0
R3 . Encuentre las matrices de cambio de base Y IX y X IY .
1 1
1
.
15. Sea T : R3 R2 la transformacin lineal cuya matriz E TE est dada por E TE =
o
a
0 2 1
1
0
1
Calcular la matriz Z TX de T con respecto a las bases X = x1 = 1 , x2 = 1 , x3 = 0 de
0
1
2
1
0
R3 y Z = z1 = , z2 = de R2 .
1
1
1 1
16. Sea T : R3 R3 la transformacin lineal cuya matriz E TE est dada por E TE = 0 2 1. Calcular
o
a
1 0 1
1
0
1
la matriz X TX de T con respecto a la base X = x1 = 1 , x2 = 1 , x3 = 0 de R3 .
2
1
0
Mas Problemas.
17. Sea X = x1 = 1 , x2 = 1 , x3 = 0 una base de R3 , encontrar una base Y = {y1 , y2 , y3 }
2
1
0
1 0 1
tal que X IY = 1 1 0.
0 1 1
102
1 0 1
I X = 1 1 0 .
Y
0 1 1
0
1
19. Sea T : R3 R2 una transformacin lineal y sea Z = z1 = , z2 = una base para R2 y
o
1
1
1
0
1
1 1
1
, calcular la
X = x1 = 1 , x2 = 1 , x3 = 0 una base para R3 . Si Z TX =
0 2 1
2
1
0
matriz E TE .
0
1
x + 2y
x
y sea Y = y1 = , y2 = una base de
20. Sea T : R2 R2 denida por T =
1
1
2x + y
y
1 1
.
R2 . Calcular la base X tal que Y TX =
0 2
1 1
2 1
.
. Demuestre que no existe una base X tal que X TX =
21. Sea T : R2 R2 tal que E TE =
0 1
1 1
18. Repetir el problema anterior si en lugar de
X IY se nos da
B C
entonces pA (x) = pB (x)pD (x).
Problema 3.5.2. Si A =
0 D
Problema 3.5.3. Si A Mn (R) y v E entonces v E .
X (A
+ B)X = X AX + X BX .
Problema 3.5.7. Demuestre que la traza de una matriz es independiente de la base, es decir, si A Mn (R) y
E TE
0 1 0 0
Problema 3.5.10. Si A = . . . . . .
. . . . .
...
.
a1
a2
.
.
.
0 0 0 0 an2
0 0 0 1 an1
Problema 3.5.11. Sea A Mn (R), si existe v R tal que {v, Av, . . . , An1 v} es una base de Rn y
0 0 0 0 a0
1 0 0 0
X AX
0 1 0 0
= . . . .. .
. . . . .
...
.
a1
a2
.
.
.
0 0 0 0 an2
0 0 0 1 an1
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
Problema 3.5.12. Dar los valores y vectores propios
103
y pedir la matriz A
2 0 es diagonalizable.
1 0
Problema 3.5.14. Si (1, 1, 2), (1, 1, 1) y (0, 1, 1) son vectores propios de A y A(1, 0, 0) = (2, 1, 1) determine los
valores propios de A.
Problema 3.5.15. Demuestre que A es diagonalizable si y slo si A1 es diagonalizable si y slo si At es
o
o
diagonalizable.
Problema 3.5.16. Sea T : V V una transformacin lineal y X una base de V , demuestre que T : V V
o
X TX
es invertible.
Problema 3.5.17. Sea T : V V una transformacin lineal demuestre que las siguientes armaciones son
o
equivalentes
1. T es invertible
2. T es inyectiva
3. T es sobreyectiva
Problema 3.5.18. Demuestre que si A es nilpotente, es decir, si Ak = 0 para algn k > 0, entonces = 0 es
u
el unico valor propio de A.
1
1
1 , . . . , k
0 a
0 0
c es diagonalizable entonces a = b = c = 0.
Problema 3.5.24. Si 1 , . . . , n son los valores propios de un matriz diagonalizable A entonces tr(A) =
1 + + n . Cul es la traza de Ak .
a
Problema 3.5.25. Si 1 , . . . , n son los valores propios de A entonces det(A) = 1 n .
Problema 3.5.26. Si A es diagonalizable con valores propios postivos 1 , . . . , n , demuestre que existe R tal
que R2 = A.
104
Problema 3.5.27. Si A tiene valores propios 4 y 9 con respectivos vectores propios (2, 1) y (1, 1), calcule R tal
que R2 = A.
Problema 3.5.28. Si A2 = A demuestre lo siguiente
1. los valores propios de A son = 0 o = 1,
2. cada columna no nula de A es un vector propio de A.
3. Cn = N ul(A) Col(A),
4. A es diagonalizable.
5. si A = I y A = 0 entonces = 0 y = 1 son ambos valores propios de A.
6. Si A = I entonces det A = 0.
Problema 3.5.29. Determine An si A tiene vectores propios (1, 1) y (1, 0) con correspondientes valores propios
1
1 = 1 y 2 = 2 .
Problema 3.5.30. Si A es diagonalizable con valores propios tal que 1 = 1 y |i | < 1 demuestre que l Ak
m
k
X AX
X BX
Cap
tulo 4
4.1.
Comenzamos con un ejemplo que motiva la necesidad de estudiar la forma cannica de Jordan
o
3 1
, el polinomio caracter
stico de A es pA (x) = (x 4)2 lo que implica que = 4
Ejemplo 4.1. Sea A =
1 5
es el unico valor propio de A con multiplicidad algebraica a = 2.
1
Es fcil ver que el subespacio propio de A de valor propio = 2 est dado por E2 = gen y por tanto
a
a
1
la multiplicidad geomtrica de = 2 es g = 1 y por tanto A es no es diagonalizable (g < a ).
e
Esto quiere decir que existe una base X tal que la matriz X AX es diagonal, an si completamos una base
no
u
1
usando el vector propio .
1
2
1
Por ejemplo si tomamos la base X = v1 = , v2 = y calculamos la matriz de A con respecto a
3
1
Por tanto
X AX
4 5
. Jordan se dio cuenta que se podia mejorar la presentacin de la matriz escogiendo
o
=
0
6
105
106
un vector v2 que cumpla la ecuacin (A 4I)x = v1 , ecuacin para la cual podemos tomar el vector v2 = e1
o
o
como solucin.
o
De esta forma tenemos que (A4I)v2 = v1 Av2 = v1 +4v2 y por tanto con respecto a la base X = {v1 , v2 }
tenemos que
X AX
4 1
0 4
El ejemplo anterior ensea que la clave para encontrar una base adecuada es encontrar una solucin a la
n
o
ecuacin (A I)x = v con un vector propio y v un vector propio de valor propio . El prximo ejemplo
o
o
muestra como la iteracin de esta ecuacin conduce al clculo de una base adecuada cuando la matriz no es
o
o
a
diagonalizable.
4 1
1
0 3
tanto su unico valor propio es = 4. Usando MatLab para calcular susvectores propios nos damos cuanta que la
base para el subespacio de vectores propios E4 est dada por v1 = 1 y por tanto A es no diagonalizable.
a
1
Si procedemos como en el ejemplo anterior, resolviendo la ecuacin (A + 4I)x = v1 obtenemos
o
>> a = [4 1 1; 0 5 1; 1 0 3]; v1 = [1; 1; 1]; linsolve(a + 4 eye(3), v1)
1
Obtenemos que una solucin a esta ecuacin est dada por el vector v2 = 1.
o
o
a
0
Ahora iterando el proceso, buscaremos una solucin a la ecuacin (A + 4I)x = v2 , el cual podemos hacer en
o
o
0
En este caso obtenemos como solucin al vector v3 = 1. Si tomamos X = {v1 , v2 , v3 } obtenemos que X
o
0
es una base y adems que la matriz de A con respecto a esta base, X AX , est dada por
a
a
4
1
0
(4.1)
1 .
X AX = 0 4
0
0 4
Como la matriz de A con respecto a la base X est dada por
a
X AX
por los vectores en la base X, es decir, P = [v1 v2 v3 ], la Ecuacin (4.1) se puede comprobar en MatLab con el
o
comando
>> P = [v1, v2, v3]; xAx = P (1) a P.
La Ecuacin (4.1) tambin es clara de la escogencia de los vectores v1 , v2 y v3 , ya que primero que todo v1
o
e
es un vector propio de A de valor propio 4 y por tanto Av1 = 4v1 . Los vectores v2 y v3 son soluciones a las
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
107
ecuaciones (A+4I)x = v1 y (A+4I)x = v2 , respectivamente. Por tanto v2 satisface las ecuacin Av2 = v1 4v2 ,
o
esto ya que (A + 4I)v2 = v1 lo que es equivalente a Av2 + 4v2 = v1 y por tanto Av2 = v1 4v2 . Similarmente
Av3 = v2 4v3 , de todo esto obtenemos la siguiente
Av1
= 4v1
Av2
= v1 4v2
= v1 4v2 + 0v3
Av3
= v2 4v3
= 0v1 + v2 4v3
X AX
= (Av1 )X
(Av2 )X
(Av1 )X =
(Av2 )X =
(Av3 )X =
(Av2 )X = 0
4
0
4
0
0
1
4
0
0
1
4
En este ultimo ejemplo vale la pena notar que el vector v2 satisface la ecuacin (A + 4I)2 v2 = 0, ya que este
o
satisface (A + 4I)v2 = v1 y v1 a la vez satisface (A + 4I)v1 = 0 por ser vector propio. Similarmente el vector v3
satisface la ecuacin (A + 4I)3 v3 = 0, es decir, v2 y v3 son vectores propios generalizados, lo cual denimos a
o
continuacin.
o
Denicin 4.1. Sea A Mn (C) decimos que un vector v Cn es un vector propio generalizado para A si
o
El siguiente teorema expone las propiedades de los vectores propios generalizados, algunas de las cuales
fueron visualizadas en los Ejemplos 4.1 y 4.2.
Teorema 4.1. Sea A Mn (C), v un vector propio generalizado para A y p el m
nimo entero tal que (AI)p v =
0 entonces
1. (A I)p1 v es un vector propio de valor propio y para k < p 1 el vector (A I)k v no es un vector
propio.
2. Las matrices A y (A I)k conmutan.
3. El conjunto Cv = {(A I)p1 v, . . . , (A I)v, v} es linealmente independiente. Al conjunto Cv se le
llama un ciclo de vectores generalizados.
4. Si Hv = gen{(A I)p1 v, . . . , (A I)v, v} entonces Hv es un subespacio invariante bajo A, es decir,
a
A(Hv ) Hv . Ms an, la matriz A|Hv est dada por
a u
1 0
0 1
0 0
A|Hv = . . .
. . .
. . .
0 0 0
..
.
0
.
.
.
. .
.
.
(4.2)
108
Demostracin.
o
(A I)k =
(1)kj kj Aj .
j=0
Luego
A(A I)k = A
k
j=0
j=0
(1)kj kj Aj =
k
j=0
(1)kj kj Aj+1
(1)kj kj Aj A
= (A I)k A
Por tanto A y (A I)k conmutan.
(4.3)
(4.4)
(4.5)
(4.6)
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
109
o
e
donde (Avi )Cv es la representacin del vector Avi en trminos de Cv . De las ecuaciones (4.5) y (4.4)
obtenemos que
(Avp1 )Cv
1
0
0
0
1
0
0
0
0
, (Avp2 )C = , (Avp3 )C = , . . . (Av0 )C = .
= .
v
v
v
.
.
.
.
.
.
.
.
.
.
.
0
0
0
1
0
0
0
(4.7)
Entonces de las ecuaciones (4.6) y (4.7) obtenemos que la matriz de A|Hv tiene la forma de un bloque de
Jordan como en la Ecuacin (4.2).
o
Ejemplo 4.3. Los vectores v1 = 1,
1
1 1
propio = 1 de la matriz A = 0
0
1
0
(A I)v1 = 0
1
v2 = 0 y v3 = 0 son vectores propios generalizados de valor
0
1
1, ya que
(A I)2 v2 = 0
(A I)3 v3 = 0
Un clculo simple muestra que (A I)2 v2 = v1 y (A I)v3 = v2 y por tanto los vectores v1 , v2 y v3 forman un
a
ciclo de vectores propios generalizados.
El teorema anterior garantiza el conjunto X = {v1 , v2 , v3 } es linealmente independiente y por tanto es una
base de C3 , dejamos como ejercicio vericar que la matriz de A, vista como transformacin lineal, con respecto
o
a la base X, est dada por
a
AX = 0
X
1 0
1 1 .
0 1
Tambin dejamos al lector vericar que esta matriz no es diagonalizable y de hecho la matriz
e
X AX
es la forma
cannica de Jordan de A.
o
Denicin 4.2.
o
1. A la matriz de la forma (4.2) se le llama bloque de Jordan y ser denotada por Jp ().
a
AB =
Opq
Oqp
110
El objetivo fundamental de este cap
tulo es demostrar que para toda matriz compleja A, se puede encontrar
una base bajo la cual A se descompone en bloques de Jordan, es decir, bajo la cual
A = Jp1 (1 ) Jpk (k ).
(4.8)
La idea central es encontrar un algoritmo para calcular todos los ciclos de vectores generalizados y demostrar
que estos forman una base para Cn .
Denicin 4.3. Sea A una matriz n n y sea un valor propio de A. Denotaremos por K al conjunto de
o
vectores propios generalizados de valor propio , es decir
K = {v | (A I)p v = 0, para algn p > 0. }
u
Es claro de la denicin que E K , pero en el prximo teorema se demostrar que K es un subespacio
o
o
a
vectorial que contiene a E y que tambin es invariante bajo A.
e
Teorema 4.2. Sea A una matriz n n y sea un valor propio de A entonces
1. Todo vector propio de A es un vector propio generalizado y por tanto E K .
2. K es un subespacio.
3. K es invariante bajo A.
4. A I es nilpotente en K .
Demostracin.
o
2. Sean v, w K y sea C. Entonces existen enteros p1 > 0 y p2 > 0 tal que (A I)p1 v = 0 y
(A I)p2 w = 0, entonces
=0
tal que el conjunto (A I)j v | j Z0 es innito y por el Teorema 4.1 este conjunto es linealmente
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
111
PROBLEMAS
Problema 4.1.1. Demuestre que si A es nilpotente entonces el unico valor propio de A es = 0 y deduzca que
K0 = Cn .
4.2.
El siguiente teorema demuestra la existencia de la forma de Jordan para matrices nilpotentes y es el paso
fundamental para la demostracin en el caso general.
o
Teorema 4.3. Sea A Mn (C) una matriz nilpotente y p el m
nimo entero tal que Ap+1 = 0, entonces existe
una base de Cn tal que la matriz de A con respecto a esta base tiene la forma
A = Jp1 (0) Jps (0)
(4.9)
con p = p1 p2 ps .
Demostracin. Denamos Wi = ImAi = Ai (Cn ). Se sigue que
o
Wi+1 = Ai+1 (Cn ) = Ai (A(Cn )) Ai (Cn ) = Wi
Cn
como p es el m
nimo tal que Ap+1 = 0 y Ap = 0, entonces tenemos la secuencia de inclusiones
0 = Wp+1 Wp W1 W0 = Cn
adems tenemos que A(Wi ) = A(Ai (Cn ) = Ai+1 (Cn ) = Wi+1 .
a
Para i = 1, . . . , n, tomemos si = dim Wi y sea {up1 , . . . , upsp } una base de Wp . Como Wp = A(Wp1 ),
tenemos que para i = 1, . . . , sp , existen vectores up1,1 , . . . , up1,sp tal que Aup1,i = up i para i = 1, . . . , sp .
Ntese que los vectores up1 , . . . , upsp , up1,1 , . . . , up1,sp son linealmente independientes, ya que si existen
o
constantes tal que
p1 up1 + + psp upsp + p1,1 up1,1 + + p1,sp up1,sp = 0
(4.10)
=0
up1
upsp
y como {up1 , . . . , upsp } es linealmente idependiente, obtenemos que p1,1 = = p1,sp = 0. Entonces la
Ecuacin 4.10 se reduce a
o
p1 up1 + + psp upsp = 0
y nuevamente por la independencia lineal del conjunto {up1 , . . . , upsp }, tenemos que p1 = = psp = 0.
Concluimos que los vectores up1 , . . . , upsp , up1,1 , . . . , up1,sp son linealmente independientes.
112
Como Wp Wp1 , entonces el conjunto {up1 , . . . , upsp , up1,1 , . . . , up1,sp } es un subconjunto linealmente
independiente de Wp1 , sean up1,sp +1 , . . . , up1,sp1 vectores en Wp1 tal que el conjunto
{up1 , . . . , upsp , up1,1 , . . . , up1,sp , up1,sp +1 , . . . , up1,sp1 } es una base de Wp1 .
Armacin 1.: Los vectores up1,sp +1 , . . . , up1,sp1 se pueden tomar de tal que up1,sp +1 , . . . , up1,sp1 ker A
o
demostracin de la armacin: Si el vector up1,sp +1 ker A, entonces 0 = Aup1,sp +1 Wp y tenemos
o
o
/
o
que Aup1,sp +1 = 1 up1 + + sp upsp . Denimos u = up1,sp +1 1 up1,1 + + sp up1,sp , ntese que
si reemplazamos up1,sp1 por u , el conjunto {up1 , . . . , upsp , up1,1 , . . . , up1,sp , u } sigue siendo linealmente
independiente y u ker A ya que
up,sp
...
up2,sp
up1,sp +1
...
up2,sp1
up1,1
...
up1,sp
up1,sp +1
...
up1,sp1
up,1
...
up,sp
(4.11)
=up1,sp1
up,1
=up,sp1
=0
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
113
y como el conjunto {up,1 , . . . , up,sp } es una base para Wp obtenemos que las constantes p,1 , . . . , p,sp son nulas,
lo que muestra que los vectores en (4.11) son linealmente independientes.
Como los vectores en (4.11) estn en Wp2 , entonces existen vectores up2,sp1 +1 , . . . , up2,sp2 tal que los
a
vectores
up2,1
...
up2,sp
up1,sp +1
...
up2,sp1
up1,1
...
up1,sp
up1,sp +1
...
...
up2,sp2
up1,sp1
up,1
up2,sp1 +1
up,sp
(4.13)
forman una base para Wp2 y usando un razonamiento similar al usado en la Armacin 1 podemos tomar los
o
vectores up2,sp1 +1 , . . . , up2,sp2 en el ker A.
Continuando de manera inductiva obtenemos la lista de vectores
u0,1
...
u0,sp
...
u0,s1
u1,1
.
.
.
...
.
.
.
u1,sp
.
.
.
...
...
...
u0,s1
u1,s1
up,1
u0,s1 +1
up,sp
(4.14)
por tanto
up1 = Ap u01 ,
0 0
0 0 1 0 0
0 0 0 0 0
0 1 0
J0 (pi ) = . . . . . . .
... ...
..
...
0 0 0 0 1
0 0 0 0 0
Ciclo de vectores
114
y por el numeral 3 de arriba tenemos que la matriz de A con respecto a esta base X est dada por
a
0 1 0
. . .
.
0
. . .. . 0
..
.
0 0 1
0 0 0
.
.
= Jp (0) Jp (0),
..
.
.
X AX =
s1
1
.
.
.
0 1 ... 0
. . .
.
0
0 . . .. .
.
. .
0 0 1
0 0 0
con p = p1 p2 p3 . . . .
De esta demostracin se deduce un algoritmo simple para calcular la base de Jordan y la forma Jordan
o
para una matriz nilpotente, el cual describimos a continuacin. En la base Jordan tenemos que los vectores que
o
se adicionan para completar una base del subespacio Wi , pertenecen al ker A. Estos vectores son los vectores
subrayados en la siguiente lista:
u0,1
...
...
...
...
u0,sp1
...
u0,s2 +1
...
u0,s1
u1,1
.
.
.
...
.
.
.
...
.
.
.
...
.
.
.
...
.
.
.
u1,sp1
.
.
.
...
u1,s2 +1
...
...
up1,sp
up1,sp +1
...
...
u0,s0
up1,sp1
up,1
...
u1,s1
up1,1
u0,s1 +1
up,sp
(4.15)
Ntese adems que ningn otro vector en esa lista pretenece a ker(A), ya que al aplicar A a cualquier otro
o
a
u
vector uij obtendriamos el vector que est debajo de ste, ya que Auij = ui+1,j . Como todos estos vectores
a
e
forman una base para Cn , concluimos que estos vectores subrayados forman una base para ker A. Los vectores
que estn encima de los subrayados son soluciones a las ecuaciones Ax = u, con u un vector en esta base de
a
ker A, e inductivamente los vectores ms arriba son soluciones a ecuaciones de la forma Ax = u.
a
De esto obtenemos que para calcular la base de Jordan de una matriz, se debe calcular una base para ker A,
despus buscar soluciones a las ecuaciones Ax = u con u en la base del ker A, algunas de estas ecuaciones
e
posiblemente no tengan solucin, y continuar buscando soluciones a las ecuaciones Ax = v para cada vector v
o
encontrado en el segundo paso y continuar de esta forma hasta completar n vectores, lo que nos da una base de
Jordan. El algoritmo es como sigue.
Procedimiento 4.1. (Algoritmo para Calcular una Base de Jordan para una Matriz Nilpotente)
Sea A Mn (C) una matriz nilpotente y p la m
nima potencia tal que Ap = 0, para calcular la base de Jordan
hacemos lo siguiente:
1. Calculamos los vectores propios u1 , . . . , us de A, es decir, una base para el espacio ker A. En este paso se
encuentran los vectores subrayados en la Lista (4.15).
2. Para i = 1, . . . , s resolvemos la ecuacin Ax = ui . En este paso se encontrar los vectores que estn
o
an
a
una la arriba de los vectores calculados en el paso anterior. Ntese que no todas estas ecuaciones tienen
o
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
115
solucin, ya que por ejemplo los vectores en el ker A que estn en la primera la, como u0,s0 , para este
o
a
o
vector la ecuacin Ax = u0,s0 no tiene solucin. A cada vector encontrado en este paso los etiquetamos
o
u2i si este es solucin a la ecuacin Ax = ui .
o
o
3. Para cada vector u2i calculado en el paso 2, resolvemos la ecuacin Ax = u2i , si la ecuacin tiene solucin,
o
o
o
la etiquetamos u3i .
4. Se repiten el paso 3 hasta encontrar n vectores propios generalizados.
2
3
4
6
1 3 4 5
, es fcil ver que A4 = 0 y por tanto A es nilpotente.
a
Ejemplo 4.4. (MatLab) Sea A =
0
1
0
0
0
0
1
1
Procedemos a calcular una base de Jordan para A usando MatLab.
1. Usamos el comando null(A) para calcular una base para el espacio nulo de A
>> null(A)
0
Este clculo nos produce el vector u1 = .
a
1
1
2. Ahora necesitamos encontrar una solucin a la ecuacin Ax = u1 , la cual resolvemos con MatLab usando
o
o
el comando
>> linsolve[A, u1 ]
1
1
Obtenemos que el vector u2 = es el vector buscado.
1
0
Ahora necesitamos buscar una solucin a la ecuacin Ax = u2 . Para esto procedemos de manera similar
o
o
al paso anterior,
>> linsolve[A, u2 ]
2
1
Obtenemos que el vector u3 = es una solucin a la ecuacin.
o
o
0
0
aplicado
>> linsolve[A, u3 ]
116
1
0
y obtenemos el vector u4 = .
0
0
Como la
matriz A es
44, con este ultimo hemos completado una base de C4 y por tanto concluimos
vector
2
1
1
1
1
0
, u2 = , u3 = , u4 = e1 es una base de Jordan.
que J = u1 =
0
1
1
0
0
1
Para vericar hacemos C = [u1 u2 u3 u4 ] y calculamos C 1 AC, lo que nos da la matriz de A en la base J y
obtenemos
C = [u1 u2 u3 u4 ]; inv(C) A C
ans =
0 1
0 0
0 0
1 0
0 0
0 1
0 0 0 0
La cual es la forma cannica de Jordan de A.
o
Corolario 4.4. Sea A una matriz n n y una valor propio de A, entonces existe una base de K tal que la
matriz de A con respecto a esta base tiene la forma
A = Jp1 () Jps ().
(4.16)
2 3
1 1
0
0
y calcule una base de Jordan para K1 .
6 8
5
1 2
0
10
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
117
propio de A y por tanto K1 = C5 . Entonces A I es nilpotente y podemos aplicar el Procedimiento 4.1 para
calcular la base pedida.
Primero calculamos los vectores propios de A:
>> v1 = null(A eye(5), r )
v1 =
1
Las columnas de esta matriz son los vectores propios de A, es decir, u11
2
= 1 y u12
0
0
1
0
= 0 . Estos vectores
1
1
ecuaciones.
1
2
= 0 y u22 = 0 son soluciones a las respectivas
0
1
0
0
El siguiente paso es encontrar soluciones, si existen, para las ecuaciones (A I)x = u21 y (A I)x = u22.
Usando Matlab nos damos cuenta que la primera ecuacin no tiene solucin y una solucin a la segunda est dada
o
o
o
a
118
2
por u32 = 0
0
0
Por tanto tenemos que X = {u11, u21, u12, u22, u23} es la base buscada. Podemos vericar esto en MatLab,
si denimos B = [u11 u21 u12 u22 u23], la matriz de A con respecto a la base X,
X AX
X AX
1 1
0 0
0 0
1 1
0 1
0 0
PROBLEMAS
= A = Jp1 () Jps ()
con
p = p 1 p 2 ps .
4.3.
En esta seccin mostraremos la existencia de la forma cannica de Jordan para una matriz arbitraria.
o
o
Teorema 4.5. (Descomposicin Jordan de una matriz) Sea A una matriz n n, sean 1 , . . . , s los
o
a
distintos valores propios de A y ni la multiplicidad algebrica de i entonces
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
119
1. Ki j=i Kj = 0.
2. dim Ki = ai , para i = 1, . . . , s
3. Cn = K1 Ks .
4. Existe una base de Cn , llamada base de Jordan, tal que la matriz de A con respecto a esta tiene la forma
(4.8).
Demostracin.
o
1, . . . , s, sea pi > 0 el m
nimo entero tal que (A i I)pi vi = 0. Por el Teorema 4.1 tenemos que (A
1 I)p1 1 v1 es un vector propio de valor propio 1 . Ntese que, para j = 2, . . . , s, al aplicar (A j I)pj al
o
vector (A 1 I)p1 1 v1 obtenemos
pj
pj
(A j I) (A 1 I)
p1 1
(1)k k Apj k
j
v1 =
(A 1 I)p1 1 v1
k=0
pj
k=0
p k
=1 j
(A1 I)p1 1 v1
pj
p k
(1)k k 1j
j
k=0
pj
(A 1 I)p1 1 v1
p k
(1)k k 1j
j
k=0
(A 1 I)p1 1 v1
= (j 1 )pj (A 1 I)p1 1 v1
Por tanto si aplicamos (A 2 I)p2 (A s I)ps al vector (A 1 I)p1 1 v1 obtenemos
(A 2 I)p2 (A s I)ps (A 1 I)p1 1 v1 = (2 1 )p2 (s 1 )ps (A 1 I)p1 1 v1 .
(4.17)
(4.18)
120
a
Sea mi = dim Ki , como esta matriz es triangular superior, tenemos que el polinomio carcteristico de
stico de A es
esta matriz es (t i )mi . Como esto es para cada i, tenemos que el polinomio caracter
(t 1 )m1 (t s )ms
Por tanto mi = ai = multiplicidad algebraica de i , para i = 1, . . . , s.
s
3. Como a1 + + as = n entonces
que
Cn = K1 Ks .
4. Por el Corolario 4.4 existe una base i para Ki , para i = 1, . . . , s tal que la matriz de A|Ki tiene la
forma (4.16) con = i . Por la parte 4.5 tenemos que s i es una base de Cn bajo la cual la matriz de
i=1
A tiene la forma (4.8).
El procedimiento para el clculo de la base bajo la cual una matriz obtiene la forma cannica de Jordan es
a
o
como sigue.
Procedimiento 4.2. (Algoritmo para calcular una base de Jordan) Sea A una matriz n n, para
calcular una base de Jordan para A hacemos lo siguiente
1. Calculamos los valores propios 1 , . . . , s de A,
2. Para i = 1, . . . , s aplicamos el Procedimiento 4.1 a la matriz A i I, el cual nos dar una base i para
a
K i .
3. De acuerdo al teorema anterior la unin de las bases encontradas en el paso anterior es una base de Jordan
o
para A.
3 1
4 12
11
3 1
3 1
3 1
3 1
3 1
1 1
5 4
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
121
1
E1 = N ul(A I) = gen v1 = 2
3
4
5
w1 =
1
4
3 , w2
2
1
0
1
1
3
2
1
0
1
De acuerdo al Procedimiento 4.1, ahora necesitamos calcular una solucin a la ecuacin (A I)x = v1. La cual
o
o
calculamos con el comando matlinSolve(A I, v1 ) en Mupad y obtenemos que el vector
1/5
v2 =
1/5
4/5
3/5
2/5
1/5
0
Ahora necesitamos una solucin a la ecuacin (A I)x = v2, usando el comando matlinSolve(A I, v2 )
o
o
obtenemos que el vector
es una solucin.
o
v3 =
4/25
21/25
16/25
12/25
8/25
4/25
0
Como la multipliciada algebraica de = 1 es 3, entonces dim K1 = 3 y por tanto {v1 , v2 , v3} es una base de
K1 . De esto deducimos que la forma cannica de Jordan de A contiene bloque
o
el
1 Jordan J3 (1).
1
Continuamos con = 2. Primero encontramos que N ul(A 2I) = y1 = 1 .
1
2
3
Ahora calculamos una solucin a la ecuacin (A 2I)x = y1 . Para esto usamos el comando matlinsolve(A
o
o
1/3
1/3
1/3
y2 = 1/3 .
2/3
1/3
0
Como la multipicidad geomtrica de = 2 es 2, entonces dim K2 = 2 y por tanto {y1 , y2 } es una base de
e
K2 y deducimos que la forma cannica de Jordan de A contiene el bloque Jordan J2 (2).
o
Finalmente aplicamos el mismo procedimiento con el valor propio = 3. Primero obtenemos que
1
N ul(A 3I) = gen z1 = 1 .
1
1
1
122
A continuacin calculamos una solucin a la ecuacin (A3I)x = z1, la cual podemos calcular en Mupad usando
o
o
o
1
1
1
e
el comando matlinsolve(A 3I, z1) y obtenemos que el vector z2 = 1 . En este caso tambin tenemos que
1
1
0
{z1 , z2 } es una base de K3 , ya que este tiene dimensin 2=multiplicidad algebraica del valor propio 3 y podemos
o
concluir que la forma cannica de Jordan de A contiene el bloque de Jordan J2 (3).
o
As la base de Jordan esta formada por los vectores X = {v1 , v2 , v3 , y1 , y2 , z1 , z2 } y con respecto a esta base
X AX
0 0 1 0 0 0 0
= J3 (1) J2 (2) J2 (3) = 0 0 0 2 1 0 0
0 0 0 0 2 0 0
0 0 0 0 0 3 1
0 0 0 0 0 0 3
v2
v3
y1
y2
z1
X AX
con
z2 ].
1 2 1
1
Ejemplo 4.7. Calcular una base bajo la cual la matriz A =
1
cannica de Jordan
o
2 2 1
0
1 1
1 3 2
2 4 1
3 6 3
1 1
1 1
1 1
obtiene su forma
1 1
2 1
0 0
E1 = N ul(A + I) = gen
u11 =
3
3 , u12
2
1
0
2
2
= 2
1
0
1
Ahora calculamos soluciones a las ecuaciones (A + I)x = u11 y (A + I)x = u12 . Usando los comandos
matlinsolve(A + I, u11 ) y matlinsolve(A + I, u12 ) en Mupad, obtenemos los vectores
u21 =
9
9
8
4
0
0
7
7
u22 = 6
3
0
0
El siguiente paso es calcular soluciones a las ecuaciones (A + I)x = u21 y (A + I)x = u22 . Usando los comandos
matlinsolve(A + I, u21 ) y matlinsolve(A + I, u22 ) en Mupad, obtenemos los vectores
u31 =
27
26
22
9
0
0
21
20
u32 = 17 .
7
0
0
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
123
Como dim K1 = 6 = multiplicidad algebraica de = 1, tenemos que los vectores u11 , u21 , u23 , u12 , u22 , u32
forman una base de Jordan de A y con respecto a esta base la matriz de Jordan J de A est dada por
a
1 1 0 0 0 0
0 1 1 0 0 0
0 0 1 0 0 0
0 0 0 1 1 0 .
0 0 0 0 1 1
0 0 0 0 0 1
J = J3 (1) J2 (1) =
PROBLEMAS
0 3 4 5
7
2 6 6 8 10
2 3 2 6
8
1 1 1 5 4
0 0 0 1 1
d. A =
1 0 0 1 1
0 1 0 1 1
1 1 1 1 1
1 0 1 2 1
1 0 0 0 0
b. A =
e. A =
3 1 1 1 2
1 3 2 3 4
1 1 1 4 5
0 0 1 2 0
0 0 0 1 3
1
0
1
1
1
1
1
2
0
1
2
3
2
2
1
3
4
6
1
1
1
2
1
3
1
1
1
1
2
0
1
1
1
1
1
0
c. A =
f. A =
3 1 1 1 2
1 3 2 3 4
2 2 2 6 8
2 2 3 6 6
1 1 1 1 0
1 0
3
4
4
4
4
1 1 1 1
2 1 1 1 1
1 1 1 1 1
0 0 1 1 1
0 1 0 3 1
0 2 2 7 0
Problema 4.3.2. Demuestre que A es diagonalizable si y solo si para todo valor propio se tiene que Im(A
I) = Im((A I)2 ).
Problema 4.3.3. Sea A una matriz con tres valores propios = 2, 4 y 5. Si para = 2 hay tres ciclos de vectores
propios {v11 , v21 , v31 , v41 }, {v12 , v22 } y {v13 }, para = 4 hay dos ciclos de vectores propios {w11 , w21 , w31 } y
{w12 } y para = 5 hay dos ciclos de vectores propios {x11 , x21 } y {x12 }, determine lo siguiente:
1. La forma cannica de A.
o
2. Los vectores propios de A.
3. Una base de K4
4. Una base de N ul((A 2I)2 )
Problema 4.3.4. Si la matriz de A con respecto a la base X = {x1 , . . . , x11 } est dada por
a
J3 (1) J4 (2) J1 (2), determine lo siguiente
1. Los ciclos de vectores propios para = 1.
2. Los ciclos de vectores propios para = 2.
3. Los vectores propios de A.
4. Una base de K2
5. Una base de K1
6. Una base de N ul((A 2I)3 )
X AX
= J3 (1)
124
4.4.
Polinomio m
nimo
n
i=0
n
i=0
ai Ai , donde A0 = I.
2. Denimos el polinomio m
nimo de A, como el polinomio mnico de grado minimal tal que p(A) = 0.
o
Proposicin 4.6. El polinomio m
o
nimo es unico.
Demostracin. Sean m(x) y p(x) polinomios de grado minimal tal que m(A) = 0 = p(A). Por el algoritmo
o
de la divisin para polinomios en una variable tenemos que existen polinomios q(x) y r(x) tal que
o
p(x) = q(x)m(x) + r(x)
con
entonces se tiene que r(A) = p(A) q(A)m(A) y por tanto r(A) = p(A) q(A)m(A) = 0, lo que contradice la
minimalidad del grado de m(x), se sigue que m(x)|p(x). Similarmente se demuestra que p(x)|m(x). Se sigue que
p(x) = cm(x) con c constante. Como p(x) y m(x) son mnicos se cumple que c = 1 y por tanto p(x) = m(x).
o
Notacin 4. Al polinomio de la matriz A lo denotaremos por mA (x).
o
Proposicin 4.7. Sea mA (x) el polinomio m
o
nimo de A y sea p(x) un polinomio entonces p(A) = 0 si y slo
o
si mA (x)|p(x).
Demostracin. Si p(A) = 0, por el algoritmo de la divisin tenemos que p(x) = mA (x)q(x) + r(x) donde r = 0
o
o
o grador(x) <gradomA (x). Si r = 0 tenemos que r(A) = p(A) mA (A) q(A) = 0, lo que contradice que mA (x)
=0
=0
es el polinomio m
nimo. Por tanto r = 0 y mA (x)|p(x).
Si mA (x)|p(x) entonces p(x) = mA (x)q(x) y por tanto p(A) = mA (A)q(A) = 0.
A continuacin usaremos la forma cannica de Jordan para determinar el polinomio m
o
o
nimo de una matriz
A. Para esta construccin necesitamos las siguientes observaciones. En lo que sigue denotaremos por Eij a la
o
matriz con un 1 en la ij-sima entrada y ceros en las dems entradas. Es importante notar que Eij Ekl = jk Eil .
e
a
Observacin 4.1. Sean A, B Mn (C)
o
A1
..
1. Si A =
As
entonces Ak =
Ak
1
..
Ak
s
2. Si A =
B1
..
yB=
As
..
AB =
..
.
As Bs
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
125
p1
pk
Demostracin. Jp (0) =
o
i=1
Ei,i+k .
i=1
Para k = 1 es claro.
pk
Ei,i+k entonces
i=1
p1
pk
Ei,i+k
i=1
Ei,i+k Ej,j+1
i=1
i=1 j=1
p(k+1)
pk p1
pk p1
Ei,i+1 =
Ei,i+k+1 .
i=1 j=1
i=1
11
J i I =
(1 i )
..
.
Jp1t (1 i )
1
..
.
Jpi1 (0)
..
.
Jpit (0)
i
..
.
Jps1 (s 1 )
..
.
Jpsts (s i )
elevando a la pi1 , por la parte 4. de la observacin anterior y usando el hecho que pi1 piti tenemos lo
o
126
siguiente
(J i I)pi1 =
(Jp (1 i ))pi1
11
..
(Jp1t (1 i ))pi1
1
..
(Jpi1 (0))pi1
=0
..
(Jpiti (0))pi1
=0
..
(J
p11
(1 i ))pi1
..
(Jp1t (1 i ))pi1
(Jps1 (s 1 ))pi1
..
..
..
..
(Jps1 (s 1 ))pi1
..
(Jpsts (s i ))pi1
..
(Jps1 (s 1 ))p11
..
.
(Jpsts (s 1 ))p11
(Jp
11
(1 s ))ps1
..
(Jpsts (s i ))pi1
(Jp1t (1 s ))ps1
..
..
=0
entonces (A i ) = C(J i )C 1
Ntese adems que si ki < pi1 con i = 1, . . . , s, tenemos que (A 1 )p11 (A s )ki (A s )ps1 = 0.
o
a
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
127
Demostracin. Es claro que mA (x)|p(x), ya que p(x) = (1 x)a1 (s x)as donde ai es la multiplicidad
o
algebraica de i , para i = 1, . . . , s. Como ai es la suma de las longitudes de los bloques Jordan, es decir,
ai = pi1 + + piti pi1 .
Entonces se sigue del teorema anterior y la Proposicin 4.7 que pA (A) = 0.
o
128
Cap
tulo 5
Aplicaciones
En este cap
tulo asumiremos que la forma cannica de Jordan de A es la matriz J y por tanto A = CJC 1
o
donde C es la matriz formada por vectores en una base de Jordan de A.
5.1.
2
.
.
.
..
.
0
Si A es diagonalizable con J = .
.
.
k
1
k
2
.
.
.
..
.
0
.
.
.
0
, es fcil ver que J =
a
.
n
0
0
.
.
.
k
n
r(m1)
0
k
J = .
.
.
r
1
r
2
r
1
r
m2
r
m3
r(m2)
r2
...
r1
...
0
.
.
.
r
.
.
.
...
..
.
.
.
.
...
...
r1
r
r(m3)
2 1
1 2
r
m1
r
m2
r
m3
r(m2)
r(m3)
r
r1
130
1
Se puede ver que los vectores propios de A son v1 = de valor propio = 1 y v3 = de valor propio
1
1
= 3, entonces tenemos que
1
1
3 0
1
1
A=
1 1
0 1
1 1
3k
Por tanto
Ak =
5.1.1.
1
1
3 0
1 1
0 1
1
1 1
1 k
1
(3 + 1)
0 1 1
= 2
1 k
1 2 1 1
2 (3 1)
1 k
2 (3
1 k
2 (3
1)
+ 1)
Relaciones de recurrencia
Si se tiene una relacin de recurrencia determinada por una ecuacin de la forma an = an1 + an2 ,
o
o
entonces tenemos el sistema de ecuaciones
an = an1 + an2 ,
an
=
El cual es equivalente al sistema
an1 = an1 ,
1
an1
an1
an2
an2
an3
, . . . , obtenemos
an1
an2
= An1 1 .
an1
a0
an
(5.1)
Si conocemos los valores de a1 y a0 , entonces con la Ecuaci (5.1) obtenemos una frmula para an en trminos
on
o
e
1 0
C 1 , con C la matriz de vectores propios
de los valores propios de A y n. Esto se da porque si A = C
0 2
n1
0
1
C 1 .
y 1 y 2 los valores propios de A, entonces An1 = C
n1
0
2
Ejemplo 5.2. (Sucecin de Fibonacci) La secuencia de Fibonacci satisface la relacin Fn = Fn1 + Fn2 ,
o
o
F
1 1
Fn
n1
=
De acuerdo a las ecuaciones Fn = Fn1 +Fn2 y Fn1 = Fn1 , tenemos el sistema
1 0
Fn2
Fn1
y por tanto
5).
Fn
Fn1
1
2
= An1
F1
F0
, con A =
1 1
1 0
5
1+ 5
con valor propio 1 = 1 (1 5) y v2 = 2
con
2
1
1
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
1
2
1
2
1
5
5
2 1
yD=
0
1
5.1.2.
1
2
F1
5
2
1
2
1+
y de estos
5
= An1 = CDn1 C 1
Fn1
F0
0
n1
1
0
1 5
=C 2
1
5
0
2 1
n
1
1
1
+ 25 5 1 25
2
5 2
n1
5
1
1
1
1
+ 2
5 2 25
5 2
Fn
1+
131
1
2
5
2
1
1
n1 C
0
n1
Cadenas de Markov
Esta subseccin tambin se trata de una aplicacin de la potencia de matrices y lo expondremos con ejemplos.
o
e
o
Ejemplo 5.3. Dos compaias A y B manipulan el mercado de celulares y se calcula que A tiene el 60 % de los
n
clientes, mientras que B maneja el 40 % del mercado. La compaia A prepara una agresiva campaa comercial
n
n
la cual, de acuerdo a un estudio de mercado, acarrear las siguientes consecuencias:
a
El 90 % de los clientes de A permancern con A y el resto se ir a B
a
a
El 30 % de los clientes de B se cambiarn a A y el resto permanecer con B.
a
a
Determine los porcentajes de clientes de A y B si se aplica la campaa 1 vez, 10 veces, k veces e indenidan
mente.
Si Xk y Yk es el porcentaje de clientes de A y B respectivamente despus de aplicar la campaa k veces
e
n
entonces tenemos que
Xk = 0,9Xk1 + 0,3Yk1
Yk = 0,1Xk1 + 0,7Yk1
equivalentemente
Xk
Yk
0,9
0,1
0,3 Xk1
.
0,7
Yk1
0,66
0,6
0,9 0,3
X0
0,9 0,3
X1
.
=
=
=
0,34
0,4
0,1 0,7
0,1 0,7
Y0
Y1
Es decir, A manejar el 66 % de los clientes y B el 34 %.
a
Si se aplica la campaa 10 veces obtenemos que
n
X10
Y10
0,9 0,3
0,1 0,7
X9
Y9
0,9 0,3
0,1 0,7
X8
Y8
= =
0,9 0,3
0,1 0,7
10
X0
Y0
0,749
0,251
132
0,9 0,3
,6
.
Despue de aplicar la campaa k veces obtenemos que = Ak = Ak , donde A =
s
n
0,1 0,7
,4
Y0
Yk
Para determinar la k- potencia de A calculamos los valores y vectores propios y encontramos que los
esima
1
3
vectores v1 = y v2 = de valores propios = 1
1
1
1 0
3 1
. De lo cual se obtiene
yD=
con C =
0 0,6
1
1
1
0
3 1
1
1
Ak = CDk C 1 =
0 0,6k 4 1
1
1
De esta forma tenemos que
Xk
Yk
= Ak
0, 6
0, 4
Xk
X0
que
1
3 + 0,6k
1
= 4
1
k
3
4 1 0,6
1
4
1
4
3 0,6k+1
1 + 0,6k+1
3
4
1
4
1 0,6k
1 + 3 0,6k
1
4
1 + 0,6k+1
1
4
3 0,6k+1 % y el de
Esto indica que si se aplica la campaa indenidamente el mximo porcentaje de clientes que obtiene A es
n
a
1
1
k+1
X = l
m
3 0,6
= 0,75 % y el m
nimo porcentaje al que B llegar es Y = l
a
m
3 + 0,6k+1 =
k 4
k 4
0,25 %.
Comparando este ultimo resultado con el obtenido al aplicar la campaa 10 veces obtenemos que es suciente
n
con aplicar esta alrededor de 10 veces para obener un buen benecio para la compaia.
n
PROBLEMAS
Problema 5.1.2. Encuentre el valor del trmino x20 de una sucecin que satisface la relacin de recurrencia
e
o
o
xn = xn1 + 2xn2 con x0 = x1 = 1. Encuentre una frmula en trminos de n para calcular el n-simo trmino.
o
e
e
e
Problema 5.1.3. Resuelva la relacin de recurrencia Tn = 2bTn1 b2 Tn2 con T1 = 2b, T2 = 3b2 y b cualquier
o
real.
Problema 5.1.4. Resuelva la relacin de recurrencia Tn = aTn1 a2 Tn2 con T1 = a, T2 = 0 y a cualquier
o
real.
Problema 5.1.5. Resuelva la relacin de recurrencia Tn = aTn1 + a2 Tn2 con T1 = a, T2 = 2a y a cualquier
o
real.
Problema 5.1.6. Encuentre una frmula en trminos de n para calcular el n-simo trmino de una sucecin
o
e
e
e
o
que satisface la relacin de recurrencia xn = 3xn1 + 4xn2 con x0 = 1 y x1 = 1.
o
Problema 5.1.7. Dos compaias A y B que manipulan el mercado de celulares preparan una campaa comercial
n
n
y de promociones. Un estudio de mercado predijo que esta campaa arrojar los siguientes resultados:
n
a
Dos tercios de los clientes de A se quedaran en A y el resto se cambiar a B
a
Dos quintos de los clientes de B se quedaran en B y el resto se cambiar a A
a
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
133
1. Cul ser el porcentaje de clientes de cada compaia si se continua llevando a cabo estas campaa indea
a
n
n
nidamente?
2. Si la compaia A tiene 60 porciento del mercado, cul ser el porcentaje de clientes de cada compaia si
n
a
a
n
se aplica la campaa 1 vez, 10 veces, 20 veces?
n
5.2.
k=0
1 k
x . Se sabe que esta serie es
k!
convergente para todo x R y por tanto ex est bien denido para todo x.
a
1 k
A y
k!
k=0
mostraremos en esta seccin que esta matriz est bien denida si A es diagonalizable. En general la matriz de
o
a
De igual forma para una matriz A deniremos la matriz exponencial como la matriz eA =
cualquier matriz compleja est bien denida, pero esto requiere de la forma de Jordan, en esta seccin solo nos
a
o
concentraremos en las matrices diagonalizables.
134
eD
2
.
.
.
..
.
0
.
.
.
0
Primero, si D = .
.
.
es diagonal, entonces
k
1
1 k
1 0
=
D =
k!
k! .
.
k=0
k=0
.
0
1 k
1
0
k=0 k!
1 k
k! 2
=
k=0
.
.
.
.
.
.
0
0
k
2
.
.
.
0
.
.
.
k=0
k
1
k
2
.
.
.
..
.
0
.
.
.
k
n
e 2
.
.
.
..
.
0
.
.
.
e n
1 0
=
.
k=0 k! .
.
k
0
n
..
.
..
e 1
0
0
=
.
.
.
.
.
.
0
1 k
n
k!
k=0
1 k
A =
k!
k=0
1
(CDC 1 )k =
k!
A
2 1
.
Ejemplo 5.4. Calcular eA si A =
1 2
k=0
1
Problema 5.2.1.
eA = CeD C 1 =
1. Demuestre
0
J
e =.
.
.
k=0
1 k
D
k!
C 1 = CeD C 1 ,
1
CDk C 1 = C
k!
1 1
1 1
e3
yD=
1 1
3
0
0
. Entonces
1
e4
e2
e4
e2
(m3)! e
(m1)! e
(m3)! e
(m2)! e
1
2! e
1
2! e
0
.
.
.
0
.
.
.
e
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
...
1
2! e
...
...
(m2)! e
(m3)! e
.
.
.
.
.
.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
135
2. Si J = J1 Js con Ji = Jpi ](i ) un bloque de Jordan, para i = 1, . . . , s demuestre que eJ = eJ1 eJs .
3. Si A = CJC 1 con J la forma cannica de Jordan, demuestre que eA = CeJ C 1 .
o
Este ejercicio demuestra que para toda matriz compleja A, la exponencial de A existe.
5.2.1.
x = a x + + a x ,
1
11 1
1n n
.
.
El cual es equivalente al sistema
.
x = a x + + a x ,
n1 1
nn n
n
a11
x
1
. .
. = .
. .
an1
x
n
x1
a11
.
.
el cual tambin, por simplicidad, escribiremos X = AX con X = . y A = .
e
.
.
xn
an1
..
.
..
.
x1
a1n
. .
. . ,
. .
xn
ann
a1n
.
. .
.
ann
c1
.
,
Teorema 5.1. La solucin al sistema X = AX est dado por X = eAt C con C = . con c1 , cn constantes.
o
a
.
cn
dX
dt
d(eAt C)
dt
d(eAt )
dt C
y esta
d
d(eAt )
=
l
m
dt
dt n
n
= l
m
k=0
1 kd k
A
t = l
m
n
k! dt
k=0
n
= A l
m
k=1
n1
= A l
m
d
1
(At)k =
l
m
k!
dt n
k=0
k=1
k=0
1 k k
A t
k!
1 k k1
A kt
k!
1
Ak1 tk1
(k 1)!
1 k k
A t = AeAt .
(k)!
x1 = 2x1 + x2 ,
x = x1 + 2x2 .
2
x
2 1
x
1
1 . Por el teorema anterior tenemos que la
El sistema se puede escribir en la forma =
1 2
x2
x2
At
solucin a este sistema est dado por X = e C.
o
a
136
C=
1
1
3 0
y por tanto
yD=
0 1
1
1
eAt = CeDt C 1 = C
e3t
x1
x2
1
se puede escribir como el producto A = CDC 1 con
2
C 1
= eAt C =
1 e3t + et
=
2 e3t et
c1 e3t + c2 et
c1 e3t c2 et
x1 = c1 e3t + c2 et
e3t et
e3t + et
x2 = c1 e3t c2 et
con c1 y c2 constantes.
Entre las mltiples aplicaciones de estos sistemas de ecuaciones diferenciales aparecen los mdelos poblaciou
o
nales los cuales se dividen en 3:
1. El modelo competitivo, cuando el crecimiento de una poblacin hace reducir el crecimiento de otra. En
o
a11 a12
satisfacen a11 , a22 > 0 y a12 , a21 < 0.
este caso los coecientes en la matriz A =
a21 a22
2. El modelo presa-depredador, cuando una poblacin elimina a la otra, en este se cumple a11 , a22 , a21 > 0
o
y a12 < 0 o a11 , a22 , a12 > 0 y a21 < 0.
3. El modelo simbitico o cooperativo, en el cual dos especies crecen de manera proporcional. En este se
o
cumple que a11 , a22 < 0 y a12 , a21 > 0.
Problema 5.2.2.
etJ
et
tet
t2 t
2! e
et
tet
t2 t
2! e
et
te
0
.
.
.
0
.
.
.
0
.
.
.
et
.
.
.
..
.
.
.
.
.
.
.
.
.
.
.
.
.
...
et
tet
t2 t
2! e
...
et
tet
...
et
tm3 t
(m3)! e
tm1 t
(m1)! e
tm3 t
(m3)! e
tm2 t
(m2)! e
tm2 t
(m2)! e
tm3 t
(m3)! e
.
.
.
.
.
.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
5.2.2.
137
Torneos
En un torneo con n equipos en el cual se enfrentan todos contra todos, las posiciones nales no muestran
completamente el ranking adecuado de los equipos, ya que el equipo con ms victorias pudo haber obtenido
a
estas a costa de los equipos ms debiles y viceversa, un equipo con pocos puntos puede haber derrotado
a
a los equipos fuertes pero no haber logrado vencer a los ms debiles. En este caso el ranking real de los
a
equipos no es el que muestra el cuadro de posiciones. Una manera de hacer un ranking mas adecuado se
puede obtener usando valores y vectores propios como sigue.
Denimos la matriz de incidencia A con entrada aij = 1 si el equipo i derrot al equipo j y aij = 0 en caso
o
contrario y denotamos por ri el ranking del equipo i con r1 + + rn = 1, si suponemos que el ranking
de cada equipo es veces a la suma de los rankings de los equipos que el derrot, es decir, el ranking de
o
i es proporcional a la suma de los equipos a los que derrot, obtenemos que r = Ar o equivalentemente
o
Ar =
1
r
y por tanto r es un vector propio de A. Entre los vectores propios de A escogeremos el vector
propio correspondiente al vector propio dominante. La existencia de un vector propio adecuado se garantiza
por el Teorema de Perron-Frobenius.
Ejemplo 5.6. En un torneo con seis equipos A F se dieron los siguientes resultados:
A derrot a B, C, D y a E; B derrot a C, D y a E; C derrot a D y a F; D derrot a E y a F; E derrot a
o
o
o
o
o
C y a F; F derrot a A y a B
o
Las posiciones de este torneo son lideradas por A con 4 victorias, seguido de B con 3, seguido por C, D,
E y F cada uno con dos victorias. Pero el ranking basado en la fortaleza del equipo y no el nmero de
u
victorias se obtiene del vector propio de la matriz de incidencia A asociado al valor conpropio dominante
garantizado por el Teorema de Perron-Frobenius.
0 1 1 1 1 0
0 0 1 1 1 0
numeric :: eigenvectors(A) en Mupad obtenemos que el vector propio asociado al valor propio dominante
0,586
0,41
0,319
0,319 .
0,319
0,426
En este ranking se obtiene que A es el equipo ms fuerte, pero esta vez seguido por F en lugar de B.
a
PROBLEMAS
1
Problema 5.2.5. Calcular la matriz eA donde A =
3
2b
b2
con b C.
138
Problema 5.2.6. Resuelva los sistemas de ecuaciones diferenciales:
a.
x = x1 + 2x2 ,
1
x = 3x1 + 2x2 .
2
x =
3y + 5z,
c. y = x 5y 4z.
z =
y z.
x1 (0) = 1
x2 (0) = 1
x(0) = 2
y(0) = 3
z(0) = 1
b. y = x 9y + 9z.
y(0) = 1
z = x 6y + 6z.
z(0) = 2
x = 8x + 9y + 14z,
x(0) = 2
d. y = 3x 4y 10z. y(0) = 1
z = x y + z.
z(0) = 1
Problema 5.2.7. Calcule el ranking de un torneo con 7 equipos en el cual se dieron los siguientes
resultados:
A derrot a B, C, D, E y a F; B derrot a C, D, E y a F; C derrot a D, E y a G; D derrot a E, F y a
o
o
o
o
G; E derrot a F y a G, F derrot a C y a G y G derrot a A y a B.
o
o
o
Cap
tulo 6
Notacin
o
vi :
j v j
v=
j=1
F
fi (v) = i
entonces el conjunto X = {v1 , . . . , vn } es una base de V . A esta base se le llama la base dual de X.
140
a) La funcin vi es una transformacin lineal:
o
o
n
j v j , w =
Sean v =
j=1
j=1
j vj y F, entonces
vi (v + w) = vi
vi (v) = vi
n
j=1
n
j=1
(j )vj = i = vi (v).
y as {v1 , . . . , vn } es L.I.
f = 1 v 1 + + n v n .
Sea v =
Ejemplo 6.1. Sea V = F2 y {e1 , e2 } la base estndar, una base para V est dada por {e , e }, de hecho
a
a
1 2
Esto se cumple en general, se deja como ejercicio para el lector mostrar lo siguiente.
Problema 6.1.1. Sea V un espacio vectorial, V su espacio dual y {v1 , . . . , vn } una base de V , si f V
Para i = 1, . . . , n, el elemento vi de X se puede ver como la transformacin que anula los elementos de
o
vi :
v1
.
.
.
0
.
.
.
vi
.
.
.
1
.
.
.
vn
Problema 6.1.2. Sea V un espacio vectorial, v V y V su dual, demuestre que si f (v) = 0 para todo
f V entonces v = 0.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
141
1 t
v w,
vt v
para todo
w V.
1 t
vt v v w
v (v) = 1.
1
v X t wX ,
vX t vX
para todo
w V,
Para ver un caso particular considere V = P2 con base X = {1, x, x2 }, si v = 2+x2 tenemos que vX
y
1
vX t vX
v (x) =
v (x2 ) =
1
2
0 1] 0 =
5
0
1
1 t
vX 1X = [2
5
5
v (1) =
1 t
1
v X x X = [2
5
5
1 t 2
1
vX (x )X = [2
5
5
1
2 + (x2 ) .
5
2
= 0
1
0
1] 1 = 0
0
0
2
0 1] 0 =
5
1
Demostracin. Si {v1 , , vn } es una base de V entonces por el Teorema 6.1 tenemos que {v1 , , vn }
o
es una base de V ambas bases con igual nmero de elementos. Por tanto dim V = dim V .
u
142
6.2.
El Espacio Bidual
Denicin 6.2. Sea V un espacio vectorial, denimos el espacio bidual de V , denotado por V como el
o
conjunto
V = L(V , R) = {f : V R/f es una transformacin lineal }.
o
En el Teorema 6.1 se demuestra que un espacio vectorial V y su dual V son isomorfos y en la demostracin
o
de ste se exhibe un isomorsmo, el cual depende de la escogencia de una base {v1 , . . . , vn } de V . A un
e
isomorsmo de esta clase se le llama Isomorsmo cannico. Esto obviamente implica un isomorsmo
o
entre V y V , el cual, por transitividad nos dice que V es isomorfo a V bajo un ismorsmo cannico.
o
El prximo teorema exhibe un isomorsmo entre V y su espacio bidual V que no depende de ninguna
o
base. A los isomorsmos se les conoce como Isomorsmos naturales.
a
Teorema 6.3. Sea V un espacio vectorial entonces V V , adems el isomorsmo es natural, es decir,
=
no depende de la base escogida.
v :
V
f
funcin es lineal.
o
v (f ) = f (v)
Sean f, g V y sea F
v (f + g) = (f + g)(v) = f (v) + g(v) = v (f ) + v (g)
v (f ) = (f )(v) = f (v) = f (v)
V
(v) = v
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
143
V
f t ()
a11
.
A= .
.
am1
entonces como A = f (v1 )Y
f (v2 )Y
a1i
.
f (vi )Y = .
.
ami
a12
.
.
.
am2
a1n
.
.
.
amn
..
.
f (vn )Y
equivalentemente
Por el Ejercicio 6.1.1 tenemos que f t (wj ) = aj1 v1 + + ajn vn , es decir, f t (wj )X
X [f
]Y = f t (w1 )X
X [f
f t (wm )X
a11
.
= .
.
a1n
a21
.
.
.
..
.
a2n
aj1
.
= . y por tanto
.
ajn
am1
.
. = At .
.
amn
144
Como f (p0 ) = 0, f (p1 ) = 1 y f (p2 ) = 2x tenemos que la matriz de f con respecto a las bases dadas
est dada por
a
A=
0 1
0 0
0
.
2
t
X [f ]Y = 1
0 ,
Esto lo podemos corroborar de manera directa aplicando la denicin de la aplicacin transpuesta como
o
o
sigue:
f t (s )(p0 ) = s (f (p0 )) = s (f (1)) = s (0) = 0
0
0
0
0
f t (s )(p1 ) = s (f (p1 )) = s (f (x)) = s (1) = 1
0
0
0
0
equivalentemente
f t (s ) = p
1
0
equivalentemente
f t (s ) = 2p
1
2
PROBLEMAS
Problema 6.2.1. Demuestre que T : V W es un isomorsmo si y solo so la aplicacin transpuesta
o
T : W V es un isomorsmo.
Problema 6.2.2. Sea V un EV de dimensin nita y sea x V y dena x V por x(f ) = f (x).
o
Problema 6.2.3. Sea V un EV de dimensin nita, demostrar que toda base de V es la base dual de
o
alguna base de V .
Problema 6.2.4. Determine cules de las siguientes funciones son funcionales lineales
a
a) f : P (R) R denida por f (p) = 2p (0) + p (1), donde P (R) es el conjunto de polinomios con
coecientes reales.
b) f : R2 R denida por f
x
y
= xy.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
145
d) . f : R3 R denida por f y = x2 + y 2 + z 2 .
z
1
p(t)dt.
0
0
1
a) = 0 , 2 , 0 R3
1
1
1
b) = 1 + x, 1 x, x2 P2 .
z
z
z
base de V talque = .
2
p(t)dt y f2 =
Problema Calcular T (f
) donde es la aplicacin transpuesta de T : R2 R2 denida por
o
T
6.2.8.
x
3x + 2y
x
= 2x + y.
y f
=
T
y
x
y
Problema 6.2.9. Sea T : Rn Rm una funcin. Demostrar que T es lineal si y solo si existen
o
f1 (x)
.
f1 , . . . , fm (Rn ) tal que T (x) =
para todo x Rn .
.
fm (x)
Problema 6.2.10. Sea V = Pn , sean c0 , . . . , cn constantes diferentes y para i = 0, . . . , n denamos
fi (p) = p(ci ). Demuestre lo siguiente
a) {f0 , . . . , fn } es una base de V .
b) existen polinomios unicos p0 , . . . , pn tal que pi (cj ) = ij .
b
a
pi (t)dt.
p(t)dt =
c)
i=0
146
6.3.
El Anulador de un Subespacio
Problemas
Problema 6.3.1. Sea V un espacio vectorial y W un subespacio de V , si {u1 , . . . , un } es una base de V
con {u1 , . . . , us } una base de W , demuestre que {u , . . . , u } es una base de An (W ).
n
s+1
Demuestre que si {u , . . . , u } es una base de An (W ) entonces {u1 , . . . , us } una base de An(An (W )).
n
s+1
n
j sj | j F, sj S, para j = 1, . . . , n, con n Z+ .
Si S V , denimos el conjunto genS =
Problema 6.3.4.
j=1
denida por T (f ) = f /U . Muestre que T es una transformacin lineal sobreyectiva con ker T = An (U ).
o
Cap
tulo 7
Funciones Bilineales
Las funciones bilineales juegan un papel importante en matemticas y en f
a
sica, ya que a partir de estas
se pueden denir muchos conceptos en muchas reas como en las lgebras de Lie, geometr diferencial
a
a
a
y reas de la f
a
sica. Un caso particular de las funciones bilineales son las formas bilineales se usan para
denir mtricas como las mtricas Lorentzianas y aparecen en muchos contextos con diferente nombres,
e
e
como en las lgebras simetrizables a izquierda en donde se denen productos simtricos a izquierda, el cual
a
e
es solo una forma bilineal con propiedades adicionales.
A menos que se indique lo contrario, en este cap
tulo todos los espacios vectoriales son de dimensin nita
o
y el campo de base se denotar por F con F = R o C.
a
7.1.
Denicin y Ejemplos
o
En esta seccin se introduciran algunos conceptos bsicos de las funciones bilineales y se hablar de la
o
a
a
matriz de una forma bilineal y tambin se mostrar como calcular esta matriz y la matriz cambio de base.
e
a
Denicin 7.1. Sean V, W y Z espacios vectoriales sobre un campo F, decimos que una funcin :
o
o
V W Z es bilineal si satisface:
a) (v + v , w) = (v, w) + (v , w),
b) (v, w + w ) = (v, w) + (v, w ),
c) (v, w) = (v, w) = (v, w),
para todo v, v V , w, w W y para todo F.
Notacin 5. El conjunto de funciones bilineales de V W en Z ser denotado por L2 (V, W ; Z), es decir,
o
a
L2 (V, W ; Z) = { : V W Z | es bilineal }.
147
148
En el caso particular en que V = W y Z = F, el espacio ser denotado por L2 (V ), es decir, L2 (V ) =
a
L(V, V ; F) y se le llama el conjunto de formas bilineales.
Ejemplo 7.1. Sea V = Mn (F) el conjunto de matrices n n con entradas en un campo F
a) La funcin [ , ] : V V V denida por [A, B] = AB BA es bilineal. A esta funcin se le conoce
o
o
como el producto corchete en V .
b) La funcin : V V F denida por (A, B) = tr(AB) es una forma bilineal.
o
c) La funcin : V V F denida por (A, B) = tr(A)tr(B) es una forma bilineal.
o
Se deja como un ejercicio al lector vericar que estas funciones son bilineales.
El espacio de formas bilineales de un espacio vectorial nito dimensional tiene una base cannica, la cual
o
describimos en el siguiente Lema.
Lema 7.1. Sea V un espacio vectorial sobre un campo F, X = {v1 , . . . , vn } una base de V y X la base
dual. Para i, j = 1, . . . , n denimos la funcin
o
ij :
V V
(v, w)
= ij (v, w) + ij (v , w).
Similarmente se demuestra que ij (v, w + w ) = ij (v, w) + ij (v, w ) y por tanto la funcin ij es
o
bilineal para todo i, j = 1, . . . , n.
El conjunto {ij }n
i,j=1 es linealmente independiente:
n
Supongamos que
i,j=1
ij ij (v, w) = 0.
i,j=1
Esto se cumple, en particular, para los vectores de la base, por tanto para todo h, k = 1, . . . , n tenemos
que
ij vi (vh ) vj (vl ) = hl .
ij ij (vh , vl ) =
0=
i,j=1
i,j=1
ih
jl
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
149
h v h , w =
Sean v =
hk hk .
h,k=1
k vk V , entonces tenemos
k=1
h=1
(v, w) =
(7.1)
h,k=1
h,k=1
k=1
h k hk
h k (vh , vk ) =
k v k
h v h ,
h=1
hk hk (v, w) =
h,k=1
h,k=1
hk hk
n
i v i ,
i=1
hk
j=1
j v j
i j hk (vi , vj )
i=1 j=1
h,k=1
h,k
hk h k .
(7.2)
h,k=1
X []X
X []X wX .
Si jamos una base X de V , existe una correspondencia entre L2 (V ) y Mn (F) donde a cada funcin
o
L2 (V ) le correponde la matriz
X []X
t
funcin bilineal denida por (v, w) = vX AwX .
o
L2 (V )
Mn (F)
X []X
t
donde A es la forma bilineal denida por (v, w) = vX Awx .
150
denida por (A, B) = tr(AB). Ntese que
o
(u1 , u1 ) = tr(E11 ) = 1
(u1 , u2 ) = tr(0) = 0
(u1 , u3 ) = tr(E12 ) = 0
(u1 , u4 ) = tr(0) = 0
(u2 , u1 ) = tr(E21 ) = 0
(u2 , u2 ) = tr(0) = 0
(u2 , u3 ) = tr(E22 ) = 1
(u2 , u3 ) = tr(0) = 0
(u3 , u1 ) = tr(0) = 1
(u3 , u4 ) = tr(E12 ) = 0
(u4 , u1 ) = tr(0) = 0
(u4 , u4 ) = tr(E22 ) = 1
Si A =
1
2
2 1
entonces
yB=
1 0
1
0
X []X
(A, B) = At X []X BX = 1
X
2
3
2 0
0
=
0 0
0 1
1 0
0 0
0
.
2
1
1 X []X = 4
1
0
1
y por tanto (A, B) = tr(AB) = 4.
2
X IY
v Y = P v Y y wX =
X IY
wY = P wY , tenemos
t
t
(v, w) = vX AwX = (P vY )t AP wX = vY P t AP wY ,
Ejemplo 7.3. Continuando Ejemplo 7.2, si en lugar de base de V = M2 (F), consideramos la base
el
la
0 1
0 1
1 0
1
0
, tenemos que la matriz de cambio de
, y4 =
, y3 =
, y2 =
Y = y1 =
1 0
1 0
0 1
0 1
1 1
0 0
0 0
1 1
, por tanto
base est dada por P =E IY = (y1 )E (y2 )E (y2 )E (y2 )E =
a
0 0 1 1
1 1
0 0
2 0
0 2
t
Y []Y = P E []E P =
0 0
0 0
0
.
2 0
0 2
0
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
1
0
2 1
151
= y1 + y2 + y4 por tanto
= y1 + y3 + y4 y B =
1 0
1
(A, B) = At
Y
[]Y BY = 1 0 1
1
1
1 Y []Y = 4
0
1
Problemas
Problema 7.1.1. Sea V un espacio vectorial sobre un campo F y sean 1 , 2 V , demuestre que la
funcin f : V V F denida por f (v1 , v2 ) = 1 (v1 )2 (v2 ) es una funcin bilineal.
o
o
Problema 7.1.2. Determine si el rec
proco del problema anterior tambin es cierto, es decir, si f L2 (V ),
e
Problema 7.1.3. Determine cuales de las siguientes funciones son bilineales, en caso armativo, escoja
una base del espacio y calcule la matriz de la forma bilineal con respecto a la base escogida:
f:
V V
(x, y)
a)
R
f (x, y) = det A
Problema 7.1.5. Calcule la matriz de cada una de las siguientes formas bilineales
x
x
1 2
3
3
a) : R R R denida por y1 , y2 = x1 x2 + y1 y2 2y1 z2 + z1 y2 .
z2
z1
Problema 7.1.6. Calcule las matrices de la forma bilineal del Ejemplo 7.1 parte c).
Problema 7.1.7. Sea : V W Z una funcin bilineal y sea x V jo, demuestre que la funcin
o
o
x :
o
Z denida por x (y) = (x, y) es una transformacin lineal.
152
Problema 7.1.8. Sea L2 (V ) una forma bilineal, sea x V jo y x : V F denida por
x (y) = (x, y). Demuestre que la funcin
o
X []Y
= ((xi , yj )).
X []Y
= I.
V V
(v, v )
F
T (v, v ) = (T (v), T (v ))
Desmuestre lo siguiente:
a) L2 (W ) si y solo s T L2 (V )
coef (p1 )
7.2.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
153
Notacin 6. Denotaremos por S(V ) al conjunto de funciones bilineales simtricas y por A(V ) al conjunto
o
e
de funciones bilineales antisimetricas.
Lema 7.2. Sea L2 (V ) y X una base de V arbitraria,
a) S(V ) si y solo si
X []X
b) A(V ) si y solo si
X []X
X []X
e
b) La funcin es antisimtrica si y solo s aij = (vi , vj ) = (vj , vi ) = aji si y solo s A es
o
e
antisimtrica.
e
Problemas
Problema 7.2.2. Escriba cada una de las matrices como una suma de una matriz simtrica y una matriz
e
antisimtrica
e
A = 2
1 2
1 0
4 1
2 5 2
B = 1 4 1
3 2 3
1 1
C = 2 1
2 2
Problema 7.2.3. Para las formas bilineales del Problema 7.1.3 partes a. y d. y del Problema 7.1.5,
determine si es simtrica, antisimtrica o escribala como una suma de una forma bilineal simtrica y una
e
e
e
antisimtrica.
e
154
7.3.
=0
=0
[]Y =
Armamos adems que C es invetible. Para esto veamos que N ul(C) = {0}. Sea z N ul(C) con
a
r+1
z
.
z = . , entonces tomando x = r+1 ur+1 + + n un W tenemos que xY = y por tanto para
.
0
n
todo v V se cumple que
0
Cz(= 0)
z
C 0
t
= vY = 0.
= vY
(v, x) = vY Y []y xY = vY
0
0
0
0 0
Por tanto x Rad() y como x W , se tiene que x Rad() W = {0}, de donde x = 0 y concluimos
que N ul(C) = {0} lo que implica que C es invertible.
De esto obtenemos que rango (Y []Y ) = rango(C) = n r = dim V dim Rad() = rango().
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
Esta ultima frmula no depende de la base Y , ya que si P =
o
la base X, entonces P es invertible y como A =
[]X = P t
155
X
Ejemplo 7.5. Sea : M2 (F) M2 (F) F denida por (A, B) = tr(A)tr(B). Es fcil ver que la matriz
a
de con respecto a la base X = {E11 , E21 , E12 , E22 } est dada
a
1 0 0
0 0 0
A = X []X =
0 0 0
1 0 0
por
Por tanto rango(A) = 1. Adems como Rad() = sl2 (F) = gen{E11 E22 , E12 , E21 }, tenemos que
a
rango() = dim M2 (F) dim Rad() = 4 3 = 1.
Este ultimo teorema nos permite demostrar el siguiente criterio para determinar, de una forma sencilla,
X []X
es la matriz
Demostracin. La forma bilineal es regular si y solo s Rad() = {0} si y solo s dim V = rango() =
o
Ejemplo 7.6. Sea : M2 (F) M2 (F) F denida por (A, B) = tr(AB). Como la matriz de con
respecto a la base X = {E11 , E21 , E12 , E22 } est dada por
a
1 0
0 0
A = X []X =
0 1
0 0
0 0
1 0
0 0
0 1
Problemas
Problema 7.3.1. Sean A, B Mn (F) demuestre lo siguiente:
a) Col(AB) Col(A),
b) rango(AB) rango(A),
156
c) rango(AB) rango(B),
d) Si B es invertible entonces rango(AB) = rango(A) y rango(BA) = rango(A).
Problema 7.3.2. Sea S(V ) una forma bilineal, sea x V jo, x : V F denida por x (y) =
:
(x, y) y
. Demuestre lo siguiente
a) Ker() = Rad()
b) es un isomorsmo si y solo si es regular. Concluya que si es regular, entonces para todo
funcional lineal f V existe x V tal que f (v) = (x, v), para todo v V . (Esta es la versin
o
general del Teorema de Riesz-Frechet).
c) Sea {v1 , . . . , vn } una base de V , demuestre que existe una base {w1 , . . . , wn } de V tal que (vi , wj ) =
ij .
Problema 7.3.3. Sea V = M2 (R) y : V V R denida por tr(AB) tr(A)tr(B). Determine
lo siguiente:
a) los valores de y para los cuales es regular.
b) calcule Rad() si = 2 y = 1 y, en este caso, calcule U si U = {E11 }.
Problema 7.3.4. Sea S(V ) una forma bilineal, demuestre lo siguiente
a) Si V = Fn , X es una base de V y A =
X AX
X AX
es la matriz de con
Problema 7.3.5. Sea V = M2 (R) y sea : V V R denida por (A, B) = tr(AB) tr(A)tr(B).
Calcule lo siguiente:
a) los valores de para los cuales no es regular.
b) el radical de para cada uno de los valores de encontrados en el numeral anterior.
Problema 7.3.6. Calcule el radical de cada una de las componentes simtricas de las formas bilineales
e
del Problema 7.2.3
Problema 7.3.7. Calcule el radical de la formas bilineal : M2 (F) M2 (F) F denida por (A, B) =
tr(A)tr(B).
Problema 7.3.8. Demuestre que si : Mn (F) Mn (F) F es la forma bilineal denida por (A, B) =
tr(A)tr(B) entonces Rad() = sln (F) = {A Mn (F) | tr(A) = 0}.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
7.4.
157
Complemento Ortogonal
Fn
y sea
vX
a11
.
.
A1 = .
as1
A, es decir
a1n
.
..
.
.
.
asn
con aij = (ai , aj ). Como es regular, entonces det(A) = 0 lo cual implica que rango(A1 ) = s y por tanto
dim N ul(A1 ) = n s
Armacin: U = T 1 (N ul(A), la imagen inversa de N ul(A) bajo el isomorsmo T .
o
Sea w U , entonces (v, w) = 0 para todo v U . En particular para i = 1, . . . , s tenemos que
0 = (ui , w) = (ui )X AwX = et AwX = i sima la de A wX = i sima la de A1 wX
e
e
i
Como esto se cumple para cada la de A1 , tenemos que AwX = 0 y por tanto wX = N ul(A1 ), luego
w = T 1 wX T 1 (N ul(A1 ).
Sea w T 1 (N ul(A1 ), entonces wX = T (w) N ul(A1 ), luego A1 wX = 0, por tanto para = 1, . . . , s
tenemos que
0 = et A1 wX = et AwX = (ut )X AwX = (ui , w)
i
i
i
y por tanto w U .
Como T es un isomorsmo entonces dim T 1 (N ul(A1 )) = dim N ul(A1 ) = n s, luego
dim(U ) = dimT 1 (N ul(A1 )) = n s = dim V dim U.
Aunque dim W + dim W = dim V , en general no es cierto que V = W W ya que hay casos en los
que an con regular se tiene que W W = 0 como se muestra en el siguiente ejemplo
u
158
Ejemplo 7.7. Sea V = M2 (R) y se : V V R denida por (A, B) = tr(AB). Por el Ejemplo 7.2
tenemos que la matriz de con respecto a la base estndar
a
1 0 0
0 0 1
X []X =
0 1 0
0 0 0
0
,
si
i=j
(vi , vi ) = ci
para
i = 1, . . . , n.
1
(x, y) =
(x + y, x + y) (x, x) (y, y) = 0
2
=0
=0
=0
Completemos la demostracin por induccin sobre dim V . Si dim V = 1, no hay nada que demostrar, ahora
o
o
supongamos que el teorema es cierto en espacios vectoriales de dimensin igual a dim V 1.
o
Sea n = dim V y sea T : V F la funcin denida por T (v) = (v, u1 ). Es claro que T es una
o
transformacin lineal ya que es bilineal, adems es sobreyectiva ya que T (u1 ) = (u1 , u1 ) = 0,
o
a
entonces tenemos que dim ker T = n 1. Entonces por la hiptesis inductiva tenemos que existe una base
o
{u2 , . . . , un } de ker T tal que (ui , uj ) = 0 para 2 i = j n.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
159
Como el conjunto {u2 , . . . , un } es una base de ker T y u1 ker T entonces el conjunto X = {u1 , u2 , . . . , un }
/
es linealmente independiente y por tanto una base para V . Finalmente ntese que los vectores u2 , . . . , un
o
ker T y por tanto se tiene que 0 = T (uj ) = (uj , u1 ), para j = 2, . . . , n, entonces el conjunto X es la base
de V buscada, ya que si denimos ci = (ui , ui ), con i = 1, . . . , n, obtenemos
c1 0 0
0 c2 0
[]X = .
X
. ..
. .
.
.
.
. .
.
.
0 0 cn
1
ui ,
ci
de las dos ra
ces cuadradas de ci , tomamos Y = {v1 , . . . , vn } entonces P =
X IY
obtenemos que
[]Y = P t
X []X P
c1
.
= .
.
0
..
.
0
.
.
.
c1
.
.
.
1
0
cn
..
.
0
c1
. .
. .
. .
cn
0
..
.
ci denota cualquiera
0
c1
.
.
..
. y
= .
.
.
.
1
0
c n
donde
0
.
.
.
1
.
= .
.
1
0
cn
..
.
.
.
.
1
En el caso real, reorganizamos los vectores tal que |c1 |, . . . , |cp | > 0 y |cp+1 |, . . . , |cn | < 0 y hacemos
vi =
1
ui
ci
para i = 1, . . . , p y vi =
1 ui
ci
para i = p + 1, . . . , n. Entonces
1 0
0
c1
P = X IY =
t
y en este caso Y []Y = P X []X P =
..
.
.
.
. .. .
.
. .
.
.
1
cp
. .. .
.
. .
.
.
..
1
cp+1
.
.
.
..
.
.
.
..
.
.
.
1
cn
Ejemplo 7.8. Sea V = Mn (F), : V V F la forma bilineal denida por (A, B) = tra(AB) y Y la
2 0
0
0 2
0
Y []Y =
0 0 2
0 0
0
1
1
1
1
y1 , y2 , y4 , y3
2
2
2
2
0
.
160
Problemas
Problema 7.4.2. Sea S(V ) regular, sea U un subespacio de V y dena f : V U la funcin
o
f (v) :
denida por
Problema 7.4.3. Sea V un espacio vectorial real con dim V = 2n, {v1 , . . . , v2n } una base de V y sea
sea
0 In
t
. Muestre que
la forma bilineal denida por (v, w) = vX SwX con S =
In 0
a) S(V ),
b) es no degenerada,
c) si U = gen{v1 , . . . , vn } entonces U U .
7.5.
Si es una forma bilineal simtrica sobre C, el Teorema 7.7 garantiza que esta se puede diagonalizar a
e
una matriz de 1s y 0s. Es claro que el nmero de 1s es el rango de la matriz y por tanto es invariante.
u
En el caso real la forma bilineal diagonaliza a una matriz de 1s, -1s y 0s y resulta que en este caso
tambin el nmero de 1s ( y por tanto el nmero de -1s) es invariante. Este resultado es conocido como
e
u
u
el Teorema de la signatura de Silvester.
En esta seccin V denotar un espacio vectorial nito dimensional sobre R.
o
a
Teorema 7.8. (Teorema de la signatura de Sylvester) Sea V un espacio vectorial, sea S(V ), y
sean X = {v1 , . . . , vn } y Y = {w1 , . . . , wn } bases de V tal que
(vi , vj ) = 0
i=j
(wi , wj ) = 0
i=j
(vi , vi ) = 1
i = 1, . . . , p
(wi , wi ) = 1
i = 1, . . . , q
(vi , vi ) = 1 i = p + 1, . . . , r
(vi , vi ) = 0
i = r + 1, . . . , n
(wi , wi ) = 1 i = q + 1, . . . , r
(wi , wi ) = 0
i = r + 1, . . . , n
Entonces p = q.
Demostracin. Supongamos que q > p y sea {w1 , . . . , wn } la base dual de Y . El sistema de ecuaciones
o
wk (x) = 0,
con
k = q + 1, . . . , r
x gen{vp+1 , . . . , vr }
(7.3)
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
161
Sea x = p+1 vp+1 + + r vr una solucin no trivial. Escribiendo x en trminos de Y , obtenemos que
o
e
x = y +z con y gen{w1 , . . . , wq } y z gen{wr+1 , . . . , wn }, ya que los vectores wq+1 , . . . , wr no satisfacen
el Sistema 7.3. Entonces tenemos lo siguiente:
(x, x) = (y, y) + (z, z) +2 (y, z) = (y, y) 0.
=0
=0
(ui , ui ) < 0,
(x, x) =
i=p+1
<0
162
Cap
tulo 8
8.1.
Denicin y propiedades
o
: V V F una
funcin,
o
a) Decimos que
es una forma sesquilineal, decimos que es positiva denida si x, x > 0 para todo x V \ {0}.
c) Decimos que
simtrica. En este caso un producto interno es una funcin bilineal simtrica positiva denida.
e
o
e
Lo ms importante de un producto interno en un espacio vectorial es la obtencin de una geometr en
a
o
a
el espacio, ya que con ste se puede denir una nocin de distancia, de ngulos y de ortogonalidad. A
e
o
a
163
164
continuacin denimos la nocin de norma (o distancia) y mostraremos como con el producto interno se
o
o
puede denir una norma.
Denicin 8.2. (Norma) Sea V un espacio vectorial sobre F, decimos que una funcin || || : V F
o
o
es una norma si satisface:
a) ||x|| > 0 para todo x V \ {0} y ||0|| = 0.
b) ||x|| = || ||x||, para todo F y para todo x F.
c) ||x+y|| ||x||+||y||, para todo x, y V . (Esta propiedad es conocida como la desigualdad triangular)
Si V es un espacio vectorial sobre F con un producto interno
y si denimos ||x|| =
x, x , vamos a
demostrar que la funcin || || : V F es una norma. La parte ms laboriosa es demostrar que satisface la
o
a
desigualdad triangular, para esto necesitamos demostrar primero la siguiente desigualdad, conocida como
la Desigualdad de Cauchy-Schwartz.
Lema 8.1. (Desigualdad de Cauchy-Schwartz) Sea V es un espacio vectorial sobre F,
producto interno sobre V y denamos ||x|| =
un
| x, y | ||x|| ||y||,
para todo x, y V.
y,x
||y||2 ,
(8.1)
0 ||x||2 2
(8.2)
De esto ultimo obtenemos que 0 ||x||2 ||y||2 | y, x |2 y por tanto | y, x | ||x|| ||y||.
|| || :
F
||x|| =
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
165
Por Cauchy-Schwartz.
Problemas
Problema 8.1.1. Demuestre que en la desigualdad de Cauchy-Schwartz se cumple la igualdad si y slo
o
si u y v son linealmente dependientes.
Problema 8.1.2. Demuestre que los siguientes son productos internos en el espacio dado.
x2
x1
= 2x1 x2 + x2 y1 + x1 y2 + y1 y2 en R2 .
,
a.
y2
y1
b. x, y = xt At Ay en Rn donde A es una matriz invertible n n.
n
i=1
c. v, w =
d. p, q =
j,k
n
i=1
i v i y w =
a j bk
en R[x] de polinomios en una variable sobre x donde p =
j+k+1
1
p(x)q(x)dx.)
, , demuestre que
n
i=1
i v i .
aj x j y q =
bk x k .
k
166
Problema 8.1.4. Sea V un espacio con producto interno
cumple lo siguiente
u + v, u + v
u, u +
v, v .
1
||u + v||2 ||u v||2
4
u, v =
1
||u + v||2 ||u||2 ||v||2
2
1
||u + v||2 ||u v||2 i||u + iv||2 + i||u iv||2
4
+ ,
es un producto interno y ,
Problema 8.1.8. De un contraejemplo de dos productos internos cuya diferencia no sea un producto
interno.
Problema 8.1.9. El producto interno usual en Rn se dene por x, y = xt y. Si
es el producto
1
2
y z un vector talque x, z = 2 y y, z = 1, encontrar z.
yy=
a. Sea x =
1
3
b. Muestre que para todo z R2 se tiene que z = e1 , z e1 + e2 , z e2
: R2
2
t
R denida por
det A > 0.
Problema 8.1.11. Encuentre los valores de para los que el producto denido por
x
x
1 , 2 = x1 x2 3x1 y2 3x2 y1 + y1 y2
y1
y2
sea un producto interno en R2 .
Problema 8.1.12. Sea V un espacio vectorial real o complejo con producto interno, demostrar que para
todo x, y V se cumple
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
8.2.
167
u1 , u1
..
.
[ , ]X =
.
.
X
un , u1
u1 , un
.
.
.
un , un
Problemas
Sea V un espacio vectorial con producto interno
= {0}.
8.3.
[ , ]Y = I n .
y sea W un subespacio de V ,
x, y = 0, para todo x W } .
Continuando con las similaridades entre formas bilineales simtricas regulares y espacios con producto
e
interno tenemos el siguiente resultado cuya demostracin es anloga a la demostracin del Lema 7.6
o
a
o
Lema 8.3. Sea V un espacio vectorial con producto interno
168
Demostracin. Se deja como ejercicio.
o
Tenemos la siguiente propiedad.
Teorema 8.4. Sea V un espacio vectorial con un producto interno
y sea W un subespacio de V ,
entonces V = W W .
Demostracin. Es fcil ver que W es un subespacio de V , veamos primero que W W = {0}.
o
a
Sea x W W , entonces x, x = 0, si x = 0 por denicin de producto interno x, x > 0, lo cual es
o
absurdo. Concluimos que x = 0.
Sea {w1 , . . . , ws } una base de W y n = dim V , por el lema anterior tenemos que
dim W = dim V dim W = n s,
entonces tomemos {ws+1 , . . . , wn } una base de W . Veamos que el conjunto {w1 , . . . , ws , ws+1 , . . . , wn }
es linealmente independiente y por tanto una base de V .
Supongamos que 1 w1 + + n wn = 0 con 1 , . . . , n F. Sea y1 = 1 w1 + + s ws y y2 =
s+1 ws+1 + + n wn , entonces y1 W , y2 W y y1 + y2 = 0. Se sigue que y1 = y2 W y por
tanto y1 W W = {0}, entonces y1 = 0 = y2 . Como w1 , . . . , ws es linealmente independiente y y1 = 0,
obtenemos que 1 = = s = 0 y como ws+1 , . . . , wn tambin es linealmente independiente y y2 = 0,
e
obtenemos que s+1 = = n = 0. Concluimos que {w1 , . . . , wn } es linealmente independiente y por
tanto una base de V .
Se sigue que V = W + W y como W W = {0} concluimos que V = W W .
Denicin 8.5. (Proyeccin Ortogonal) Sea V un espacio vectorial con un producto interno
o
o
sea W un subespacio de V . Por el teorema anterior, todo vector x V se puede descomponer en la suma
tenemos que ||x w|| = ||x ||. Mientras que si w = proyW x, como w proyW x W y x W , entonces
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
169
Problemas
Problema 8.3.1. Demuestre que si H y K son subespacios de un espacio vectorial V con producto interno
y H K, demuestre que K H y que H = (H ) .
Problema 8.3.2. Sea V un espacio vectorial nito dimensional con producto interno
y sea S V ,
denamos
n
W (S) =
i s i
v=
i=1
Demuestre lo siguiente
a) W (S) es un subespacio de V
b) (S ) = W (S).
Problema 8.3.3. Sea V un espacio vectorial, V1 y V2 subespacios de V tal qu V = V1 V2 y sean
y
interno
en V tal que:
a. V1 = V2 ,
b. x, y = x, y
con x, y Vi para i = 1, 2.
el producto interno
f (t)g(t)dt, calcular W
en V denido por f, g =
si W = {f V | f es impar}.
para todo
v, w V,
para todo
v V.
las transformaciones proyeccin sobre W y sobre W denidas por P1 (v) = proyW v y P2 (v) = proyW v.
o
170
Problema 8.3.8. Sea V un espacio con producto interno y sean W1 , W2 subespacios de V , demuestre que
(W1 W2 ) = W1 W2 .
Problema 8.3.9. Sea V un espacio con producto interno y sean W1 , W2 subespacios de V , muestre que
(W1 W2 ) = W1 + W2 .
8.4.
y sea X = {v1 , . . . , vn } un
subconjunto nito de V .
a) Decimos que X es un conjunto ortogonal si vi , vj = 0 para 1 i = j n.
b) Decimos que X es un conjunto ortonormal si es ortogonal y ||vi || = 1 para i = 1, . . . , n.
A continuacin demostramos que conjuntos ortogonales son linealmente independientes.
o
Lema 8.6. Sea V un espacio vectorial con un producto interno ,
0=
j v j
vi ,
j v i , v j = i .
=
j=i
j=1
=ij
y sea
wi , proyW =
j wj
wi ,
j=1
j wj , wi = i .
=
j=1
ji
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
171
Tambin sabemos que x = proyW x+x con x W , entonces w, x = 0 para todo w W . En particular
e
wi , x = 0 para i = 1, . . . , k. Por tanto tenemos que
Observacin 8.2. En el caso de que la base {w1 , . . . , wk } sea ortogonal entonces la proeccin de x sobre
o
o
W est dada por
a
proyW x =
wk , x
w1 , x
w1 + +
wk .
w1 , w1
wk , wk
y sea
de V si hacemos
w1 = v 1 ,
W1 = gen{w1 }
w2 = v2 proyW1 v2
W2 = gen{w1 , w2 }
w3 = v3 proyW2 v3
.
.
.
W3 = gen{w1 , w2 , w3 }
.
.
.
wn = vn proyWn1 vn
Entonces {w1 , . . . , wn } es una base ortogonal de V .
Ms an, si hacemos qi =
a u
1
||wi || wi
172
Solo nos resta demostrar que H = gen{w1 , . . . , wk }.
Como el conjunto {w1 , . . . , wk } es ortogonal, entonces por el Lema 8.6, ste es LI, y como dim H = k =
e
dim gen{w1 , . . . , wk } es suciente demostrar que w1 , . . . , wk H.
Primero ntese que w1 = v1 H.
o
Tambin tenemos que w2 = v2 proyw1 v2 = v2
e
v2 ,w1
w1 ,w1
w1 H.
v i , w1
vi , wi1
w1
wi1 H.
w1 , w1
wi1 , wi1
Concluimos que w1 , . . . , wk H y por tanto el conjunto {w1 , . . . , wk } es una base ortogonal para H.
Ejemplo 8.1. Sea V = R3 con el producto interno denido por v, w = v t Aw donde es la matriz
2 1 0
0 0 1
en MatLab como sigue, pero antes se deben denir la matriz A y los vectores v1 , v2 y v3 .
>> A=[2 1 0;1 2 0;0 0 1], v1=[0;0;1], v2=[1;0;0], v3=[0;1;0], w1 = v1
>> z2 = v2 (w1 A v2) w1
Con este clculo obtenemos z2 = v2 = e1 , como queremos que la base sea ortonormal hacemos w2 =
a
1
||z2 || z2 ,
con este clculo obtenemos w2 = 0 . El siguiente paso es calcular el tercer vector ortogonal con la
a
0
frmula z3 = v3 proyW2 v3 con W2 = gen{w1 , w2 } y como esta base es ortognal entonces
o
t
t
z3 = v3 w1 , v3 w1 w2 , v3 w2 = v3 (w1 Av3 )w1 (w2 Av3 )w2
1/2
Con este clculo obtenemos z3 = 1 . Finalmente para hacer la base ortonormal hacemos w3 =
a
0
1
||z3 || z3 , lo cual se calcula con el comando
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
173
6
obteniendo w3 = 2 .
3
0
Terminamos el cap
tulo con el teorema de Riesz-Frchet, el cual dice que todo funcional lineal se puede
e
escribir en trminos del producto interno.
e
Teorema 8.10. (Teorema de Riesz-Frchet) Sea V un espacio vectorial con un producto interno , .
e
Si f V entonces existe un unico xf V tal que f (y) = xf , y , para todo y V .
f (y) = f
wi , y wi
wi , y f (wi ).
=
i=1
i=1
xw , y =
f (wi )wi , y
f (wi ) wi , y .
=
i=1
i=1
Problemas
Problema 8.4.1. Sea V un espacio vectorial con producto interno
{w1 , . . . , wk } es una base ortogonal entonces la proyeccin ortogonal de x sobre W est dada por
o
a
proyW x =
w1 , x
wk , x
w1 + +
wk .
w1 , w1
wk , wk
Problema 8.4.2. Sea {u1 , . . . , uk } una conjunto ortonormal en un espacio V con producto interno, sea
x V y para i = 1, . . . , k, sea i = ui , x . Demuestre lo siguiente:
k
a)
i=1
|i |2 ||x||2 .
i=1
i ui ||2 )
174
Problema 8.4.3. Sea V un espacio vectorial con producto interno
normal de V . Muestre
vk , x vk , y ,
x, y =
k=1
para todo x, y V .
Problema 8.4.4. Sean v1 , . . . , vk vectores ortogonales en un espacio con producto interno, demuestre que
||v1 + + vk ||2 = ||v1 ||2 + + ||vk ||2
Problema 8.4.5. Sea V un espacio vectorial con producto interno
ortonormal de V , T : V V una transformacin lineal y A =
o
[T (v1 )]
[T (vn )]
. Demuestre
Problema 8.4.6. Sea V un espacio vectorial nito dimensional con producto interno y T : V V una
transformacin lineal. Demuestre lo siguiente:
o
a) Existe una tranformacin lineal T : V V tal que v, T (w) = T (v), w , para todo v, w V .
o
(Use el Teorema de Riesz-Frechet)
b) Si T es invertible entonces T es invertible y (T )1 = (T 1 ) .
c) Calcule D si D : P3 P3 es la transformacin lineal diferenciacin, es decir D(a0 + a1 t + a2 t2 +
o
o
1
p(x)q(x)dx.
0
Problema 8.4.7. Sea V = M22 con el producto interno A, B = tr(AB t ) y sea T (A) = P 1 AP con P
una matriz invertible 2x2, calcule T .
1
Cap
tulo 9
Formas Cuadrticas
a
9.1.
a11
.
Denicin 9.1. Sea A = .
o
.
am1
..
.
a1n
.
. de tamao m n con entradas complejas.
n
.
amn
1. Denimos la matriz conjugada de A, denotada por A, como la matriz que se obtiene al conjugar las
entradas de A, estos es
a11
.
A= .
.
am1
..
.
a1n
.
.
.
amn
1
1i
1
1
1i
, ntese que A =
=
o
Ejemplo 9.1. Considere la matriz A =
1+i
2
1i
1+i
2
1
1i
t
. Como A = AH entonces A es una matriz hermitiana.
y AH = A =
1+i
2
1+i
2
Teorema 9.1. Sea A una matriz hermitiana de tamao nn entonces los valores propios de A son reales.
n
Esto es, si es un valor propio de A entonces R. En particular, si A una matriz simtrica con
e
entradas reales, entonces sus valores propios son reales y por tanto sus vectores propios son reales.
t
v v = v t v = v t v Av = v t Av = v t AH v = v t A v = (Av)t v
= (Av)t v = (v)t v = v t v = v v.
175
176
De donde se sigue que ( )v v = 0, como v = 0 entonces v v = 0. Por tanto , es decir = .
Teorema 9.2. Sea A una matriz hermitiana de tamao nn y sean x y y vectores propios de valores
n
propios 1 y 2 , respectivamente. Si 1 = 2 entonces x y = 0, es decir, x y y son ortogonales. El teorema
tambin se cumple si A es una matriz simtrica con entradas reales.
e
e
Demostracin.
o
1 (v1 v2 ) = (1 v1 v2 ) = (Av1 v2 ) = (Av1 )t v2 = (Av1 )t v2
= v1 t A
AH =A
v2 = v1 t Av2 = v1 t 2 v2 = 2 v1 t v2 = 2 (v1 v2 ).
2 1
. Los valores propios de A son = 1 y = 3 los cuales son nmeros
u
Ejemplo 9.2. Sea A =
1 2
1
1
o
reales y los vectores propios son v1 = y v2 = . Ntese que v1 v2 = 0.
1
1
2 1 1
1 1
2
para calcular la factorizacin de su polinomio caracter
o
stico:
>> A = [2 1 1; 1 2 1; 1 1 2]; f actor(poly(sym(A)))
ans =
x (x 3)2
Por tanto los valores propios son = 0 y = 2 de multiplicidad 2.
9.2.
Formas Cuadrticas
a
aii x2 +
i
i=1
aij xi xj .
i<j
aii x2 +
i
Ntese que si F =
o
i=1
a11
a12
2
.
.
.
a1n
2
a12
2
a22
.
.
.
..
.
a2n
2
x1
.
.
. y x = . .
.
.
xn
a1n
2
a2n
2
ann
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
177
Ejemplo 9.4. forma caudrtica F = 2x2 + 2xy + 2y 2 se puede escribir matricialmente como F =
a
La
x
2 1
.
x y
y
1 2
Observacin 9.1. Un hecho muy conocido, pero que no ser demostrado en este libro, es que toda matriz
o
a
simtrica es diagonalizable, esto hecho lo usaremos en el siguiente teorema.
e
Teorema 9.3. (Teorema de los ejes principales) Sea F = xt Qx un forma cuadrtica en n variables con
a
Q una matriz simtrica. Como Q es diagonalizable existen vectores propios v1 , . . . , vn de Q linealmente
e
independientes. Sean 1 , . . . , n los respectivos valores propios correspondientes a v1 , . . . , vn y sea X =
{v1 , . . . , vn }, entonces X es una base de Rn . Entonces bajo la base X, la forma cuadrtica tiene la forma:
a
2
2
F = 1 y1 + + n yn .
1
1
1
1
w1k1 , . . . ,
wsks
w11 , . . . ,
ws1 , . . . ,
||w11 ||
||w1k1 ||
||ws1 ||
||wsks ||
.
X QX = .
.
0
Adems sabemos que
a
X QX
0
.
.
.
= BQB 1 donde B = v1
..
.
X QX B
(9.1)
t
= B X QX B
(9.2)
X QX Bx
= (Bx)t
X QX Bx
= yt
X QX y.
(9.3)
178
Adems ntese que los ejes de esta forma cuadrtica son los vectores de la base X, los cuales son perpena o
a
diculares.
Observacin 9.2. Una ecuacin de la forma F = c con F una forma cuadrtica y c una constante es
o
o
a
una seccin cnica.
o o
El teorema de los ejes principales nos permite identicar la secciones cnicas. Sea xt Qx = c una cnica
o
o
con c > 0 constante y sean 1 , . . . , 2 los valores propios de Q, entonces tenemos lo siguiente:
Si Q es 2x2 y:
a) 1 , 2 > 0 entonces xt Qx = c es una elipse.
b) 1 , 2 < 0 entonces xt Qx = c es vacia.
c) 1 2 < 0 entonces xt Qx = c es una hiprbola.
e
d) 1 2 = 0 entonces xt Qx = c es una forma degenerada.
En el caso 3x3 tenemos:
a) Si 1 , 2 , 3 > 0 entonces xt Qx = c es un elipsoide.
b) Si 1 , 2 , 3 < 0 entonces xt Qx = c es vacia.
c) Si uno de los i es positivo y los otros negativos entonces xt Qx = c es un hiperboloide de 2 hojas
d) Si uno de los i es negativo y los otros positivos, entonces xt Qx = c es un hiperboloide de una hoja.
e) Si c = 0 y uno de los i es positivo y los otros negativos o dos positivos y uno negativo entonces
xt Qx = c es un cono.
Ahora consideremos la ecuacin z = xt Qx con z variable y Q de tamano 2x2 con valores propios 1 y
o
n
2 . Entonces tenemos lo siguiente
a) Si 1 2 > 0 entonces z = xt Qx es un paraboloide el
ptico.
b) Si 1 2 < 0 entonces z = xt Qx es un paraboloide hiperblico o silla de montar.
o
Ejemplo 9.5. seccin cnica 2x2 + 2xy + 2y 2 = 4 se puede escribir matricialmente en la forma
o
o
La
x
2 1
= 4.
x y
y
1 2
1
1
2 1
son v1 = y v2 = con valores propios 1 y 3, respectivamente.
Los vectores propios de Q =
1
1
1 2
Entonces con respecto a la base X = {v1 , v2 } tenemos que la ecuacin de la forma cuadrtica est dada
o
a
a
por x2 + 3y 2 = 4 cuya ecuacin corresponde a una elipse.
o
Ahora, si consideramos la ecuacin z = 2x2 + 2xy + 2y 2 entonces con respecto a la base X la ecuacin
o
o
tiene la forma z = x2 + 3y 2 el cual corresponde a un paraboloide el
ptico.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
179
1
son v1 = y v2 = con valores propios
Los vectores propios de Q =
1
1
2 0
1
-2 y 2, respectivamente. Normalizando estos vectores obtenemos w1 = 2 v1 y w2 =
0 2
x
=
y
y
2 0
1
v2 ,
2
0 2
entonces con
respecto a la base X = {w1 , w2 } tenemos que la ecuacin de la seccin cnica est dada por 2x2 +2y 2 = 5
o
o o
a
5/2
5/2
y 5 w 2 =
.
linea generada por v2 y con interceptos 5 w2 = 25 v2 =
2
2
5/2
5/2
Ahora, si consideramos la ecuacin z = 4xy entonces con respecto a la base X la ecuacin tiene la forma
o
o
z = 2x2 + 2y 2 la cual corresponde a un paraboloide hiperblico o silla de montar.
o
1 1
t
ecuacin x Qx = 5.
o
o
1, determinar que tipo de cnica corresponde a la
1
1
1
propios los cuales son v1 = 1 con valor propio 3 y v2 = 1 y v3 = 0 ambos de valor propio 6.
1
0
1
Ntese que v2 y v3 no son ortogonales, pero estos forman una base para subespacio propio E6 , entonces
o
el
1/2
usando Gramm-Schmidt, reemplazamos v3 por w3 = v3 proyv2 v3 = 1/2. Obtenemos que los ejes
1
coordenados bajo los cuales la grca de xt Qx = 5 es un elipsoide son las lineas determinadas por los
a
vectores:
1
v1 = 1 ,
1
1
v2 = 1
0
1/2
w3 = 1/2 .
180
1
5.
o
o
1 1, determinar que tipo de cnica corresponde a la ecuacin xt Qx =
1
5
5
Solucin. Se puede ver que los valores propios de Q son = 3, 6 y 6. Por tanto la cnica corresponde
o
o
a un hiperboloide de una hoja.
1/2
1
Es fcil ver que los vectores propios de Q son v1 = 1 con valor propio 3, v2 = 1/2 de valor propio
a
1
1
1
6 y v3 = 1 de valor propio -6. De donde se sigue que la ecuacin de esta cnica con respecto a la base
o
o
0
{v1 , v2 , v3 } es 3x2 + 6y 2 6z 2 = 5, la cual corresponde a un hiperboloide de una hoja cuyo eje central es
la linea generada por el vector v3 .
Ejemplo 9.9. Determine el tipo de cnica determinada por la cuadrtica 2xy + 2xz + 2yz = 5.
o
a
0 1 1
1 1 0
1
1/2
1
o
v1 = 1 y v2 = 1/2 ambos de valor propio -1 y v3 = 1 de valor propio 2. Por tanto la ecuacin
1
1
0
2
2
de esta cnica con respecto a la base {v1 , v2 , v3 } es x y + 2z 2 = 5 cuya grca corresponde a un
o
a
paraboloide de dos hojas cuyo eje central es la linea generada por el vector v3 .
Problemas
a) Encuentre una matriz ortogonal Q y una matriz diagonal D
3 2
3
4
c. A = 1
b. A =
a. A =
2 3
4 3
0
1 3 0
1 0
3 0 d. A = 3 1 0
0 0 1
0 2
b) Para cada una de las matrices del problema anterior identique el tipo de cnica representada por la
o
forma cuadrtica xt Ax = 4 y bosquejar su graca.
a
c) Para las matrices dadas en los Problemas 1 aa. y 1 ab. identique el tipo de supercie que que representa la ecuacin z = xt Ax con z variable.
o
d) Para cada una de las matrices del Problema 1 a encuentre una base X de vectores propios y encuentre
la matriz
X AX .
Cap
tulo 10
Formas Multilineales
En este cap
tulo deniremos las formas multilineales y daremos sus propiedades bsicas, tambin introdua
e
ciremos las formas multilineales simtricas y alternadas. En la ultima seccin deniremos el determinante
e
o
de una matriz como una funcin multilineal alternada y mostraremos que esta denicin es equivalente a
o
o
la que se dio en la Seccin 0.5.
o
10.1.
Funciones Multilineales
Denicin 10.1. Sean W1 , . . . , Wn y V espacios vectoriales sobre un campo F, decimos que una funcin
o
o
f : W1 Wn V es n-lineal si satisface
b) f (w1 , . . . , wi , . . . , wn ) = f (w1 , . . . , wi , . . . , wn )
para todo i = 1, . . . , n, F y wi , wi Wi .
182
Teorema 10.1. Si W es un espacio vectorial sobre un campo F y sea {w1 , . . . , wm } una base de W y
entonces el conjunto {i1 ,...,in }i1 ,...,in =1 es una base de Ln (W ) y por tanto dim(Ln (W )) = (dim W )n .
Demostracin. Se dejea como ejercicio al lector.
o
Problema 10.1.1. Demuestre el Teorema 10.1.
Problema 10.1.2. Si W1 , . . . , Wn son espacios vectoriales sobre un campo F y sea {wi1 , . . . , wimi } una
o
base de Wi y {wi1 , . . . , wimi } la base dual, con i = 1, . . . , n. Denimos la funcin j1 ,...,jn : V n F
determinada por
(10.1)
entonces el conjunto {j1 ,...,jn }, donde cada ji corre de 1 a mi = dim Wi , es una base de L(W1 , . . . , Wn ; F)
y por tanto dim L(W1 , . . . , Wn ; F) = dim W1 dim Wn .
10.2.
Denicin 10.2. Sea Ln (V ) con V un espacio vectorial sobre F, decimos que es una forma nlineal
o
simtrica si para todo v1 , . . . , vn V se cumple que
e
(v1 , . . . , vi , vi+1 , . . . , vn ) = (v1 , . . . , vi , vi+1 , . . . , vn )
con
1 i < n.
1
n!
(v(1) , . . . , v(n) )
Sn
Ln (V )
Sn (V )
A la funcin
o
s()
o
Problema 10.2.2. Si {v1 , . . . , vk } es una base de V y j1 ,...,jn es la forma n-lineal denida en la Ecuacin
10.1 entonces el conjunto {s(j1 ,...,jn ) | 1 j1 jn k} es una base de Sn (V ). Se sigue que la
funcin simetrizante es sobreyectiva y que la dimensin de Sn (V ) est dada por dim Sn (V ) =
o
o
a
n+k
k
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
10.3.
183
Formas Alternantes
Denicin 10.3. Si Ln (V ) es una forma n-lineal, decimos que es alternada si para todo v1 , . . . , vn
o
V se cumple que
(v1 , . . . , vi , vi+1 , . . . , vn ) = (v1 , . . . , vi+1 , vi , . . . , vn )
para todo i = 1, . . . , n 1.
El conjunto de n-formas alternadas lo denotaremos por n (W ).
Las propiedades bsicas de las formas alternantes son las siguientes.
a
Lema 10.2. Sea n (V ), F y sean v1 , . . . , vn V entonces:
a) (v1 , . . . , vi , . . . , vj , . . . , vn ) = (v1 , . . . , vj , . . . , vi , . . . , vn ) para todo 1 i < j n.
b) Si vi = 0 para algn i entonces (v1 , . . . , vn ) = 0,
u
c) (v1 , . . . , vn ) = n (v1 , . . . , vn ),
d) Si vi = vj para algn i, j entonces (v1 , . . . , vn ) = 0,
u
e) (v1 , . . . , vi + vj , . . . , vj . . . , vn ) = (v1 , . . . , vi , . . . , vj . . . , vn )
Demostracin. 1.
o
(v1 , . . . , vi , . . . , vj , . . . , vn ) = (1)ji (v1 , . . . , vi1 , vi+1 , . . . , vj , vi . . . , vn )
= (1)ji (1)ji1 (v1 , . . . , vi1 , vj , . . . , vi . . . , vn )
= (v1 , . . . , vj , . . . , vi . . . , vn )
2.
(v1 , . . . , vi , . . . , vn ) = (v1 , . . . , O, . . . , vn ) = (v1 , . . . , 0 O, . . . , vn )
= 0 (v1 , . . . , O, . . . , vn )
=0
3. Como n (V ) Ln (V ) se tiene que (v1 , . . . , vn ) = n (v1 , . . . , vn ).
4. Por la parte 1. de este Lema tenemos que
(v1 , . . . , vi . . . , vj , . . . , vn ) = (v1 , . . . , vj . . . , vi , . . . , vn )
ahora supongamos que vi = vj entonces (v1 , . . . , vi . . . , vi , . . . , vn ) = (v1 , . . . , vi . . . , vi , . . . , vn ) de
donde 2(v1 , . . . , vi . . . , vi , . . . , vn ) = 0 y por tanto (v1 , . . . , vi . . . , vi , . . . , vn ) = 0.
184
5.
(v1 , . . . , vi , . . . , vj + vi , . . . , vn ) = (v1 , . . . , vi , . . . , vj , . . . , vn ) + (v1 , . . . , vi , . . . , vi , . . . , vn )
= (v1 , . . . , vi , . . . , vj , . . . , vn ) + (v1 , . . . , vi , . . . , vi , . . . , vn )
=0
= (v1 , . . . , vi , . . . , vj , . . . , vn )
=0
=0
1
n!
donde sgn() denota el signo de la permutacin , entonces A() es una forma alternada.
o
A:
Ln (V )
n (V )
A la funcin
o
A()
o
Problema 10.3.1. Si {v1 , . . . , vk } es una base de V y j1 ,...,jn es la forma n-lineal denida en la Ecuacin
10.1 entonces el conjunto {A(j1 ,...,jn ) | 1 j1 < < jn k} es una base de n (V ). Se sigue que la
funcin alternante es sobreyectiva y que la dimensin de An (V ) est dada por dim An (V ) =
o
o
a
n
k
En el resto de la seccin veremos el determinante como una forma n-lineal alternada y mostratermos
o
que n (Fn ) = gen{det}, tambin veremos las propiedades del determinante. Para el resto del cap
e
tulo
usaremos la siguiente notacin.
o
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
185
a1
f (A) = f (B).
ai
aj
an
y B =
a1
n
Teorema 10.5. Sea f n (F y A Mnn (F), si A =
...
ai + aj
a11
0
.
.
.
a22
.
.
.
..
.
0
.
.
.
ann
aj
an
entonces
es diagonal, entonces
Demostracin. f (A) = f (a11 e1 , . . . , ann en ) = a11 ann f (e1 , . . . , en ) = a11 ann f (In ).
o
Del Problema 10.3.1 sabemos que dim n (Fn ) = 1, el siguiente teorema ser clave para determinar una
a
forma que genere el espacio n (Fn ).
a11
a12
a22
.
.
.
f (A) =
Sn
..
.
an2
a21
n
Teorema 10.6. Sea f n (F ) y A = .
.
.
an1
a1n
a2n
. entonces
.
.
ann
f (A) = f (a1 , . . . , an ) = f
ain n ein
ai1 1 ei1 , . . . ,
in =1
i1 =1
n
=
i1 =1
n
=
i1 =1
ai1 1
in =1
(10.2)
186
Ahora, ntese que si existen h y k tal que ih = ik entonces f (ei1 , . . . , ein ) = 0. Por tanto las unicas
o
ntuplas i1 , . . . , in en la expresin (10.2) para las cuales f (ei1 , . . . , ein ) = 0 son las n-tuplas tal que
o
i1 , . . . , in son todos diferentes, es decir, las n-tuplas tal que (i1 , . . . , in ) es una permutacin de 1, . . . , n.
o
Deniendo la permutacin de {1, . . . , n} para la cual (j) = ij , tenmos que la expresin (10.2) se
o
o
convierte en
f (A) =
Sn
=
Sn
=
Sn
a11
a21
Teorema 10.7. Sea A = .
.
.
an1
det(A) =
Sn
a12
a22
.
.
.
..
.
an2
a1n
Sn
a2n
n n
a1i
b1i
.
.
Demostracin. Primero mostremos que det es lineal en cada componente. Sea ai = . y bi = .
o
.
.
ani
bni
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
187
=
Sn
= det(a1 , . . . , aj , . . . , an ) + det(a1 , . . . , bj , . . . , an )
det(a1 , . . . , aj , . . . , an ) =
Sn
=
Sn
= det(a1 , . . . , aj , . . . , an ).
Ahora mostremos que det es una n-forma alternada.
Sea = (i
o
i + 1) la permutacin de Sn para la cual (i) = i + 1 y (j) = j si j < i o j > i + 1. Entonces
=
Sn
=
Sn
=
Sn
= det(a1 , . . . , ai+1 , ai , . . . , an )
Ahora supongamos que g es una n-forma alternada tal que g(In ) = 1, entonces por el Teorema 10.6
g(a1 , . . . , an ) =
Sn
Sn
188
Teorema 10.9. Sean A, B Mnn (C) entonces
1. det(AB) = det(A) det(B),
2. Si A es invertible entonces det(A1 ) =
1
.
det(A)
1
det(A) .
Para matrices invertibles podemos resolver sistemas de ecuaciones lineales Ax = b usando la famosa regla
de Cramer, cuya demostracin hacemos a continuacin.
o
o
Teorema 10.10. (Regla de Cramer) Sea b Fn , A = a1
a1 , . . . , an son las columnas de A y denamos la matrices
A1 = b
a2
an ,
A2 = a1
a2
an , . . . , An = a1
a2
b ,
det(A1 )
,
det(A)
2 =
det(A2 )
det(An )
, . . . , n =
.
det(A)
det(A)
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
189
Demostracin. Como A es invertible, sabemos que el sistema Ax = b tiene solucin unica. Sea
o
o
n
i=1
i=1
i det(a1 , . . . , ai , . . . , an )
i ai , . . . , an ) =
=A
+ n det(a1 , . . . , an , . . . , an )
=0
= j det A.
De esto se sigue que j =
detAj
.
det A
Problemas
Problema 10.3.2. Demuestre que A es invertible si y slo si det A = 0.
o
2
10.4.
X TX
entonces det A = c.
Cofactores
En estos momentos tenemos dos deniciones diferentes de determinante, la primera se dio en ultima
o
mostraremos que ambas deniciones son equivalentes. La estrategia a seguir es la siguiente: usaremos la
denicin de determinante como la unica forma n-lineal alternada cuyo valor en In es 1 y mostraremos
o
190
Un hecho importante que ser util en la demostracin de que Cof es una funcin n-lineal alternada es el
a
o
o
hecho de que Cof = Cofi = Cof i , para i = 1, . . . , n, donde Cofi es el cofactor obtenido por expansn en
o
la la i y Cof i es el cofactor obtenido por expansin en la columna i. Ms especicamente
o
a
n
Cofi (A) =
Cof i (A) =
j=1
j=1
Estas frmulas se demostraron en le Teorema 0.22. Procedemos ahora a demostrar que Cof n (Fn ).
o
Teorema 10.11. La funcin Cof es una n-forma alternada.
o
Demostracin. Primero mostremos la linearidad en cada componente. Sean a1 , . . . , an Fn con
o
ai = (a1i , . . . , ani ), entonces usando cofactores en la i-sima columna obtenemos:
e
Cof (a1 , . . . , ai + bi , . . . , an ) = Cof i (a1 , . . . , ai + bi , . . . , an )
n
=
j=1
n
=
j=1
=
j=1
+
j=1
j=1
n
=
j=1
= Cofi (a1 , . . . , ai , . . . , an )
= Cof (a1 , . . . , ai , . . . , an )
Ahora veamos que Cof es alternada.
Usando expansin por cofactores en la i-sima columna de Cof (a1 , . . . , ai , ai+1 , . . . , an ) tenemos
o
e
Cof (a1 , . . . , ai , ai+1 , . . . , an ) = Cof i (a1 , . . . , ai , . . . , an )
n
=
j=1
(10.3)
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
191
=
j=1
n
=
j=1
(10.4)
j=1
Problemas
10.5.
Matriz Adjunta
Denicin 10.4. Sea A Mnn (C), denimos el ij-simo cofactor de A, denotado Cij , por la ecuacin
o
e
o
Cij = (1)i+j Cof (Aij ) = (1)i+j det(Aij ).
Denicin 10.5. Sea A Mnn (C), denimos la matriz adjunta de A, denotada por adj(A), como la
o
matriz:
C11
.
adj(A) = .
.
Cn1
..
.
t
C1n
C11
.
.
. = .
.
.
Cnn
C1n
..
.
Cn1
.
. .
.
Cnn
192
Lema 10.13. Sea A Mnn (C), entonces para todo i, k = 1, . . . , n se tiene que
n
(10.5)
j=1
aji Cji =
j=1
j=1
a1
ak
ak
an
de A reemplazando la isima columna de A por la ksima columna de A. Entoonces por el Lema 10.2
e
e
tenemos que det(B) = 0. Si denotamos por Djk el jksimo cofactor de B y notando que para j = 1, . . . , n
e
se cumple que Bji = Aji , ya que al borrar la isima columna de B se obtiene lo mismo que al borrar la
e
isima columna de A. Luego Dji = (1)i+j Bji = (1)i+j Aji = Cji y por tanto
e
n
n
j=1
ajk Cji .
bji Dji =
ajk
Cji
j=1
1
adj(A).
det(A)
a11
a21
A adj(A) = .
.
.
an1
n
a12
a1n
a22
.
.
.
..
.
a2n
.
.
.
an2
ann
C11
C12
.
.
.
C1n
a1j C2j
j=1
n
a1j C1j
j=1
=0
det(A)
a2j C1j
a2j C2j
j=1
j=1
=0
=det(A)
.
.
.
.
.
.
..
anj C2j
anj C1j
j=1
j=1
=0
=0
det(A)
0
.
.
.
det(A)
.
.
.
..
.
0
.
.
.
det(A)
C21
Cn1
C22
.
.
.
..
.
Cn2
.
.
.
C2n
Cnn
a1j Cnj
=0
a2j Cnj
j=1
=0
anj Cnj
j=1
j=1
=det(A)
= det(A) In .
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
De donde A1 =
1
adj(A).
det(A)
Problemas
Problema 10.5.1. Sea A Mn (F) y B = adj(A), demuestre lo siguiente:
a) B 1 =
1
det A A
193
194
Cap
tulo 11
Producto Tensorial
11.1.
Espacios Cociente
(v + H) = v + H
(11.1)
196
Demostracin. Veamos que las operaciones (11.1) estn bien denidas: Supongamos que v + H = v + H
o
a
y w+H = w +H, entonces vv H y ww H entonces (v+w)(v +w ) = vv +ww H entonces
por el Lema 11.1 (v + w) + H = (v + w ) + H. Ademas si es un escalar entonces v v = (v v ) H
y por tanto v + H = v + H.
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
197
V /W
d) Si X es una base de V y A =
X TX
V /W
11.2.
Producto Tensorial
En esta seccin haremos una construccin del producto tensorial de dos espacios vectoriales V y W . Alo
o
gunos autores preeren no hacer esta construccin y demuestran que existe un unico espacio vectorial
o
198
Denicin 11.2. Sean V y W espacios vectoriales sobre F, y sea TV,W = gen{ev,w | v V, w W }.
o
Ahora, considere el subespacio H de TV,W generado por las relaciones:
H = gen{ev+v ,w ev,w ev ,w ; ev,w+w ev,w ev,w ; ev,w ev,w ; ev,w ev,w | v, v V, w, w W, F}.
Denimos el producto tensorial de V W como el espacio cociente
V F W = TV,W /H.
Notacin 11. Ntese que los elementos de V W son combinaciones lineales de elementos de la forma
o
o
ev,w + H con v V y w W , a estos elementos los denotaremos por v w, es decir
v w = ev,w + H.
(11.2)
(11.3)
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
199
Al nal de la prxima seccin estaremos en capacidad de demostrar que el conjunto generador en (11.3)
o
o
es en realidad una base para V W .
11.3.
En esta seccin demostramos la Propiedad Universal del producto tensorial, la cual se resume en lo siguieno
te: las funciones bilineales de V W en un espacio Z se extienden de manera unica a transformaciones
o
T : V F W Z tal que T i = , es decir, tal que el siguiente diagrama conmuta.
Demostracin.
o
T
i
=
i
i T (vi wi ).
debe demostrar que T est bien denida, es decir, que si vw = v w entonces T (vw) = T (v w ).
a
Para esto denamos la funcin S : TV,W Z denida por S (ev,w ) = (v, w) y la extendemos
o
linealmente, es decir,
i evi ,wi
S
i
i S (evi ,wi ).
i
Veamos que H ker(S ), para lo cual es suciente mostrar que los generadores de (H) pertenecen
200
a ker(S ).
S (ev+v ,w ev,w ev ,w ) = S (ev+v ,w ) S (ev,w ) S (ev ,w )
= (v + v , w) (v, w) (v , w)
= (v, w) + (v , w) (v, w) (v , w) = 0
S (ev,w+w ev,w ev,w ) = S (ev,w+w ) S (ev,w ) S (ev,w )
= (v, w + w ) (v, w) (v, w )
= (v, w) + (v, w ) (v, w) (v, w ) = 0
S (ev,w ev,w ) = S (ev,w ) S (ev,w ) = (v, w) (v, w)
= (v, w) (v, w) = 0
S (ev,w ev,w ) = S (ev,w ) S (ev,w ) = (v, w) (v, w)
= (v, w) (v, w) = 0
Concluimos que H ker(S ), entonces por el Problema 11.1.3, la funcin S : TV,W /H Z denida
o
o
por S (ev,w + H) = S (ev,w ) es una transformacin lineal bien denida. Como V W = TV,W /H,
ev,w + H = v w y S (ev,w ) = (v, w) tenemos que la transformacin
o
S :
V W
vw
Z
(v, w)
est bien denida. Ntese que T (v w) = (v, w) = S (v w) entonces tenemos que T = S y por
a
o
tanto T es una transformacin lineal bien denida.
o
Claramente T i(v, w) = T (i(v, w)) = T (v w) = (v, w) y por tanto T i = . Finalmente ntese
o
que T es unica con esta propiedad, ya que si existiera T : V W Z tal que T i(v, w) = ,
entonces tendr
amos que para todo v V y todo w W
T (v w) = T (i(v, w)) = T i(v, w) = (v, w) = T i(v, w) = T (i(v, w)) = T (v w),
y por tanto T = T .
Este teorema implica que el espacio de funciones bilineales L2 (V, W ; Z) es isomorfo al espacio de transformaciones lineales de V W en Z. Esto lo demostramos a continuacin.
o
Corolario 11.5. Sean V , W y Z espacios vectoriales sobre un campo F, entonces se tiene que
L2 (V, W ; Z) L(V F W, Z),
=
donde L2 (V, W ; Z) es el espacio de las funciones bilineales de V W en Z y L(V F W, Z) es el espacio de
las transformaciones lineales de V F W en Z. El isomorsmo env una funcin bilineal L2 (V, W ; Z)
a
o
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
201
Problema 11.3.1. Sean V y W espacios vectoriales sobre un campo F con dim V = n y dim W = m y
K un campo tal que F K.
1. Use el Corolario 11.5 para demostar que
dim(V W ) = dim V dim W.
2. Use 1. y el Ejercicio 11.2.1 para concluir que si {v1 , . . . , vn } y {w1 , . . . , wm } son bases de V y W ,
respectivamente, entonces {v1 w1 , . . . , v1 wm , . . . , vn w1 , . . . , vn wm } es una base de V F W .
11.4.
El problema de extensin
o
Una pregunta natural que surge de la teor de espacios vectoriales es la siguiente: Si V es un espacio
a
vectorial sobre un campo F y K es un campo que contiene a F, como puedo extender la estructura de V
para que sea un espacio vectorial sobre K? Este es conocido como el problema de extensin y una respuesta
o
se puede dar usando el producto tensorial, como se muestra en el siguiente teorema.
Teorema 11.6. (Teorema de extensin) Sean F y K campos con F K y sea V un espacio vectorial
o
sobre F, entonces V = K F V es un espacio vectorial sobre K bajo la suma usual de V y el producto por
escalar denido por
k(k v) = (kk ) v,
(11.4)
para todo
k, k K y para todo v V,
(11.5)
202
Armacin: El producto por escalar denido en (11.4) est bien denido, es decir, si k, k1 y k2 K y
o
a
v1 , v2 V son tal que k1 v1 = k2 v2 entonces kk1 v1 = kk2 v2 .
o
Supongamos que k1 v1 = k2 v2 , entonces ek1 ,v1 ek2 ,v2 H. Como H es invariante bajo la accin (11.5)
o
entonces k(ek1 ,v1 ek2 ,v2 ) H, pero de la Ecuacin (11.5), tenemos que kek1 ,v1 = ekk1 ,v1 y kek2 ,v2 = ekk2 ,v2 ,
por tanto
ekk1 ,v1 ekk2 ,v2 = kek1 ,v1 kek2 ,v2 = k(ek1 ,v1 ek2 ,v2 ) H,
luego por el Lema 11.1 tenemos que ekk1 ,v1 + H = ekk2 ,v2 + H, o equivalentemente
kk1 v1 = kk2 v2 .
Por la denicin de K V , ste es un espacio vectorial sobre F y por tanto un grupo aditivo, veamos que
o
e
satisface las dems condiciones para ser un espacio vectorial sobre K.
a
Sean k, k1 , k2 K
(k1 + k2 )(k v) = ((k1 + k2 )k) v = (k1 k + k2 k) v = k1 k v + k2 k v = k1 (k v) + k2 (k v).
k(k1 v1 + k2 v2 ) = k(k1 v1 ) + k(k2 v2 ).
(k1 k2 )(k v) = ((k1 k2 )k) v = (k1 (k2 k)) v = k1 ((k2 k) v) = k1 (k2 (k v)).
1(k v) = (1k) v = k v.
Problemas
T :
K F F
kf
kf
K entonces dimF K > 1 y por tanto dim(K F V ) = dim(K) dim(V ) > dim(V ). )
b
a
campo bajo la suma y producto usual de reales y con inversos (a+b 2) = a2 2b2 a2 2b2 2. Determine
lo siguiente
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
203
11.5.
En esta seccin veremos algunas propiedades del producto tensorial y en las demostraciones se podr obo
a
servar la importancia y utilidad de la Propiedad Universal.
Teorema 11.7. Sean V, W y Z espacios vectoriales sobre un campo F y K un campo tal que F K.
Entonces tenemos lo siguiente:
1. V F W W F V.
=
2. (V F W ) F Z V F (W F Z).
=
3. (V W ) F Z (V F Z) (W F Z).
=
4. Si dim V = n entonces K F V Kn .
=
Demostracin.
o
o
T1 : V W W V
tal que T1 (v w) = 1 (v, w) = w v.
Ahora, considere la funcin 2 : W V V W denida por (w, v) = v w, 2 es claramente
o
bilineal, entonces aplicando nuevamente el Teorema 11.4 existe una transformacin lineal unica
o
T2 : W V V W
tal que T2 (w v) = 1 (w, v) = v w.
Ntese que T1 T2 = id y T2 T1 = id, de donde tenemos que ambas transformaciones son isomorsmos
o
y por tanto V W W V.
=
o
Tz : V W V (W Z)
tal que Tz (v w) = z (v, w) = v (w z).
204
Ahora denamos la funcin 1 : (V W )Z V (W Z) denida por 1 (v w, z) = Tz (v w) =
o
v (wz). Es fcil ver que es bilineal, entonces por el Teorema 11.4, existe una unica transformacin
a
o
lineal
T1 : (V W ) Z V (W Z)
tal que T1 ((v w) z) = 1 (v w, z) = v (w z).
Para construir la inversa, comencemos por jar v V y consideremos la funcin
o
v : W Z (V W ) Z denida por 2 (w z) = (v w) z. Est funcin es claramente bilineal,
a
o
por tanto existe una unica transformacin lineal
o
Tv : W Z (V W ) Z
tal que Tv (w z) = v (w, z) = (v w) z.
Ahora considere la funcin 2 : V (W Z) (V W ) Z denida por 2 (v, w z) = Tv (w z) =
o
(v w) v. Es fcil ver que 2 es bilineal y por tanto existe una unica trasnformacin lineal
a
o
T2 : V (W Z) (V W ) Z
tal que T2 (v (w z)) = 2 (v, w z) = (v w) z.
V (W Z).
3. Sea : (V W ) Z (V Z) (W Z) denida por ((v, w), z) = (v z, w z). Es fcil ver
a
que esta funcin es bilineal, entonces existe una unica transformacin lineal
o
o
T : (V W ) Z (V Z) (W Z)
tal que T ((v, w) z) = ((v, w), z) = (v z, w z).
Para construir la inversa de T , considere las funciones 1 : V Z (V W ) Z denida por
1 (v, z) = (v, 0) z y 2 : W Z (V W ) Z denida por 2 (w, z) = (0, w) z. Es fcil ver
a
que 1 y 2 son bilineales, entonces existen transformaciones lineales
T1 : V Z (V W ) Z
T2 : W Z (V W ) Z
= (v z1 , 0) + (0, w z2 ) = (v z1 , w z2 ) y
=0
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
205
nveces
nveces
nveces
Teorema 11.8. (Producto tensorial de funciones) Sean V, V , W y W espacios vectoriales sobre F y sean
T : V W y T : V W transformaciones lineales, entonces
1. Existe una unica transformacin lineal, que denotaremos por T T , de V V en W W tal que
o
T T (v v ) = T (v) T (v ).
Es fcil ver que es bilineal y por tanto existe una unica transformacin, la cual llamaremos T T ,
a
o
T T : V V W W
tal que T T (v v ) = (v, v ) = T (v) T (v ).
2. Sean v V y v V , entonces
S S T T (v v ) = S S (T (v) T (v )) = S(T (v)) S (T (v ))
= S T (v) S T (v ) = S T S T (v v ).
Como esta igualdad se cumple para v y v arbitrarios entonces concluimos que
S S T T = S T S T .
Problema 11.5.1. Con la notacin del teorema anterior, demuestre que si T y T son isomorsmos,
o
entonces T T es un isomorsmo.
De esto se sigue que si V W y V W entonces V V W W .
=
=
=
206
Terminamos la seccin con el siguiente isomorsmo de especial importancia.
o
Teorema 11.9. Sean V, W y Z espacios vectoriales sobre un campo F, entonces
L(V, L(W, Z)) L(V W, Z),
=
donde en general L(M, N ) denota el espacio de transformaciones lineales de M en N .
Demostracin. Si f : V L(W, Z) es una transformacin lineal y v V , denotaremos la imagen f (v)
o
o
de v por fv y denimos la funcin f : V W Z por f (v, w) = fv (w). Veamos que esta funcin es
o
o
bilineal.
Como f es lineal entonces fv+v = f (v + v ) = f (v) + f (v ) = fv + fv , luego
(v + v , w) = fv+v (w) = (fv + fv )(w) = fv (w) + fv (w) = (v, w) + (v , w)
(v, w + w ) = fv (w + w ) = fv (w) + fv (w ) = (v, w) + (v, w )
Entonces por el Teorema 11.4, existe una unica transformacin lineal
o
Tf : V W Z
tal que Tf (v w) = f (v, w) = fv (w).
Ahora, considere la funcin : L (V, L(W, Z)) L(V W, Z) denida por (f ) = Tf . Veamos que
o
es un isomorsmo.
1. es lineal:
Primero ntese que si f, f L(W, Z), F, v V y w W se tiene que
o
Tf +f (v w) = (f + f )v (w) = (f + f )(v)(w) = (f (v) + f (v))(w)
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
207
Problemas
Para los siguientes problemas, V , W y Z son espacios vectoriales sobre un campo F, V , W y Z sus
respectivos duales, L(V, W ) el conjunto de transformaciones lineales de V y W y L2 (V, W ; Z) el conjunto
de funciones bilineales de V W en Z.
Problema 11.5.2. Demuestre que si V V entonces V W V W .
=
=
Problema 11.5.3. Considere la funcin H : V W L(V, W ) denida por H(f, w)(v) = Tf,w donde
o
Tf,w : V W es la transformacin denida por Tf,w (v) = f (v)w. Demuestre que H es un isomorsmo.
o
Problema 11.5.4. Use el Ejercicio 11.5.3 y el Teorema 11.9 para demostrar que (V W ) V W .
=
Pn [x] Pm [y]
Pm+n [x, y]
pq
T (p q) = p(x)q(y)
L2 (V, W ; F) Z
L2 (V, W ; Z)
T ( z)
donde T (z) : V W Z se dene por T (z)(v, w) = (v, w)z. Demuestre que T es un isomorsmo.
Problema 11.5.9. Considere la funcin
o
V W
L2 (V, W ; F)
f g
H:
H(f g)
donde H(f g) : V W W est denida por H(f g)(v, w) = f (v)g(w). Demuestre que H es un
a
isomorsmo.
208
Problema 11.5.10. Considere la funcin
o
H:
L2 (V, W ; F)
(V W )
H()
donde H() : V W F est denida por H()(v w) = (v, w). Demuestre que H es un isomorsmo.
a
Problema 11.5.11. Considere la funcin
o
V W
L(W, V )
vf
H:
H(v f )
donde H(v f ) : W V est denida por H(v f )(w) = f (w)v. Demuestre que H es un isomorsmo.
a
Para los problemas 11.5.12 al 11.5.16 se tendr que T : V V y S : W W son transformaciones
a
lineales y A =
TX y B =
Y = {w1 , . . . , wm } de V y W .
Adems usaremos la notacin A B para denotar a la matriz de la transformacin T S con respecto a
a
o
o
la base {v1 w1 , . . . , v1 wm , . . . , vn w1 , . . . , vn wm }.
a11 B
a11 a1n
.
.
.
..
. entonces A B = .
Problema 11.5.12. Si A = .
.
.
.
.
an1 B
an1 ann
..
.
a1n B
.
.
.
ann B
a) rango(A B) = rango(A)rango(B).
b) tr(A B) = tr(A)tr(B).
c) det(A B) = det(A)m det(B)n .
Problema 11.5.14. Demuestre que Ker(T S) = Ker(T ) W + V Ker(S).
Problema 11.5.15. Demuestre que Im(T S) = Im(T ) Im(S).
Problema 11.5.16. Sean T : V W , T : W Z, S : V W y S : W Z transformaciones
lineales y sean A A , B y B sus respectivas matrices con respecto a algunas bases de estos espacios.
Demostrar que
(A B )(A B) = A A B B.
Problema 11.5.17. Si V y W son espacios vectoriales sobre F, demuestre que la funcin
o
L(V, W ) L(V , W )
L(V V , W W )
(f, g)
T :
Tf,g = f g
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
11.6.
209
H = gen{ev1 ,...,vi +vi ,...,vn ev1 ,...,vi ,...,vn ev1 ,...,vi ,...,vn ; ev1 ,...,vi ,...,vn e1 ,...,vi ,...,vn | vi Vi , para i = 1, . . . , n y
o
T : V1 Vn Z tal que T i = , es decir, tal que el siguiente diagrama conmuta.
11.7.
como el subespacio
H = gen{ev1 ,...,vi +vi ,...,vn ev1 ,...,vi ,...,vn ev1 ,...,vi ,...,vn ; ev1 ,...,vi ,...,vn e1 ,...,vi ,...,vn ; ev1 ,...,vi ,vi+1 ,...,vn ev1 ,...,vi+1 ,vi ,...,vn
210
Denimos el producto simtrico V V , al cual denotamos por S n (V ) como el cociente
e
S n (V ) = TV, . . . , V /H
nveces
n+m
n
Teorema 11.13. (Propiedad universal) Sean V y Z espacios vectoriales sobre un campo F y sea
i : V n S n (V ) la funcin denida por i(v1 , . . . , vn ) = v1 vn , entonces tenemos lo siguiente:
o
1. Si T : S n (V ) Z es una transformacin lineal entonces = T i : V n Z es una funcin
o
o
miltilineal simtrica.
e
2. Si : V n Z es una funcin multilineal simtrica entonces existe una unica transformacin lineal
o
e
o
T : S n (V ) Z tal que T i = , es decir, tal que el siguiente diagrama conmuta.
11.8.
T 1 (V ) = V
T 0 (V ) = F
para m 2
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
211
Teorema 11.14. (Propiedad Universal) Sea V un espacio vectorial sobre un campo F, W una Fa
lgebra y : V W una transformacin lineal, entonces existe un unico homomorsmo de F-lgebras
o
a
: T (V ) W tal que |V = .
Teorema 11.15. Sea V un espacio vectorial sobre F y {v1 , . . . , vn } una base de V , entonces el conjunto
{vi1 vik | 1 ij n para j = 1, . . . , k}
es una base para T k (V ), de esto tenemos que dim(T k (V )) = nk .
Denicin 11.6. Decimos que un anillo S es graduado si S es la suma directa de subespacios
o
S = S0 S1 S2 = Sk
k=0
y se satisface que Sm Sn Sm+n .
a) Un ideal I de S se llama graduado si I = (I Sk )
k=0
Teorema 11.16. Sea R un anillo graduado e I un ideal graduado de S entonces S/I es un anillo graduado.
Demostracin. Sea Ik = ISk y denamos : S Sk /Ik por (s0 , s1 , . . . ) = (s0 +I0 , s1 +I1 , . . . ).
o
k=0
Entonces es sobreyectivo. Veamos que Ker = I.
I.
Por otra parte si x = (s0 , s1 , . . . ) I = Ik entonces sk Ik for k = 1, 2, . . . y por tanto (s0 , s1 , . . . ) =
k=0
(s0 + I0 , s1 + I1 , . . . ) = ( . . . ).
0, 0,
11.8.1.
Algebra simtrica
e
Denicin 11.7. Sea V un espacio vectorial, T (V ) el lgebra tensorial. Denimos el lgebra simtrica
o
a
a
e
de V como el cociente S(V ) = T (V )/C(V ) donde C(V ) es el ideal generado por los elementos de la forma
vi vj vj vi .
212
Lema 11.17. Sea V un espacio vectorial sobre un campo F, sea C k (V ) el ideal de T k (V ) generado por
los elementos de la forma vi vj vj vi y sea S k (V ) = T k (V )/C k (V ) donde S 0 (V ) = S 1 (V ) = {0}.
Entonces S(V ) = S k (V ).
k=0
Denicin 11.8. Sea : V k W una funcin multilineal, decimos que es una funcin simtrica si
o
o
o
e
para i = 1, . . . , k se cumple que
(v1 , . . . , vi , vi+1 , . . . , vk ) = (v1 , . . . , vi+1 , vi , . . . , vk ).
Teorema 11.18. Sea V un espacio vectorial, {v1 , . . . , vn } una base de V y W una F-lgebra conmutativa,
a
entonces
a) C k (V ) es tambin generado por el conjunto {v1 vk v(1) v(k) | Sk }.
e
b) Si : V k W es una funcin multilineal simtrica, entonces existe una unica transformacin
o
e
o
lineal : S k (V ) W tal que = i donde i : V k S k (V ) es la funcin denida por
o
i(v1 , . . . , vk ) = v1 vk .
c) (Propiedad Universal) Si : V W es una transformacin lineal, existe un unico homomorsmo
o
k. En particular dim(S k (V ) =
11.8.2.
k+n1
n1
Algebra Exterior
Denicin 11.9. Sea V un espacio vectorial, T (V ) el lgebra tensorial. Denimos el lgebra exterior de
o
a
a
V como el cociente (V ) = T (V )/A(V ) donde A(V ) es el ideal generado por los elementos de la forma
v v.
La imagen del elemento v1 vk en (V ) ser denotada por v1 vk
a
Lema 11.20. Sea V un espacio vectorial sobre un campo F, sea Ak (V ) el ideal de T k (V ) generado por
(V ) = k (V ).
k=0
o
lineal : k (V ) W tal que = i donde i : V k S k (V ) es la funcin denida por
o
i(v1 , . . . , vk ) = v1 vk .
Autor: OMAR DAR SALDARRIAGA, MAURICIO LONDONO
IO
213
Teorema 11.22. Sea V un espacio vectorial sobre un campo F y sea {v1 , . . . , vn } una base de V , entonces
el conjunto {vi1 vik | 1 i1 < < ik k} es una base de k (V ). En particular dim(k (V )) =
n
k
Problemas
Problema 11.8.1. Exhiba bases de S 3 (R4 ), S 3 (R2 ), S 2 (R3 ) y 3 (R4 ).
En los siguientes problemas V denota un espacio vectorial nito dimensional.
Problema 11.8.2. Demuestre que existe una correspondencia biun
voca entre el espacio S k (V ) y el espacio Sk (V ) de formas k-lineales simtricas.
e
Problema 11.8.3. Demuestre que existe una correspondencia biun
voca entre el espacio k (V ) y el
espacio Ak (V ) de formas k-lineales alternadas.
Problema 11.8.4. Demuestre que T 2 (V ) S 2 (V ) 2 (V ).
=