Sunteți pe pagina 1din 215

Álgebra lineal

Felipe Zaldı́var
Departamento de Matemáticas
Universidad Autónoma Metropolitana-I
México, D.F., México
Álgebra Lineal
Álgebra Lineal
Felipe Zaldı́var
Primera edición: 2003

c Felipe Zaldı́var
ISBN: 970-xxx-xxx-x

Impreso en México/Printed in Mexico


Índice general

Prólogo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . IX

Capı́tulo 1 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1


1.1 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Espacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3 Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5 Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.6 Bases y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

Capı́tulo 2 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37


2.1 Transformaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.2 Núcleo e imagen de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.3 Transformación lineal asociada a una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.3.1 Producto de matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.3.2 La transformación lineal asociada a una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 61
2.4 Matriz asociada a una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
2.5 Cambios de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73

Capı́tulo 3 Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77


3.1 Solubilidad de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.2 Operaciones elementales y el rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.3 El método de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91

Capı́tulo 4 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103


4.1 Expansión por menores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.2 Permutaciones y determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
4.3 Propiedades de los determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115

Capı́tulo 5 Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119


5.1 Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.2 Subespacios invariantes y subespacios cı́clicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
5.3 Polinomios de matrices y de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132

Capı́tulo 6 Formas canónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143


6.1 Triangulación de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
6.2 La forma canónica de Jordan. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
6.3 La forma canónica racional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160

Capı́tulo 7 Espacios con producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163


7.1 Productos internos y hermitianos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
VII
VIII ÍNDICE GENERAL

7.2 Normas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167


7.3 Bases ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171
Capı́tulo 8 Los teoremas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
8.1 La adjunta de una transformación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 177
8.2 Operadores audoadjuntos y normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
8.3 Los teoremas espectrales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
8.4 Operadores ortogonales y unitarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
Capı́tulo 9 Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
9.1 Funciones y formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189
9.2 Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
9.3 Formas cuadráticas sobre R. El teorema de Sylvester . . . . . . . . . . . . . . . . . . . . . . 195
9.4 Aplicaciones a la geometrı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197

Capı́tulo 10 Álgebra multilineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 199


10.1 Funciones multilineales y el producto tensorial . . . . . . . . . . . . . . . . . . . . . . . . . . 199
10.2 Tensores simétricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203
Bibliografı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
Prólogo

Oh, do not ask, ‘What is it?’


Let us go and make our visit.
T. S. Eliot.

STAS SON LAS NOTAS de los cursos de Álgebra Lineal que he enseñado en la Licencia-
E tura en Matemáticas de la UAM-I en años recientes. Los prerequisitos son mı́nimos:
la asignatura de Estructuras Numéricas es más que suficiente. La idea fundamental del
curso es el estudio de la matemática alrededor del problema de resolver sistemas de ecua-
ciones lineales. El libro comienza motivado por ésto y avanza introduciendo las ideas y
métodos necesarios para entender el algoritmo usual para resolver sistemas de ecuaciones,
el método de eliminación gaussiana. Este es un curso para estudiantes de matemáticas
y, aunque es elemental, todos los resultados y métodos se justifican. No es un curso de
recetas, por el contrario, es un estudio de algunas de las ideas necesarias para entender
el problema considerado. En cada momento se enfatizan los conceptos y su relación con
el problema de resolver sistemas de ecuaciones. En el capı́tulo 3, usando todas las herra-
mientas introducidas previamente, se estudia el método de Gauss para resolver sistemas
de ecuaciones, justificando el conjunto de conceptos e ideas que tuvieron que introducirse
en los dos capı́tulos anteriores. La segunda parte del libro es un estudio elemental de los
operadores lineales en un espacio vectorial de dimensión finita y abarca desde el capı́tulo
4 donde se introduce la noción de determinante de una matriz, generalizando los casos
2 × 2 y 3 × 3 ya conocidos desde otros cursos, para probar todas las propiedades de los
determinantes que se usarán en los capı́tulos 5 y 6 donde se estudian formas especiales de
algunos operadores lineales: diagonalizables, triangulables, en forma canónica de Jordan
o en forma canónica racional, todas ellos de importancia capital en la matemática. En la
tercera parte del libro se introducen estructuras especiales en los espacios vectoriales: pro-
ductos internos y productos hermitianos en el capı́tulo 7, para después estudiar aquellos
operadores lineales que tienen ciertas simetrı́as con respecto al los productos internos o
hermitianos considerados, en particular se obtienen criterios para la diagonalizabilidad de
algunos de estos operadores culminando con la demostración de los teoremas espectrales
correspondientes. En el capı́tulo 9 se hace un estudio elemental de funciones y formas bili-
neales, en especial formas cuadráticas, para terminar con una aplicación a la geometrı́a de
cónicas en R2 y cuádricas en R3 . El capı́tulo 10 es una introducción al álgebra multilineal.
Al lector o lectora de estas notas, se le invita a escribir al autor, a la dirección electróni-
ca: fzc@xanum.uam.mx con cualquier sugerencia, crı́ticas, correcciones tipográficas o
de estilo.
Puedes guardar o imprimir una copia de estas notas para tu uso personal, si ası́ lo
deseas. El autor se reserva los derechos sobre la presentación y organización de los temas.

IX
Capı́tulo 1
Espacios vectoriales
E LAS ECUACIONES QUE HEMOS ESTUDIADO HASTA AHORA , las más sencillas son
D ecuaciones en una variable, por ejemplo del estilo ax = b. En forma natural uno
puede considerar ecuaciones en más de una variable y las más simples de ellas son las
ecuaciones polinomiales de primer grado, a las que llamaremos ecuaciones lineales. Por
ejemplo, en una variable son de la forma ax = b; en dos variables son ecuaciones de la
forma ax + by = c; en tres variables son ecuaciones de la forma ax + by + cz = d.
En general, si tenemos n variables x1 , . . . , xn , una ecuación lineal en n variables es una
igualdad de la forma
(∗) a1 x1 + · · · + an xn = b
con los coeficientes a1 , . . . , an y el término independiente b elementos de un campo K
(por ejemplo, Q, R, C ó Z/pZ). La pregunta importante, en este contexto, es ¿qué valores
de las variables son soluciones de (∗)?, es decir, ¿qué valores de las variables xj = αj ∈ K
son tales que al substituirlos en (∗) la convierten en una igualdad en el campo K? Veamos
unos ejemplos:

Ejemplo 1. Para la ecuación 2x + 3y = 5, si ponemos x = 1, y = 1, se tiene que 2(1) +


3(1) = 5 es una igualdad verdadera (digamos, en el campo R). Diremos entonces que
x = 1, y = 1 son una solución de la ecuación 2x + 3y = 5. Observe que pueden existir
mas soluciones, por ejemplo x = 10, y = −5 es una solución ya que 2(10) + 3(−5) =
20 − 15 = 5. Note también que si intercambiamos los valores de x y y, poniendo x = −5,
y = 10, ya no se tiene una solución ya que 2(−5) + 3(10) = −10 + 30 = 20 6= 5. El punto
aquı́ es que una solución de 2x + 3y = 5 es un par ordenado (x0 , y0 ) de elementos del
campo K (en nuestro ejemplo K = R) tal que 2x0 + 3y0 = 5. Ası́, (10, −5) es solución
de 2x + 3y = 5, pero (−5, 10) no lo es. Resumiendo, las soluciones de 2x + 3y = 5 son
pares ordenados (x0 , y0 ) ∈ R × R.

Ejemplo 2. En forma análoga, si consideramos una ecuación de la forma (∗) en tres varia-
bles, digamos con coeficientes reales:
2x − 3y + 5z = 10
y nos preguntamos por sus soluciones, observe que x = 3, y = 2, z = 2 es una solución
de la ecuación anterior, ya que
2(3) − 3(2) + 5(2) = 10.
Ası́, la terna ordenada (3, 2, 2) es una solución de 2x − 3y + 5z = 10, pero (2, 3, 2) no lo
es ya que
2(2) − 3(3) + 5(2) = 5 6= 10.
Es decir, las soluciones de 2x − 3y + 5z = 10 son ternas ordenadas de números reales
(x0 , y0 , z0 ).
1
2 1. ESPACIOS VECTORIALES

Las observaciones hechas en los ejemplos anteriores se pueden resumir, en el caso


general, como sigue: para la ecuación lineal

(∗) a1 x1 + · · · + an xn = b,

si los coeficientes aj y el término independiente b son números reales y si queremos solu-


ciones reales, entonces el conjunto de soluciones S de (∗) es un subconjunto de R×· · ·×R
(n factores). Y, en general, si los números aj , b pertenecen a un campo K y si queremos so-
luciones con valores en K, entonces el conjunto de soluciones S de (∗) es un subconjunto
de
n veces
z }| {
K × ··· × K .
La pregunta importante en este contexto es: ¿cómo encontrar todas las soluciones de
una ecuación lineal de la forma (∗)? y, para comenzar, ¿cómo sabemos si una ecuación de
la forma (∗) tiene o no soluciones?
En los capı́tulos siguientes desarrollaremos métodos para responder a las dos pregun-
tas anteriores y comenzamos, en la sección siguiente, planteando el problema anterior en
un contexto un poco más general.

1.1. Sistemas de ecuaciones lineales


Hemos considerado ecuaciones lineales de la forma

(∗) a1 x1 + · · · + an xn = b,
n veces
z }| {
y vimos que sus soluciones son un subconjunto S del producto cartesiano K × · · · × K al
que denotaremos por K n . Ahora, además de considerar una sola ecuación lineal a1 x1 +
· · · + an xn = b, podemos considerar dos o más tales ecuaciones. Por ejemplo, podemos
considerar dos ecuaciones, con coeficientes en R, de la forma

2x + 3y = 5
4x − 2y = 6

y preguntarnos por las soluciones (pares ordenados de R2 ) que sean solución simultánea
de la primera y de la segunda ecuación. En el ejemplo anterior, (1, 1) es solución de la
primera ecuación ya que 2(1) + 3(1) = 5, pero no lo es de la segunda ecuación ya que
4(1) − 2(1) = 2 6= 6. Similarmente, (3, 3) es solución de la segunda ecuación pero no
lo es de la primera. Observe ahora que el par ordenado (7/4, 1/2) es solución de ambas
ecuaciones ya que

2(7/4) + 3(1/2) = 5
4(7/4) − 2(1/2) = 6.

El ejemplo anterior muestra que algunas soluciones de una ecuación no tienen por
qué ser soluciones de la otra y que puede haber soluciones que lo sean de ambas ecuacio-
nes.
En este marco general, estudiaremos el problema de encontrar todas las soluciones de
un conjunto de m ecuaciones lineales en n variables de la forma (∗), requiriendo que las
soluciones lo sean de todas las ecuaciones dadas. Diremos en este caso que tenemos un
1.1. SISTEMAS DE ECUACIONES LINEALES 3

sistema de m ecuaciones lineales en n incógnitas y usaremos la notación siguiente para


denotar a un tal sistema:
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm

donde los coeficientes aij y los términos independientes bi son elementos de un campo K.
Recordemos que las soluciones buscadas son n-adas ordenadas (x1 , . . . , xn ), es decir, son
n veces
z }| {
n
elementos de K := K × · · · × K.
Antes de comenzar a buscar soluciones de un sistema de ecuaciones como el anterior,
debemos preguntarnos si estas soluciones existen ya que puede suceder que el conjunto
de soluciones de uno de estos sistemas sea el conjunto vacı́o. Por ejemplo, más adelante
veremos que el sistema de ecuaciones
2x + 3y = 5
4x + 6y = 1
no tiene soluciones. Si la lectora o lector recuerda su curso de geometrı́a, podrá reconocer
por qué el sistema anterior no tiene soluciones, por ejemplo recordando que el conjunto de
soluciones en R2 de una ecuación de la forma ax + by = c representa una recta L en R2 :

6 L

◦ -

y que las dos rectas del sistema anterior son paralelas distintas.
Conviene entonces, para comenzar, considerar sistemas de ecuaciones lineales de los
cuales sepamos que siempre tienen soluciones. Algunos de estos sistemas son aquellos de
la forma:
a11 x1 + a12 x2 + · · · + a1n xn = 0
a21 x1 + a22 x2 + · · · + a2n xn = 0
..
.
am1 x1 + am2 x2 + · · · + amn xn = 0

donde todos los términos independientes son bi = 0. Llamaremos homogéneos a estos


sistemas de ecuaciones y observamos que siempre tienen la solución (0, . . . , 0) ∈ K n .
Ası́, el conjunto Sh ⊆ K n de soluciones de un sistema homogéneo es no vacı́o ya que
contiene al elemento 0 = (0, . . . , 0) ∈ K n . Supongamos ahora que u = (u1 , . . . , un ) y
v = (v1 , . . . , vn ) son dos elementos de Sh , i.e., son soluciones del sistema de ecuaciones
4 1. ESPACIOS VECTORIALES

homogéneo. Entonces, substituyendo los uj en el sistema de ecuaciones se obtienen las


igualdades
(1) ai1 u1 + ai2 u2 + · · · + ain un = 0 para 1 ≤ i ≤ m
y similarmente, substituyendo los vj se obtienen las igualdades
(2) ai1 v1 + ai2 v2 + · · · + ain vn = 0 para 1 ≤ i ≤ m.
Observe ahora que si definimos la suma de las n-adas u y v componente a componente:
u + v := (u1 , . . . , un ) + (v1 , . . . , vn ) = (u1 + v1 , . . . , un + vn )
esta n-ada también es un elemento de K n ya que cada componente uj + vj ∈ K porque
el campo K es cerrado bajo sumas. Se tiene además que u + v también es solución del
sistema homogéneo dado ya que
ai1 (u1 + v1 ) + ai2 (u2 + v2 ) + · · · + ain (un + vn ) = (ai1 u1 + · · · + ain un )
+ (ai1 v1 + · · · + ain vn )
=0+0
=0
por (1) y (2).
Hemos mostrado ası́ que el conjunto Sh de soluciones de un sistema de ecuaciones
homogéneo es cerrado bajo sumas.
También, si u = (u1 , u2 , . . . , un ) ∈ Sh y λ ∈ K es cualquier elemento del campo K,
entonces definiendo
λ · u := (λu1 , λu2 , . . . , λun )
observamos que λ · u ∈ K n ya que cada λui ∈ K porque el campo K es cerrado bajo
productos. Se tiene además que λu sigue siendo una solución del sistema homogéneo ya
que
ai1 (λu1 ) + ai2 (λu2 ) + · · · + ain (λun ) = λ(ai1 u1 + ai2 u2 + · · · + ain un ) = λ(0) = 0
factorizando a λ y usando (1).
Hemos mostrado ası́ que el conjunto Sh de soluciones de un sistema de ecuaciones
homogéneo es cerrado bajo productos por elementos del campo K. De ahora en adelante
a los elementos de un campo K los llamaremos escalares.
Resumiendo, si Sh ⊆ K n es el conjunto de soluciones de un sistema de ecuaciones
lineales homogéneas, hemos probado que Sh satisface:
(1). Sh contiene al elemento 0 ∈ K n .
(2). Sh es cerrado bajo sumas componente a componente.
(3). Sh es cerrado bajo producto por escalares.

Nótese cómo en la demostración de las propiedades anteriores se usó fuertemente


el hecho de que los términos independientes de las ecuaciones lineales del sistema sean 0,
porque este número satisface que 0+0 = 0 y λ·0 = 0 en K. Si algún término independiente
no fuera 0 el conjunto de soluciones no serı́a cerrado bajo ninguna de las dos operaciones
anteriores e incluso podrı́a ser vacı́o como observamos en un ejemplo previo.

En el caso de un sistema homogéneo, el conjunto Sh satisface las propiedades extras


siguientes:
1.1. SISTEMAS DE ECUACIONES LINEALES 5

Proposición 1.1. El conjunto Sh ⊆ K n de soluciones de un sistema de ecuaciones ho-


mogéneas, junto con las operaciones suma y producto por un escalar, satisface las propie-
dades siguientes:

(1) La suma es asociativa, es decir, si u, v, w ∈ Sh , entonces


u + (v + w) = (u + v) + w.
(2) La suma es conmutativa, es decir, para todo u, v ∈ Sh se tiene que
u + v = v + u.
(3) El elemento 0 ∈ Sh es neutro aditivo, es decir, para cualquier u ∈ Sh se tiene que
u + 0 = u.
(4) Para cada elemento u ∈ Sh existe un elemento u0 ∈ Sh tal que u + u0 = 0. Al elemento
u0 se le llama un inverso aditivo del elemento u.

El producto por un escalar del campo K y un elemento de Sh satisface:

(5) Para cualesquiera u, v ∈ Sh y λ ∈ K se tiene que


λ(u + v) = λu + λv.
(6) Para cualesquiera u ∈ Sh y λ, γ ∈ K se tiene que
(λ + γ)u = λu + γu.
(7) Para cualesquiera u ∈ Sh y λ, γ ∈ K se tiene que
(λ · γ)u = λ · (γ · u).
(8) Para todo u ∈ Sh y para el neutro multiplicativo 1 ∈ K se tiene que
1 · u = u.
D EMOSTRACI ÓN . Probaremos algunas de las propiedades anteriores, dejando las otras
como un ejercicio. Para (2), si u = (u1 , . . . , un ) y v = (v1 , . . . , vn ) son dos elementos
arbitrarios de Sh , entonces
u+v = (u1 , . . . , un ) + (v1 , . . . , vn )
= (u1 + v1 , . . . , un + vn ) por definición de suma en Sh
= (v1 + u1 , . . . , vn + un ) porque ui + vi = vi + ui en K
= v + u por definición de suma en Sh .
Para (3), si u = (u1 , . . . , un ) ∈ Sh , entonces
u+0 = (u1 , . . . , un ) + (0, . . . , 0)
= (u1 + 0, . . . , un + 0) por definición de suma en Sh
= (u1 , . . . , un ) porque ui + 0 = ui en K
= u.
Para (4), si u = (u1 , . . . , un ) ∈ Sh , entonces el elemento
u0 := (−u1 , . . . , −un )
6 1. ESPACIOS VECTORIALES

pertenece a Sh y además satisface que u + u0 = 0. En efecto, como u0 = (−1)u y como


Sh es cerrado bajo multiplicación por escalares, entonces u0 ∈ Sh . Ahora,
u + u0 = (u1 , . . . , un ) + (−u1 , . . . , −un )
= (u1 − u1 , . . . , un − un )
= (0, . . . , 0)
= 0.
Para (6), si u = (u1 , . . . , un ) ∈ Sh y λ, γ ∈ K, entonces
(λ + γ)u = (λ + γ)(u1 , . . . , un )
= ((λ + γ)u1 , . . . , (λ + γ)un )
= (λu1 + γu1 , . . . , λun + γun )
= (λu1 , . . . , λun ) + (γu1 , . . . , γun )
= λu + γu.

E JERCICIO 1. Demuestre las propiedades (1), (5), (7) y (8) de la proposición anterior.

El lector habrá notado que hasta ahora no hemos dado algún método para hallar solu-
ciones (diferentes de la solución obvia 0) de un sistema homogéneo de ecuaciones lineales.
Tan sólo hemos probado algunas propiedades del conjunto de soluciones de un tal sistema
homogéneo. Por el momento tendremos que conformarnos con esto; más adelante desarro-
llaremos un método general para hallar todas las soluciones de un sistema de ecuaciones
lineales homogéneo o no y será hasta ese momento cuando las propiedades que acabamos
de demostrar muestren su importancia debida. Ası́, después de pedir la confianza del lector
en este punto, lo anterior sirva únicamente como motivación para el estudio de los conjun-
tos V que satisfacen las mismas propiedades que Sh . El lector notará sin embargo que el
tema de las soluciones de sistemas de ecuaciones lineales estará siempre presente en los
desarrollos que haremos y en algunos puntos lo haremos explı́cito cuando convenga.

1.2. Espacios vectoriales


En la sección anterior vimos cómo el conjunto Sh de soluciones de un sistema de
ecuaciones lineales homogéneas es cerrado bajo sumas y producto por escalares del cam-
po dado y además satisface las propiedades listadas en la proposición 1.1. En general exis-
ten muchos conjuntos V que tienen operaciones como las del conjunto Sh y satisfacen
propiedades análogas; en esta sección comenzamos su estudio.
Definición 1.2. Si K es un campo (por ejemplo Q, R, C ó Z/pZ con p primo), un espacio
vectorial sobre K (ó K-espacio vectorial) es un conjunto no vacı́o V (cuyos elementos
llamaremos vectores) junto con dos operaciones:
S UMA DE VECTORES. Si u, v ∈ V se tiene definido otro vector u + v ∈ V y decimos que
la operación suma es cerrada.
P RODUCTO DE UN ESCALAR POR UN VECTOR . Si u ∈ V y λ ∈ K se tiene definido otro
vector λ · u ∈ V .

Y se requiere que estas operaciones satisfagan las propiedades siguientes:


1.2. ESPACIOS VECTORIALES 7

(1) La suma es asociativa, es decir, si u, v, w ∈ V , entonces


u + (v + w) = (u + v) + w.
(2) La suma es conmutativa, es decir, para todo u, v ∈ V se tiene que
u + v = v + u.
(3) Existe un neutro aditivo, es decir, existe un elemento 0V ∈ V tal que para cualquier
u ∈ V se tiene que
u + 0V = u.
(4) Para cada elemento u ∈ V existe un elemento u0 ∈ V tal que u+u0 = 0V . Al elemento
u0 se le llama un inverso aditivo del elemento u.

El producto por un escalar del campo K y un elemento de V satisface:

(5) Para cualesquiera u, v ∈ V y λ ∈ K se tiene que


λ(u + v) = λu + λv.
(6) Para cualesquiera u ∈ V y λ, γ ∈ K se tiene que
(λ + γ)u = λu + γu.
(7) Para cualesquiera u ∈ V y λ, γ ∈ K se tiene que
(λ · γ)u = λ · (γ · u).
(8) Para todo u ∈ V y para el neutro multiplicativo 1 ∈ K se tiene que
1 · u = u.

Ejemplo 3. Con esta terminologı́a, el conjunto Sh de soluciones de un sistema de ecuacio-


nes lineales homogéneas es un K-espacio vectorial.

Ejemplo 4. Si K es un campo y
n veces
z }| {
n
V := K = K × · · · × K,
los elementos de V son todas las n-adas ordenadas u = (a1 , . . . , an ) con entradas aj ∈ K.
Recuerde que dos n-adas ordenadas u = (a1 , . . . , an ) y v = (b1 , . . . , bn ) de V = K n son
iguales, denotado u = v, si y sólo si aj = bj para todas las j = 1, . . . , n.
I. En V = K n se define una suma mediante la regla
u + v = (a1 , . . . , an ) + (b1 , . . . , bn ) := (a1 + b1 , . . . , an + bn ),
observando que, como aj + bj ∈ K, entonces u + v ∈ V , es decir, la suma anterior es
cerrada en V .
II. En V = K n se define el producto por un escalar mediante la regla siguiente: si λ ∈ K
y u = (a1 , . . . , an ) ∈ V , se define
λ · u = λ · (a1 , . . . , an ) := (λu1 , . . . , λun )
observando que, como λaj ∈ K, entonces λu ∈ V .

E JERCICIO 2. Verifique que V = K n , con las operaciones anteriores, es un K-espacio


vectorial.
8 1. ESPACIOS VECTORIALES

Ejemplo 5. Si K es cualquier campo y V = K[x] es el conjunto de polinomios en una


variable x, con coeficientes en K, los elementos de V = K[x] son las expresiones de la
forma
f = f (x) = a0 + a1 x + a2 x2 + · · · + am xm
con los aj ∈ K y m ≥ 0 un entero. Recuerde que dos polinomios f (x) = a0 + a1 x +
a2 x2 + · · · + am xm y g(x) = b0 + b1 x + b2 x2 + · · · + bn xn son iguales, denotado f = g,
si y sólo si m = n y aj = bj para cada j.
I. En V = K[x] se tiene la suma usual de polinomios
f + g := (a0 + b0 ) + (a1 + b1 )x + (a2 + b2 )x2 + · · · + (ak + bk )xk + · · ·
(sumando los coeficientes de los términos correspondientes) y observamos que aj +bj ∈ K
por lo que f + g ∈ V = K[x].
II. Si f = a0 + a1 x + a2 x2 + · · · + am xm ∈ V = K[x] y λ ∈ K, se define λ · f como
λf = λ(a0 + a1 x + a2 x2 + · · · + am xm ) = (λa0 ) + (λa1 )x + (λa2 )x2 + · · · + (λam )xm
y se observa que, como λaj ∈ K, entonces λ · f ∈ V = K[x].

E JERCICIO 3. Verifique que V = K[x] es un K-espacio vectorial.

Ejemplo 6. Para K = R pongamos


V := {f : [a, b] → R : f es una función},
i.e., V es el conjunto de funciones del intervalo real [a, b] a la recta real R.
En V se define una suma de funciones en la forma usual: si f, g ∈ V se define la
función f + g : [a, b] → R mediante la regla
(f + g)(α) := f (α) + g(α) para α ∈ [a, b].
También, si f ∈ V y λ ∈ R, se define el producto λ · f : [a, b] → R mediante la regla
(λ · f )(α) = λ · f (α) para α ∈ [a, b].

E JERCICIO 4. Compruebe que el conjunto de funciones V anterior, con las operaciones


definidas antes, es un R-espacio vectorial.

Ejemplo 7. Si K = R, consideremos el conjunto


V := {s : N → R : s es una función},
es decir, V es el conjunto de funciones con dominio los naturales y codominio los reales.
Una función s : N → R se suele llamar una sucesión con valores reales. Dada una sucesión
s : N → R, para cada natural n ∈ N se tiene un único valor real s(n) ∈ R. Es costumbre
usar la notación sn := s(n) ∈ R y a la sucesión s : N → R se le denota {sn } sobreenten-
diendo su dominio, N, y su codominio, R. En el conjunto V de sucesiones reales se tiene
la suma usual: si {an } y {bn } son dos elementos de V se define:
{an } + {bn } := {an + bn },
y, si λ ∈ R y {an } ∈ V , se define
λ · {an } := {λan }.
1.2. ESPACIOS VECTORIALES 9

E JERCICIO 5. Demuestre que el conjunto de sucesiones reales V , con las operaciones


anteriores, es un R-espacio vectorial.

Ejemplo 8. (Matrices.) Este es un ejemplo muy importante: si K es cualquier campo y


m, n ∈ N son dos naturales dados, una matriz m × n con entradas en el campo K, es un
arreglo rectangular de la forma:

 
a11 a12 ··· a1n

 a21 a22 ··· a2n 

 .. .. .. 
 . . . 
am1 am2 ··· amn

donde cada entrada aij ∈ K, para 1 ≤ i ≤ m y 1 ≤ j ≤ n. En una matriz m × n


distinguiremos sus renglones y sus columnas:

Columna Cj

?
 
a11 a12 ··· a1j · · · a1n
 a21 a22 ··· a2j · · · a2n 
.. .. ..
 
 

 . . . 

Renglón Ri  ai1
-  ai2 ··· aij ··· ain 

 . .. ..
 ..

. . 
am1 am2 ··· amj ··· amn

de tal forma que una matriz m × n tiene m renglones Ri , 1 ≤ i ≤ m y n columnas Cj ,


1 ≤ j ≤ n, dados por
Ri = (ai1 , ai2 , . . . , ain )
y  
a1j
 a2j 
Cj = 
 
.. 
 . 
amj

Observe entonces que los renglones Ri son vectores de K n y, salvo la notación, las
columnas son vectores de K m .
Usaremos letras mayúsculas como A, B, C para denotar a matrices m × n y, en
ocasiones, usaremos la abreviación A = (aij )m×n para denotar una matriz m × n con
entradas aij .
Si A = (aij )m×n y B = (bij )m×n son dos matrices del mismo tamaño m × n, con
entradas en el campo K, diremos que la matriz A es igual a la matriz B, denotado A = B,
si y sólo si aij = bij para todo i = 1, . . . , m y todo j = 1, . . . , n. Es decir, dos matrices
son iguales si y sólo si entrada por entrada son iguales.
10 1. ESPACIOS VECTORIALES

Denotaremos mediante Matm×n (K) al conjunto de matrices de tamaño m × n con


entradas en el campo K. En este conjunto se tienen las operaciones:
I. S UMA DE MATRICES. Si A = (aij )m×n y B = (bij )m×n son matrices en Matm×n (K),
se define su suma mediante:
A + B = (aij ) + (bij ) := (aij + bij )
sumando coeficiente a coeficiente. Es claro que A + B ∈ Matm×n (K), por lo que la suma
es cerrada.
II. P RODUCTO DE UN ESCALAR POR UNA MATRIZ. Si A = (aij )m×n es una matriz en
Matm×n (K) y λ ∈ K es un escalar, se define λ · A mediante:
λ · A = λ(aij ) := (λaij )
multiplicando el escalar λ por cada uno de los coeficientes de A. Es claro que λA ∈
Matm×n (K).

E JERCICIO 6. Demuestre que el conjunto de matrices Matm×n (K), con las operaciones
anteriores, es un K-espacio vectorial. Nota: usaremos el sı́mbolo 0 para denotar a la matriz
m × n con todas sus entradas aij = 0 y la llamaremos la matriz cero.

E JERCICIO 7. Sea V := {f : R → R : f es una función par} (recuerde que una f es una


función par si y sólo si f (x) = f (−x) para todo x ∈ R). Con la suma y producto por un
escalar usuales (véase el ejemplo 6), demuestre que V es un R-espacio vectorial.

E JERCICIO 8. Sean K = R y V = Cn con la suma coordenada a coordenada y para un


escalar λ ∈ R se define el producto por un vector de V = Cn coordenada a coordenada.
¿Es V un R-espacio vectorial?

Propiedades elementales de los espacios vectoriales. Las primeras propiedades de los


espacios vectoriales son aquellas que uno podrı́a esperar:
Lema 1.3 (Ley de cancelación para la suma). Si V es un K-espacio vectorial y u, v, w ∈ V
son tales que
u + v = u + w,
entonces v = w.
D EMOSTRACI ÓN . Sea u0 ∈ V un inverso aditivo de u (el cual existe por la propiedad 4 de
la defición 1.2). Entonces,
u + v = u + w ⇒ u0 + (u + v) = u0 + (u + w)
⇒ (u0 + u) + v = (u0 + u) + w por asociatividad
0
⇒ 0V + v = 0V + w ya que u + u = 0V (un neutro aditivo)
⇒ v = w.

Lema 1.4. Si V es un K-espacio vectorial, entonces:
(1) El neutro aditivo de V es único.
(2) Para cada u ∈ V su inverso aditivo es único.
1.2. ESPACIOS VECTORIALES 11

D EMOSTRACI ÓN . (1) Supongamos que 0V y 00V son dos neutros aditivos de V . Entonces,
0V = 0V + 00V ya que 00V es neutro aditivo
= 00V ya que 0V es neutro aditivo.

(2) Sea u ∈ V y supongamos que u0 y u00 son ambos inversos aditivos de u. Entonces,
u + u0 = 0V ya que u0 es inverso aditivo de u
= u + u00 ya que u00 es inverso aditivo de u,
se sigue que u + u0 = u + u00 y, por la ley de cancelación, esto último implica que u0 =
u00 . 
Al (único) inverso aditivo de u ∈ V lo denotaremos mediante −u ∈ V .
Proposición 1.5. Sea V un K-espacio vectorial. Entonces,
(1) λ · 0V = 0V , para cualquier λ ∈ K y el vector 0V ∈ V .
(2) 0 · u = 0, para el escalar 0 ∈ K y cualquier u ∈ V . Nota: en la igualdad anterior el 0
en el lado izquierdo denota al escalar 0 ∈ K y el 0 en el lado derecho es el vector 0V ∈ V .
Algunas veces denotaremos al vector 0V mediante un 0 y el contexto debe indicar cuál es
el significado correcto y no debe causar confusión.
(3) (−1)u = −u, para el escalar −1 ∈ K y cualquier u ∈ V .
D EMOSTRACI ÓN . (1) Si λ ∈ K y 0 ∈ V ,
λ · 0 = λ · (0 + 0) ya que 0 es neutro aditivo
= λ · 0 + λ · 0,
y, por la ley de cancelación, esto último implica que λ · 0 = 0.
(2) Si u ∈ V y 0 ∈ K,
0 · u = (0 + 0) · u ya que 0 ∈ K es neutro aditivo
= 0 · u + 0 · u,
y, por la ley de cancelación, esto último implica que 0 · u = 0.
(3) Si u ∈ V y −1 ∈ K,
u + (−1) · u = 1 · u + (−1) · u ya que 1 · u = u
= (1 − 1) · u
=0·u
= 0 por la propiedad (2) anterior.
Se sigue que u + (−1) · u = 0 y, por la unicidad del inverso aditivo de u, la igualdad
anterior implica que (−1) · u = −u. 

E JERCICIO 9. Sea V un K-espacio vectorial. Si u ∈ V y λ ∈ K, demuestre que


(−λ) · u = λ · (−u) = −(λ · u).

E JERCICIO 10. Sea V un K-espacio vectorial. Si u, v ∈ V son tales que u + v = v,


demuestre que u = 0.
12 1. ESPACIOS VECTORIALES

E JERCICIO 11. Sea V un K-espacio vectorial y sea λ ∈ K un escalar 6= 0. Si u ∈ V es tal


que λ · u = 0, demuestre que u = 0.

1.3. Subespacios vectoriales


Al estudiar sistemas de m ecuaciones lineales homogéneas en n incógnitas con coe-
ficientes, digamos en R, mostramos en §1.1 que el conjunto de soluciones Sh de un tal
sistema es un R-espacio vectorial contenido en Rn . Por el ejemplo 4 de §1.2, se tiene que
Rn también es un R-espacio vectorial y las operaciones de Sh y de Rn son las mismas y
tenemos ası́ dos espacios vectoriales Sh ⊆ Rn con las mismas operaciones.
Definición 1.6. Si V es un K-espacio vectorial y W ⊆ V es un subconjunto, diremos que
W es un subespacio vectorial de V si W es un K-espacio vectorial con las operaciones de
V restringidas a W .
Observe que, si W ⊆ V es un subespacio vectorial, en particular esto quiere decir
que:

(i) W debe contener al vector 0V de V ,


(ii) W es cerrado bajo la suma de vectores de V ,
(iii) W es cerrado bajo el producto por escalares de K, y
(iv) para cada w ∈ W su inverso aditivo −w también debe estar en W .
Supongamos ahora que W ⊆ V es un subconjunto no vacı́o que satisface las condicio-
nes (i), (ii), (iii) y (iv) anteriores. Observamos que W es un subespacio vectorial de V ya
que todas las propiedades de espacio vectorial de V se heredan a W . Hemos ası́ probado:
Lema 1.7. Sean V un K-espacio vectorial y W ⊆ V un subconjunto no vacı́o. Entonces,
W es un subespacio vectorial de V si y sólo si W satisface las condiciones (i), (ii), (iii) y
(iv) anteriores.


Observemos ahora que si W ⊆ V satisface las condiciones (i), (ii), (iii), entonces
también satisface la condición (iv) ya que si w ∈ W , entonces para el escalar −1 ∈ K se
tiene por (iii) que (−1)·w ∈ W ; pero por la proposición 1.5(3) se tiene que (−1)·w = −w
y por lo tanto (iv) se satisface. Hemos ası́ probado la simplificación siguiente del lema
anterior:
Lema 1.8. Sean V un K-espacio vectorial y W ⊆ V un subconjunto no vacı́o. Entonces,
W es un subespacio vectorial de V si y sólo si W satisface las condiciones (i), (ii) y (iii)
anteriores.


Ejemplo 9. Si V es cualquier K-espacio vectorial, entonces el subconjunto W = {0V } ⊆


V es un subespacio vectorial. El subconjunto W = V ⊆ V también es un subespacio
vectorial.

Ejemplo 10. Si V = K[x] es el espacio vectorial de polinomios en una variable con coe-
ficientes en el campo K, sea Pn (K) el subconjunto de V formado por los polinomios
de grado ≤ n, para n ≥ 0 un entero fijo. Como el polinomio constante 0 tiene grado
1.3. SUBESPACIOS VECTORIALES 13

gr(0) = −∞ < n, entonces 0 ∈ Pn (K). Claramente Pn (K) es cerrado bajo sumas y


producto por escalares. Se sigue que Pn (K) es un subespacio de K[x].

Ejemplo 11. Si V = F([a, b], R) es el R-espacio vectorial de las funciones f : [a, b] → R


y W = C([a, b], R) es el subconjunto de funciones continuas de [a, b] en R, entonces W es
un subespacio vectorial de V ya que las funciones constantes son continuas (en particular,
la función 0 es continua), la suma de funciones continuas es continua y el producto de un
escalar real por una función continua es continua.

Ejemplo 12. Si V = R2 , podemos visualizarlo como el plano cartesiano:

◦ - W = eje X

y si W = eje X = {(a, 0) : a ∈ R}, se tiene que W es un subespacio vectorial de R2 .


Lo mismo es cierto para el eje Y .

Matrices. Para poder dar ejemplos de subespacios del (importante) espacio vectorial de
matrices Matm×n (K) necesitaremos algunas definiciones:

(•)Una matriz A = (aij )m×n se dice que es una matriz cuadrada si m = n.


(•) Dada una matriz cuadrada en Matn×n (K):
 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
A = (aij )n×n =  .
 
.. .. 
 .. . . 
an1 an2 ··· ann
a las entradas de la forma aii se les llama los elementos de la diagonal de A.
(•) Una matriz cuadrada A = (aij )n×n se dice que es una matriz diagonal si todas sus
entradas fuera de la diagonal son 0, i.e., si aij = 0 siempre que i 6= j. Ası́, una matriz
diagonal se ve como:
 
a11 0 · · · 0
 0 a22 0
 ··· 0  
 0
 0 a33 0 · · · 0  
 .. .. .. .. 
 . . . . 
0 ··· 0 0 ann
Note que no estamos pidiendo que los elementos de la diagonal sean 6= 0, bien puede
suceder que algunos o todos los elementos de la diagonal también sean 0. En particular, la
matriz 0 ∈ Matn×n (K) es una matriz diagonal.
(•) Una matriz cuadrada A = (aij )n×n se dice que es una matriz triangular superior si
todas sus entradas abajo de la diagonal son 0, i.e., si aij = 0 siempre que i > j. Ası́, una
14 1. ESPACIOS VECTORIALES

matriz triangular superior se ve como:


 
a11 a12 ··· a1n
 0 a22
 ··· a2n 

 .. .. .. .. 
 . . . . 
0 ··· 0 ann

(•) Una matriz cuadrada A = (aij )n×n se dice que es una matriz triangular inferior si
todas sus entradas arriba de la diagonal son 0, i.e., si aij = 0 siempre que i < j. Ası́, una
matriz triangular inferior se ve como:
 
a11 0 ··· 0
 a21 a22 0 · · · 0 
 
 .. .. .. .. 
 . . . . 
an1 an2 ··· ann

(•) Si  
a11 a12 ··· a1n
 a21 a22 ··· a2n 
A = (aij )m×n = .
 
.. .. 
 .. . . 
am1 am2 ··· amn m×n
es una matriz m × n, su transpuesta, denotada t A es la matriz n × m que se obtiene
intercambiando renglones y columnas de A, i.e.,
 
a11 a21 · · · am1
 a12 a22 · · · am2 
t
A = (aji )n×m =  .
 
.. .. 
 .. . . 
a1n a2n ··· amn n×m

Por ejemplo, si  
1 2 4
A=
−1 3 0 2×3
entonces  
1 −1
t
A= 2 3 
4 0 3×2

(•) Una matriz cuadrada A = (aij )n×n se dice que es una matriz simétrica si es igual a
su transpuesta, i.e., si t A = A. Es decir, si aij = aji para todas las entradas de A. Por
ejemplo, la matriz  
1 0 1
A= 0 2 0 
1 0 3 3×3
es simétrica.

E JERCICIO 12. Si V = Matn×n (K) y W ⊆ V es el subconjunto de las matrices diagona-


les, demuestre que W es un subespacio vectorial de V .
1.3. SUBESPACIOS VECTORIALES 15

E JERCICIO 13. Si V = Matn×n (K) y W ⊆ V es el subconjunto de las matrices triangu-


lares superiores, demuestre que W es un subespacio vectorial de V .

E JERCICIO 14. Si V = Matn×n (K) y W ⊆ V es el subconjunto de las matrices triangu-


lares inferiores, demuestre que W es un subespacio vectorial de V .

E JERCICIO 15. Si V = Matn×n (K) y W ⊆ V es el subconjunto de las matrices simétri-


cas, demuestre que W es un subespacio vectorial de V . Nota: tendrá que probar que si
A, B ∈ Matn×n (K), entonces
t
(i) (A + B) = t A + t B.
t
(ii) (λA) = λ(t A), para toda λ ∈ K.

(•) Si A = (aij )n×n es una matriz, su traza, denotada Tr(A), es la suma de los elementos
de su diagonal. Es decir,
X
Tr(A) = Tr(aij ) = aii .
i
Note que la traza de una matriz es un escalar.

E JERCICIO 16. Si V = Matn×n (K) y W ⊆ V es el subconjunto de todas las matrices


cuya traza es 0, demuestre que W es un subespacio vectorial de V .

E JERCICIO 17. Sea V = R2 como R-espacio vectorial. Demuestre que los conjuntos
siguientes son subespacios vectoriales de V :
(i) W = {(x, y) ∈ R2 : x = y}.
(ii) W = {(x, y) ∈ R2 : x + y = 0}.
(iii) W = {(x, y) ∈ R2 : x + 4y = 0}.

E JERCICIO 18. Sea V = R3 como R-espacio vectorial. Demuestre que los conjuntos
siguientes son subespacios vectoriales de V :
(i) W = {(x, y, z) ∈ R3 : x + y + z = 0}.
(ii) W = {(x, y, z) ∈ R3 : x = y & 2y = z}.
(iii) W = {(x, y, z) ∈ R3 : x + y = 3z}.

E JERCICIO 19. Sea V = Matn×n (K). Demuestre que el subconjunto W ⊆ V de matrices


cuya diagonal consiste de ceros, es un subespacio vectorial de V .

Operaciones con subespacios vectoriales. Dado un K-espacio vectorial V , sus subespa-


cios vectoriales son subconjuntos de V y ası́ podemos considerar su intersección y su unión
pensándolos como conjuntos. La pregunta natural en este contexto es: ¿dados W1 , W2 su-
bespacios vectoriales de V , será cierto que W1 ∩ W2 ó W1 ∪ W2 también son subespacios
vectoriales de V ? La respuesta es afirmativa en el caso de la intersección y negativa en
general para la unión:
Lema 1.9. Si V es un K-espacio vectorial y W1 , W2 subespacios vectoriales de V , en-
tonces W1 ∩ W2 también es un subespacio vectorial de V .
16 1. ESPACIOS VECTORIALES

D EMOSTRACI ÓN . Como W1 y W2 son subespacios de V , entonces 0V ∈ W1 ∩ W2 . Si


u, v ∈ W1 ∩ W2 , entonces por definición de intersección u, v ∈ W1 y u, v ∈ W2 , por lo
que u + v ∈ W1 y u + v ∈ W2 ya que W1 y W2 son cerrados bajo la suma de vectores.
Se sigue que u + v ∈ W1 ∩ W2 . Similarmente, si w ∈ W1 ∩ W2 , entonces w ∈ W1 y
w ∈ W2 y ası́, para cualquier escalar λ se tiene que λw ∈ W1 y λw ∈ W2 ya que ambos
son subespacios. Se sigue que λw ∈ W1 ∩ W2 . 

E JERCICIO 20. Si Wα , para α ∈ I, es una familia de subespacios vectoriales de un K-


espacio vectorial V , demuestre que
\

α∈I
es un subespacio vectorial de V .

Ejemplo 13. Si V = R2 , W1 = eje X y W2 = eje Y son los subespacios vectoriales del


ejemplo 12, entonces W1 ∪ W2 consiste de los dos ejes coordenados de R2 . Note ahora que
W1 ∪ W2 no es cerrado bajo sumas de vectores, por ejemplo, si (2, 0) ∈ W1 y (0, 3) ∈ W2
se tiene que (2, 0) + (0, 3) = (2, 3) 6∈ W1 ∪ W2 .

Suma de subespacios. Habiendo observado que la unión de subespacios en general no es


un subespacio del espacio vectorial V dado y pensando en el ejemplo 13 anterior, es fácil
notar que la unión de dos subespacios vectoriales contiene al vector 0V y es cerrado bajo
el producto por escalares, siendo lo único que falla la cerradura bajo la suma de vectores.
Entonces si agrandamos la unión W1 ∪ W2 añadiendo las sumas de vectores de la forma
w1 + w2 con w1 ∈ W1 y w2 ∈ W2 , debemos obtener un subespacio vectorial de V . La
definición formal es como sigue: dados dos subespacios vectoriales W1 y W2 de V , se
define el conjunto
W1 + W2 := {w1 + w2 : w1 ∈ W1 y w2 ∈ W2 }
notando que como w1 , w2 ∈ V , entonces w1 + w2 ∈ V , por lo que W1 + W2 es un
subconjunto de V .
Lema 1.10. Sean W1 y W2 subespacios vectoriales de V . Entonces, W1 + W2 es un
subespacio vectorial de V y contiene a la unión W1 ∪ W2 .
D EMOSTRACI ÓN . Note que W1 ⊆ W1 +W2 ya que si w1 ∈ W1 , entonces w1 = w1 +0V ∈
W1 +W2 . Similarmente W2 ⊆ W1 +W2 . Se sigue que W1 ∪W2 ⊆ W1 +W2 , en particular
0V ∈ W1 + W2 . Probaremos que W1 + W2 es cerrado bajo sumas. En efecto, si w1 + w2
y u1 + u2 son dos elementos de W1 + W2 , entonces
(w1 + w2 ) + (u1 + u2 ) = (w1 + u1 ) + (w2 + u2 )
con w1 +u1 ∈ W1 y w2 +u2 ∈ W2 y ası́ W1 +W2 es cerrado bajo sumas. Probaremos ahora
que W1 +W2 es cerrado bajo el producto de escalares: sean λ ∈ K y w1 +w2 ∈ W1 +W2 ;
entonces,
λ(w1 + w2 ) = λw1 + λw2 ∈ W1 + W2
ya que λw1 ∈ W1 y λw2 ∈ W2 porque estos son subespacios. 

Ejemplo 14. En V = R3 considere los subespacios vectoriales siguientes: U el plano XY


y W el plano Y Z, es decir,
U = {(x, y, 0) ∈ R3 } y W = {(0, y, z) ∈ R3 }.
1.3. SUBESPACIOS VECTORIALES 17

Entonces, R3 = U + W ya que si v = (a, b, c) ∈ R3 es cualquier vector,


v = (a, b, c) = (a, b, 0) + (0, 0, c) con (a, b, 0) ∈ U y (0, 0, c) ∈ W .

Suma directa de subespacios. Note que, en el ejemplo anterior, la descomposición de v


como suma de un vector de U y de un vector de W , en general, no es única; por ejemplo,
v = (1, 2, 3) = (1, 2, 0) + (0, 0, 3)
= (1, 1, 0) + (0, 1, 3).
Proposición 1.11. Sea V un K-espacio vectorial y sean U, W subespacios de V . Enton-
ces, todo elemento v ∈ V se puede escribir en forma única como v = u + w con u ∈ U y
w ∈ W si y sólo si se satisfacen las dos condiciones:
(i) U + W = V .
(ii) U ∩ W = {0V }.
D EMOSTRACI ÓN . Supongamos que (i) y (ii) son ciertas. Como V = U + W , entonces
para todo v ∈ V existen u ∈ U y w ∈ W tales que v = u + w. Supongamos ahora que
se tiene otra descomposición de v como v = u0 + w0 con u0 ∈ U y w0 ∈ W . Entonces,
u + w = u0 + w0 y ası́
u − u0 = w0 − w,
con u−u ∈ U y w −w ∈ W . La igualdad anterior nos dice que u−u0 = w0 −w ∈ W por
0 0

lo que u−u0 ∈ W y ası́ u−u0 ∈ U ∩W = {0V }. Similarmente, w0 −w ∈ U ∩W = {0V }.


Se sigue que u − u0 = 0V = w0 − w y por lo tanto u = u0 y w = w0 , i.e., las dos
descomposiciones de v eran la misma.
Supongamos ahora que todo vector v ∈ V se puede escribir en forma única como
v = u + w con u ∈ U y w ∈ W , entonces (i) se satisface. Para probar (ii), supongamos
que v ∈ U ∩ W . Entonces, v ∈ U y v ∈ W por lo que
v = v + 0V con v ∈ U y 0V ∈ W
= 0V + v con 0V ∈ U y v ∈ W
y como la descomposición de v debe ser única, se sigue que v = 0V , y por lo tanto
U ∩ W = {0V }. 
Definición 1.12. Sea V un K-espacio vectorial. Si U, W son subespacios de V tales que:
(i) U + W = V .
(ii) U ∩ W = {0V },
diremos que V es suma directa de los subespacios U y W , y lo denotaremos mediante
V = U ⊕ W.

E JERCICIO 21. Sean V = K[x], U ⊆ V el conjunto de polinomios f (x) = a0 + a1 x +


a2 x2 + · · · + an xn tales que ai = 0 para todos los ı́ndices i pares, y W ⊆ V el conjunto
de polinomios g(x) = a0 + a1 x + a2 x2 + · · · + am xm tales que ai = 0 para todos los
ı́ndices j impares.
(i) Muestre que U y W son subespacios vectoriales de V .
(ii) Demuestre que V = U ⊕ V .

E JERCICIO 22. Recuerde que una matriz cuadrada A se dice que es simétrica si su trans-
puesta es ella misma: t A = A. La matriz A se dice que es antisimétrica si t A = −A.
18 1. ESPACIOS VECTORIALES

(i) Sean V = Mat2×2 (K), U ⊆ V el subconjunto de matrices 2 × 2 simétricas y


W ⊆ V el subconjunto de matrices antisimétricas.
(a) Muestre que U y W son subespacios vectoriales de V .
(b) Demuestre que V = U ⊕ W .
(ii) Sean V = Matn×n (K), U ⊆ V el subconjunto de matrices simétricas y W ⊆ V
el subconjunto de matrices antisimétricas.
(a) Muestre que U y W son subespacios vectoriales de V .
(b) Demuestre que V = U ⊕ W .
Sugerencia: si A ∈ Matn×n (K), muestre que 21 (A + t A) es simétrica.

E JERCICIO 23. Sea V = Matn×n (K) y considere los subconjuntos


U := {(aij ) ∈ Matn×n (K) : aij = 0 ∀i > j}
y
W := {(bij ) ∈ Matn×n (K) : bij = 0 ∀i ≤ j}.
(i) Muestre que U y W son subespacios vectoriales de V .
(ii) Demuestre que V = U ⊕ W .

1.4. Combinaciones lineales


Si en el R-espacio vectorial R3 fijamos un vector u = (a, b, c) distinto de 0 y conside-
ramos el conjunto de todos los múltiplos escalares de u:
L := {λu : λ ∈ R},
este subconjunto es una lı́nea recta en R3 que pasa por el origen en la dirección del vector
u:

6
L
 

◦  -
 

y, de hecho, L es un subespacio vectorial de R3 , como se comprueba fácilmente.


Si ahora consideramos dos vectores u y v en R3 , digamos no colineales, y considera-
mos el conjunto de todas las sumas de los múltiplos escalares de u y los múltiplos escalares
de v:
P := {λu + γv : λ, γ ∈ R},
este subconjunto es un plano en R3 que pasa por el origen y contiene a los extremos de los
vectores u y v:

6   P
  @ @

 @
 ◦  -
@
@ 
 
@

1.4. COMBINACIONES LINEALES 19

y, de hecho, P es un subespacio vectorial de R3 , como se comprueba fácilmente.


Definición 1.13. Si V es un K-espacio vectorial y v1 , . . . , vn es un conjunto finito de
vectores de V , una combinación lineal de los vectores v1 , . . . , vn es un vector de la forma:
a1 v1 + a2 v2 + · · · + an vn ∈ V
con escalares aj ∈ K.
Un vector v ∈ V se dice que es combinación lineal de los vectores v1 , . . . , vn , si
existen escalares a1 , . . . , an en K tales que
v = a1 v1 + a2 v2 + · · · + an vn .
Ejemplo 15. El vector 0V ∈ V es combinación lineal de cualquier conjunto (finito) de
vectores v1 , . . . , vn de V ya que
0V = 0 · v1 + · · · + 0 · vn .

Ejemplo 16. Si V = R2 y v1 = (1, 0), v2 = (1, 1), entonces el vector u = (3, 4) es


combinación lineal de v1 y v2 ya que
u = (3, 4) = −1 · (1, 0) + 4 · (1, 1) = −1 · v1 + 4 · v2 .

Ejemplo 17. Si V = Pn (K) es el espacio vectorial de los polinomios en una variable x, con
coeficientes en un campo K y de grado ≤ n, y si v0 = 1, v1 = x, v2 = x2 , . . . , vn = xn
son vectores de Pn (K), entonces todo polinomio f (x) = a0 + a1 x + a2 x2 + · · · + an xn ∈
Pn (K) es combinación lineal de los vectores v0 , . . . , vn , ya que
f (x) = a0 · 1 + a1 · x + a2 · x2 + · · · + an · xn
es la combinación lineal requerida, con los escalares los coeficientes aj del polinomio
dado.
Ejemplo 18. Si V = R2 y e1 = (1, 0), e2 = (0, 1), entonces todo vector u = (a, b) ∈ R2
es combinación lineal de e1 y e2 ya que
u = (a, b) = (a, 0) + (0, b) = a · (1, 0) + b · (0, 1) = a · e1 + b · e2 .

Sistemas de ecuaciones lineales y combinaciones lineales. Si consideramos un sistema


de ecuaciones lineales, digamos con coeficientes en R, pero válido para cualquier campo
K:
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm

considerando los vectores columna (en Rm ó K m ) dados por los coeficientes aij del siste-
ma anterior y el vector columna de los términos independientes bi :
20 1. ESPACIOS VECTORIALES

       
a11 a12 a1n b1
 a21   a22   a2n   b2 
C1 =   , C2 =   , · · · , Cn =  , b = 
       
.. .. .. .. 
 .   .   .   . 
am1 am2 amn bm
y pensando a las incógnitas x1 , . . . , xn como escalares de R (ó de K), en notación vectorial
el sistema de ecuaciones anterior se puede escribir como

       
a11 a12 a1n b1
 a21   a22   a2n   b2 
x1 ·   + x2 ·   + · · · + xn ·  = ,
       
.. .. ..  ..
 .   .   .   . 
am1 am2 amn bm
o, denotando a las columnas de coeficientes mediante C1 , . . . , Cn y a la columna de térmi-
nos independientes por b, la combinación lineal anterior se puede escribir como
(∗) x1 C1 + x2 C2 + · · · + xn Cn = b
y cuando nos preguntamos si el sistema de ecuaciones dado tiene o no soluciones, en térmi-
nos de la combinación lineal (∗) nos estamos preguntando si el vector columna de términos
independientes b es o no combinación lineal de los vectores columna de coeficientes C1 ,
. . . , Cn . Ası́, el problema de resolver un sistema de ecuaciones lineales se ha convertido
en el problema de determinar cuándo un vector dado es o no combinación lineal de otros
vectores dados, y los dos problemas son equivalentes. Conviene entonces saber quién es
el subconjunto formado por todas las combinaciones lineales de los vectores C1 , . . . , Cn ,
para saber si el vector b pertenece o no a este conjunto.
Antes de continuar, notemos que todavı́a no hemos encontrado un método para resol-
ver sistemas de ecuaciones lineales, pero hemos reinterpretado el problema en un contexto
que nos será útil para el procedimiento que daremos más adelante.

Subespacios generados por un subconjunto de vectores. Al principio de esta sección


vimos dos ejemplos en R3 donde todas las combinaciones lineales de un vector (respecti-
vamente, dos vectores) de R3 generaban un subespacio vectorial de R3 , a saber, una lı́nea
recta L (respectivamente, un plano P). Que esto es cierto en general es el contenido de la
proposición siguiente:
Proposición 1.14. Sean V un K-espacio vectorial y v1 , . . . , vn vectores dados de V . Si
K(v1 , . . . , vn ) es el subconjunto de V dado por las todas las combinaciones lineales de
los vectores v1 , . . . , vn :
K(v1 , . . . , vn ) := {α1 v1 + · · · + αn vn : αi ∈ K} ⊆ V,
entonces K(v1 , . . . , vn ) es un subespacio vectorial de V . Al subespacio K(v1 , . . . , vn ) se
le llamará el subespacio generado por los vectores v1 , . . . , vn .
D EMOSTRACI ÓN . El vector 0V ∈ K(v1 , . . . , vn ) ya que 0V = 0v1 + · · · + 0vn . Ahora, si
u ∈ K(v1 , . . . , vn ), entonces u es de la forma u = α1 v1 + · · · + αn vn y ası́, para λ ∈ K
se tiene que
λu = λ(α1 v1 + · · · + αn vn ) = (λα1 )v1 + · · · + (λαn )vn
1.4. COMBINACIONES LINEALES 21

y por lo tanto λu ∈ K(v1 , . . . , vn ). Finalmente, si u, w ∈ K(v1 , . . . , vn ), entonces u y w


son de la forma
u = α1 v1 + · · · + αn vn y w = β1 v1 + · · · + βn vn
y ası́
u + w = (α1 v1 + · · · + αn vn ) + (β1 v1 + · · · + βn vn )
= (α1 + β1 )v1 + · · · + (αn + βn )vn
con αj +βj ∈ K, y por lo tanto u+w tiene la forma requerida y ası́ u+w ∈ K(v1 , . . . , vn ).


De acuerdo a la interpretación que hicimos antes acerca de la solubilidad de un sistema


de ecuaciones lineales, escrito en la forma
(∗) x1 C1 + x2 C2 + · · · + xn Cn = b
con Cj los vectores columna del sistema y b el vector columna de los términos indepen-
dientes, todos ellos elementos del espacio vectorial K n , la proposición anterior tiene la
consecuencia inmediata siguiente:
Corolario 1.15. El sistema de ecuaciones lineales
(∗) x1 C1 + x2 C2 + · · · + xn Cn = b
n
tiene solución en K si y sólo el vector columna b pertenece al subespacio vectorial
K(C1 , . . . , Cn ) generado por los vectores columna de los coeficientes del sistema.

La construcción anterior, del subespacio vectorial generado por un conjunto finito de
vectores v1 , . . . , vn , se puede generalizar para considerar el subespacio generado por un
subconjunto arbitrario de vectores de V : dado un subconjunto no vacı́o S ⊆ V , denotamos
con K(S) al subconjunto de combinaciones lineales finitas de vectores de S, i.e.,
K(S) := {λ1 w1 + · · · + λk wk : λj ∈ K y w1 , . . . , wk ∈ S}.
Observe que S ⊆ K(S) ya que cada w ∈ S se puede escribir como la combinación
lineal w = 1 · w con w ∈ S. Note que aún cuando S puede tener un número infinito
de vectores, K(S) se define con combinaciones lineales de subconjuntos finitos de S.
Consecuentemente, la demostración de la proposición anterior sigue siendo válida para
K(S) y por lo tanto K(S) es un subespacio vectorial de V . Más aún, K(S) es el menor
subespacio vectorial de V que contiene a S:
Proposición 1.16. Si V es un K-espacio vectorial y S ⊆ V es cualquier subconjunto,
entonces \
K(S) = W,
S⊆W ⊆V
donde la intersección es sobre todos los subespacios vectoriales W de V que contienen a
S.
D EMOSTRACI ÓN . Como K(S) es un subespacio vectorial que contiene a S, entonces
K(S) es uno de los intersectandos y por lo tanto K(S) contiene a la intersección de la
proposición. Recı́procamente, si W es un subespacio vectorial tal que S ⊆ W , entonces
para cualquier elemento v = λ1 w1 + · · · + λk wk de K(S), como los wj ∈ S ⊆ W y como
22 1. ESPACIOS VECTORIALES

W es subespacio vectorial, entonces W contiene a cualquier combinación lineal de ele-


mentos de W , y por lo tanto v ∈ W . Hemos ası́ mostrado \
que K(S) ⊆ W para cualquier
subespacio W que contiene a S. Se sigue que K(S) ⊆ W , como se querı́a. 
S⊆W ⊆V

Definición 1.17. Si S ⊆ V es cualquier subconjunto no vacı́o, al subespacio vectorial


K(S) de la proposición anterior se le llama el subespacio vectorial generado por S.
Si S = ∅, se extiende la definición anterior poniendo K(∅) := {0V }, el subespacio
que consta sólo del vector cero.
Ejemplo 19. Al principio de esta sección, para V = R3 , vimos que el subespacio generado
por un vector v 6= 0 es una recta que pasa por el origen: R(v) = L. También vimos que si
u y v son dos vectores no colineales de R3 , el subespacio generado por estos dos vectores
es un plano que pasa por el origen: R(u, v) = P.

Ejemplo 20. Si V = R2 y e1 = (1, 0), e2 = (0, 1), en el ejemplo 18 vimos que el


subespacio generado por e1 y e2 es todo R2 .
Definición 1.18. Sea V un K-espacio vectorial. Si para un subconjunto S ⊆ V se tiene
que K(S) = V , diremos que S genera al espacio vectorial V . También diremos que los
vectores de S son generadores de V .
Con esta definición, el ejemplo 20 nos dice que los vectores e1 = (1, 0) y e2 = (0, 1)
generan R2 .

Ejemplo 21. Si V = R3 , los vectores e1 = (1, 0, 0), e2 = (0, 1, 0), e3 = (0, 0, 1) son
generadores de R3 . El argumento es similar al del ejemplo 20.

Ejemplo 22. En general, en Rn , los vectores e1 = (1, 0, . . . , 0), e2 = (0, 1, 0, . . .), . . . ,


en = (0, . . . , 0, 1) (donde ek tiene un 1 en el lugar k y ceros en las otras componentes),
generan Rn .

Ejemplo 23. Si V = K[x], los vectores 1, x, x2 , . . . , xn , . . ., generan K[x] ya que todo


polinomio f (x) = a0 + a1 x + a2 x2 + · · · + an xn es combinación lineal de algunos de
los vectores 1, x, x2 , . . . , xn , . . . usando los coeficientes de f (x) como los escalares de la
combinación lineal, como en el ejemplo 17.

Ejemplo 24. Los vectores v1 = (1, 0, 0), v2 = (0, 1, 0) y v3 = (1, 1, 0) no generan a R3 ,


ya que cualquier combinación lineal de ellos tiene la tercera coordenada igual a cero y por
lo tanto ningún vector de R3 cuya tercera coordenada sea 6= 0 es combinación lineal de
v1 , v2 , v3 .

Ejemplo 25. Si V es cualquier K-espacio vectorial, el conjunto S = V genera a V ya que


todo v ∈ V se puede escribir como la combinación lineal v = 1 · v.

E JERCICIO 24. Sea V un K-espacio vectorial. Si S ⊆ T son dos subconjuntos de V ,


demuestre que K(S) ⊆ K(T ).

E JERCICIO 25. Si S ⊆ V genera a V y T ⊆ V es otro conjunto tal que S ⊆ T , demuestre


que T también genera a V .

E JERCICIO 26. Si W es un subespacio vectorial de un K-espacio vectorial V , demuestre


que K(W ) = W .
1.5. DEPENDENCIA E INDEPENDENCIA LINEAL 23

E JERCICIO 27. Sea V = Mat2×2 (R). Demuestre que las matrices siguientes generan a V :
       
1 0 0 1 0 0 0 0
, , , .
0 0 0 0 1 0 0 1

E JERCICIO 28. Sea V = P2 (K) el espacio vectorial de los polinomios con coeficientes en
un campo K y de grado ≤ 2. Muestre que los polinomios 1, 1 + x, 1 + x + x2 , generan a
V.

E JERCICIO 29. Si V es cualquier K-espacio vectorial, ¿cuál es el subespacio generado por


S = {0V }?

E JERCICIO 30. Si V = K (el campo K, considerado como K-espacio vectorial), muestre


que 1 ∈ K genera a V . ¿Puede dar otros subconjuntos que generan a V ? Explique.

E JERCICIO 31. Sea V = R2 .


(i) Si U = R(2, 1) es el subespacio de V generado por (2, 1) y W = R(0, 1) es el
subespacio de V generado por (0, 1), demuestre que R2 = U ⊕ W .
(ii) Si U 0 = R(1, 1) es el subespacio de V generado por (1, 1) y W 0 = R(1, 0) es el
subespacio de V generado por (1, 0), demuestre que R2 = U 0 ⊕ W 0 .

E JERCICIO 32. Sea V = R3 . Sean U = R(1, 0, 0) el subespacio de V generado por


(1, 0, 0) y W = R{(1, 1, 0), (0, 1, 1)} el subespacio de V generado por (1, 1, 0) y (0, 1, 1).
(i) Grafique estos subespacios.
(ii) Demuestre que R3 = U ⊕ W .

1.5. Dependencia e independencia lineal


El ejemplo 25 de la sección anterior nos dice que dado cualquier K-espacio vectorial
V , siempre hay un conjunto de generadores S de V , a saber S = V . El ejercicio 25 por su
parte nos dice que si S genera al espacio V , entonces cualquier conjunto que contenga a
S también genera a V ; ası́, el problema no es agrandar un conjunto que genere a V , sino
por el contrario, sabiendo que un conjunto S genera al espacio V , el problema es hallar
el conjunto con el menor número de elementos que genere a V . Por ejemplo, quisiéramos
hallar un subconjunto B ⊆ S tal que B siga generando a V pero que B sea mı́nimo en el
sentido de que si le quitamos cualquier vector v ∈ B, el conjunto diferencia B \ {v} ya
no genera a V . Con esto en mente, consideremos lo que nos dice el ejercicio 25: si S ⊆ V
genera a V y S ⊆ T ⊆ V , entonces T también genera a V . Esta afirmación se sigue
del ejercicio 24. Ahora, como K(S) = V y T ⊆ V , entonces todos los elementos de T
pertenecen a K(S), i.e., son combinaciones lineales de elementos de S. Ası́, los elementos
de T que se añadieron a S, i.e., T \ S, ya eran combinaciones lineales de elementos de S
y por lo tanto cada vez que un vector v de K(T ) se expresa como combinación lineal de
elementos de T , digamos
(∗) v = a1 w1 + · · · + ak wk con aj ∈ K, wj ∈ T ,
si sucediera que alguno de los vectores wj de T está en T \ S, escribiéndolo como combi-
nación lineal de elementos de S:
wj = α1 u1 + · · · + αr ur con ui ∈ S
24 1. ESPACIOS VECTORIALES

y substituyendo esta expresión para wj en (∗), tendremos que v es combinación lineal de


elementos de S. En otras palabras, los elementos de T \ S no aportan nuevos vectores al
considerar combinaciones lineales donde aparezcan porque los elementos de T \ S ya son
combinaciones lineales de S. Para expresar esto diremos que los vectores de T \ S son
linealmente dependientes de S; en forma precisa:
Definición 1.19. Sea T ⊆ V un subconjunto no vacı́o de un espacio vectorial V . Diremos
que T es linealmente dependiente si existe algún vector v ∈ T que es combinación lineal
de los otros vectores de T , es decir, si v ∈ K(T \ {v}).
Observaciones. (1). Note que no estamos pidiendo que todos los vectores u ∈ T sean
elementos del correspondiente subespacio K(T \ {u}); lo que estamos pidiendo es que
algún vector v ∈ V satisfaga que v ∈ K(T \ {v}).
(2). En la definición anterior, al decir que v sea combinación lineal de los otros vectores de
T , la redacción se precisó diciendo que esto significa que v ∈ K(T \{v}). Esta precisión es
necesaria para tomar en cuenta el caso extremo cuando T = {0V } en el ejemplo siguiente:

Ejemplo 26. Si V es un K-espacio vectorial y T ⊆ V es un subconjunto tal que 0V ∈ T ,


entonces T es linealmente dependiente. En efecto, si T = {0V }, se tiene que
0V ∈ {0V } = K(∅) = K(T \ {0V }),
donde se usó la convención de que K(∅) = {0V }.
Si T 6= {0V }, entonces existe un v 6= 0V en T y se tiene que 0V = 0·v es combinación
lineal de v ∈ T \ {0V }.

Ejemplo 27. En R2 el conjunto de vectores v1 = (1, 0), v2 = (0, 1), v3 = (3, 4) es lineal-
mente dependiente ya que
v3 = (3, 4) = 3(1, 0) + 4(0, 1) = 3v1 + 4v2 .

Ejemplo 28. En R2 el conjunto de vectores v1 = (1, 0), v2 = (0, 1), v3 = (3, 0) es lineal-
mente dependiente ya que
v3 = (3, 0) = 3(1, 0) + 0(0, 1) = 3v1 + 0v2 .
Note que aquı́ v2 = (0, 1) no es combinación lineal de v1 y v3 ya que cualquier
combinación de éstos tiene la segunda coordenada igual a 0.

La proposición siguiente nos da una caracterización muy útil de los conjuntos lineal-
mente dependientes:
Proposición 1.20. Sean V un K-espacio vectorial y T ⊆ V un subconjunto. Las afirma-
ciones siguientes son equivalentes:
(1) El conjunto T es linealmente dependiente.
(2) El vector 0V se puede expresar como combinación lineal de algunos vectores v1 , . . . , vn
en T :
0V = a1 v1 + · · · + an vn ,
con alguno de los escalares aj 6= 0 .
1.5. DEPENDENCIA E INDEPENDENCIA LINEAL 25

Nota: dado cualquier conjunto finito de vectores v1 , . . . , vn , el vector 0V siempre es com-


binación lineal de estos vectores ya que
(†) 0V = 0v1 + · · · + 0vn ,
y decimos que la combinación lineal (†), donde todos los escalares son 0, es la combinación
lineal obvia o trivial. Lo que la parte (2) de la proposición pide es que 0V se pueda expresar
como una combinación lineal no trivial, es decir, que no todos los coeficientes sean el
escalar 0.
D EMOSTRACI ÓN . (1) ⇒ (2): Si 0V ∈ T , se tiene la combinación lineal no trivial 0V =
1 · 0V con 0V ∈ T . Si 0V 6∈ V , como T es linealmente dependiente, existe un v 6= 0V en
T que es combinación lineal de los otros elementos de T , i.e., v ∈ K(T \ {v}). Note que
K(T \ {v}) 6= {0V } ya que v ∈ T ⊆ K(T \ {v}). Ası́, existen vectores v1 , . . . , vm ∈ T
tal que
v = a1 v1 + · · · + am vm
y por lo tanto
0V = (−1)v + a1 v1 + · · · + am vm
es una combinación lineal con el coeficiente −1 de v ∈ T distinto de 0.
(1) ⇒ (2): Supongamos ahora que existen vectores v1 , . . . , vn ∈ T y escalares a1 , . . . , an
en K no todos cero, tal que
(∗) 0V = a1 v1 + · · · + an vn .
Reordenando si hiciera falta, podemos suponer que a1 6= 0; multiplicando (∗) por a−1
1 ∈K
se tiene que
0V = a−1 −1
1 · 0V = a1 (a1 v1 + · · · + an vn )

= v1 + (a−1 −1
1 a2 )v2 + · · · + (a1 an )vn
de donde, despejando,
v1 = (−a−1 −1
1 a2 )v2 + · · · + (−a1 an )vn ,
es decir, v1 es combinación lineal de v2 , . . . , vn ∈ T \ {v1 }. 

Ejemplo 29. En R2 los vectores e1 = (1, 0) y e2 = (0, 1) no son linealmente dependientes


ya que si 0 = λ1 e1 + λ2 e2 , entonces
(0, 0) = λ1 (1, 0) + λ2 (0, 1) = (λ1 , 0) + (0, λ2 ) = (λ1 , λ2 )
y por lo tanto λ1 = 0 y λ2 = 0. Es decir, la única combinación lineal de e1 y e2 que da el
vector 0 es la combinación lineal trivial.
Definición 1.21. Sea V un K-espacio vectorial. Si T ⊆ V es un subconjunto, diremos que
T es linealmente independiente si T no es linealmente dependiente. También diremos que
los vectores de T son linealmente independientes.
En vista de la proposición 1.18 la definición anterior es equivalente a:
Corolario 1.22. Sea V un K-espacio vectorial. Si T ⊆ V es un subconjunto, entonces
T es linealmente independiente si y sólo si la única representación del vector 0V como
combinación lineal de elementos de T es la trivial, i.e., si
0V = a1 v1 + · · · + an vn , con vj ∈ T ,
entonces a1 = · · · = an = 0. 
26 1. ESPACIOS VECTORIALES

El ejemplo 29 nos dice que e1 y e2 son linealmente independientes en R2 .

Ejemplo 30. Sea V un K-espacio vectorial. Si v ∈ V con v 6= 0V , entonces {v} es


linealmente independiente ya que si λv = 0V es cualquier combinación lineal de v que da
el vector 0V , y si sucediera que λ 6= 0, entonces multiplicando por λ−1 ∈ K se obtiene
que
λ−1 (λv) = λ−1 0V = 0V ,
i.e., v = λ−1 (λv) = 0V , en contradicción con ser v 6= 0V .

Ejemplo 31. Al conjunto vacı́o ∅ lo consideraremos linealmente independiente ya que para


que un conjunto sea linealmente dependiente tiene que tener vectores.

Ejemplo 32. En K[x] los vectores 1, x, x2 , . . . , xn son linealmente independientes, ya que


si
(∗) a0 · 1 + a1 · x + a2 · x2 + · · · + an · xn = 0
es cualquier combinación lineal de ellos que nos da el vector 0 ∈ K[x], como el vector 0
de K[x] es el polinomio cero y como en (∗) a la izquierda se tiene el polinomio a0 + a1 x +
a2 x2 + · · · + an xn , éste es cero si y sólo si todos sus coeficientes son 0, i.e., aj = 0 para
toda j y por lo tanto los vectores 1, x, x2 , . . . , xn son linealmente independientes.

Las propiedades siguientes son inmediatas:


Proposición 1.23. Sea V un K-espacio vectorial.
(1) Si T1 ⊆ T2 ⊆ V son subconjuntos y T1 es linealmente dependiente, entonces T2
también lo es.
(2) Si T1 ⊆ T2 ⊆ V son subconjuntos y T2 es linealmente independiente, entonces T1
también lo es.
D EMOSTRACI ÓN . (1): Como T1 es linealmente dependiente, el vector 0V se puede expre-
sar como
(∗) 0V = a1 v1 + · · · + an vn
con algún aj 6= 0 y los vj ∈ T1 . Pero como T1 ⊆ T2 , entonces los vj ∈ T2 y ası́ (∗) nos
dice que T2 es linealmente dependiente.
La parte (2) se sigue de (1). 

E JERCICIO 33. Muestre que los vectores de R2 siguientes son linealmente independientes:
(i) u = (1, 0), v = (1, 1).
(ii) u = (2, 1), v = (1, 0).
(iii) u = (1, 2), v = (1, 3).
(iv) u = (3, 1), v = (0, 2).

E JERCICIO 34. Muestre que los vectores de R3 siguientes son linealmente independientes:
(i) u = (1, 1, 1), v = (0, 1, −2).
(ii) u = (−1, 1, 0), v = (0, 1, 2).
(iii) u = (1, 1, 0), v = (1, 1, 1), w = (0, 1, −1).
(iv) u = (0, 1, 0), v = (0, 2, 1), w = (1, 5, 3).

E JERCICIO 35. Muestre que los vectores de R2 siguientes son linealmente dependientes,
expresando a v como combinación lineal de a y b:
1.5. DEPENDENCIA E INDEPENDENCIA LINEAL 27

(i) v = (1, 0); a = (1, 1), b = (0, 1).


(ii) v = (2, 1); a = (1, 0), b = (1, 1).
(iii) v = (1, 2); a = (2, 1), b = (1, −1).
(iv) v = (3, 4); a = (0, 12), b = (6, 0).

E JERCICIO 36. Sea V = F(R, R) el R-espacio vectorial de funciones f : R → R,


t 7→ f (t). Muestre que los vectores siguientes son linealmente independientes:
(i) v = 1, w = t.
(ii) v = t, w = t2 .
(iii) v = t, w = et .
(iv) v = sen t, w = cos t.
(v) v = sen t, w = t.
(vi) v = sen t, w = sen(2t).
(vii) v = cos t, w = cos(3t).
(viii) v = t2 , w = et .

E JERCICIO 37. Sea V como en el ejercicio anterior. Demuestre que las funciones
v1 = sen t, v2 = sen(2t), v3 = sen(3t), . . . , vn = sen(nt)
son linealmente independientes, para cualquier natural n ∈ N.

E JERCICIO 38. Sea V cualquier K-espacio vectorial. Si u, v ∈ V con v 6= 0V y si u, v


son linealmente dependientes, demuestre que existe un escalar λ ∈ K tal que u = λv.

E JERCICIO 39. En el R-espacio vectorial P3 (R), determine si el polinomio f (x) dado se


puede expresar como combinación lineal de g(x) y h(x):
(i) f (x) = x3 − 3x + 5; g(x) = x3 + 2x2 − x + 1, h(x) = x3 + 3x2 − 1.
(ii) f (x) = 4x3 + 2x2 − 6; g(x) = x3 − 2x2 + 4x + 1, h(x) = 3x3 − 6x2 + x + 4.
(iii) f (x) = x3 +x2 +2x+13; g(x) = 2x3 −3x2 +4x+1, h(x) = x3 −x2 +2x+3.
(iv) f (x) = x3 − 8x2 + 4x; g(x) = x3 − 2x2 + 3x − 1, h(x) = x3 − 2x + 3.

E JERCICIO 40. Sea V un K-espacio vectorial y sea T ⊆ V . Demuestre que T es lineal-


mente independiente si y sólo si todo subconjunto de T es linealmente independiente.

E JERCICIO 41. Sea V = C ∞ (R, R) el conjunto de funciones f : R → R tales que f


es diferenciable (i.e., para todo x ∈ R, existen todas las derivadas f 0 (x), f 00 (x), f 000 (x),
. . . , f (k) (x), . . .). Muestre que V es un R-espacio vectorial. Si f (t) = ert y g(t) = est ,
con r 6= s en R, demuestre que {f, g} es linealmente independiente.

E JERCICIO 42. Sea A = (aij )n×n una matriz cuadrada con entradas en un campo K y
suponga que A es una matriz triangular superior. Demuestre que los vectores columna de
A, vistos como vectores en K n , son linealmente independientes.

E JERCICIO 43. Sea Pn (R) el R-espacio vectorial de polinomios de grado ≤ n con coefi-
cientes reales y sea f (x) ∈ Pn (R) un polinomio de grado n. Demuestre que
f (x), f 0 (x), f 00 (x), . . . , f (n) (x)
generan Pn (R).
28 1. ESPACIOS VECTORIALES

E JERCICIO 44. Si V = K[x], sea S = {f1 , . . . , fn } ⊆ V un conjunto de polinomios no


nulos tales que sus grados son distintos: gr(fi ) 6= gr(fj ) para toda i 6= j. Demuestre que
S es linealmente independiente.

1.6. Bases y dimensión


Si V es un K-espacio vectorial, sabemos que siempre existe un subconjunto T ⊆ V
que genera a V , a saber T = V , y sabiendo que T genera a V quisiéramos encontrar un
subconjunto B ⊆ T tal que B siga generando a V pero que B sea mı́nimo en el sentido de
que si le quitamos cualquier vector v ∈ B, el conjunto B \ {v} ya no genera a V . Según lo
que hemos estudiado en la sección anterior, si T es linealmente dependiente, le podemos
quitar vectores y el conjunto que resulta sigue generando a V . El lema siguiente captura lo
que está detrás de las observaciones anteriores:
Lema 1.24. Sea V un K-espacio vectorial. Si B ⊆ V es un subconjunto mı́nimo de
generadores de V , entonces B es linealmente independiente.
D EMOSTRACI ÓN . Si B fuera linealmente dependiente, existirı́a un vector v ∈ B que es
combinación lineal de los otros elementos de B, i.e., v ∈ K(B \ {v}). Ahora, como
B \ {v} ⊆ K(B \ {v}), entonces B ⊆ K(B \ {v}) y como K(B) = V , entonces
K(B \ {v}) = V , es decir, B \ {v} genera a V , en contradicción con la minimalidad de
B. 
Definición 1.25. Si V es un K-espacio vectorial, una base de V es un subconjunto B ⊆ V
tal que:
(i) B genera a V ,
(ii) B es linealmente independiente.
Ası́, el lema anterior nos dice que todo subconjunto mı́nimo de generadores de V es
una base. El recı́proco también es cierto:
Proposición 1.26. Sean V un K-espacio vectorial y B ⊆ V un subconjunto. Entonces, B
es un subconjunto mı́nimo de generadores de V si y sólo si B es base de V .
D EMOSTRACI ÓN . Para probar la implicación faltante, supongamos que B es una base de
V pero que no es un subconjunto mı́nimo de generadores. Entonces, existe v ∈ B tal que
B \ {v} genera a V y por lo tanto v ∈ K(B \ {v}) = V y consecuentemente B no serı́a
linealmente independiente. Una contradicción. 

En términos de subconjuntos de vectores linealmente independientes de V , se tiene


una caracterización de bases análoga a la de la proposición anterior, pero antes necesitare-
mos un resultado preliminar:
Lema 1.27. Sean V un K-espacio vectorial y T ⊆ V un subconjunto linealmente in-
dependiente. Sea v ∈ V \ T . Entonces, T ∪ {v} es linealmente dependiente si y sólo si
v ∈ K(T ).
D EMOSTRACI ÓN . Si T ∪{v} es linealmente dependiente, entonces existen vectores u1 , . . .,
un en T ∪ {v} tales que
(1) a1 u1 + · · · + an un = 0V
con algún coeficiente aj 6= 0. Como T es linealmente independiente, no puede suceder
que todos los vectores uj anteriores estén en T y por lo tanto alguno de ellos debe ser v.
1.6. BASES Y DIMENSIÓN 29

Sin perder generalidad, supongamos que u1 = v. Ası́, la igualdad (1) es:


(2) a1 v + a2 u2 + · · · + an un = 0V ,
con algún aj 6= 0. De nuevo, no puede suceder que a1 = 0 ya que (2) implicarı́a entonces
que u2 , . . . , un es linealmente dependiente, en contradicción con el hecho de que T es
linealmente independiente. Se sigue que a1 6= 0 y ası́
v = a−1 −1
1 (a1 v) = a1 (−a2 u2 − · · · − an un )

= (−a−1 −1
1 a2 )u2 + · · · + (−a1 an )un

y por lo tanto v ∈ K(T ).


Recı́procamente, si v ∈ K(T ), entonces existen vectores u1 , . . . , un ∈ T y escalares
a1 , . . . , an ∈ K tales que v = a1 u1 + · · · + an un y ası́
(3) 0V = a1 u1 + · · · + an un + (−1)v.
Ahora, como v ∈ V \ T y los uj ∈ T , entonces v 6= uj , para todos los j, y ası́ en la
igualdad (3) el coeficiente de v es −1 6= 0, i.e., T ∪ {v} es linealmente dependiente. 

Supongamos ahora que B es una base de un espacio vectorial V ; entonces B es un


subconjunto máximo de vectores linealmente independientes de V (en el sentido de que
al agregarle cualquier otro vector de V a B, el conjunto resultante es linealmente depen-
diente) ya que si v ∈ V \ B, como v ∈ V = K(B). el conjunto B ∪ {v} el conjunto es
linealmente dependiente por el lema anterior. El recı́proco también es cierto:
Proposición 1.28. Sean V un K-espacio vectorial y B ⊆ V un subconjunto. Entonces, B
es un subconjunto máximo linealmente independiente de V si y sólo si B es base de V .
D EMOSTRACI ÓN . Para probar la implicación faltante, supongamos que B es máximo li-
nealmente independiente. Como B es linealmente independiente, para probar que B es
base sólo falta probar que B genera a V . Supongamos que esto es falso, es decir, que exis-
te un vector v ∈ V tal que v 6∈ K(B). Entonces, el lema anterior implica que B ∪ {v} es
linealmente independiente, en contradicción con la maximalidad de B. 

Espacios vectoriales de dimensión finita. A pesar de que existen espacios vectoriales con
bases infinitas, en este libro trataremos con más detalle el caso de espacios vectoriales con
bases finitas y el teorema siguiente nos dice cuándo existe una tal base finita para ciertos
espacios vectoriales.
Teorema 1.29. Si V es un K-espacio vectorial generado por un conjunto finito de vectores
T ⊆ V , entonces algún subconjunto de T es una base de V y, por lo tanto, V tiene una
base finita.
D EMOSTRACI ÓN . Si T = ∅ ó T = {0V }, entonces V = {0V } y el subconjunto ∅ ⊆ T es
una base finita de V . Supongamos ahora que T contiene un vector distinto de 0V , digamos
u1 6= 0V . Entonces, {u1 } es linealmente independiente. Si {u1 } es base de V ya acabamos.
Si {u1 } no es base de V , entonces existe un u2 ∈ T \ {u1 } tal que u2 no es combinación
lineal de u1 y ası́ {u1 , u2 } es linealmente independiente. Si es base de V , ya acabamos.
Si no lo es, procediendo inductivamente supongamos que B = {u1 , . . . , un } ⊆ T es
linealmente independiente y que es máximo con esta propiedad, es decir, para cualquier
v ∈ T \ B se tiene que B ∪ {v} es linealmente dependiente. Mostraremos que B es base de
V y para esto basta probar que B genera a V . Ahora, como T genera a V , basta entonces
mostrar que T ⊆ K(B). Para esto, sea v ∈ T . Si v ∈ B, entonces v ∈ K(B). Si v 6∈ B,
30 1. ESPACIOS VECTORIALES

entonces por la hipótesis de maximalidad sobre B se tiene que B ∪ {v} es linealmente


dependiente y por el lema anterior esto implica que v ∈ K(B) como se querı́a. 

El teorema siguiente captura la propiedad más importante de los espacios vectoriales


que tienen una base finita:
Teorema 1.30. Sea V un K-espacio vectorial y supongamos que B = {v1 , . . . , vn } es un
subconjunto finito de V . Entonces, B es una base de V si y sólo si cada vector v ∈ V se
puede expresar en forma única como combinación lineal de los vectores de B, i.e., existen
escalares únicos λ1 , . . . , λn en K tales que
(∗) v = λ1 v1 + · · · + λn vn .
D EMOSTRACI ÓN . Si B es base de V y v ∈ V , como B genera a V , entonces v es combi-
nación lineal de los elementos de B, digamos
(1) v = λ1 v1 + · · · + λn vn .
Supongamos que
(2) v = γ1 v1 + · · · + γn vn
es otra expresión de v en términos de B, con los γj ∈ K. Restando (1) y (2) se obtiene:
(†) 0V = (λ1 − γ1 )v1 + · · · + (λn − γn )vn
y como los vectores v1 , . . . , vn son linealmente independientes, la igualdad (†) implica que
λj − γj = 0 para toda j , y por lo tanto λj = γj , para toda j; es decir, la expresión (∗) para
v es única.
Recı́procamente, si cada v ∈ V se puede expresar en forma única de la forma (∗),
entonces B genera a V y sólo falta probar que B es linealmente independiente. Pero esto
es directo ya que si
(3) 0V = λ1 v1 + · · · + λn vn
con los λj ∈ K, como
(4) 0V = 0v1 + · · · + 0vn ,
la unicidad de la expresión de 0V como combinación lineal de los vj , implica que los
escalares en (3) y (4) son iguales, i.e., λj = 0 para toda j, y por lo tanto v1 , . . . , vn son
linealmente independientes. 

El teorema 1.29 nos dice que todo espacio vectorial con un conjunto finito de genera-
dores (a veces decimos, finitamente generado para indicar lo anterior), tiene una base finita.
A continuación probaremos uno de los resultados más importantes de la teorı́a que estamos
desarrollando: todas las bases de un espacio vectorial finitamente generado tienen el mis-
mo número de elementos. La demostración esencialmente considera dos bases del espacio
dado y reemplaza los vectores de una base con los de la otra. Para ver cómo se hace esto
necesitaremos el lema siguiente, cuyo nombre proviene del método en su demostración:
Lema 1.31 (Lema de reemplazamiento). Sea V un K-espacio vectorial generado por un
conjunto finito de vectores v1 , . . . , vn . Supongamos que w1 , . . . , wm son m vectores de V
con m > n. Entonces, los vectores w1 , . . . , wm son linealmente dependientes. Equivalen-
temente, si w1 , . . . , wm son linealmente independientes, entonces m ≤ n.
1.6. BASES Y DIMENSIÓN 31

D EMOSTRACI ÓN . Supongamos que w1 , . . . , wm son linealmente independientes. Como


v1 , . . . , vn generan V , para el vector w1 ∈ V existen escalares a1 , . . . , an en K tales que
(1) w1 = a1 v1 + · · · + an vn .
Ahora, como estamos asumiendo que los wj son linealmente independientes, entonces
w1 6= 0V y ası́ en (1) algún ai 6= 0. Renumerando si hiciera falta podemos suponer que
a1 6= 0 y ası́ podemos despejar v1 de (1) para obtener:
v1 = a−1 −1 −1
1 w1 − a1 a2 v2 − · · · − a1 an vn ,

por lo que v1 ∈ K(w1 , v2 , . . . , vn ) y ası́


V = K(v1 , v2 , . . . , vn ) ⊆ K(w1 , v2 , . . . , vn ) ⊆ V
y consecuentemente V = K(w1 , v2 , . . . , vn ), es decir, ya reemplazamos a v1 por w1 en
un conjunto de generadores de V . La idea es continuar inductivamente el proceso an-
terior hasta reemplazar todos los vectores v1 , v2 , . . . , vn por vectores w1 , . . . , wn de tal
forma que {w1 , . . . , wn } todavı́a genere a V . La base de la inducción es la substitución
de v1 por w1 que hicimos antes. Supongamos ahora que ya reemplazamos k vectores de
{v1 , . . . , vn } por k vectores de {w1 , . . . , wn } con 1 ≤ k < n. Renumerando si hicie-
ra falta podemos pensar que reemplazamos v1 , . . . , vk por w1 , . . . , wk de tal forma que
{w1 , . . . , wk , vk+1 , . . . , vn } genera V . Entonces, para el vector wk+1 ∈ V existen escala-
res b1 , . . . , bk , ck+1 , . . . , cn en K tales que
(2) wk+1 = b1 w1 + · · · + bk wk + ck+1 vk+1 + · · · + cn vn .
Observe ahora que en (2) no se puede tener que todos los cj = 0, ya que si esto sucediera
(2) dirı́a que w1 , . . . , wk , wk+1 son linealmente dependientes (el coeficiente de wk+1 es
1 6= 0), en contradicción con la suposición inicial de que los wi son linealmente indepen-
dientes. Se sigue que algún ci 6= 0. Renumerando si hiciera falta podemos suponer que
ck+1 6= 0 y ası́ se puede despejar a vk+1 de (2) para obtener vk+1 como combinación
lineal de w1 , . . . , wk , wk+1 , vk+2 , . . . , vn , i.e.,
vk+1 ∈ K(w1 , . . . , wk+1 , vk+2 , . . . , vn ),
y como, por hipótesis de inducción K(w1 , . . . , wk , vk+1 , vk+2 , . . . , vn ) = V , se sigue
que w1 , . . . , wk+1 , vk+2 , . . . , vn genera V . Ası́, ya reemplazamos a vk+1 por wk+1 . Por
inducción se sigue que podemos reemplazar a todos los v1 , . . . , vn por w1 , . . . , wn de tal
forma que w1 , . . . , wn todavı́a genere a V .
Finalmente, si sucediera que m > n, entonces wm ∈ K(w1 , . . . , wn ) se puede escribir
como
w = α1 w1 + · · · + αn wn
con los αj ∈ K, y por lo tanto {w1 , . . . , wn , . . . , wm } serı́a linealmente dependiente. 

La consecuencia más importante de este lema y de su demostración es:


Teorema 1.32. Sea V un K-espacio vectorial finitamente generado y supongamos que
A = {v1 , . . . , vn } y B = {w1 , . . . , wm } son bases de V . Entonces, m = n.
D EMOSTRACI ÓN . Como A genera V y como B es linealmente independiente, el lema
anterior nos dice que m ≤ n. Cambiando los papeles de A y B se sigue que n ≤ m y por
lo tanto m = n. 

Gracias a este teorema tiene sentido la definición siguiente:


32 1. ESPACIOS VECTORIALES

Definición 1.33. Sea V un K-espacio vectorial y supongamos que B = {v1 , . . . , vn } es


una base de V . Por el teorema anterior el número n está unı́vocamente determinado por
V . Al número n de vectores en cualquier base de V se le llama la dimensión del espacio
vectorial V y se denota n = dimK (V ). Algunas veces decimos que V es un K-espacio
vectorial de dimensión finita n.
Ejemplo 33. Si V = K n , entonces dimK (K n ) = n. En efecto, sólo tenemos que mostrar
una base de K n con n vectores. Para esto, pongamos
e1 = (1, 0, . . . , 0); e2 = (0, 1, 0, . . . , 0); . . . ; en = (0, . . . , 0, 1)
n
en K . Entonces,
(i) Los vectores e1 , . . . , en generan K n ya que si v = (a1 , . . . , an ) es cualquier vector de
K n , se tiene que
v = (a1 , . . . , an ) = (a1 , 0, . . . , 0) + · · · + (0, . . . , 0, 1)
= a1 (1, 0, . . . , 0) + · · · + an (0, . . . , 0, 1)
= a1 e1 + · · · + an en .

(ii) Los vectores e1 , . . . , en son linealmente independientes ya que si α1 , . . . , αn son esca-


lares tales que
0 = (0, . . . , 0) = α1 e1 + · · · + αn en
= (α1 , 0, . . . , 0) + · · · + (0, . . . , 0, αn )
= (α1 , . . . , αn ),
entonces α1 = 0, α2 = 0, . . . , αn = 0, por definición de igualdad de vectores en K n .

A la base {e1 , . . . , en } de K n algunas veces se le llama la base canónica de K n .


Corolario 1.34. Sea V un K-espacio vectorial de dimensión finita n. Entonces, cualquier
conjunto de vectores linealmente independientes de V tiene cardinal ≤ n.
D EMOSTRACI ÓN . Sea B = {v1 , . . . , vn } una base de V . Si w1 , . . . , wm son vectores
linealmente independientes, por el lema de reemplazamiento se tiene que m ≤ n. 
Corolario 1.35. Sea V un K-espacio vectorial de dimensión finita n. Entonces, cualquier
conjunto de generadores de V tiene cardinal ≥ n.
D EMOSTRACI ÓN . Sea B = {v1 , . . . , vn } una base de V . Si w1 , . . . , wm generan V , por
el lema de reemplazamiento cambiando los papeles de los vi y los wj , como los vi son
linealmente independientes, se debe tener que n ≤ m. 
Corolario 1.36. Sea V un K-espacio vectorial de dimensión finita n. Entonces, cualquier
conjunto de n vectores linealmente independientes de V es una base de V .
D EMOSTRACI ÓN . Sea B = {v1 , . . . , vn } una base de V . Si w1 , . . . , wn son n vectores
linealmente independientes, por el lema de reemplazamiento podemos substituir los vecto-
res vi por los vectores wi de tal forma que los wi generan V . Como los wi son linealmente
independientes y ya vimos que generan V , entonces son una base de V . 
Corolario 1.37. Sea V un K-espacio vectorial de dimensión finita n. Entonces, cualquier
conjunto de n generadores de V es una base de V .
1.6. BASES Y DIMENSIÓN 33

D EMOSTRACI ÓN . Si w1 , . . . , wn son n generadores de V , queremos probar que son li-


nealmente independientes. Si no lo fuera ası́, algún vector wi dependerı́a linealmente de
los otros; renumerando si hiciera falta podemos suponer que wn ∈ K(w1 , . . . , wn−1 ) y
por lo tanto w1 , . . . , wn−1 generan V , en contradicción con el corolario 1.35. 
Corolario 1.38. Sea V un K-espacio vectorial de dimensión finita n. Entonces, cualquier
conjunto de vectores linealmente independientes de V se puede extender a una base de V .
D EMOSTRACI ÓN . Sean v1 , . . . , vk vectores linealmente independientes de V . Por el pri-
mer corolario, k ≤ n. Si sucediera que k < n, por el segundo corolario los vectores
v1 , . . . , vk no generan a V . Ası́, existe un vk+1 ∈ V tal que vk+1 6∈ K(v1 , . . . , vk ). Por
el lema 1.27 esto es equivalente a que {v1 , . . . , vk , vk+1 } es linealmente independiente. Si
k + 1 < n, repetimos el argumento; por inducción obtenemos de esta manera n vectores
linealmente independientes v1 , . . . , vk , vk+1 , . . . , vn en V , y por el tercer corolario ésta
debe ser una base de V . 

La dimensión de subespacios. Que la dimensión es una medida de los espacios vectoria-


les, lo confirma el corolario siguiente:
Corolario 1.39. Sea W un subespacio de un K-espacio vectorial V de dimensión finita.
Entonces, W tiene dimensión finita y además
dimK (W ) ≤ dimK (V ).
Más aún, si W ⊆ V y dimK (W ) = dimK (V ), entonces W = V .
D EMOSTRACI ÓN . Pongamos n = dimK (V ). Si W = {0V }, entonces W tiene dimensión
finita dimK (W ) = 0 ≤ n = dimK (V ). Si W 6= {0V }, entonces existe un w1 6= 0V en
W y {w1 } es linealmente independiente. Continuando de esta manera, encontramos vec-
tores linealmente independientes w1 , . . . , wk en W . Ahora, como W ⊆ V , estos vectores
linealmente independientes están en V , y como dimK (V ) = n, entonces k ≤ n por el
primer corolario. Por lo tanto, el proceso anterior de construir vectores linealmente inde-
pendientes w1 , . . . , wk en W debe parar en un punto k ≤ n cuando al añadir cualquier
otro vector w de W al conjunto {w1 , . . . , wk }, el conjunto resultante {w1 , . . . , wk , w}
es linealmente dependiente. Por el lema 1.27 se sigue que {w1 , . . . , wk } genera a W y
ası́ dimK (W ) = k ≤ n = dimK (V ).
Finalmente, si dimK (W ) = dimK (V ), entonces una base de W es una base de V y
ası́ W = V . 

Bases de sumas directas. Dado un K-espacio vectorial de dimensión finita V y un su-


bespacio vectorial U ⊆ V , mostraremos a continuación que V se descompone como
V = U ⊕ W , para algún subespacio W de V y luego calcularemos la dimensión de V
en términos de las dimensiones de U y W .
Proposición 1.40. Sea V un K-espacio vectorial de dimensión finita n y sea U un subes-
pacio vectorial de V . Entonces, existe un subespacio vectorial W de V tal que V = U ⊕W .
D EMOSTRACI ÓN . Escojamos una base {v1 , . . . , vk } de U . Por 1.38 este conjunto se puede
extender a una base de V , digamos {v1 , . . . , vk , vk+1 , . . . , vn }. Sea W = K(vk+1 , . . . , vn ).
Entonces, W es un subespacio de V y se tiene que:
(i) V = U + W ya que si v ∈ V , como v1 , . . . , vn es base de V , entonces
v = a1 v1 + · · · + ak vk + ak+1 vk+1 + · · · + an vn
= (a1 v1 + · · · + ak vk ) + (ak+1 vk+1 + · · · + an vn ),
34 1. ESPACIOS VECTORIALES

con a1 v1 + · · · + ak vk ∈ U y ak+1 vk+1 + · · · + an vn ∈ W .


(ii) U ∩ W = {0V } ya que si v ∈ U ∩ W , entonces
v∈U ⇒ v = λ1 v1 + · · · + λk vk
v∈W ⇒ v = λk+1 vk+1 + · · · + λn vn

y restando,
0V = λ1 v1 + · · · + λk vk − λk+1 vk+1 + · · · − λn vn
y como {v1 , . . . , vn } es base de V , la igualdad anterior implica que todos los λi = 0 y por
lo tanto v = 0V . 
Proposición 1.41. Sea V un K-espacio vectorial de dimensión finita y supongamos que
V = U ⊕ W , con U , W subespacios vectoriales de V . Entonces,
dimK (V ) = dimK (U ) + dimK (W ).
D EMOSTRACI ÓN . Sean A = {u1 , . . . , uk } una base de V y B = {w1 , . . . , wr } una base
de W . Entonces, A ∪ B es una base de V ya que:
(1). A ∪ B genera V , porque si v ∈ V , como V = U ⊕ W , entonces existen u ∈ U y
w ∈ W tales que v = u+w. Ahora, como A es base de U , entonces u = a1 u1 +· · ·+ak uk .
Similarmente, como B es base de W , entonces w = b1 w1 + · · · + br wr . Se sigue que
v = u + w = a1 u1 + · · · + ak uk + b1 w1 + · · · + br wr .
(2). A ∪ B es linealmente independiente, porque si
0V = a1 u1 + · · · + ak uk + b1 w1 + · · · + br wr ,
entonces
0V = 0V + 0V
= (a1 u1 + · · · + ak uk ) + (b1 w1 + · · · + br wr ),
y por la unicidad de la expresión de 0V , se tiene que
0V = a1 u1 + · · · + ak uk en U
0V = b1 w1 + · · · + br wr , en W
y como A es base de U , la primera igualdad implica que a1 = · · · = ak = 0 y, análoga-
mente, la segunda igualdad implica que b1 = · · · = br = 0. 

E JERCICIO 45. Sea V = R3 .


(i) Muestre que los vectores v1 = (2, −3, 5), v2 = (8, −12, 20), v3 = (1, 0, −2),
v4 = (0, 2, −1) generan R3 .
(ii) Aplique el método dado en la demostración del teorema 1.28 para escoger una
base de R3 entre los vectores de (i).

E JERCICIO 46. Sea V ⊆ R3 el conjunto de vectores v = (x, y, z) que satisfacen la ecua-


ción lineal x + y + z = 0.
(i) Muestre que V es un subespacio vectorial de R3 .
(ii) Encuentre una base de V y calcule su dimensión.
1.6. BASES Y DIMENSIÓN 35

E JERCICIO 47. ¿Cuál es la dimensión del espacio vectorial Mat2×2 (K)? Dé una base.

E JERCICIO 48. Calcule la dimensión de Matm×n (K). Dé una base.

E JERCICIO 49. Sea W = {A ∈ Matn×n (K); : A es diagonal}. Calcule la dimensión de


W.

E JERCICIO 50. Sea W el subespacio vectorial de matrices n × n triangulares superiores


con entradas en un campo K. Calcule su dimensión.

E JERCICIO 51. Sea W = {A ∈ Mat2×2 (K) : A es simétrica}. Calcule la dimensión de


W.

E JERCICIO 52. Sea W = {A ∈ Matn×n (K) : A es simétrica}. Calcule la dimensión de


W.

E JERCICIO 53. Sean V = Mat3×3 (K) y W = {A ∈ V : Tr(A) = 0}. Calcule la


dimensión de W .

E JERCICIO 54. Sea W ⊆ R3 un subespacio vectorial. ¿Cuáles son las dimensiones posi-
bles de W ? Demuestre que las posibilidades para W son: W = {0}, W = R3 , W = L
(una recta por el origen), W = P (un plano por el origen).

E JERCICIO 55. Sea Pn (K) el espacio vectorial de polinomios de grado ≤ n con coeficien-
tes en un campo K. Calcule la dimensión de Pn (K) y dé una base.

E JERCICIO 56. Sea V = Pn (R) y fije un real α ∈ R.


(i) Demuestre que el conjunto W = {f ∈ Pn (R) : f (α) = 0} es un subespacio
vectorial de V .
(ii) Calcule su dimensión.

E JERCICIO 57. Considere a Cn como un R-espacio vectorial. Calcule dimR (Cn ). Expli-
que.
Capı́tulo 2
Transformaciones lineales
de los espacios vectoriales, es natural pensar en
H ABIENDO COMENZADO EL ESTUDIO
compararlos. Para esto, como los espacios vectoriales son conjuntos, sabemos que
las funciones entre conjuntos son relaciones entre ellos y de alguna manera los comparan.
Ahora, los espacios vectoriales son conjuntos con una estructura adicional, a saber, sus
elementos se pueden sumar y se pueden multiplicar por escalares del campo dado. Ası́, las
funciones entre espacios vectoriales que nos interesan son aquellas que preservan la estruc-
tura de espacio vectorial de los espacios involucrados; es decir, consideraremos funciones
entre espacios vectoriales que respetan la suma de vectores y el producto de un escalar por
un vector. Estas funciones se dice que son lineales y en este capı́tulo comenzamos su estu-
dio, mostrando sus propiedades principales para culminar con la conexión entre funciones
lineales entre espacios vectoriales de dimensión finita y matrices con entradas en el campo
dado.

2.1. Transformaciones lineales


En esta sección comenzamos el estudio de las funciones1 lineales entre espacios vecto-
riales y de algunos subespacios vectoriales asociados a ellas. Varios ejemplos ilustrarán los
conceptos y propiedades que veremos, en particular consideraremos ejemplos importan-
tes que provienen de la Geometrı́a de R2 , a saber, rotaciones, reflexiones y proyecciones.
También veremos algunos ejemplos que nos provee el Cálculo: la derivación e integración
son funciones lineales.

Definición 2.1. Si V y W son dos K-espacios vectoriales, una transformación lineal entre
V y W es una función T : V → W que satisface:
(i) T (u + v) = T (u) + T (v), para cualesquiera u, v ∈ V .
(ii) T (λv) = λT (v), para v ∈ V y λ ∈ K.

N OTA . Si T : V → W es una transformación lineal, algunas veces diremos que T : V →


W es K-lineal, para enfatizar el papel del campo K en la definición. También diremos que
T es una aplicación lineal o una función lineal.

Ejemplo 1. La función f : R → R dada por f (x) := αx, para α ∈ R un real fijo, es una
transformación lineal.

Ejemplo 2. La función T : R2 → R2 dada por T (x, y) := (2x+y, x−3y) es una aplicación


lineal, ya que:

1Usaremos como sinónimos de función a las palabras aplicación y transformación.

37
38 2. TRANSFORMACIONES LINEALES

(i) Si u = (x, y) y v = (x0 , y 0 ) son dos vectores de R2 , entonces u + v = (x +


x0 , y + y 0 ) y ası́
T (u + v) = T (x + x0 , y + y 0 ) = (2(x + x0 ) + (y + y 0 ), (x + x0 ) − 3(y + y 0 ))
= ((2x + y) + (2x0 + y 0 ), (x − 3y) + (x0 − 3y 0 ))
= (2x + y, x − 3y) + (2x0 + y 0 , x0 − 3y 0 )
= T (x, y) + T (x0 , y 0 )
= T (u) + T (v).
(ii) Si λ ∈ R, entonces λu = (λx, λy) y ası́
T (λu) = T (λx, λy) = (2(λx) + λy, λx − 3(λy))
= λ(2x + y, x − 3y)
= λT (x, y)
= λT (u).

Ejemplo 3. La función L : R3 → R2 dada por T (x, y, z) := (x + z, y − z) es una


transformación lineal, ya que:
(i) Si u = (x, y, z) y v = (x0 , y 0 , z 0 ) son dos vectores de R3 , entonces u + v =
(x + x0 , y + y 0 , z + z 0 ) y ası́
T (u + v) = T (x + x0 , y + y 0 , z + z 0 ) = ((x + x0 ) + (z + z 0 ), (y + y 0 ) − (z + z 0 ))
= ((x + z) + (x0 + z 0 ), (y − z) + (y 0 − z 0 ))
= (x + z, y − z) + (x0 + z 0 , y 0 − z 0 )
= T (x, y, z) + T (x0 , y 0 , z 0 )
= T (u) + T (v).
(ii) Si λ ∈ R, entonces λu = (λx, λy, λz) y ası́
T (λu) = T (λx, λy, λz) = (λx + λz, λy − λz)
= λ(x + z, y − z)
= λT (x, y, z)
= λT (u).

Ejemplo 4. Si V = R[x] es el R-espacio vectorial de polinomios con coeficientes en R,


recordemos del Cálculo que la derivada de un polinomio p(x) ∈ R[x] es otro polinomio
p0 (x) ∈ R[x]; ası́, si definimos la función
D : R[x] → R[x] mediante D(p(x)) := p0 (x),
se tiene que D es una transformación lineal ya que la derivada de una suma de funciones
es la suma de las derivadas y la derivada saca constantes.

Ejemplo 5. Sea V = C([0, 1], R) el R-espacio vectorial de funciones continuas del intervalo
[0, 1] a R. A cada función continua f ∈ C([0, 1], R) le podemos asociar su integral definida
R1
0
f (x)dx ∈ R y ası́ tenemos una función
Z 1
I : C([0, 1], R) → R dada por I(f (x)) := f (x)dx,
0
2.1. TRANSFORMACIONES LINEALES 39

la cual es lineal ya que la integral de una suma de funciones continuas es la suma de las
integrales y la integral saca constantes.

Ejemplo 6. Rotaciones en R2 . Si fijamos un ángulo θ ∈ R, dado un vector arbitrario


v = (a, b) ∈ R2 , queremos obtener el vector Rθ (v) que se obtiene rotando el vector v
alrededor del origen 0 de R2 el ángulo θ:

6 Rθ (v)


  * v
θ
 

◦ -
0

Para facilitar la geometrı́a involucrada, pensemos que θ es un ángulo positivo (medido


en sentido contrario al de las manecillas de un reloj) y consideremos el caso cuando el
vector v = (a, b) está en el primer cuadrante de R2 , como en la figura anterior.
El vector v = (a, b) determina el triángulo rectángulo de catetos a, b, y denotamos su
hipotenusa por h. Observe ahora que si φ es el ángulo que hace el vector v con respecto al
semieje horizontal positivo:

6
v
h 
*
 b

◦ -
0 a

entonces
cos φ = a/h y sen φ = b/h,
por lo que
v = (a, b) = (h cos φ, h sen φ).
Consideremos ahora al vector Rθ (v) = (x, y) y pensemos ahora en las dos figuras
anteriores. La primera observación es que en el triángulo rectángulo que forma el vector
Rθ (v), los catetos son x e y, y la hipotenusa es la misma h que la del vector v. Por eso
decimos que las rotaciones son transformaciones rı́gidas, i.e., en particular no cambian las
longitudes. Luego observamos que el ángulo que forma Rθ (v) con el semieje positivo X
es θ + φ. Entonces, si Rθ (v) = (x, y), sus componentes x, y satisfacen que
x = h cos(θ + φ)
y = h sen(θ + φ).
40 2. TRANSFORMACIONES LINEALES

Recordemos ahora que


cos(θ + φ) = cos θ cos φ − sen θ sen φ
sen(θ + φ) = sen θ cos φ + sen φ cos θ.
Entonces,
x = h cos(θ + φ) = h cos θ cos φ − h sen θ sen φ
y = h sen(θ + φ) = h sen θ cos φ + h sen φ cos θ,
y como a = h cos φ y b = h sen φ, substituyendo arriba obtenemos
x = a cos θ − b sen θ
y = a sen θ + b cos θ,
2
es decir, si v = (a, b) ∈ R , entonces
Rθ (v) = (a cos θ − b sen θ, a sen θ + b cos θ)
define la función rotación Rθ : R2 → R2 . Mostraremos que Rθ es lineal:
(i) Si u(a, b) y v = (a0 , b0 ) son dos vectores de R2 , entonces
Rθ (u + v) = Rθ (a + a0 , b + b0 )
= ((a + a0 ) cos θ − (b + b0 ) sen θ, (a + a0 ) sen θ + (b + b0 ) cos θ)
= (a cos θ − b sen θ, a sen θ + b cos θ)
+ (a0 cos θ − b0 sen θ, a0 sen θ + b0 cos θ)
= Rθ (u) + Rθ (v).
(ii) Si u(a, b) ∈ R2 y λ ∈ R, entonces
Rθ (λu) = Rθ (λa, λb)
= ((λa) cos θ − (λb) sen θ, (λa) sen θ + (λb) cos θ)
= λ(a cos θ − b sen θ, a sen θ + b cos θ)
= λRθ (u).

Ejemplo 7. Reflexiones en R2 . Si v = (a, b) ∈ R2 , el vector (a, −b) se obtiene a partir de


v reflejándolo con respecto al eje X:

6
(a, b)
 *

  b

◦H
 -X
0 −φ
HH
H −b
HHj
(a, −b)

y se tiene ası́ una función T : R2 → R2 dada por T (a, b) = (a, −b), a la cual se le llama
la reflexión con respecto al eje X. Similarmente se tiene la reflexión con respecto al eje Y .
Cada una de estas reflexiones es una transformación lineal, como el lector puede verificar
fácilmente.
2.1. TRANSFORMACIONES LINEALES 41

Ejemplo 8. Proyecciones de R2 . Si v = (x, y) ∈ R2 , la función prX : R2 → R dada por


prX (x, y) = x, se llama la proyección sobre el eje X:

6
v = (x, y)
*



◦ - -X
0 x

Similarmente, la función prY : R2 → R dada por prX (x, y) = y, se llama la proyec-


ción sobre el eje Y . Las dos proyecciones anteriores son transformaciones lineales como
se puede verificar fácilmente.

Ejemplo 9. Proyecciones de R3 . En forma análoga al ejemplo anterior, se tienen las pro-


yecciones
prX , prY , prZ : R3 → R
dadas por
prX (x, y, z) = x, prY (x, y, z) = y, prZ (x, y, z) = z.
Además también se tienen las funciones que proyectan un vector sobre uno de los
planos coordenados, por ejemplo, la proyección sobre el plano XY :
prXY : R3 → R2 dada por prXY (x, y, z) = (x, y)
proyecta el vector v = (x, y, z) sobre su sombra en el plano XY al cual indentificamos
con el espacio vectorial R2 :

Z 6

v = (x, y, z)
 1


◦
PP - Y
PPq
prXY (v) = (x, y)

X
Similarmente se tienen las otras dos proyecciones sobre los planos coordenados XZ
y Y Z:
prXZ : R3 → R2 dada por prXZ (x, y, z) = (x, z)
y
prY Z : R3 → R2 dada por prY Z (x, y, z) = (y, z).
Se demuestra fácilmente que todas estas proyecciones son funciones lineales.

Ejemplo 10. La función traza, Tr : Matn×n (K) → K dada por


n
X
Tr(aij ) = aii ,
i=1
42 2. TRANSFORMACIONES LINEALES

es una transformación lineal.

Ejemplo 11. La función transposición, t : Matm×n (K) → Matn×m (K) dada por t(A) =
t
A, también es una transformación lineal.

Ya para finalizar nuestra lista de ejemplos, se tienen dos transformaciones lineales que
están presentes siempre:

Ejemplo 12. Si V es cualquier K-espacio vectorial, la función identidad idV : V → V


dada por idV (v) = v, es lineal.

Ejemplo 13. Si V y W son dos K-espacios vectoriales cualesquiera, la función cero 0 :


V → W dada por 0(v) = 0W , es decir, manda todos los vectores de V al vector 0W de
W , también es lineal.

Hemos definido las transformaciones lineales como funciones T : V → W entre


espacios vectoriales que preservan sus operaciones. Las propiedades siguientes deben ser
entonces naturales:
Proposición 2.2. Sea T : V → W una transformación K-lineal. Entonces
(1) T (0V ) = 0W , donde 0V y 0W son los neutros aditivos de V y W respectiva-
mente.
(2) T (−v) = −T (v), para todo v ∈ V .
(3) T (au + bv) = aT (u) + bT (v), para u, v ∈ V y a, b ∈ K.
D EMOSTRACI ÓN . (1): T (0V ) = T (0V + 0V ) = T (0V ) + T (0V ), ya que 0V es neutro y
T es lineal. La igualdad anterior y la ley de cancelación implican que T (0V ) = 0W .
(2): T (v) + T (−v) = T (v − v) = T (0V ) = 0W , la última igualdad por la parte (1). La
igualdad T (v) + T (−v) = 0W y la unicidad del inverso aditivo implican que T (−v) =
−T (v).
(3): Si a, b ∈ K y u, v ∈ V , entonces
T (au + bv) = T (au) + T (bv) porque T es lineal
= aT (u) + bT (v) porque T es lineal.

Proposición 2.3. Si L : U → V y T : V → W son transformaciones K-lineales, entonces
la composición T ◦ L : U → W también es lineal.
D EMOSTRACI ÓN . (1): Sean u, v ∈ V . Entonces,
(T ◦ L)(u + v) = T (L(u + v)) por definición de composición
= T (L(u) + L(v)) porque L es lineal
= T (L(u)) + T (L(v)) porque T es lineal
= (T ◦ L)(u) + (T ◦ L)(v) por definición de composición.
(2): Sean u ∈ V y λ ∈ K. Entonces,
(T ◦ L)(λu) = T (L(λu)) por definición de composición
= T (λL(u)) porque L es lineal
= λT (L(u)) porque T es lineal
= λ(T ◦ L)(u) por definición de composición.
2.1. TRANSFORMACIONES LINEALES 43


Proposición 2.4. Si T : V → W es una transformación lineal biyectiva, entonces la
función inversa T −1 : W → V también es lineal.
D EMOSTRACI ÓN . (1): Sean u, v ∈ W y sean u0 , v 0 ∈ V tales que T (u0 ) = u y T (v 0 ) = v.
Entonces, u + v = T (u0 ) + T (v 0 ) = T (u0 + v 0 ), ya que T es lineal. Se sigue que
T −1 (u + v) = u0 + v 0 = T −1 (u) + T −1 (v).
(2): Sean u ∈ V y λ ∈ K. Sea u0 ∈ V tal que T (u0 ) = u. Entonces, λu = λT (u0 ) =
T (λu0 ), ya que T es lineal. Se sigue que
T −1 (λu) = λu0 = λT −1 (u).
Definición 2.5. Si T : V → W es una transformación lineal biyectiva, diremos que T es
un isomorfismo de espacios vectoriales.
Ası́, la proposición anterior nos dice que la función inversa de un isomorfismo T :
V → W es un isomorfismo también.

Ejemplo 14. Si V es cualquier K-espacio vectorial, la función identidad es un isomorfismo.


En efecto, por el ejemplo 12, la identidad es lineal y es claro que es biyectiva.

Ejemplo 15. Sea T : Mat2×2 (R) → R4 la función dada por


 
a b
T = (a, b, c, d).
c d
Entonces, T es un isomorfismo. Es claro que T es lineal. Para mostrar que T es inyectiva,
supongamos que  0
a b0
  
a b
T =T .
c d c0 d0
Entonces, (a, b, c, d) = (a0 , b0 , c0 , d0 ) y por lo tanto a = a0 , b = b0 , c = c0 , d = d0 . Se sigue
que   0
a b0
 
a b
= .
c d c0 d0
4
Para
 mostrar  que T es suprayectiva, sea w = (a, b, c, d) ∈ R . Entonces la matriz
a b
A= es tal que T (A) = w.
c d

Ejemplo 16. La función L : P2 (R) → R3 dada por L(a0 + a1 x + a2 x2 ) = (a0 , a1 , a2 ) es


un isomorfismo. Es claro que es lineal. Para ver que es inyectiva, supongamos que
L(a0 + a1 x + a2 x2 ) = L(a00 + a01 x + a02 x2 ).
Entonces, (a0 , a1 , a2 ) = (a00 , a01 , a02 ) y ası́ ai = a0i , por lo que los polinomios correspon-
dientes son iguales. Que L es suprayectiva es porque si w = (a, b, c) ∈ R3 , el polinomio
f (x) = a + bx + cx2 ∈ P2 (R) es tal que L(f (x)) = w.

La palabra isomorfismo, de las raı́ces griegas iso que significa igual y morfé que sig-
nifica forma, captura la propiedad de que una transformación lineal biyectiva entre dos
espacios vectoriales identifica a estos dos espacios, tanto como conjuntos (la biyectividad
de la función) como con respecto a sus estructuras, identificando la suma de un espacio con
la suma en el otro, e identificando el producto de un escalar en un espacio con el producto
por un escalar en el otro. De alguna manera nos dice que los dos espacios son el mismo,
44 2. TRANSFORMACIONES LINEALES

sólo presentados de diferente manera o nombre. En particular, en el caso de espacios vecto-


riales de dimensión finita, esperamos que los isomorfismos se comporten bien con respecto
a las bases y a la dimensión de los espacios.
Proposición 2.6. Sea T : V → W una transformación lineal inyectiva. Si v1 , . . . , vn son
vectores de V linealmente independientes, entonces T (v1 ), . . . , T (vn ) son vectores de W
linealmente independientes también.
D EMOSTRACI ÓN . Supongamos que se tiene una combinación lineal
a1 T (v1 ) + · · · + an T (vn ) = 0W .
Entonces, como T es lineal, T (a1 v1 + · · · + an vn ) = 0W . Ahora, como T (0V ) = 0W por
2.2(1), entonces T (0V ) = T (a1 v1 +· · ·+an vn ), y como T es inyectiva, esto último implica
que a1 v1 + · · · + an vn = 0V . Pero como v1 , . . . , vn son linealmente independientes,
entonces la combinación lineal anterior implica que ai = 0 para todo i, y por lo tanto
T (v1 ), . . . , T (vn ) son linealmente independientes. 

Una consecuencia inmendiata es que los isomorfismos entre espacios vectoriales de


dimensión finita preservan la dimensión:
Teorema 2.7. Sea T : V → W un isomorfismo entre espacios vectoriales de dimensión
finita. Entonces, dim V = dim W .
D EMOSTRACI ÓN . Sean m = dim V y n = dim W . Si {v1 , . . . , vm } es una base de V ,
como T es inyectiva la proposición anterior nos dice que T (v1 ), . . . , T (vm ) son vectores
de W linealmente independientes y por lo tanto m ≤ n por 1.35.
Ahora, como T −1 : W → V también es un isomorfismo, si {w1 , . . . , wn } es una base
de W , como T −1 es inyectiva la proposición anterior nos dice que T −1 (w1 ), . . . , T −1 (wn )
son vectores de V linealmente independientes y por lo tanto n ≤ m por 1.35.
Se sigue que m = n. 

E JERCICIO 1. Sea f : V → W una transformación lineal entre dos K-espacios vectoriales.


Si v1 , . . . , vn ∈ V y λ1 , . . . , λn ∈ K, demuestre que
f (λ1 v1 + · · · + λn vn ) = λ1 f (v1 ) + · · · + λn f (vn ).

E JERCICIO 2. Sea T : V → W una función entre espacios vectoriales. Demuestre que T


es lineal si y sólo si T (au + bv) = aT (u) + bT (v), para cualesquiera a, b ∈ K y u, v ∈ V .

E JERCICIO 3. Sean U, V, W tres K-espacios vectoriales y sean f : U → W y g : V → W


dos transformaciones lineales. Considere los productos cartesianos U ×V y W ×W . Defina
la función T : U × V → W × W mediante
T (u, v) := (f (u), g(v)).
Demuestre que T es lineal.

E JERCICIO 4. Sean U, V dos K-espacios vectoriales y defina las funciones


i1 : U → U × V dada por i1 (u) = (u, 0V )
e
i2 : V → U × V dada por i2 (v) = (0U , v).
2.1. TRANSFORMACIONES LINEALES 45

Demuestre que ambas son lineales e inyectivas.

E JERCICIO 5. Con la misma notación del ejercicio anterior, defina las funciones
p1 : U × V → U dada por p1 (u, v) = u
y
p2 : U × V → V dada por p2 (u, v) = v.
Demuestre que son lineales y suprayectivas.

E JERCICIO 6. Sea V un K-espacio vectorial de dimensión finita y sea T : V → V una


aplicación lineal de V en sı́ mismo. Considere la composición de T consigo misma, i.e.,
T 2 = T ◦ T : V → V y sea idV : V → V la identidad. Si T 2 = 0, demuestre que la
función idV −T : V → V es un isomorfismo.

E JERCICIO 7. Si f : V → W y g : W → U son isomorfismos de K-espacios vectoriales,


demuestre que la composición g ◦ f : V → U también es un isomorfismo, con inversa
(g ◦ f )−1 = f −1 ◦ g −1 : U → V.

E JERCICIO 8. Si g : R2 → R2 es la función dada por g(x, y) = (x + y, x − y). Muestre


que g es un isomorfismo.

E JERCICIO 9. Si h : R2 → R2 es la función dada por h(x, y) = (2x+y, 3x−5y). Muestre


que h es un isomorfismo.

E JERCICIO 10. Si T : R3 → R3 es la función dada por T (x, y, z) = (x − y, x + z, x +


y + 2z). Muestre que T es un isomorfismo.

E JERCICIO 11. Si L : R3 → R3 es la función dada por L(x, y, z) = (2x − y + z, x +


y, 3x + y + z). Muestre que L es un isomorfismo.

E JERCICIO 12. Demuestre que cualquier rotación Rθ : R2 → R2 es un isomorfismo.


¿Cuál es su inversa?

E JERCICIO 13. Sea T : Mat2×2 (R) → P3 (R) la función dada por


 
a b
T = a + bx + cx2 + dx3 .
c d
Demuestre que T es un isomorfismo.

E JERCICIO 14. En general, si T : Matm×n (R) → Rmn es la función


 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
T .  = (a11 , . . . , a1n , a21 , . . . , a2n , . . . , am1 , . . . , amn ).
 
 .. 
am1 am2 ··· amn
Demuestre que T es un isomorfismo.

E JERCICIO 15. Sea T : Pn (K) → K n+1 la función


T (a0 + a1 x + · · · + an xn ) := (a0 , a1 , . . . , an ).
Demuestre que T es un isomorfismo.
46 2. TRANSFORMACIONES LINEALES

E JERCICIO 16. Sea λ ∈ K un escalar 6= 0. Defina Tλ : K n → K n mediante Tλ (x) := λx.


Demuestre que Tλ es un isomorfismo.

E JERCICIO 17. Demuestre que todas las aplicaciones lineales T : R → R son de la forma
T (x) = αx, para algún α ∈ R. ¿Cuáles de ellas son isomorfismos?

2.2. Núcleo e imagen de una transformación lineal


En esta sección estudiamos unos subespacios asociados a una transformación lineal y
usando estos subespacios derivamos algunas propiedades de las transformaciones lineales.
La sección culmina con una fórmula que relaciona la dimensión de los espacios asociados
a una función lineal entre espacios de dimensión finita.
Definición 2.8. Sea T : V → W una transformación lineal. Se tienen los conjuntos
siguientes:
ker(T ) := {v ∈ V : T (v) = 0W } ⊆ V.
e
Im(T ) := {T (v) ∈ W : v ∈ V } ⊆ W.
Al conjunto ker(T ) se le llama el núcleo de la transformación lineal T y al conjunto
Im(T ) se le llama la imagen de la transformación lineal T .
Proposición 2.9. Sea T : V → W una transformación lineal. Entonces,
(1) ker(T ) es un subespacio vectorial de V .
(2) Im(T ) es un subespacio vectorial de W .
D EMOSTRACI ÓN . (1): 0V ∈ ker(T ) ya que T (0V ) = 0W . Supongamos ahora que u, v ∈
ker(T ); entonces T (u) = 0W = T (w) y ası́ T (u + v) = T (u) + T (v) = 0W + 0W = 0W ,
i.e., u + v ∈ ker(T ). Ahora, si u ∈ ker(T ) y λ ∈ K, entonces T (u) = 0W y por lo tanto
T (λu) = λT (u) = λ0W = 0W y ası́ λu ∈ ker(T ).
(2): 0W ∈ Im(T ) ya que 0W = T (0V ). Supongamos ahora que u, v ∈ Im(T ); entonces
existen u0 , v 0 ∈ V tales que T (u0 ) = u y T (v 0 ) = v, y ası́ T (u0 + v 0 ) = T (u0 ) + T (v 0 ) =
u + v, i.e., u + v ∈ Im(T ). Ahora, si u ∈ Im(T ) y λ ∈ K, entonces existe u0 ∈ V tal que
T (u0 ) = u y por lo tanto T (λu0 ) = λT (u0 ) = λu y ası́ λu ∈ Im(T ). 

Ejemplo 17. Si V = C ∞ ([0, 1], R) es el R-espacio vectorial de funciones diferenciables


en el intervalo [0, 1] y si D : V → V es la derivada D(f ) = f 0 , el núcleo de D es el
subespacio de funciones constantes en [0, 1].

Ejemplo 18. Si T : R2 → R2 es la tranformación lineal T (x, y) = (3x + y, x − 2y) el


núcleo de T es el subespacio de soluciones del sistema de ecuaciones homogéneo:
3x + y = 0
x − 2y = 0.

Ejemplo 19. Si prXY : R3 → R2 es la proyección prXY (x, y, z) = (x, y) su núcleo es


ker(prXY ) = {(0, 0, z) ∈ R3 } = eje Z
y su imagen es todo R2 .

Por definición de suprayectividad, T : V → W es suprayectiva si y sólo si Im(T ) =


W . Lo que es sorprendente es:
2.2. NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL 47

Proposición 2.10. Sea T : V → W una transformación lineal. Entonces, T es inyectiva


si y sólo si ker(T ) = {0V }.
D EMOSTRACI ÓN . Si T es inyectiva y v ∈ ker(T ), entonces T (v) = 0W = T (0V ) y por
la inyectividad de T esto implica que v = 0V , i.e., ker(T ) = {0V }. Supongamos ahora
que ker(T ) = {0V } y sean u, v ∈ V tales que T (u) = T (v). Entonces, T (u − v) =
T (u) − T (v) = 0W por lo que u − v ∈ ker(T ) = {0V } y ası́ u − v = 0V , i.e., u = v y
por lo tanto T es inyectiva. 

Para la imagen de una función lineal se tiene:


Proposición 2.11. Sea T : V → W una transformación lineal. Si B = {v1 , . . . , vn } es
una base de V , entonces
Im T = K(T (v1 ), . . . , T (vn )).
D EMOSTRACI ÓN . Claramente T (vi ) ∈ Im T para cada i, y como Im T es un subespacio
vectorial, entonces Im T contiene a todas las combinaciones lineales de los T (vi ) y por
lo tanto K(T (v1 ), . . . , T (vn )) ⊆ Im T . Para la otra inclusión, si w ∈ Im T , entonces
existe un v ∈ V tal que w = T (v). Escribiendo a v en términos de la base B, v =
a1 v1 + · · · + an vn , se tiene que
w = T (v) = T (a1 v1 + · · · + an vn )
= a1 T (v1 ) + · · · + an T (vn ) ∈ K(T (v1 ), . . . , T (vn )),
i.e., Im T ⊆ K(T (v1 ), . . . , T (vn )). 

El resultado siguiente nos dice que una transformación lineal entre espacios de dimen-
sión finita está determinada por sus valores en cualquier base del dominio:
Teorema 2.12. Sean V y W dos K-espacios vectoriales, con V de dimensión finita y sea
B = {v1 , . . . , vn } una base de V . Si w1 , . . . , wn son elementos arbitrarios de W , entonces
existe una única transformación lineal tal que T (vi ) = wi , 1 ≤ i ≤ n. Dicho en otras
palabras:
(1) Cualquier función de la base B al espacio W se puede extender a una función lineal
T : V → W.
(2) Si T, L : V → W son dos funciones lineales tales que coinciden en la base B, i.e.,
T (vi ) = L(vi ), 1 ≤ i ≤ n, entonces T = L en todo V .
D EMOSTRACI ÓN . (1): Existencia. Por hipótesis se tiene una función T : B → W dada
por T (vi ) = wi . Veremos que T se puede extender linealmente a todo V . En efecto, sea
vv ∈ V cualquier vector. Como B es base de V , existen escalares únicos a1 , . . . , an en K
tales que v = a1 v1 + · · · + an vn . Se define entonces el vector T (v) ∈ W mediante:
T (v) := a1 T (v1 ) + · · · + an T (vn ),
i.e., la combinación lineal dada por los vectores wi = T (vi ) ∈ W usando los (únicos)
escalares ai provenientes de v. Mostraremos que T : V → W es lineal.
(i) Si v = a1 v1 + · · · + an vn y u = b1 v1 + · · · + bn vn son dos vectores de V escritos en
términos de la base B, entonces
v + u = (a1 + b1 )v1 + · · · + (an + bn )vn
48 2. TRANSFORMACIONES LINEALES

y ası́, por definición de T , se tiene:


T (v + u) = (a1 + b1 )T (v1 ) + · · · + (an + bn )T (vn )
= (a1 T (v1 ) + b1 T (v1 )) + · · · + (an T (vn ) + bn T (vn ))
= (a1 T (v1 ) + · · · + an T (vn )) + (b1 T (v1 ) + · · · + bn T (vn ))
= T (v) + T (u).

(ii) Si v = a1 v1 + · · · + an vn y λ ∈ K, entonces
λv = (λa1 )v1 + · · · + (λan )vn
y ası́, por definición de T , se tiene:
T (λv) = λ(a1 )T (v1 ) + · · · + (λn )T (vn )
= λ(a1 T (v1 ) + · · · + an T (vn ))
= λT (v).

(2): Unicidad. Supongamos que L : V → W es otra transformación lineal tal que coincide
con T cuando se restringe a B, i.e., L(vi ) = T (vi ) para toda i. Entonces, para cualquier
vector v ∈ V , escribiéndolo en términos de la base de V , v = a1 v1 + · · · + an vn , se tiene
que
L(v) = L(a1 v1 + · · · + an vn )
= a1 L(v1 ) + · · · + an L(vn ))
= a1 T (v1 ) + · · · + an T (vn ))
= L(a1 v1 + · · · + an vn )
= T (v),
y por lo tanto L = T . 

El resultado siguiente relaciona las dimensiones del núcleo, imagen y dominio de una
transformación lineal entre espacios de dimensión finita:
Teorema 2.13. Sea T : V → W una transformación lineal entre espacios vectoriales de
dimensión finita. Entonces,
(∗) dimK (V ) = dimK (ker T ) + dimK (Im T ).
D EMOSTRACI ÓN . Si ker T = {0V }, entonces dim(ker T ) = 0 y T es inyectiva. Se sigue
que T : V → Im T es un isomorfismo y por el teorema 2.7 se tiene que dim(V ) =
dim(Im T ), i.e., (∗) es cierta en este caso.
Si ker T 6= {0V }, sea A = {u1 , . . . , uk } una base de ker T . Por 1.38 podemos exten-
der A a una base de V , digamos {u1 , . . . , uk , uk+1 , . . . , un }, si dim V = n. Mostraremos
que R = {T (uk+1 ), . . . , T (un )} es una base de Im T .
(1) R genera, ya que por 2.11 T (u1 ), . . . , T (uk ), T (uk+1 ), . . . , T (un ) generan Im T y
como T (u1 ) = · · · = T (uk ) = 0W , entonces T (uk+1 ), . . . , T (un ) generan Im T .
(1) R es linealmente independiente, ya que si
0W = ak+1 T (uk+1 ) + · · · + an T (un ),
2.2. NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL 49

entonces 0W = T (ak+1 uk+1 +· · ·+an un ) porque T es lineal. Se tiene ası́ que ak+1 uk+1 +
· · · + an un ∈ ker T . Ahora, como u1 , . . . , uk es base de ker T , entonces existen escalares
a1 , . . . , ak tales que
ak+1 uk+1 + · · · + an un = a1 u1 + · · · + ak uk .
Se sigue que
(−a1 )u1 + · · · + (−ak )uk + ak+1 uk+1 + · · · + an un = 0V
y como los u1 , . . . , un son linealmente independientes, la última igualdad implica que
todos los ai = 0; en particular ak+1 = · · · = an = 0 y por lo tanto R es linealmente
independiente.
Hemos ası́ mostrado que dim(Im T ) = n − k, con n = dim V y k = dim(ker T ), es
decir, dim V = dim(ker T ) + dim(Im T ). 

El espacio vectorial de transformaciones lineales. Si V y W son dos K-espacios vecto-


riales fijos, denotemos con L(V, W ) al conjunto de transformaciones lineales de V a W ,
es decir,
L(V, W ) := {T : V → W : T es K-lineal}.
Mostraremos que L(V, W ) es un K-espacio vectorial con las operaciones definidas como
sigue:
S UMA . Si L, T : V → W son dos aplicaciones lineales, se define su suma L + T como la
función L + T : V → W dada por
(L + T )(v) := L(v) + T (v),
usando en el lado derecho la suma de vectores en W .
P RODUCTO POR UN ESCALAR . Si T ∈ L(V, W ) y λ ∈ K, se define el producto λT como
la función λT : V → W dada por
(λT )(v) := λT (v),
donde en el lado derecho se tiene el producto de un escalar por un vector en W .
Proposición 2.14. Sean L, T : V → W dos transformaciones lineales y λ ∈ K. Entonces,
L + T : V → W y λT : V → W también son lineales.
D EMOSTRACI ÓN . Para L + T : V → W :
(i) Si u, v ∈ V , entonces
(L + T )(u + v) = L(u + v) + T (u + v) por definición de L + T
= L(u) + L(v) + T (u) + T (v) porque L y T son lineales
= (L(u) + T (u)) + (L(v) + T (v))
= (L + T )(u) + (L + T )(v) por definición de L + T .
(ii) Si u ∈ V y α ∈ K, entonces
(L + T )(αu) = L(αu) + T (αu) por definición de L + T
= αL(u) + αT (u) porque L y T son lineales
= α(L(u) + T (u)))
= α(L + T )(u) por definición de L + T .
50 2. TRANSFORMACIONES LINEALES

Para λT : V → W :
(i) Si u, v ∈ V , entonces
(λT )(u + v) = λ(T (u + v)) por definición de λT
= λ(T (u) + T (v)) porque T es lineal
= λ(T (u)) + λ(T (v))
= (λT )(u) + (λT )(v) por definición de λT .
(ii) Si u ∈ V y α ∈ K, entonces
(λT )(αu) = λ(T (αu)) por definición de λT
= λ(αT (u)) porque T es lineal
= (λα)(T (u))
= α(λ(T (u))
= α(λT )(u) por definición de λT .

Proposición 2.15. Sean V y W dos K-espacios vectoriales. Entonces, con las operaciones
anteriores L(V, W ) es un K-espacio vectorial.
D EMOSTRACI ÓN . El neutro aditivo de L(V, W ) es la función 0 : V → W que manda todo
al vector 0W y que es lineal por el ejemplo 13. La inversa aditiva de una transformación
lineal T ∈ L(V, W ) es la función −T : V → W dada por (−T )(v) := −T (v), la
cual es obviamente lineal. Todas las otras propiedades de espacio vectorial se demuestran
fácilmente y se dejan como un ejercicio. 

Productos directos. Si V y W son dos K-espacios vectoriales, consideremos el producto


cartesiano V × W de los conjuntos subyacentes. Es decir,
V × W := {(v, w) : v ∈ V, w ∈ W }.
En el conjunto V × W se definen las operaciones siguientes:
S UMA . Si (v, w), (v 0 , w0 ) son dos elementos de V × W , se define
(v, w) + (v 0 , w0 ) := (v + v 0 , w + w0 )
observando que en el dado derecho, v+v 0 ∈ V y w+w0 ∈ W , por lo que (v+v 0 , w+w0 ) ∈
V × W.
P RODUCTO POR UN ESCALAR . Si (v, w) ∈ V × W y λ ∈ K, se define
λ(v, w) := (λv, λw),
observando que en el lado derecho, λv ∈ V y λw ∈ W , por lo que (λv, λw) ∈ V × W .
Se verifica fácilmente que V × W es un K-espacio vectorial (ejercicio 19), con neutro
aditivo el elemento (0V , 0W ) y si (v, w) ∈ V × W , su inverso aditivo es (−v, −w).

Sumas directas y productos directos. En la sección §1.3 hemos definido y estudiado la


suma directa de dos subespacios vectoriales V y W de un espacio vectorial U . Observamos
ahora que en la definición de producto directo sólo requerimos que los factores sean dos es-
pacios vectoriales, no necesariamente subespacios de otro espacio, por eso siempre se tiene
definido el producto directo de dos espacios y la suma directa no siempre está definida ya
que requiere que los espacios involucrados sean subespacios de otro espacio. ¿Qué sucede
2.2. NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN LINEAL 51

si se tienen dos subespacios vectoriales V, W ⊆ U y consideramos su suma directa V ⊕ W


y su producto directo V × W ?
Proposición 2.16. Sean V , W subespacios de un K-espacio vectorial U . Entonces, la
función natural
T :V ×W →V ⊕W
dada por T (v, w) := v + w, es un isomorfismo.
D EMOSTRACI ÓN . (1): T es lineal ya que:
(i) Si (v, w), (v 0 , w0 ) ∈ V × W , entonces (v, w) + (v 0 , w0 ) = (v + v 0 , w + w0 ) y ası́
T ((v, w) + (v 0 , w0 )) = T (v + v 0 , w + w0 ) = (v + v 0 ) + (w + w0 )
= (v + w) + (v 0 + w0 )
= T (v, w) + T (v 0 , w0 ).

(ii) Si (v, w) ∈ V × W y λ ∈ K, entonces λ(v, w) = (λv, λw) y ası́


T (λ(v, w)) = T (λv, λw) = λv + λw
= λ(v + w)
= λT (v, w).

(2) : T es inyectiva. Para probar esto, mostraremos que ker T = {(0U , 0U )}. Sea (v, w) ∈
ker T ; entonces T (v, w) = 0U y ası́, 0U = T (v, w) = v + w implica que v = −w y
por lo tanto v, w ∈ V ∩ W . Pero como V ∩ W = {0U }, entonces v = 0U = w, i.e.,
(v, w) = (0U , 0U ).
(3) : T es suprayectiva. Esto es claro que si v + w ∈ V ⊕ W , entonces v ∈ V y w ∈ W ,
por lo que (v, w) ∈ V × W satisface que T (v, w) = v + w. 

E JERCICIO 18. Demuestre las propiedades faltantes para ver que L(V, W ) es un K-espacio
vectorial.

E JERCICIO 19. Compruebe que V × W es un K-espacio vectorial.

E JERCICIO 20. Si V y W son K-espacios vectoriales de dimensión finita, demuestre que


dimK (V × W ) = dimK (V ) + dimK (W ).

E JERCICIO 21. Si f : V → W es una aplicación lineal inyectiva, demuestre que f : V →


Im(f ) es un isomorfismo.

E JERCICIO 22. Si f : V → W es una transformación lineal inyectiva y dimK (V ) =


dimK (W ) < ∞, demuestre que f es un isomorfismo.

E JERCICIO 23. Si V y W son espacios vectoriales de dimensión finita, f : V → W es


lineal y dimK (V ) > dimK (W ), demuestre que f no puede ser inyectiva.

E JERCICIO 24. Si V y W son espacios vectoriales de dimensión finita, f : V → W es


lineal y dimK (V ) < dimK (W ), demuestre que f no puede ser suprayectiva.
52 2. TRANSFORMACIONES LINEALES

E JERCICIO 25. Si V y W son dos K-espacios vectoriales de dimensión finita, tales que
dimK (V ) = dimK (W ), demuestre que V y W son isomorfos.

E JERCICIO 26. Suponga que V y W son dos espacios vectoriales de dimensión finita y
dimK V = dimK W . Si f : V → W es lineal, demuestre que f es inyectiva si y sólo si f
es suprayectiva.

E JERCICIO 27. Sea V = C ∞ ([0, 1], R) el R-espacio vectorial de funciones diferenciables


en [0, 1] y sea D : V → V la derivada D(f ) = f 0 . Si T = D − idV : V → V , calcule su
núcleo.

E JERCICIO 28. Sea V como en el ejercicio anterior y fijemos un real λ ∈ R. Si T =


D − λ · idV : V → V , calcule su núcleo.

E JERCICIO 29. Sea V = Matn×n (K) y sea T : V → V la función


1
T (A) = (A − t A).
2
(i) Calcule el núcleo de T .
(ii) Calcule dimK (ker T ).

E JERCICIO 30. Sean U, W subespacios de V y sea T : U × W → V la función T (u, w) =


u − w.
(i) Muestre que T es lineal.
(ii) Calcule el núcleo de T .
(iii) Calcule la imagen de T .

E JERCICIO 31. Sea P : V → V una transformación lineal tal que P 2 = P (donde


P 2 := P ◦ P ). Demuestre que V = ker P ⊕ Im P . Sugerencia: si v ∈ V , entonces
v = (v − P (v)) + P (v).

E JERCICIO 32. Sean U, W subespacios de V y considere las funciones i1 : U → U ⊕ W


e i2 : V → U ⊕ W dadas por i1 (u) = u = u + 0V e i2 (w) = w = 0V + w y las funciones
p1 : U ⊕ W → U y p2 : U ⊕ W → W dadas por p1 (u + w) = u y p2 (u + w) = w.
Claramente i1 e i2 son lineales e inyectivas.
(i) Muestre que p1 y p2 están bien definidas, son lineales y suprayectivas.
(ii) Muestre que Im i1 = ker p1 e Im i2 = ker p2 .

2.3. Transformación lineal asociada a una matriz


Si K es un campo y V y W son dos K-espacios vectoriales de dimensiones finitas,
digamos dimK (V ) = n y dimK (W ) = m, podemos en forma natural preguntarnos cuál
será la dimensión del espacio vectorial L(V, W ) de transformaciones lineales de V a W .
En esta sección comenzamos a estudiar este espacio vectorial, importante porque incluye a
todas las transformaciones lineales de V a W , para culminar en la sección siguiente donde
mostramos que L(V, W ) es isomorfo al espacio vectorial de matrices Matm×n (K). Esto,
de paso calcula la dimensión de L(V, W ), pero además nos dice concretamente quiénes
son sus elementos, las matrices m × n con entradas en el campo K, salvo la identificación
que hace el isomorfismo correspondiente. El objetivo de esta sección es proveernos con una
función de Matm×n (K) a L(V, W ), para dos espacios vectoriales de los cuales sabemos
2.3. TRANSFORMACIÓN LINEAL ASOCIADA A UNA MATRIZ 53

que tienen dimensiones n y m obviamente, a saber, K n y K m , y para esto, necesitaremos


conocer una nueva operación con matrices que no hemos estudiado hasta ahora: el producto
de matrices. Comenzamos con esto.

2.3.1. Producto de matrices


Si K es un campo, ya vimos que el conjunto de matrices Matm×n (K) es un K-
espacio vectorial. Ası́, podemos sumar matrices (entrada por entrada) y multiplicarlas por
un escalar (entrada por entrada). En este punto, podrı́amos preguntarnos si habrá una ma-
nera de multiplicar matrices que satisfaga las propiedades que uno podrı́a esperar. Para
comenzar, es claro que deben haber ciertas condiciones sobre las matrices para que las po-
damos multiplicar, por ejemplo, para sumar dos matrices requerimos que sean del mismo
tamaño m × n para que al sumarlas se pueda hacer componente a componente y se obten-
ga al final una matriz del mismo tamaño que las dadas. Ası́, para multiplicar matrices uno
inicialmente pensarı́a que las dos matrices deben ser del mismo tamaño para poder multi-
plicarlas entrada por entrada. Muchas propiedades algebraicas son válidas con el producto
definido componente a componente, sin embargo, desde el punto de vista del desarrollo
de la matemática, éste no es el producto de matrices que aparece naturalmente en varias
contextos de la matemática. Por ejemplo, si recordamos que las matrices están asociadas a
sistemas de ecuaciones lineales, pensemos a estos sistemas como transformaciones lineales
como sigue: si L : R3 → R2 es la transformación lineal dada por
L(x1 , x2 , x3 ) = (x1 + x3 , x1 + x2 + x3 )
2 2
y si T : R → R es la transformación lineal
T (y1 , y2 ) = (2y1 − y2 , y1 + y2 ),
si denotamos con x = (x1 , x2 , x3 ) ∈ R3 y y = (y1 , y2 ) ∈ R2 , la función L : R3 → R2 la
podemos escribir como
x1 + x3 = y1
x1 + x2 + x3 = y2
y la matriz asociada a este sistema es:
 
1 0 1
B= .
1 1 1
Similarmente, escribiendo y = (y1 , y2 ) en el dominio y z = (z1 , z2 ) en el codominio, la
función T : R2 → R2 está dada por
2y1 − y2 = z1
y1 + y 2 = z2
cuya matriz asociada es:
 
2 −1
A= .
1 1
Consideremos ahora la composición T ◦ L : R3 → R2 que está dada por
(T ◦ L)(x1 , x2 , x3 ) = T (L((x1 , x2 , x3 ))
= T (x1 + x3 , x1 + x2 + x3 ) = T (y1 , y2 )
= (2(x1 + x3 )−(x1 + x2 + x3 ), (x1 + x3 )+(x1 + x2 + x3 ))
= (z1 , z2 ),
54 2. TRANSFORMACIONES LINEALES

lo cual nos da el sistema de ecuaciones lineales


2(x1 + x3 ) − (x1 + x2 + x3 ) = z1
(x1 + x3 ) + (x1 + x2 + x3 ) = z2
que simplicado es:
x1 − x2 + x3 = z1
2x1 + x2 + 2x3 = z2
cuya matriz asociada es  
1 −1 1
C=
2 1 2
y es natural que uno quiera que C sea el producto de las matrices A y B, es decir, C = AB.
Lo primero que observamos es que A es 2 × 2, B es 2 × 3 y C es 2 × 3. Luego, para
ver cómo se obtiene C a partir de B y A, escribamos los sistemas de ecuaciones anteriores
en general:
(•) El sistema correspondiente a cualquier transformación lineal L : R3 → R2 es:
a11 x1 + a12 x2 + a13 x3 = y1
a21 x1 + a22 x2 + a23 x3 = y2
con matriz asociada  
a11 a12 a13
B= .
a21 a22 a23
(•) Similarmente, el sistema correspondiente a cualquier transformación lineal T : R2 →
R2 es:
b11 y1 + b12 y2 = z1
b21 y1 + b22 y2 = z2
con matriz asociada  
b11 b12
A= .
b21 b22
(•) Entonces, la composición T ◦ L : R3 → R2 tiene el sistema:
b11 (a11 x1 + a12 x2 + a13 x3 ) + b12 (a21 x1 + a22 x2 + a23 x3 ) = z1
b21 (a11 x1 + a12 x2 + a13 x3 ) + b22 (a21 x1 + a22 x2 + a23 x3 ) = z2
que al simplificarlo nos da la matriz asociada
 
c11 c12 c13
C= ,
c21 c22 c23
donde, por ejemplo,
c11 = b11 a11 + b12 a21 + b21 a11 + b22 a21 ,

 lasentradas del primer renglón (b11 , b12 ) de A, y las entradas


el cual vemos que involucra
a11
de la primera columna de B, y ası́ podemos escribir
a21
 
a11
c11 = (b11 , b12 )
a21
donde el producto del renglón por la columna (que son del mismo tamaño) se hace com-
ponente a componente y luego se suman los resultados para obtener c11 .
El lector puede verificar que las otras entradas cij de la matriz C = (cij ) se obtienen
de la misma manera, es decir,
cij = (Renglón i de A) · (Columna j de B)
2.3. TRANSFORMACIÓN LINEAL ASOCIADA A UNA MATRIZ 55

donde en la derecha de la igualdad anterior se tienen vectores del mismo tamaño y el


producto quiere decir que es componente a componente y luego se suman los resultados
para obtener cij .
La condición necesaria para poder hacer el producto de matrices anterior es: el renglón
i de A debe tener el mismo tamaño que la columna j de B. Estas observaciones se resumen
en la definción siguiente:

Definición 2.17. Si A = (aij )m×t y B = (bij )t×n son dos matrices con entradas en un
campo K y satisfacen que:

(∗) número de columnas de A = número de renglones de B,

entonces se define el producto de matrices AB como la matriz C = (cij )m×n cuyas


entradas cij están dadas por la fórmula

(†) cij = (Renglón i de A) · (Columna j de B),

donde en la derecha de la igualdad anterior se tienen vectores del mismo tamaño t porque
el número de columnas de A nos da el número de componentes de un renglón de A y el
número de renglones de B nos el número de componentes de una columna de B. Por eso,
al pedir la condición (∗) garantizamos que el producto componente a componente en (†) se
pueda hacer, para después sumar los resultados para obtener cij . Explı́citamente,
 
b1j
 b2j  t
X
cij = (ai1 , ai2 , . . . , ait ) ·  .  = ai1 b1j + ai2 b2j + · · · + ait btj = aik bkj .
 
 .. 
k=1
btj
Observe que como A tiene m renglones y B tiene n columnas, hay mn posibilidades
para las entradas cij y por eso la matriz C = AB es de tamaño m × n.

Observación. Si A es m × t y B es r × n, de acuerdo a la definición anterior, el producto


AB se puede realizar si y sólo si t = r.

Ejemplo 20. Para las matrices del ejemplo que nos sirvió de motivación para definir el
producto de matrices:
   
2 −1 1 0 1
A= y B= ,
1 1 1 1 1
se tiene que
   
2 −1 1 0 1
AB = ·
1 1 1 1 1
 
2(1) − 1(1) 2(0) − 1(1) 2(1) − 1(1)
=
1(1) + 1(1) 1(0) + 1(1) 1(1) + 1(1)
 
1 −1 1
=
2 1 2
= C.
56 2. TRANSFORMACIONES LINEALES

Ejemplo 21. Multiplique las matrices


 
3 2  
 2 1  2 3 4
A=  0 −1 
 y B= ,
1 −2 5
1 4
se tiene que
 
3 2  
 2 1 
AB =  · 2 3 4
 0 −1  1 −2 5
1 4
 
3(2) + 2(1) 3(3) + 2(−2) 3(4) + 2(5)
 2(2) + 1(1) 2(3) + 1(−2) 2(4) + 1(5) 
= 0(2) − 1(1) 0(3) − 1(−2)

0(4) − 1(5) 
1(2) + 4(1) 1(3) + 4(−2) 1(4) + 4(5)
 
8 5 22
 5 4 13 
= −1 2 −5  .

6 −5 9

Note que en el ejemplo anterior A es 4 × 2 y B es 2 × 3, por eso está definido el


producto AB y es 4 × 3. Sin embargo, el producto BA no está definido porque el número
de columnas de B es 3 que no es igual al número de renglones de A que es 4. Ası́, en este
ejemplo ni siquiera tiene sentido preguntar si AB = BA. Veamos algunos ejemplos donde
esta pregunta tenga sentido:
   
2 1 0 −1
Ejemplo 22. Sean A = yB = . Entonces,
0 −1 −2 3
   
−2 −5 0 1
AB = y BA = ,
2 −3 −4 −5
por lo que AB 6= BA.
   
1 4 1 0
Ejemplo 23. Sean A = yB = . Entonces,
−2 3 0 1
 
1 4
AB = = BA.
−2 3

Ası́, aun cuando AB y BA estén ambas definidas, puede suceder que AB 6= BA o


que AB = BA. Decimos que el producto de matrices, en general, no es conmutativo.
Que el producto sı́ es asociativo, cuando esté definido, es el contenido de la proposi-
ción siguiente:
Proposición 2.18. Si A es m × r, B es r × t y C es t × n, entonces AB es m × t y
ası́ (AB)C está definida y es m × n. También BC es r × n y ası́ A(BC) está definida y
es m × n. Se tiene que
(AB)C = A(BC).
2.3. TRANSFORMACIÓN LINEAL ASOCIADA A UNA MATRIZ 57

D EMOSTRACI ÓN . Pongamos A = (aij ), B = (bij ) y C = (cij ). Entonces, el producto


AB = (dij ) está dado por
Xr
dij = aik bkj
k=1
y ası́ el producto (AB)C = (eij ) está dado por
t t r
!
X X X
eij = di` c`j = aik bk` c`j
`=1 `=1 k=1
Xt Xr
= aik bk` c`j .
`=1 k=1

Por otra parte, si BC = (fij ) con


t
X
fij = bi` c`j ,
`=1

entonces A(BC) = (gij ) está dada por


r r t
!
X X X
gij = aik fkj = aik bk` c`j
k=1 k=1 `=1
Xr Xt
= aik bk` c`j .
k=1 `=1

Observamos entonces eij = gij , para toda i y toda j, por lo que (AB)C = A(BC).


La propiedad distributiva del producto con respecto a la suma se obtiene de la misma


manera:
Proposición 2.19. Si A es m×t, B y C son t×n, entonces B +C es t×n y ası́ A·(B +C)
está definida y es m × n como lo son AB y AC. Además se tiene que
A(B + C) = AB + AC.
D EMOSTRACI ÓN . Pongamos A = (aij ), B = (bij ) y C = (cij ). Entonces, B + C =
(bij + cij ) y ası́ A(B + C) = (dij ) está dada por
t
X t
X t
X
(1) dij = aik (bkj + ckj ) = aik bkj + aik ckj .
k=1 k=1 k=1

Por otra parte, AB = (eij ) y AC = (fij ) están dadas por


t
X t
X
eij = aik bkj y fij = aik ckj
k=1 k=1

y ası́ AB + AC = (eij + fij ) donde


t
X t
X
(2) eij + fij = aik bkj + aik ckj .
k=1 k=1

Observando que (1) y (2) son iguales se sigue que A(B + C) = AB + AC. 
58 2. TRANSFORMACIONES LINEALES

La matriz transpuesta de un producto es el producto de las transpuestas en orden in-


verso:
Proposición 2.20. Si A es m × t y B es t × n, entonces t B es n × t y t A es t × m por lo
que t B t A está definido y se tiene que
t
(AB) = t B t A.
D EMOSTRACI ÓN . Pongamos A = (aij ) y B = (bij ). Entonces, AB = (cij ) está dada por
t
X
(1) cij = aik bkj .
k=1

Ahora, si ponemos t A = (a0kj ) y t B = (b0ik ) con a0kj = ajk y b0ik = bki , entonces
t t
B A = (dji ) está dada por
t
X t
X
(2) dij = b0ik a0kj = bki ajk .
k=1 k=1

Finalmente, si t (AB) = (c0ij ) con c0ij = cji , las igualdades (1) y (2) nos dicen que
c0ij = cji = dij , es decir, t (AB) = t B t A. 

La matriz identidad. Para cada n ∈ N la matriz In que tiene unos en la diagonal y ceros
en las otras entradas se llama la matriz identidad n × n:
 
1 0 ··· ··· 0
 0 1
 0 ··· 0  
 .. . .. ..  .
In =  . . 
 
 0 ··· 0 1 0 
0 0 ··· 0 1

La propiedad más importante de las matrices Im es que son neutras para el producto
de matrices:
Proposición 2.21. Si A ∈ Matm×n (K), entonces:
(1) A · In = A.
(2) Im · A = A.
D EMOSTRACI ÓN . (1): Pongamos A = (aij ) e In = (δij ), donde

1 si i = j
δij =
0 si i 6= j.
Entonces, AIn = (cij ) está dada por
n
X
cij = aik δkj ,
k=1
donde 
aij si k = j
aik δkj =
0 si k 6= j,
por la definición de δij . Se sigue que
n
X
cij = aik δkj = aij
k=1
2.3. TRANSFORMACIÓN LINEAL ASOCIADA A UNA MATRIZ 59

y por lo tanto AIn = A. El caso (2) es similar. 

Observe que, en la proposición anterior, en general tienen que usarse matrices Im e In


distintas a la izquierda y a la derecha de A porque A no tiene por qué ser cuadrada. Si la
matriz A fuera cuadrada n × n, entonces la proposición anterior dirı́a:
AIn = A = In A
y por lo tanto la matriz In funcionarı́a como neutra multiplicativa a la izquierda y a la
derecha de A.

Matrices invertibles. Si A es una matriz cuadrada n × n, diremos que A es una matriz


invertible si existe otra matriz B tal que
AB = In = BA.
Note que B debe ser entonces también n × n. A la matriz B la llamaremos una inversa de
la matriz A.
Lema 2.22. Si A es una matriz n × n invertible, entonces su inversa es única.
A la única inversa de A la denotaremos por A−1 .
D EMOSTRACI ÓN . Supongamos que B y C son matrices n × n inversas de A. Entonces,
AC = In = BA y ası́
B = BIn = B(AC) = (BA)C = In C = C.


E JERCICIO 33. Suponga que A, B ∈ Matn×n (K) son matrices invertibles. Demuestre
que AB es invertible.

E JERCICIO 34. Si A es una matriz diagonal n × n:


 
a11 0 · · · 0
 0 a22 0
 ··· 0 

 .. . . ..
A= .

 . . 

 0 ··· 0 an−1,n−1 0 
0 ··· 0 ann
y además aii 6= 0 para toda i = 1, . . . , n, demuestre que A es invertible. ¿Cuál es su
inversa?

E JERCICIO 35. Suponga que A es una matriz cuadrada invertible. Demuestre que su trans-
puesta también es invertible y además
t
(A−1 ) = (t A)−1 .

E JERCICIO 36. Si A ∈ Matn×n (K) es una matriz cuadrada, entonces


A2 = A · A también es n × n,
A3 = A2 · A también es n × n,
y, usando inducción se define
An = An−1 · A que también es n × n
60 2. TRANSFORMACIONES LINEALES

y, por convención, se pone A0 = In . Demuestre la regla de los exponentes:

Ar+t = Ar · At , r, t ≥ 0 enteros.

Sugerencia: fije el entero r y haga inducción sobre t.

E JERCICIO 37. Si A, B ∈ Matn×n (K) y además AB = BA, demuestre que

(A + B)2 = A2 + 2AB + B 2 .

 
cos θ − sen θ
E JERCICIO 38. Sea A =
sen θ cos θ
Calcule A2 .
Calcule A3 .
Calcule Am , para todo entero m ≥ 0.

E JERCICIO 39. Si A es una matriz diagonal n × n:


 
a11 0 · · · 0
 0 a22 0
 ··· 0 

A =  ... .. ..
 
 . . 

 0 ··· 0 an−1,n−1 0 
0 ··· 0 ann

calcule A2 , A3 , . . . , Am , para toda m ≥ 0.

E JERCICIO 40. Sea A = (aij ) una matriz cuadrada n×n, triangular superior estrictamente,
i.e., aij = 0 para toda i ≥ j. Demuestre que An = 0. Sugerencia: use inducción sobre n.

E JERCICIO 41. Una matriz cuadrada A se dice que es nilpotente si Ak = 0 para algún
entero k ≥ 1. Ası́, el ejercicio anterior nos dice que una matriz triangular superior estricta,
es nilpotente. Suponga ahora que A, B ∈ Matn×n (K) son matrices nilpotentes tales que
AB = BA.
Demuestre que AB es nilpotente.
Demuestre que A + B es nilpotente.

E JERCICIO 42. Encuentre todas las matrices A ∈ Mat2×2 (K) tales que A2 = 0.

E JERCICIO 43. Demuestre que el producto de matrices saca escalares, es decir, si λ ∈ K,


A es m × t y B es t × n, demuestre que

(λA)B = λ(AB) = A(λB).


2.3. TRANSFORMACIÓN LINEAL ASOCIADA A UNA MATRIZ 61

2.3.2. La transformación lineal asociada a una matriz


Si se tiene una matriz A ∈ Matm×n (K), digamos
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= . ,
 
..
 .. . 
am1 am2 ··· amn
los renglones de A son vectores Ri = (ai1 , ai2 , . . . , ain ) ∈ K n , y ası́, para el vector
columna  
x1
 x2 
x =  . ,
 
 .. 
xn
visto como una matriz n × 1, con entradas en K, el producto A · x está definido:
   
a11 a12 · · · a1n x1
 a21 a22 · · · a2n   x2 
A·x= .
   
.  .. 
 .. ..  
 . 
am1 am2 · · · amn m×n xn n×1
y es una matriz m × 1, es decir, es un vector columna A · x ∈ K m . Hemos definido ası́ una
función
TA : K n → K m
mediante la regla: TA (x) := A · x, pensando al vector x ∈ K n como un vector columna
o matriz n × 1.
Proposición 2.23. Si A ∈ Matm×n (K), la función TA : K n → K m es una transforma-
ción lineal.
D EMOSTRACI ÓN . (i): Si x, y ∈ K n , entonces
TA (x + y) = A(x + y) = A(x) + A(y) = TA (x) + TA (y),
porque el producto de matrices satisface la ley distributiva.
(ii): Si x ∈ K n y λ ∈ K, entonces
TA (λx) = A(λx) = λA(x) = λA(x) = λTA (x),
porque el producto de matrices saca escalares, por el ejercicio 43. 

La proposición anterior nos dice que se tiene una función


Φ : Matm×n (K) → L(K n , K m )
que a cada matriz A de tamaño m×n, le asocia una transformación lineal TA : K n → K m .
Sabemos que Matm×n (K) y L(K n , K m ) son espacios vectoriales y es natural pre-
guntarnos si la función Φ es lineal. Probaremos más adelante que esta función es, de hecho,
un isomorfismo de espacios vectoriales, y comenzamos con:
Proposición 2.24. La función Φ : Matm×n (K) → L(K n , K m ), dada por Φ(A) = TA
es lineal e inyectiva.
62 2. TRANSFORMACIONES LINEALES

D EMOSTRACI ÓN . (1): Si A, B ∈ Matm×n (K), para ver que TA+B = TA + TB sólo de-
bemos mostrar que tienen los mismos valores en cualquier x ∈ K n . Para esto observemos
que
TA+B (x) = (A + B) · x por definición de TA+B
= A · x + B · x por distributividad
= TA (x) + TB (x) por definición de TA y TB
= (TA + TB )(x) por definición de suma en L(K n , K m ).

(2): Si A ∈ Matm×n (K) y λ ∈ K, para mostrar que TλA = λTA , debemos probar que
tienen los mismos valores en cualquier x ∈ K n . Para esto observemos que
TλA (x) = (λA)(x)
= λ(Ax)
= (λTA )(x).

(3): Para mostrar que Φ es inyectiva, debemos mostrar que ker(Φ) = {0}, donde 0 es la
matriz cero m × n. En efecto, si A ∈ Matm×n (K) es tal que TA = 0 : K n → K m ,
entonces TA es la transformación lineal cero, i.e., manda todos los vectores de K n en el
vector cero de K m . En particular, si Ej son los vectores columna de K n que tienen un 1
en el lugar j y cero en las otras componentes, entonces TA (Ej ) = 0. Observemos ahora
que, si A = (aij ), entonces
TA (Ej ) = AEj = columna j de la matriz A = 0
y por lo tanto todas las columnas de A son cero, i.e., A = 0. 

Para mostrar que Φ es un isomorfismo sólo nos falta probar que Φ es suprayectiva.
Teorema 2.25. Sea T : K n → K m una transformación lineal. Entonces, existe una (única
matriz) A ∈ Matm×n (K) tal que T = TA , i.e., Φ es suprayectiva.
D EMOSTRACI ÓN . Sea A = {E1 , . . . , En } la base canónica de K n , donde cada Ej lo
vemos como un vector columna. Sea B = {e1 , . . . , em } la base canónica de vectores
columna de K m . Como A es base de K n , todo vector columna x ∈ K n se puede escribir
en forma única como combinación lineal de los Ej :
x = x1 E1 + · · · xn En ,
donde los coeficientes xj son las componentes de x. Como T es lineal, al aplicarla a x
obtenemos
(∗) T (x) = x1 T (E1 ) + · · · + xn T (En ).
Por otra parte, cada T (Ej ) ∈ K m se puede escribir en términos de la base B, es decir,
T (E1 ) = a11 e1 + a21 e2 + · · · + am1 em
T (E2 ) = a12 e1 + a22 e2 + · · · + am2 em
..
.
T (En ) = a1n e1 + a2n e2 + · · · + amn em ,
2.3. TRANSFORMACIÓN LINEAL ASOCIADA A UNA MATRIZ 63

donde las aij , 1 ≤ i ≤ m, son las componentes de T (Ej ), es decir,


     
a11 a12 a1n
 a21   a22   a2n 
T (E1 ) =  .  , T (E2 ) =  .  , . . . , T (En ) =  . ,
     
 ..   ..   .. 
am1 am2 amn
y por lo tanto, substituyendo estos valores de T (Ej ) en (∗) obtenemos
     
a11 a12 a1n
 a21   a22   a2n 
T (x) = x1  .  + x2  .  + · · · + xn  .
     
 ..   ..   ..


am1 am2 amn
  
a11 a12 ··· a1n x1
 a21 a22 ··· a2n   x2 
= .
  
..
 ..
 
 . 
am1 am2 ··· amn xn
= Ax,
con A = (aij )m×n , y ası́ T = TA . La unicidad de A es por la proposición anterior. 

Resumiendo, hemos probado que la función


Φ : Matm×n (K) → L(K n , K m )
dada por A 7→ TA es un isomorfismo de espacios vectoriales. Este isomorfismo nos permite
pensar a una matriz A de tamaño m × n como una transformación lineal TA : K n → K m
y recı́procamente, cada transformación linea de K n en K m la podemos pensar como una
matriz m × n. Una observación final, como dimK Matm×n (K) = mn, el isomorfismo Φ
nos dice que dimK L(K n , K m ) = mn también.
 
2 −3 1
Ejemplo 24. Si A = ∈ Mat2×3 (R), la transformación lineal asociada
1 0 −2  
x
TA : R3 → R2 está dada, para v =  y , por
z
 
  x  
2 −3 1 2x − 3y + z
TA (v) = A · v =  y  = .
1 0 −2 x − 2z
z
El núcleo de esta transformación lineal está dado por
ker(TA ) = {v ∈ R3 : TA (v) = 0 ∈ R2 }
    
3 2x − 3y + z 0
= (x, y, z) ∈ R : = ,
x − 2z 0
es decir, ker(TA ) es el subespacio de soluciones Sh del sistema de ecuaciones homogéneo:
2x − 3y + z = 0
x − 2z = 0.
64 2. TRANSFORMACIONES LINEALES

Sistemas de ecuaciones lineales y la transformación lineal asociada a una matriz. Si


tenemos un sistema de ecuaciones lineales homogéneo:
a11 x1 + a12 x2 + · · · + a1n xn = 0
a21 x1 + a22 x2 + · · · + a2n xn = 0
..
.
am1 x1 + am2 x2 + · · · + amn xn = 0,
con coeficientes aij en un campo K, y si consideramos la matriz de coeficientes
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= .
 
 ..


am1 am2 · · · amn
a la cual llamaremos la matriz del sistema, y el vector de incógnitas:
 
x1
 x2 
x= . 
 
 . .
xn
el sistema de ecuaciones anterior se puede escribir como
(1) A·x=0
donde 0 es el vector (columna) cero de K m . En términos de la transformación lineal aso-
ciada a la matriz A, el sistema de ecuaciones anterior se escribe como
(2) TA (x) = 0,
es decir, el conjunto de soluciones Sh del sistema homogéneo (1) es el núcleo de la trans-
formación lineal TA :
Sh = ker(TA ) ⊆ K n
y resolver el sistema (1) es calcular el núcleo ker(TA ), del cual ya sabemos que es un
subespacio vectorial de K n y ası́, para determinarlo basta dar una base de este subespacio.
En la sección §3.3 daremos un método que nos provee de una base de ker(TA ).
¿Qué sucede si tenemos un sistema no homogéneo de ecuaciones lineales? Sea
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm ,
un sistema de ecuaciones lineales con coeficientes aij y términos independientes bi en un
campo K. Consideremos la matriz del sistema formada con los coeficientes aij :
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= .
 
 . . 

am1 am2 · · · amn
2.4. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL 65

y la transformación lineal TA : K n → K m asociada. En términos de la transformación


lineal TA , el sistema de ecuaciones anterior se escribe como
(3) TA (x) = b,
   
x1 b1
 x2   b2 
donde x =   es el vector de incógnitas y b =   ∈ K m es el vector
   
.. ..
 .   . 
xn bm
(columna) de términos independientes en K m . Ası́, el sistema (3) tiene una solución si y
sólo si existe x ∈ K n tal que TA (x) = b, es decir, si y sólo si b ∈ Im (TA ).
Ası́, para resolver el sistema no homogéneo (3), ya que lo primero que tenemos qué sa-
ber es si tiene o no soluciones, entonces lo primero que debemos hacer es determinar si el
vector b pertenece o no a la imagen Im (TA ) y para esto necesitamos una descripción del
subespacio Im (TA ), dando de preferencia una base de este subespacio, que como veremos
en 3.2, esencialmente está contenida en proposición 2.11.

2.4. Matriz asociada a una transformación lineal


Dada una transformación lineal T : V → W entre espacios vectoriales de dimensión
finita, dimK (V ) = n y dimK (W ) = m, si A y B son bases de V y W , respectivamente,
en esta sección mostraremos cómo, usando las bases A y B, le hacemos corresponder a T
una matriz en Matm×n (K). Recordemos ahora que en la sección anterior mostramos que
se tiene un isomorfismo
Φ : Matm×n (K) → L(K n , K m );
en esta sección estableceremos primero un isomorfismo
Ψ : L(K n , K m ) → L(V, W )
y luego se compondrá con el isomorfismo Φ para obtener la correspondencia entre L(V, W )
y Matm×n (K) deseada.

El isomorfismo Ψ es inducido por isomorfismos K n → V y K m → W dados por


las bases las bases escogidas para V y W . Comenzamos con esto. Sea V un K-espacio
vectorial de dimensión n y sea A = {v1 , . . . , vn } una base de V y escojamos un orden
entre estos vectores de la base (diremos entonces que A es una base ordenada de V ).
Entonces, todo vector v de V tiene una expresión única de la forma
v = a1 v1 + · · · + an vn
(los aj ∈ K están unı́vocamente determinados por v y la base A). Diremos que a1 , . . . , an
son las coordenadas de v con respecto a la base A y lo denotamos mediante
[v]A = [a1 , . . . , an ]A .
Note que las coordenadas a1 , . . . , an forman una n-ada ordenada en K n ya que cada aj
corresponde al vector básico vj y los vectores básicos están ordenados por hipótesis.
Lema 2.26. Sea A = {v1 , . . . , vn } una base ordenada de V , y denotemos la corres-
pondencia que asocia a cada vector v ∈ V sus coordenadas [a1 , . . . , an ]A en la base A
mediante
φA : V → K n ,
i.e., φA está dada por φA (v) := [a1 , . . . , an ]A . Entonces, φA es un isomorfismo.
66 2. TRANSFORMACIONES LINEALES

D EMOSTRACI ÓN . (1): φA es lineal, ya que


(i) Si u, v ∈ V , esribiéndolos en la base A como
u = a1 v1 + · · · + an vn y v = b1 v1 + · · · + bn vn ,
entonces
u + v = (a1 + b1 )v1 + · · · + (an + bn )vn
y ası́
φA (u + v) = [(a1 + b1 ), . . . , (an + bn )]A
= [a1 , . . . , an ]A + [b1 , . . . , bn ]A
= φA (u) + φA (v).

(i) Si u ∈ V y λ ∈ K, escribiendo u = a1 v1 + · · · + an vn , entonces λu = (λa1 )v1 +


· · · + λan )vn , por lo que
φA (λu) = [(λa1 ), . . . , (λan )]A
= λ[a1 , . . . , an ]A
= λφA (u).

(2) φA es suprayectiva porque si (a1 , . . . , an ) ∈ K n , el vector v = a1 v1 + · · · + an vn es


tal que φA (v) = (a1 , . . . , an ).
(3) Como φA : V → K n es lineal suprayectiva entre espacios vectoriales de la misma
dimensión, entonces es un isomorfismo. De hecho, la inyectividad de φA es directa ya que
los coeficientes ai de v son únicos (sólo dependen de la base). 

Regresemos ahora al problema original: sean V y W dos espacios vectoriales de di-


mensiones finitas sobre un campo K. Sean
A = {v1 , . . . , vn } y B = {w1 , . . . , wm }
bases de V y W respectivamente. Por el lema anterior se tienen isomorfismos
φA : V → K n y φB : W → K m
con inversas
ψA : K n → V y ψB : K m → W
dadas por
ψA (a1 , . . . , an ) := a1 v1 + · · · + an vn y ψB (b1 , . . . , bm ) := b1 w1 + · · · + bm wm
respectivamente.
Para establecer el isomorfismo deseado entre L(V, W ) y L(K n , K m ), procedemos
como sigue:
Sea T : V → W una transformación lineal. Usando los isomorfismos anteriores,
tenemos un diagrama como el que sigue:
2.4. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL 67

T /W
OV O

ψA φA ψB φB

 
Kn / Km
0
T
0 n m
donde la flecha punteada T : K → K es la transformación lineal que queremos aso-
ciada a T : V → W . Mirando este diagrama, la definición de T 0 salta a la vista: como
T 0 : K n → K m es la función lineal que queremos, viendo el diagrama anterior, para ir de
K n a K m , lo natural es ir primero de K n a V usando ψA , luego de V a W usando T y
finalmente de W a K m usando φB ; es decir, la función T 0 debe ser la composición

VO
T /W

ψA φB

Kn / Km
T0

T 0 = φB ◦ T ◦ ψA .
Explı́citamente, si v ∈ V , pongamos w = T (v) ∈ W y consideremos sus coordenadas
con respecto a las bases correspondientes:
[v]A = [a1 , . . . , an ]A ∈ K n y [w]B = [b1 , . . . , bm ]B ∈ K m .
Entonces, T 0 : K n → K m está dada por
T 0 (a1 , . . . , an ) := (b1 , . . . , bm ).
Observe que como T 0 = φB ◦ T ◦ ψA y todas las funciones del lado derecho son lineales,
entonces T 0 también es lineal. Una observación más: como ψA y φB son isomorfismos, el
diagrama anterior identifica a T : V → W como la función lineal T 0 : K n → K m .
Proposición 2.27. Sean V y W dos K-espacios vectoriales de dimensiones finitas n y m,
con bases A y B, respectivamente. La correspondencia anterior, que a cada T ∈ L(V, W )
le asocia T 0 = φB ◦ T ◦ ψA ∈ L(K n , K m ), es un isomorfismo.
D EMOSTRACI ÓN . Denotemos con Θ : L(V, W ) → L(K n , K m ) a la correspondencia
anterior. Mostraremos que Θ es lineal. En efecto, si T, L ∈ L(V, W ) son dos aplicaciones
lineales, entonces T 0 = φB ◦ T ◦ ψA y L0 = φB ◦ L ◦ ψA . Se sigue que
T 0 + L0 = φB ◦ T ◦ ψA + φB ◦ L ◦ ψA
= (φB ◦ T + φB ◦ L) ◦ ψA
= φB ◦ (T + L) ◦ ψA
= (T + L)0 .
Si T ∈ L(V, W ) y λ ∈ K, entonces
λ · T 0 = λ · (φB ◦ T ◦ ψA )
= (φB ◦ (λ · (T ◦ ψA ))
= φB ◦ (λ · T ) ◦ ψA
= (T + L)0 .
68 2. TRANSFORMACIONES LINEALES

La función Θ es inyectiva, ya que si T 0 = 0, entonces 0 = φB ◦ T ◦ ψA , y como φB


es un isomorfismo, la igualdad anterior implica que T ◦ ψA = 0 y de nuevo, como ψA es
un isomorfismo, la última igualdad implica que T = 0.
La función Θ es suprayectiva, ya que si F ∈ L(K n , K m ), sea T := ψB ◦ F ◦ φA :
V → W , i.e., T está dada por el diagrama

V
T /W
O
φA ψB

Kn / K m.
F

Entonces,
Θ(T ) = φB ◦ T ◦ ψA por definición de Θ
= φB ◦ (ψB ◦ F ◦ φA ) ◦ ψA por definición de T
= (φB ◦ ψB ) ◦ F ◦ (φA ◦ ψA )
= id ◦F ◦ id
= F.

Denotaremos con Ψ : L(K n , K m ) → L(V, W ) a la inversa del isomorfismo Θ, es
decir
Ψ(F ) := ψB ◦ F ◦ φA
es la función dada por el último diagrama.

Resumiendo, hemos construido un isomorfismo de espacios vectoriales


Ψ : L(K n , K m ) → L(V, W )
y en la sección anterior obtuvimos otro isomorfismo
Φ : Matm×n (K) → L(K n , K m ).
La composición de los dos isomorfismos anteriores:
Ψ ◦ Φ : Matm×n (K) → L(K n , K m ) → L(V, W )
identifica transformaciones lineales T : V → W con matrices A de tamaño m × n.
¿Cómo se calcula la matriz m × n asociada a una transformación lineal T : V → W ? El
procedimiento está implı́cito en los isomorfismos anteriores y lo detallamos a continuación:

(1) Usando las bases A = {v1 , . . . , vn } de V y B = {w1 , . . . , wm } de W , dado un vector


v ∈ V lo escribimos en la base A:
v = α1 v1 + · · · + αn vn ∈ K n
y ası́, la imagen de v bajo T es;
T (v) = T (α1 v1 + · · · + αn vn ) = α1 T (v1 ) + · · · + αn T (vn ) ∈ W
por lo que, para obtener las coordenadas de T (v) ∈ W en la base B, basta conocer las
coordenadas de cada T (vi ) ∈ W en la base B.
2.4. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL 69

El primer paso es entonces calcular las expresiones T (vi ) en la base B:


T (v1 ) = a11 w1 + a21 w2 + · · · + am1 wm
T (v2 ) = a12 w1 + a22 w2 + · · · + am2 wm
..
.
T (vn ) = a1n w1 + a2n w2 + · · · + amn wm
ası́, ya tenemos las coordenadas de cada T (vi ) en la base B de W .

(2) Usando lo anterior, podemos entonces calcular las coordenadas de T (v):


T (v) = α1 T (v1 ) + α2 T (v2 ) + · · · + αn T (vn )
= α1 (a11 w1 + a21 w2 + · · · + am1 wm )
+ α2 (a12 w1 + a22 w2 + · · · + am2 wm )
+ · · · + αn (a1n w1 + a2n w2 + · · · + amn wm ),
y ası́, las coordenadas de T (v) en la base B de W son:
[T (v)]B = [α1 (a11 w1 + a21 w2 + · · · + am1 wm )
+ α2 (a12 w1 + a22 w2 + · · · + am2 wm )
+ · · · + αn (a1n w1 + a2n w2 + · · · + amn wm )]B
  
a11 a12 · · · a1n α1
 a21 a22 · · · a2n   α2 
= .
  
. ..   .. 
 . .  . 
am1 am2 ··· amn αn
y por lo tanto, la matriz asociada a T en las bases A y B de V y W respectivamente, es la
matriz  
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
 .. .. 
 . . 
am1 am2 ··· amn
a la que denotaremos mediante
[T ]B
A.

Resumen. Dada una transformación lineal T : V → W , si A es una base de V y B es base


de W , la matriz [T ]B
A asociada a la transformación lineal T se calcula como sigue:

(1). Se calculan los valores de T en los vectores de la base A = {v1 , . . . , vn } y se expresan


en la base B = {w1 , . . . , wm } de W :
T (v1 ) = a11 w1 + a21 w2 + · · · + am1 wm
T (v2 ) = a12 w1 + a22 w2 + · · · + am2 wm
..
.
T (vn ) = a1n w1 + a2n w2 + · · · + amn wm .
70 2. TRANSFORMACIONES LINEALES

(2). La matriz [T ]B
A es la matrix cuyas columnas son las coordenadas [T (vj )]B que se
calcularon en el paso (1). Dicho de otra manera, la matriz [T ]B
A es la transpuesta de la
matriz de coeficientes del paso (1).

Ejemplo 25. Rotaciones en R2 . Si Rθ : R2 → R2 es una rotación


Rθ (x, y) = (x cos θ − y sen θ, x sen θ + y cos θ)
y si consideramos la base canónica A = {e1 , e2 } de R2 , entonces
Rθ (e1 ) = Rθ (1, 0) = (1 cos θ, 1 sen θ) = cos θ e1 + sen θ e2
Rθ (e2 ) = Rθ (0, 1) = (−1 sen θ + 1 cos θ) = − sen θ e1 + cos θ e2 ,
y ası́
 
cos θ − sen θ
[Rθ ]A
A = .
sen θ cos θ

Ejemplo 26. Si T : R3 → R2 es la transformación lineal


T (x, y, z) = (2x + y − 3z, x + z)
y consideramos las bases canónicas en ambos espacios A = {E1 , E2 , E3 } y B = {e1 , e2 },
para calcular la matriz asociada a T , procedemos como sigue;
T (E1 ) = T (1, 0, 0) = (2, 1) = 2(1, 0) + 1(0, 1) = 2e1 + 1e2
T (E2 ) = T (0, 1, 0) = (1, 0) = 1(1, 0) + 0(0, 1) = 1e1 + 0e2
T (E3 ) = T (0, 0, 1) = (−3, 1) = −3(1, 0) + 1(0, 1) = −3e1 + 1e2 ,
por lo que
 
2 1 −3
[T ]B
A = .
1 0 1

Ejemplo 27. Si D : P3 (R) → P2 (R) es la derivación, en P3 (R) consideramos la base


A = {1, x, x2 , x3 } y en P2 (R) consideramos la base B = {1, x, x2 }, calculando
D(1) = 0 = 0 · 1 + 0 · x + 0 · x2
D(x) = 1 = 1 · 1 + 0 · x + 0 · x2
D(x2 ) = 2x = 0 · 1 + 2 · x + 0 · x2
D(x3 ) = 3x2 = 0 · 1 + 0 · x + 3 · x2 ,
por lo que
 
0 1 0 0
[D]B
A =  0 0 2 0 .
0 0 0 3

Ejemplo 28. Si idV : V → V es la aplicación identidad y A = {v1 , . . . , vn } es una base


de V , entonces
[idV ]A
A = In ,
2.4. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL 71

donde In es la matriz identidad. En efecto,


idV (v1 ) = v1 = 1 · v1 + 0v2 + · · · + 0vn
idV (v2 ) = v2 = 0v1 + 1 · v2 + · · · + 0vn
..
.
idV (vn ) = vn = 0v1 + 0v2 + · · · + 1 · vn .

N OTA. En el ejemplo anterior se tenı́a A = B, es decir, las dos bases de V eran la misma;
por eso se obtuvo la matriz identidad. Si las dos bases A 6= B son distintas, la matriz
[idV ]B
A resulta diferente de In , como veremos en la sección de cambio de bases.

Composición de transformaciones lineales y multiplicación de matrices. Hasta ahora


hemos visto que se tiene un isomorfismo de espacios vectoriales de dimensiones finitas
Γ : L(V, W ) → Matm×n (V )
que asocia a cada transformación lineal T : V → W la matriz [T ]B
A , en las bases A de V
y B de W . Como, Γ es lineal, satisface:
(i) Γ(T + L) = Γ(T ) + Γ(L).
(ii) Γ(λT ) = λΓ(T ), para λ ∈ K.
Nuestro objetivo ahora es estudiar cómo se comporta Γ con respecto a la composición
de aplicaciones lineales. Es decir, si U , V , W son tres K-espacios vectoriales de dimen-
siones finitas con bases A, B, C respectivamente, y si L : U → V y T : V → W son
aplicaciones lineales, entonces la composición T ◦ L : U → W también es lineal y nos
interesa saber cuál es la matriz que le corresponde en las bases respectivas:
Teorema 2.28. Sean A, B, C bases de los K-espacios vectoriales de dimensiones finitas
U , V , W . Si L : U → V y T : V → W son aplicaciones lineales, entonces
[T ◦ L]CA = [T ]CB · [L]B
A.

Dicho en otras palabras: la composición de transformaciones lineales corresponde a la


multiplicación de matrices.
D EMOSTRACI ÓN . Pongamos A = [L]B C
A y B = [T ]B . Dado cualquier vector u ∈ U , sean
[u]A sus coordenadas en la base A. Entonces,
[L(u)]B = A · [u]A .
Similarmente, para T (L(u)) ∈ W , se tiene que
[T (L(u))]C = B · [L(u)]B
y ası́
[(T ◦ L)(u)]C = B · [L(u)]B = B · (A · [u]A ) = (BA) · [u]A .
Se sigue que
[T ◦ L]CA = BA = [T ]CB [L]B
A.


E JERCICIO 44. Si f : R2 → R2 es la función dada por f (x, y) = (3x + y, 2x − y),


(i) Muestre que f es un isomorfismo.
(ii) Calcule su inversa f −1 .
72 2. TRANSFORMACIONES LINEALES

(iii) Encuentre la matriz asociada a f en la base canónica de R2 .


(iv) Encuentre la matriz asociada a f −1 en la base canónica de R2 .

E JERCICIO 45. Encuentre la matriz asociada a las trasformaciones lineales T : Rm → Rn


siguientes, donde en cada caso se tiene la base canónica correspondiente:
(i) T : R4 → R2 dada por T (x1 , x2 , x3 , x4 ) := (x1 , x2 ).
(ii) T : R3 → R2 dada por T (x1 , x2 , x3 ) := (x1 , x2 ).
(iii) T : R4 → R4 dada por T (x1 , x2 , x3 , x4 ) := (x1 , x2 , 0, 0).
(iv) T : R2 → R2 dada por T (x1 , x2 ) := 3(x1 , x2 ).
(v) T : R3 → R3 dada por T (x1 , x2 , x3 ) := −(x1 , x2 , x3 ).
(vi) T : Rn → Rn dada por T (x) := −x.
(vi) T : Rn → Rn dada por T (x) := 5x.
(vi) T : Rn → Rn dada por T (x) := λx, con λ ∈ R fijo.

E JERCICIO 46. Sea F : P2 (R) → Mat2×2 (R) dada por


 0 
p (0) 2p(1)
F (p(x)) :=
0 p00 (3)
donde p0 y p00 denotan la primera y segunda derivada de p. Calcule la matriz asociada a F
en las bases canónicas de los espacios vectoriales dados.

E JERCICIO 47. Fije el polinomio g(x) = 3 + x ∈ P2 (R) y sea T : P2 (R) → P2 (R) la


función dada por T (f ); = f 0 g + 2f . Sea L : P2 (R) → R3 la función L(a + bx + cx2 ) :=
(a + b, c, a − b). Sean A = {1, x, x2 } base de P2 (R) y B = {e1 , e2 , e3 } la base canónica
de R3 .
(i) Demuestre que T y L son transformaciones lineales.
(ii) Calcule [T ]A B
A y [L]A .
(iii) Calcule L ◦ T : P2 (R) → R3 .
(iv) Calcule [L ◦ T ]BA.
(v) Compruebe que [L ◦ T ]B B A
A = [L]A [T ]A .
(vi) Si f (x) = 3−2x+x , calcule [f ]A , [L(f )]B y muestre que [L(f )]B = [L]B
2
A [f ]A .

E JERCICIO 48. Encuentre la matriz asociada a cada una de las rotaciones Rθ : R2 → R2


siguientes, en la base canónica de R2 :
(i) θ = π/2.
(ii) θ = π/4.
(iii) θ = π.
(iv) θ = −π.
(v) θ = −π/3.
(vi) θ = π/6.
(vii) θ = 5π/4.

E JERCICIO 49. Considere la rotación Rπ/4 : R2 → R2 .


(i) Calcule la imagen de x = (1, 2) bajo la rotación Rπ/4 .
(ii) Calcule la imagen de x = (−1, 3) bajo la rotación Rπ/4 .
(iii) Calcule la imagen de x = (−1, −1) bajo la rotación Rπ/4 .

E JERCICIO 50. Si V y W son K-espacios vectoriales con bases A y B respectivamente, y


T, F : V → W son aplicaciones lineales,
2.5. CAMBIOS DE BASE 73

(i) Demuestre que


[T + F ]B B B
A = [T ]A + [F ]A .
(ii) Demuestre que
[λT ]B B
A = λ · [T ]A .
(iii) Si [T ]B B
A = [F ]A , ¿ es T = F ?

E JERCICIO 51. Defina T : Mat2×2 (R) → P2 (R) mediante


 
a b
T = (a + b) + (2d)x + bx2
c d
y sean       
1 0 0 1 0 0 0 0
A= , ,
0 0 0 0 1 0 0 1
y
B = {1, x, x2 }.
(i) Calcule [T ]B
A.
(ii) Si F : Mat2×2 (R) → Mat2×2 (R) está dada por F (A) = t A, calcule [F ]A
A.
(iii) Defina L : P2 (R) → Mat2×2 (R) mediante
 0 
f (0) 2f (1)
L(f (x)) := .
0 f 00 (3)
Calcule [L]A
B.
(iv) Defina T : Mat2×2 (R) → R mediante
T (A) := Tr(A)), la traza de A.
(a) Muestre que T es lineal.
(b) Calcule [T ]CA , donde C = {1} es base de R.
C
(v) Defina G : P2 (R) →  R mediante G(f ) = f (2). Calcule [G]B .
1 −2
(vi) Si A = , calcule sus coordenadas en la base A.
0 4
(vi) Si f (x) = 3 − 6x + x2 , calcule sus coordenadas en la base B.

2.5. Cambios de base


En la sección previa vimos que dado un espacio vectorial de dimensión finita V , es-
coger una base de V equivale a establecer un isomorfismo φ : V → K n , donde n =
dimK (V ). En esta sección consideramos la pregunta siguiente: ¿qué sucede si se eligen
dos bases A y B de V , es decir, cómo son los isomorfismos anteriores, o cómo se relacio-
nan?
Supongamos entonces que A = {v1 , . . . , vn } y B = {w1 , . . . , wn } son dos bases del
K-espacio vectorial V . Si v ∈ V es cualquier vector, lo podemos expresar en términos de
la base A como
v = a1 v1 + · · · + an vn
de tal forma que sus coordenadas en la base A son
(1) [v]A = [a1 , . . . , an ].
También lo podemos escribir en términos de la base B:
v = b1 w1 + · · · + bn wn
74 2. TRANSFORMACIONES LINEALES

de tal forma que sus coordenadas en la base B son


(2) [v]B = [b1 , . . . , bn ].
Lo que buscamos es una relación entre las dos expresiones (1) y (2) anteriores para el
vector v. Para esto, recordemos que las expresiones (1) y (2) en realidad son isomorfismos
φA y φB :

V V
φA φB
 
Kn Kn
y como [v]A ∈ K n lo queremos relacionar com [v]B ∈ K n , lo que necesitamos es una
función K n / K n que nos diga cómo obtener [v]B a partir de [v]A . Ahora, como
[v]A proviene del vector v ∈ V y como [v]B proviene del mismo vector v ∈ V , en el
diagrama anterior es natural que pensemos en la función identidad idV : V → V , para
obtener el diagrama siguiente, donde hemos indicado con una flecha punteada a la función
que necesitamos:

V
idV
/V

φA φB
 
Kn / Kn
y ası́, para idV : V → V , la correspondencia L(V, V ) → L(K n , K n ) nos provee de una
(única) transformación lineal K n → K n que, como sabemos, corresponde a una matriz
Q ∈ Matn×n (K) que satisface
Q[v]A = [v]B ,
es decir, es la función que cambia las coordenadas de v en la base A a la base B. Recorde-
mos ahora que, como Q = φB ◦ idV ◦ψA , entonces Q es un isomorfismo y ası́ la matriz
correspondiente es invertible. Denotaremos por Q = [idV ]B A a esta matriz y la llamamos la
matriz de cambio de base de A a B.
Recordando cómo se obtiene, en general, la matriz asociada a una transformación li-
neal, para el caso idV : V → V , se tiene que Q es la transpuesta de la matriz de coeficientes
que se obtienen al expresar cada vector vi ∈ A en términos de la base B.

Ejemplo 29. En R2 consideremos las bases A = {e1 = (1, 0), e2 = (0, 1)} y B = {w1 =
(1, 1), w2 = (−1, 1)}. La matriz de cambio de base de A a B se obtiene expresando cada
vector ei ∈ A en términos de los vectores de la base B:
1
(1, 0) = 2 (1, 1) − 12 (−1, 1) = 1
2 w1 − 12 w2
1
(0, 1) = 2 (1, 1) + 12 (−1, 1) = 1
2 w1 + 12 w2
y por lo tanto
1 1
 
Q= 2 2
− 12 1
2
es la matriz de cambio de base de A a B.
Por ejemplo, si v = (3, −4) ∈ R2 , en la base canónica A sus coordenadas son [v]A =
[3, −4]A , y sus coordenadas en la base B son
 1 1
   3 4   1 
[v]B = Q[v]A = 2 2 3
= 2 − 2 =
−2
,
− 12 12 −4 − 32 − 42 − 72
2.5. CAMBIOS DE BASE 75

es decir, [v]B = [−1/2, −7/2]B .

Las propiedades siguientes son inmediatas:


Lema 2.29. Sea V un K-espacio vectorial de dimensión n y sean A, B, C bases ordenadas
de V . Si Q es la matriz de cambio de base de A a B y si R es la matriz de cambio de base
de B a C, entonces RQ es la matriz de cambio de base de A a C.
D EMOSTRACI ÓN . Por (2.22), la matriz asociada a la composición
idV = idV ◦ idV : V, A → V, B → V, C
es
[idV ]CA = [idV ]CB [idV ]B
A = RQ.

Corolario 2.30. Sea V un K-espacio vectorial de dimensión n y sean A y B bases orde-
nadas de V . Si Q es la matriz de cambio de base de A a B, entonces Q−1 es la matriz de
cambio de base de B a A.
D EMOSTRACI ÓN . Q = [idV ]B A es invertible ya que idV es un isomorfismo. Sea R =
[idV ]A
B la matriz de cambio de bases de B a A. En el lema anterior se tiene la situación
idV = idV ◦ idV : V, A → V, B → V, A
por lo que
[idV ]A A B
A = [idV ]B [idV ]A = RQ,
y como [idV ]A
A = In por el ejemplo 28, entonces RQ = In . Similarmente se muestra que
QR = In . Se sigue que R = Q−1 . 

E JERCICIO 52. En el R-espacio vectorial R3 , consideremos la base canónica A y sea


B = {(1, 0, 0), (1, 1, 0), (1, 1, 1)} otra base de R3 .
(i) Encuentre la matriz de cambio de base de A a B.
(ii) Dado el vector u = (3, 4, 5) ∈ R3 , calcule [u]A y [u]B .

E JERCICIO 53. Sea T ∈ L(V, V ) y sean A y B bases de V . Denotemos con [T ]A = [T ]A A


y con [T ]B = [T ]B
B a las matrices correspondientes a T en las bases A y B. Sea Q la matriz
de cambio de base. Demuestre que
[T ]B = Q−1 [T ]A Q.

E JERCICIO 54. Dadas dos matrices A, B ∈ Matn×n (K), diremos que A es similar a B si
existe una matriz invertible Q ∈ Matn×n (K) tal que
B = Q−1 AQ.
Ası́, el ejercicio anterior nos dice que la matriz A = [T ]A es similar a B = [T ]B . De-
muestre que la relación de similaridad es una relación de equivalencia en Matn×n (K).

E JERCICIO 55. Si c : C → C es la función conjugación c(a + bi) = a − bi, a, b ∈ R, y


consideramos a C como R-espacio vectorial con la base B = {1, i},
(i) Muestre que c es lineal.
(ii) Calcule [c]B .
76 2. TRANSFORMACIONES LINEALES

(iii) Considerando a C como C-espacio vectorial, muestre que la conjugación c no es


lineal.
Capı́tulo 3
Sistemas de ecuaciones lineales
del álgebra lineal considerando la solubilidad de sistemas
C OMENZAMOS EL ESTUDIO
de ecuaciones lineales de la forma
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm
con los coeficientes aij y términos indendientes bi elementos de un campo K dado, y en
este capı́tulo culminamos, en la primera sección, con un criterio para la solubilidad de un
tal sistema y un resultado que nos dice cómo es el conjunto de soluciones cuando éstas
existen. Para ello usamos la herramienta desarrollada en los dos capı́tulos anteriores. En la
segunda y tercera secciones desarrollamos un algoritmo, debido a Gauss, para verificar el
criterio de solubilidad de la primera sección y al mismo tiempo determinar el conjunto de
soluciones del sistema dado.

3.1. Solubilidad de sistemas de ecuaciones lineales


Para el sistema de ecuaciones lineales anterior, consideremos la matriz de coeficientes
aij , a la que llamamos la matriz del sistema:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= . ,
 
 .. 
am1 am2 ··· amn
el vector columna de incógnitas y el vector columna de términos independientes:
   
x1 b1
 x2   b2 
x =  .  ∈ K n y b =  .  ∈ K m,
   
 ..   .. 
xn bm
recordemos que, por definición de producto de matrices, el sistema anterior se puede escri-
bir en forma abreviada como:
(∗) Ax = b
y ası́, considerando la transformación lineal TA : K n → K m asociada a la matriz A, el
sistema anterior se escribe como
TA (x) = b,
por lo que:
77
78 3. SISTEMAS DE ECUACIONES LINEALES

Lema 3.1. (1) En la situación anterior, el sistema Ax = b tiene soluciones x ∈ K n si y


sólo si b ∈ Im(TA ).
(2) Si Ax = 0 es el sistema homogéneo asociado, el conjunto de soluciones del sistema
homogéneo es Sh = ker(TA ).
D EMOSTRACI ÓN . Para (1) vea la página 85 y para (2) vea la página 84. 

La condición (1) del lema anterior nos dice que debemos conocer el subespacio vecto-
rial Im(TA ) para poder decidir si un sistema de ecuaciones Ax = b tiene o no soluciones.
La proposición siguiente nos dice quién es el subespacio Im(TA ) y para esto, dada la matriz
del sistema  
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= . ,
 
 .. 
am1 am2 ··· amn
pensemos en sus columnas  
a1j
 a2j 
Cj =   ∈ K m,
 
..
 . 
amj
de tal forma que la matriz A la podemos escribir como A = (C1 , C2 , . . . , Cn ), donde las
columnas Cj son vectores de K m .
Proposición 3.2. Sea A ∈ Matm×n (K). Entonces, el subespacio Im(TA ) ⊆ K m está ge-
nerado por las columnas C1 , C2 , . . . , Cn , i.e.,
Im(TA ) = K(C1 , C2 , . . . , Cn ).
Se sigue que la dimensión de Im(TA ) es el número máximo de columnas de A linealmente
independientes.
D EMOSTRACI ÓN . Si {e1 , .., en } es la base canónica de K n , por 2.11 la imagen de TA :
K n → K m está generada por los vectores TA (ej ):
Im(TA ) = K(TA (e1 ), . . . , TA (en )).
Ahora, como
 
  0  
a11 a12 ··· a1n  ..  a1j
 a21 a22 ··· a2n   .   a2j
  
TA (ej ) = Aej =    1  =  ..  = Cj
    
..
 .  .   . 
 .. 
am1 am2 ··· amn amj
0
es decir, TA (ej ) = Cj es la columna j de A, el resultado se sigue. 

A la luz de esta proposición, la condición (1) del lema 3.1 se lee:


El sistema Ax = b tiene soluciones ⇔ b ∈ Im(TA ) ⇔ b ∈ K(C1 , C2 , . . . , Cn )
y observamos que esto último sucede si y sólo si
K(C1 , C2 , . . . , Cn ) = K(C1 , C2 , . . . , Cn , b)
ya que K(C1 , C2 , . . . , Cn ) ⊆ K(C1 , C2 , . . . , Cn , b). Hemos ası́ probado:
3.1. SOLUBILIDAD DE SISTEMAS DE ECUACIONES LINEALES 79

Corolario 3.3. El sistema Ax = b tiene soluciones si y sólo si


dimK K(C1 , C2 , . . . , Cn ) = dimK K(C1 , C2 , . . . , Cn , b).


Observación. Si se tiene un sistema de m ecuaciones lineales con n incógnitas:


a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm ,
la matriz del sistema es:
 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
A=
 
.. 
 . 
am1 am2 ··· amn
y si consideramos los términos independientes, tenemos otra matriz:
 
a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 
 
 .. .. 
 . . 
am1 am2 ··· amn bm
a la que llamamos la matriz aumentada porque le agregamos una columna extra, la de
términos independientes. Denotaremos esta matriz mediante (A|b), donde b denota la co-
lumna de términos independientes del sistema. Con esta notación, el corolario anterior se
lee:
El sistema Ax = b tiene soluciones ⇔ dimK (Im TA ) = dimK (Im T(A|b) ).
En §3.2 desarrollaremos un algoritmo para calcular las dimensiones anteriores.
El resultado siguiente reduce el problema de hallar todas las soluciones de un sistema
Ax = b al problema de hallar una solución particular del sistema más todas las soluciones
del sistema homogéneo asociado Ax = 0.
Proposición 3.4. Si S ⊆ K n es el conjunto de soluciones del sistema de ecuaciones Ax =
b, bajo la condición (1) del lema anterior, y si v0 ∈ S es cualquier solución particular del
sistema Ax = b, entonces
S = v0 + ker(TA ) := {v0 + w : w ∈ ker(TA )}.
D EMOSTRACI ÓN . Si v ∈ S, entonces Av = b, y como v0 ∈ S, entonces Av0 = b. Se
sigue que A(v − v0 ) = 0 y ası́ v − v0 ∈ ker(TA ), es decir, v − v0 = w ∈ ker(TA ), i.e.,
v = v0 + w ∈ v0 + ker(TA ) y por lo tanto S ⊆ v0 + ker(TA ).
Recı́procamente, si v ∈ v0 + ker(TA ), entonces v = v0 + w con w ∈ ker(TA ) y por
lo tanto
Av = TA (v) = TA (v0 + w) = TA (v0 ) + TA (w) = TA (v0 ) = Av0
(ya que TA (w) = 0 porque w ∈ ker(TA )). Se sigue que Av = Av0 = b, la última igualdad
porque v0 es solución del sistema. Se sigue que v es solución también, i.e., v ∈ S. 
80 3. SISTEMAS DE ECUACIONES LINEALES

3.2. Operaciones elementales y el rango de una matriz


Si A es una matriz m×n con entradas en un campo K, considerando la transformación
lineal asociada TA : K n → K m , el objetivo de esta sección es desarrollar un método
sencillo para calcular la dimensión de la imagen de TA . A esta dimensión se le llama
el rango de la matriz A. Una aplicación inmediata del método que desarrollaremos, a la
solución de sistemas de ecuaciones lineales, se hará en la sección siguiente.
Para motivar las operaciones con matrices que necesitaremos, supongamos que A es
la matriz de un sistema de ecuaciones Ax = b:
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm ,
y observemos que:
(1). Si intercambiamos dos ecuaciones cualesquiera, el conjunto de soluciones no se altera.

(2). Si fijamos cualquier ecuación


(∗) ai1 x1 + ai2 x2 + · · · + ain xn = bi
n
y (α1 , α2 , . . . , αn ) ∈ K es una solución de (∗), y si multiplicamos (∗) por un escalar
λ 6= 0:
(†) (λai1 )x1 + (λai2 )x2 + · · · + (λain )xn = λbi ,
entonces (α1 , α2 , . . . , αn ) también es solución de (†). Recı́procamente, si (α1 , . . . , αn ) es
solución de (†), factorizando y cancelando a λ 6= 0 se sigue que (α1 , α2 , . . . , αn ) también
es solución de (∗). Por lo tanto, el conjunto de soluciones del sistema de ecuaciones Ax = b
no sea altera si multiplicamos cualquier ecuación del sistema por un escalar distinto de
cero.
(3). Si sumamos un múltiplo escalar de una ecuación a otra ecuación diferente, el conjunto
de soluciones no se altera ya que, por ejemplo, si la primera ecuación del sistema la subs-
tituimos por la ecuación que resulta de sumar la primera ecuación más λ veces la segunda
ecuación, el nuevo sistema es:
(a11 + λa21 )x1 + (a12 + λa22 )x2 + · · · + (a1n + λa2n )xn = b1 + λb2
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm ,
n
y si (α1 , α2 , . . . , αn ) ∈ K es una solución del sistema original, entonces también es
solución del segundo sistema. En efecto,la única diferencia entre el sistema original y el
nuevo es la primera ecuación, y para esta nueva ecuación, substituyendo (α1 , α2 , . . . , αn )
se tiene que:
(a11 + λa21 )α1 + · · · + (a1n + λa2n )αn = (a11 α1 + · · · + a1n αn )
+ (λa21 α1 + · · · + λa2n αn )
= b1 + λb2 .
3.2. OPERACIONES ELEMENTALES Y EL RANGO DE UNA MATRIZ 81

Recı́procamente, si (β1 , . . . , βn ) es solución del nuevo sistema de ecuaciones, enton-


ces
(a11 + λa21 )β1 + · · · + (a1n + λa2n )βn = b1 + λb2
a21 β1 + · · · + a2n βn = b2
de donde, restando λ veces la segunda igualdad a la primera se obtiene que
a11 β1 + · · · + a1n βn = b1
i.e., (β1 , . . . , βn ) es solución de la primera ecuación del sistema original y por lo tanto es
solución de todo el sistema original.
Nótese que al asumir que operamos con la primera y segunda ecuaciones del sistema,
no se perdió generalidad porque gracias a la parte (1) podemos intercambiar de lugar las
ecuaciones del sistema.

Consideremos ahora las operaciones (1), (2) y (3) que no cambian el conjunto de
soluciones del sistema de ecuaciones lineales Ax = b y pensemos sólo en la matriz corres-
pondiente:  
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A= . .
 
 .. 
am1 am2 ··· amn
Las operaciones correspondientes son:
(1). Intercambiar dos renglones de la matriz.
(2). Multiplicar un renglón de la matriz por un escalar λ 6= 0.
(3). Substituir un renglón por el renglón que resulta de sumar ese renglón y un múltiplo
escalar de otro renglón.
LLamaremos operaciones elementales con renglones a las operaciones anteriores.
Más adelante veremos que se tienen las operaciones elementales con columnas corres-
pondientes.

Ejemplo 1. Dada la matriz  


1 2 0
A =  2 3 1 ,
−1 4 2
si intercambiamos el segundo y tercer renglón se obtiene la matriz:
 
1 2 0
B =  −1 4 2  ,
2 3 1
y si multiplicamos el tercer renglón de A por −2 obtenemos
 
1 2 0
C= 2 3 1 ,
2 −8 −4
finalmente, si sumamos 2 veces el tercer renglón al segundo renglón de A se obtiene:
 
1 2 0
D =  0 11 5  .
−1 4 2
82 3. SISTEMAS DE ECUACIONES LINEALES

Definición 3.5. Una matriz elemental m × m es una matriz que se obtiene al hacer una
única operación elemental en la matriz identidad Im .

Ejemplo 2. Si a la matriz identidad


 
1 0 0
I3 =  0 1 0 
0 0 1

sumamos el segundo renglón al tercero, obtenemos la matriz elemental:


 
1 0 0
E =  0 1 0 .
0 1 1

También, si multiplicamos el segundo renglón de I3 por 4 obtenemos la matriz elemental


 
1 0 0
E =  0 4 0 .
0 0 1

El resultado siguiente nos dice que, dada una matriz A de tamaño m × n, hacer una
operación elemental en los renglones de A es lo mismo que multiplicar A a la izquierda
por la matriz elemental E que se obtiene haciendo la misma operación elemental en Im :

Teorema 3.6. Sea A una matriz m × n con entradas en un campo K. Si la matriz B


se obtiene de A por medio de una operación elemental en renglones y si E es la matriz
elemental que se obtiene haciendo la misma operación elemental en Im , entonces

B = EA.

Recı́procamente, si E es una matriz elemental m×m, entonces la matriz producto EA


es la matriz que se obtiene de A por medio de la misma operación elemental en renglones
que se usó para obtener E a partir de Im .

D EMOSTRACI ÓN . Como hay tres tipos de operaciones elementales, debemos considerar
estos tres casos:

C ASO 1. Supongamos que B se obtiene de A intercambiando los renglones p y q, con


p 6= q, y sea E la matriz elemental m×m que se obtuvo al intercambiar los renglones p y q
en Im . Entonces, en el producto EA los únicos lugares afectados son aquellos en los cuales
el primer ı́ndice es p ó q, es decir, los términos de la forma apj ó aqj , para j = 1, . . . , n;
entonces, como en E estos renglones están intercambiados, en el producto EA el renglón p
consiste de los términos (aq1 , aq2 , . . . , aqn ) y el renglón q es (ap1 , ap2 , . . . , apn ), es decir,
EA = B. El recı́proco es similar.

C ASO 2. Si B se obtiene de A multiplicando el renglón i de A por el escalar λ 6= 0, sea


E la matriz elemental que se obtiene de Im multiplicando su renglón i por λ. Entonces, el
único renglón afectado de Im es el i-ésimo donde en el lugar (i, i) hay una λ, y ası́
3.2. OPERACIONES ELEMENTALES Y EL RANGO DE UNA MATRIZ 83

 
1 0 ··· 0
 0 1 0 ··· 0 
a11 a12 ··· a1n

.. ..
 
  a21 a22 ··· a2n 
 
 . .
EA =   . 
0 ··· 0 λ 0 ··· 0  . 
.
 
 
 .. .. 
a am2 ··· amn
 . .  m1
0 ··· ··· 0 1
 
a11 a12 ··· a1n
 a21 a22 ··· a2n 
 ..
 

 . 
=  = B,
 λai1
 λai2 ··· λain 

 .
 ..


am1 am2 ··· amn
ya que al multiplicar el renglón i de E por la columna 1 de A, todos los términos se anulan
excepto el término de A que está en renglón i, a saber, ai1 que queda multiplicado por λ.
Lo mismo sucede para las otras columnas de A. El recı́proco es similar.
C ASO 3. Si B se obtiene de A sumando λ veces el renglón q de A al renglón p, sea E la
matriz elemental que se obtiene con la misma operación en Im . Entonces, el renglón p de
E es de la forma
(0, . . . , 0, 1, 0, . . . , 0, λ, 0, . . . , 0)
con un 1 en el lugar p y λ en el lugar q; es decir, las entradas de E en el renglón p son

 1 si j = p
epj = λ si j = q
0 en los otros casos

y los otros renglones de E son los de Im sin cambio alguno. Es claro que el producto EA
sólo afecta al renglón p de A, dejando los otros renglones de A fijos. Ahora, al multiplicar
el renglón Ep de E por la columna Cj de A se obtiene
 
a1j
a2j 
..
 
 

 . 

 apj 
(0, . . . , 0, 1, 0, . . . , 0, λ, 0, . . . , 0) ·  .  = apj + λaqj
 
 .. 
 
 aqj 
 
 .
 ..


amj
y ası́ el renglón p de EA es
(ap1 + λaq1 , ap2 + λaq2 , . . . , apn + λaqn ) = (ap1 , . . . , apn ) + λ(aq1 , . . . , aqn ),
es decir, es el renglón p de A más λ veces el renglón q de A y por lo tanto EA = B. El
recı́proco es análogo. 
84 3. SISTEMAS DE ECUACIONES LINEALES

Observación. Si A es m×n y E es una matriz elemental m×m, entonces al transponer, t A


es n × m y t E es m × m. También, como al transponer los renglones se vuelven columnas,
las operaciones elementales en renglones se vuelven operaciones elementales en columnas
y ası́ si la matriz B se obtiene de A por medio de la operación elemental en renglones que se
usó para obtener E, entonces t B se obtiene de t A por medio de una operación elemental en
las columnas correspondientes y t E se obtiene por medio de la misma operación elemental
en t Im = Im . Se tiene ası́ que EA = B implica que t At E = t (EA) = t B.
Corolario 3.7. Sea A ∈ Matm×n (K) y supongamos que B se obtiene de A mediante
operaciones elementales en columnas. Si E es la matriz elemental que se obtiene haciendo
la misma operación elemental en columnas en Im , entonces
B = AE.
Recı́procamente, si E es una matriz elemental m×m, entonces la matriz producto AE
es la matriz que se obtiene de A por medio de la misma operación elemental en columnas
que se usó para obtener E a partir de Im .
D EMOSTRACI ÓN . Sólo observamos que el producto es ahora por una matriz elemental a
la derecha de A, porque al transponer se cambia el orden del producto. 
Proposición 3.8. Las matrices elementales son invertibles y la inversa de una matriz ele-
mental es una matriz elemental del mismo tipo.
D EMOSTRACI ÓN . Como hay tres tipos de operaciones elementales, digamos en renglones,
tenemos tres tipos de matrices elementales:
C ASO 1. Si la matriz elemental E se obtuvo intercambiando los renglones p y q de Im , con
p 6= q, entonces al multiplicar E por otra matriz A de tamaño adecuado, se intercambian
los renglones p y q de A. Ası́, para A = E, el producto EE intercambia los renglones p y
q del factor E de la derecha, por lo que EE = Im y por lo tanto E = E −1 .
C ASO 2. Si E se obtuvo de Im multiplicando el renglón p de Im por λ 6= 0, sea E 0 la
matriz elemental que se obtiene de Im multiplicando su renglón p por λ−1 . Entonces E 0 es
del mismo tipo que E y además es claro que EE 0 = Im = E 0 E y por lo tanto E −1 = E 0 .
C ASO 3. Si E se obtuvo de Im sumando λ veces el renglón q de Im al renglón p de Im ,
sea E 0 la matriz elemental que se obtiene de Im sumando −λ veces el renglón q de Im al
renglón p de Im . Es claro que EE 0 = Im = E 0 E y por lo tanto E −1 = E 0 . 

El rango de una matriz. Si A ∈ Matm×n (K), se define el rango de la matriz A como la


dimensión de la imagen de TA : K n → K m , es decir,
rang(A) := dimK (Im TA ).
Proposición 3.9. Sea T : V → W una transformación lineal entre espacios vectoriales
de dimensiones finitas. Sean A y B bases de V y W respectivamente. Entonces,
dimK (Im T ) = rang [T ]B

A .

D EMOSTRACI ÓN . Consideremos el diagrama siguiente, para A = [T ]B


A:

V
T /W

φA φB
 
Kn / Km
TA
3.2. OPERACIONES ELEMENTALES Y EL RANGO DE UNA MATRIZ 85

donde las flechas verticales son los isomorfismos dados por las bases respectivas. Mostra-
remos que φB (Im T ) = Im TA . En efecto, si w ∈ φB (Im T ), entonces w = φB (T (v)) con
v ∈ V . Se sigue que
w = φB ◦ T (v) = TA ◦ φA (v) = TA (φA (v)) ∈ Im(TA )
(la segunda igualdad es por la conmutatividad del diagrama anterior, es decir, para ir de V
a K m , las dos rutas dan el mismo resultado).
Recı́procamente, si w ∈ Im(TA ), sea u ∈ K n tal que TA (u) = w. Como φA es un
isomorfismo, para el u ∈ K n sea v ∈ V el único vector tal que φA (v) = u. Entonces,
w = = TA (u) = TA (φA (v))
= TA ◦ φA (v)
= φB ◦ T (v) por la conmutatividad del diagrama
= φB (T (v)) ∈ φB (Im T )
y ası́ Im TA ⊆ φB (Im T ). Hemos ası́ probado que φB (Im T ) = Im TA y como φB es
un isomorfismo, se sigue que las dimensiones de Im T e Im TA son iguales, lo cual es la
afirmación que querı́amos probar. 

La proposición anterior reduce el problema de calcular la dimensión de la imagen de


una transformación lineal arbitraria T : V → W al problema de determinar el rango de
una matriz. Algunas veces, a la dimensión de la imagen de una transformación lineal T
se le suele llamar el rango de la transformación lineal T . Ası́, la proposición anterior nos
dice que el rango de una transformación lineal T es el rango de la matriz asociada en
cualesquiera dos bases de los espacios involucrados.

La proposición siguiente nos dice que el rango de una matriz no cambia si la multipli-
camos por matrices invertibles, a la izquierda o a la derecha:
Proposición 3.10. Sea A ∈ Matm×n (K). Si P es invertible m × m y Q es invertible
n × n, entonces:
(1) rang(AQ) = rang(A).
(2) rang(P A) = rang(A).
(3) rang(P AQ) = rang(A).
D EMOSTRACI ÓN . La parte (3) se sigue de (1) y (2). Para (1) observe que
Im(TAQ ) = Im(TA ◦ TQ )
= TA (TQ (K n ))
= TA (K n ) ya que TQ es un isomorfismo
= Im(TA ).
Se sigue que: rang(AQ) = dimK (Im(TAQ )) = dimK (Im(TA )) = rang(A).
Para (2), como TP A = TP ◦ TA , entonces
Im(TP A ) = Im(TP ◦ TA ) = TP ◦ TA (K n ) = TP (TA (K n )),
y como TP es un isomorfismo porque P es invertible, entonces
dimK (TP (TA (K n ))) = dimK (TA (K n ))
y ası́
rang(P A) = dimK (Im(TP A )) = dimK (TA (K n )) = rang(A).

86 3. SISTEMAS DE ECUACIONES LINEALES

Corolario 3.11. Las operaciones elementales, en renglones o columnas, preservan el ran-


go de una matriz.
D EMOSTRACI ÓN . Las operaciones elementales en una matriz A equivalen a multiplicar A
por matrices elementales, que ya vimos que son invertibles. 

Si la matriz B se obtiene a partir de la matriz A mediante operaciones elementales, lo


denotaremos mediante A ∼ B y diremos que A y B son equivalentes.
Teorema 3.12. Sea A ∈ Matm×n (K) de rango r = dimK (Im TA ). Entonces, r ≤ m,
r ≤ n y existe un número finito de operaciones elementales en renglones y columnas de A
tales que  
Ir 01
A∼ ,
02 03
donde 01 , 02 y 03 son matrices cero del tamaño adecuado.
D EMOSTRACI ÓN . Por la proposición 3.2, r es el número máximo de columnas lineal-
mente independientes de A y por lo tanto r ≤ n. Ahora, como TA : K n → K m y
ası́ Im TA ⊆ K m , entonces r = dimK (Im TA ) ≤ m. Esto prueba la primera afirmación.
Para la segunda afirmación, si A = 0 es la matriz cero, entonces r = 0 y por conven-
ción I0 = 0 y el número de operaciones elementales requiridas es cero. Supongamos que
A 6= 0; entonces r > 0. Mostraremos que A se puede transformar en la forma requerida
por inducción sobre el número de renglones m de A.
(i) Si m = 1, entonces A = (a11 , a12 , . . . , a1n ) con algún a1j 6= 0. Sea k el menor entero
tal que a1k 6= 0. Entonces, A = (0, . . . , 0, a1k , . . . , a1n ) y multiplicando primero por a−1
1k
la columna k de A, y luego sumando múltiplos adecuados de esta columna a las columnas
siguientes se sigue que
A ∼ (0, . . . , 0, 1, 0, . . . , 0) ∼ (1, 0, . . . , 0),
donde la última operación elemental fue intercambiar la columna k con la primera.
(ii) Supongamos que el teorema es cierto para toda matriz con ≤ m − 1 renglones y sea
A una matriz m × n. Como A 6= 0, existe un aij 6= 0 en el lugar (i, j). Intercambiando
el renglón i con el renglón 1 y la columna j con la columna 1, llevamos el término aij al
lugar (1, 1); después multiplicamos por a−1
ij y ya tenemos un 1 en el lugar (1, 1). Sumando
múltiplos adecuados de este 1 volvemos ceros todos los lugares a la derecha y abajo del 1
y obtenemos una matriz de la forma:
 
1 0
A∼
0 A0
donde 0 indica un renglón o columna de ceros y A0 es (m − 1) × (n − 1), y aplicamos
inducción sobre A0 . 
Corolario 3.13. Si A es m × n de rango r, entonces existen matrices invertibles B de
tamaño m × m y C de tamaño n × n, tales que
 
Ir 01
A ∼ BAC = .
02 03
D EMOSTRACI ÓN . Usando el teorema anterior, ponemos B al producto de las matrices
elementales en renglones y C el producto de las matrices elementales en columnas que se
usaron para llevar A a la forma requerida. 
3.2. OPERACIONES ELEMENTALES Y EL RANGO DE UNA MATRIZ 87

Corolario 3.14. Si A es m × n, entonces


rang(A) = rang(t A).
 
Ir 01
D EMOSTRACI ÓN . Por el corolario anterior BAC = y ası́
02 03
   
t t t Ir 01 Ir 02
C AB=t = ,
02 03 01 03
y por lo tanto rang(t A) = r = rang(A). 
Corolario 3.15. Si A es m × n, entonces
rang(A) = número máximo de columnas linealmente independientes
= número máximo de renglones linealmente independientes.
D EMOSTRACI ÓN . El rango de t A es el número máximo de columnas linealmente indepen-
dientes de t A y las columnas de t A son los renglones de A. 
Corolario 3.16. Si A es m × n, entonces el subespacio generado por las columnas de A
es isomorfo al subespacio generado por los renglones de A.
D EMOSTRACI ÓN . Por el corolario anterior tienen la misma dimensión. 
Corolario 3.17. Toda matriz invertible es producto de matrices elementales.
D EMOSTRACI ÓN . Si A es n × n invertible, entonces TA : K n → K n es un isomorfismo y
ası́ Im TA = K n , por lo que rang(A) = dimK (Im TA ) = n. Por el teorema 3.12 se sigue
que A ∼ In , es decir, existen matrices elementales Ei y Fj , 1 ≤ i ≤ k y 1 ≤ j ≤ t, tales
que
(E1 · · · Ek )A(F1 · · · Ft ) = In .
Como cada matriz elemental es invertible y su inversa es otra matriz elemental, despejando
A de la igualdad anterior se sigue el resultado deseado. 
 
1 2 3 0
 4 2 1 2 
Ejemplo 3. Calcule el rango de la matriz A =   5 0 −1 2 . Para esto usamos

2 4 6 0
operaciones elementales:
     
1 2 3 0 1 2 3 0 1 2 3 0
 4 2 1 2   0 −6 −11 2   0 1 11 − 1 
 5 0 −1 2  ∼  0 −10 −16 2  ∼  0 10 16 −2 
A=     6 3 

2 4 6 0 0 0 0 0 0 0 0 0
2 2
     
1 2 3 0 1 2 3 0 1 0 −3 3
 0 1 11 − 1   0 1 11 − 1   0 1 11 − 1 
∼ 0 0 −7
6 3 
4 ∼
 6 3 ∼ 6 3 
3 3 0 0 1 − 47   0 0 1 − 47 
0 0 0 0 0 0 0 0 0 0 0 0
2
   
1 0 0 3 1 0 0 0
 0 1 0 15   0 1 0 0 
 
I3 0
∼ 4  ∼   =
0 0 1 − 47   0 0 1 0  0 0
0 0 0 0 0 0 0 0
y por lo tanto el rango de A es 3.
88 3. SISTEMAS DE ECUACIONES LINEALES

La inversa de una matriz. Usando el corolario 3.17 daremos un método para calcular la
inversa de una matriz invertible A. Para esto necesitaremos los conceptos siguientes: si
A = (aij ) es una matriz m × n y B = (bij ) es una matriz m × t, denotaremos con (A|B) a
la matriz m × (n + t) dada al yuxtaponer A y B una junta a la otra, es decir, (A|B) = (cij )
donde 
aij si 1 ≤ j ≤ n
cij =
bi,j−n si n + 1 ≤ j ≤ n + t.
Diremos que (A|B) es una matriz aumentada. Esto generaliza el caso cuando B = b es un
vector columna m × 1, que ya habı́amos encontrado antes.
Lema 3.18. Si A = (aij ) es una matriz m × n, B = (bij ) es una matriz m × t y P = (pij )
es una matriz r × m, entonces
P (A|B) = (P A|P B).
D EMOSTRACI ÓN . Como (A|B) = cij donde

aij si 1 ≤ j ≤ n
cij =
bi,j−n si n + 1 ≤ j ≤ n + t,
si P (A|B) = (eij ), entonces
m  Pm
X
Pk=1 pik akj si 1 ≤ j ≤ n
eij = pik ckj = m
k=1 pik bk,j−n si n + 1 ≤ j ≤ n + t,
k=1
es decir, 
término general de P A si 1 ≤ j ≤ n
eij =
término general de P B si n + 1 ≤ j ≤ n + t,
y por lo tanto P (A|B) = (P A|P B). 

Para aplicar este lema para encontrar la inversa de una matriz n × n invertible A,
consideremos la matriz aumentada
(1) (A|In )
−1
de tamaño n × 2n. Como A existe, multiplicando (1) por A−1 y usando el lema anterior
se obtiene:
(2) A−1 (A|In ) = (A−1 A|A−1 In ) = (In |A−1 ).
Ahora, como A−1 es invertible, por el corolario 3.17, A−1 es producto de matrices
elementales, digamos
A−1 = Ek · · · E1
y ası́ (2) queda:
(Ek · · · E1 )(A|In ) = (In |A−1 ),
y como multiplicar por matrices elementales a la izquierda es lo mismo que hacer operacio-
nes elementales en los renglones de (A|In ), hemos probado la primera parte del resultado
siguiente:
Proposición 3.19. Si A es invertible n × n, su inversa A−1 se puede hallar mediante un
número finito de operaciones elementales en los renglones de la matriz aumentada (A|In )
que transforman esta matriz en la matriz (In |A−1 ).
Recı́procamente, si mediante operaciones elementales en los renglones de (A|In ) se
obtiene la matriz (In |B), entonces B = A−1 .
3.2. OPERACIONES ELEMENTALES Y EL RANGO DE UNA MATRIZ 89

D EMOSTRACI ÓN . Sólo falta probar la segunda afirmación. Para esto, supongamos que
Ek , . . . , E1 son matrices elementales que satisfacen que:
(Ek · · · E1 )(A|In ) = (In |B).
Entonces, B = (Ek · · · E1 )In = (Ek · · · E1 ) y (Ek · · · E1 )A = In , y por lo tanto BA =
In . Se sigue que B = A−1 , ya que en el producto de matrices, una inversa por un lado es
inversa por los dos lados. 
 
1 2 3
Ejemplo 4. Muestre que la matriz A =  0 4 2  es invertible y calcule su inversa.
−2 1 0
   
1 2 3 1 0 0 1 2 3 1 0 0
(A|I3 ) =  0 4 2 0 1 0  ∼  0 1 12 0 14 0 
−2 1 0 0 0 1 0 5 6 2 0 1
   
1 2 3 1 0 0 1 2 3 1 0 0
∼  0 1 21 0 1
4 0  ∼  0 1 12 0 1
4 0 
7 5 4 5 2
0 0 2 2 −4 1 0 0 1 7 − 14 7
1 2 0 − 57 15 6
 
14 − 7
∼  0 1 0 − 27 3
7 − 17 
0 0 1 47 − 14 5 2
7
1 0 0 − 17 3 4
 
14 − 7
∼  0 1 0 − 27 3
7 − 17  = (I3 |A−1 ),
4 5 2
0 0 1 7 − 14 7
por lo que la inversa de A es:
− 17 3
− 47
 
14
A−1 =  − 27 3
7 − 17  .
4 5 2
7 − 14 7

Sistemas de ecuaciones y el rango de una matriz. Si Ax = b es un sistema de m


ecuaciones en n variables, por el corolario 3.3 el sistema tiene soluciones si y sólo si
dimK (C1 , . . . , Cn ) = dimK (C1 , . . . , Cn , b), donde Cj son las columnas de A. Hemos
ası́ probado:
Corolario 3.20. Si Ax = b es un sistema de m ecuaciones en n incógnitas, entonces el
sistema tiene soluciones si y sólo si
rang(A) = rang(A|b),
donde (A|b) es la matriz aumentada del sistema.


Este corolario es importante porque el rango de cualquier matriz es relativamente fácil


de calcular como veremos en la sección siguiente. Ası́, el criterio anterior es fácil de veri-
ficar. Más aún, el método que desarrollaremos en la sección siguiente nos dará al mismo
tiempo el conjunto de soluciones de un sistema soluble.

E JERCICIO 1. Si T : V → W es una transformación lineal entre espacios vectoriales de


dimensiones finitas, la nulidad de T es la dimensión del núcleo de T . La nulidad de una
matriz A es la nulidad de la transformación lineal TA asociada. Demuestre que la nulidad
90 3. SISTEMAS DE ECUACIONES LINEALES

de una transformación lineal es igual a la nulidad de la matriz asociada en cualesquiera


bases del dominio y codominio. Sugerencia: en la notación de la proposición 3.9, muestre
que φA (ker T ) = ker TA .

E JERCICIO 2. Sea A una matriz m × n. Demuestre que existe una sucesión finita de opera-
ciones elementales de tipo 1 y 3 en renglones, que transforman A en una matriz triangular
superior.

E JERCICIO 3. Sean A y B matrices m × t y t × n, respectivamente. Demuestre que


rang(AB) ≤ rang(A),
rang(AB) ≤ rang(B).

E JERCICIO 4. Sea A una matriz m × n. Demuestre que rang(A) = 0 si y sólo si A es la


matriz cero.

E JERCICIO 5. Sea A una matriz m × n con entradas en un campo K y sea λ ∈ K, λ 6= 0.


Demuestre que rang(λA) = rang(A).

E JERCICIO 6. Sean A y B matrices m×t y t×n, respectivamente. Suponga que rang(A) =


m y rang(B) = t. Demuestre que AB es de rango m.

E JERCICIO 7. Sea A una matriz m × n. Si A es de rango m, demuestre que existe una


matriz B, n × m, tal que BA = In .

E JERCICIO 8. Sea A una matriz m × n. Si A es de rango n, demuestre que existe una


matriz B, n × m, tal que AB = Im .

E JERCICIO 9. Calcule el rango de las matrices siguientes:


   
3 2 5 2 4 6 −2
 0 −1 4   1 −1 4 2 
A=  −3 4 0 
 B = 
 3 3 10 0 

 3 1 9  4 2 15 2 
1 2 7 −1 −2 −3 −4
 7 2 1   2 4 6 8 
C=  1 0 1 
 D = 
 1
.
2 3 4 
0 2 0 3 4 9 12

E JERCICIO 10. Calcule el rango de las matrices cuadradas siguientes y determine cuáles
son invertibles:
 
  5 6 1 −1
3 2 5  1 −1 4 2 
A =  0 −1 4  ; B=  6 5 5 1 

−3 4 0
2 4 5 6
 
  2 −2 1 −1
2 2 3  2 4 2 1 
C =  2 3 1 ; D=  1 2
.
2 1 
1 0 1
3 4 −1 1
3.3. EL MÉTODO DE GAUSS 91

E JERCICIO 11. Encuentre la inversa de las matrices invertibles del ejercicio anterior.

3.3. El método de Gauss


Dado un sistema de m ecuaciones lineales en n incógnitas Ax = b:
a11 x1 + a12 x2 + · · · + a1n xn = b1
a21 x1 + a22 x2 + · · · + a2n xn = b2
..
.
am1 x1 + am2 x2 + · · · + amn xn = bm
el método que desarrollaremos transforma el sistema dado a un sistema que tenga el mismo
conjunto de soluciones que el anterior, pero que luzca más sencillo—tan sencillo que sus
soluciones sean casi inmediatas—digamos de la forma
x1 + a012 x2 + a013 x3 + a014 x4 + a015 x5 + · · · + a01n xn = b01
x2 + a023 x3 + a024 x4 + a025 x5 + · · · + a02n xn = b02
x3 + a034 x4 + a035 x5 · · · + a02n xn = b03
..
.
xr + a0r,r+1 xr+1 + · · · = b0m
y la idea es trabajar con la matriz aumentada del sistema original (A|b) y transformarla,
mediante operaciones elementales en renglones, en una matriz (A0 |b0 ) que tenga asociado
el sistema de ecuaciones sencillo de arriba. Lo primero que debemos hacer es asegurarnos
que el nuevo sistema tenga el mismo conjunto de soluciones que el sistema original:
Proposición 3.21. Si Ax = b es un sistema de m ecuaciones lineales en n incógnitas y
si P es una matriz invertible m × m, entonces el sistema (P A)x = P b tiene el mismo
conjunto de soluciones que el sistema original.
D EMOSTRACI ÓN . Sea S ⊆ K n el conjunto de soluciones del sistema original Ax = b
y sea S 0 ⊆ K n el conjunto de soluciones del sistema (P A)x = P b. Mostraremos que
S = S 0 . En efecto, si v ∈ S, entonces Av = b y ası́ P Av = P b por lo que v es solución
del sistema (P A)x = P b, i.e., v ∈ S 0 . Recı́procamente, si v ∈ S 0 , entonces (P A)v = P b
y multiplicando por la inversa de P obtenemos: P −1 (P Av) = P −1 P b, i.e., Av = b y por
lo tanto v ∈ S. 
Corolario 3.22. Si Ax = b es un sistema de m ecuaciones lineales en n incógnitas y
si (A0 |b0 ) se obtiene de (A|b) mediante un número finito de operaciones elementales en
renglones, entonces el sistema A0 x = b0 tiene el mismo conjunto de soluciones que el
sistema original.
D EMOSTRACI ÓN . (A0 |b0 ) se obtiene de (A|b) mediante el producto de un número finito
de matrices elementales E1 , . . . , Ek . Poniendo P = E1 · · · Ek , resulta que P es invertible
y P (A|b) = (P A|P b) = (A0 |b0 ), por lo que A0 x = b0 es el sistema (P A)x = P b.
Aplicamos entonces la proposición anterior. 

Ya que el corolario anterior garantiza que no cambiamos el conjunto de soluciones


de Ax = b, pensemos ahora cómo debe ser la matriz de un sistema de ecuaciones senci-
llo como sugerimos antes. Un momento de reflexión, mirando al ejemplo sencillo previo,
nos lleva a: (i) la matriz del sistema sencillo está escalonada y (ii) los coeficientes de las
92 3. SISTEMAS DE ECUACIONES LINEALES

variables que encabezan las ecuaciones del sistema sencillo son igual a 1, por lo que des-
pejar la variable correspondiente es trivial. Recordemos ahora, de la proposición 3.4, que
el conjunto de soluciones de Ax = b es de la forma
S = v0 + ker TA ,
y por lo tanto el sistema sencillo debe serlo de tal manera que uno pueda leer el núcleo de
TA de este sistema, i.e., uno deberı́a ser capaz de dar una base del núcleo ker TA a partir del
sistema sencillo. Esto nos lleva a pedir que en la matriz aumentada del sistema sencillo, las
variables que encabezan ecuaciones sólo aparezcan en esa ecuación. La definición formal
es como sigue:
Definición 3.23. Una matriz m × n se dice que está en forma escalonada reducida si:
(i) Todos los renglones con alguna entrada distinta de cero están arriba de los ren-
glones que consisten de ceros.
(ii) La primera entrada distinta de cero de un renglón no cero es 1 y es la única
entrada distinta de cero en su columna.
(iii) El 1 de la primera entrada distinta de cero de un renglón no cero está en una
columna a la derecha de la primera entrada no cero del renglón precedente.
Observación. La condición (i) sólo dice que los renglones que consisten de ceros, si hay
alguno de estos renglones, van en la parte de abajo de la matriz. La condición (iii) nos
dice que la matriz está escalonada y la condición (ii) dice que un renglón no cero tiene
un 1 como primera entrada no trivial y arriba y abajo de este uno sólo hay ceros. Ası́, la
definición anterior captura lo que deseamos que quiera decir el término sencillo.

Ejemplo 5. La matriz  
1 0 0 1 2 3
 0 1 0 2 3 1 
 
 0 0 1 0 1 2 
0 0 0 0 0 0
está en forma escalonada reducida.
La matriz  
1 0 2 1 2 3
 0 1 0 2 3 1 
 
 0 0 1 0 1 2 
0 0 0 0 0 0
no está en forma escalonada reducida, ya que en la columna del 1 del tercer renglón no
todos las entradas son cero.
La matriz  
1 0 0 1 2 3
 0 3 0 2 3 1 
 
 0 0 1 0 1 2 
0 0 0 0 0 0
no está en forma escalonada reducida, ya que el segundo renglón no comienza con un 1.
La matriz  
1 0 0 1 2 3
 0 0 1 0 1 2 
 
 0 1 0 2 3 1 
0 0 0 0 0 0
3.3. EL MÉTODO DE GAUSS 93

no está en forma escalonada reducida, porque el 1 del tercer renglón no está a la derecha
del 1 del renglón que lo precede.
La matriz  
1 0 0 0 2 0
 0 1 2 0 3 0 
 
 0 0 0 1 1 0 
0 0 0 0 0 1
está en forma escalonada reducida.

La cuestión siguiente es evidente: ¿ dada una matriz A de tamaño m × n, es posi-


ble transformarla, mediante operaciones elementales, en forma escalonada reducida? La
respuesta es afirmativa y el procedimiento para realizarlo es el método de eliminación
gaussiana.

Método de eliminación de Gauss. Dada una matriz A de tamaño m × n, si A es la matriz


cero, por definición diremos que está en forma escalonada reducida. Supongamos entonces
que A no es la matriz cero. El método que describiremos tiene dos partes:

Parte 1. De arriba hacia abajo:


PASO 1. Se escoge la columna distinta de cero más a la izquierda. Luego, usando operacio-
nes elementales en renglones traslade una de las entradas distintas de cero en esta columna
al primer renglón y luego conviértalo en 1 multiplicando este primer renglón por el inverso
multiplicativo de la entrada 6= 0 en cuestión. Se usan en este paso a lo más 2 operaciones
elementales.
PASO 2. Usando a lo más m − 1 operaciones elementales de tipo 3 en renglones, convierta
en ceros todos los lugares abajo del 1 del primer paso.
PASO 3. Sin tomar en cuenta el primer renglón, considere las columnas de la matriz resul-
tante y escoja la columna distinta de cero más a la izquierda. Repita los pasos 1 y 2 con
esta columna.
PASO 4. Sin tomar en cuenta los dos primeros renglones, considere las columnas de la
matriz resultante y escoja la columna distinta de cero más a la izquierda. Repita los pasos 1
y 2 con esta columna. Proceda de esta manera hasta que, sin tomar en cuenta los renglones
donde ya se aplicaron los pasos 1 y 2, la matriz que resulte tenga sólo ceros o que ya se
hayan agotado sus renglones. Note que el número de pasos es a lo más m.

Parte 2. De abajo hacia arriba:


PASO 1. Comenzando con el último renglón distinto de cero, usando operaciones elemen-
tales de tipo 3 en renglones, convierta en ceros todos las entradas arriba del primer 1 de
este renglón. De nuevo, el número de operaciones es a lo más m − 1.
PASO 2. Repita lo anterior con el penúltimo renglón distinto de cero y proceda de esta ma-
nera, de abajo hacia arriba, para convertir en ceros todos las entradas arriba de los primeros
1 de los renglones distintos de cero. Note que en cada uno de estos pasos se usan sólo un
número finito de operaciones elementales en renglones y el número de pasos es a lo más
m.

Observe ahora que con el método de eliminación gaussiana descrito arriba, a partir
de la matriz A de tamaño m × n, se obtiene una matriz A0 del mismo tamaño y que
94 3. SISTEMAS DE ECUACIONES LINEALES

tiene forma escalonada reducida ya que, por los pasos de arriba hacia abajo se satisfacen
las condiciones (i) y (iii) de la definición 3.23, y por los pasos de abajo hacia arriba se
satisface la condición (ii). Se tiene ası́:
Proposición 3.24. El método de eliminación gaussiana transforma cualquier matriz A ∈
Matm×n (K) en una matriz A0 ∈ Matm×n (K) en forma escalonada reducida.

La primera consecuencia del método anterior es que el rango de la matriz A es igual
al rango de A0 ya que A0 se obtuvo a partir de A mediante operaciones elementales, que
no cambian el rango por 3.11, y se lee directamente de la matriz A0 escalonada reducida:
Proposición 3.25. Sea A una matriz m × n y sea A0 una matriz escalonada reducida
que se obtiene a partir de A mediante operaciones elementales en renglones. Entonces, el
rango de A es el número de renglones distintos de cero en A0 .
D EMOSTRACI ÓN . Sea r el número de renglones distintos de cero de A0 . Observe ahora que
como A0 está en forma escalonada reducida, los r renglones no cero de A0 son linealmente
independientes ya que los 1 que están en la primera componente distinta de cero de cada
uno de estos renglones están en diferentes columnas y son los únicos elementos distintos de
cero en esas columnas. Ası́, cualquier combinación lineal de los renglones distintos de cero
de A0 que dé el vector 0, debe tener todos los coeficientes igual a 0. Por lo tanto, el rango de
A0 debe ser r. Finalmente, como A ∼ A0 , entonces por 3.11, rang(A) = rang(A0 ) = r. 
 
2 3 13 3 17
 1 3 11 3 13 
Ejemplo 6. Calcularemos el rango de la matriz A =   2 4 16 6 24  usando

1 2 8 2 10
eliminación gaussiana. En efecto, usando operaciones elementales en renglones:
   
2 3 13 3 17 1 2 8 2 10
 1 3 11 3 13   1 3 11 3 13 
 2 4 16 6 24  ∼  2 4 16 6 24 
   

1 2 8 2 10 2 3 13 3 17
 
1 2 8 2 10
 0 1 3 1 3 
∼ 0 0

0 2 4 
0 −1 −3 −1 −3
   
1 2 8 2 10 1 2 8 0 6
 0 1 3 1 3   0 1 3 0 1 
∼ 0 0 0 2 4 ∼ 0 0 0 1 2 
  

0 0 0 0 0 0 0 0 0 0
   
1 0 2 0 4 1 0 0 2 4
 0 1 3 0 1   0 1 0 3 1 
∼ 0 0 0 1 2 ∼ 0 0 1 0 2 
  

0 0 0 0 0 0 0 0 0 0
y por lo tanto A ∼ A0 , con A0 escalonada reducida con 3 renglones no cero. Se sigue que
rang(A) = 3.

Unicidad de la forma escalonada reducida. Nuestro objetivo ahora es mostrar que si A es


una matriz m × n y A0 y A00 son dos matrices en forma escalonada reducida equivalentes
3.3. EL MÉTODO DE GAUSS 95

a A, entonces A0 = A00 . Para esto, comencemos observando que si A es la matriz cero


entonces A0 y A00 también son cero porque son equivalentes a A.
Supongamos entonces que el rango de A es r ≥ 1. Nuestro primer objetivo es determi-
nar algunas propiedades de cualquier matriz escalonada reducida equivalente a A, digamos
A0 :
(1) Observe que, como A0 está en forma escalonada reducida y A0 ∼ A, por la proposición
anterior el rango de A es el número de renglones distintos de cero de A0 . Observe también
que en A0 hay r renglones cuya primera entrada no cero es 1 y que arriba y abajo (cuando
es posible) de estos 1 sólo hay ceros. Por lo tanto, las r columnas correspondientes a estos
1 son los vectores canónicos e1 , . . . , er de K m ya que los m − r últimos renglones de A0
son todos cero. Entonces, r de las columnas C10 , . . . , Cn0 de A0 son los vectores canónicos
e1 , . . . , er . Sean k1 < k2 < · · · < kr los lugares donde están estos vectores canónicos, es
decir, Ck0 i = ei . Sean Cki las columnas correspondientes en A.
(2) Mostraremos que Ck1 , . . . , Ckr son linealmente independientes. En efecto, si se tiene
una combinación lineal
(a) α1 Ck1 + · · · + αr Ckr = 0,
0
como A se obtiene de A mediante operaciones elementales en renglones, existe una matriz
m × m invertible P tal que P A = A0 . Multiplicando (a) por P se obtiene
(b) α1 P Ck1 + · · · + αr P Ckr = 0
y como P Cki = Ck0 i = ei , entonces (b) es:
α1 e1 + · · · + αr er = 0
y por lo tanto α1 = · · · = αr = 0 ya que los ei son linealmente independientes. Se sigue
que Ck1 , . . . , Ckr son columnas linealmente independientes de A.
(3) Observemos ahora que como A0 tiene sólo r renglones no cero en la parte superior,
cada columna de A0 es de la forma:
 0 
a1j
 .. 
 . 
 0 
 a
Cj0 = 

rj .
 0 
 
 .
 ..


0
Se sigue que Cj0 = a01j e1 + · · · + a0rj er , y como Cj0 = P Cj , entonces
Cj = P −1 Cj0 = P −1 (a01j e1 + · · · + a0rj er )
= a01j P −1 e1 + · · · + a0rj P −1 er
= a01j Ck1 + · · · + a0rj Ckr porque P Cki = ei .
Hemos ası́ probado:
Teorema 3.26. Sea A ∈ Matm×n (A) una matriz de rango r ≥ 1 y sea A0 una matriz en
forma escalonada reducida equivalente a A. Entonces,
(1) Para cada i = 1, . . . , r existe una columna Ck0 i de A0 tal que Ck0 i = ei , el vector
canónico de K m correspondiente.
96 3. SISTEMAS DE ECUACIONES LINEALES

(2) Si Cki es la columna de A correspondiente al ı́ndice ki , entonces Ck1 , . . . , Ckr son


linealmente independientes.
(3) Para cada j = 1, . . . , n, si la columna j de A0 es Cj0 = α1j e1 + · · · + αrj er , entonces
la columna j de A es
Cj = α1j Ck1 + · · · + αrj Ckr .

Corolario 3.27. Si A ∈ Matm×n (A), entonces cualesquiera dos matrices en forma esca-
lonada reducida equivalentes a A son iguales. Es decir, la forma escalonada reducida de
A es única.
D EMOSTRACI ÓN . Sean A0 y A00 dos matrices en forma escalonada reducida equivalentes
a A con columnas (C10 , . . . , Cn0 ) y (C100 , . . . , Cn00 ) respectivamente. Mostraremos que Cj0 =
Cj00 para toda j. Para comenzar, podemos suponer que el rango r de A es r ≥ 1. Por la parte
(1) del teorema anterior las columnas e1 , . . . , er aparecen en A0 y A00 . Sean k1 < · · · < kr
y `1 < · · · < `r tales que Ck0 i = ei y C`00i = ei . Mostraremos ahora que ki = `i para toda
i = 1, . . . , r por inducción sobre r.
(i) Si r = 1, Ck0 1 = e1 = C`001 y supongamos, sin perder generalidad, que `1 ≥ k1 . Si
sucediera que `1 > k1 , entonces Cj00 = 0 para 1 ≤ j < `1 , y por la parte (3) del teorema
anterior la columna de A correspondiente a Cj00 es Cj = 0 también, para 1 ≤ j < `1 .
En particular, Ck1 = 0, lo cual contradice la parte (2) del teorema (ya que Ck1 debe ser
miembro de un conjunto linealmente independiente). Se sigue que k1 = `1 .
(ii) Supongamos que ki = `i para toda i < r. Mostraremos que kr = `r . Sin perder
generalidad, supongamos que `r ≥ kr . Si sucediera que `r > kr , entonces para 1 ≤
j < `r , las columnas Cj00 tendrı́an ceros hacia abajo comenzando con el renglón r − 1.
Consecuentemente, por la parte (3) del teorema las columnas Cj correspondientes a Cj00
tendrı́an también ceros hacia abajo comenzando con el renglón r − 1. En particular, Ckr
tendrı́a ceros a partir del renglón r − 1.
Consideremos ahora la submatriz B de A dada por las primeras kr columnas: B =
(C1 , . . . , Ckr ) y observemos que los renglones de B, a partir del renglón r − 1 son todos
cero y por lo tanto el rango de B es ≤ r − 1, por (3.15). Pero esto contradice la parte (2)
del teorema que afirma que Ck1 , . . . , Ckr son linealmente independientes.
Hemos ası́ probado que los vectores canónicos e1 , . . . , er que aparecen en A0 y A00 ,
están en las mismas columnas de estas dos matrices. Por lo tanto, las columnas de A que
les corresponden son las mismas, es decir, Ck1 = C`1 , . . . , Ckr = C`r .
Para mostrar que A0 = A00 , mostraremos que cualesquiera dos de sus columnas son
iguales: Cj0 = Cj00 . En efecto, escribiendo cada una de estas columnas como combinación
lineal de e1 , . . . , er :
Cj0 = α1 e1 + · · · + αr er y Cj00 = β1 e1 + · · · + βr er ,
por la parte (3) del teorema anterior, la columna Cj de A que les corresponde satisface que:
Cj = α1 Ck1 + · · · + αr Ckr = β1 Ck1 + · · · + βr Ckr
y, como los Cki son linealmente independientes, entonces αi = βi para toda i. Se sigue
que Cj0 = Cj00 y por lo tanto A0 = A00 . 
3.3. EL MÉTODO DE GAUSS 97

Solución de sistemas de ecuaciones por el método de eliminación de Gauss. Si Ax = b


es un sistema de m ecuaciones lineales en n incógnitas y si (A0 |b0 ) es la matriz escalo-
nada reducida equivalente a la matriz del sistema (A|b), por (3.21) y (3.22) el conjunto
de soluciones de A0 x = b0 es el mismo que el del sistema original. Consideremos el sis-
tema A0 x = b0 . Entonces, si el sistema es soluble, el rango de A es igual al rango de
(A|b) y ası́ (A0 |b0 ) tiene exactamente r renglones distintos de cero y por lo tanto el sistema
A0 x = b0 tiene exactamente r ecuaciones lineales en n incógnitas y como A0 está escalo-
nada reducida, cada una de las r ecuaciones del sistema A0 x = b0 está encabezada por una
de r variables con coeficiente 1.
PASO 1. Se separan las n variables x1 , . . . , xn en dos conjuntos ajenos:
(i) Las que encabezan una ecuación en A0 x = b0 . Hay r de estas variables.
(ii) Las que no encabezan alguna ecuación de A0 x = b0 . Hay n − r de éstas.

PASO 2. A cada variable que no encabeza una ecuación de A0 x = b0 le asignamos un valor


paramétrico tj . Ası́, hay n − r parámetros tj .
PASO 3. Despejamos las r variables que encabezan ecuaciones en términos de los paráme-
tros anteriores.

Con los pasos anteriores se obtiene un vector v = (x1 , . . . , xn ) ∈ K n , el cual es


solución del sistema Ax = b, como veremos a continuación, y donde sus componentes
son de dos tipos: parámetros ti ó sumas de (algunos) de estos parámetros más términos
constantes. Para mostrar que v es solución del sistema Ax = b, basta ver que es solución
de A0 x = b, donde A0 es la matriz escalonada reducida equivalente a A. Sin perder genera-
lidad, podemos asumir de ahora en adelante que A = A0 . Escribamos A = (C1 , . . . , Cn )
con Cj las columnas de A. Por 3.26(1) existen r ı́ndices 1 ≤ k1 < · · · < kr ≤ n ta-
les que las columnas Cki = ei (el vector canónico de K m correpondiente). De hecho,
los ı́ndices ki corresponden a las columnas de A donde aparecen los 1 que encabezan
renglones. Sabemos, por 3.26, que las r columnas Cki forman una base de Im TA . Deno-
temos con Cji a las n − r columnas de A diferentes de las Cki , ordenadas por los ı́ndices
1 ≤ j1 < · · · < jn−r ≤ n. Estas n − r columnas corresponden a las variables que no
encabezan ecuaciones en el sistema Ax = b.
Ahora, dados n − r escalares t1 , . . . , tn−r (los valores paramétricos del paso 2 ante-
rior), consideremos el vector columna
n−r
X
C= ti Cji .
i=1

Entonces, C es combinación lineal de (algunas) de las columnas de A y ası́ C ∈ Im TA .


Ahora, como b ∈ Im TA porque estamos asumiendo que el sistema tiene soluciones, en-
tonces b − C ∈ Im TA , y como Ck1 , . . . , Ckr es base de Im TA , entonces existen escalares
únicos sk1 , . . . , skr tales que
b − C = sk1 Ck1 + · · · + skr Ckr
y por lo tanto
r
X n−r
X
(∗) b = (sk1 Ck1 + · · · + skr Ckr ) + C = ski Cki + ti Cji .
i=1 i=1
98 3. SISTEMAS DE ECUACIONES LINEALES

Se sigue que el vector


r
X n−r
X
(∗∗) v= ski eki + ti eji
i=1 i=1
es una solución del sistema Ax = b ya que
r
X n−r
X
A·v = ski Aeki + ti Aeji
i=1 i=1
Xr n−r
X
= ski Cki + ti Cji porque Aej = Cj
i=1 i=1
=b por (∗).
Note que el vector v anterior es el vector v obtenido en los pasos (1), (2) y (3) de
arriba. Observe también que, poniendo todos los ti = 0, se obtiene la solución particular:
X r
v0 := ski eki .
i=1
Finalmente, en la solución (∗∗), poniendo ti = 1 y tj = 0 para las j 6= i, se obtienen
las n − r soluciones
r
(i)
X
(†) ui := ski Cki + eji
i=1
1 ≤ i ≤ n − r. Otra forma de describir el procedimiento anterior, para obtener los vectores
ui , es el paso siguiente, que también comienza con la expresión obtenida para el vector v
solución del sistema:

PASO 4. Como en el vector v = (x1 , . . . , xn ) obtenido arriba, las componentes son sumas
de (algunos) de los parámetros más términos constantes, podemos separar al vector v de la
forma siguiente:
(i) Agrupamos en un vector v0 a los términos constantes de cada componente de v.
(ii) Juntamos en un vector los términos que contengan al parámetro t1 de cada com-
ponente de v.
(iii) Juntamos en un vector los términos que contengan al parámetro t2 de cada com-
ponente de v.
(iv) Etcétera.
Después, del vector obtenido en (ii) factorizamos a t1 para obtener t1 u1 con u1 un
vector de K n . Similarmente, factorizamos a t2 del vector obtenido en (iii) para tener t2 u2 .
Etcétera. Al final obtenemos la expresión siguiente para v:
v = v0 + t1 u1 + t2 u2 + · · · + tn−r un−r ,
con v0 , u1 , . . . , un−r vectores de K n .

Mostraremos ahora que los vectores u1 , . . . , un−r forman una base de ker TA , y para
ésto comenzamos mostrando que generan este núcleo: en efecto, por construcción cada
ui ∈ ker TA y ası́ K(u1 , . . . , un−r ) ⊆ ker TA . Supongamos ahora que u = (α1 , . . . , αn )
es cualquier elemento de ker TA . Entonces, el vector
Xn Xr
(‡) u− αk uk = λj ekj
k=r+1 j=1
3.3. EL MÉTODO DE GAUSS 99

ya que, por la forma (†) de los ui , para k ≥ r + 1, el vector −αk uk contiene el sumando
−αk ejk que cancela la componente αk en el lugar jk de u. Pn
Ahora, como ker TA es espacio vectorial, se tiene que u − k=r+1 αk uk ∈ ker TA y
Pr
ası́ el vector w := j=1 λekj ∈ ker TA . Es decir, A · w = 0, y como A · w es la suma de
columnas de A con coeficientes las entradas λj correspondientes de w, entonces

λ1 Ck1 + · · · + λr Ckr = 0

y como los Cki son


Pnlinealmente independientes, entonces λi = 0 para toda i y ası́ en (‡)
se tiene que u − k=r+1 αk uk = 0, es decir,

n
X
u= αk uk ∈ K(u1 , . . . , un−r )
k=r+1

y por lo tanto u1 , . . . , un−r genera a ker TA como se querı́a.


Hemos mostrado ası́ que Sh = ker TA = K(u1 , . . . , un−r ). Finalmente, como u1 , . . .,
un−r generan ker TA , y como

dimK ker TA = dimK K n − dimK Im TA = n − rang(A) = n − r,

entonces u1 , . . . , un−r debe ser una base de ker TA . Hemos probado ası́:

Teorema 3.28. Sean Ax = b un sistema soluble de m ecuaciones lineales en n incógnitas,


(A0 |b0 ) la forma escalonada reducida de (A|b) y r el rango de A. Supongamos que v0 y
u1 , . . . , un−r se obtuvieron con el método descrito arriba. Entonces,
(1) v0 es una solución particular de Ax = b.
(2) u1 , . . . , un−r es una base de ker TA .
(3) Consecuentemente, el conjunto de soluciones del sistema Ax = b es:

S = v0 + ker TA = {v ∈ K n : v = v0 + t1 u1 + t2 u2 + · · · + tn−r un−r , ti ∈ K}.

Ejemplo 7. Halle todas las soluciones del sistema

3x1 + 9x2 + x3 + 5x4 = 7


2x1 + 6x2 + 3x3 + x4 = 7
x1 + 3x2 + x3 + x4 = 3

La matriz aumentada es:


 
3 9 1 5 7

(A|b) =  2 6 3 1 7 

1 3 1 1 3

y usando el método de eliminación de Gauss:


100 3. SISTEMAS DE ECUACIONES LINEALES

   
3 9 1 5 7
1 3 1 1
3

 2 6 3 1 7 ∼ 3 9 1 5
7 

1 3 1 1 3 2 6 3 1
7
 
1 3 1 1 3
∼ 0 0 −2 2 −2 
0 0 1 −1 1
 
1 3 1 1 3
∼ 0 0 1 −1 1 
0 0 −2 2 −2
 
1 3 0 2 2
∼ 0 0 1 −1 1 
0 0 0 0 0
y por lo tanto rang(A|b) = 2 = rang(A), por lo que el sistema tiene soluciones. El sistema
de ecuaciones equivalente al dado es:
x1 + 3x2 + 2x4 = 2
x3 − x4 = 1
y las variables que encabezan ecuaciones son x1 y x3 , y las variables que no encabezan
ecuaciones son x2 y x4 . Dando valores paramétricos a las variables que no encabezan
ecuaciones:
x2 = t1 y x4 = t2 ,
despejamos las variables que sı́ encabezan ecuaciones:
x3 = 1 + x4 = 1 + t2
x1 = 2 − 3x2 − 2x4 = 2 − 3t1 − 2t2
por lo que la solución general del sistema está dada por los vectores de la forma
v = (x1 , x2 , x3 , x4 )
= (2 − 3t1 − 2t2 , t1 , 1 + t2 , t2 )
= (2, 0, 0, 1) + (−3t1 − 2t2 , t1 , t2 , t2 )
= (2, 0, 0, 1) + t1 (−3, 1, 0, 0) + t2 (−2, 0, 1, 1),
donde v0 = (2, 0, 0, 1) es una solución particular del sistema y u1 = (−3, 1, 0, 0) y
u2 = (−2, 0, 1, 1) forman una base del subespacio de soluciones del sistema homogéneo
asociado Sh .

Ejemplo 8. Considere el sistema de ecuaciones:


x1 + 2x2 + 4x3 + 5x4 = −4
x1 + 4x2 + 6x3 + 9x4 = −6
2x1 + 6x2 + 10x3 + 14x4 = −6
La matriz aumentada es:
 
1 2 4 5 −4

(A|b) =  1 4 6 9 −6 

2 6 10 14 −6
3.3. EL MÉTODO DE GAUSS 101

y usando el método de eliminación de Gauss:


   
1 2 4 5 −4 1 2 4 5
−4
 1 4 6 9 −6  ∼  0 2 2 4
−2 
2 6 10 14 −6 0 2 2 4 2
 
1 2 4 5
−4
∼ 0 1 1 2
−1 
0 0 0 0 4
 
1 0 2 1
−2
∼ 0 1 1 2
−1 
0 0 0 0 4
 
1 0 2 1
0
∼ 0 1 1 2
0 ,
0 0 0 0 1
por lo que rang(A|b) = 3 6= 2 = rang(A) y ası́ el sistema no tiene soluciones.

E JERCICIO 12. Si A es m × n y m < n, demuestre que el sistema Ax = 0 tiene una


solución no trivial.

E JERCICIO 13. Si Ax = b es un sistema de n ecuaciones con n incógnitas, demuestre


que el sistema tiene una única solución si y sólo si A es invertible. Muestre además que la
(única) solución es de la forma x = A−1 b.

E JERCICIO 14. Dé un ejemplo de un sistema de n ecuaciones con n incógnitas con más de
una solución.

E JERCICIO 15. Halle todas las soluciones del sistema de ecuaciones


2x + y − z = 5
x−y+z = 1
x + 2y − 2z = 4.

E JERCICIO 16. Halle todas las soluciones del sistema de ecuaciones


x1 + 2x2 − 8x3 =0
2x1 − 3x2 + 5x3 =0
3x1 + 2x2 − 12x2 = 0

E JERCICIO 17. Halle todas las soluciones del sistema de ecuaciones


3x1 − 1x2 + x3 = −2
x1 + 5x2 − +2x3 = 6
2x1 + 3x2 + x3 =0

E JERCICIO 18. Halle todas las soluciones del sistema de ecuaciones


3x1 − 6x2 − x3 − x4 =0
x1 − 2x2 + 5x3 − 3x4 = 0
2x1 − 4x2 + 3x3 − x4 = 3
102 3. SISTEMAS DE ECUACIONES LINEALES

E JERCICIO 19. Halle todas las soluciones del sistema de ecuaciones


4x1 + 3x2 − 9x3 + x4 =1
−x1 + 2x2 − 13x3 + 3x4 = 3
3x1 − x2 + 8x2 − 2x4 = −2
Capı́tulo 4
Determinantes
transformaciones lineales T : V → W entre K-
H ASTA AHORA HEMOS ESTUDIADO
espacios vectoriales de dimensión finita, sin ninguna otra restricción. Para poder
avanzar en el estudio de las transformaciones lineales, debemos considerar primero aque-
llas funciones lineales que parezcan más sencillas, por ejemplo transformaciones lineales
T : V → V de un espacio en sı́ mismo. Llamaremos operadores lineales a las funciones
lineales de un espacio en sı́ mismo. Si V es de dimensión finita, digamos n, un operador
lineal T : V → V corresponde a una matriz cuadrada A ∈ Matn×n (K). Ası́, estudiar
operadores lineales es equivalente a estudiar matrices cuadradas. Hay varios caminos para
hacer ésto y en este libro seguiremos el enfoque clásico basado en las propiedades de los
determinantes de matrices cuadradas. En este capı́tulo obtenemos las propiedades necesa-
rias de los determinantes para que en los capı́tulos siguientes podamos continuar con el
estudio de los operadores lineales.

4.1. Expansión por menores


Originalmente, los determinantes jugaban un papel importante en la solución algorı́t-
mica de sistemas de ecuaciones lineales y, a pesar de que computacionalmente han sido
relegados, conviene recordar este origen del concepto de determinante considerando un
sistema de dos ecuaciones lineales en dos incógnitas:
ax + by = e
cx + dy = f
del cual supondremos que tiene solución única, en particular, las matrices involucradas
son de rango 2. Usando el método de eliminación, por ejemplo, multiplicando la primera
ecuación por d y la segunda ecuación por b y luego restando obtenemos:
adx + bdy = ed
bcx + bdy = bf
que restando nos da:
(1) (ad − bc)x = ed − bf.
Similarmente, si multiplicamos por c la primera ecuación y por a la segunda ecuación y
luego restamos para eliminar a la variable x, obtenemos:
(2) (ad − bc)y = ec − af.
El escalar ad − bc que aparece en (1) y (2) es 6= 0, como el lector puede comprobar
fácilmente (vea el ejercicio 1), ya que el sistema original tiene una solución única. A este
escalar se le llama el determinante de la matriz del sistema
 
a b
A=
c d
103
104 4. DETERMINANTES

y se denota  
a b
det(A) = det = ad − bc.
c d
 
3 4
Ejemplo 1. Si A = , entonces
2 5
 
3 4
det(A) = det = 3(5) − 4(2) = 15 − 8 = 7.
2 5
 
2 6
Ejemplo 2. Si A = , entonces
3 9
 
2 6
det(A) = det = 2(9) − 6(3) = 18 − 18 = 0.
3 9

Supongamos ahora que se tiene una matriz cuadrada 3 × 3:


 
a11 a12 a13
A =  a21 a22 a23 
a31 a32 a33
y queremos definir su determinante. La idea es proceder recursivamente, aprovechando
que ya sabemos calcular el determinante de una matriz 2 × 2. Para ésto, fijamos un renglón
de A, digamos el primer renglón R1 = (a11 , a12 , a13 ) y, para cada entrada a1j de este
renglón, 1 ≤ j ≤ 3, se definen las matrices 2 × 2 que se obtienen al eliminar el renglón y
la columna de la entrada a1j . Denotemos esta matriz por A1j . Hay tres de estas matrices:
     
a22 a23 a21 a23 a21 a22
A11 = A12 = A13 = .
a32 a33 a31 a33 a31 a32
Después, para cada entrada a1j consideremos el término (−1)1+j a1j det(A1j ), y lue-
go los sumamos para definir:
det(A) := (−1)1+1 a11 det(A11 ) + (−1)1+2 a12 det(A12 ) + (−1)1+3 a13 det(A13 )
= a11 det(A11 ) − a12 det(A12 ) + a13 det(A13 ).
 
2 3 4
Ejemplo 3. Si A =  1 4 5 , entonces
5 6 8
 
2 3 4
det(A) = det  1 4 5 
5 6 8
= a11 det(A11 ) − a12 det(A12 ) + a13 det(A13 )
     
4 5 1 5 1 4
= 2 det − 3 det + 4 det
6 8 5 8 5 6
= 2(32 − 30) − 3(8 − 25) + 4(6 − 20)
= 4 + 51 − 56 = −1.
Recursivamente, supongamos que ya se definió el determinante de cualquier matriz
cuadrada de tamaño menor que n × n y sea A = (aij ) una matriz n × n. Para cada
1 ≤ i, j ≤ n se definen las submatrices Aij de A, eliminando el renglón i y la columna j
de A:
4.1. EXPANSIÓN POR MENORES 105

Columna Cj

?
 
a11 a12 ··· a1j ··· a1n
 a21 a22 ··· a2j ··· a2n 
.. .. .. ..
 
 

 . . . . 

Renglón Ri  ai1
-  ai2 ··· aij ··· ain 

 . .. .. ..
 ..

. . . 
a1 an2 ··· anj ··· ann

Si ahora fijamos un renglón Ri = (ai1 , ai2 , . . . , ain ) de A, y consideramos las n


matrices Ai1 , Ai2 ,. . . , Ain , se define la expansión por menores del determinante de A a lo
largo del renglón i como:
deti (A) = (−1)i+1 ai1 det(Ai1 ) + (−1)i+2 ai2 det(Ai2 ) + · · · + (−1)i+n ain det(Ain )
n
X
= (−1)i+j aij det(Aij ).
j=1

Observemos, para comenzar, que esta definición de deti (A) depende, en principio del
renglón Ri que se usó para la expansión anterior. Probaremos más adelante, en 4.18, que
en efecto no depende del renglón elegido para hacer la expansión. Ahora, como a la matriz
A la podemos pensar en términos de sus columnas Cj , digamos
A = (C1 , C2 , . . . , Cn ),
podemos pensar al determinante de A como una función con n variables, a saber, las n
columnas de A. Pensando al determinante ası́, lo primero que probaremos es que el deter-
minante es una función lineal en cada una de sus variables:
Proposición 4.1 (Propiedad 1). Sea A = (C1 , . . . , Cn ) una matriz n × n con columnas
C1 ,. . . , Cn . Para cada uno de las columnas Ck , se tiene que:
(1) Si la columna Ck es la suma de dos otras columnas, digamos Ck = Ck0 + Ck00 , entonces
deti (C1 , . . . , Ck0 +Ck00 , . . . , Cn ) = deti (C1 , . . . , Ck0 , . . . , Cn )+deti (C1 , . . . , Ck00 , . . . , Cn ).

(2) Si λ ∈ K y Ck es una columna de A, entonces


deti (C1 , . . . , λCk , . . . , Cn ) = λ deti (C1 , . . . , Ck , . . . , Cn ).
D EMOSTRACI ÓN . (1): Como en A se tiene que la columna Ck = Ck0 + Ck00 , al considerar
cada uno de los sumandos que aparecen en la definición de deti (A):
(−1)i+j aij deti (Aij )
podemos separarlos en dos casos con respecto al k fijo:
C ASO 1. Si j 6= k, entonces aij no depende de Ck y, por hipótesis de inducción deti (Aij )
es lineal en Ck .
106 4. DETERMINANTES

C ASO 2. Si j = k, entonces deti (Aik ) no depende de Ck y aij = aik = a0ik + a00ik . Se


tiene ası́ que
(−1)i+k aik deti (Aik ) = (−1)i+k (a0ik + a00ik ) deti (Aik )
= (−1)i+k a0ik deti (Aik ) + (−1)i+k a00ik deti (Aik ).
Esto prueba (1). Para (2) el análisis es similar. 

Mostraremos más adelante que si dos columnas cualesquiera de una matriz cuadra-
da son iguales, entonces su determinante es 0. Comenzamos con el caso cuando las dos
columnas iguales son adyacentes:
Proposición 4.2 (Propiedad 2). Si dos columnas adyacentes de una matriz A son iguales,
entonces deti (A) = 0.
D EMOSTRACI ÓN . Supongamos que Ck = Ck+1 para dos columnas de A. Como hemos
fijado el renglón i, debemos considerar qué es lo que pasa con los sumandos
(−1)i+j aij deti (Aij )
que aparecen en la definición de deti (A), variando el ı́ndice j de las columnas.
C ASO 1. Si j es diferente de k ó k + 1, entonces al eliminar la columna j y el renglón
i de A, la matriz Aij sigue teniendo dos columnas adyacentes iguales y, por hipótesis de
inducción, deti (Aij ) = 0 y por lo tanto el sumando
(−1)i+j aij deti (Aij ) = 0.

C ASO 2. Los dos sumandos restantes son:


(∗) (−1)i+k aik deti (Aik ) + (−1)i+k+1 ai,k+1 deti (Ai,k+1 ),
donde las entradas aik = ai,k+1 porque Ck = Ck+1 , y las matrices Aik = Ai,k+1 porque
en A al quitar la columna Ck queda la columna Ck+1 que es igual a la que se quitó, y lo
mismo sucede al quitar de A la columna Ck+1 . Ası́, en (∗) los dos sumandos son iguales y
de signo opuesto y por lo tanto se cancelan.
Se sigue que deti (A) = 0. 
Proposición 4.3 (Propiedad 3). Si In es la matriz identidad n × n, entonces deti (In ) = 1.
D EMOSTRACI ÓN . En In cada aij = 0 si i 6= j y aii = 1. Como cada Aii = In−1 se sigue
que
n
X
deti (A) = (−1)i+j aij deti (Aij )
j=1

= (−1)i+i aii deti (Aii ) porque aij = 0 para i 6= j


= (−1)2i 1 · deti (In−1 ) = 1 por hipótesis de inducción.

Proposición 4.4 (Propiedad 4). Si A es una matriz n × n, 1 ≤ k ≤ n y Ck y Ck+1 son
dos columnas adyacentes, entonces al intercambiarlas el determinante cambia de signo.
4.1. EXPANSIÓN POR MENORES 107

D EMOSTRACI ÓN . Sean

A = (C1 , . . . , Ck , Ck+1 , . . . , Cn ) y A0 = (C1 , . . . , Ck+1 , Ck , . . . , Cn ).

Mostraremos que deti (A) = − deti (A0 ). Para esto, consideremos la matriz auxiliar

A00 := (C1 , . . . , Ck + Ck+1 , Ck + Ck+1 , . . . , Cn )

donde en A substituimos la columna k por Ck + Ck+1 y lo mismo hicimos con la columna


k + 1. Entonces,

0 = deti (A00 ) por la propiedad 2


= deti (C1 , . . . , Ck , Ck , . . . , Cn ) + deti (C1 , . . . , Ck , Ck+1 , . . . , Cn )
+ deti (C1 , . . . , Ck+1 , Ck , . . . , Cn ) + deti (C1 , . . . , Ck+1 , Ck+1 , . . . , Cn )
(por la propiedad 1)
= deti (A) + deti (A0 ),

la última igualdad, por la propiedad 2 aplicada al primero y cuarto sumandos. 

Proposición 4.5 (Propiedad 5). Si en una matriz cuadrada A dos columnas cualesquiera
son iguales, entonces deti (A) = 0.

D EMOSTRACI ÓN . Se sigue de las propiedades 4 y 2. 

Proposición 4.6 (Propiedad 6). Si en una matriz cuadrada A una columna Ck se substituye
por la suma de un múltiplo escalar λCj de otra columna más la columna Ck , con j 6= k,
entonces el determinante no cambia.

D EMOSTRACI ÓN . Sean

A = (C1 , . . . , Ck , . . . , Cn ) y A0 = (C1 , . . . , λCj + Ck , . . . , Cn ).

Mostraremos que deti (A) = deti (A0 ). En efecto, como j 6= k, entonces

deti (A0 ) = deti (. . . , λCj + Ck , . . .)


= deti (. . . , λCj , . . .) + deti (. . . , Ck , . . .) por la propiedad 1
= λ deti (. . . , Cj , . . .) + deti (. . . , Ck , . . .) por la propiedad 1
= 0 + deti (A) (porque en la primera matriz hay dos columnas
iguales, a saber Cj en los lugares j y k)
= deti (A).

Proposición 4.7 (Propiedad 7). Si A = (C1 , . . . , Cn ) y las columnas son linealmente


dependientes, entonces deti (A) = 0.

D EMOSTRACI ÓN . Por hipótesis algún Ck es combinación lineal de los otros Cj , j 6= k,


digamos
X
Ck = λj Cj .
j6=k
108 4. DETERMINANTES

Se sigue que
deti (A) = deti (C1 , . . . , Ck , . . . , Cn )
X
= deti (C1 , . . . , λj Cj , . . . , Cn )
j6=k
X
= λj deti (C1 , . . . , Cj , . . . , Cn )
j6=k
= 0,
la última igualdad porque en las matrices involucradas las columnas de los lugares j y k
son iguales, con j 6= k. 

Nuestro objetivo ahora será mostrar que el determinante no depende del renglón i que
se usa para el desarrollo por menores. Suponiendo que ésto ya ha sido demostrado, pro-
baremos la regla de Cramer de importancia teórica y que solı́a tener importancia práctica
también para la solución de sistemas de ecuaciones lineales. Para facilidad de la notación,
en lo que sigue denotaremos por det(A) a det1 (A) (el determinante de A calculado por me-
nores a lo largo del primer renglón de A). En 4.18 mostraremos que deti (A) = det1 (A),
para todo i.

  Sea A = (C1 , . . . , Cn ) ∈ Matn×n (K) una matriz tal


Teorema 4.8 (Regla de Cramer).
b1
 .. 
que deti A 6= 0 y sea b =  . . Sean x1 , . . . , xn números indeterminados y considere-
bn
mos el sistema de ecuaciones lineales
(∗) x1 C1 + · · · + xn Cn = b.
Entonces, para cada j = 1, . . . , n, se tiene que
det(C1 , . . . , b, . . . , Cn )
xj = ,
det A
donde en la matriz del numerador b está en lugar de la columna Cj .
D EMOSTRACI ÓN . En el deteminante det(C1 , . . . , b, . . . , Cn ), substituyendo la columna b
por el sistema de ecuaciones (∗) en el lugar j, se obtiene
j j
z}|{ z }| {
det(C1 , . . . , b , . . . , Cn ) = det(C1 , . . . , x1 C1 + · · · + xn Cn , . . . , Cn )
j
z}|{
= x1 det(C1 , . . . , C1 , . . . , Cn ) + · · ·
j
z}|{
+ xj det(C1 , . . . , Cj , . . . , Cn ) + · · ·
j
z}|{
+ xn det(C1 , . . . , Cn , . . . , Cn )
= xj det(C1 , . . . , Cn )
= xj det A,
(porque sólo sobrevive el sumando donde en el lugar j está la columna Cj y los otros
sumandos son 0 ya que aparece una columna repetida). 
4.2. PERMUTACIONES Y DETERMINANTES 109

4.2. Permutaciones y determinantes


Si n ≥ 1 es un entero, denotemos con In := {1, 2, . . . , n} al subconjunto de los
números naturales del 1 al n. Diremos que In es un intervalo de naturales. Una función
biyectiva σ : In → In se llamará una permutación de In . Esta función la podemos repre-
sentar mediante el arreglo:
 
1 2 3 ··· n
σ=
σ(1) σ(2) σ(3) · · · σ(n)
donde debajo de cada natural x ∈ In hemos colocado su valor o imagen σ(x) ∈ In .
Ejemplo 4. Si n = 4, se tienen las permutaciones siguientes:
   
1 2 3 4 1 2 3 4
e= , σ= ,
1 2 3 4 1 2 4 3
   
1 2 3 4 1 2 3 4
τ= , ϑ= .
1 3 4 2 4 3 2 1
Note que una permutación α de I4 cambia de lugar los enteros 1, 2, 3, 4. Es decir, en la
notación de arriba, los enteros que aparecen en el renglón inferior son todos los números
enteros del 1 al 4, y aparecen una sóla vez. Lo anterior es sólo una reformulación del hecho
de que la permutación α es una función biyectiva, i.e., es inyectiva y suprayectiva.
Denotemos con Sn al conjunto de todas las permutaciones de In . Si σ, τ ∈ Sn , escri-
biendo estas funciones con su dominio y codominio
σ : In → In y τ : In → In
es claro que las podemos componer para obtener la función:
τ ◦ σ : In → In
dada por (τ ◦ σ)(x) := τ (σ(x)). Como τ y σ son biyectivas, la composición τ ◦ σ también
es biyectiva y ası́
τ ◦ σ ∈ Sn ,
es decir, la composición de funciones es una operación cerrada en Sn . Recordemos también
que la composición de funciones es asociativa en general. También, si
e = idn : In → In
es la función identidad dada por idn (x) := x, para cualquier x ∈ In , entonces idn es una
función biyectiva y por lo tanto idn ∈ Sn . Observe ahora que, para cualquier permutación
σ ∈ Sn , se tiene que idn ◦σ = σ ya que
(idn ◦σ)(x) = idn (σ(x)) = σ(x)
y similarmente se muestra que σ ◦ idn = σ. Finalmente, si σ ∈ Sn , como σ es biyectiva,
entonces tiene una función inversa σ −1 : In → In dada por
σ −1 (y) = x ⇔ σ(x) = y.
La función σ −1 ∈ Sn satisface que
σ ◦ σ −1 = idn y σ −1 ◦ σ = idn ,
es decir, σ −1 es la inversa de σ en Sn . Hemos ası́ mostrado que:
110 4. DETERMINANTES

Proposición 4.9. El conjunto Sn de funciones biyectivas de In en In es cerrado bajo la


composición de funciones y satisface las propiedades:
(1) e = idn ∈ Sn .
(2) Si σ ∈ Sn , entonces σ −1 ∈ Sn .

El conjunto Sn junto con la composición, (Sn , ◦), se llama el grupo simétrico en n
letras. Es conocido que hay n! funciones biyectivas de In en In y ası́ Sn es un conjunto
finito de cardinalidad |Sn | = n! = 1 · 2 · 3 · · · n (el factorial de n).
Ejemplo 5. Si n = 4, el grupo S4 tiene cardinalidad |S4 | = 4! = 1 · 2 · 3 · 4 = 24. La com-
posición de dos permutaciones en S4 es fácil, usando la notación introducida previamente,
para τ y ϑ como en el ejemplo 1. Por ejemplo, para las permutaciones
   
1 2 3 4 1 2 3 4
τ= y ϑ= ,
1 3 4 2 4 3 2 1
se tiene que
 
    1 2 3 4
1 2 3 4 1 2 3 4
τ ◦ϑ = ◦ = 4 3 2 1 
1 3 4 2 4 3 2 1
2 4 3 1
 
1 2 3 4
= ,
2 4 3 1
donde, en la segunda igualdad se calculó primero la acción de ϑ y luego la acción de τ ;
note que añadimos un renglón extra para hacer explı́citos los cálculos, por ejemplo, como
ϑ(2) = 3, entonces τ (ϑ(2)) = τ (3) = 4. La última igualdad elimina el renglón extra y
escribe en la notación usual al resultado de componer las permutaciones ϑ y τ .
Observe también que es fácil ver la inversa de una permutación, por ejemplo, si
 
1 2 3 4
τ=
1 3 4 2
la inversa se calcula leyendo el renglón inferior primero para que las imágenes sean los
valores en el primer rengón, y ası́ se obtiene:
 
1 2 3 4
τ −1 = .
1 4 2 3

Recordemos que la composición de funciones, en general, no es una operación con-


mutativa. El ejemplo siguiente ilustra ésto:
Ejemplo 6. Si n ≥ 3, en el grupo Sn la operación composición en general no es conmuta-
tiva. Por ejemplo, S3 es un grupo de orden 3! = 6 y sus elementos son:
     
1 2 3 1 2 3 1 2 3
id3 = , σ1 = , σ2 = ,
1 2 3 1 3 2 2 1 3
     
1 2 3 1 2 3 1 2 3
σ3 = , σ4 = , σ5 = ,
2 3 1 3 1 2 3 2 1
y observe que
     
1 2 3 1 2 3 1 2 3
σ4 σ1 = ◦ = = σ5
3 1 2 1 3 2 3 2 1
4.2. PERMUTACIONES Y DETERMINANTES 111

y      
1 2 3 1 2 3 1 2 3
σ1 σ4 = ◦ = = σ2
1 3 2 3 1 2 2 1 3
por lo que σ4 σ1 6= σ1 σ4 . Observe que este ejemplo sirve para cualquier n ≥ 3 (ejercicio
13).

El signo de una permutación. Si σ ∈ Sn es cualquier permutación e In es la matriz


identidad n × n, escribiendo a In en términos de sus columnas ej (que son los vectores
básicos canónicos de K n ):
In = (e1 , . . . , en )
y usando a σ podemos permutar las columnas de In definiendo
Inσ := (eσ(1) , . . . , eσ(n) )
y observamos que como Inσ sólo difiere de In en el orden en que aparecen sus columnas,
entonces
det(Inσ ) = ± det In = ±1.
Se define el signo de la permutación σ como
sgn(σ) := det(Inσ ).
Observe ahora que si A es cualquier matriz n × n tal que det A 6= 0, escribiendo A en
términos de sus columnas A = (C1 , . . . , Cn ) y definiendo (para σ ∈ Sn ):
Aσ := (Cσ(1) , . . . , Cσ(n) )
se tiene que:
Lema 4.10. Si A es cualquier matriz n × n tal que det A 6= 0 y si σ ∈ Sn es cualquier
permutación, entonces
sgn(σ) = det(Aσ )/ det(A).
D EMOSTRACI ÓN . Como Aσ y A sólo difieren en el orden en que aparecen sus columnas,
entonces det Aσ = ± det A. Observemos ahora que Aσ e Inσ se obtienen a partir de A e
In por medio de los mismos intercambios de columnas por lo que el cambio de signo en
det Aσ es el mismo que en det Inσ (que es sgn(σ)), es decir,
det Aσ = sgn(σ) det A.

Supongamos ahora que σ, θ ∈ Sn son dos permutaciones y consideremos su compo-
sición σ ◦ θ ∈ Sn (es decir, primero se aplica θ y luego se aplica σ). Entonces, para hacer
actuar la composición en las columnas de In , primero permutamos estas columnas usando
θ y a la matriz Inθ le permutamos sus columnas usando ahora a σ, es decir,
Inσ◦θ = (Inθ )σ = (eθ(1) , . . . , eθ(n) )σ = (eσθ(1) , . . . , eσθ(n) ).
Se tiene entonces que:
sgn(σ ◦ θ) = det(Inσθ ) por definición de signo
= det(Inθ )σ por la definición de la acción de una composición
= sgn(σ) det(Inθ ) por el lema anterior
= sgn(σ)sgn(θ) por definición de signo,
y hemos ası́ probado
112 4. DETERMINANTES

Lema 4.11. sgn(σθ) = sgn(σ)sgn(θ).



Observemos ahora que, como σ ◦ σ −1 = idn , entonces
1 = det(In ) = sgn(idn ) = sgn(σ)sgn(σ −1 )
y por lo tanto:
Corolario 4.12. sgn(σ −1 ) = sgn(σ).


Permutaciones pares e impares. Una permutación σ de Sn que intercambia dos elemen-


tos de In y deja fijos a los demás se llama una transposición. Si los elementos de In que se
intercambian son a y b, entonces la permutación τ : In → In correspondiente es la función

x si x 6= a, b

τ (x) = b si x = a

a si x = b.

Note la simplicidad de las transposiciónes, ya que sólo mueven dos elementos de In . Si


τ es una transposición de Sn que intercambia a a con b, la denotaremos por τ = (a, b).
Observe que la inversa de una transposición τ = (a, b), como permutación, es ella misma
ya que
τ τ (a) = τ (b) = a y τ τ (b) = τ (a) = b,
y los otros elementos z ∈ In están fijos bajo τ y consecuentemente bajo τ 2 también.
Hemos ası́ mostrado que τ 2 fija a todos los elementos de In y por lo tanto τ 2 = idn , i.e.,
τ −1 = τ . ¿Cuál es el signo de una transposición?
Proposición 4.13. Si τ ∈ Sn es una transposición, entonces sgn(τ ) = −1.
D EMOSTRACI ÓN . Supongamos que τ ∈ Sn intercambia a i con j (para i 6= j) y deja
fijos a los otros enteros de {1, . . . , n}. Sin perder generalidad, supongamos que i < j y
consideremos el determinante
i j
det(Inτ )
z}|{ z}|{
= det(eτ (1) , . . . , eτ (n) ) = det(. . . , ej , . . . , ei , . . .).
Si movemos a ej (intercambiándolo con la columna que tenga a la derecha) hasta
llevarlo al lugar adyacente a la izquierda de ei , esto involucra ` := j − i − 1 pasos. Des-
pués, intercambiando a ej con ei (lo cual se hace en un sólo paso), nos queda la matriz
i
(. . . , z}|{, . . . , ei , ej , . . .) por lo que para llevar a la columna ei al lugar i-ésimo que ocu-
paba al principio ej se necesitan sólo ` = j − i − 1 pasos. En total se usan ` + 1 + ` pasos
para poner a ei y ej en sus lugares correspondientes, de tal forma que

sgn(τ ) = det(Inτ ) = (−1)`+1+` det(In ) = −1.



La importancia de las transposiciones radica en el resultado siguiente:
Teorema 4.14. Toda permutación σ en Sn es producto de transposiciones.
4.2. PERMUTACIONES Y DETERMINANTES 113

D EMOSTRACI ÓN . Por inducción sobre n ≥ 1. Si n = 1 no hay nada que probar. Si n > 1,
sea σ ∈ Sn y escribamos σ(n) = k. Si k 6= n, sea τ ∈ Sn la transposición dada por

i si i 6= k, n,

τ (i) := n si i = k

k si i = n,

(es decir, τ intercambia k y n) y si k = n pongamos τ = idn . Entonces, la composición


τ ◦ σ deja fija a n por la que la podemos ver como una permutación en Sn−1 . Entonces,
por hipótesis de inducción existen transposiciones τ1 , . . . , τs en Sk−1 tales que
τ σ = τ1 ◦ · · · ◦ τ s
y por lo tanto
σ = τ −1 ◦ τ σ = τ −1 ◦ τ1 ◦ · · · ◦ τs = τ ◦ τ1 ◦ · · · ◦ τs
es decir, σ es producto de transposiciones como se querı́a. 
Corolario 4.15. Si σ ∈ Sn se expresa como producto de transposiciones
σ = τ1 ◦ · · · ◦ τk ,
k
entonces sgn(σ) = (−1) .
D EMOSTRACI ÓN . Por 4.11 y 4.13,
sgn(σ) = sgn(τ1 ◦ · · · ◦ τk ) = sgn(τ1 ) · · · sgn(τk ) = (−1) · · · (−1) = (−1)k .

Ası́, para calcular el signo de una permutación, expresamos a la permutación como
producto de transposiciones y luego contamos cuántas transposiciones hay. Si hay un
número par, entonces el signo es +1 y si hay un número impar el signo es −1. Note
sin embargo que la factorización del teorema anterior en general no es única. Por ejemplo,
(1, 2, 3) = (1, 3)(1, 2) = (2, 3)(1, 3) = (1, 3)(4, 2)(1, 2)(1, 4)
= (1, 3)(4, 2)(1, 2)(1, 4)(2, 3)(2, 3).
¿Qué es lo que no cambia en estas factorizaciones? El corolario anterior nos dice que lo
que no cambia es la paridad del número de transposiciones involucradas (en el ejemplo
anterior el número de transposiciones siempre es par). Una permutación σ ∈ Sn se dice
que es par si sgn(σ) = 1 y se dice que es impar si sgn(σ) = −1. El corolario anterior nos
dice que una permutación es par si y sólo si en su factorización aparece un número par de
permutaciones.

El resultado principal de esta sección nos da una fórmula para el determinante de una
matriz A = (aij ) en términos de los coeficientes aij , usando permutaciones de Sn , y que
no depende de la expansión en menores a lo largo de un renglón de A. Antes necesitaremos
un lema:
Lema 4.16. Sean v1 , . . . , vn vectores columna de K n y sea A = (aij ) una matriz n × n.
Pongamos
C1 = a11 v1 + · · · + an1 vn
..
.
Cn = a1n v1 + · · · + ann vn .
114 4. DETERMINANTES

Entonces,
X
det(C1 , . . . , Cn ) = sgn(σ)aσ(1),1 · · · aσ(n),n det(v1 , . . . , vn ).
σ∈Sn

D EMOSTRACI ÓN . Para calcular el determinante de la matriz (C1 , . . . , Cn ), substituimos


las columnas Cj por la combinación lineal correspondiente, usando la linealidad del deter-
minante con respecto a cada columna y notando que si se repiten columnas el determinante
correspondiente es 0 por lo que lss únicas combinaciones que sobreviven son aquellas cu-
yas columnas son distintas, el determinante de la queda:
det(C1 , . . . , Cn ) = det(a11 v1 + · · · + an1 vn , . . . , a1n v1 + · · · + ann vn )
X
= aσ(1),1 · · · aσ(n),n det(vσ(1) , . . . , vσ(n) )
σ∈Sn
X
= aσ(1),1 · · · aσ(n),n sgn(σ) det(v1 , . . . , vn ),
σ∈Sn

la última igualdad por el lema 4.10. 

El resultado principal es:


Teorema 4.17. Si A = (aij ) ∈ Matn×n (K), entonces
X
det(A) = sgn(σ)aσ(1),1 · · · aσ(n),n .
σ∈Sn

D EMOSTRACI ÓN . Si en el lema anterior ponemos vj = ej (los vectores columna canóni-


cos), entonces para A = (C1 , . . . , Cn ) se tiene que
C1 = a11 e1 + · · · + an1 en primera columna de A
..
.
Cn = a1n e1 + · · · + ann en n-ésima columna de A,
por lo que
det(A) = det(C1 , . . . , Cn )
X
= sgn(σ)aσ(1),1 · · · aσ(n),n det(e1 , . . . , en ) por el lema anterior
σ∈Sn
X
= sgn(σ)aσ(1),1 · · · aσ(n),n ya que det(e1 , . . . , en ) = 1.
σ∈Sn

Observe que la fórmula para det A del teorema anterior no depende del renglón en el
que se desarrolle por menores el determinante de A. Hemos ası́ probado:
Corolario 4.18. Si A = (aij ) ∈ Matn×n (K), entonces det1 (A) = deti (A), para todo i.


Una última observación: en la demostración de la fórmula para el determinante de A


en el teorema 4.17 sólo usamos que det(In ) = 1 y el lema 4.16, que a su vez sólo usó que
el determinante es una función lineal en cada columna y se anula cuando dos columnas son
iguales. Dicho en otras palabras:
4.3. PROPIEDADES DE LOS DETERMINANTES 115

Corolario 4.19. El determinante de una matriz A de tamaño n × n está unı́vocamente


determinado por las propiedades:
(1) El determinante es una función lineal de las columnas.
(2) Si dos columnas de A son iguales, entonces det A = 0.
(3) det(In ) = 1.


4.3. Propiedades de los determinantes


Usando las siete propiedades de los determinantes y la fórmula de Cramer probadas
en §4.1, y la fórmula para el determinante obtenida en §4.2, obtendremos en esta sección
las propiedades de los determinantes que usaremos en los capı́tulos siguientes. El primer
teorema que probaremos nos dice, en particular, que el desarrollo en menores para calcular
un determinante puede hacerse también por columnas:
Teorema 4.20. Si A = (aij ) ∈ Matn×n (K), entonces det(t A) = det(A).
D EMOSTRACI ÓN . Observe que, si σ ∈ Sn y σ(j) = k, entonces σ −1 (k) = j y ası́
aσ(j),k = ak,σ−1 (k)
y como {σ(1), . . . , σ(n)} = {1, . . . , n}, entonces cada producto
(∗) aσ(1),1 · · · aσ(n),n = a1,σ−1 (1) · · · an,σ−1 (n)
y ya que sgn(σ) = sgn(σ −1 ), se sigue que
X
det(A) = sgn(σ)aσ(1),1 · · · aσ(n),n por el teorema 4.17
σ∈Sn
X
= sgn(σ −1 )a1,σ−1 (1) · · · an,σ−1 (n) por (∗)
σ∈Sn
X
= sgn(σ −1 )a1,σ−1 (1) · · · an,σ−1 (n)
σ −1 ∈Sn

(ya que σ −1 recorre Sn cuando σ lo hace)


= det(t A).

Teorema 4.21 (Determinante de un producto). Si A y B son matrices n × n, entonces
det(AB) = det(A) det(B).
D EMOSTRACI ÓN . Si B = (bij ), pongamos A = (A1 , . . . , An ) con Aj las columnas de A.
Sea C = AB y pongamos C = (C1 , . . . , Cn ) con Cj las columnas de C. Entonces, para
 
b11 · · · b1k · · · b1n
(C1 , . . . , Cn ) = (A1 , . . . , An ) 
 .. 
. 
bn1 ··· bnk ··· bnn
por definición de producto se tiene que
Ck = b1k A1 + · · · + bnk An
116 4. DETERMINANTES

y ası́
det(AB) = det(C1 , . . . , Cn )
= det(b11 A1 + · · · + bn1 An , . . . , b1n A1 + · · · + bnn An )
X
= sgn(σ)bσ(1),1 · · · bσ(n),n det(A1 , . . . , An ) (por 4.16)
σ∈Sn
X
= det(A) sgn(σ)bσ(1),1 · · · bσ(n),n
σ∈Sn
= det(A) det(B).

Corolario 4.22 (Determinante de la inversa de una matriz). Si A ∈ Matn×n (K) es inver-
tible, entonces det(A−1 ) = (det A)−1 .
D EMOSTRACI ÓN . AA−1 = In y ası́ 1 = det In = det(A) det(A−1 ). 
Teorema 4.23. Si A ∈ Matn×n (K), entonces A es invertible si y sólo si det A 6= 0. Más
aún, si ej es el vector básico canónico visto como columna y si ponemos
det(C1 , . . . , ej , . . . , Cn )
bij =
det A
donde la columna ej está substituyendo a la columna Ci de A, entonces la inversa de A es
la matriz
A−1 = (bij ).
D EMOSTRACI ÓN . Si A es invertible, entonces det A 6= 0 por el corolario anterior. Recı́pro-
camente, si det A 6= 0, pongamos X = (xij ) con las xij indeterminadas y consideremos
el sistema de ecuaciones
(∗) AX = In .
Fijo el ı́ndice j, de la definición de producto de matrices y si A = (C1 , . . . , Cn ), el sistema
(∗) nos da las igualdades
x1j C1 + · · · + xnj Cn = ej
que es un sistema de n ecuaciones en n incógnitas que se puede resolver usando la regla
de Cramer, ya que det A 6= 0, para obtener
det(C1 , . . . , ej , . . . , Cn )
xij = ,
det A
donde la columna ej aparece en el lugar de la columna i de A. Ası́, con bij =: xij se
obtiene la matriz B = (bij ) tal que AB = In . Nos falta probar que BA = In . Para ésto,
observemos que como det(t A) 6= 0, aplicando el procedimiento anterior a la matriz t A,
existe una matriz C tal que t AC = In . Se sigue que In = t In = t (t AC) = t CA y ası́
In = t CA = t C(In )A = t C(AB)A = (t CA)(BA) = In (BA) = BA.


E JERCICIO 1. Una matriz cuadrada A se dice que es nilpotente si existe un entero k ≥ 1


tal que An = 0. Si A es nilpotente demuestre que det(A) = 0.

E JERCICIO 2. Una matriz A ∈ Matn×n (C) se dice que es semisimétrica si t A = −A. Si


A es semisimétrica y n es impar, demuestre que det(A) = 0. ¿Qué pasa si n es par?
4.3. PROPIEDADES DE LOS DETERMINANTES 117

E JERCICIO 3. Si A ∈ Matn×n (K) y λ ∈ K, demuestre que det(λA) = λn det(A).

E JERCICIO 4. Si A ∈ Matn×n (K) es triangular superior, i.e., si aij = 0 para toda i > j,
demuestre que det(A) = a11 · · · ann .

E JERCICIO 5. Sean α1 , . . . , αn ∈ K. Demuestre que


1 α1 α12 · · · α1n−1
 
1 α2 α22 · · · αn−1 
2 Y
det  . = (αj − αi )
 
 .. 
1≤i<j≤n
1 αn αn2 ··· αnn−1
donde a la derecha se tiene el producto de todos los términos (αj − αi ) con i < j enteros
del 1 al n. Sugerencia: Use inducción y para esto multiplique cada columna por α1 y el
resultado réstelo de la columna adyacente a la derecha. Demuestre que si Vn es el deter-
minante de la matriz n × n de la izquierda y si Vn−1 es el determinante de una matriz
(n − 1) × (n − 1) del mismo tipo, entonces
Vn = (αn − α1 ) · · · (α2 − α1 )Vn−1 .

 
A B
E JERCICIO 6. Si M es una matriz cuadrada n × n de la forma M = con A
0 Ik
una matriz cuadrada (n − k) × (n − k), Ik la matriz identidad k × k, B cualquier matriz
(del tamaño adecuado) y 0 una matriz cero adecuada, demuestre que det M = det A.
Sugerencia: use inducción sobre k, el tamaño de la matriz identidad.

E JERCICIO 7. Sea Sn el conjunto de permutaciones de {1, . . . , n}, para n ≥ 2. Sea An ⊆


Sn el subconjunto de permutaciones pares y sea Bn ⊆ Sn el subconjunto de permutaciones
impares. Sea τ ∈ Sn una transposición y considere al función φτ : An → Sn dada por
φ(σ) := τ ◦ σ.
(i) Si σ ∈ An (i.e., es par), demuestre que τ ◦ σ ∈ Bn es impar. Se sigue que φτ
induce una función φτ : An → Bn .
(ii) Demuestre que φτ : An → Bn es biyectiva.
(iii) Concluya que el número de permutaciones pares es igual al número de permuta-
ciones impares.

E JERCICIO 8. Sea A ∈ Matn×n (K) tal que det A 6= 0 y sea b = t (b1 , . . . , bn ) un vector
columna dado de K n . Sea X = t (x1 , . . . , xn ) un vector columna de incógnitas xj y
considere el sistema de ecuaciones lineales AX = b. Demuestre que este sistema tiene
solución única.

E JERCICIO 9. Si A es una matriz invertible, en la fórmula para bij del teorema 4.23 de-
muestre que el numerador es (−1)i+j det(Aji ), donde Aji es la matriz que se obtiene a
partir de A eliminando el renglón j y la columna i. Concluya que
!
−1 (−1)i+j det(Aij )
A = (bij ) = transpuesta de .
det A

E JERCICIO 10. Si A es una matriz triangular superior invertible, demuestre que A−1 tam-
bién es triangular superior.
118 4. DETERMINANTES

E JERCICIO 11. Sea A ∈ Matn×n (K). Demuestre que A es invertible si y sólo si el rango
de A es n.

E JERCICIO 12. Sea A ∈ Matn×n (K). Una submatriz de A es una matriz que se obtiene
eliminando (n − k) renglones y (n − k) columnas de A, para k entre 1 y n. Demuestre que
el rango de la matriz A es el mayor entero r, entre 1 y n, tal existe una submatriz de A con
determinante distinto de cero.

E JERCICIO 13. Use el ejemplo 6 para mostrar que la operación composición no es conmu-
tativa en Sn , para todo n ≥ 3.
Capı́tulo 5
Diagonalización
en un K-espacio vectorial de di-
C UANDO CONSIDERAMOS OPERADORES LINEALES
mensión finita n, es natural hacerse la pregunta ¿cuáles serán los operadores lineales
más sencillos? y una vez que tengamos una respuesta (o una idea para una respuesta), la
pregunta siguiente serı́a ¿qué tanto se parece un operador lineal arbitrario a uno de los
operadores lineales que consideramos sencillos?

Homotecias. De todos los operadores lineales en un K-espacio vectorial, los más sencillos
son de la forma siguiente: dado un escalar λ ∈ K, la función Fλ : V → V dada por
Fλ (v) := λv claramente es una aplicación lineal a la que llamaremos una homotecia.
Observe que si λ = 1, Fλ = idV y si λ = 0, entonces F0 = 0 es la función constante cero.
Si C = {v1 , . . . , vn } es una base de V , la matriz asociada a Fλ : V → V es de la forma
 
λ 0 ··· 0
 0 λ 0 ··· 
[Fλ ]B =  .
 
.. .. 
 .. . . 
0 ··· 0 λ

(una matriz cuadrada n × n, con el escalar λ repetido en la diagonal y ceros fuera de


la diagonal principal). Estas matrices son fáciles de operar, por ejemplo, Fλ : V → V
es un isomorfismo si y sólo si la matriz [Fλ ]B es invertible, lo cual sucede si y sólo si
λn = det[Fλ ]B 6= 0, i.e., si y sólo si λ 6= 0. También, la composición de dos homotecias
es una homotecia ya que
Fα ◦ Fβ = Fαβ

y, si λ 6= 0, la inversa de Fλ es Fλ−1 .

Matrices diagonales. Si λ1 , . . . , λn son escalares, una matriz diagonal n×n es una matriz
de la forma
 
λ1 0 · · · 0
 0 λ2 0 ··· 
diag(λi ) :=  .
 
. . . .. 
 . . . 
0 ··· 0 λn
con los escalares λi en la diagonal principal y ceros fuera de la diagonal. Ası́, las matrices
asociadas a homotecias son diagonales.
Si una matriz A no es diagonal, ¿cómo podemos diagonalizarla?, i.e., ¿cómo podemos
transformarla en una matriz diagonal?
119
120 5. DIAGONALIZACIÓN

5.1. Valores y vectores propios


Si A y B son dos matrices cuadradas n × n, decimos que A es similar a B si existe
una matriz invertible Q tal que A = Q−1 BA. Una matriz A se dice que es diagonalizable
si A es similar a una matriz diagonal.
Un operador lineal T : V → V en un K-espacio vectorial de dimensión finita n, se
dice que es diagonalizable si existe una base B de V tal que la matriz asociada a T en la
base B es diagonal. Si el espacio vectorial V tiene una base A y si T es diagonalizable,
i.e., si existe otra base B tal que T es diagonal en la base B, sea Q la matriz de cambio de
base, i.e., Q = [idV ]B A ; entonces

[T ]B = Q−1 [T ]A Q
y ası́ las matrices [T ]B y [T ]A son similares.
Teorema 5.1. Sea T : V → V un operador lineal en un K-espacio vectorial de dimensión
finita n. Entonces, T es diagonalizable si y sólo si existe una base B = {v1 , . . . , vn } de V
y escalares λ1 , . . . , λn (no necesariamente distintos), tales que
T (vj ) = λj vj para todo j = 1, . . . , n
y por lo tanto
 
λ1 0 ··· 0
 0 λ2 0 ··· 
[T ]B =  .
 
.. .. ..
 . . . 
0 ··· 0 λn
D EMOSTRACI ÓN . Si T es diagonalizable, existe una base B = {v1 , . . . , vn } de V tal que
[T ]B = (dij ) es una matriz diagonal, i.e., dii = λi y dij = 0 si i 6= j. Entonces, para cada
vj ∈ B se tiene que
Xn
T vj = dij vi = djj vj = λj vj .
i=1
Recı́procamente, si T vj = λj vj para cada j, la matriz asociada a T es la matriz
diagonal con los λj en la diagonal principal. 

Observe que en el teorema anterior cada vj es miembro de una base B y por lo tanto
vj 6= 0; además el vector vj satisface que existe un escalar λj ∈ K tal que T vj = λj vj .
Esto motiva la definición siguiente:
Definición 5.2. Sea T : V → V un operador lineal en un K-espacio vectorial V . Un
vector v 6= 0 de V se dice que es un vector propio de T si existe un escalar λ ∈ K tal que
T v = λv. El escalar λ se llama entonces un valor propio del operador T correspondiente
al vector propio v 6= 0. Si A ∈ Matn×n (K), un vector propio de A con valor propio λ, es
un vector propio del operador lineal TA : K n → K n con valor propio λ.
Con esta terminologı́a el teorema anterior se lee:

Teorema 5.1∗ . Sea T : V → V un operador lineal en un K-espacio vectorial de dimen-


sión finita n. Entonces, T es diagonalizable si y sólo si existe una base B = {v1 , . . . , vn }
de V consistente de vectores propios de T y si λ1 , . . . , λn son los valores propios corres-
pondientes a los vectores vj , entonces [T ]B = diag(λj ). 
5.1. VALORES Y VECTORES PROPIOS 121

 
1 3
Ejemplo 1. Sean V = R2 y A = . Para la transformación lineal asociada TA :
4 2
R2 → R2 dada por
    
x 1 3 x
TA = ,
y 4 2 y

(1). Si v1 = (1, −1), entonces TA (v1 ) = TA (1, −1) = (−2, 2) = −2(1, −1) = −2v1 , por
lo que v1 es un valor propio de A y λ1 = −2 es el valor propio correspondiente.
(2). Si v2 = (3, 4), entonces TA (v2 ) = TA (3, 4) = (15, 20) = 5(3, 4) = 5v2 , por lo que
v2 es un valor propio de A y λ2 = 5 es el valor propio correspondiente.
(3). Note que B = {v1 , v2 } es una base de R2 consistente de vectores propios y con valores
propios λ1 = −2 y λ2 = 5. Del teorema anterior se sigue que
 
−2 0
[T ]B = .
0 5
Como la matriz de cambio de base, de la base canónica A = {e1 , e2 } a B es
 
1 3
,
−1 4
 
−1 −2 0
entonces Q AQ = .
0 5

Ejemplo 2. Sea V el R-espacio vectorial de todas las funciones f : R → R que tienen


derivadas de todos los órdenes y sea D : V → V la función dada por D(f ) = f 0 (la
derivada de f ). De los cursos de Cálculo sabemos que D es un operador lineal y queremos
determinar sus valores y vectores propios. Supongamos entonces que f ∈ V es un vector
propio de D con valor propio λ ∈ R. Entonces f 0 = Df = λf , es decir, tenemos la
ecuación diferencial f 0 = λf cuyas soluciones son de la forma f (t) = Ceλt , para alguna
constante C. Se sigue que todo real λ es un valor propio de D y los vectores propios
correspondientes son las funciones f (t) = Ceλt , para C 6= 0. Observe que para λ = 0 los
vectores propios correspondientes son las funciones constantes f (t) = C 6= 0.

En general, ¿cómo podemos calcular los valores propios de un operador lineal T :


V → V en un K-espacio vectorial de dimensión finita n? Para ésto, recordemos que para
el operador T se tiene que dimK V = dim ker T + dim Im T y por lo tanto:
(1) Si T : V → V es inyectivo entonces dimV = dimK Im T y por lo tanto T es supra-
yectivo.
(2) Recı́procamente, si T : V → V es suprayectivo, entonces dimK Im T = dimK V y
ası́ ker T = {0} y por lo tanto T es inyectivo.
Es decir,
(3) T : V → V es un isomorfismo ⇔ T es inyectiva ⇔ T es suprayectiva.
En particular, T : V → V no es un isomorfismo ⇔ ker T 6= {0}.
Usando estas observaciones obtenemos un método para calcular los valores propios
de T :
122 5. DIAGONALIZACIÓN

Teorema 5.3. Sea T : V → V un operador lineal en un K-espacio vectorial de dimensión


finita n. Entonces, un escalar λ ∈ K es un valor propio de T si y sólo si el operador lineal
(T − λ idV ) : V → V no es un isomorfismo, i.e., si y sólo si det[T − λ idv ] = 0 (en
cualquier base de V ).
D EMOSTRACI ÓN . Si λ es un valor propio de T , entonces existe un vector v 6= 0 en V tal
que T v = λv y ası́ T v − v = 0, i.e., (T − λ idV )v = 0 por lo que v ∈ ker(T − λ idV ) y
por lo tanto ker(T − λ idV ) 6= {0} y ası́ (T − λ idV ) no es inyectiva.
Recı́procamente, si (T − λ idV ) no es invertible, entoces no es inyectiva, i.e., ker(T −
λ idV ) 6= {0} y por lo tanto existe v 6= 0 en ker(T − λ idV ), i.e., v satisface que (T −
λ idV )v = 0, i.e., T v = λv. 
Corolario 5.4. Sea A ∈ Matn×n (K). Entonces, un escalar λ ∈ K es un valor propio de
A si y sólo si det(A − λIn ) = 0.
D EMOSTRACI ÓN . Directo de las definiciones y del teorema anterior. 
Definición 5.5. Si A es una matriz n × n con entradas en el campo K, el polinomio
det(A − tIn ) se llama el polinomio caracterı́stico de A. Note que det(A − tIn ) ∈ K[t] es
un polinomio, en la variable t, con coeficientes en el campo K. Denotemos este polinomio
por φA (t) y observe que su grado es n con coeficiente de grado el término (−1)n .
Corolario 5.6. Sea A ∈ Matn×n (K) y si φA (t) = det(A − tIn ), entonces:
(1) λ ∈ K es un valor propio de A si y sólo si λ es raı́z del polinomio caracterı́stico
φA (t).
(2) La matriz A tiene a lo más n valores propios.
D EMOSTRACI ÓN . Directo de las definiciones y del corolario anterior. 
 
2 1 1
Ejemplo 3. Encuentre los vectores propios en R de la matriz A = .
4 1
(1) El polinomio caracterı́stico de A es:
 
1−t 1
φA (t) = det(A − tI2 ) = det = (1 − t)2 − 4 = t2 − 2t − 3
4 1−t
cuyas raı́ces son λ1 = 3 y λ2 = −1 y ası́ éstos son los valores propios de A.
(2) Para el valor propio λ1 = 3, para hallar los vectores propios correspondientes conside-
remos la matriz
   
1−3 1 −2 1
A − λ1 I2 = A − 3I2 = = .
4 1−3 4 −2
Entonces, v = (x, y) ∈ R2 es un vector propio correspondiente al valor propio λ1 = 3 si
y sólo si v 6= 0 y v ∈ ker(A − 3I2 ), i.e., si y sólo si v 6= 0 y
    
−2 1 x 0
= ,
4 −2 y 0
i.e., v debe ser una solución no trivial del sistema de ecuaciones
−2x + y =0
.
4x − 2y =0
Para resolver este sistema usamos el método de Gauss
     
−2 1 −2 1 1 −1/2
∼ ∼
4 −2 0 0 0 0
5.1. VALORES Y VECTORES PROPIOS 123

 
−2 1
y ası́ el espacio de soluciones, i.e., ker tiene dimensión 1 (ya que la matriz
4 −2
tiene rango 1); poniendo y = t obtenemos x − (1/2)t = 0 por lo que x = (1/2)t, y por lo
tanto las soluciones del sistema anterior son los vectores de la forma
v = (x, y) = ((1/2)t, t) = t(1/2, 1) = t(1, 2) con t ∈ R.
Ası́, los vectores propios de A con valor propio λ1 = 3 son los vectores de la forma
v = t(1, 2) con t ∈ R \ {0}.

(3) Para el valor propio λ2 = −1, consideremos la matriz


   
1+1 1 2 1
A − λ2 I2 = A + I2 = = .
4 1+1 4 2
Entonces, v = (x, y) ∈ R2 es un vector propio correspondiente al valor propio λ2 = −1
si y sólo si v 6= 0 y v ∈ ker(A + I2 ), i.e., si y sólo si v 6= 0 y
    
2 1 x 0
= ,
4 2 y 0
i.e., v debe ser una solución no trivial del sistema de ecuaciones
2x + y =0
.
4x + 2y =0
Para resolver este sistema usamos el método de Gauss
     
2 1 2 1 1 1/2
∼ ∼
4 2 0 0 0 0
 
2 1
y ası́ el espacio de soluciones, i.e., ker tiene dimensión 1 (ya que la matriz tiene
4 2
rango 1); poniendo y = r obtenemos x + (1/2)r = 0 por lo que x = −(1/2)r, y por lo
tanto las soluciones del sistema anterior son los vectores de la forma
v = (x, y) = (−(1/2)r, t) = r(−1/2, 1) = r(1, −2) con r ∈ R.
Ası́, los vectores propios de A con valor propio λ2 = −1 son los vectores de la forma
v = r(1, −2) con r ∈ R \ {0}.

(4) Observe ahora que el conjunto B = {(1, 2), (1, −2)} es una base de R2 consistente
de vectores propios de A; por el teorema 1’ se sigue que A es diagonalizable y la matriz
diagonal similar a A tiene en su diagonal a los valores propios correspondientes, i.e.,
   
1 1 3 0
A= ∼ .
4 1 0 −1
Finalmente, viendo a la matriz A como una transformación lineal TA : R2 → R2
considerando la base canónica A = {e1 , e2 } de R2 , al diagonalizarA usandola base
1 1
B = {(1, 2), (1, −2)}, el cambio de base está dado por la matriz Q = .
2 −2
124 5. DIAGONALIZACIÓN

Supongamos ahora que se tiene un operador lineal T : V → V en un K-espacio


vectorial de dimensión finita n. Si A y B son bases de V , sea Q la matriz de cambio de
base y sea λ ∈ K. Entonces,
[T − λ idV ]B = Q−1 [T − λ idV ]A Q
por lo que
det[T − λ idV ]B = det (Q[T − λ idV ]A Q) = det(Q−1 ) det[T − λ idV ]A det(Q)
= det[T − λ idV ]A .
Se sigue que el polinomio caracterı́stico de la matriz asociada al operador T en cual-
quier base de V no depende de esta base y por lo tanto tiene sentido hablar del polinomio
caracterı́stico del operador T .
Observe también que si T : V → V es un operador lineal y v 6= 0 es un vector
propio de T y si λ, λ0 ∈ K son dos valores propios del vector propio v 6= 0, i.e., si
T v = λv = λ0 v, entonces (λ − λ0 )v = 0 con v 6= 0 y consecuentemente λ − λ0 = 0, i.e.,
λ = λ0 por lo que asociado al vector propio v hay un único valor propio λ.
Teorema 5.7. Sea T : V → V un operador lineal en un K-espacio vectorial V . Sea
λ ∈ K y sea
Eλ (T ) := {todos los vectores propios de T con valor propio λ} ∪ {0}.
Entonces, Eλ (T ) es un subespacio vectorial de V , y de hecho,
Eλ (T ) = ker(T − λ idV ).
Eλ (T ) se llama el subespacio propio de V correspondiente al valor propio λ de T .
D EMOSTRACI ÓN . Por definición 0 ∈ Eλ (T ) y si u, v ∈ Eλ (T ), entonces T u = λu y
T v = λv por lo que
T (u + v) = T u + T v = λu + λv = λ(u + v)
y consecuentemente u + v ∈ Eλ (T ). Finalmente, si v ∈ Eλ (T ) y a ∈ K, entonces
T v = λv, por lo que
T (av) = aT v = a(λv) = λ(av)
y ası́ av ∈ Eλ (T ). 

El teorema anterior nos dice, en particular, que si v1 , v2 fueran dos vectores propios
correspondientes al mismo valor propio λ, entonces v1 + v2 también es un vector propio
de T , correspondiente al valor propio λ. Sin embargo, si v1 fuera un vector propio corres-
pondiente al valor propio λ1 y v2 fuera un vector propio correspondiente al valor propio
λ2 y si λ1 6= λ2 , entonces v1 + v2 no es vector propio de T . Más aún, se tiene el resultado
siguiente:
Teorema 5.8. Sea T : V → V un operador lineal en un K-espacio vectorial V . Sean
v1 , . . . , vn vectores propios de T con valores propios λ1 , . . . , λn , respectivamente. Supon-
gamos además que λ1 , . . . , λn son distintos. Entonces los vectores propios v1 , . . . , vn son
linealmente independientes.
D EMOSTRACI ÓN . Por inducción sobre el número n de vectores propios considerados. Si
n = 1, v1 6= 0 es linealmente independiente. Supongamos válido el resultado para n − 1 y
consideremos una combinación lineal
(∗) a1 v1 + · · · + an vn = 0.
5.1. VALORES Y VECTORES PROPIOS 125

Mostraremos que todos los ai = 0. En efecto, multiplicando (∗) por λ1 obtenemos


(1) a1 λ1 v1 + a2 λ1 v2 + · · · + an λ1 vn = 0
y aplicando T a (∗) obtenemos
a1 T v1 + a2 T v2 + · · · + an T vn = 0,
i.e.,
(2) a1 λ1 v1 + a2 λ2 v2 + · · · + an λn vn = 0.
Restando (1) y (2) se obtiene
(3) a2 (λ2 − λ1 )v2 + · · · + an (λn − λ1 )vn = 0
y como por hipótesis de inducción los n − 1 vectores propios v2 , . . . , vn son linealmente
independientes, la igualdad (3) implica que
(4) a2 (λ2 − λ1 ) = · · · = an (λn − λ1 ) = 0
y como λk − λ1 6= 0 para todo k ≥ 2, entonces (4) implica que
a2 = · · · = an = 0
lo cual substituido en (∗) implica que a1 v1 = 0 con v1 6= 0 por lo que a1 = 0 también. 
Corolario 5.9. Sea T : V → V un operador lineal en un K-espacio vectorial V de
dimensión finita n. Si T tiene n valores propios distintos, entonces T es diagonalizable.
D EMOSTRACI ÓN . Por el teorema anterior T tiene n vectores propios linealmente indepen-
dientes que por lo tanto forman una base de V y por el teorema 1’ esto implica que T es
diagonalizable. 

Observación. El corolario anterio nos da una condición suficiente para la diagonalizabi-


lidad de un operador lineal T . Sin embargo la condición no es necesaria, por ejemplo si
A = In es la matriz identidad n × n, entonces obviamente A es diagonalizable (de hecho,
es diagonal) pero su único valor propio es λ = 1.
Corolario 5.10. Sea T : V → V un operador lineal en un K-espacio vectorial V de
dimensión finita n. Si T es diagonalizable, entonces el polinomio caracterı́stico φT (t) de
T se descompone en factores lineales en K[t].
D EMOSTRACI ÓN . Como T es diagonalizable, existe una base B de V tal que [T ]B =
diag(λ1 , . . . , λn ). Entonces, el polinomio caracterı́stico
 
λ1 − t 0 ··· 0
 0 λ2 − t 0 ··· 
φT (t) = det([T ]B − tIn ) = det 
 
.. .. .. 
 . . . 
0 ··· 0 λn − t
= (λ1 − t)(λ2 − t) · · · (λn − t) = (−1)n (t − λ1 )(t − λ2 ) · · · (t − λn ). 

Ejemplo 4. Sea Rθ : R2 → R2 el operador lineal que rota un vector v de R2 un ángulo θ.


En la base canónica de R2 la matriz asociada a Rθ es
 
cos θ − sen θ
[Rθ ] =
sen θ cos θ
126 5. DIAGONALIZACIÓN

y ası́, para v = (x, y) ∈ R2 se tiene que


    
cos θ − sen θ x x cos θ − y sen θ
Rθ (v) = = .
sen θ cos θ y x sen θ + y cos θ

(1) Supongamos ahora que 0 < θ < π y observemos que si v 6= 0, entonces los vectores
0, v, Rθ (v) no son colineales:

6Rθ (v)

*v


◦
 -
0

y ası́, como los subespacios de dimensión 1 de R2 son las rectas por el origen, entonces
ninguno de estos espacios queda invariante bajo la acción de Rθ . Esto implica que si
W = {λv : λ ∈ R, v 6= 0}
es uno de estos subespacios de dimensión 1, entonces para cualquier w 6= 0 en W se tiene
que Rθ (w) 6∈ W , i.e., Rθ (w) 6= λv; en particular Rθ (v) 6= λv (para v 6= 0). Se sigue que
Rθ no tiene vectores propios (y por lo tanto no tiene valores propios). Otra forma de ver lo
anterior es considerando el polinomio caracterı́stico de Rθ :
 
cos θ − t − sen θ
φ(t) = det[Rθ − tI2 ] = det
sen θ cos θ − t
= (cos θ − t)2 + sen2 θ = cos2 θ − 2t cos θ + t2 + sen2 θ
= t2 − (2 cos θ)t + 1,
donde observamos que el discriminante del polinomio cuadrático anterior es
∆ = b2 − 4ac = 4 cos2 θ − 4
el cual es negativo ya que 0 < θ < π implica que | cos θ| < 1 por lo que 4 cos2 θ − 4 < 0.
Ası́, φ(t) no tiene raı́ces reales, i.e., Rθ no tiene valores propios reales y por lo tanto no es
diagonalizable.

Si T : V → V es un operador lineal en K-espacio vectorial de dimensión finita n,


entonces su polinomio caracterı́stico φT (t) tiene grado n y ası́, contando sus multiplici-
dades, φT (t) tiene a lo más n-raı́ces y por lo tanto T tiene a lo más n valores propios. Si
λ ∈ K es un valor propio de T con multiplicidad m ≥ 1, los dos teoremas siguientes
relacionan la dimensión del espacio propio correspondiente con la multiplicidad del valor
propio y con la diagonalizabilidad del operador T . El lema siguiente generaliza el ejercicio
6 del capı́tulo 4 y nos será útil tanto para el primer teorema que probaremos, como para la
sección sobre espacios invariantes.
 
A B
Lema 5.11. Si M ∈ Matn×n (K) es de la forma M = con A y C matri-
0 C
ces cuadradas, 0 una matriz cero y B una matriz, ambas de tamaño adecuado, entonces
det M = det A det C.
5.1. VALORES Y VECTORES PROPIOS 127

D EMOSTRACI
 ÓN . Por inducción sobre el tamaño k de la matriz C. Si k = 1, entonces
A B
A= , con B una matriz columna (n − 1) × 1. Desarrollando det M por menores
0 c
a lo largo del último renglón queda
det M = (−1)n+n c · det A = det C · det A
ya que C = (c) por lo que det C = c, y al eliminar el último renglón se elimina la matriz
renglón 0 (que es 1 × (n − 1)) y la matriz columna B (que es (n − 1) × 1).
Supongamos ahora que el resultado es válido para  matricesde la forma considerada
A B
y donde el tamaño de la matriz C es < k. Sea M = con C una matriz k ×
0 C
k; entonces, desarrollando por menores a lo largo del último renglón que es de la forma
n−k
z }| {
(0, . . . , 0, ck,1 , . . . , ck,k ), queda:
(∗) det M = (−1)n+n−k+1 ck,1 det Mk,1 + · · · + (−1)n+n−k+k ck,k det Mk,k
donde Mk,j es la matriz que se obtiene eliminando de M el renglón y columna correspon-
dientes al término ck,j . Observemos que cada Mk,j es una matriz de la forma
 
A Bj
Mk,j =
0 Cj
con Cj una matriz (k − 1) × (k − 1). Aplicando la hipótesis de inducción se tiene que
det Mk,j = det A det Cj y substituyendo en (∗) obtenemos que
det M = (−1)n+n−k+1 ck,1 det A det C1 + · · · + (−1)n+n−k+k ck,k det A det Ck
= det A (−1)−k+1 ck,1 det C1 + · · · + (−1)−k+k ck,k det Ck
 

= det A (−1)k+1 ck,1 det C1 + · · · + (−1)k+k ck,k det Ck


 

(ya que −k + j ≡ k + j (mód 2))


= det A det C.

Teorema 5.12. Sea T : V → V un operador lineal en K-espacio vectorial de dimensión
finita n y sea λ ∈ K un valor propio de T con multiplicidad m ≥ 1. Sea Eλ (T ) el espacio
propio correspondiente. Entonces,
1 ≤ dimK Eλ (T ) ≤ m.
D EMOSTRACI ÓN . Como Eλ (T ) ⊆ V , si {v1 , . . . , vr } es una base de Eλ (T ), podemos
extender este conjunto a una base de V , digamos B = {v1 , . . . , vr , vr+1 , . . . , vn }. Sea
A = [T ]B y recordando que los vi , para 1 ≤ i ≤ r, son vectores propios de T con valor
propio λ, entonces la matriz A es de la forma
 
λIr B
A=
0 C
con C una matriz cuadrada (n − r) × (n − r). Se sigue que el polinomio caracterı́stico de
A es de la forma
   
λIr − tIr B (λ − t)Ir B
φT (t) = det[A − tIn ] = det = det
0 C − tIn−r 0 C − tIn−r
= det[(λ − t)Ir ] det[C − tIn−r ] = (λ − t)r φC (t)
128 5. DIAGONALIZACIÓN

y por lo tanto (λ − t)r divide a φT (t) por lo que la multiplicidad m de λ es al menos r,


i.e., m ≥ r = dimK (Eλ (T ), como se querı́a. 

En general, puede tenerse la desigualdad estricta dimK Eλ (T ) < m, como lo muestra


el ejemplo siguiente:

Ejemplo 5. Sea T : C2 → C2 el operador


 lineal T (w, z) = (z, 0). En la base canónica de
2 0 1
C la matriz asociada a T es [T ] = cuyo polinomio caracterı́stico es φT (t) = t2 y
0 0
ası́ T tiene un único valor propio λ = 0 con multiplicidad m = 2. Sin embargo, el espacio
propio correspondiente Eλ (T ) = ker(T ) = {(w, 0) : w ∈ C} tiene dimensión 1.

El teorema siguiente nos dice lo que sucede cuando se tiene la igualdad


dimK Eλ (T ) = multiplicidad de λ,
para todos los valores propios λ de T . Antes, necesitaremos dos lemas.
Lema 5.13. Sea T : V → V un operador lineal en K-espacio vectorial de dimensión
finita n. Sean λ1 , . . . , λk todos los valores propios distintos de T . Para cada i = 1, . . . , k
sea vi ∈ Eλi (T ). Si v1 + · · · + vk = 0, entonces vi = 0 para toda i.
D EMOSTRACI ÓN . Si sucediera lo contrario, renumerando los vectores si hiciera falta po-
demos suponer que v1 , . . . , vs son 6= 0 y vs+1 = · · · = vk = 0. Entonces, para 1 ≤ i ≤ s
los vi son vectores propios de T con valores propios λi , respectivamente, y se tiene que
v1 + · · · + vs = 0, en contradicción con el teorema 5.8. 
Lema 5.14. Sea T : V → V un operador lineal en K-espacio vectorial de dimensión
finita n. Sean λ1 , . . . , λk todos los valores propios distintos de T . Para cada i = 1, . . . , k
sea Bi un subconjunto linealmente independiente de Eλi (T ). Entonces, B = B1 ∪ · · · ∪ Bk
es un subconjunto linealmente independiente de V .
D EMOSTRACI ÓN . Pongamos Bi = {vi,1 , . . . , vi,ni }, de tal forma que
B = {vij : 1 ≤ i ≤ k, 1 ≤ j ≤ ni }.
Si se tuviera una combinación lineal
X ni
k X
(∗) aij vij = 0,
i=1 j=1
ni
X
para cada i pongamos wi = aij vij ∈ Eλi (T ); entonces la combinación lineal (∗) la
j=1
k
X
podemos escribir como wi = 0, con los wi ∈ Eλi (T ). Por el lema anterior se debe
i=1
tener que wi = 0, para todo i, y como los Bi son linealmente independientes, de la igualdad
ni
X
0 = wi = aij vij se sigue que aij = 0, para todo j y todo i, como se querı́a. 
j=1

Teorema 5.15. Sea T : V → V un operador lineal en K-espacio vectorial de dimensión


finita n. Supongamos que el polinomio caracterı́stico φT de T se descompone en factores
lineales en K[t] y sean λ1 , . . . , λk todos los valores propios distintos de T . Entonces, T es
diagonalizable si y sólo si dimK Eλi (T ) = multiplicidad de λi , para todo i.
5.2. SUBESPACIOS INVARIANTES Y SUBESPACIOS CÍCLICOS 129

D EMOSTRACI ÓN . Pongamos mP i = la multiplicidad de λi y di = dimK Eλi (T ). Observe


r
que n = dimK V = gr(φT ) = i=1 mi .
Si T es diagonalizable, entonces existe una base B de V consistente de vectores
propios de T . Sean Bi = B ∩ Eλi (T ) y ni = |Bi |; entonces, cada Bi es linealmen-
te independiente y por lo tanto ni ≤ dimK Eλi (T ) = di . Ahora, por el teorema 5.11,
dimK Eλi (T ) ≤ mi y ası́ ni ≤ di ≤ mi . Se sigue que
r
X r
X r
X
n= ni ≤ di ≤ mi = n
i=1 i=1 i=1

por lo que todas necesariamente di = mi , para toda i.


Supongamos ahora que di = mi para toda i. Sea Bi una base de Eλi (T ) y sea B =
B1 ∪ · · · ∪ Br . Por el lema 5.13 B es linealmente independiente y como di = mi y ya que
Bi ∩ Bj = ∅, para i 6= j, entonces
r
X r
X r
X
|B| = |Bi | = di = mi = n
i=1 i=1 i=1

por lo que B es una base de V y como está formada por vectores propios de T , se sigue
que T es diagonalizable. 

5.2. Subespacios invariantes y subespacios cı́clicos


Si T : V → V es un operador lineal y v ∈ V es un vector propio de T , el subespacio
generado por v, W = hvi = K(v) satisface que T (W ) ⊆ W . En efecto, si w = av ∈ W ,
entonces T w = aT v = aλv = (aλ)v ∈ W (donde λ es el valor propio de v).
Definición 5.16. Si T : V → V es un operador lineal, diremos que un subespacio W ⊆ V
es invariante bajo T o que es T -invariante, si T (W ) ⊆ W , i.e., si T w ∈ W para todo
w ∈ W.

Ejemplo 6. Sea T : V → V cualquier operador lineal. El subespacio {0} ⊆ V es T -


invariante claramente. Lo mismo para el subespacio total V ⊆ V . El núcleo ker T ⊆ V
también es T -invariante ya que T (ker T ) = {0} ⊆ V . También, la imagen Im T ⊆ V es
T -invariante ya que si w ∈ Im T ⊆ V entonces T w ∈ Im T .

Ejemplo 7. La observación del inicio de esta sección es cierta en general: si T : V → V


es cualquier operador lineal y λ es un valor propio
P de T , el espacio propio Eλ (T ) es T -
invariante ya que si w ∈ Eλ (T ), entonces w = ai vi con ai ∈ K y los vi ∈ V vectores
propios de T correspondientes al valor propio λ. Se tiene entonces que
X X X
Tw = ai T vi = ai (λvi ) = λ ai vi = λw
por lo que T w es un vector propio de T (si es 6= 0) con valor propio λ, i.e., T w ∈ Eλ (T ).

Ejemplo 8. Sea T : R3 → R3 el operador dado por T (a, b, c) = (a + b, b + c, 0) y sea W el


plano XY , i.e., W = {(x, y, 0) ∈ R3 }. Entonces W es T -invariante. Lo mismo es cierto
si tomamos para el subespacio dado por el eje X.

Una familia importante de subespacios T -invariantes es la de los subespacios T -cı́cli-


cos:
130 5. DIAGONALIZACIÓN

Definición 5.17. Sea T : V → V un operador lineal y sea v ∈ V cualquier vector no nulo


de V . Sea W el subespacio generado por los vectores v, T v, T 2 v, T 3 v, . . . Claramente W
es T -invariante y se llama el subespacio T -cı́clico generado por v.
Observación. El subespacio T -cı́clico generado por v es el menor subespacio T -invariante
que contiene a v. En efecto, si W 0 ⊆ V es cualquier subespacio T -invariante que contiene
a v, entonces T v ∈ W 0 y ası́ T 2 v ∈ W 0 , etcétera. Ası́, todos los generadores de W están
en W 0 y por lo tanto W 0 ⊆ W .

Ejemplo 9. Sea T : R3 → R3 el operador dado por T (a, b, c) = (−b + c, a + c, 3c) y


sea e1 = (1, 0, 0) ∈ R3 . Queremos determinar el subespacio T -cı́clico generado por e1 .
Para esto observamos que T e1 = T (1, 0, 0) = (0, 1, 0) = e2 y T 2 e1 = T (0, 1, 0) =
(−1, 0, 0) = −e1 por lo que (
k ±e1
T e1 =
±e2
y ası́ W = R(e1 , T e1 , T 2 e1 , . . .) = R(e1 , e2 ) es el plano XY .

Observación. Si T : V → V es un operador lineal y W ⊆ V es T -invariante, entonces la


restricción de T a W es un operador lineal
TW = T |W : W → W
y como tal hereda algunas de las propiedades de T :
Teorema 5.18. Sea T : V → V un operador lineal en un K-espacio vectorial de dimen-
sión finita n y sea W ⊆ V un subespacio T -invariante. Entonces, el polinomio carac-
terı́stico φTW de la restricción de T a W divide al polinomio caracterı́stico φT de T .
D EMOSTRACI ÓN . Escojamos una base B = {w1 , . . . , wr } de W y extendámosla a una
base de T , digamos C = {w1 , . . . , wr , vr+1 , . . . , vn }. Entonces,
 
[TW ]B B
[T ]C =
0 C
donde [TW ]B es r × r, B es r × (n − r), C es (n − r) × (n − r) y 0 es una matriz cero de
tamaño adecuado. Entonces,
 
([TW ]B − t idV ) B
φT (t) = det
0 (C − t idV )
= det([TW ]B − t idV ) det(C − t idV )
= φTW (t)h(t), (donde h(t) = det(C − t idV )),
i.e., φTW (t)|φT (t). 
Teorema 5.19. Sea T : V → V un operador lineal en un K-espacio vectorial de dimen-
sión finita n y sea W el subespacio T -cı́clico generado por un vector v 6= 0 en V . Sea
r = dimK W . Entonces, {v, T v, T 2 v, . . . , T r−1 v} es base de W .
D EMOSTRACI ÓN . Como v 6= 0, entonces {v} es linealmente independiente. Sea k ≥ 1
el mayor entero tal que B = {v, T v, T 2 v, . . . , T k−1 v} es linealmente independiente. Tal
k existe porque V es de dimensión finita. Sea U ⊆ W el subespacio generado por B, de
tal forma que B es base de U porque es linealmente independiente y genera. Observe que
T k v ∈ U ya que v, T v, T 2 v, . . . , T k−1 v, T k v es linealmente dependiente, por la maxima-
lidad de k, y por lo tanto T k v es necesariamente combinación lineal de los otros vectores,
5.2. SUBESPACIOS INVARIANTES Y SUBESPACIOS CÍCLICOS 131

y por lo tanto T k v ∈ U . Se sigue que U es T -invariante ya que si u ∈ U es cualquier


vector, escribiéndolo en términos de la base B,

u = b0 v + b1 T v + · · · + bk−1 T k−1 v

se tiene que T u = b0 T v + b1 T 2 v + · · · + bk−1 T k v ∈ U . Ahora, como W es el menor


subespacio T -invariante de V tal que v ∈ W y como v ∈ U y U es T -invariante, se sigue
que W ⊆ U y por lo tanto W = U , como se querı́a. 

Observación. ¿Si W = K(v, T v, T 2 v, . . . , T k−1 v) es el subespacio T -cı́clico anterior,


cómo es la matriz asociada al operador TW : W → W en la base v, T v, T 2 v, . . ., T k−1 v?
Calculando,

TW (v) = Tv = 0v + 1T v + 0T 2 v + · · · + 0T k−1 v
TW (T v) = T 2v = 0v + 0T v + 1T 2 v + · · · + 0T k−1 v
TW (T 2 v) = T 3v = 0v + 0T v + 0T 2 v + 1T 3 v + · · · + 0T k−1 v
..
.
TW (T k−2 v) = T k−1 v = 0v + 0T v + 0T 2 v + · · · + 1T k−1 v
TW (T k−1 v) = T kv = −a0 v − a1 T v − a2 T 2 v − · · · = ak−1 T k−1 v

por lo que
 
0 0 ··· 0 −a0
1 0 · · · 0 −a1 
 
[TW ]B = 0 1 · · · 0 −a2
 

 .. .. .. 
. . . 
0 0 ··· 1 −ak−1

y ası́ también podemos calcular su polinomio caracterı́stico:

Teorema 5.20. Sea T : V → V un operador lineal en un K-espacio vectorial de dimen-


sión finita n. Sean W ⊆ V el subespacio T -cı́clico generado por un v 6= 0, k = dimK W
y B = {v, T v, . . . , T k−1 v} la base anterior de W . Entonces, el polinomio caracterı́stico
de TW es
φTW (t) = (−1)k (a0 + a1 t + · · · + ak−1 tk−1 + tk ).

D EMOSTRACI ÓN . Lo demostraremos por inducción sobre k. Para k = 1 es trivial. Ahora,


por definición
 
−t 0 ··· 0 −a0
1
 −t ··· 0 −a1

0 1 ··· 0 −a2
φTW (t) = det([TW ]B − tIk ) = det  .
 
.. ..
 ..

 . .

0 0 ··· −t −ak−2 
0 0 ··· 1 (−t − ak−1 )

y expandiendo por menores a lo largo del primer rengón obtenemos


132 5. DIAGONALIZACIÓN

 
−t 0 ··· 0 −a1
1
 −t ··· 0 −a2 

φTW (t) = (−t) det  ... .. ..
 
 . . 

0 0 ··· −t −ak−2 
0 0 ··· 1 (−t − ak−1 )
 
1 −t · · · 0 0
0
 1 ··· 0 0 
+ (−1)k+1 (−a0 ) det 0
 0 1 · · · 0 
 .. .. .. 
. . .
0 0 ··· 0 1
k−1
= (−t)(−1) (a1 + a2 t + · · · + ak−1 tk−2 + tk−1 ) + (−1)k+2 a0 (1)
(por hipótesis de inducción y porque la segunda matriz es triangular)
= (−1)k (a1 t + a2 t2 + · · · + ak−1 tk−1 + tk ) + (−1)k a0
= (−1)k (a0 + a1 t + a2 t2 + · · · + ak−1 tk−1 + tk ).


5.3. Polinomios de matrices y de operadores


Si A ∈ Matn×n (K) y n ≥ 0 es un entero, se definen las potencias
A0 = In y An := An−1 · A si n ≥ 1.
Es fácil probar (ejercicio 29) la regla de los exponentes: si m, n ≥ 0 son enteros, entonces
Am+n = Am An .
Ahora, si a ∈ K es un escalar y Ak es la potencia k-ésima de una matriz cuadrada A,
entonces se tienen definidos los productos aAk y por lo tanto, si
f (t) = a0 + a1 t + a2 t2 + · · · + an tn ∈ K[t]
es un polinomio con coeficientes aj ∈ K, y si A ∈ Matn×n (K) es una matriz cuadrada
con entradas en K, se define
f (A) := a0 In + a1 A + a2 A2 + · · · + an An
de tal forma que f (A) ∈ Matn×n (K).
Lema 5.21. Sean A ∈ Matn×n (K) y f (t), g(t) ∈ K[t]. Entonces,
(1) (f + g)(A) = f (A) + g(A).
(2) (f · g)(A) = f (A)g(A).
D EMOSTRACI ÓN . (1): Si (f + g)(t) = (a0 + b0 ) + (a1 + b1 )t + · · · + (aj + bj )tj + · · · ,
entonces
(f + g)(A) = (a0 + b0 )In + (a1 + b1 )A + · · · + (aj + bj )Aj + · · ·
= (a0 + a1 A + · · · + aj Aj + · · · ) + (b0 + b1 A + · · · + bj Aj + · · · )
= f (A) + g(A).
La parte (2) se demuestra en forma similar. 
5.3. POLINOMIOS DE MATRICES Y DE OPERADORES 133

Si T : V → V es un operador lineal en un K-espacio vectorial, se definen las poten-


cias
T 0 = idV y T n := T n−1 ◦ T (composición de operadores) si n ≥ 1.
Es sencillo probar (ejercicio 30) la regla de los exponentes: T m ◦T n = T m+n , si m, n ≥ 0
son enteros. Si
f (t) = a0 + a1 t + a2 t2 + · · · + an tn ∈ K[t]
es un polinomio con coeficientes aj ∈ K, y si T : V → V es un operador lineal, se define
f (T ) := a0 idV +a1 T + a2 T 2 + · · · + an T n
de tal forma que f (T ) : V → V es un operador lineal.
Lema 5.22. Sean T : V → V un operador lineal y f (t), g(t) ∈ K[t]. Entonces,
(1) (f + g)(T ) = f (T ) + g(T ).
(2) (f · g)(T ) = f (T ) ◦ g(T ) (composición de operadores).
D EMOSTRACI ÓN . La parte (1) se demuestra en forma similar a la del lema anterior. Para
la parte (2), si f (t) = a0 + a1 t + · · · + am tm y g(t) X
= b0 + b1 t + · · · + bn tn , entonces
k
f (t)g(t) = c0 + c1 t + · · · + ck t + · · · donde ck = ai bj . Se sigue que
i+j=k

(f · g)(A) = c0 idV +c1 T + · · · + ck T k + · · ·


 X 
= (a0 b0 ) idV +(a0 b1 + a1 b0 )A + · · · + ai bj T i ◦ T j + · · ·
i+j=k

= (a0 idV +a1 T + · · · + ai T + · · · ) ◦ (b0 idV +b1 T + · · · + bj T j + · · · )


i

= f (T ) ◦ g(T ).

Proposición 5.23. Sea T : V → V un operador lineal en un K-espacio vectorial de
dimensión finita n. Sea B una base de V y sea A = [T ]B . Si f (t) ∈ K[t], entonces
[f (T )]B = f (A).
D EMOSTRACI ÓN . Sabemos que [idV ]B = In y por hipótesis [T ]B = A. Por otra parte,
[T 2 ]B = [T ]B [T ]B = AA = A2 . Por inducción se sigue que [T k ]B = Ak y el resultado es
entonces inmediato. 

Gracias a esta proposición, lo que digamos de un polinomio de una matriz cuadrada


es válido si lo enunciamos para el operador lineal correspondiente y viceversa. Ası́, en
ocasiones sólo formularemos el resultado para una de estas instancias.
Teorema 5.24. Sea A una matriz n × n con entradas en K. Entonces, existe un polinomio
no nulo f (t) ∈ K[t] tal que f (A) = 0.
D EMOSTRACI ÓN . El K-espacio vectorial Matn×n (K) tiene dimensión n2 y ası́, para
cualquier m > n2 las m matrices In , A, A2 , . . . , Am son linealmente independientes en
Matn×n (K), i.e., existen escalares aj ∈ K, no todos cero, tales que
a0 In + a1 A + a2 A2 + · · · + am Am = 0
por lo que el polinomio f (t) := a0 +a1 t+a2 t2 +· · ·+am tm ∈ K[t] tiene algún coeficiente
aj 6= 0 y satisface lo requerido. 
134 5. DIAGONALIZACIÓN

Observación. Si el coeficiente de grado am 6= 0, dividiendo el polinomio f (t) entre am


obtenemos un polinomio g(t) ∈ K[t] con coeficiente de grado 1, i.e., de la forma
g(t) = tm + bm−1 T m1 + · · · + b1 t + b0 ∈ K[t]
y tal que g(A) = 0. A un polinomio con coeficiente de grado 1 se le llama un polino-
mio mónico. Hemos ası́ mostrado que si A ∈ Matn×n (K), entonces existe un polinomio
mónico g(t) ∈ K[t] tal que g(A) = 0. Por el principio del buen orden, existe un polinomio
mónico de menor grado g(t) ∈ K[t] tal que g(A) = 0. A un tal polinomio se le llama un
polinomio mı́nimo de A.
Lema 5.25. Sea A ∈ Matn×n (K). Entonces, el polinomio mı́nimo de A es único.
D EMOSTRACI ÓN . Supongamos que p(t) y q(t) son dos polinomios mı́nimos de A; enton-
ces p(t) y q(t) son del mismo grado, digamos m, y si
p(t) = tm + am−1 tm−1 + · · · + a1 t + a0 y q(t) = tm + bm−1 tm−1 + · · · + b1 t + b0
entonces, para r(t) = p(t) − q(t) = (a0 − b0 ) + (a1 − b1 )t + · · · + (am−1 − bm−1 )tm−1
(ya que los términos de grado se eliminan) se tiene que gr(r(t)) < m ó r(t) = 0 y además
r(A) = p(A) − q(A) = 0 − 0 = 0,
y ası́ r(t) = 0 por la minimalidad del grado de p y q. Por lo tanto p(t) = q(t) como se
querı́a. 
Proposición 5.26. Sea A ∈ Matn×n (K) y sea pA (t) el polinomio mı́nimo de A. Si f (t) ∈
K[t] es cualquier polinomio tal que f (A) = 0, entonces pA (t) divide a f (t).
D EMOSTRACI ÓN . Usando el algoritmo de la división en K[t], dividimos f (t) entre pA (t)
para obtener
(∗) f (t) = pA (t)q(t) + r(t) con r(t) = 0 ó gr(r(t)) < gr(pA (t).
Si sucediera que r(t) 6= 0, entonces de (∗) se tendrı́a que
0 = f (A) = pA (A)q(A) + r(A) = 0 · q(A) + r(A) = r(A)
por lo que r(A) = 0 con gr(r(t)) < gr(pA (t), en contradicción con la minimalidad del
grado de pA (t). 
Teorema 5.27 (Hamilton-Cayley). Sea T : V → V un operador lineal en un K-espacio
vectorial de dimensión finita n y sea φT (t) el polinomio caracterı́stico de T . Entonces,
φT (T ) = 0.
D EMOSTRACI ÓN . Mostraremos que φT (T )v = 0 para todo v ∈ V . Si v = 0 esto es obvio
porque φT (T ) es lineal. Supongamos entonces que v 6= 0 y sea W el subespacio T -cı́clico
generado por v. Sea r = dimK W . Como v, T v, T 2 v, . . . , T r−1 v es una base de W , para
el vector T r v ∈ W existen escalares a0 , a1 , . . . , ar−1 tales que
(1) T r v = −a0 v − a1 T v − a2 T 2 v − · · · − ar−1 T r−1 v
y el polinomio caracterı́stico del operador TW : W → W es
(2) φTW (t) = (−1)r [a0 + a1 t + a2 t2 + · · · + ar−1 tr−1 + tr ]
r−1
de tal forma que φTW (TW ) = (−1)r [a0 idW +a1 TW + a2 TW
2
+ · · · + ar−1 TW r
+ TW ]
por lo que
φTW (T )v = (−1)r [a0 v + a1 T v + a2 T 2 v + · · · + ar−1 T r−1 v + T r v] = 0
5.3. POLINOMIOS DE MATRICES Y DE OPERADORES 135

por (1) y (2). Finalmente, como φTW divide a φT , se sigue que φT (t) = q(t)φTW (t) por
lo que φT (T ) = q(T ) ◦ φTW (T ) y ası́
φT (T )v = q(T ) (φTW (T )v) = q(T )(0) = 0,
como se querı́a. 
Corolario 5.28. Sea T : V → V un operador lineal en un K-espacio vectorial de dimen-
sión finita n y sean φT (t) el polinomio caracterı́stico de T y pT (t) su polinomio mı́nimo.
Entonces, pT (t) divide a φT (t).
D EMOSTRACI ÓN . En general pT (t) divide a cualquier polinomio que se anula en T . 

Sabemos que los valores propios de un operador lineal T (en un espacio de dimensión
finita) son las raı́ces de su polinomio caracterı́stico. El resultado siguiente nos dice que son
las raı́ces de su polinomio mı́nimo.
Teorema 5.29. Sea T : V → V un operador lineal en un K-espacio vectorial de di-
mensión finita n y sea pT (t) el polinomio mı́nimo de T . Entonces, un escalar λ ∈ K es
un valor propio de T si y sólo si λ es raı́z de pT (t). Es decir, el polinomio mı́nimo y el
polinomio caracterı́stico de T tienen las mismas raı́ces.
D EMOSTRACI ÓN . Como pT divide a φT , φT (t) = q(t)pT (t) y ası́ todo cero de pT es cero
de φT . Recı́procamente, si λ es un cero de φT (t) y v es un vector propio correspondiente
a λ, entonces usando que T v = λv y como pT (T )v = 0, escribiendo pT (t) = a0 + a1 t +
· · · + ar−1 tr−1 + tr , se tiene que

0 = pT (T )v
= (a0 idV +a1 T + · · · + ar−1 T r−1 + T r )v
= a0 idV v + a1 T v + · · · + ar−1 T r−1 v + T r v
= a0 v + a1 λv + · · · + ar−1 λr−1 v + λr v
(ya que, por inducción T k v = λk v)
= (a0 + a1 λ + · · · + ar−1 λr−1 + λr )v
= pT (λ) · v,
y como v 6= 0, la igualdad 0 = pT (λ)v implica que pT (λ) = 0, como se querı́a. 
 
4 1 0
Ejemplo 10. Si A = 0 1 0, su polinomio caracterı́stico es
1 1 4
 
4−t 1 0
φA (t) = det  0 1−t 0  = (4 − t)(1 − t)(4 − t) = −(t − 4)2 (t − 1)
1 1 4−t
por lo que su polinomio mı́nimo es f (t) = (t − 4)2 (t − 1) ó g(t) = (t − 4)(t − 1). Para
ver cuál de estas dos posibilidades es la correcta, observamos que
    
0 1 0 3 1 0 0 0 0
g(A) = 0 −3 0 0 0 0 = 0 0 0
1 1 0 1 1 3 3 1 0
por lo que necesariamente el polinomio mı́nimo es pA (t) = (t − 4)2 (t − 1).
136 5. DIAGONALIZACIÓN

 
1 4
Ejemplo 11. Si A = , su polinomio caracterı́stico es
2 8
 
1−t 4
φA (t) = det = (1 − t)(8 − t) − 8 = t(t − 8)
2 8−t
por lo que su polinomio mı́nimo es pA (t) = φA (t).

Observación. Como pT |φT hay dos casos extremos:


(1) Que tengan el mismo grado. En este caso ambos polinomios tienen las mismas raı́ces y
las multiplicidades también son iguales; por lo tanto
φT (t) = (−1)n pT (t).
El teorema siguiente nos da un caso cuando ocurre ésto.
(2) El otro caso extremo es cuando el grado de pT es el mı́nimo posible, i.e., cuando
pT (t) = (t − λ1 ) · · · (t − λr )
con λ1 , . . . , λr todos los valores propios distintos de T . El segundo teorema que probare-
mos a continuación nos dice lo que sucede en este caso.
Teorema 5.30. Sea T : V → V un operador lineal en un K-espacio vectorial de dimen-
sión finita n. Supongamos que V es T -cı́clico. Entonces, el polinomio caracterı́stico φT y
el polinomio mı́nimo pT tienen el mismo grado y por lo tanto
φT (t) = (−1)n pT (t).
D EMOSTRACI ÓN . Por hipótesis existe un v ∈ V tal que B = {v, T v, T 2 v, . . . , T n−1 v}
es una base de V . Entonces, para todo polinomio g(t) ∈ K[t] de grado k < n, digamos
g(t) = a0 + a1 t + · · · + ak tk (con ak 6= 0), se tiene que
g(T )v = a0 v + a1 T v + a2 T 2 v + · · · + ak T k v
es decir, g(T )v es combinación lineal de elementos de B con el coeficiente ak 6= 0, y ası́,
como B es linealmente independiente, se debe tener que g(T )v 6= 0 por lo que la aplicación
lineal g(T ) 6= 0. En particular, el polinomio mı́nimo pT (t) no puede tener grado < n (ya
que se anula en T ) y por lo tanto gr(pT ) = n = gr(φT ). 

El teorema anterior nos da una condición para la cual el grado del polinomio mı́nimo
pT es el mayor posible. Por otra parte, sabemos que gr(pT ) ≥ el número de los valores pro-
pios distintos de T y el teorema siguiente nos dice lo que pasa cuando se tiene la igualdad,
i.e., cuando gr(pT ) = el número de raı́ces de φT :
Teorema 5.31. Sea T : V → V un operador lineal en un K-espacio vectorial de di-
mensión finita n. Entonces, T es diagonalizable si y sólo si el polinomio mı́nimo es de la
forma
pT (t) = (t − λ1 ) · · · (t − λk )
donde λ1 , . . . , λk son todos los valores propios distintos de T .
D EMOSTRACI ÓN . Supongamos que T es diagonalizable y sean λ1 , . . . , λk los valores pro-
pios distintos de T . Pongamos f (t) = (t − λ1 ) · · · (t − λk ). Como los λi son raı́ces de
pT , entonces f (t)|pT (t). Como T es diagonalizable, existe una base B = {v1 , . . . , vn } de
V consistende de vectores propios de T . Ası́, para cada vj ∈ B existe un valor propio λi
5.3. POLINOMIOS DE MATRICES Y DE OPERADORES 137

tal que T vj = λi vj , es decir, (T − λi idV )vj = 0. Ahora, como (t − λi )|f (t), entonces
f (t) = qi (t)(t − λi ) por lo que
f (T )vj = qi (T )((T − λi idV )vj ) = qi (0) = 0, para todo vj ∈ B,
de donde se sigue que f (T )v = 0 para todo v ∈ V ya que B es base de V . Se sigue que
f (T ) = 0 y por el teorema x.x esto implica que pT (t)|f (t) y como f (t)|pT (t), se sigue
que f (t) = pT (t).
Supongamos ahora que pT (t) = (t − λ1 ) · · · (t − λk ). Mostraremos que T es diagona-
lizable por inducción sobre n = dimK V . Si n = 1 no hay nada que probar. Supongamos
ahora que la restricción TW es diagonalizable para todo subespacio T -invariante de V de
dimensión < n. Para el valor propio λk , sea W := Im(T −λk idV ) ⊆ V y observemos que
W $ V ya que, para el valor propio λk existe un vector propio v 6= 0 en ker(T − λk idV )
por lo que (T − λk idV ) no es un isomorfismo y por lo tanto no es suprayectivo (para ope-
radores ser isomorfismo es equivalente a ser inyectivo o a ser suprayectivo) y ası́ su imagen
no es todo V . Ahora, si W = 0, se tendrı́a entonces que T = λk idV y por lo tanto T serı́a
diagonal. Supongamos entonces que W 6= 0. Claramente W es T -invariante (ver x.xx) y
ası́ por hipótesis de inducción la restricción TW : W → W es diagonalizable y por lo
tanto existe una base de W formada por vectores propios de TW (y consecuentemente de
T ), digamos B 0 = {w1 , . . . , wr }. Sea Vλk (T ) = ker(T − λk idV ) ⊆ V , el espacio propio
correspondiente a λk y sea B 00 = {v1 , . . . , vm } una base de Vλk (T ). Observemos ahora
que para todo w ∈ W = Im (T − λk idV ) se tiene que w = (T − λk idV )v con v ∈ V por
lo que si calculamos la composición
(T − λ1 idV ) · · · ◦ (T − λk−1 idV )w = (T − λ1 idV ) · · · (T − λk−1 idV )(T − λk idV )v
= pT (T )v = 0,
ya que pT (T ) = 0. Se sigue que el polinomio (t − λ1 ) · · · (t − λk−1 ) se anula en TW y por
lo tanto el polinomio mı́nimo de TW divide a (t − λ1 ) · · · (t − λk−1 ) y consecuentemente
λk no es raı́z de pTW , i.e., no es valor propio de TW . Se sigue que W ∩ Vλk (T ) = {0} y
ası́ B 0 ∩B00 = ∅. Mostraremos ahora que B = B 0 ∪B00 es base de V y para ésto, observemos
primero que
n = dimK V = dimK ker(T − λk idV ) + dimK Im(T − λ1 idV )
= dimK Vλk (T ) + dimK W = m + r
entonces basta mostrar que B es linealmente independiente. Esto último es directo, si
aw1 + · · · + ar wr + b1 v1 + · · · + bm vm = 0
| {z } | {z }
w v

entonces w ∈ W y v ∈ V son tales que w + v = 0 y ası́ w = −v ∈ W ∩ Vλk (T ) = {0}


por lo que w = 0 = v y como B 0 y B 00 son linealmente independientes, las igualdades
anteriores implican que ai = 0 y bj = 0, para toda i y j. Se sigue que B es base de V con
los wi vectores propios de TW (y por lo tanto de T ) y los vj ∈ Vλk (T ) ( y por lo tanto
vectores propios de T ), i.e., B es una base de V consistente de vectores propios de T y
consecuentemente T es diagonalizable. 
 
4 1 0
Ejemplo 12. La matriz A = 0 1 0 del ejemplo 10 no es diagonalizable porque su
1 1 4
polinomio mı́nimo pA (t) = (t − 4)2 (t − 1) tiene raı́ces múltiples.
138 5. DIAGONALIZACIÓN

 
4 1 0
Ejemplo 13. La matriz A = 0 1 0 tiene polinomio caracterı́stico
1 1 3
 
4−t 1 0
φA (t) = det  0 1−t 0  = (4 − t)(1 − t)(3 − t) = −(t − 4)(t − 1)(t − 3)
1 1 3−t
por lo que su polinomio mı́nimo pA (t) = (t − 4)(t − 1)(t − 3) no tiene raı́ces múltiples y
por lo tanto A es diagonalizable.

El teorema anterior determina el polinomio mı́nimo de un operador lineal diagona-


lizable. En el capı́tulo siguiente veremos la forma que tiene el polinomio mı́nimo de un
operador lineal no diagonalizable en dos casos generales: en el primero cuando el polino-
mio caracterı́stico se descompone en K[t] y en el segundo cuando no se descompone en
factores lineales en K[t].

E JERCICIO 1. Considere las matrices siguientes:


 
1 2
(a) A= ∈ Mat2×2 (R)
3 2
 
0 −2 −3
(b) A = −1 1 −1 ∈ Mat3×3 (R)
2 2 5
 
2 0 −1
(c) A = 4 1 −4 ∈ Mat2×2 (R)
2 0 −1
 
i 1
(d) A= ∈ Mat2×2 (C)
2 −i
(i) Calcule sus valores propios.
(ii) Para cada uno de sus valores propios calcule el espacio propio correspondiente.
(iii) En cada caso determine si existe una base de K n consistente de vectores propios.
(iv) Si es ası́, diagonalize la matriz correspondiente y encuentre la matriz Q tal que
Q−1 AQ = diag(λi ).

E JERCICIO 2. Sea T : P2 (R) → P2 (R) la función dada por T (f (x)) := f (x) + xf 0 (x).
(i) Muestre que T es un operador lineal.
(ii) Encuentre los valores propios de T .
(iii) Encuentre una base B de P2 (R) tal que [T ]B es diagonal.

E JERCICIO 3. Sea T : V → V un operador lineal en un K-espacio vectorial de dimensión


finita. Demuestre que T es invertible si y sólo si λ = 0 no es un valor propio de T .

E JERCICIO 4. Sea T : V → V un operador lineal invertible en un K-espacio vectorial


de dimensión finita. Demuestre que λ ∈ K es un valor propio de T si y sólo si λ−1 es un
valor propio de T −1 .
5.3. POLINOMIOS DE MATRICES Y DE OPERADORES 139

E JERCICIO 5. Si A = (aij ) es una matriz n × n triangular superior, demuestre que los


valores propios de A son las entradas en su diagonal principal.

E JERCICIO 6. Si A es una matriz n × n similar a λIn con λ ∈ K, demuestre que A = λIn .

E JERCICIO 7. Si A es una matriz n × n que tiene un único valor propio, demuestre que
A = λIn .

E JERCICIO 8. Si A es una matriz n × n, demuestre que A y t A tienen el mismo polinomio


caracterı́stico y por lo tanto tienen los mismos valores propios.

E JERCICIO 9. Sea A ∈ Matn×n (K) y sea


φA (t) = (−1)n tn + an−1 tn−1 + · · · + a1 t + a0 ∈ K[t]
su polinomio caracterı́stico.
(i) Demuestre que a0 = det(A). Concluya que A es invertible si y sólo si a0 6= 0.
(ii) Compare con el ejercicio 3 y explique.
(iii) Demuestre que Tr(A) = (−1)n−1 an−1 .

E JERCICIO 10. Sea T : Matn×n (K) → Matn×n (K) la función dada por T (A) = t A.
(i) Demuestre que T es un operador lineal.
(ii) Demuestre que los únicos valores propios de T son ±1.
(iii) Describa los vectores propios correspondientes a cada valor propio de T .
(iv) Encuentre una base de Mat2×2 (R) donde T sea diagonal.
(v) Encuentre una base de Matn×n (R) donde T sea diagonal.

E JERCICIO 11. Sea F2 = Z/2Z = {0, 1} el campo con dos elementos.


(i) Liste todas las matrices en Mat2×2 (F2 ).
(ii) Calcule sus polinomios caracterı́sticos.

E JERCICIO 12. Sea A ∈ Matn×n (K) y sea


φA (t) = (−1)n tn + an−1 tn−1 + · · · + a1 t + a0 ∈ K[t]
su polinomio caracterı́stico. Demuestre que si A es invertible (de acuerdo al ejercicio 9(i)
esto es equivalente a que a0 6= 0), entonces
 −1 
A−1 = (−1)n An−1 + an−1 An−2 + · · · + a1 In .

a0

E JERCICIO 13. Use el ejercicio anterior para calcular A−1 si


 
1 2 1
A = 0 2 3  .
0 0 −1

E JERCICIO 14. Si A ∈ Matn×n (K) tiene dos valores propios λ1 6= λ2 y además la


dimensión de Eλ1 (K) es n − 1, demuestre que A es diagonalizable.

E JERCICIO 15. Sea T : V → V un operador lineal invertible en un K-espacio vectorial


de dimensión finita. Suponga que los valores propios distintos de T son λ1 , . . . , λr con
140 5. DIAGONALIZACIÓN

multiplicidades m1 , . . . , mr , respectivamente. Suponga que B es una base de V tal que


[T ]B es una matriz triangular superior. Demuestre que las entradas diagonales de [T ]B son
los λi repetidos con su multiplicidad.

E JERCICIO 16. Para cada uno de los operadores lineales T siguientes, determine si el
subespacio W dado es o no T -invariante.
(i) T : P3 (R) → P3 (R) dado por T (f ) = f 0 y W = P2 (R).
(ii) T : R[x] → R[x] dado por T (f (x)) = xf (x) y W = P2 (R).
(iii) T : R3 → R3 dado por T (a, b, c) = (a + b + c, a + b + c, a + b + c) y
W = {(t, t, t) : t ∈ R}.
Z 1 
(iv) T : C([0, 1], R) → C([0, 1], R) dado por T (f (t)) = f (x)dx · t y W =
0
{f ∈ C([0, 1], R) : f (t) = at + b para a, b ∈ R}.
(v) T : Mat2×2 (R) → Mat2×2 (R) dado por
 
0 1
T (A) = · A y W = {A ∈ Mat2×2 (R) : t A = A}.
1 0

E JERCICIO 17. Sea T : V → V un operador lineal y sea W ⊆ V un subespacio T -


invariante. Demuestre que W es f (T )-invariante para todo f (t) ∈ K[t].

E JERCICIO 18. Sea T : V → V un operador lineal. Demuestre que la intersección de


cualquier familia de subespacios T -invariantes de V es un subespacio T -invariante.

E JERCICIO 19. Sean L, T : V → V operadores lineales en un K-espacio vectorial de


dimensión finita tales que conmutan, i.e., L ◦ T = T ◦ L.
(i) Si λ es un valor propio de L y Eλ (L) es el subespacio propio correspondiente,
demuestre que Eλ (L) es T -invariante.
(ii) Demuestre que L y T tienen un vector propio en común.

E JERCICIO 20. Para cada operador lineal T : V → V y para el vector v ∈ V dado,


encuentre una base para el subespacio cı́clico generado por el vector v.
(i) T : R4 → R4 dado por T (a, b, c, d) = (a + b, b − c, a + c, a + d) y v = e1 .
(ii) T : P3 (R) → P3 (R) dado por T (f ) = f 00 y v = x3 .  
0 1
(iii) T : Mat2×2 (R) → Mat2×2 (R) dado por T (A) = t A y v = .
1 0
(iii) T : P2 (R) → P2 (R) dado por T (f ) = f 0 + 2f y v = x2 .

E JERCICIO 21. Sea T : V → V un operador lineal en un espacio vectorial de dimensión


2. Demuestre que V es T -cı́clico o T = α · idV , para algún escalar α ∈ K.

E JERCICIO 22. Sea T : V → V un operador lineal en un espacio vectorial de dimensión


finita n. Demuestre que V es T -cı́clico si y sólo si cada subespacio propio Eλ (T ) tiene
dimensión 1.

E JERCICIO 23. Sea T : V → V un operador lineal en un espacio vectorial de dimensión


finita n. Si T tiene n valores propios distintos, demuestre que V es T -cı́clico.

E JERCICIO 24. Encuentre el polinomio mı́nimo de cada una de las matrices siguientes:
5.3. POLINOMIOS DE MATRICES Y DE OPERADORES 141

 
2 1
(i) A = .
1 2
1 1
(ii) A = .
0 1
 
4 −14 5
(iii) A = 1 −4 2
1 −6 4

3 0 1
(iv) A =  2 2 2
−1 0 1

E JERCICIO 25. Encuentre el polinomio mı́nimo de cada uno de los operadores siguientes:
(i) T : R2 → R2 dado por T (x, y) = (x + y, x − y).
(ii) T : P2 (R) → P2 (R) dado por T (f ) = f 0 + 2f .
(iii) T : P2 (R) → P2 (R) dado por T (f (t)) = −tf 00 (t) + f 0 (t) + 2f (t).
(iv) T : Matn×n (R) → Matn×n (R) dado por T (A) = t A. Note que T 2 = id.

E JERCICIO 26. En los dos ejercicios anteriores, determine cuáles matrices u operadores
son diagonalizables.

E JERCICIO 27. Sea T : V → V un operador lineal en un K-espacio vectorial de dimensión


finita n y sea pT su polinomio mı́nimo. Demuestre que T es invertible si y sólo si pT (0) 6=
0 (en ambos lados se tiene el 0 ∈ K).

E JERCICIO 28. Si T : V → V es un operador lineal invertible en un K-espacio vectorial


de dimensión finita n y si pT (t) = a0 +a1 t+· · ·+ak−1 tk−1 +tk es su polinomio mı́nimo,
demuestre que
1 h k−1 i
T −1 = − T + ak−1 T k−2 + · · · + a2 T + a1 idV .
a0
(Vea el ejercicio 12).

E JERCICIO 29. Si A ∈ Matn×n (K) y m, n ≥ 0 son enteros, demuestre que Am+n =


Am An .

E JERCICIO 30. Si T : V → V es un operador lineal y m, n ≥ 0 son enteros, demuestre


que T m+n = T m ◦ T n .
Capı́tulo 6
Formas canónicas
que tiene un operador lineal T diagonalizable, es decir
H EMOS VISTO LAS VENTAJAS
cuando su matriz asociada (en alguna base) es diagonal, lo cual es equivalente a que
el espacio vectorial V tenga una base de vectores propios de T . Sin embargo también vimos
ejemplos de operadores lineales no diagonalizables aún cuando su polinomio caracterı́stico
φT se descomponga en factores lineales en K[t]. En este capı́tulo veremos distintas formas
de poner al operador lineal T que, de alguna manera, están cercanas a la forma diagonal que
estudiamos en el capı́tulo anterior. Como antes, la forma asociada al operador T depende
de la elección de una base adecuada del espacio vectorial V en consideración. Debemos
mantener en mente que lo que buscamos es que la matriz asociada al operador T se parezca
lo más posible a una matriz diagonal. En este capı́tulo veremos tres de estas formas para el
operador T , a las que se llaman formas canónicas. La primera de ellas, la forma triangular
es fácil de obtener, la segunda forma canónica que estudiaremos, la forma canónica de
Jordan es muy importante en matemáticas, en particular en el estudio de las ecuaciones
diferenciales, pero requiere que el polinomio caracterı́stico φT del operador T tenga todas
sus raı́ces en el campo K correspondiente, lo cual también se requiere para la existencia de
una triangulación; la tercera forma canónica que estudiaremos, llamada la forma canónica
racional, también es importante y a diferencia del caso anterior para su existencia no se
necesita que el polinomio caracterı́stico φT se descomponga en K[t]. Cada una de estas
formas canónicas tiene ventajas y desventajas, dependiendo de la aplicación que uno tenga
en mente.

6.1. Triangulación de operadores


Si T : V → V es un operador lineal en un K-espacio vectorial de dimensión finita
y si T no es diagonalizable, podrı́amos preguntarnos cuál es la matriz más simple que le
podemos asociar al operador T . Para comenzar, en este contexto la expresión más simple
podrı́a querer decir que la matriz asociada a T tenga muchos ceros. Un ejemplo de una tal
matriz es una matriz triangular superior, i.e., una matriz de la forma
 
a11 ∗
A=
 .. 
. 
0 ann

que tiene ceros en todas las entradas por debajo de la diagonal principal. Es claro que
una matriz triangular superior se parece en algo, o en mucho, a una matriz diagonal y el
problema que tenemos entonces es el siguiente: dado T : V → V un operador lineal
en un K-espacio vectorial de dimensión finita, ¿existe una base B de V tal que la matriz
asociada [T ]B sea triangular superior? Cuando esto suceda diremos que T es un operador
triangulable. La proposición siguiente caracteriza esta situación.
143
144 6. FORMAS CANÓNICAS

Proposición 6.1. Sea T : V → V un operador lineal en un K-espacio vectorial de


dimensión finita n y sea B = {v1 , . . . , vn } una base de V . Las afirmaciones siguientes son
equivalentes:
(1) K(v1 , . . . , vk ) es T -invariante para cada k = 1, . . . , n.
(2) T vk ∈ K(v1 , . . . , vk ), para cada k = 1, . . . , n.
(3) La matriz [T ]B es triangular superior.
D EMOSTRACI ÓN . Claramente (1) implica (2). Para la implicación (2) ⇒ (3), como T v1 ∈
K(v1 ), entonces T v1 = a11 v1 para algún a11 ∈ K. Ahora, como T v2 ∈ K(v1 , v2 ),
entonces existe escalares a12 , a22 tales que T v2 = a12 v1 + a22 v2 . Similarmente, como
T v3 ∈ K(v1 , v2 , v3 ), entonces existen escalares a13 , a23 , a33 tales que T v3 = a13 v1 +
a23 v2 + a33 v3 . Procediendo recursivamente vemos que
T v1 = a11 v1
T v2 = a12 v1 + a22 v2
T v3 = a13 v1 + a23 v2 + a33 v3
..
.
T vn = a1n v1 + a2n v2 + a3n v3 + · · · + a1n vn
y por lo tanto la matriz asociada a T , en la base B, es transpuesta de la matriz de coeficientes
en las combinaciones lineales anteriores, i.e.,
 
a11 a12 a13 · · · a1n
 0 a22 a23 · · · a2n 
 
[T ]B =  0
 0 a33 · · · a3n  
 .. .. .. .. 
 . . . . 
0 0 0 · · · ann
i.e., [T ]B es triangular superior.
Para la implicación (3) ⇒ (1) basta mostrar que T vj ∈ K(v1 , . . . , vk ) para j =
1, . . . , k. Para ésto, como [T ]B es triangular superior, entonces usando las entradas en la
columna j de la matriz [T ]B como coeficientes de los vectores v1 , . . . , vj , se sigue que el
vector T vj es combinación lineal de estos vectores y consecuentemente
T vj ∈ K(v1 , . . . , vj ) para cada j = 1, . . . , k.
Ahora, como K(v1 , . . . , vj ) ⊆ K(v1 , . . . , vk ) para j = 1, . . . , k, entonces T vj ∈
K(v1 , . . . , vk ) para toda j = 1, . . . , k y ası́ K(v1 , . . . , vk ) es T -invariante. 

El resultado principal es:


Teorema 6.2. Sea T : V → V un operador lineal en un K-espacio vectorial de dimensión
finita n y supongamos que todos los valores propios de T están en K. Entonces, T es
triangulable.
D EMOSTRACI ÓN . Por inducción sobre n = dimK V . Si n = 1 no hay nada qué problar.
Supongamos ahora que el resultado es válido para todos los K-espacios vectoriales de di-
mensión < n. Por hipótesis del teorema existe un valor propio λ ∈ K del operador T .
Entonces existe un vector propio v 6= 0 con valor propio λ y por lo tanto T − λ idV no es
un isomorfismo y ası́ no es suprayectivo (recuerde que para operadores lineales ser un iso-
morfismo es equivalente a ser suprayectivo); entonces, si W = Im(T − λ idV ) se tiene que
6.2. LA FORMA CANÓNICA DE JORDAN. 145

dimK W < n. Más aún, W es T -invariante por el ejemplo 7 del capı́tulo 4 y consecuente-
mente la restricción T |W : W → W es un operador lineal que, por hipótesis de inducción,
es triangulable; sea B 0 = {w1 , . . . , wm } una base de W tal que la matriz correspondiente
de T |W es triangular superior. Por la proposición anterior ésto es equivalente a decir que
(1) T wj = T |W (wj ) ∈ K(w1 , . . . , wj ) para j = 1, . . . , m.
Extendemos B 0 a una base de V , digamos B = {w1 , . . . , wm , v1 , . . . , vn } y observa-
mos que, para cada k = 1, . . . , n se tiene que
(2) T vk = T vk − λvk + λvk = (T − λ idV )vk + λvk
y, como W = Im(T − λ idV ) entonces (T − λ idV )vk ∈ W = K(w1 , . . . , wm ) y ası́ la
igualdad (2) dice que
(3) T vk ∈ K(w1 , . . . , wm , vk ) ⊆ K(w1 , . . . , wm , v1 , . . . , vk ).
De (1) y (3), usando la proposición anterior se sigue que T es triangular en la base B. 

Observación. La hipótesis fuerte en el teorema anterior es la suposición que T tiene todos


sus valores propios en K. Por el teorema fundamental del álgebra esto sucede siempre si
K = C. Sin embargo si K = R esto puede ser falso; el ejemplo 4 del capı́tulo anterior es
un operador lineal en un R-espacio vectorial que no tiene valores propios reales.

6.2. La forma canónica de Jordan.


Para continuar en forma natural lo que hemos estado estudiando hasta ahora: valo-
res y vectores propios, espacios propios y subespacios T -cı́clicos, la forma canónica que
estudiaremos usa algunas generalizaciones de estos conceptos, con la desventaja de que
requiere que el polinomio caracterı́stico φT se descomponga en K[t], i.e., que tenga to-
das sus raı́ces en K. Esto sucede, por ejemplo si K = C por el teorema fundamental del
álgebra.
Recordemos que si T : V → V es un operador lineal en un K-espacio vectorial de
dimensión finita tal que su polinomio caracterı́stico φT tiene todas sus raı́ces en K, sabe-
mos que la diagonalizabilidad de T S depende de que si al elegir una base Bi de cada espacio
propio Eλi (T ) de T , la unión B = Bi sea una base de V . Ası́, que T no sea diagonaliza-
ble quiere decir que algunos espacios propios Eλi (T ) son demasiado pequeños, es decir,
aún cuando los vectores propios, diferentes de cero, correspondientes a valores propios
distintos de T , son linealmente independientes, en   generan a V , por ejemplo,
general, no
0 1
el operador lineal T : C2 → C2 dado por la matriz , tiene un único valor propio
0 0
λ = 0 y el espacio propio correspondiente Eλ (T ) ⊆ C2 tiene dimensión 1, por el ejemplo
5 del capı́tulo 4. Se sigue que Eλ (T ) $ V .

La idea entonces es extender estos espacios propios pequeños a espacios propios ge-
neralizados para los cuales se tienen bases Bj cuya unión sı́ es una base de V ; sin embargo
en este caso la matriz asociada a T , en la base B, no será diagonal, sino que tendrá la forma
 
Mn 1 0 0 ··· 0
 0 Mn 2 0 · · · 0 
[T ]B =  .
 
. . . 
 . . 0 
0 ··· 0 0 M nr
146 6. FORMAS CANÓNICAS

donde cada 0 es una matriz cero de tamaño adecuado y cada bloque Mj es una matriz
cuadrada de la forma siguiente
 
λj 1 0 ··· 0
 0 λj
 1 ··· 0 
Mi =  ... .. ..
 
 . . 0 
 0 ··· 0 λj 1 
0 ··· λj

para algún valor propio λj de T . Observe que la matriz [T ]B , llamada la forma canónica
de Jordan, está, en efecto, muy cerca de ser diagonal, de hecho en la diagonal principal
de la matriz [T ]B se encuentran todos los valores propios de T ya que éstos están en los
bloques Mj , llamados los bloques de Jordan de la forma canónica de Jordan.

Para poder construir la base B requerida, recordemos que si v ∈ V es un vector propio


asociado a un valor propio λ de T , el vector v satisface que

(T − λ idV )v = 0

pero como los vectores propios no son suficientes para generar todo V , necesitamos agregar
otros vectores, que generalizan los vectores propios usuales, y que también están asociados
a un valor propio λ de T .

Definición 6.3. Si T : V → V es un operador lineal en un K-espacio vectorial de dimen-


sión finita n, un vector v 6= 0 de V se dice que es un vector propio generalizado de T ,
correspondiente al escalar λ, si existe un entero p > 0 tal que

(T − λ idV )p v = 0.

Observaciones. (1): Si v 6= 0 es un vector propio de T asociado al valor propio λ, entonces


(T − λ idV )v = 0 y ası́ v es un vector propio generalizado de T , correspondiente al valor
propio λ, y con el exponente p = 1.

(2): Si v 6= 0 es un vector propio generalizado correspondiente al escalar λ, por el principio


del buen orden podemos escoger al menor entero positivo p > 0 tal que (T −λ idV )p v = 0.
A este entero positivo menor se le llama el perı́odo del vector v con respecto a (T −λ idV ).

(3): Si v 6= 0 es un vector propio generalizado de T con perı́odo p y asociado al escalar


λ, entonces (T − λ idV )p v = 0 y (T − λ idV )p−1 v 6= 0. Entonces, para el vector (T −
λ idV )p−1 v 6= 0 de V se tiene que

(T − λ idV ) (T − λ idV )p−1 v = (T − λ idV )p v = 0,




i.e., (T − λ idV )p−1 v es un vector propio de T con valor propio λ. Hemos ası́ mostrado
que el escalar λ en la definición de vector propio generalizado, de hecho es un valor propio
de T .

(4): El operador (T − λ idV )k conmuta con T para toda k ≥ 1. Esto se demuestra por
inducción sobre k. Para k = 1, se tiene que

T ◦ (T − λ idV ) = T ◦ T − λT = (T − λ idV ) ◦ T.
6.2. LA FORMA CANÓNICA DE JORDAN. 147

Suponiendo que la afirmación es válida para k, se tiene que


T ◦ (T − λ idV )k+1 = T ◦ (T − λ idV )k ◦ (T − λ idV )


= (T − λ idV )k ◦ T ◦ (T − λ idV ) hipótesis de inducción


= (T − λ idV )k ◦ (T − λ idV ) por la validez para k = 1
= (T − λ idV )k+1 ◦ T.

(5): Si λ es un valor propio de T , entonces el operador (T −λ idV )k : V → V conmuta con


cualquier otro operador (T − µ idV )` de la misma forma. Esto se demuestra por inducción
sobre ` ≥ 1 y usando la observación 4 anterior. En efecto, para ` = 1,
(T − λ idV )k ◦ (T − µ idV ) = (T − λ idV )k ◦ T − µ(T − λ idV )k
= T ◦ (T − λ idV )k − µ(T − λ idV )k
= (T − µ idV ) ◦ (T − λ idV )k
Suponiendo ahora válido para ` ≥ 1,
(T − λ idV )k ◦ (T − µ idV )`+1 = (T − λ idV )k ◦ (T − µ idV )` ◦ (T − µ idV )
= (T − µ idV )` ◦ (T − λ idV )k ◦ (T − µ idV )
(por hipótesis de inducción)
= (T − µ idV )` (T − µ idV ) ◦ (T − λ idV )k
(por el caso ` = 1)
= (T − µ idV )`+1 ◦ (T − λ idV )k .
Definición 6.4. Sea T : V → V un operador lineal y sea λ ∈ K un valor propio de T . El
espacio propio generalizado de T correspondiente a λ es el conjunto
Kλ (T ) := {vectores propios generalizados de T correspondientes a λ} ∪ {0}.
Que el conjunto Kλ (T ) es, en efecto, un subespacio vectorial de V es la primera parte
de la proposición siguiente:
Proposición 6.5. Sea T : V → V un operador lineal y sea λ ∈ K un valor propio de T .
Entonces,
(1) Kλ (T ) es un subespacio T -invariante de V que contiente al espacio propio Eλ (T ).
(2) Para cualquier escalar µ 6= λ, la restricción de T − µ idV a Kλ (T ) es inyectiva.
D EMOSTRACI ÓN . (1). Claramente Eλ ⊆ Kλ (T ) (escogiendo p = 1 en la definición de
vector propio generalizado). Supongamos ahora que v, w ∈ Kλ (T ). Entonces, existen
enteros p > 0 y q > 0 tales que
(T − λ idV )p v = 0 = (T − λ idV )q w
y por lo tanto
(T − λ idV )p+q (v + w) = (T − λ idV )p+q v + (T − λ idV )p+q w
= (T − λ idV )q ((T − λ idV )p (v))
+ (T − λ idV )p ((T − λ idV )q (w))
=0+0=0
148 6. FORMAS CANÓNICAS

y ası́ v + w ∈ Kλ (T ). Similarmente, si α ∈ K es cualquier escalar y v ∈ Kλ (T ), entonces


para el entero p > 0 tal que (T − λ idV )p = 0, se tiene
(T − λ idV )p (αv) = α(T − λ idV )p v = α0 = 0
por lo que αv ∈ Kλ (T ).
Finalmente, que Kλ (T ) es T -invariante es porque si v ∈ Kλ (T ), escojamos p > 0 tal
que (T − λ idV )p v = 0. Entonces
(T − λ idV )p (T v) = T (T − λ idV )p (v) por la observación 4 previa
= T (0) = 0
y por lo tanto T v ∈ Kλ (T ).
(2) Sea µ 6= λ otro escalar y supongamos que v ∈ Kλ (T ) es tal que (T − µ idV )v = 0.
Si v no fuera 0, sea p > 0 el menor entero tal que (T − λ idV )p v = 0 y pongamos
w := (T − λ idV )p−1 v 6= 0. Entonces
(T − λ idV )w = (T − λ idV )p v = 0
y consecuentemente w ∈ Eλ . Más aún,
(T − µ idV )w = (T − µ idV )(T − λ idV )p−1 v
= (T − λ idV )p−1 (T − µ idV )v por la observación 5
= (T − λ idV )p−1 (0) ya que (T − µ idV )v = 0
= 0,
y ası́ w ∈ Eµ . Se sigue que w ∈ Eλ ∩ Eµ = {0}, por lo que w = 0, una contradicción, a
menos que v = 0 y consecuentemente (T − µ idV ) es inyectiva en Kλ (T ). 
Teorema 6.6. Sea T : V → V un operador lineal en un K-espacio vectorial de dimensión
finita n. Supongamos que λ ∈ K es un valor propio de T de multiplicidad m. Entonces,
(1) dimK (Kλ (T )) ≤ m.
(2) Kλ (T ) = ker(T − λ idV )m .
D EMOSTRACI ÓN . (1): Pongamos W := Kλ (T ). Por la parte (1) de la proposición anterior,
W es T -invariante y ası́ podemos considerar la restricción TW de T a W . Por la parte (2)
de la proposición previa, λ es el único valor propio de TW y por lo tanto el polinomio
caracterı́stico de TW es de la forma
φTW (t) = (−1)k (t − λ)k con k = dimK W .
k
Ahora, como φTW divide a φT , entonces (t − λ) |φT (t) por lo que
k ≤ m = multiplicidad de λ en φT (t).

(2): Es claro que ker(T − λ idV )m ⊆ Kλ (T ). Para la otra inclusión, sean W y φTW como
en la demostración de la parte (1). Por el teorema de Hamilton-Cayley
0 = φTW (TW ) = (−1)k (TW − λ idW )k
y ası́ (T − λ idV )k w = 0 para todo w ∈ W . Ahora, como k ≤ m por la parte (1),
ésto implica que para todo w ∈ W se tiene que (T − λ idV )m w = 0, es decir, w ∈
ker(T − λ idV )m , por lo que Kλ (T ) = W ⊆ ker(T − λ idV )m , como se querı́a. 
El resultado siguiente, que es clave para la descripción del operador lineal T , nos dice
que los vectores propios generalizados de T , sı́ generan a V :
6.2. LA FORMA CANÓNICA DE JORDAN. 149

Teorema 6.7. Sea T : V → V un operador lineal en un K-espacio vectorial de dimen-


sión finita n y supongamos que su polinomio caracterı́stico φT se descompone en K[t].
Entonces, los vectores propios generalizados de T generan a V .
D EMOSTRACI ÓN . Por inducción sobre n = dimK (V ). Si n = 1, no hay nada que probar
ya que existe un único valor propio λ de T de multiplicidad 1, y Kλ (T ) = Eλ (T ) =
V . Supongamos ahora que n > 1 y que el resultado es válido para todos los espacios
vectoriales W de dimensión < n. Como φT se descompone en K[t], sea λ ∈ K un valor
propio de T de multiplicidad m. Mostraremos primero que
M
V = ker(T − λ idV )m Im(T − λ idV )m ,
| {z } | {z }
V1 V2

y para ésto, supongamos que v ∈ V1 ∩ V2 . Entonces, (T − λ idV )m v = 0 y además


v ∈ Im(T − λ idV )m , i.e., existe un u ∈ V tal que v = (T − λ idV )m u. Aplicando
(T − λ idV )m a ambos lados de esta última igualdad se obtiene que
0 = (T − λ idV )m v = (T − λ idV )2m u,
i.e., u es un vector propio generalizado de T correspondiente al valor propio λ, i.e. u ∈
Kλ (T ) = ker(T − λ idV )m y por lo tanto (T − λ idV )m u = 0, i.e.,
v = (T − λ idV )m u = 0,
i.e., V1 ∩ V2 = {0}. Mostraremos ahora que V1 + V2 = V . En efecto, como (T − λ idV )m :
V → V y V1 = ker(T − λ idV )m , V2 = Im(T − λ idV )m , entonces
dim(V ) = dim(V1 ) + dim(V2 ) = dim(V1 ⊕ V2 )
y como V1 ⊕ V2 ⊆ V , la igualdad anterior implica que V1 ⊕ V2 = V .
Observe ahora que V1 6= {0} ya que λ es un valor propio de T y por lo tanto existe un
0 6= v ∈ Eλ (T ) ⊆ ker(T − λ idV )m = V1 . Ası́, dim(V1 ) ≥ 1 y por lo tanto dim(V2 ) < n.
Más aún, como T ◦ (T − λ idV )m = (T − λ idV )m ◦ T , entonces V2 es T -invariante y ası́ T
induce, por restricción, el operador lineal T2 : V2 → V2 . Por hipótesis de inducción V2
está generado por los vectores propios generalizados de T2 (los cuales obviamente también
son vectores propios generalizados de T ); y como los vectores de V1 = ker(T − λ idV )m
son vectores propios generalizados de T y como V = V1 ⊕ V2 , entonces V está generado
por los vectores propios generalizados de T , como se querı́a. 

Ası́ como los vectores propios correspondientes a distintos valores propios son lineal-
mente independientes, sucede lo mismo con los vectores propios generalizados:
Teorema 6.8. Sea T : V → V un operador lineal en un K-espacio vectorial de dimen-
sión finita n y supongamos que su polinomio caracterı́stico φT se descompone en K[t].
Entonces, los vectores propios generalizados distintos de cero, correspondientes a valores
propios distintos de T , son linealmente independientes.
D EMOSTRACI ÓN . Supongamos que v1 , . . . , vr son vectores propios generalizados de T ,
correspondientes a valores propios distintos λ1 , . . . , λr , de multiplicidades mj , respectiva-
mente. Supongamos que se tiene un combinación lineal
(∗) a1 v1 + · · · + ar vr = 0.
Mostraremos primero que a1 = 0. Para ésto, sea p el perı́odo de v1 (i.e., el menor entero
positivo p > 0 tal que (T − λ1 idV )p v1 = 0). Apliquemos el operador
L = (T − λ1 idV )p−1 ◦ (T − λ2 idV )m2 ◦ · · · ◦ (T − λr idV )mr
150 6. FORMAS CANÓNICAS

a ambos lados de (∗), recordando que los operadores en la composición anterior conmutan
y que vi ∈ Kλi (T ) = ker(T −λi idV )mi , se obtiene que L(vj ) = 0 para toda j = 2, . . . , r
y ası́ (∗) queda
(†) a1 (T − λ1 idV )p−1 (T − λ2 idV )m2 · · · (T − λr idV )mr v1 = 0
la cual podemos re-escribir como
(‡) (T − λ2 idV )m2 · · · (T − λr idV )mr a1 (T − λ1 idV )p−1 v1 = 0
donde (T − λj idV )mj es inyectiva en Kλ1 (T ) para j = 2, . . . , r y por lo tanto la com-
posición (T − λ2 idV )m2 ◦ · · · ◦ (T − λr idV )mr es inyectiva en Kλ1 (T ) y ası́ (‡) implica
que a1 (T − λ1 idV )p−1 v1 = 0, con (T − λ1 idV )p−1 v1 6= 0 (por definición de perı́odo).
Se sigue que a1 = 0. En forma similar se muestra que a2 = 0, . . ., ar = 0, como se
querı́a. 

Los dos teoremas anteriores nos dan el siguiente teorema de estructura:


Teorema 6.9. Sea T : V → V un operador lineal en un K-espacio vectorial de dimensión
finita n y supongamos que su polinomio caracterı́stico φT se descompone en K[t]. Sean
λ1 , . . . , λr los valores propios distintos de T , con multiplicidades m1 , . . . , mr , respecti-
vamente. Para cada j = 1, . . . , r, sea Bj una base de Kλj (T ). Entonces,
(1) Bi ∩ Bj = ∅, para i 6= j.
(2) B = B1 ∪ · · · ∪ Br es una base de V .
(3) dimK (Kλj (T )) = mj .
D EMOSTRACI ÓN . (1): Si v ∈ Bi ∩ Bj ⊆ Kλi (T ) ∩ Kλj (T ) con i 6= j, entonces v ∈
Kλj (T ) y v 6= 0 ya que está en una base. Se sigue que (T − λi idV )p v 6= 0 para toda
p > 0, ya que (T − λi idV ) es inyectiva en Kλj (T ) porque i 6= j y por la proposición 3.
Pero esto contradice el hecho de que v ∈ Kλi (T ). Se sigue que Bi ∩ Bj = ∅.
(2): Por el teorema 6.5, los vectores propios generalizados generan a V y ası́ para todo
v ∈ V existen vi ∈ Kλi (T ) tales que v = v1 + · · · + vr . Ahora, como cada vi ∈ Kλi (T )
es combinación lineal de la base Bi , entonces v es combinación lineal de B y por lo tanto
B genera a V . Pongamos ahora di := dimK (Kλi (T )) = |Bi |, y sea d = |B|. Entonces,
Xr
d = |B| = |Bi | por la parte (1)
i=1
r
X r
X
= di ≤ mi ya que di ≤ mi por el teorema 6.4
i=1 i=1
= gr(φT ) ya que los mi son las multiplicidades de las raı́ces de φT
= dimK (V ).
Se sigue que d ≤ dimK (V ). Por otra parte, como B genera a V , entonces dimK (V ) ≤
|B| = d. De las dos desigualdades anteriores se sigue que d = |B| = dimK (V ) y por lo
tanto B es base de V .
(3): En las desigualdades de la demostración de la parte (2) se tienen igualdades y por lo
tanto
Xr Xr
di = mi
i=1 i=1
con di ≤ mi , para toda i, y ası́ no puede suceder que algún di < mi , i.e., se debe tener que
di = mi , para toda i. 
6.2. LA FORMA CANÓNICA DE JORDAN. 151

Corolario 6.10. Sea T : V → V un operador lineal en un K-espacio vectorial de dimen-


sión finita n y supongamos que su polinomio caracterı́stico φT se descompone en K[t].
Entonces, T es diagonalizable si y sólo si Eλi = Kλi (T ), para todos los valores propios
λi de T .
D EMOSTRACI ÓN . Por un teorema previo sabemos que T es diagonalizable si y sólo si
dimK Eλi = mi , para todos los valores propios λi (de multiplicidad mi ). Por la parte (3)
del teorema anterior se tiene que mi = dimK Kλi (T ). Ası́, T es diagonalizable si y sólo si
dimK Eλi = dimK Kλi (T ), para todos los λi , y como Eλi ⊆ Kλi (T ), esto último sucede
si y sólo si Eλi = Kλi (T ). 

Nuestro objetivo ahora es seleccionar bases adecuadas para cada espacio propio ge-
neralizado Kλi (T ) donde el operador T restringido tenga forma de bloques de Jordan y
luego usar el teorema anterior para obtener la forma canónica de Jordan de T . Veremos
dos maneras de hacer lo anterior y para una de éstas necesitaremos reducir el problema a
operadores nilpotentes y el corolario siguiente nos dice que los operadores (T − λ idV ) en
Kλi (T ) son nilpotentes.
Corolario 6.11. Sea T : V → V un operador lineal en un K-espacio vectorial de dimen-
sión finita n y supongamos que su polinomio caracterı́stico φT se descompone en K[t].
Sean λ1 , . . . , λr los valores propios distintos de T . Entonces,
(1) Las restricciones (T − λj idV )|Kλj (T ) son nilpotentes.
(2) Cada restricción T |Kλj (T ) tiene un único valor propio, λj .

D EMOSTRACI ÓN . (1): Sea mj la multiplicidad de λj . Por el teorema anterior mj =


dimK (Kλj (T )) y como Kλj (T ) = ker(T − λj idV )mj , entonces para todo v ∈ Kλj (T )
se tiene que (T − λj idV )mj (v) = 0, y ası́ (T − λj idV )mj = 0 en Kλj (T ), lo cual prueba
(1).
(2): Sabemos que Kλj (T ) es T -invariante. Ahora, si λ0 es un valor propio de T |Kλj (T ) y
si v 6= 0 es un vector propio (en Kλj (T )) correspondiente, entonces T (v) = λ0 v y ası́
(T − λj idV )v = T v − λj v = (λ0 − λj )v
y por lo tanto
(∗) (T − λj idV )k v = (λ0 − λj )k v para todo entero k > 0.
Ahora, como v ∈ Kλj (T ) es un vector propio generalizado de T correspondiente a
λj , entonces existe un entero k > 0 tal que el lado izquierdo de (∗) se anula. Se sigue que
existe un k > 0 tal que (λ0 − λj )k v = 0 con v 6= 0 y por lo tanto el escalar (λ0 − λj )k = 0
para algún k > 0. Consecuentemente λ0 − λj = 0, i.e., λ0 = λj , como se querı́a. 

La ruta nilpotente. Nuestro objetivo ahora es mostrar que para un operador nilpotente
T : V → V en un espacio vectorial de dimensión finita n existe una base de V tal que la
matriz asociada a T es una matriz de bloques de Jordan. El primer lema nos muestra cómo
son estos bloques y el tercer lema nos muestra cómo separar el operador T en suma directa
de bloques de Jordan. El resultado principal es el teorema 6.13 consecuencia de los tres
lemas que probaremos primero.
Lema 6.12. Sea T : V → V un operador nilpotente en un K-espacio vectorial V de
dimensión finita n y sea m > 0 el menor entero positivo tal que T m = 0. Entonces, existe
un vector v ∈ V tal que v, T v, T 2 v, . . . , T m−1 v es linealmente independiente. Sea W ⊆
152 6. FORMAS CANÓNICAS

V el subespacio generado por el subconjunto C = {v, T v, T 2 v, . . . , T m−1 v} anterior y


sea TW la restricción de T a W . Entonces,
(1) W es T -invariante.
 
0 1 0 ··· 0
 0 0
 1 ··· 0  
 .. . ..
(2) [TW ]C =  . .

 0 

 0 ··· 0 0 1 
0 ··· 0
D EMOSTRACI ÓN . Como T m = 0 pero T m−1 6= 0, entonces existe un v ∈ V tal que
T m−1 v 6= 0. Veremos que éste es el vector v que nos sirve. Para ésto, supongamos que se
tiene una combinación lineal
a0 v + a1 T v + a2 T 2 v + · · · + am−1 T m−1 v = 0
y supongamos que algún escalar ai es 6= 0; sea as el primer escalar 6= 0. Entonces,
0 = as T s v + · · · + am−1 T m−1 v = (as idV +as+1 T + · · · + am−1 T m−1−s )T s v
y como as 6= 0, entonces as idV +as+1 T + · · · + am−1 T m−1−s es invertible y por lo tanto
T s v = 0, con s ≤ m − 1 < m, una contradicción. Se sigue que tal as no existe y por lo
tanto todos los ai = 0, como se querı́a.
(1): Si T m−i v ∈ C, para 1 ≤ i ≤ m, entonces T (T m−i v) ∈ C ó T (T m−i v) = 0; en
cualquier caso T (T m−i v) ∈ W y por lo tanto W es T -invariante.
(2): Pongamos w1 = v, w2 = T v, . . . , wm = T m−1 v para la base de W . Aplicando T a
cada uno de estos vectores y escribiendo el resultado en términos de la base w1 , . . . , wm ,
obtenemos:
T w1 = Tv = 0 · w1 + 1 · w2
T w2 = T 2v = 0 · w1 + 0 · w2 + 1 · w3
..
.
T wm−1 = T m−1 v = 0 · w1 + · · · + 0 · wm−1 + 1 · wm
T wm = T m w = 0 = 0 · w1 + · · · + 0 · wm−1 + 0 · wm
y por lo tanto la matriz asociada a T restringida a W es la matriz deseada. 
Lema 6.13. Sea T : V → V un operador nilpotente en un K-espacio vectorial V de
dimensión finita n y sea m > 0 el menor entero positivo tal que T m = 0. Sea W ⊆ V el
subespacio generado por el subconjunto C = {v, T v, T 2 v, . . . , T m−1 v} dado por el lema
anterior. Si w ∈ W es tal que T m−k w = 0 con 0 < k ≤ m, entonces w = T k u para
algún u ∈ W .
D EMOSTRACI ÓN . Como C = {v, T v, T 2 v, . . . , T m−1 v} es base de W , entonces w ∈ W
es de la forma w = a0 v + a1 T v + · · · + am−1 T m−1 v. Ası́
0 = T m−k w = a0 T m−k v + a1 T m−k+1 v + · · · + ak−1 T m−1 v
(ya que para el ı́ndice k − 1, el exponente de T es m − k + k − 1 = m − 1, y para ı́ndices
mayores que k − 1 el exponente ` de T es ≥ m y por lo tanto T ` v = 0 ). Ahora, como
T m−k v, . . . , T m−1 v es un subconjunto de C, entonces son linealmente independientes, por
lo que la igualdad anterior implica que a0 = a1 = · · · = ak−1 = 0. Se sigue que
w = ak T k v + · · · + am−1 T m−1 v = T k (ak v + ak+1 T v + · · · + am−1 T m−k−1 v)
6.2. LA FORMA CANÓNICA DE JORDAN. 153

y ası́, para u = ak v + ak+1 T v + · · · + am−1 T m−k−1 v ∈ W , se tiene que w = T k (u),


como se querı́a. 
Lema 6.14. Sea T : V → V un operador nilpotente en un K-espacio vectorial V de
dimensión finita n. Sea W ⊆ V el subespacio T -invariante generado por el subconjunto
C = {v, T v, T 2 v, . . . , T m−1 v} dado por el lema anterior. Entonces, existe un subespacio
T -invariante U ⊆ V tal que V = W ⊕ U .
D EMOSTRACI ÓN . Sea U ⊆ V el subespacio T -invariante de mayor dimensión tal que
W ∩ U = {0}. Mostraremos que V = W + U . Supongamos que esto no sucede; entonces,
existe un vector v ∈ V tal que v 6∈ W + U . Ahora, como T m = 0 para algún m, y como
v 6= 0, entonces T 0 v = v 6∈ W + U pero T m v = 0 ∈ W + U . Por lo tanto, existe un
entero k, con 0 < k < m tal que T k v ∈ W + U pero T i v 6∈ W + U para todo i < k.
Escribamos T k v = w + u con w ∈ W y u ∈ U . Se tiene que
(∗) 0 = T m v = T m−k (T k v) = T m−k (w + u) = T m−k w + T m−k u.
Ahora, como W y U son T -invariantes, entonces T m−k w ∈ W y T m−k u ∈ U . De (∗)
se sigue que T m−k w = −T m−k u ∈ U , por lo que ambos están en W ∩ U = {0} y
ası́ T m−k u = 0 = T m−k w. Por el lema anterior esto implica que w = T k w0 para algún
w0 ∈ W . Se sigue que
T k v = w + u = T k w0 + u
y por lo tanto T k (v − w0 ) = u ∈ U , y como U es T -invariante, la última igualdad implica
que T r (v − w0 ) ∈ U para toda r ≥ k.
Por otro lado, si i < k, entonces T i (v − w0 ) = T i v − T i w0 6∈ W + U ya que de otra
manera se tendrı́a que
i 0
T iv = T
| {zw} + T
i
(v − w0 ) ∈ W + U,
| {z }
∈W ∈U

en contradicción con la elección de k.


Pongamos z := v − w0 y sea U e el subespacio de V generado por z, T z, . . . , T k−1 z
y U . Observe que como z 6∈ U y como U e ⊇ U , entonces dimK U e > dimK U . Más aún,
k
como T z ∈ U y como U es T -invariante entonces U también es T -invariante. Y como
e
V = W + U , entonces V = W + U e . Por la maximalidad de U se debe tener que W ∩ U e 6=
{0} y por lo tanto debe existir un vector de la forma w0 + a1 z + a2 T z + · · · + ak T k−1 z en
W ∩U e con w0 ∈ W . Observe que no todos los aj son 0, ya que de lo contrario se tendrı́a
que 0 6= w0 ∈ U ∩ W = {0}, una contradicción. Sea pues as el primer coeficiente ai
distinto de 0. Entonces
w0 + as T s−1 z + as+1 T s z + · · · + ak T k−1 z = w0 + (as + as+1 T + · · · + ak T k−s )T s−1 z
es un elemento de W y como as 6= 0, el operador (as + as+1 T + · · · + ak T k−s ) es
invertible por el ejercicio 9 del capı́tulo 5, y por el ejercicio 12 del mismo capı́tulo su
inverso L es un polinomio en T . Como U y W son T -invariantes, entonces son g(T )-
invariantes para cualquier polinomio g(t) ∈ K[t], en particular son invariantes bajo el
operador (as + as+1 T + · · · + ak T k−s ) y por lo tanto también son invariantes bajo L.
Ahora, como w0 ∈ W y como w0 + (as + as+1 T + · · · + ak T k−s )T s−1 z ∈ W ,
entonces (as + as+1 T + · · · + ak T k−s )T s−1 z ∈ W y por lo tanto, aplicando L, se sigue
que T s−1 z = L((as + as+1 T + · · · + ak T k−s )T s−1 z) ∈ W . Por lo tanto
w0 + T s−1 z ∈ W
154 6. FORMAS CANÓNICAS

y como w0 ∈ W , se sigue que T s−1 z ∈ W ⊆ W + U . Pero como s − 1 < k, lo anterior


contradice la afirmación del segundo párrafo de la demostración. Se sigue que W +U = V
y como W ∩ U = {0}, esto implica que V = W ⊕ U . 

Usando dos de los lemas anteriores obtenemos la forma canónica de Jordan de un


operador nilpotente:

Teorema 6.15. Sea T : V → V un operador nilpotente en un K-espacio vectorial V de


dimensión finita n. Sea n1 > 0 el menor entero positivo tal que T n1 = 0, Entonces, existe
una base B de V tal que
 
Mn 1 0 0 ··· 0
 0 Mn 2 0 ··· 0 
[T ]B = 
 
.. .. 
 . . 0 
0 ··· 0 0 Mn r
 
0 1 0 0 ···

 0 0 1 ···
0 

donde cada bloque Mj = 
 .. .. 
es de tamaño nj × nj y n1 ≥
 . . 0 

 0 ··· 0 0 1 
0 ··· 0
n2 ≥ · · · ≥ nr con n1 + n2 + · · · + nr = n = dimK (V ).

D EMOSTRACI ÓN . Por el lema 6.12, si W1 ⊆ V es el subespacio generado por v1 , T v1 , . . .,


T n1 −1 v1 , entonces existe un subespacio T -invariante U ⊆ V tal que V = W1 ⊕ U .
Escojamos cualquier base U de U . Entonces, B = {v1 , T v1 , . . . , T n1 −1 v1 } ∪ U es base de
V y la matriz asociada a T en esta base es de la forma
 
Mn 1 0
0 A2

con A2 = [TU ]U . Ahora, como T n1 = 0, entonces TUn2 = 0 para algún entero n2 ≤ n1


(escogemos el menor entero positivo n2 con esta propiedad). Repetimos el argumento para
el espacio vectorial U y el operador nilpotente TU : U → U . 

Usando este teorema y el corolario 6.9 se obtiene la forma canónica de Jordan de cual-
quier operador lineal T : V → V , no necesariamente nilpotente, con la única condición
de que T tenga todos sus valores propios en K. En efecto, si λ1 , . . . , λk son todos los va-
lores propios distintos de T , por el corolario 9 los operadores (T − λj idV ) restringidos a
Kλj (T ) son nilpotentes. Entonces, por el teorema anterior existe una base Bj de Kλj (T )
tal que
 
Mn 1 0 0 ··· 0
 0 Mn 2 0 · · · 0 
[T − λj idV ]Bj =  .
 
. . . 
 . . 0 
0 ··· 0 0 Mn r
6.2. LA FORMA CANÓNICA DE JORDAN. 155

donde cada bloque Mj es de la forma


 
0 1 0 ··· 0
 0 0
 1 ··· 0 

Mj =  ... .. .
 
 . 0 

 0 ··· 0 0 1 
0 ··· 0
Se sigue que
   
λj 0 0 ··· 0 Mn 1 0 0 ··· 0
 0 λj 0 ··· 0   0 Mn 2 0 ··· 0 
[T ]Bj =  + .
   
.. .. ..
0   ..

 . . . 0 
0 ··· 0 0 λj 0 ··· 0 0 Mn r
y ası́, poniendo M
fn igual a la suma de Mn con la matriz diagonal correspondiente se tiene
i i
que la matriz asociada al operador T (restringido al espacio propio generalizado Kλj (T ))
es de la forma  
M
fn
1 0 0 ··· 0
 0 M 0 ··· 0 
 fn 
2
[T ]B| =  .. ..

. 0 

 .
0 ··· 0 0 M
fn
r
 
λj 1 0 0 ···

 0 λj 1 0 ···
donde cada bloque M =
 .. .. 
es de tamaño nji × nji y nj1 ≥
fn
i
 . .0 
 0 ··· 0 λj 1 
0 ··· λj
nj2 ≥ · · · ≥ njr con nj1 + nj2 + · · · + njr = n = dimK Kλj (T ).
Ahora, por el teorema 6.7 la unión de las bases B = B1 ∪· · · Br de los espacios propios
generalizados Kλj (T ) es una base de V y por lo tanto la matriz asociada a T en esta base
es de la forma  
[T ]B1 0 0 ··· 0
 0 [T ]B2 0 · · · 0 
[T ]B =  .
 
 .. .. 
. 0 
0 ··· 0 0 [T ]Br
.
Hemos ası́ probado el resultado deseado:
Teorema 6.16. Sea T : V → V un operador lineal en un K-espacio vectorial V de dimen-
sión finita n. Supongamos que el polinomio caracterı́stico φT de T se descompone en K[t]
y sean λ1 , . . . , λr los valores propios distintos de T con multiplicidades m1 , m2 , . . . mr
respectivamente. Entonces, existe una base B de V tal que la matriz asociada a T en esta
base es de la forma
 
M
fn
1 0 0 ··· 0
 0 M 0 ··· 0 
 fn 
2
[T ]B = 
 .. ..

. 0 

 .
0 ··· 0 0 M
fn
r
156 6. FORMAS CANÓNICAS

 
λj 1 0 ··· 0

 0 λj 1 ··· 0 
donde cada bloque es de la forma M
fn =  .. .. 
.
i 
 . . 0 
 0 ··· 0 λj 1 
0 ··· λj


La ruta de los ciclos disjuntos. Nuestro objetivo es el mismo, es decir, mostrar que para
un operador arbitrario T : V → V en un espacio vectorial de dimensión finita n existe
una base de V tal que la matriz asociada a T es una matriz de bloques de Jordan. Por el
teorema 6.7 basta encontrar bases adecuadas de los espacios propios generalizados Kλi (T )
asociados a los valores propios de T . De nuevo, estamos asumiendo que el polinomio
caracterı́stico de T tiene todas sus raı́ces en K. Supongamos entonces que λ es un valor
propio de T y sea v 6= 0 un vector propio generalizado de T asociado a λ. Sea p > 0 el
menor entero positivo tal que (T − λ idV )p v = 0. El conjunto
C := {(T − λ idV )p−1 v, (T − λ idV )p−2 v, . . . , (T − λ idV )v, v}
se llamará un ciclo de vectores propios generalizados de T correspondientes al valor propio
λ. El vector (T − λ idV )p−1 v se llama el vector inicial del ciclo y el vector v se llama el
vector final del ciclo. Diremos también que la longitud del ciclo es p.
Observe que el vector inicial del ciclo es el únivo vector propio de T , con valor propio
λ, en todo el ciclo C. Observe también que si v es un vector propio de T , entonces C = {v}
es un ciclo de longitud 1.
Lema 6.17. Sea T : V → V un operador lineal en un K-espacio vectorial de dimensión
finita n. Sea λ ∈ K un valor propio de T y sea v 6= 0 un vector propio generalizado de T
correspondiente a λ y de perı́odo p. Entonces, el ciclo
C := {(T − λ idV )p−1 v, (T − λ idV )p−2 v, . . . , (T − λ idV )v, v}
es linealmente independiente.
D EMOSTRACI ÓN . Supongamos que se tiene una combinación lineal
(∗) ap−1 (T − λ idV )p−1 v + · · · + a1 (T − λ idV )v + a0 v = 0
con los aj ∈ K. Aplicando (T − λ idV )p−1 a ambos lados de (∗) y recordando que (T −
λ idV )k v = 0 para todo k ≥ p, obtenemos
ap−1 0 + · · · + a1 0 + a0 (T − λ idV )p−1 v = 0,
i.e., a0 (T − λ idV )p−1 v = 0, y como el vector (T − λ idV )p−1 v 6= 0, la igualdad anterior
implica que a0 = 0. Ası́, (∗) queda
(†) ap−1 (T − λ idV )p−1 v + · · · + a1 (T − λ idV )v = 0.
Aplicando ahora (T − λ idV )p−2 a (†), obtenemos
ap−1 0 + · · · + a2 0 + a1 (T − λ idV )p−1 v = 0,
i.e., a1 (T − λ idV )p−1 v = 0, con (T − λ idV )p−1 v 6= 0, por lo que la igualdad anterior
implica que a1 = 0. Procediendo recursivamente se prueba que aj = 0, para toda j, como
se querı́a. 
6.2. LA FORMA CANÓNICA DE JORDAN. 157

Corolario 6.18. Sea T : V → V un operador lineal en un K-espacio vectorial de dimen-


sión finita n. Sea λ ∈ K un valor propio de T y sea v 6= 0 un vector propio generalizado
de T correspondiente a λ y de perı́odo p. Considere el ciclo
C := {(T − λ idV )p−1 v, (T − λ idV )p−2 v, . . . , (T − λ idV )v, v}
y sea W el subespacio de V generado por el ciclo C. Entonces, W es T -invariante y la
restricción [TW ]C es un bloque de Jordan.
D EMOSTRACI ÓN . Por el lema anterior C es linealmente independiente y ası́ C es base de
W . Denotemos los elementos de la base C mediante
w1 = (T − λ idV )p−1 v
w2 = (T − λ idV )p−2 v
..
.
wi = (T − λ idV )p−i v
..
.
wp = v.
Para comenzar aplicamos T a los vectores wi . Comenzamos con w1 observando que
(T − λ idV )w1 = (T − λ idV )p v = 0
por lo que
(1) T (w1 ) = λ idV w1 = λw1 .
Ahora, si i > 1, entonces
(T − λ idV )wi = (T − λ idV )(T − λ idV )p−i v = (T − λ idV )p−(i−1) v = wi−1
y por lo tanto
(2) T (wi ) = λ idV wi + wi−1 = λwi + wi−1 .
Se sigue que T manda a la base C en W y por lo tanto W es T -invariante. Más aún,
como para obtener la matriz asociada a T , en la base C, primero aplicamos T a los vectores
wi y luego al resultado lo expresamos como combinación lineal de los wi , las igualdades
(1) y (2) anteriores nos dan las combinaciones lineales deseadas, de tal forma que la matriz
correspondiente es la matriz transpuesta:
   
λ 0 0 ··· 0 λ 1 0 ··· 0
 1 λ
 0 ··· 0    0 λ
 1 ··· 0  
 .. .. . ..
[TW ]C = transpuesta de . = ..
  
 . 0   . 0 

 0 ··· 1 λ 0   0 ··· 0 λ 1 
0 ··· 1 λ 0 ··· λ
i.e., es un bloque de Jordan. 
Corolario 6.19. Sea T : V → V un operador lineal en un K-espacio vectorial de di-
mensión finita n. Supongamos que el polinomio caracterı́stico φT de T se descompone en
K y sean λ1 , . . . , λr todos los valores propios distintos de T . Supongamos que para cada
espacio propio generalizado Kλi (T ) existe una base Bi que es la unión disjunta de ciclos
de vectores propios generalizados de T . Entonces, la unión B de las bases Bi es una base
de Jordan de V .
158 6. FORMAS CANÓNICAS

D EMOSTRACI ÓN . Como B = B1 ∪ · · · ∪ Br es una base ordenada de V y como cada Bi


es unión de ciclos de vectores propios generalizados de T , el corolario anterior aplicado a
cada ciclo Bi implica que [T ]B está en forma de Jordan. 

A la luz de este corolario, nuestro objetivo ahora es mostrar que, bajo las condiciones
del corolario, existen bases de cada espacio propio generalizado Kλi (T ) que son uniones
disjuntas de ciclos de vectores propios generalizados de T . El teorema siguiente va en esa
dirección.
Teorema 6.20. Sea T : V → V un operador lineal en un K-espacio vectorial de di-
mensión finita n y sea λ un valor propio de T . Supongamos que C1 , . . . , Cq son ciclos de
vectores propios generalizados de T correspondientes al valor propio λ y tales que los
vectores iniciales de cada ciclo C1 son distintos y forman un conjunto linealmente inde-
pendiente. Entonces,
(1) Ci ∩ Cj = ∅, para toda i 6= j.
[q
(2) C = Ci es linealmente independiente.
i=1

D EMOSTRACI ÓN . (1): Si i 6= j, los vectores iniciales de los ciclos Ci y Cj son diferentes,
digamos (T − λ idV )pi −1 vi 6= (T − λ idV )pj −1 vj . Ahora, si existiera un vector común
a ambos ciclos, digamos (T − λ)pi −k vi = (T − λ idV )pj −t vj , sin perder generalidad,
supongamos que pi − k ≤ pj − t. Entonces,
(T − λ idV )pi −1 vi = (t − λ idV )k−1 ◦ (T − λ idV )pi −k vi
= (T − λ idV )k−1 ◦ (T − λ idV )pj −t vj ∈ Cj
y por lo tanto el ciclo Cj contendrı́a dos vectores propios de T con valor propio λ, una
contradicción (con la observación previa al lema 6.15). Se sigue que Ci ∩ Cj = ∅.
(2): Mostraremos que C es linealmente independiente por inducción sobre su cardinal |C|.
Si |C| = 1 no hay nada que probar. Supongamos ahora que el resultado es válido para todo
C 0 tal que |C 0 | < n y supongamos que C tiene exactamente n vectores. Sea W el subespacio
generado por C; entonces dimK W ≤ n porque C tiene n elementos. Más aún, como los
generadores de W son elementos de algún Ci , i.e., pertenecen al algún ciclo de vectores
propios generalizados de T , i.e., son de la forma w = (T − λ idV )p−i v, entonces
(T − λ idV )(w) = (T − λ idV )p−i+1 v
que es el vector cero o es un vector del mismo ciclo Ci . En cualquier caso se tiene que
(T − λ idV )w ∈ W y por lo tanto W es (T − λ idV )-invariante. Sea L la restricción
L = (T − λ idV )|W : W → W.
Para cada i tal que 1 ≤ i ≤ q, sea Ci0 el ciclo obtenido quitando el vector final de Ci
(a menos que Ci tenga longitud 1, en cuyo caso ponemos Ci0 = ∅). Si Ci0 6= ∅, entonces
por un argumento similar al que usamos para mostrar que W es (T − λ idV )-invariante
se tiene que cada vector de Ci0 es la imagen bajo L de un vector de Ci . Recı́procamente, si
0 6= w ∈ W es la imagen, bajo L, de un vector vi ∈ Ci , como L = (T − λ idV ), entonces
w = L(vi ) = (T − λ idV )vi = (T − λ idV )(T − λ idV )pi −k v
(ya que los vectores vi de Ci son vectores propios generalizados, i.e., son de la forma
(T − λ idV )pi −k v). Ahora, como pi − k + 1 ≥ 1, entonces w = (T − λ idV )pi −k+1 v ∈ Ci
no puede ser el vector final v del ciclo; más áun, w 6= 0 por hipótesis, y ası́ w ∈ Ci0 .
6.2. LA FORMA CANÓNICA DE JORDAN. 159

q
[
Pongamos C 0 := Ci0 . Por el párrafo anterior se tiene que C 0 genera al subespacio
i=1
Im L ⊆ W . Más aún, |C 0 | = |C| = n − q (ya que quitamos en cada Ci un vector).
Además, los vectores iniciales de los ciclos Ci0 también son vectores iniciales de los Ci .
Podemos entonces aplicar la hipótesis de inducción a C 0 y concluir que C 0 es linealmente
independiente. Se sigue que C 0 es base de Im L y por lo tanto dimK Im L = n − q.
Por otra parte, como los q vectores iniciales de los ciclos Ci son linealmente inde-
pendientes por una hipótesis del teorema, y como además estos vectores iniciales son los
(únicos) vectores propios de los ciclos Ci , entonces cada uno de ellos está en ker(L) =
ker(T − λ idV ), por lo que dimK ker(L) ≥ q.
De la igualdad dimW = dim ker L + dimK Im L se sigue que
n ≥ dimK W = dimK ker L + dimK Im L ≥ q + (n − q) = n
y por lo tanto todas estas desigualdades deben ser igualdades y ası́ dimK W = n =
dimK V y como C genera a W por definición de W y |C| = n, entonces C es linealmente
independiente, como se querı́a. 

El resultado principal es:


Teorema 6.21. Sea T : V → V un operador lineal en un K-espacio vectorial de dimen-
sión finita n y sea λ un valor propio de T . Entonces, Kλ (T ) tiene una base dada por una
unión de ciclos disjuntos de vectores propios generalizados asociados a λ.
D EMOSTRACI ÓN . Por inducción sobre m = dimK Kλ (T ). Si m = 1, Kλ (T ) = Eλ (T )
tiene dimensión 1 y no hay nada que probar. Asumamos que el resultado es válido siempre
que dimK Kλ (T ) < m y supongamos que dimK Kλ (T ) = m. Consideremos la resticción
L = (T −λ idV )|Kλ (T ) y su imagen Im L ⊆ Kλ (T ). Note que (T −λ idV ) no es inyectiva
porque existen vectores propios distintos de cero en Kλ (T ); se sigue que (T − λ idV )
tampoco es suprayectiva y por lo tanto dimK Im L < dimK Kλ (T ). Observe que Im L =
Kλ (TIm L ). Podemos entonces aplicar la hipótesis de inducción a Im L y ası́ existen ciclos
disjuntos de vectores propios generalizados de T |Im L ( y por lo tanto de T ), digamos
C1 , . . . , Ck , tales que C 0 = C1 ∪ · · · ∪ Ck es una base de Im L. Para cada i, 1 ≤ i ≤ k,
el vector final del ciclo Ci es la imagen, bajo L, de un vector vi ∈ Kλ (T ) y ası́, podemos
extender cada Ci al ciclo Cei = Ci ∪ {vi } de vectores propios generalizados de T . Para
cada i sea wi el vector inicial de Cei (y por lo tanto de Ci ). Como {w1 , . . . , wk } es un
subconjunto linealmente independiente de Eλ (T ) (ya que los vectores iniciales de cada
ciclo son vectores propios), entonces podemos extender este conjunto a una base de Eλ (T ),
digamos {w1 , . . . , wk , u1 , . . . , us }. Considerando cada {uj } como un ciclo, se tiene que
Ce1 , . . . , Cek , {u1 }, . . . , {us }
son ciclos disjuntos de vectores propios generalizados de T tales que los vectores iniciales
son linealmente independientes. Por el teorema anterior su unión Ce es un subconjunto
linealmente independiente de Kλ (T ). Probaremos que es una base. En efecto, si |C| =
dimK Im L =: r, como |Cei | = |Ci | + 1, entonces
|C|
e = |Ce1 | + · · · + |Cek | + |{u1 }| + · · · + |{us }| = |C| + q + 1 + · · · + 1 = r + q + s.
| {z }
s
Más aún, como {w1 , . . . , wk , u1 , . . . , us } es base de Eλ (T ) = ker L, entonces la
dimensión de ker L es k + s, por lo que
dimK Kλ (T ) = dimK Im L + dimK ker L = r + k + s = |C| e
160 6. FORMAS CANÓNICAS

y ası́ |C|
e = dimK Kλ (T ), con Ce linealmente independiente y por lo tanto Ce debe ser una
base de Kλ (T ), como se querı́a. 

6.3. La forma canónica racional


Hasta ahora hemos usado valores propios, vectores propios y vectores propios gene-
ralizados, para analizar operadores lineales cuyo polinomio caracterı́stico se descompone
en factores lineales. Por otra parte, sabemos que, en general, todo polinomio no constante
f (t) ∈ K[t] se descompone, en forma esencialmente única, en factores irreducibles en
K[t]:
(∗) f (t) = p1 (t)m1 · · · pk (t)mk
con los pj (t) polinomios irreducibles en K[t] y mj ≥ 1 enteros. Ahora, si T : V → V es
un operador lineal en un K-espacio vectorial de dimensión finita n, entonces su polinomio
caracterı́stico es de la forma
φT (t) = (−1)n tn + an−1 tn−1 + · · · + a1 t + a0 ∈ K[t]
y ası́ su factorización (∗) la podemos escribir como
φT (t) = (−1)n φ1 (t)m1 · · · φk (t)mk
con los φj (t) polinomios mónicos irreducibles distintos en K[t] y los mj ≥ 1 enteros.
Cuando φT (t) se descompone en factores lineales en K[t] los φj (t) son de grado 1 y
mónicos, i.e., son de la forma φj (t) = t − λj con λj ∈ K un valor propio de T . Ası́, hay
una biyección entre los valores propios de T y los factores mónicos de φT (t). Ahora, el
hecho de que un polinomio se descomponga  dependeno sólo del polinomio sino también
0 −1
del campo K en cuestión. El ejemplo A = ∈ Mat 2 × 2(R) cuyo polinomio
1 0
caracterı́stico es φA (t) = t2 + 1 ∈ R[t] muestra que, en general, puede suceder que A no
tenga ningún valor propio en K, R en este caso. Otro ejemplo es
 
0 −1 0 0
1 0 0 0
A= 0 0 0 2 ∈ Mat4×4 (Q)

0 0 1 0
cuyo polinomio caracterı́stico es
φA (t) = (t2 + 1)(t2 − 2) ∈ Q[t]
y cuya factorización en polinomios irreducibles es precisamente la anterior, también mues-
tra que no tiene valores propios en Q. Sin embargo, viendo a la matriz con entradas en R
(ya que Q ⊆ R), su polinomio caracterı́stico se factoriza como
√ √
φA (t) = (t2 + 1)(t2 − 2) = (t2 + 1)(t − 2)(t + 2) ∈ R[t]
y ası́ A tiene dos valores propios en R. Más aún, viendo a A con entradas en C (ya que
Q ⊆ R ⊆ C), su polinomio caracterı́stico se factoriza en C[t] como
√ √
φA (t) = (t − i)(t + i)(t − 2)(t + 2) ∈ C[t]
por lo que tiene todas sus raı́ces en C.
Los ejemplos anteriores muestran que no siempre se tienen los valores propios de un
operador T en el campo K correspondiente; sin embargo siempre se tiene la factorización
de φT (t) en polinomios irreducibles mónicos φj (t) de K[t] y en esa sección obtendremos
algunos teoremas sobre la estructura del operador T basados en los factores irreducibles
6.3. LA FORMA CANÓNICA RACIONAL 161

φj (t) de φT (t) en lugar de usar sus valores propios. La definición siguiente recoge lo
salvable para poder generalizar las nociones de espacios propios y espacios propios gene-
ralizados:
Definición 6.22.

E JERCICIO 1. Si T : V → V es un operador lineal en un K-espacio vectorial de dimensión


finita y si T es triangulable, demuestre que T es un isomorfismo si y sólo si todas las
entradas en diagonal de la matriz triangular superior correspondiente son distintas de cero.

E JERCICIO 2. Si T : V → V es un operador lineal en un K-espacio vectorial de dimensión


finita y existe una base de V tal que la matriz asociada a T con respecto a esta base es
triangular inferior, i.e., todas las entradas arriba de la diagonal principal son cero, ¿será T
triangulable (superiormente)?

E JERCICIO 3. Si T : V → V es un operador lineal en un K-espacio vectorial de dimensión


finita y T es triangulable, ¿cuáles son valores propios de T ?

E JERCICIO 4. Sea T : V → V un operador lineal nilpotente en un K-espacio vectorial de


dimensión finita n y supongamos que todos los valores propios de T están en K. Demuestre
que T es triangulable. ¿Cuáles son los valores propios de un operador nilpotente?

E JERCICIO 5. Sea T : V → V un operador lineal nilpotente en un K-espacio vectorial


de dimensión finita n. Demuestre que existe un operador lineal L : V → V tal que L2 =
idV +T .

E JERCICIO 6. Sea T : V → V un operador lineal nilpotente en un K-espacio vectorial de


dimensión finita n y sea k > 0 el menor entero positivo tal que T k = 0. Para un subespacio
vectorial W ⊆ V defina
T j W := {T j w : w ∈ W } = Im T j ,
para j ≥ 0 entero. Demuestre que el subespacio
W + T W + T 2 W + · · · + T k−1 W ⊆ V
es T -invariante.

E JERCICIO 7. Sean L, T : V → V operadores lineales tales que L ◦ T es nilpotente.


Demuestre que T ◦ L también es nilpotente.

E JERCICIO 8. Sea T : V → V un operador lineal idempotente, i.e., T 2 = T . Demuestre


que V = ker T ⊕ Im T .

E JERCICIO 9. Sea T : V → V un operador lineal arbitrario en un K-espacio vectorial de


dimensión finita n. ¿Será cierto que V = ker T ⊕ Im T ? Si lo es, demuéstrelo; si no lo es,
dé un contraejemplo.

E JERCICIO 10. Sea T : C2 → C2 dado por T (w, z) = (z, 0). Encuentre todos los vectores
propios generalizados de T .

E JERCICIO 11. Sea T : C2 → C2 dado por T (w, z) = (−z, w). Encuentre todos los
vectores propios generalizados de T .
162 6. FORMAS CANÓNICAS

E JERCICIO 12. Sea V un C-espacio vectorial de dimensión finita n y sea T : V → V un


operador lineal. Demuestre que V tiene una base de vectores propios de T si y sólo si todo
vector propio generalizado de T es, de hecho, un vector propio de T .

E JERCICIO 13. Sea T : V → V un operador lineal y sea λ un valor propio de T . Demuestre


que ker(T − λ idV )k = ker(λ idV −T )k , para todo k ≥ 1.

E JERCICIO 14. Sea T : V → V un operador lineal en un K-espacio vectorial de dimensión


finita n y sea λ un valor propio de T . Si B es una base de Jordan de T , demuestre que
B 0 = B ∩ Kλ (T ) es base de Kλ (T ).

E JERCICIO 15. Sea T : V → V un operador lineal nilpotente en un C-espacio vectorial


de dimensión finita n. Demuestre que T se puede escribir como T = D + N , donde D es
un operador diagonalizable, N es un operador nilpotente y DN = N D.

E JERCICIO 16. Con las mismas hipótesis que el ejercicio anterior y suponiendo además
que V es T -cı́clico, demuestre que:
(i) T tiene un único valor propio λ.
(ii) Eλ (T ) es de dimensión 1.

E JERCICIO 17. Con las mismas hipótesis del ejercicio 12 y suponiendo además que T es
nilpotente y no cero, demuestre que T no es diagonalizable.

E JERCICIO 18. Sea D : P3 (C) → P3 (C) el operador derivación.


(i) Calcule [D]C para la base canónica 1, z, z 2 , z 3 de P3 (C).
(ii) Encuentre la forma canónica de Jordan de esta matriz.

E JERCICIO 19. Para cada uno de los operadores lineales siguientes, encuentre una base
para cada espacio propio generalizado, de tal manera que la base sea una unión de ciclos
disjuntos de vectores propios generalizados:
 
1 1
(i) A : R2 → R2 dado por A = .
  −1 3
11 −4 −5
(ii) A = 21 −8 −11.
3 −1 0
(iii) T : P2 (R) → P2 (R) dado por T (f ) = 2f − f 0 .

E JERCICIO 20. Encuentre la forma canónica de Jordan de cada operador el ejercicio ante-
rior.
Capı́tulo 7
Espacios con producto interno
vectoriales en general, habiendo abs-
H ASTA AHORA HEMOS ESTUDIADO ESPACIOS
traı́do las propiedades de los espacios Rn . En este proceso de abstracción hemos
ignorado ciertas propiedades de Rn , en particular de R2 y R3 , relacionadas con el concep-
to de medición tales como las nociones de longitud, área, volumen y ángulos, es decir, de
ciertas propiedades de los vectores de Rn importantes en contexto de medir. Por ejemplo,
en R2 , si visualizamos sus vectores como segmentos de recta dirigidos o flechas basados
en el origen:

6
kvk *◦


 y
◦
x • -

observando esta figura vemos que se tiene un triángulo rectángulo con hipotenusa el vector
v y catetos sus componentes x, y. Para ser precisos, su hipotenusa en realidad es lo que
intuitivamente pensaremos como la longitud del vector v, a la que denotaremos por kvk y
a la que llamaremos la norma del vector v. Del teorema de Pitágoras se sigue que kvk2 =
x2 + y 2 , por lo que p
kvk = x2 + y 2 .
Similarmente, para vectores en R3 , digamos v = (x, y, z):

6
v 
1
 z -
◦P

q x
PP
P
y

por un razonamiento análogo se tiene que la norma del vector v está dada por
p
kvk = x2 + y 2 + z 2 .
Esto se puede generalizar a vectores v ∈ Rn , digamos v = (x1 , x2 , . . . , xn ) para
definir su norma como: q
kvk = x21 + x22 + · · · + x2n .
Resulta que la norma es una función k k : Rn → R y el lector puede verificar fácil-
mente que no es una función lineal. El objetivo es entonces tratar de obtener la norma
de un vector v usando funciones lineales y para ésto, en primer lugar hay que ver a la
norma de v como una función de las n componentes xj de v y luego se introduce el pro-
ducto punto de vectores de Rn usando estas componentes, mediante la regla siguiente. Si
163
164 7. ESPACIOS CON PRODUCTO INTERNO

v = (x1 , . . . , xn ) y w = (y1 , . . . , yn ) son dos vectores de Rn , su producto punto es el


escalar
v · w := x1 y1 + x2 y2 + · · · + xn yn ∈ R.
Enfatizamos que el producto punto de dos vectores de Rn es un escalar y no un vector.
Observe que la norma de un vector v = (x1 , . . . , xn ) de Rn está dada, en términos del
producto punto mediante la fórmula
kvk2 = v · v.

7.1. Productos internos y hermitianos


El producto punto de vectores de Rn es una función Rn × Rn → R que satisface las
propiedades de la definición siguiente, como el lector puede verificar fácilmente, y donde
hemos incluido la conjugación compleja para el caso de espacios vectoriales sobre C.
Definición 7.1. Denotemos con K al campo R ó al campo C, y sea V un K-espacio
vectorial. Un producto interno en V es una función
h, i:V ×V →K
que asigna a cada par ordenado de vectores (v, w) ∈ V × V un escalar hv, wi ∈ K que
satisface las propiedades siguientes:
(i) Es aditivo en la primera componente, i.e.,
hv + v 0 , wi = hv, wi + hv 0 , wi
para todo v, v 0 , w ∈ V .
(ii) Es homogéneo en la primera componente, i.e.,
hλv, wi = λhv, wi
para todo v, w ∈ V y λ ∈ K.
(iii) Es simétrico bajo conjugación, i.e.,
hv, wi = hw, vi
para cualesquiera v, w ∈ V y donde la barra denota la conjugación compleja.
(iv) Es positivo, i.e.,
hv, vi ≥ 0
para todo v ∈ V .
(v) Es no degenerado, i.e.,
hv, vi = 0 ⇔ v = 0.
Recordemos que R ⊆ C y que un complejo λ ∈ C es real si y sólo si λ = λ. Ası́,
si V es un R-espacio vectorial la propiedad (iii) nos dice que un producto interno real es
simétrico: hv, wi = hw, vi. Se sigue que un producto interno real es aditivo y homogéneo
en la segunda variable también.

Ejemplo 1. Si V = Rn y si v = (a1 , . . . , an ), w = (b1 , . . . , bn ) están en Rn , la función


dada por el producto punto:
X n
hv, wi := v · w = a1 b1 + · · · + an bn = aj bj
j=1
n
es un producto interno en R . En ocasiones diremos que el producto punto es el producto
euclidiano usual de Rn . Su generalización al C-espacio vectorial Cn es obvia:
7.1. PRODUCTOS INTERNOS Y HERMITIANOS 165

Ejemplo 2. Si V = Cn y si v = (a1 , . . . , an ), w = (b1 , . . . , bn ) están en Cn , la función


dada por:
X n
hv, wi := a1 b1 + · · · + an bn = aj bj
j=1

es un producto interno en C , al que se suele llamar el producto hermitiano usual de Cn .


n

Un mismo espacio vectorial puede tener diferentes productos internos:

Ejemplo 3. Si V = Rn y si λ1 , . . . , λn ∈ R son reales positivos dados, para v =


(a1 , . . . , an ), w = (b1 , . . . , bn ) en Rn , a función
n
X
hv, wi := λ1 a1 b1 + · · · + λn an bn = λj aj bj
j=1

es un producto interno en Rn . Note que si todos los escalares λj = 1 se recobra el producto


punto usual de Rn . Otro caso particular es cuando todos los λj = λ > 0 son iguales a una
constante positiva. En este caso se tiene que
hv, wi = λ(v · w)
donde en la derecha se tiene al producto euclidiano usual.

Ejemplo 4. Si V = Pn (R) es el R-espacio vectorial de los polinomios con coeficientes


reales y de grado ≤ n, la función
h , i : Pn (R) × Pn (R) → R
dada, para p(x), q(x) ∈ Pn (R), por la integral definida:
Z 1
hp, qi := p(x)q(x)dx
0

es un producto interno en Pn (R). El único axioma que puede dar un poco de dificultad
es el (v), pero en este caso notamos que si p(x) = q(x), entonces p(x)q(x) = p(x)2 y si
p(x) 6= 0, entonces existe un real α ∈ [0, 1] tal que p(α) 6= 0 y ası́ p(α)2 > 0. Ahora, como
p(x) es una función continua en [0, 1], existe una vecindad de α tal que p(a)2 > 0 en esa
R1
vecindad y por lo tanto, ya que p(x)2 ≥ 0 en todo [0, 1], se debe tener que 0 p(x)2 dx > 0.

Ejemplo 5. Si V = Matn×n (R), la función h , i → R dada por


hA, Bi := Tr(At B),
donde t B es la transpuesta de B, es un producto interno en V . Los axiomas (i) y (ii) son
fáciles de verificar. Para (iii) se tiene que
hB, Ai = Tr(B t A) por definición
= Tr(t (B t A)) porque Tr(t M ) = Tr(M )
= Tr(At B) porque t (M N ) = t N t M y t (t A)) = A
= hA, Bi.
166 7. ESPACIOS CON PRODUCTO INTERNO

Para (iv) y (v), si A 6= 0 y si A = (aij ), entonces t A = (aji ) y ası́


  
a11 a12 · · · a1n a11 a21 · · · an1
 a21 a22 · · · a2n   a12 a22 · · · an2 
A · tA =  .  =: (bij )
  
  ..
 ..  . 
an1 an2 · · · ann a1n a2n · · · ann
donde notamos que los elementos bii de la diagonal de A · t A son de la forma
n
X
bii = a2ik
k=1

y por lo tanto
n
X n X
X n
Tr(At A) = bii = a2ik
i=1 i=1 k=1
t
por lo que Tr(A A) ≥ 0 y es > 0 si A 6= 0 (ya que entonces algún aik 6= 0).

Note que las propiedades (i) y (ii) de un producto interno nos dicen que la función
h , i es lineal en la primera variable. Las primeras dos partes del teorema siguiente nos
dicen que la función h , i casi es lineal en la segunda variable (de hecho, lo es si K = R):
Teorema 7.2. Sea V un K-espacio vectorial con producto interno h , i. Si u, v, w ∈ V y
si λ ∈ K, entonces
(1) hu, v + wi = hu, vi + hu, wi. Es decir, h , i es aditiva en la segunda variable.
(2) hu, λvi = λhu, vi. Es decir, h , i saca escalares en la segunda variable, pero los
conjuga.
(3) h0, vi = 0 y, consecuentemente, hv, 0i = 0 también.
(4) Si hu, vi = 0 para toda v, entonces u = 0.
D EMOSTRACI ÓN . Para (1):
hu, v + wi = hv + w, ui por el axioma (iii)
= hv, ui + hw, ui por (i)
= hv, ui + hw, ui
= hu, vi + hu, wi por (iii).
Para (2):
hu, λvi = hλv, ui por el axioma (iii)
= λhv, ui por (ii)
= λhv, ui
= λhu, vi por (iii).
La parte (3) se sigue por linealidad en la primera variable. Para (4), como 0 = hu, vi
para toda v, en particular para v = u se tiene que 0 = hu, ui y ası́, por el axioma (v) se
sigue que u = 0. 

E JERCICIO 1. Si hu, vi = hu, wi para todo u ∈ V , demuestre que v = w.


7.2. NORMAS 167

7.2. Normas
Como indicamos al principio del capı́tulo, la noción de norma o longitud de un vector
está implı́cita en el concepto de producto interno.

p vectorial con producto interno. Si v ∈ V , su norma,


Definición 7.3. Sea V un K-espacio
denotada kvk, es el escalar kvk := hv, vi.

Ejemplo 6. La norma euclidiana de Rn es la norma dada por el producto punto de Rn , es


decir, si v = (a1 , . . . , an ) ∈ Rn , su norma es:
q
kvk = a21 + · · · + a2n .

Note que si n = 1 se recupera el valor absoluto usual de R, i.e., kvk = |v| si v ∈ R.

Ejemplo 7. Si V = Cn tiene el producto hermitiano usual, la norma de un vector v =


(α1 , . . . , αn ) ∈ Cn está dada por
√ p
kvk = α1 α1 + · · · + αn αn = |α1 |2 + · · · + |αn |2 ,
donde |αj | es el módulo del complejo αj .

Ejemplo 8. Si Pn (R) tiene el producto interno del ejemplo 4 y si p(x) ∈ Pn (R), su norma
es s
Z 1
kp(x)k = p(x)2 dx.
0

Las propiedades siguientes son inmediatas de las propiedades correspondientes de un


producto interno:
Teorema 7.4. Sea V un K-espacio vectorial con producto interno. Para todo v ∈ V y
λ ∈ K se satisface:
(1) kvk ≥ 0 y kvk = 0 si y sólo si v = 0.
(2) kλvk = |λ|kvk, donde |λ| es el valor absoluto de λ si K = R y es el módulo de λ si
K = C.
p
D EMOSTRACI ÓN . (1): Como kvk = p + hv, vi ≥ 0, entonces kvk ≥ 0 para todo v. Es
claro que si v = 0 se tiene que k0| = h0, 0i = 0 y si kvk = 0, entonces hv, vi = 0 y por
la definición 7.1 (v) se sigue que v = 0.
Para (2),
kλvk2 = hλv, λvi por definición de norma
= λhv, λvi
= λλhv, vi por 7.2 (2)
= |λ|2 kvk
de donde sacando raı́ces cuadradas se sigue el resultado deseado. 

Ortogonalidad. En R2 con el producto punto usual, si u = (a, b) y si v = (−b, a):


168 7. ESPACIOS CON PRODUCTO INTERNO

6
v KA u
A *

A 
A◦ -

es fácil probar que u y v, vistos como segmentos de recta dirigidos, son geométricamente
perpendiculares. Observe que en este caso se tiene que

u · v = (a, b) · (−b, a) = −ab + ab = 0.

Se puede probar también que, si u · v = 0, entonces u y v son perpendiculares. Esto motiva


la definición siguiente:

Definición 7.5. Si V es un K-espacio vectorial con producto interno, diremos que dos
vectores u, v ∈ V son ortogonales o perpendiculares, denotado u ⊥ v, si hu, vi = 0.

Observaciones. (1). Si u ⊥ v, entonces v ⊥ u ya que hu, vi = 0 implica que hv, ui =


hu, vi = 0 = 0.

(2). El vector 0V ∈ V es ortogonal a cualquier otro vector v ∈ V ya que h0V , vi = 0.

(3). El vector 0V ∈ V es el único vector que es ortogonal a sı́ mismo ya que hu, ui = 0 ⇔
u = 0V .

El teorema siguiente toma su nombre del caso V = R2 con el producto interno eucli-
diano.

Teorema 7.6 (Pitágoras). Si V es un K-espacio vectorial con producto interno y si u, v ∈


V son ortogonales, entonces

ku + vk2 = kuk2 + kvk2 .

D EMOSTRACI ÓN .

ku + vk2 = hu + v, u + vi
= hu, ui + hu, vi + hv, ui + hv, vi
= kuk2 + 0 + 0 + kvk2 ya que hu, vi = 0 = hv, ui
= kuk2 + kvk2 .

Las desigualdades de Cauchy- Schwarz y del triángulo. Estas son dos de las desigual-
dades más importantes en matemáticas y son válidas en cualquier espacio vectorial con
producto interno. Para obtener estas desigualdades usaremos el resultado genérico siguien-
te: supongamos que u, v ∈ V son dos vectores con uno de ellos, digamos v, distinto de
cero; si quisiéramos escribir al vector u ∈ V como combinación lineal de un múltiplo
escalar de v y un vector w ortogonal a v, es decir, si quisiéramos escribir a u como en la
figura siguiente:
7.2. NORMAS 169


u  w


 
1 λv
◦
 v

entonces el vector w que buscamos debe satisfacer la igualdad u = λv + w, i.e.,

(1) w = u − λv

y además debe ser ortogonal a v, es decir, debe satisfacer la igualdad hw, vi = 0, i.e.,
hu − λv, vi = 0. Desarrollando el lado izquierdo obtenemos

hu, vi − λhv, vi = 0

y ası́ λkvk2 = hu, vi y como v 6= 0V , entonces kvk =


6 0 por lo que podemos despejar el
escalar λ de la igualdad anterior:

hu, vi
(2) λ= .
kvk2
Hemos ası́ probado que si v 6= 0V , entonces para cualquier vector u ∈ V existe un
escalar λ tal que u − λv ⊥ v. Note que con este escalar λ el vector w de la ecuación (1)
queda

hu, vi
(3) w =u− v.
kvk2
El escalar λ ası́ obtenido se llama la componente de u a lo largo de v y se denota

λ = compv (u).

El vector λv se llama la proyección de u a lo largo de v y se denota

λv = proyv (u).

Teorema 7.7 (Desigualdad de Cauchy- Schwarz.). Si V es un K-espacio vectorial con


producto interno y si u, v ∈ V , entonces

|hu, vi| ≤ kukkvk.

D EMOSTRACI ÓN . Si v = 0 ambos lados de la desigualdad son cero y ası́ no hay nada que
probar. Supongamos entonces que v 6= 0. Para w = u − hu,vi
kvk2 v, como en la ecuación (3)
de la discusión previa al teorema, se tiene que w ⊥ v y

hu, vi
u= v+w
kvk2
170 7. ESPACIOS CON PRODUCTO INTERNO

hu,vi
con w ⊥ kvk2 v y ası́, por el teorema de Pitágoras

hu, vi 2

2
kuk =
v + kwk2
kvk2
hu, vi 2

= kvk2 + kwk2
kvk2
|hu, vi|2
= + kwk2
kvk2
|hu, vi|2
≥ ya que kwk2 ≥ 0.
kvk2
Multiplicando ambos lados de la desigualdad anterior por kvk2 y luego sacando raı́z
cuadrada el resultado se sigue. 

Ejemplo 9. Si V = Rn con el producto punto usual y si u = (a1 , . . . , an ) y v =


(b1 , . . . , bn ), la desigualdad de Cauchy- Schwarz es:
 1/2  1/2
n n n
X X X
a2j   b2j  .


aj bj ≤ 
j=1 j=1 j=1

Ésta es la fórmula que Cauchy probó en 1821.

Ejemplo 10. Si V = C([0, 1], R) y si f (x), g(x) ∈ V , la desigualdad de Cauchy- Schwarz


es:
Z 1 Z 1 1/2 Z 1 1/2
2 2

f (x)g(x)dx ≤ f (x) dx g(x) dx .

0 0 0

Ésta es la fórmula que H. Schwarz probó en 1886.

La observación geométrica de que la longitud de un lado de un triángulo es menor que


la suma de las longitudes de sus otros dos lados:


u+v 
 v

 
1
◦
 u

es el origen del teorema siguiente:

Teorema 7.8 (Desigualdad del triángulo). Si V es un K-espacio vectorial con producto


interno y si u, v ∈ V , entonces
ku + vk ≤ kuk + kvk.
7.3. BASES ORTONORMALES 171

D EMOSTRACI ÓN .
ku + vk2 = hu + v, u + vi
= hu, ui + hu, vi + hv, ui + hv, vi
= kuk2 + hu, vi + hu, vi + kvk2
= kuk2 + 2Re hu, vi + kvk2
(recordando que si z = x + iy ∈ C, z + z = 2Re (z))
≤ kuk2 + 2|hu, vi| + kvk2
(ya que |z| ≥ |x| ≥ x, para z = x + iy ∈ C)
≤ kuk2 + 2kukkvk + kvk2 por la desigualdad de Cauchy- Schwarz
2
= (kuk + kvk) ,
y sacando raı́z cuadrada se obtiene el resultado deseado. 

Ejemplo 11. Las desigualdades del triángulo correspondientes a los ejemplos 9 y 10 son:
" n #1/2 " n #1/2 " n #1/2
X X X
2 2 2 2
(aj + bj ) ≤ aj + bj
j=1 j=1 j=1

y
Z 1 1/2 Z 1 1/2 Z 1 1/2
(p(x)2 + q(x)2 )dx ≤ f (x)2 dx + g(x)2 dx .
0 0 0

E JERCICIO 1. En la desigualdad de Cauchy- Schwarz, demuestre que se tiene la igualdad


si sólo si uno de los vectores es múltiplo escalar del otro.

E JERCICIO 2. (Igualdad del paralelogramo). Si V es un espacio vectorial con producto


interno y si u, v ∈ V , demuestre que
ku + vk2 + ku − vk2 = 2(kuk2 + kvk2 )
e interprete geométricamente esta igualdad.

7.3. Bases ortonormales


Si V es un espacio vectorial con producto interno, un vector u ∈ V se dice que es
unitario si kuk = 1. Si v es cualquier vector no cero, multiplicando v por 1/kvk se obtiene
un vector unitario u = (1/kvk)v. Un conjunto de vectores u1 , . . . , um de V se dice que
es ortonormal si cada uj es unitario y si son ortogonales por pares, i.e., hui , uj i = 0 para
i 6= j.

Ejemplo 12. En Rn los vectores canónicos e1 , . . . , en son ortonormales.

Nuestro objetivo ahora es mostrar que todo espacio vectorial de dimensión finita y con
producto interno, tiene una base consistente de vectores ortonormales. Una de las ventajas
de tener una base ortonormal en V es que es muy fácil expresar cada vector v ∈ V como
una combinación lineal de la base ortonormal, lo cual es el contenido del teorema siguiente:
172 7. ESPACIOS CON PRODUCTO INTERNO

Teorema 7.9. Sea V un espacio vectorial con producto interno y sea u1 , . . . , um un con-
junto ortonormal de V . Si v ∈ V se escribe como v = a1 u1 + · · · + am um , entonces
aj = hv, uj i, es decir,
Xm
v= hv, uj iuj .
j=1

D EMOSTRACI ÓN . Calculando el producto interno de v con cada uj se tiene que


DXm E Xm
hv, uj i = ai ui , uj = ai hui , uj i = aj ,
i=1 i=1

ya que hui , uj i = 0 si i 6= j y huj , uj i = 1. 

Una consecuencia inmediata es:


Corolario 7.10. Sea V un espacio vectorial con producto interno. Si u1 , . . . , um es un
conjunto ortonormal de V , entonces es linealmente independiente.
D EMOSTRACI ÓN . Si a1 u1 +· · ·+am um = 0, entonces para v = 0, por el teorema anterior
se tiene que aj = h0, uj i = 0. 

Los resultados anteriores nos muestran la importancia de tener una base ortonormal
de V y el teorema siguiente nos dice cómo obtener una tal base para un espacio vectorial
de dimensión finita y con un producto interno. El algoritmo que se usa en la construcción
de una tal base ortonormal de V , a partir de una base cualquiera de V , se llama el proce-
dimiento de Gram-Schmidt y la idea es la misma que usamos en los párrafos previos a la
demostración de la desigualdad de Cauchy- Schwarz. La recordamos para ponerla en con-
texto: dados dos vectores v1 , v2 linealmente inpendientes (que son base de un subespacio
vectorial W de V de dimensión 2), poniendo w1 := v1 y w2 := v2 − λv1 = v2 − λw1 ,
para el escalar λ dado por
hv2 , w1 i
λ :=
kw1 k2
se tiene que w1 ⊥ w2 y además v2 = w2 + λw1 . Observe ahora que como v1 = w1 ,
entonces v1 , v2 ∈ K(w1 , w2 ) y por lo tanto w1 y w2 son una base de W consistente
de vectores ortogonales. Finalmente, dividiéndolos entre su norma se obtiene una base
ortonormal de W :
1 1
u1 := w1 y u2 := w2 .
kw1 k kw2 k
El método anterior se puede aplicar ahora a tres vectores v1 , v2 , v3 linealmente inde-
pendientes y que son base de un subespacio W de V de dimensión 3. El método nos dice
que pongamos w1 := v1 y después se define
hv2 , w1 i
w2 := v2 − w1
kw1 k2
y finalmente
hv3 , w1 i hv3 , w2 i
w3 := v3 − 2
w1 − w2 .
kw1 k kw2 k2
Claramente v1 , v2 , v3 son combinación lineal de w1 , w2 , w3 y ası́ los vectores w1 , w2 ,
w3 generan el mismo subespacio W . Por el paso anterior se tiene que w1 ⊥ w2 y sólo
falta mostrar que w3 es ortogonal a los otros dos vectores. Esto lo haremos como el paso
inductivo en el teorema siguiente:
7.3. BASES ORTONORMALES 173

Teorema 7.11 (Gram-Schmidt). Sea V un espacio vectorial con producto interno. Si


v1 , . . . , vm son linealmente independientes, entonces existen vectores u1 , . . . , um orto-
normales tales que u1 , . . . , uk es una base del subespacio generado por v1 , . . . , vk , para
k = 1, . . . , m.
D EMOSTRACI ÓN . Por inducción sobre k, el caso k = 2 es el de las observaciones previas
al teorema. Supongamos ahora que el teorema es válido para k − 1, i.e., que ya se eligieron
vectores ortonormales u1 , . . . , uk−1 tales que
K(u1 , . . . , uk−1 ) = K(v1 , . . . , vk−1 )
y defı́nase
uk := vk − λ1 u1 − λ2 u2 − · · · − λk−1 uk−1
para λj := hvk , uj i/kuj k2 . Entonces, uk ⊥ uj , para j = 1, . . . , k − 1, ya que
huk , uj i = hvk , uj i − λ1 hu1 , uj i − λ2 hu2 , uj i − · · · − λk−1 huk−1 , uj i
= hvk , uj i − λj huj , uj i ya que hui , uj i = 0 para i 6= j
hvk , uj i
= hvk , uj i − huj , uj i por definición de λj
kuj k2
= 0, ya que huj , uj i = kuj k2 .
Despejando a vk de la definición de uk vemos que vk es combinación lineal de u1 , . . .,
uk−1 , uk y ası́
K(v1 , . . . , vk−1 , vk ) = K(u1 , . . . , uk−1 , vk ) ⊆ K(u1 , . . . , uk−1 , uk )
y como uk es combinación lineal, por definición, de vk y u1 , . . . , uk−1 , se tiene la igualdad
en la inclusión anterior. Finalmente, se normalizan los vectores u1 , . . . , uk dividiéndolos
entre su norma. 
Corolario 7.12. Si V es un espacio vectorial de dimensión finita y con un producto interno,
entonces V tiene una base ortonormal.
D EMOSTRACI ÓN . Por hipótesis existe una base v1 , . . . , vn de V , la cual se ortonormaliza
usando el algoritmo del teorema anterior. 

Si V es un espacio vectorial con producto interno y B ⊆ V es un subconjunto orto-


normal, dado v ∈ V los escalares hv, ui, con u ∈ B se llaman los coeficientes de Fourier
de v relativos a B. El nombre proviene del ejemplo siguiente:

Ejemplo 13. Sea V = C([0, 2π], C) el conjunto de funciones complejas continuas en el


intervalo [0, 2π]. Recuerde que, para t ∈ [0, 2π], f (t) ∈ C se puede escribir de la forma
f (t) = u(t) + iv(t)
con u, v : [0, 2π] → R funciones reales. La función f es continua si y sólo si u y v
son funciones continuas. Con la suma y productos de C, V = C([0, 2π], C) resulta un
C-espacio vectorial. En V se tiene el producto interior dado por
Z 2π
1
hf, gi := f (t)g(t)dt
2π 0
donde la integral de una función compleja φ : [0, 2π] → C, φ(t) = u(t) + iv(t), está dada
mediante Z 2π Z 2π Z 2π
φ(t)dt := u(t)dt + i v(t)dt.
0 0 0
174 7. ESPACIOS CON PRODUCTO INTERNO

Sea W el subespacio de V generado por las funciones



ek (t) := eikt con k ∈ Z, 0 ≤ t ≤ 2π e i = −1,
entonces las funciones ek (t) son ortonormales ya que, si k 6= `:
Z 2π Z 2π 2π
1 1 1 1
hek , e` i = eikt e−i`t dt = ei(k−`)t dt = ei(k−`)t = 0,

2π 0 2π 0 2π i(k − `) 0

y si k = `,
Z 2π Z 2π
1 1 1
hek , ek i = eikt e−ikt dt = dt = (2π) = 1.
2π 0 2π 0 2π
Ahora, si f (t) ∈ C([0, 2π], C), su coeficiente de Fourier con respecto a ek es:
Z 2π
1
λk := hf, ek i = f (t)e−ikt dt
2π 0
y el lector verá en sus cursos de análisis el origen de estos coeficientes.

Ejemplo 14. Si V es el subespacio de R4 generado por los vectores


v1 = (1, 1, 0, 1), v2 = (1, −2, 0, 0), v3 = (1, 0, −1, 2),
es fácil ver que estos vectores son linealmente independientes y para hallar una base orto-
normal de V a partir de ellos, usando el algoritmo de Gram-Schmidt, procedemos como
sigue:
Sea u1 := v1 = (1, 1, 0, 1). Después, pongamos
hv2 , u1 i 1−2+0+0 4 5 
u2 := v2 − u 1 = (1, −2, 0, 0) − (1, 1, 0, 0) = , − , 0, 0 .
ku1 k2 3 3 3
Finalmente,
hv3 , u1 i hv3 , u2 i
u3 := v3 − 2
u1 − u2
ku1 k ku2 k2
4
1+0+0+2 + 0 + 0 + 04 5 
= (1, 0, −1, 2) − (1, 1, 0, 1) − 3 41 , − , 0, 0
3 9
3 3
12 4 5
 
= (1, 0, −1, 2) − 1(1, 1, 0, 1) − , − , 0, 0
41 3 3
 16 37 
= − , − , −1, 1 .
41 41
Para terminar se dividen entre sus normas para hacerlos unitarios.

Proyecciones ortogonales. Si V es un espacio vectorial con producto interno y W ⊆ V


es un subespacio vectorial, consideremos el conjunto
W ⊥ := {v ∈ V : v ⊥ w para todo w ∈ W }.
Lema 7.13. W ⊥ es un subespacio vectorial de V .
D EMOSTRACI ÓN . 0 ∈ W ⊥ ya que h0, wi = 0 para todo w ∈ W . Ahora, si v, v 0 ∈ W ⊥ ,
entonces para todo w ∈ W se tiene que
hv + v 0 , wi = hv, wi + hv 0 , wi = 0 + 0 = 0
y ası́ v + v 0 ∈ W ⊥ . Finalmente, si λ ∈ K y v ∈ W ⊥ , entonces para todo w ∈ W se tiene
que
hλv, wi = λhv, wi = λ · 0 = 0
7.3. BASES ORTONORMALES 175

y ası́ λv ∈ W ⊥ . 

A W ⊥ se le conoce como el complemento ortogonal de W en V . Las propiedades


siguientes son inmediatas y se deja como un ejercicio el probarlas:

(1) V ⊥ = 0.
(2) 0⊥ = V .
(3) W1 ⊆ W2 ⊆ V implica que W1⊥ ⊇ W2⊥ .
Teorema 7.14. Sea V un espacio vectorial de dimensión finita y con un producto interno.
Sea W ⊆ V un subespacio vectorial y sea W ⊥ el complemento ortogonal correspondiente.
Entonces, V = W ⊕ W ⊥ .
D EMOSTRACI ÓN . Si W = 0, entonces W ⊥ = V y no hay nada que probar. Similarmente,
si W = V , entonces W ⊥ = 0 y tampoco hay algo que probar. Supongamos ahora que
0 $ W $ V y sea {w1 , . . . , wr } una base ortonormal de W . Por el algoritmo de Gram-
Schmidt existen vectores ur+1 , . . . , un de V tales que {w1 , . . . , wr , ur+1 , . . . , un } es una
base ortonormal de V . Claramente los uj ∈ W ⊥ ya que son ortogonales a los wi porque
forman parte de la base ortonormal de V ; por linealidad se sigue que son ortogonales a
todos los vectores de W y por lo tanto los uj ∈ W ⊥ . Mostraremos que {ur+1 , . . . , un } es
una base ortonormal de W ⊥ . Para comenzar, son linealmente independientes ya que son
un subconjunto de una base de V . Para ver que generan, sea u ∈ W ⊥ un vector cualquiera.
Pensando a u como vector de V , existen escalares λj tales que
(∗) u = λ1 w1 + · · · + λr wr + λr+1 ur+1 + · · · + λn un
y como u ∈ W ⊥ , entonces, para 1 ≤ j ≤ r, los coeficientes λj = hu, wj i = 0 ya que los
wj ∈ W . Por lo tanto la igualdad (∗) es de la forma
u = λr+1 ur+1 + · · · + λn un
y consecuentemente {ur+1 , . . . , un } genera a W ⊥ . 

Un teorema de Schur. El algoritmo de Gram-Schmidt tiene una aplicación importante a


la teorı́a de operadores lineales:
Teorema 7.15. Sea T : V → V un operador lineal en un espacio vectorial de dimensión
finita con producto interno. Si T es triangulable, entonces T es triangulable con respecto
a una base ortonormal de V .
D EMOSTRACI ÓN . Sea B = {v1 , . . . , vn } una base de V tal que [T ]B es triangular superior.
Por 6.1 cada subespacio K(v1 , . . . , vk ) es T -invariante para k = 1, . . . , n. Aplicando el al-
goritmo de Gram-Schmidt a v1 , . . . , vn se obtiene una base ortonormal U = {u1 , . . . , un }
de V y por el teorema de Gram-Schmidt
K(u1 , . . . , uk ) = K(v1 , . . . , vk ), para k = 1, . . . , n,
por lo que K(u1 , . . . , uk ) es T -invariante para cada k y consecuentemente [T ]U es trian-
gular superior por 6.1. 
Corolario 7.16 (Schur). Sea T : V → V un operador lineal en un espacio vectorial
de dimensión finita con producto interno. Supongamos que el polinomio caracterı́stico de
T se descompone en K. Entonces, existe una base ortonormal U de V tal que [T ]U es
triangular superior.
176 7. ESPACIOS CON PRODUCTO INTERNO

D EMOSTRACI ÓN . Por 6.2, T es triangulable y ası́ el corolario se sigue del teorema previo.


E JERCICIO X. Demuestre las tres afirmaciones que se hicieron después de la definición de


complemento ortogonal.
Capı́tulo 8
Los teoremas espectrales
ABEMOS , POR 5.1∗ , QUE UN OPERADOR LINEAL T : V → V en un K-espacio vec-
S torial de dimensión finita, es diagonalizable si y sólo si el espacio V tiene una base
de vectores propios de T . Ahora, si K = R ó C y si V tiene además un producto interno,
es natural preguntarnos si V tiene una base ortonormal de vectores propios de T . En es-
te capı́tulo retomamos el estudio de operadores lineales añadiendo la condición de que el
espacio considerado tenga un producto interno y la respuesta a la pregunta anterior la dan
los teoremas espectrales, uno para el caso complejo y otro para el caso real. La generali-
zación de estos teoremas espectrales al caso infinito es de gran importancia en el análisis
matemático.

8.1. La adjunta de una transformación lineal


Si V es un K-espacio vectorial, como el campo K mismo también es un K-espacio
vectorial, podemos considerar transformaciones lineales f : V → K a las que por su
naturaleza especial se les suele distinguir llamándolas funcionales lineales.

R1
Ejemplo 1. La función f : Pn (R) → R dada por f (p(x)) := 0
p(x)dx es una funcional
lineal.

Ejemplo 2. La función g : R2 → R dada por g(a, b) := 3a + 2b es una funcional lineal.

Ejemplo 3. Si V es cualquier K-espacio vectorial con producto interno h , i y v ∈ V es un


vector fijo, la función φ : V → K dada por φ(u) := hu, vi es una funcional lineal ya que
φ = h , vi es lineal en la primera variable.

El teorema siguiente nos dice que todas las funcionales lineales en un espacio con
producto interno y de dimensión finita, son de la forma del ejemplo 3.

Teorema 8.1. Sea V un K-espacio vectorial de dimensión finita con producto interno y
sea φ : V → K una funcional lineal. Entonces, existe un único vector v ∈ V tal que
φ(u) = hu, vi, para todo u ∈ V .

D EMOSTRACI ÓN . (Existencia del vector v). Sea u1 , . . . , un una base ortonormal de V .
Por 7.9, para cualquier u ∈ V se tiene que

u = hu, u1 iu1 + · · · + hu, un iun


177
178 8. LOS TEOREMAS ESPECTRALES

y ası́
φ(u) = φ (hu, u1 iu1 + · · · + hu, un iun )
= hu, u1 iφ(u1 ) + · · · + hu, un iφ(un )
= hu, φ(u1 )u1 + · · · + φ(un )un i
(porque hu, λwi = λhu, wi)
= hu, vi
para v := φ(u1 )u1 + · · · + φ(un )un
(Unicidad del vector v). Supongamos que el vector v 0 ∈ V también satisface que φ(u) =
hu, v 0 i para todo u ∈ V . Entonces,
0 = φ(u) − φ(u) = hu, vi − hu, v 0 i = hu, v − v 0 i
para todo u ∈ V ; por 7.2 se sigue que v − v 0 = 0, i.e., v = v 0 , como se querı́a. 

Note la fuerza del teorema anterior que nos dice que toda funcional lineal, en un es-
pacio de dimensión finita y con producto interno, está dada por el producto interno con un
cierto vector v ∈ V que depende sólo de la funcional lineal dada. La fuerza del teorema se
puede apreciar en el ejemplo siguiente:

Ejemplo 4. La función φ : P4 (R) → R dada por


Z 1
φ(p(x)) := p(x) cos xdx
0
es una funcional lineal y el espacio vectorial P4 (R) tiene el producto interno
Z 1
hp, qi := p(x)q(x)dx.
0
Ası́, el teorema anterior nos dice que, para la funcional lineal φ, existe un polinomio q(x) ∈
P4 (R) tal que
Z 1 Z 1
φ(x) = p(x) cos xdx = hp, qi = p(x)q(x)dx.
0 0
Note que q(x) es un polinomio (de grado ≤ 4) por lo que el factor cos x de la definición
de φ no sirve.

La adjunta de una transformación lineal. Supongamos que V y W son dos espacios vec-
toriales de dimensión finita y con producto interno y sea T : V → W una transformación
lineal. Sea w ∈ W cualquier vector y consideremos la funcional lineal
φw : V → K dada, para v ∈ V , mediante φw (v) := hT v, wi
(observando que T v ∈ W y usando el producto interno de W ).
Por el teorema anterior, para la funcional lineal φw : V → K, existe un único vector
en V , al que denotaremos T ∗ w ∈ V , tal que
φw (v) = hv, T ∗ wi,
es decir, tal que
hT v, wi = hv, T ∗ wi
para todo v ∈ V . La existencia y unicidad del vector T ∗ w ∈ V define una función
T∗ : W → V
8.1. LA ADJUNTA DE UNA TRANSFORMACIÓN LINEAL 179

y es fácil ver que T ∗ es lineal. En efecto, si w, w0 ∈ W , entonces


(1) hT v, w + w0 i = hT v, wi + hT v, w0 i = hv, T ∗ wi + hv, T ∗ w0 i = hv, T ∗ w + T ∗ w0 i
y por otra parte
(2) hT v, w + w0 i = hv, T ∗ (w + w0 )i,
las igualdades (1) y (2) y la unicidad del teorema anterior implican que
T ∗ (w + w0 ) = T ∗ w + T ∗ w0 .
Finalmente, si w ∈ W y λ ∈ K, entonces
hT v, λwi = λhT v, wi = λhv, T ∗ wi = hv, λT ∗ wi
y como hT v, λwi = hv, T ∗ (λw)i, la dos igualdades anteriores implican que
T ∗ (λw) = λT ∗ (w)
como se querı́a.
Definición 8.2. La transformación lineal T ∗ : W → V se llama la adjunta de la transfor-
mación lineal T : V → W . La notación T ∗ la leemos, algunas veces, como T -estrella.
Con este lenguaje, lo que probamos arriba es:
Teorema 8.3. Si T : V → W es una transformación lineal entre dos K-espacios vectoria-
les de dimensión finita y con producto interno, entonces existe una única transformación
lineal T ∗ : W → V , la adjunta de T , tal que
(?) hT v, wi = hv, T ∗ wi
para todo v ∈ V y w ∈ W .
D EMOSTRACI ÓN . Sólo falta verificar la unicidad de T ∗ con la propiedad (?) requerida.
Para ésto, supongamos que T ] : W → V es otra transformación lineal tal que
hT v, wi = hv, T ] wi
para todo v ∈ V y w ∈ W . Entonces,
hv, T ∗ wi = hT v, wi = hv, T ] wi
para todo v ∈ V y ası́, la unicidad del teorema 8.1 implica que T ∗ w = T ] w, para todo w
y por lo tanto T ∗ = T ] . 

Ejemplo 5. Sea V = Rn con el producto interno usual


n
X
hv, wi = t v · w = vj wj ,
j=1

y viendo a sus vectores como columnas. Sea A : Rn → Rn un operador lineal con matriz
asociada A. Entonces,
hAv, wi = t (Av) · w = (t v t A) · w = t v · (t Aw) = hv, t Awi
por lo que el adjunto del operador A es su transpuesta A∗ = t A .

El teorema siguiente recoge algunas de las propiedades importantes de la adjunta de


una transformación lineal:
180 8. LOS TEOREMAS ESPECTRALES

Teorema 8.4. Sean V y W dos K-espacios vectoriales de dimensión finita y con productos
internos y sean L, T : V → W dos transformaciones lineales. Entonces,
(1) (T + L)∗ = T ∗ + L∗ .
(2) (λT )∗ = λT ∗ .
(3) (T ∗ )∗ = T .
(4) Si M : W → U es otra transformación lineal, con U un K-espacio vectorial de
dimensión finita con producto interno, entonces
(M ◦ T )∗ = T ∗ ◦ M ∗ .

(5) Si idV : V → V es la transformación identidad, entonces


(idV )∗ = idV .
D EMOSTRACI ÓN . Las partes (1), (2) y (5) las dejamos como un ejercicio. Para (4), si
v ∈ V y u ∈ U , entonces
h(M ◦ T )v, ui = hM (T v), ui = hT v, M ∗ ui = hv, T ∗ ◦ M ∗ ui
(la penúltima igualdad por definición de M ∗ y la última igualdad por definición de T ∗ ) y
ası́ (M ◦ T )∗ = T ∗ ◦ M ∗ , por definición de adjunta.
Para (3), si v ∈ V y w ∈ W , entonces
hw, (T ∗ )∗ vi = hT ∗ w, vi por definición de adjunta
= hv, T ∗ wi por propiedad del producto interno
= hT v, wi por definición de adjunta
= hw, T vi por propiedad del producto interno
= hw, T vi por doble conjugación.

Se sigue que hw, (T ∗ )∗ vi = hw, T vi y por lo tanto T ∗∗ = T . 


Teorema 8.5. Sean V y W dos K-espacios vectoriales de dimensión finita y con productos
internos y sea T : V → W una transformación lineal. Si A = {v1 , . . . , vm } y B =
{w1 , . . . , wn } son bases ortonormales de V y W , entonces, para la adjunta T ∗ : W → V
se tiene que
[T ∗ ]A B
B = conjugada de la transpuesta de [T ]A
es decir, se conjugan cada una de las entradas de la matriz transpuesta de [T ]B
A.

D EMOSTRACI ÓN . Debemos calcular cada T ∗ wi y expresarlo en términos de la base vj .


Ahora, como
T vj = hT vj , w1 iw1 + · · · + hT vj , wn iwn
entonces cada una de las entradas en el rengón j y columna i de [T ] es hT vi , wj i. Por otra
parte, como
T ∗ wi = hT ∗ wi , v1 iv1 + · · · + hT ∗ wi , vm ivm = hwi , T v1 iv1 + · · · + hwi , T vm ivm
entonces la entrada en el renglón i y columna j de [T ∗ ] es
hT ∗ wj , vi i = hwj , T vi i = hT vi , wj i
8.2. OPERADORES AUDOADJUNTOS Y NORMALES 181

y por lo tanto la entrada (i, j) de [T ∗ ] es la conjugada de la entrada (j, i) de [T ], como se


querı́a. 
Corolario 8.6. Si K = R, el teorema anterior nos dice que la matriz de T ∗ es la trans-
puesta de la matriz de T .

El lector puede comparar el corolario anterior con el ejemplo 5.

E JERCICIO X. Si V y W son dos K-espacios vectoriales de dimensión finita, con producto


interno y si T : V → W es una transformación lineal, demuestre que:
(i) ker T ∗ = (Im T )⊥ .
(ii) Im T ∗ = (ker T )⊥ .
(iii) ker T = (Im T ∗ )⊥ .
(iv) Im T = (ker T ∗ )⊥ .

8.2. Operadores audoadjuntos y normales


De nuevo, para enriquecer la teorı́a, nos restringiremos al estudio de transformaciones
lineales de un espacio en sı́ mismo. Seguimos suponiendo que K = R ó C y que los
espacios involucrados son de dimensión finita y con producto interno.
Definición 8.7. Un operador lineal T : V → V se dice que es autoadjunto si T ∗ = T .
Por el último corolario, si K = R, un operador autoadjunto corresponde a una matriz
simétrica (igual a su transpuesta).

Ejemplo 6. Si T : V → V es cualquier operador lineal, el operador


L := T ∗ T − T T ∗
es autoadjunto, ya que
L∗ = (T ∗ T − T T ∗ )∗ = (T ∗ T )∗ − (T T ∗ )∗ = T ∗ T ∗∗ − T ∗∗ T = T ∗ T − T T ∗ = L.
Lema 8.8. Sea T un operador lineal en un K-espacio vectorial de dimensión finita con
producto interno. Si λ es un valor propio de T , entonces λ es un valor propio de T ∗ .
D EMOSTRACI ÓN . Sea B una base ortonormal de V y sea A = [T ]B . Si λ es un valor propio
de T , entonces det(A − λIn ) = 0 y por el ejercicio x se tiene que det(A − λIn )∗ = 0;
pero por 8.4 se tiene que
(A − λIn )∗ = A∗ − (λA)∗ = A∗ − λIn
y por lo tanto det(A∗ − λIn ) = 0 y ası́ λ es un valor propio de A∗ , i.e., de T ∗ . 
Lema 8.9. Si T es un operador autoadjunto en un K-espacio vectorial de dimensión finita
con producto interno, entonces todos los valores propios de T son reales.
D EMOSTRACI ÓN . Por supuesto que la afirmación sólo tiene interés cuando K = C. Sea
pues λ ∈ C un valor propio de T y sea v 6= 0 un vector propio correspondiente a λ.
Entonces, T v = λv y ası́
λkvk2 = λhv, vi = hλv, vi = hT v, vi = hv, T ∗ vi
= hv, T vi ya que T ∗ = T
= hv, λvi = λhv, vi = λkvk2
182 8. LOS TEOREMAS ESPECTRALES

y como kvk2 6= 0, la igualdad anterior implica que λ = λ, i.e., λ ∈ R. 

Operadores normales. En el capı́tulo 5 vimos que un operador lineal T : V → V es


diagonalizable si y sólo si el espacio V tiene una base de vectores propios de T . En el caso
cuando V tiene además un producto interno, el teorema de Schur (7.16) nos dice que si
todos los valores propios de T están en el campo K, entonces V tiene una base ortonormal
B tal que [T ]B es triangular superior. Si además queremos que [T ]B se diagonal, entonces
también [T ∗ ]B será diagonal ya que es la transpuesta conjugada de la matriz diagonal [T ]B .
Observamos ahora que, como las matrices diagonales conmutan, hemos ası́ mostrado que
si V tiene una base ortonormal B de vectores propios de T , entonces T T ∗ = T ∗ T . Vale la
pena guardar esta igualdad:
Definición 8.10. Si T es un operador lineal en un K-espacio vectorial V con producto
interno, diremos que T es normal si T T ∗ = T ∗ T .
Las observaciones previas nos dicen que si V posee una base ortonormal de vectores
propios de T , entonces T es normal. En 8.14 probaremos la afirmación recı́proca para
el caso de C-espacios vectoriales, pero antes necesitaremos algunas propiedades de los
operadores normales y unos ejemplos.

Ejemplo 7. Todo operador autoadjunto es normal.

Ejemplo 8. Si 0 < θ < π y Rθ : R2 → R2 es la rotación por el ángulo θ, entonces en la


base ortonormal canónica de R2 , la matriz de Rθ y la de su adjunta Rθ∗ son:
   
cos θ − sen θ cos θ sen θ
A= y A∗ =
sen θ cos θ − sen θ cos θ
por lo que AA∗ = In = A∗ A y ası́ Rθ es normal.

Observe que Rθ no es autoadjunta, Note también que Rθ no tiene vectores propios


(vea el ejemplo 4 del capı́tulo 5) y ası́ el teorema 8.14 que probaremos para C-espacios
vectoriales no es válido para R-espacios vectoriales, es decir, la normalidad de un operador
lineal no es suficiente para que sea diagonalizable.

Ejemplo 9. Si T : V → V es normal y λ ∈ K es cualquier escalar, entonces T − λ idV :


V → V también es normal. En efecto, (T − λ idV )∗ = T ∗ − λ idV y ası́
(1) (T − λ idV )(T − λ idV )∗ = (T − λ idV )(T ∗ − λ idV ) = T T ∗ − λT − λT ∗ + λλ idV
y
(2) (T − λ idV )∗ (T − λ idV ) = (T ∗ − λ idV )(T − λ idV ) = T ∗ T − λT ∗ − λT + λλ idV
y ası́, de (1) y (2), usando que T ∗ T = T T ∗ , se sigue que
(T − λ idV )(T − λ idV )∗ = (T − λ idV )∗ (T − λ idV ),
i.e., (T − λ idV ) es normal.

El teorema siguiente da una caracterización sencilla de los operadores normales:


Teorema 8.11. Sea T : V → V un operador lineal en un K-espacio vectorial con pro-
ducto interno. Entonces, T es normal si y sólo si kT vk = kT ∗ vk, para todo v ∈ V .
8.2. OPERADORES AUDOADJUNTOS Y NORMALES 183

D EMOSTRACI ÓN . Si T es normal, para cualquier v ∈ V se tiene que


kT vk2 = hT v, T vi
= hv, T ∗ T vi por definición de adjunto
= hv, T T ∗ vi porque T es normal
= hv, T ∗∗ T ∗ vi
= hT ∗ v, T ∗ vi por definición de adjunto de T ∗
= kT ∗ vk2 .
Recı́procamente, si kT vk = kT ∗ vk para todo v ∈ V , entonces de las igualdades
anteriores se tiene que
hv, T ∗ T vi = hv, T T ∗ vi para todo v ∈ V
y por lo tanto
hv, (T ∗ T − T T ∗ )vi = 0 para todo v ∈ V
y consecuentemente (T ∗ T − T T ∗ )v = 0, para todo v ∈ V , i.e., T ∗ T − T T ∗ = 0. 

El lema 8.8 dice que los valores propios del adjunto T ∗ de un operador lineal T son los
conjugados de los valores propios de T , pero no dice nada acerca de los vectores propios
ya que, en general, un operador T y su adjunto T ∗ pueden tener vectores propios distintos.
El corolario siguiente nos dice que, para operadores normales, el adjunto tiene los mismos
vectores propios que el operador dado:
Corolario 8.12. Sea T : V → V un operador normal en un K-espacio vectorial con
producto interno. Si v ∈ V es un vector propio de T con valor propio λ, entonces v es un
vector propio de T ∗ con valor propio λ.
D EMOSTRACI ÓN . Como T v = λv, entonces (T − λ idV )v = 0 y como T es normal, por
el ejemplo 9 también T − λ idV es normal y ası́, por el teorema anterior,
0 = k(T − λ idV )vk = k(T − λ idV )∗ vk = k(T ∗ − λ idV )vk,
i.e., (T ∗ − λ idV )v = 0 y por lo tanto v es vector propio de T ∗ con valor propio λ. 
Corolario 8.13. Sea T : V → V un operador normal en un K-espacio vectorial con
producto interno. Entonces, vectores propios de T correspondientes a valores propios dis-
tintos son ortogonales.
D EMOSTRACI ÓN . Sean v1 , v2 vectores propios de T con valores propios λ1 = 6 λ2 . Por el
corolario anterior, v1 y v2 son vectores propios de T ∗ con valores propios λ1 y λ2 y ası́
(λ1 − λ2 )hv1 , v2 i = λ1 hv1 , v2 i − λ2 hv1 , v2 i
= hλ1 v1 , v2 i − hv1 , λ2 v2 i
= hT v1 , v2 i − hv1 , T ∗ v2 i
= hv1 , T ∗ v2 i − hv1 , T ∗ v2 i
=0
y como λ1 − λ2 6= 0, la igualdad anterior implica que hv1 , v2 i = 0, como se querı́a. 

E JERCICIO X. Sea K = R ó C. Si A ∈ Matn×n (K), demuestre que det A∗ = det A.


Sugerencia: A∗ = t A.
184 8. LOS TEOREMAS ESPECTRALES

8.3. Los teoremas espectrales


En la observaciones previas a la definición de operador normal, vimos que si V tiene
una base ortonormal de vectores propios de T , entonces T es normal. Cuando K = C, la
afirmación recı́proca también es cierta:
Teorema 8.14 (Teorema espectral complejo). Sea T : V → V un operador lineal en
un C-espacio vectorial con producto interno. Entonces, V tiene una base ortonormal de
vectores propios de T si y sólo si T es normal.
D EMOSTRACI ÓN . Sólo falta probar la suficiencia y para ésto, supongamos que T es nor-
mal. Por el teorema fundamental del álgebra, el polinomio caracterı́stico de T se des-
compone en factores lineales en C y ası́, por el teorema de Schur (7.16), existe una base
ortonormal B = {v1 , . . . , vn } de V tal que [T ]B es triangular superior. Mostraremos que,
de hecho, la matriz anterior es diagonal, y para ésto es suficiente mostrar que los vecto-
res v1 , . . . , vn de B son vectores propios de T . Para comenzar, como la matriz [T ]B es
triangular superior, i.e., es de la forma
 
a11 a12 · · · a1n
 0 a22 · · · a2n 
[T ]B =  .
 
.. .. 
 .. . . 
0 ··· 0 ann
entonces T v1 = a11 v1 y ası́ v1 es vector propio de T con valor propio a11 . Ahora, como
v1 es unitario
(1) kT v1 k2 = ka11 v1 k2 = |a11 |2 kv1 k2 = |a11 |2 .
Por otra parte, como la matriz asociada de T ∗ es la transpuesta conjugada de [T ]B , entonces
[T ∗ ]B es de la forma
 
a11 0 ··· 0
 a12 a22 · · · 0 
[T ∗ ]B =  .
 
. .. 
 .. .. . 
a1n a2n · · · ann
y ası́, para el vector v1 se tiene que
T ∗ v1 = a11 v1 + a12 v2 + · · · + a1n vn
por lo que
(2) kT ∗ v1 k2 = |a11 |2 + |a12 |2 + · · · + |a1n |2
ya que v1 , . . . , vn son ortonormales.
Ahora, como T es normal, por 8.11 se tiene que kT v1 k = kT ∗ v1 k y ası́, las igualdades
(1) y (2) implican que a12 = · · · = a1n = 0, por lo que en el primer renglón de [T ]B todas
las entradas son cero, excepto a lo más por a11 .
Procediendo por inducción, supongamos que ya probamos que v1 , . . . , vk son vectores
propios de T de tal forma que para la matriz [T ]B en los primeros k renglones todas las
entradas son cero excepto a lo más por aii , para 1 ≤ i ≤ k. Consideremos ahora el renglón
k + 1. De la forma que tiene la matriz se tiene que T vk+1 = ak+1,k+1 vk+1 ya que los
coeficientes ai,k+1 = 0 para 1 ≤ i ≤ k por hipótesis de inducción y también son cero para
i > k + 1 porque [T ]B es triangular superior. Se sigue que
(3) kT vk+1 k2 = |ak+1,k+1 |2 .
8.3. LOS TEOREMAS ESPECTRALES 185

Por otra parte, como [T ∗ ]B es triangular inferior, se tiene que


T ∗ vk+1 = ak+1,k+1 vk+1 + ak+1,k+2 vk+2 + · · · + ak+1,n vn
y por lo tanto
(4) kT ∗ vk+1 k2 = |ak+1,k+1 |2 + |ak+1,k+2 |2 + · · · + |ak+1,n |2
y como kT vk+1 k = kT ∗ vk+1 k, las igualdades (3) y (4) implican que ak+1,k+2 = · · · =
ak+1,n = 0 y ası́ en el renglón k + 1 de [T ]B todas las entradas son cero excepto a lo más
por ak+1,k+1 . Se sigue que [T ]B es diagonal y que los vi son vectores propios de T . 

El ejemplo 8 muestra que para R-espacios vectoriales puede haber operadores norma-
les que no sean diagonalizables. El teorema espectral para R-espacios vectoriales reempla-
za la condición de normalidad por la de autoadjunción. Recordemos, del ejemplo 7, que
todo operador autoadjunto es normal y que el ejemplo 8 es el de un operador normal no au-
toadjunto; el problema con este ejemplo es que el operador no tiene valores propios reales,
lo cual por el lema 8.9 no sucede para operadores autoadjuntos.
Teorema 8.15 (Teorema espectral real). Sea T : V → V un operador lineal en un R-
espacio vectorial con producto interno. Entonces, V tiene una base ortonormal de vectores
propios de T si y sólo si T es autoadjunto.
D EMOSTRACI ÓN . Si V tiene una base ortonormal B de vectores propios de T , entonces
[T ]B es diagonal con entradas reales. Se sigue que [T ]B es igual a su transpuesta conjugada
y por lo tanto T = T ∗ , i.e., T es autoadjunta.
Supongamos ahora que T es autoadjunta. Por 8.9 el polinomio caracterı́stico de T se
descompone en factores lineales en R y ası́ podemos aplicar el teorema de Schur (7.16)
para obtener una base ortonormal B de V tal que A = [T ]B es triangular superior. Se sigue
que
t
A = A∗ = [T ∗ ]B = [T ]B = A
(la penúltima igualdad porque T ∗ = T por hipótesis). Ası́, t A = A y como t A es triangular
inferior y A es triangular superior, la igualdad t A = A implica que A es diagonal y por lo
tanto B consiste de vectores propios de T . 
Corolario 8.16. Sea T : V → V un operador lineal en un K-espacio vectorial con
producto interno. Supongamos que T es autoadjunto si K = R ó que T es normal si
K = C. Sean λ1 , . . . , λm ∈ K los valores propios distintos de T y sean Eλj (T ) =
ker(T − λj idV ) los espacios propios correspondientes. Entonces,
(1) V = Eλ1 (T ) ⊕ · · · ⊕ Eλm (T ).
(2) Cada espacio propio Eλj (T ) es ortogonal a los vectores de los otros espacios propios
Eλk (T ), con k 6= j.
D EMOSTRACI ÓN . Por los teoremas espectrales, V tiene una base ortonormal de vectores
propios de T . Ası́, todo v ∈ V se puede escribir como combinación lineal de estos vectores
propios de T y por lo tanto
(†) V = Eλ1 (T ) + · · · + Eλm (T ).
Para mostrar que la suma es directa, supongamos que
(∗) 0 = w1 + · · · + wm
con los wj ∈ Eλj (T ). Como los wj corresponden a valores propios λj distintos, por 5.8
son linealmente independientes y ası́ (∗) implica que wj = 0 para todo j y por lo tanto la
suma (†) es directa. La afirmación (2) es 8.13. 
186 8. LOS TEOREMAS ESPECTRALES

8.4. Operadores ortogonales y unitarios


Si V es un K-espacio vectorial de dimensión finita con producto interno, una isometrı́a
de V es un operador lineal T : V → V que preserva normas, i.e., tal que kT vk = kvk,
para todo v ∈ V .

Ejemplo 10. La rotación Rθ : R2 → R2 por un ángulo θ es una isometrı́a.

Ejemplo 11. La homotecia T : V → V dada por T v = λv, con λ ∈ K, es una isometrı́a si


y sólo si |λ| = 1.

Ejemplo 12. Si λ1 , . . . , λn ∈ K tienen valor absoluto |λj | = 1 y si T : V → V es un


operador lineal para el cual existe una base ortonormal B = {v1 , . . . , vn } de V tal que
T vj = λj vj , entonces todo vector u ∈ V se puede escribir como
u = hu, v1 iv1 + hu, v2 iv2 + · · · + hu, vn ivn .
Aplicando el operador T a u se obtiene
T u = hu, v1 iT v1 + · · · + hu, vn iT vn = λ1 hu, v1 iv1 + · · · + λn hu, vn ivn .
Se sigue que
kT uk2 = |λ1 hu, v1 iv1 |2 + · · · + |λn hu, vn ivn |2 = |hu, v1 i|2 + · · · + |hu, vn i|2 = kuk2
ya que |λj | = 1 y |vj | = 1, y por lo tanto T es una isometrı́a.

Observación. Si T : V → V es una isometrı́a, entonces T es un isomorfismo. En efecto,


basta ver que T es inyectiva, y para ésto supongamos que T v = 0; entonces kvk = kT vk =
0, y por lo tanto v = 0.
Definición 8.17. Sea T : V → V una isometrı́a. Si K = R, se dice que T es un operador
ortonormal. Si K = C, se dice que T es un operador unitario.
Teorema 8.18. Sea T : V → V un operador lineal en un R-espacio vectorial con producto
interno. Entonces, T es una isometrı́a si y sólo si hT u, T vi = hu, vi, para cualesquiera
u, v ∈ V .
D EMOSTRACI ÓN . Es claro que si T preserva productos internos, en particular preserva
normas. Recı́procamente, si T preserva normas consideremos los dos casos:
Caso 1. Si K = R; en este caso, mediante una simple expansión del lado derecho, usando
que hw, w0 i = hw0 , wi, se prueba que el producto interno h , i satisface la identidad
1 
(1) hw, w0 i = kw + w0 k2 − kw − w0 k2
4
y ası́
1 
hT u, T vi = kT u + T vk2 − kT u − T vk2
4
1 
= kT (u + v)k2 − kT (u − v)k2
4
1 
= ku + vk2 − ku − vk2 porque kT wk = kwk
4
= hu, vi.
8.4. OPERADORES ORTOGONALES Y UNITARIOS 187

Caso 2. K = C; en este caso el producto interno (hermitiano) satisface la identidad


1  i 
(2) hw, w0 i = kw + w0 k2 − kw − w0 k2 + kw + iw0 k2 − kw − −iw0 k2
4 4
que se demuestra usando la igualdad Im z = Re (−iz), para z = hw, w0 i:
Im hw, w0 i = Re (−ihw, w0 i) = Re hw, iw0 i
que a su vez implica:
hw, w0 i = Re hw, w0 i + iIm hw, w0 i = Re hw, w0 i + iRe hw, iw0 i
de donde usando ahora la identidad (1) del caso real, se obtiene la identidad (2).
Finalmente se procede como en el caso 1. 

Las identidades (1) y (2) que se usaron en la demostración anterior, se llaman las
identidades de polarización para los productos internos real y complejo.
Teorema 8.19. Sea T : V → V un operador lineal en un R-espacio vectorial con producto
interno. Las afirmaciones siguientes son equivalentes.
(1) T es una isometrı́a.
(2) T T ∗ = idV = T ∗ T .
(3) Si B = {v1 , . . . , vn } es una base ortonormal de V , entonces {T v1 , . . . , T vn } también
es base ortonormal de V .
D EMOSTRACI ÓN . (1) ⇒ (2):
h(T ∗ T − idV )u, vi = hT ∗ T u, vi − hu, vi
= hT u, T vi − hu, vi por adjunción
= 0 porque T es isometrı́a y el teorema anterior.
Ahora, como esta igualdad es válida para todo v (y todo u), se sigue que (T ∗ T −idV )u = 0,
para todo u y ası́ T ∗ T = idV , lo cual prueba una de las igualdades de (2). La otra igualdad
se sigue de la ya probada aplicando ()∗ .
(2) ⇒ (3): Si B = {v1 , . . . , vn } es una base ortonormal de V , entonces
hT vi , T vj i = h(T ∗ T vi , vj i por adjunción
= hidV vi , vj i por hipótesis
= hvi , vj i
= δij (delta de Kronecker).

(3) ⇒ (1): Usando el proceso de Gram-Schmidt, sea B = {v1 , . . . , vn } una base


ortonormal de V . Por la hipótesis (3), {T v1 , . . . , T vn } es una base ortonormal de V . Sea
v ∈ V ; escribiendo v en términos de la base B se tiene que
Xn
v= hv, vj ivj
j=1

por lo que
n
X  Xn 2 Xn
kT vk2 = T hv, vj ivj k2 = hv, vj iT vj = |hv, vj i|2 = kvk2

j=1 j=1 j=1
188 8. LOS TEOREMAS ESPECTRALES

(la penúltima igualdad porque los T vj son ortonormales) y ası́ T es una isometrı́a. 

La parte (2) del teorema anterior nos dice que toda isometrı́a es un operador normal.
Más aún, si T es una isometrı́a de V y λ ∈ K es un valor propio de T , entonces para
cualquier vector v propio con valor propio λ, como T v = λv, se tiene que
kvk = kT vk = kλvk = |λ|kvk
y como kvk 6= 0, entonces |λ| = 1; es decir, los valores propios de una isometrı́a T tienen
valor absoluto 1. Los dos teoremas siguientes caracterizan las isometrı́as extendiendo la
observación anterior.
Teorema 8.20 (El caso complejo). Sea T : V → V un operador lineal en un C-espacio
vectorial de dimensión finita y con producto interno. Entonces, T es un operador unitario
si y sólo si existe una base ortonormal de V formada por vectores propios de T y cuyos
valores propios tienen valor absoluto 1.
D EMOSTRACI ÓN . Supongamos que T es unitario. Como observamos después de la la de-
mostración del teorema anterior, T es normal. Entonces, por el teorema espectral complejo
existe una base ortonormal v1 , . . . , vn de V formada por vectores propios de T . Si λj es
el valor propio correspondiente a vj , por la observación previa al teorema se tiene que
|λj | = 1.
Supongamos ahora que V tiene una base ortonormal v1 , . . . , vn formada por vectores
propios de T y cuyos valores propios tienen valor absoluto 1. Por el ejemplo 12, T es una
isometrı́a, i.e., T es unitario. 
Teorema 8.21 (El caso real). Sea T : V → V un operador lineal en un R-espacio vecto-
rial de dimensión finita y con producto interno. Entonces, T es un operador ortogonal y
autoadjunto si y sólo si existe una base ortonormal de V formada por vectores propios de
T y cuyos valores propios tienen valor absoluto 1.
D EMOSTRACI ÓN . (⇒): Como T es autoadjunto, por el teorema espectral real existe una
base ortonormal v1 , . . . , vn de V formada por vectores propios de T . Si λj es el valor
propio correspondiente a vj , por la observación previa al teorema anterior se tiene que
|λj | = 1.
Supongamos ahora que V tiene una base ortonormal v1 , . . . , vn formada por vectores
propios de T y cuyos valores propios tienen valor absoluto 1. Por el teorema espectral real
T es autoadjunto y, por el ejemplo 12, T es una isometrı́a, i.e., T es ortogonal. 
Capı́tulo 9
Formas bilineales
R- ESPACIOS vectoriales son funciones de dos varia-
L OS PRODUCTOS INTERIORES EN
bles h , i : V × V → R que son lineales en cada una de sus variables (y además
son positivas definidas y no degeneradas); en este capı́tulo estudiaremos algunas propieda-
des de funciones bilineales en general para después enfocarnos hacia el estudio de ciertas
funciones derivadas de éllas, las formas cuadráticas.

9.1. Funciones y formas bilineales


Si K es cualquier campo y V , W y U son tres K-espacios vectoriales, una función
bilineal es una función
φ:V ×W →U
que satisface:
(1) φ es aditiva en cada una de sus variables, i.e.,
(i) φ(v + v 0 , w) = φ(v, w) + φ(v 0 , w).
(ii) φ(v, w + w0 ) = φ(v, w) + φ(v, w0 ).
para cualesquiera v, v 0 ∈ y w ∈ W
(2) φ saca escalares en cada una de sus variables:
(i) φ(λv, w) = λφ(v, w).
(ii) φ(v, λw) = φ(v, w).
para cualesquiera v ∈ V , w ∈ W y λ ∈ K.
Ejemplo 1. Como observamos al principio, un producto interior en un R-espacio vectorial
V es un función bilineal
h , i : V × V → R.
Note que esto no sucede para C-espacios vectoriales en general, porque un producto inte-
rior (hermitiano) en este caso saca escalares conjugados en la segunda variable.

Ejemplo 2. Si f, g : V × W → U son dos funciones bilineales, su suma


f +g :V ×W →U
dada por (f + g)(v, w) := f (v, w) + g(v, w), también es bilineal.

Ejemplo 3. Si f, g : V × W → U es una función bilineal y λ ∈ K es un escalar, la función


λ · f : V × W → U , definida por (λ · f )(v, w) := λf (v, w), también es bilineal.

Los dos ejemplos anteriores nos dicen que el conjunto de funciones bilineales
BilK (V × W, U )
es un K-espacio vectorial.
189
190 9. FORMAS BILINEALES

En lugar de estudiar funciones bilineales en general, en lo que sigue nos restringiremos


a estudiar funciones bilineales f : V × W → K con valores en el campo K, que es un
K-espacio vectorial, por supuesto.

Ejemplo 4. Si vemos a los vectores de R2 como columnas y a una matriz 2 × 2 con coefi-
cientes en R, dada por sus dos columnas, la función determinante: det : Mat2×2 (R) → R
la podemos ver como una función de dos variables (las dos columnas de una matriz 2 × 2):
det : R2 × R2 → R
que es bilineal, como probamos en el capı́tulo 4. Observe que si v, w ∈ R2 , se tiene que
det(v, w) = − det(w, v), por lo que en general, para una función bilineal φ, aún cuando
tenga sentido, la igualdad φ(u, v) = φ(v, u) no es válida siempre.

Ejemplo 5. Si A ∈ Matm×n (K), viendo a los elementos de K r como vectores columna,


la función
φA : K m × K n → K
dada por φA (v, w) = t vAw, (que es un escalar, ya que t v es 1 × m, A es m × n y w es
n × 1), es bilineal, por propiedades del producto de matrices.

La matriz asociada a una forma bilineal. El ejemplo anterior asocia una forma bilineal
φA : K m × K n → K a una matriz A de tamaño m × n. Recı́procamente, si V y W
son dos K-espacios vectoriales de dimensiones finitas m y n, respectivamente, y si A =
{v1 , . . . , vm } y B = {w1 , . . . , wn } son bases de V y W , dada una forma bilineal f :
V × W → K, para cualquier par de vectores (v, w) ∈ V × W , escribiendo v y w en
términos de las bases A y B:
m
X n
X
v= αi vi y w= βj wj ,
i=1 j=1

se tiene que
m
X n
X 
φ(v, w) = φ αi vi , βj wj
i=1 j=1
m
X  X n 
= αi φ vi , βj wj linealidad en la primera variable
i=1 j=1
Xm Xn
= αi βj φ(vi , wj ) linealidad en la segunda variable
i=1 j=1
Xm X n
= αi βj aij para aij := φ(vi , wj )
i=1 j=1
  
a11 ··· a1n β1
 .. ..   .. 
= [α1 , . . . , αm ]  . .  . 
am1 ··· amn βn
t
= [v]A A[w]B para la matriz A = (aij ) con entradas aij := φ(vi , wj ).
Es decir, φ(v, w) = t [v]A A[w]B y hemos asociado ası́, a la forma bilineal φ, la matriz
A = (aij ) de tamaño m × n. Lo anterior se resume en el teorema siguiente:
9.1. FUNCIONES Y FORMAS BILINEALES 191

Teorema 9.1. Si V y W son dos K-espacios vectoriales de dimensiones finitas m y n, se


tiene un isomorfismo de K-espacios vectoriales
BilK (V × W, K) → Matm×n (K).
D EMOSTRACI ÓN . Sólo falta verificar que las funciones definidas antes del teorema son
lineales e inversas una de la otra. Esto lo dejamos como un ejercicio. 
Diremos que la matriz A asociada a la forma bilineal φ, representa a la forma bilineal.
Ası́, la forma bilineal φ(v, w) se puede expresar en términos de las coordenadas de los
vectores [v]A , [w]B y de la matriz A.
En lo que sigue, nos restringiremos aún más en el estudio de las formas bilineales,
para considerar sólo formas bilineales en un sólo K-espacio vectorial
b:V ×V →K
a las llamaremos formas bilineales para enfatizar que tienen valores escalares. Ası́, si V es
de dimensión finita n, con base A, denotaremos con [b]A a la matriz asociada a la forma
bilineal b con respecto a la base dada, y observamos que ésta es una matriz cuadrada n × n.
Una pregunta natural, en este contexto, es: ¿si A = {v1 , . . . , vn } y B = {w1 , . . . , wn }
son bases de V y si [b]A y [b]B son las matrices asociadas a la forma bilineal b en las
bases respectivas, cuál es la relación entre estas matrices?, es decir, cómo se cambia de
bases? Para responder a estas preguntas, recordemos lo que hicimos para obtener la matriz
de cambio de bases para un transformación lineal en el capı́tulo 2: sea Q = [idV ]B A la
matriz de cambio de base de A a B. Entonces, Q es una matriz invertible y satisface que si
v, w ∈ V y si [v]B , [w]B son sus coordenadas en la base B, entonces sus coordenadas en la
base A son:
[v]A = Q[v]B y [w]A = Q[w]B .
Se tiene entonces que, si A = [b]A ,
t
[v]A A[w]A = t Q[v]B A Q[w]B = t [v]B t QAQ[w]B
 

y ası́, con respecto a la base B, la matriz que representa a la forma b es t QAQ. Observe
que, a diferencia del cambio de base para una transformación lineal que cambia a la matriz
asociada A por Q−1 AQ, para el caso de una aplicación lineal en lugar de la inversa de Q
se usa a la transpuesta de Q. Hemos ası́ probado:
Proposición 9.2. Sea b : V × V → K una forma bilineal en un K-espacio vectorial V de
dimensión finita n. Si A y B son bases de V y si A y B son las matrices asociadas a la
forma b en las bases A y B, respectivamente, entonces, para la matriz de cambio de base
Q = [idV ]B
A , se tiene que
B = t QAQ.

Lema 9.3. Sea b : V × V → K una forma bilineal en un K-espacio vectorial V de
dimensión finita n. Sea A la matriz asociada a b en cualquiere base de V . Entonces, A es
una matriz simétrica (t A = A) si y sólo si b(u, v) = b(v, u) para cualesquiera u, v ∈ V .
D EMOSTRACI ÓN . Si b(u, v) = b(v, u) para cualesquiera u, v ∈ V y si B = {v1 , . . . , vn }
es una base de V , para la matriz A = (aij ) asociada a b, se tiene entonces que
aij = b(vi , vj ) = b(vj , vi ) = aji
por lo que la matriz A es simétrica.
192 9. FORMAS BILINEALES

Recı́procamente, si aij = b(vi , vj ) y A = (aij ) es simétrica, entonces b(vi , vj ) =


b(vj , vi ) y por lo tanto, para cualesquiera vectores u, v ∈ V , escribiéndolos en términos de
la base B: [u] = [α1 , . . . , αn ] y [v] = [β1 , . . . , βn ], se tiene que
φ(u, v) = t [u]A[v]
= t t [u]A[v]

ya que t [u]A[v] es un escalar
= t [v]t Att [u]
= t [v]A[u] ya que t A = A y tt [u] = [u]
= φ(v, u)

Definición 9.4. Una forma bilineal b : V × V → K se dice que es simétrica si φ(u, v) =
φ(v, u) para cualesquiera u, v ∈ V . Ası́, el lema anterior nos dice que una forma bilineal
es simétrica si y sólo si la matriz asociada lo es.
Ejemplo 6. Por supuesto que no toda forma bilineal es simétrica; el ejemplo 4 de la forma
bilineal det : R2 × R2 → R no es simétrica ya que det(u, v) = − det(v, u).

Ejemplo 7. Note que un producto interno en un R-espacio vectorial V es una forma bilineal
simétrica b = h , i que además satisface las propiedades adicionales:
Es positivo definido, i.e., b(u, u) ≥ 0 para todo u ∈ V .
Es no degenerado, i.e., b(u, v) = 0 para todo u ∈ V implica que v = 0.

Observe ahora que la noción de ortogonalidad en un espacio vectorial con producto


interno sólo requerı́a las propiedades de linealidad, en la primera variable, y simetrı́a bajo
conjugación del producto interno. Entonces, dado un K-espacio vectorial V con una forma
bilineal simétrica b : V × V → K, podemos definir una noción de ortogonalidad con
respecto a la forma bilineal b, diciendo que dos vectores u, v ∈ V son ortogonales si
b(u, v) = 0. Con este concepto de ortogonalidad es natural preguntarnos si todo K-espacio
vectorial de dimensión finita con una forma bilineal simétrica tiene una base ortogonal, es
decir, si el algoritmo de Gram-Schmidt sigue siendo válido. La respuesta es afirmativa y es
una variación del teorema de Gram-Schmidt.
Teorema 9.5 (Gram-Schmidt). Sea V un K-espacio vectorial de dimensión finita con una
forma bilineal simétrica b y supongamos que car K 6= 2. Si V 6= {0}, entonces V tiene
una base ortogonal con respecto a b.
D EMOSTRACI ÓN . Por inducción sobre n = dimK V . Si n = 1, cualquier vector no cero
de V es una base ortogonal. Supongamos ahora que n > 1. Hay dos casos a considerar:
Caso 1. Supongamos que para todo u ∈ V se tiene que b(u, u) = 0. Para comenzar,
observemos que se tiene la identidad de polarización
1 
b(u, v) = b(u + v, u + v) − b(u, u) − b(v, v)
2
la cual se demuestra simplemente desarrollando el lado derecho; note que aquı́ se usa que
car K 6= 2. Por la suposición del caso se tiene que el lado derecho de la identidad de
polarización es cero. Se sigue que b(u, v) = 0 para cualesquiera u, v ∈ V y por lo tanto
cualesquiera dos vectores de V son ortogonales, en particular los vectores de cualquier
base de V .
9.2. FORMAS CUADRÁTICAS 193

Caso 2. Supongamos ahora que existe un vector v1 ∈ V tal que b(v1 , v1 ) = 0. Veremos que
el algoritmo de Gram-Schmidt se aplica en este caso y para ésto, pongamos V1 = K(v1 ) el
subespacio unidimensional de V generado por v1 . Sea V1⊥ := {w ∈ V : b(v1 , w) = 0}.
Claramente V1⊥ es un subespacio de V y mostraremos que V = V1 ⊕ V1⊥ . En efecto,
si v ∈ V consideremos el escalar λ := b(v, v1 )/b(v1 , v1 ) y observemos que el vector
v − λv1 ∈ V1⊥ ya que
b(v1 , v − λv1 ) = b(v1 , v) − λb(v1 , v1 ) = b(v1 , v) − b(v1 , v) = 0
y ası́ v = λv1 + (v − λv1 ) ∈ V1 + V1⊥ . Para ver que la suma es directa, note que V1 ∩ V1⊥
es un subespacio de V1 que no es igual a todo V1 ya que si lo fuera se tendrı́a que v1 ∈ V1⊥ ,
lo cual no es posible porque b(v1 , v1 ) 6= 0. Se sigue que V1 ∩ V1⊥ = {0} porque V1 es
unidimensional. Hemos ası́ mostrado que V = V1 ⊕ V1⊥ . Ahora, como dimK V1⊥ = n − 1,
por hipótesis de inducción existe una base ortogonal de V1⊥ , digamos v2 , . . . , vn . Es claro
que v1 , v2 , . . . , vn es base ortogonal de V . 

Como una consecuencia de este teorema, observemos que si b es una forma bili-
neal simétrica en un K-espacio vectorial de dimensión finita con car K 6= 2, y si B =
{v1 , . . . , vn } es una base ortogonal de V , i.e., tal que b(vi , vj ) = 0 para i 6= j, como la
matriz asociada a b tiene entradas aij = b(vi , vj ), entonces aij = 0 para i 6= j por lo que
la matriz A = (aij ) es una matriz diagonal, digamos
A = diag(λi ), con λi := aii = b(vi , vi ), 1 ≤ i ≤ n.
Cuando esto sucede, la forma bilineal tiene un aspecto simple: si u, v ∈ V son vectores
cuyas coordenadas, con respecto a la base B, son [u] = [a1 , . . . , an ] y [v] = [b1 , . . . , bn ],
entonces
b(u, v) = λ1 a1 b1 + · · · + λn an bn
y decimos que la forma bilineal b está diagonalizada. Hemos ası́ probado:
Corolario 9.6. Si b es una forma bilineal simétrica en un K-espacio vectorial de dimen-
sión finita V y car K 6= 2, entonces b se puede diagonalizar, i.e, existe una base ortogonal
de V tal que la matriz asociada a b es diagonal.


9.2. Formas cuadráticas


Seguiremos considerando espacios vectoriales sobre campos de caracterı́stica distinta
de 2. Si V es un K-espacio vectorial de dimensión finita y si b : V × V → K es una forma
bilineal simétrica, la forma cuadrática determinada por b es la función
qb : V → K
dada por qb (v) := b(v, v). Observe que dada la forma cuadrática q, se puede recuperar a la
forma bilineal simétrica b usando las identidades de polarización
1  1 
(1) b(u, v) = b(u + v, u + v) − b(u, u) − b(v, v) = q(u + v) − q(u) − q(v)
2 2
y
1  1 
(2) b(u, v) = b(u + v, u + v) − b(u − v, u − v) = q(u + v) − q(u − v)
4 2
que se demuestran simplemente evaluando el lado derecho.
194 9. FORMAS BILINEALES

Ejemplo 8. Si V = K n y si b : K n × K n → KPes la forma bilineal usual, i.e., para


u = (x1 , . . . , xn ) y v = (y1 , . . . , yn ), b(u, v) = xi yi , entonces la forma cuadrática
asociada es
qb (u) = b(u, u) = x21 + · · · + x2n .

Ejemplo 9. Si V = K n y si A = (aij ) es una matriz simétrica n × n, entonces para la


forma bilineal asociada b(u, v) := t uAv, la forma cuadrática correspondiente es:
X
qb (u) = b(u, u) = aij xi xj .
i,j

En particular, si A = diag(λi ) es una matriz diagonal n × n, entonces


n
X
qb (u) = b(u, u) = λi x2i .
i=1

Note que este ejemplo generaliza el ejemplo 8, que corresponde a la matriz identidad In .

Ejemplo 10. Si V = R2 y t v = (x, y), entonces la función


q(x, y) = 2x2 + 3xy + y 2
es una forma cuadrática en R2 . La forma bilineal correspondiente está dada como sigue:
sean u = (x1 , y1 ) y v = (x2 , y2 ) dos vectores de R2 . Entonces, usando la identidad de
polarización (1):
1  1 
b(u, v) = q(u + v) − q(u) − q(v) = q(x1 + x2 , y1 + y2 ) − q(x1 , y1 ) − q(x2 , y2 )
2 2
1
= 2(x1 + x2 )2 + 3(x1 + x2 )(y1 + y2 ) + (y1 + y2 )2 − (2x21 + 3x1 y1 + y12 )
2 
− (2x22 + 3x2 y2 + y22 )
1 
= 4x1 x2 + 3x1 y1 + 3x1 y2 + 3x2 y1 + 3x2 y2 + 2y1 y2 − 3x1 y1 − 3x2 y2
2
3 3
= 2x1 x2 + x2 y1 + x1 y2 + y1 y2 .
2 2
Otra manera de hacer lo anterior es obtener primero la matriz A asociada a la forma
bilineal b correspondiente a la forma cuadrática q. Denotemos esta matriz por
 
a b
A=
b d
(es simétrica porque la forma b lo es). Como q = b(u, u), para u = (x, y) debemos tener
que   
a b x
q(x, y) = (x, y)
b d y
es decir,
2x2 + 3xy + y 2 = ax2 + 2bxy + dy 2
por lo que a = 2, b = 3/2 y c = 1 y por lo tanto la matriz A es:
 
2 3/2
A=
3/2 1
9.3. FORMAS CUADRÁTICAS SOBRE R. EL TEOREMA DE SYLVESTER 195

y ası́
  
2 3/2 x2 3 3
b(u, v) = (x1 , y1 ) = 2x1 x2 + x2 y1 + x1 y2 + y1 y2 .
3/2 1 y2 2 2

9.3. Formas cuadráticas sobre R. El teorema de Sylvester


Existe una rica teorı́a de formas cuadráticas sobre cualquier campo K (de caracterı́sti-
ca distinta de 2) pero en esta parte final nos contentaremos con estudiarlas sobre el campo
de los números reales. Ahora, como probamos en la sección anterior, toda forma bilineal
simétrica b en un R-espacio vectorial de dimensión finita n se puede diagonalizar por me-
dio de una base ortogonal de V . Note sin embargo que a diferencia del caso de un producto
interno en V , en general no es posible normalizar la base ya que la forma bilineal b no tiene
que ser positiva definida o no degenerada y ası́ puede suceder que algunos vectores de la
base ortogonal que tengamos satisfagan que b(u, u) < 0 ó que b(v, v) = 0.
 
2 −1 1
Ejemplo 11. Si V = R y si consideramos la matriz simétrica A = , para la
1 −1
forma bilineal simétrica b correspondiente, se tiene que los vectores u = (1, 0) y v = (1, 1)
son base de R2 y son ortogonales ya que
  
−1 1 1
b(u, v) = (1, 0) = 0.
1 −1 1
Sin embargo se tiene también que
b(u, u) = −1 y b(v, v) = 0
por lo que no se pueden normalizar.
Lo que podemos hacer, en el caso general de un R-espacio vectorial V de dimensión
finita n y con una forma bilineal simétrica b, es que dada una base ortogonal (con respecto
a la forma b) B = {v1 , . . . , vn }, reordenando los vectores de la base, si hiciera falta, y
poniendo ci := b(vi , vi ), podemos suponer que:
c1 , . . . , cp > 0
cp+1 , . . . , ct < 0
ct+1 , . . . , cn = 0.
Ası́, p es el número de vectores de la base tales que la entrada diagonal de la matriz
asociada a la forma b es positiva y t es el número de entradas negativas. Note que p + t es el
rango r de la matriz asociada a b y, por la proposición 9.2, si A y B son matrices asociadas
a la forma b, en las bases A y B respectivamente, entonces B = t QAQ, con Q una matriz
invertible, por lo que el rango de A es igual al rango de B, i.e., el rango no se altera al
cambiar la base de V y por lo tanto el número n0 := n − r, el número de entradas nulas,
es invariante ante cambios de bases de V . Mostraremos que los números p y t tampoco
dependen de la base ortogonal B de V escogida. Comenzamos dando otra interpretación
del entero n0 :
Proposición 9.7. Sea V un R-espacio vectorial de dimensión finita n > 0, con una forma
bilineal simétrica b. Sea V0 el subespacio de V dado por
V0 := {w ∈ V : b(v, w) = 0 para todo v ∈ V }.
Sea B = {v1 , . . . , vn } cualquier base ortogonal de V . Entonces, el número n0 de vectores
vi ∈ V tales que b(vi , vi ) = 0 es la dimensión de V0 .
196 9. FORMAS BILINEALES

D EMOSTRACI ÓN . Reordenando la base si hiciera falta, podemos suponer que b(v1 , v1 ) 6=
0, . . . , b(vr , vr ) 6= 0 y que b(vi , vi ) = 0 para i > r. Ahora, como B es ortogonal se tiene
que b(vi , vj ) = 0 para toda i 6= j, en particular para toda i > r y j ≤ r. Como también
se tiene que b(vi , vi ) = 0 para i > r, entonces los vectores vr+1 , . . . , vn están en V0 .
Mostraremos que generan a V0 . En efecto, si v ∈ V0 es cualquier vector, viéndolo como
elemento de V lo escribimos en términos de la base B:
(1) v = a1 v1 + · · · + ar vr + ar+1 vr+1 + · · · + an vn .
Ahora, como v ∈ V0 , se tiene que b(v, vj ) = 0, para todo j, por definición de V0 . En
particular, para j ≤ r se tiene que
(2) 0 = b(v, vj ) = aj b(vj , vj )
(la segunda igualdad se obtiene substituyendo la expresión (1) de v y usando que los vi son
ortogonales) y como j ≤ r entonces b(vj , vj ) 6= 0 por lo que la igualdad (2) implica que
aj = 0 para j ≤ r. Se sigue que la igualdad (1) es de la forma
v = ar+1 vr+1 + · · · + an vn
por lo que vr+1 , . . . , vn generan V0 . Finalmente, como son parte de una base de V entonces
son linealmente independientes y por lo tanto son una base de V0 . 

El número n0 se llama el ı́ndice de nulidad de la forma b y el número r = n − n0 se


llama el rango de la forma. Observe que una forma es no degenerada si y sólo si su ı́ndice
de nulidad es 0, ó lo que es lo mismo, si y sólo si su rango es n.
Teorema 9.8 (Sylvester). Sea V un R-espacio vectorial de dimensión finita n, con una
forma bilineal simétrica b. Entonces, existe un entero p ≥ 0 tal que si B = {v1 , . . . , vn } es
cualquier base ortogonal de V , se tienen exactamente p enteros j tales que b(vj , vj ) > 0.
Es decir, el número de entradas positivas en la diagonal de la matriz asociada a b no
depende de la base elegida.
D EMOSTRACI ÓN . Sean {v1 , . . . , vn } y {w1 , . . . , wn } bases ortogonales de V y suponga-
mos que están ordenadas de tal manera que
b(vi , vi ) > 0si 1 ≤ i ≤ p
b(vi , vi ) < 0si p + 1 ≤ i ≤ t
b(vi , vi ) = 0si t + 1 ≤ i ≤ n
y
b(wi , wi ) > 0si 1 ≤ i ≤ p0
b(wi , wi ) < 0si p0 + 1 ≤ i ≤ t0
b(wi , wi ) = 0si t0 + 1 ≤ i ≤ n
Mostraremos que p = p0 , probando primero que p ≤ p0 . Para ésto, mostraremos
primero que
(∗) v1 , . . . , vp , wp0 +1 , . . . , wn
son linealmente independientes. En efecto, supongamos que se tiene una combinación li-
neal
(1) a1 v1 + · · · + ap vp + bp0 +1 wp0 +1 + · · · + bn wn = 0.
9.4. APLICACIONES A LA GEOMETRÍA 197

Entonces,
(2) a1 v1 + · · · + ap vp = −(bp0 +1 wp0 +1 + · · · + bn wn )
y poniendo ci = b(vi , vi ) y di = b(wi , wi ), aplicando la función bilineal b( , ) a los
vectores de (2) y usando que los vi y los wj son ortogonales, se obtiene que:
(3) c1 a21 + · · · + cp a2p = dp0 +1 b2p0 +1 + · · · + dt0 b2t0
ya que di = 0 para i ≥ t0 + 1. Ahora, como c1 , . . . , cp son > 0, el lado izquierdo de (3) es
≥ 0; similarmente, como dp0 +1 , . . . , dt0 son < 0, el lado derecho de (3) es ≤ 0. La igualdad
(3) implica entonces que sus dos lados son 0 y ésto sucede si y sólo si a1 = · · · = ap = 0,
por lo que la ecuación (1) se vuelve
bp0 +1 wp0 +1 + · · · + bn wn = 0
con los wj linealmente independientes porque forman parte de una base. Se sigue que
bp0 +1 = · · · = bn = 0 también y por lo tanto los vectores de (∗) son linealmente indepen-
dientes. Ahora, como dimK V = n, entonces el número de vectores de (∗) debe ser ≤ n,
es decir,
p + (n − p0 ) ≤ n
y por lo tanto p ≤ p0 . Cambiando los papeles de los vi y los wj en (∗), por simetrı́a se sigue
que p0 ≤ p y por lo tanto p = p0 como se querı́a. 

Definición 9.9. Si (V, b) es un R-espacio vectorial de dimensión finita con una forma
bilineal simétrica b, al número p de entradas positivas en la diagonal de cualquier matriz
(diagonal) que represente a b, se le llama el ı́ndice (de positividad) de la forma b.
Note que la diferencia entre el rango r y el ı́ndice de positividad p es el número de
entradas negativas en cualquier representación diagonal de b.
La diferencia s entre el número de entradas positivas menos el número de entradas
negativas, se llama la signatura de la forma b.
El teorema de Sylvester dice que el rango r, el ı́ndice p y la signatura s de la forma
b son invariantes de la forma b. Note que el conocimiento de cualesquiera dos de estos
invariantes determina al tercero.
 
2 2 2 1 0
Ejemplo x. La forma cuadrática q(x, y) = x − y en R , tiene matriz asociada ,
0 −1
2
con respecto a la base canónica de R . Se sigue que el rango de q es r = 2, su ı́ndice de
positividad es p = 1 y su signatura es s = 0.

9.4. Aplicaciones a la geometrı́a


Capı́tulo 10
Álgebra multilineal

10.1. Funciones multilineales y el producto tensorial


Sean V y W espacios vectoriales sobre un campo K. Si L es otro K-espacio vectorial,
recordemos que una función bilineal φ : V × W → L es una función que es K-lineal en
cada una de sus dos variables, es decir,
(i): φ(v1 + v2 , w) = φ(v1 , w) + φ(v2 , w)
(ii): φ(λv, w) = λ · φ(v, w)
(iii): φ(v, w1 + w2 ) = φ(v, w1 ) + φ(v, w2 )
(iv): φ(v, λw) = λ · φ(v, w)
para v, v1 , v2 ∈ V , w, w1 , w2 ∈ W , y λ ∈ K.
El producto tensorial de V y W es un K-espacio vectorial que linealiza en forma
universal a las funciones bilineales definidas en V × W . En términos precisos, el producto
tensorial de V con W consiste de un K-espacio vectorial, denotado V ⊗K W , y de una
aplicación bilineal ρ : V × W → V ⊗ W , que satisface la propiedad universal siguiente:
Para cualquier otro K-espacio vectorial L y para cualquier aplicación bilineal φ : V ×K
W → L, existe una única aplicación lineal φ̃ : V ⊗K W → L que hace conmutar el
diagrama siguiente:
ρ-
V ×W V ⊗K W
@
φ@
@ φ̃
@
R ?
L

Como es usual con objetos definidos por propiedades universales, si el producto ten-
sorial de dos espacios vectoriales existe, este es único salvo isomorfismo. Para mostrar la
existencia del producto tensorial de dos espacios vectoriales la construcción es como si-
gue: Sean V y W dos K-espacios vectoriales y sea M el K-espacio vectorial cuya base es
V × W . En M consideremos el subespacio vectorial N ⊆ M generado por los elementos
de la forma:
(i): (v1 + v2 , w) − (v1 , w) − (v2 , w)
(ii): (λv, w) − λ(v, w)
(iii): (v, w1 + w2 ) − (v, w1 ) − (v, w2 )
(iv): (v, λw) − λ(v, w)
y consideremos el espacio vectorial cociente
V ⊗K W := M/N,
199
200 10. ÁLGEBRA MULTILINEAL

y al epimorfismo canónico
ρ : V × W → V ⊗K W,
cuya imagen denotamos por ρ(v, w) := v ⊗ w.
Nótese que las relaciones que definen al subespacio N ⊆ M son tales que al pasar al
espacio cociente M/N se vuelven cero y ası́ el epimorfismo ρ : V × W → V ⊗K W es
entonces bilineal.
Para ver que V ⊗K W y ρ satisfacen la propiedad universal del producto tensorial,
sea φ : V × W → L cualquier aplicación bilineal. Defı́nase φ̃ : V ⊗K W → L como
φ̃(v ⊗ w) := φ(v, w). Que φ̃ está bien definida es porque si (v, w) ∈ N entonces (v, w) es
una combinación lineal de los generadores de N , y como φ es bilineal, entonces se anula
en estos generadores y ası́ se anula en (v, w). Claramente φ̃ es lineal, hace conmutar el
diagrama correspondiente y es única con esta propiedad.
Las propiedades siguientes son inmediatas:
1: Si V y W son K-espacios vectoriales de dimensiones m y n respectivamente y si
{e1 , . . . , em } y {f1 , . . . , fn } son bases de V y W , entonces los mn elementos ei ⊗ fj ∈
V ⊗K W , 1 ≤ i ≤ m, 1 ≤ j ≤ n, forman una base de V ⊗K W . Se sigue que:
dimK (V ⊗K W ) = dimK V · dimK W.

2: Si V es cualquier K-espacio vectorial, entonces


V ⊗K K ' V.

3: Si V y W son K-espacios vectoriales, entonces existe un isomorfismo natural


V ⊗K W ' W ⊗K V.

4: Si U , V , W son K-espacios vectoriales, se tiene un isomorfismo natural


U ⊗ (V ⊗ W ) ' (U ⊗ V ) ⊗ W.

Estas propiedades se prueban fácilmente, por ejemplo para (3) obsérvese que la apli-
cación φ : V × W → W ⊗ V dada por φ(v, w) = w ⊗ v es bilineal y ası́ por la propiedad
universal del producto tensorial induce un único morfismo φ̃ : V ⊗ W → W ⊗ V tal que
φ̃(v ⊗ w) = w ⊗ v. Similarmente se tiene una aplicación lineal ψ̃ : W ⊗ V → V ⊗ W tal
que ψ̃(w ⊗ v) = v ⊗ w, y se prueba fácilmente que φ̃ y ψ̃ son inversas una de la otra.

Ahora, usando la asociatividad natural (4) del producto tensorial, si V es un K-espacio


vectorial podemos considerar, para cada entero n ≥ 1 las potencias tensoriales
On
V := V ⊗K · · · ⊗K V,
N0 Nn
(n factores.) Y para n = 0 se define V := K. A los elementos T ∈ V se les llama
tensores.

Tensores alternantes y potencias exteriores. Sea n ≥ 1 un entero y denotemos con


Sn al grupo simétrico en n letras, i.e., al grupo de permutaciones de un conjunto con n
letras. Obsérvese que si V es un K-espacio vectorial, entonces el grupo Sn actúa en forma
10.1. FUNCIONES MULTILINEALES Y EL PRODUCTO TENSORIAL 201

Nn
natural en la n-ésima potencia tensorial Nn V como
Nn sigue: Dada cualquier permutación
σ ∈ Sn se tiene un isomorfismo σ : V → V definido por σ(v1 ⊗ · · · ⊗ vn ) :=
vσ(v1 ) ⊗ · · · ⊗ vσ(vn ) .
Recuérdese ahora que toda permutación σ ∈ Sn es el producto de transposiciones, y
una permutación σ se llama par (respectivamente, impar) si σ es el producto de un número
par (respectivamente, impar) de transposiciones. El signo de una permutación se define
como 
+1 si σ es par
sgn(σ) :=
−1 si σ es impar.
Nn
Un tensor T ∈ V se llama alternante si σ(T ) = (sgnσ) · T para todo σ ∈
Sn . Obsérvese entonces que como el signo de una transposición τ esN−1, y como toda
n
permutación es el producto de transposiciones, entonces un tensor T ∈ V es alternante
si y sólo si τ (T ) = −T para todas
Nn las transposiciones τ ∈ S n .
Si u = u1 ⊗ · · · ⊗ un ∈ V es un tensor alternante y si ui = uj para algún i 6= j,
entonces u = 0, ya que si τ = (i, j) ∈ Sn es la transposición correspondiente, entonces
u = τ (u) = (sgn τ ) · u = −u Nny ası́ u = 0 (si la caracterı́stica del campo
NnK no es 2).
En el espacio vectorial V consideremos al subespacio M ⊆ V generado por
los tensores de la forma u1 ⊗ · · · u ⊗ · · · ⊗ u ⊗ · · · un . La potencia exterior n-ésima de V
es el espacio vectorial cociente:
n
^ O n 
V := V /M.
Nn Vn Nn
Si π : V → V es el epimorfismo canónico, para u1 ⊗ · · · ⊗ un ∈ V
usaremos la notación π(u1 ⊗ · · · ⊗ un ) =: u1 ∧ · · · ∧ un . Con la notación anterior, se tiene:

Vn
1: Si u = u1 ∧ · · · ∧ un ∈ V y si ui = uj para algún i 6= j, entonces u = 0.
Vn
2: En V se tiene que
u1 ∧ · · · ∧ ui ∧ · · · ∧ uj ∧ · · · ∧ un = −u1 ∧ · · · ∧ uj ∧ · · · ∧ ui ∧ · · · ∧ un .

La parte (1) se sigue de la definición de potencia exterior, y para la parte (2) se tiene,
por (1), que:
0 = u1 ∧ · · · ∧ (ui + uj ) ∧ · · · ∧ (ui + uj ) ∧ · · · ∧ un
= u1 ∧ · · · ∧ ui ∧ · · · ∧ (ui + uj ) ∧ · · · ∧ un
+ u1 ∧ · · · ∧ uj ∧ · · · ∧ (ui + uj ) ∧ · · · ∧ un
= u1 ∧ · · · ∧ ui ∧ · · · ∧ ui ∧ · · · ∧ un + u1 ∧ · · · ∧ ui ∧ · · · ∧ uj ∧ · · · ∧ un
+ u1 ∧ · · · ∧ uj ∧ · · · ∧ ui ∧ · · · ∧ un + u1 ∧ · · · ∧ uj ∧ · · · ∧ uj ∧ · · · ∧ un
= u1 ∧ · · · ∧ ui ∧ · · · ∧ uj ∧ · · · ∧ un + u1 ∧ · · · ∧ uj ∧ · · · ∧ ui ∧ · · · ∧ un
ya que en la penúltima igualdad el primero y el cuarto sumandos son cero por la parte (1).
Proposición 10.1. Sea V un K-espacio vectorial de dimensión n, y sea {e1 , . . . , en } una
base de V . Sea p ≥ 0 un entero. Entonces,
Vp
(1) V = 0 para p > n.
p  
^ n n!
(2) dimK ( V ) = = para 0 ≤ p ≤ n.
p p!(n − p)!
202 10. ÁLGEBRA MULTILINEAL

Vp
Una base para V está dada por

Bp = {ei1 ∧ · · · ∧ eip : 1 ≤ i1 < i2 < · · · < ip ≤ n}.

D EMOSTRACI ÓN . Sabemos que el conjunto B = {ei1 ⊗ · · · ⊗ eip : 1 ≤ ij ≤ n} es una


Np
base para V.
Np VP Np
Como π : V → V es suprayectiva y como BVgenera V , entonces sus
p
imágenes bajo π, {ei1 ∧ · · · ∧ eip : 1 ≤ ij ≤ n} generan a V.
Vp
(1). Si p > n, para cada generador ei1 ∧ · · · ∧ eip de V existen al menos dos subı́ndices
ij = ik con j 6= k y ası́ Vp por la observación (1) previa a la proposición, el generador
ei1 ∧ · · · ∧ eip = 0, i.e., V = 0 para p > n.

(2). Supongamos ahora que 0 ≤ p ≤ n y consideremos al conjunto

Bp := {ei1 ∧ · · · ∧ eip : 1 ≤ i1 < · · · < ip ≤ n}

y obsérvese primero que este conjunto tiene np elementos ya que cada elemento ei1 ∧


· · · ∧ eip de Bp corresponde a una sucesión de números i1 , . . . , ip tales que 1 ≤ i1 < · · · <


ip ≤ n, i.e., a un subconjunto de {1, . .. , n} de exactamente p elementos, y el número de
estos subconjuntos es precisamente np . Ası́, una vez que mostremos que Bp es una base
Vp Vp
V , se tendrá que dimK ( V ) = #Bp = np . Mostraremos que Bp es, en efecto,

de
Vp
una base de V.
Vp Vp Np
(i): Bp genera N V . En efecto, sea v ∈ V y sea v̄ ∈ V tal que π(v̄) = v. Como B
p
es una base de V , entonces v̄ se puede escribir como
n
X
v̄ = ai1 ···ip · ei1 ⊗ · · · ⊗ eip
i1 ,...,ip =1

con ai1 ···ip ∈ K. Y como v = π(v̄), entonces


X X
v = π(v̄) = ai1 ···ip · π(ei1 ⊗ · · · ⊗ eip ) = ai1 ···ip · ei1 ∧ · · · ∧ eip

de tal forma que si en algún sumando ei1 ⊗ · · · ⊗ eip se tuviera que eij = eik con j 6= k,
entonces se tendrı́a que ei1 ∧ · · · ∧ eip = 0, por lo que podemos considerar en v̄ sólo
aquellos sumandos que no tengan esta propiedad. Consideremos entonces al sumando ṽ de
v̄ correspondiente:
X p
O
ṽ := ai1 ···ip · ei1 ⊗ · · · ⊗ eip ∈ V.
Vp
Nótese que todavı́a se tiene que π(ṽ) = v ∈ V.
Cada sumando de ṽ está dado por un conjunto (i1 , . . . , ip ) de exactamente p ele-
mentos, 1 ≤ ij ≤ n. Entonces, existe una permutación σ ∈ Sp tal que (i1 , . . . , ip ) =
σ(ı̂1 , . . . , ı̂p ) con 1 ≤ ı̂1 < · · · < ı̂p ≤ n.
Entonces podemos escribir a ṽ como
X X
ṽ = ai1 ···ip · ei1 ⊗ · · · ⊗ eip = aσ(ı̂1 )···σ(ı̂p ) · eσ(ı̂1 ) ⊗ · · · ⊗ eσ(ı̂p )
ı̂1 <···<ı̂p
10.2. TENSORES SIMÉTRICOS 203

y en consecuencia
X
v = π(ṽ) = aσ(ı̂1 )···σ(ı̂p ) · eσ(ı̂1 ) ∧ · · · ∧ eσ(ı̂p )
ı̂1 <···<ı̂p
X
= σ(aı̂1 ···îp · eı̂1 ∧ · · · ∧ eı̂p )
ı̂1 <···<ı̂p
 
X
= σ aı̂1 ···ı̂p · eı̂1 ∧ · · · ∧ eı̂p 
ı̂1 <···<ı̂p
X
= (sgn σ) · aı̂1 ···îp · eı̂1 ∧ · · · ∧ eı̂p
ı̂1 <···<ı̂p
X
= (sgn σ) · aı̂1 ···îp · eı̂1 ∧ · · · ∧ eı̂p
ı̂1 <···<ı̂p
Vp
donde cada eı̂1 ∧ · · · ∧ eı̂p ∈ Bp y (sgn σ) · aı̂1 ···ı̂p ∈ K, y ası́ cada v ∈ V es una
combinación lineal de elementos de Bp .
(ii): Bp es linealmente independiente. En efecto, si
X
ai1 ···ip · ei1 ∧ · · · ∧ eip = 0
i1 <···<ip
Vp Np
en V , entonces levantando la suma a V se tiene que
X
ai1 ···ip · ei1 ⊗ · · · ⊗ eip ∈ M
i1 <···<ip
Np Vp
donde M es el subespacio de V de la definición de V . Se sigue que
X X
ai1 ···ip · ei1 ⊗ · · · ⊗ eip = bj1 ···jp · ej1 ⊗ · · · ⊗ ejp
i1 <···<ip

donde en cada sumando del lado derecho existen ı́ndices s 6= r tales que ejr = ejs por
definición del subespacio M .
En particular, todos los generadores del lado derecho son distintos N de los generadores
p
del lado izquierdo ya que para estos se tiene que i1 < · · · < ip . Ası́, en V se tiene que
X X
ai1 ···ip · ei1 ⊗ · · · ⊗ eip − bj1 ···jp · ej1 ⊗ · · · ⊗ ejp = 0
i1 <···<ip
Np
con generadores distintos entre sı́ . Y como B = {ek1 . . . ekp } es una base de V,
se sigue que todos los ai1 ,...,ip = 0 y todos los bj1 ,...,jp = 0 y ası́ Bp es linealmente
independiente. 

10.2. Tensores simétricos


Bibliografı́a

que pueblan el bosque de textos de Álgebra Lineal,


E N LA MAYOR ÍA DE LOS LIBROS
es tradicional no incluir una bibliografı́a. Puedo imaginar al menos dos razones para
esto: una es que posiblemente el autor asume que el tema es muy sencillo y como lo de-
sarrolla ab ovo no tiene necesidad de referencias externas; otra razón que puedo pensar, y
creo que aplica a la mayorı́a de textos comerciales u olvidables, es que no se desea men-
cionar a la competencia. Olvidando a los olvidables, el autor de estas notas, en forma de
libro, cree que una bibliografı́a, aunque mı́nima, podrı́a orientar al hipotético lector hacia
otras versiones o enfoques del tema o hacia desarrollos posteriores del mismo. Este autor
no tiene dificultad alguna en mencionar la influencia de los libros de Lang [4], Bourbaki
[3] y van der Waerden [6], en su formación. Seguramente algo de estos libros se ha per-
meado en estas notas. Finalmente, en cuanto a las aplicaciones del álgebra lineal fuera de
la matemática, el autor reconoce su ignorancia en esto y remite al paciente lector a [5] que,
fuentes regularmente bien informadas, le dicen que es útil para ello.
(1) Artin, E., Geometric Algebra. Interscience, New York, 1957.
(2) Birkhoff, G. and S. MacLane, A Survey of Modern Algebra. MacMillan, New
York, 1953.
(3) Bourbaki, N., Algebre, Chapitre 2, ‘’Algebre Lineaire”. Hermann, Paris, 1955.
(4) Lang, S., Linear Algebra. Springer Verlag, New York, 1987.
(5) Noble, B., Applied Linear Algebra. Prentice Hall, New Jersey, 1969.
(6) van der Waerden, B. L., Modern Algebra, Vol. I and Vol. II. F. Ungar, New York,
1949 y 1950.
(7) Zaldı́var, F., Fundamentos de álgebra. Ed. UAM-UNAM, México, 2003. (En
prensa).

205

S-ar putea să vă placă și