Sunteți pe pagina 1din 81

E. T. S.

de Ingenieros Industriales
Universidad Politecnica de Madrid
Apuntes de

Algebra
(Grado en Ingeniera en Tecnologas Industriales)
(Grado en Ingeniera Qumica)
Curso 2010/11
Departamento de Matematica Aplicada a la Ingeniera
Industrial

Indice general
1. Espacios vectoriales 1
1.1. Denicion, propiedades y ejemplos . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.1.2. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . 3
1.1.3. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.4. Intersecci on y suma de subespacios . . . . . . . . . . . . . . . . . . 5
1.2. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1. Base y dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2. Coordenadas respecto a una base . . . . . . . . . . . . . . . . . . . 7
1.2.3. Cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.4. La relacion de Grassmann . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
2. Espacios vectoriales eucldeos 12
2.1. Producto escalar y norma . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2.1.1. Propiedades y deniciones relacionadas . . . . . . . . . . . . . . . . 13
2.1.2. Familias ortogonales. Matriz de Gram. . . . . . . . . . . . . . . . . 14
2.1.3. Ortonormalizacion de Gram-Schmidt . . . . . . . . . . . . . . . . . 15
2.2. Producto hermtico y matrices unitarias . . . . . . . . . . . . . . . . . . . 16
2.2.1. Espacios hermticos . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.2. Matrices unitarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3. Aplicaciones lineales y matrices 20
3.1. Aplicaciones lineales entre espacios vectoriales . . . . . . . . . . . . . . . . 20
3.1.1. Denicion, ejemplos y propiedades . . . . . . . . . . . . . . . . . . 20
3.1.2. Imagen y n ucleo de una aplicacion lineal . . . . . . . . . . . . . . . 21
3.2. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3.2.1. El espacio vectorial K
mn
. . . . . . . . . . . . . . . . . . . . . . . 23
3.2.2. Producto matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2.3. La inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 24
3.2.4. Operaciones elementales sobre matrices . . . . . . . . . . . . . . . . 25
3.2.5. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 26
i
3.2.6. Rango y producto matricial . . . . . . . . . . . . . . . . . . . . . . 26
3.2.7. Calculo del rango mediante operaciones elementales . . . . . . . . . 27
3.2.8. Algoritmo de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . 27
3.3. Matriz de una aplicacion lineal en bases jadas . . . . . . . . . . . . . . . . 27
3.3.1. Matriz de una aplicacion lineal y vectores de coordenadas . . . . . . 28
3.3.2. Composicion de aplicaciones lineales y producto de matrices . . . . 28
3.3.3. Cambio de bases en una aplicacion lineal . . . . . . . . . . . . . . . 29
3.4. Proyecciones, simetras y giros . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4.1. Proyecci on ortogonal sobre un subespacio . . . . . . . . . . . . . . . 29
3.4.2. Simetra ortogonal respecto de un subespacio . . . . . . . . . . . . . 30
3.4.3. El producto vectorial en R
3
. . . . . . . . . . . . . . . . . . . . . . 31
3.4.4. Giros en el espacio . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4. Sistemas de ecuaciones lineales 36
4.1. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.1.1. Estructura de las soluciones . . . . . . . . . . . . . . . . . . . . . . 37
4.1.2. El teorema de Rouche-Frobenius . . . . . . . . . . . . . . . . . . . . 39
4.1.3. El metodo de eliminacion de Gauss . . . . . . . . . . . . . . . . . . 39
4.1.4. Factorizaci on LU . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
4.2. El problema de los mnimos cuadrados . . . . . . . . . . . . . . . . . . . . 42
4.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5. Reduccion por semejanza de una matriz 46
5.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2. Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
5.2.1. Polinomio caracterstico . . . . . . . . . . . . . . . . . . . . . . . . 47
5.3. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.3.1. Teorema de CayleyHamilton . . . . . . . . . . . . . . . . . . . . . 52
5.3.2. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
6. Diagonalizacion unitaria 57
6.1. Teorema de Schur: triangulacion unitaria de una matriz cuadrada . . . . . 57
6.2. Matrices normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
6.3. Teorema espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
6.3.1. Aplicacion a matrices hermticas, antihermticas y unitarias . . . . . 59
6.4. Clasicacion de matrices reales simetricas . . . . . . . . . . . . . . . . . . . 60
6.4.1. Cociente de Rayleigh . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
ii
7. Descomposicion en valores singulares. 65
7.1. Norma vectorial y norma matricial. . . . . . . . . . . . . . . . . . . . . . . 65
7.1.1. Normas en un espacio vectorial E. . . . . . . . . . . . . . . . . . . . 65
7.2. Normas matriciales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
7.2.1. Norma matricial inducida por normas vectoriales. . . . . . . . . . . 67
7.2.2. Ejemplos de normas matriciales inducidas. . . . . . . . . . . . . . . 67
7.3. N umero de condicion de una matriz. . . . . . . . . . . . . . . . . . . . . . 68
7.3.1. Perturbaci on del termino independiente b. . . . . . . . . . . . . . . 69
7.3.2. Perturbaci on de la matriz A. . . . . . . . . . . . . . . . . . . . . . 70
7.4. Descomposicion de valores singulares (DVS) de una matriz . . . . . . . . . 70
7.4.1. Existencia y determinacion de DVS . . . . . . . . . . . . . . . . . . 70
7.4.2. Propiedades de la DVS . . . . . . . . . . . . . . . . . . . . . . . . . 72
7.4.3. Representaci on graca de la DVS . . . . . . . . . . . . . . . . . . . 73
7.4.4. Matriz pseudoinversa . . . . . . . . . . . . . . . . . . . . . . . . . . 74
7.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
iii
Captulo 1
Espacios vectoriales
1.1 Denicion. Combinaciones lineales. Clausura lineal. Dependencia e independencia
lineal. Subespacios vectoriales. Intersecci on y suma de subespacios. Suma directa.
Subespacios suplementarios.
1.2 Bases. Dimension. Matriz de cambio de base.
1.1. Denicion, propiedades y ejemplos
El concepto de espacio vectorial es sin duda uno de los mas importantes de esta asig-
natura y del

Algebra Lineal en general. El espacio vectorial es una estructura algebraica
que generaliza la idea de los vectores geometricos del plano y el espacio eucldeos ordi-
narios, as como las magnitudes vectoriales que aparecen en Fsica; esencialmente, son
conjuntos cuyos elementos se pueden sumar entre s, y multiplicar por n umeros. Los es-
pacios vectoriales aparecen de manera natural en distintas ramas de las matematicas.
Nota: La siguiente denicion de espacio vectorial es general para cualquier cuerpo, pero
en este curso solo estudiamos espacios vectoriales reales o complejos con las operaciones
habituales de suma y producto. El cuerpo de los n umeros reales se representa por R y
el de los complejos por C. Las deniciones y propiedades se enunciar an representando el
cuerpo con la letra K.
Utilizamos el mismo smbolo + para denotar la suma del grupo abeliano E (suma
de vectores) y la suma del cuerpo K. El smbolo denota la ley externa en E (producto
de escalar por vector)
1
.
Denicion 1 (espacio vectorial) Sean (E, +) un grupo abeliano y (K, +, ) un cuerpo;
sea
1
En la practica, tanto para producto de escalares como escalar por vector, se yuxtaponen omitiendo
el punto .
1
2

Algebra (Tema 1)
: KE E una ley externa, es decir,
K, u E, (, u) u E.
Se dice que la cuaterna (E, K, +, ) tiene estructura de espacio vectorial, o bien que E
es un espacio vectorial sobre K (tambien Kespacio vectorial) si se verican:
1. u E, , K, ( +) u = u + u.
2. u, v E, K, (u +v) = u + v.
3. u E, , K, () u = ( u).
4. u E, 1 u = u (1 representa la unidad del cuerpo K).
Notacion y terminologa:
Los elementos del espacio E se denominan vectores, mientras que los del cuerpo K
se llaman escalares.
Cuando el cuerpo de escalares sobre el que se dene un espacio vectorial E es el de
los n umeros reales, suele decirse que E es un espacio vectorial real; cuando es el
de los complejos, E se llama un espacio vectorial complejo.
Propiedades:
A partir de la denicion, se deducen inmediatamente las siguientes:
u E, 0 u = 0.
Sean K y u E; u = 0 = 0 u = 0.
K, u E, ()u = (u) = (u).
Ejemplos:
El plano eucldeo R
2
y el espacio eucldeo R
3
ordinarios, constituyen espacios vecto-
riales sobre R con la suma de vectores y el producto de escalar por vector habituales.
Estos espacios son casos particulares del siguiente:
Dados un cuerpo K y un entero positivo n, el producto cartesiano K
n
, con la suma
de vectores y el producto de escalar por vector, constituye un espacio vectorial sobre
K.
Notese que, haciendo n = 1, se tiene que todo cuerpo es un espacio vectorial
sobre s mismo.
M. Lopez, G. Sansigre 3
El conjunto K[x] de los polinomios con coecientes en un cuerpo K, constituye un
espacio vectorial sobre K. Asimismo, dado n N, el conjunto K
n
[x] de los polinomios
de grado menor o igual que n, tambien es un espacio vectorial (diremos que es un
subespacio vectorial de K[x]).
Dados n, m enteros positivos, el conjunto K
mn
de las matrices con elementos en K,
con la suma de matrices y el producto de escalar por matriz, es un espacio vectorial
sobre el cuerpo K.
1.1.1. Combinaciones lineales
Denicion 2 (combinaci on lineal) Sea E un espacio vectorial sobre K; una combi-
nacion lineal de los vectores u
1
, u
2
, . . . , u
k
de E es cualquier vector de la forma
u =
1
u
1
+
2
u
2
+. . . +
k
u
k
, (1.1)
siendo
1
,
2
, . . . ,
k
K.
Observacion: El vector nulo es combinaci on lineal de cualesquiera vectores. Todo vector
es combinaci on lineal de s mismo.
Denicion 3 (clausura lineal) Dado un espacio vectorial E y un conjunto M E,
se dene la clausura lineal de M, y se denota por L[M], como el conjunto de todas las
combinaciones lineales de vectores de M.
Observacion: La clausura lineal es un subespacio vectorial, que tambien se denomina
subespacio generado por M. Cualquier subespacio que contenga a M necesariamente
contiene a L[M].
1.1.2. Dependencia e independencia lineal
Denicion 4 (independencia lineal) Los vectores u
1
, u
2
, . . . , u
k
de un espacio vecto-
rial E son linealmente independientes si la unica combinacion lineal de ellos que da el
vector nulo es la que tiene todos los coecientes nulos, es decir,

j
K,
1
u
1
+
2
u
2
+. . . +
k
u
k
= 0
1
=
2
= . . . =
k
= 0. (1.2)
En caso contrario, se dice que los vectores anteriores son linealmente dependientes.
Observacion: u
1
, u
2
, . . . , u
k
son linealmente dependientes si y solo si

1
,
2
, . . . ,
k
K, con alg un
i
,= 0, tales que
k

j=1

j
u
j
= 0. (1.3)
4

Algebra (Tema 1)
Y lo anterior equivale a que se pueda despejar alguno de los vectores como combinaci on
lineal de los restantes, es decir,
u
i
=

j=i

j
u
j
,
j
K. (1.4)
(Basta considerar un u
i
cuyo
i
,= 0 en la combinaci on lineal que da el vector nulo).
Denicion 5 (sistema libre y ligado) Sea S = u
1
, u
2
, . . . , u
k
E, siendo E un
espacio vectorial; se dice que S es un sistema libre si u
1
, u
2
, . . . , u
k
son linealmente inde-
pendientes; en caso contrario, se dice que S es un sistema ligado.
Observacion: Recapitulando:
Cualquier conjunto que contenga el vector nulo es un sistema ligado.
Cualquier conjunto que contenga dos vectores proporcionales es ligado.
La union de un sistema ligado con cualquier otro siempre da un sistema ligado.
Un sistema S es ligado si y solo si alg un vector de S es combinacion lineal de los
restantes vectores de S.
S es libre si y solo si ning un vector de S es combinaci on lineal de los restantes
vectores de S.
Ejemplo: En el espacio R
n
[x] de los polinomios reales de grado menor o igual que n, la
familia de polinomios
1, x, x
2
, . . . , x
n

es un sistema libre, pues una combinaci on lineal arbitraria a


0
+a
1
x+. . . +a
n
x
n
solo puede
ser el polinomio nulo, obviamente, si todos los coecientes son nulos.
1.1.3. Subespacios vectoriales
Denicion 6 (subespacio vectorial) Dado un espacio vectorial (E, K, +, ) y H E,
se dice que H es un subespacio vectorial de E si (H, K, +, ) es un espacio vectorial.
Observacion: Todo espacio vectorial es subespacio de s mismo; ademas, en todo es-
pacio vectorial, el conjunto 0 formado unicamente por el vector nulo, constituye un
subespacio que llamaremos subespacio nulo. Estos dos subespacios son los llamados
subespacios triviales.
Caracterizacion de subespacios vectoriales:
Sean (E, K, +, ) espacio vectorial y H E; H es un subespacio vectorial de E si y
solo si se verican:
M. Lopez, G. Sansigre 5
1. H ,= .
2. u, v H, u +v H.
3. K, u H, u H.
Notese que los apartados 2. y 3. pueden escribirse conjuntamente en la forma:
u, v H, , K, u +v H. (1.5)
1.1.4. Interseccion y suma de subespacios
Proposicion 1 La interseccion de subespacios vectoriales de un mismo espacio es sub-
espacio vectorial de dicho espacio.
Observacion: La union de subespacios vectoriales no es, en general, subespacio vec-
torial. Considerense, por ejemplo, dos rectas no coincidentes (y que pasen por el origen)
en R
2
.
De hecho, dados dos subespacios L, M de un mismo espacio vectorial E, se tiene que
L M es subespacio (L M M L).
Denicion 7 (suma de subespacios) Dado un espacio vectorial E sobre K y dos sub-
espacios L y M, denimos su suma como
L +M := u +v : u L , v M. (1.6)
En general, la denicion anterior puede extenderse recursivamente a un n umero nito
de subespacios de un mismo espacio.
Proposicion 2 La suma de subespacios vectoriales de E es un subespacio vectorial de E.
Denicion 8 (suma directa) Dados dos subespacios vectoriales de un mismo espacio
E, diremos que su suma es directa, y escribiremos L M, si L M = 0.
Observacion: Para mas de dos subespacios, se dice que su suma es directa si lo es la
de cada subespacio con la suma de todos los demas.
Caracterizacion de suma directa.
Sean L, M subespacios vectoriales de un mismo espacio vectorial E; el subespacio
L+M es suma directa si y solo si u L+M, existen unicos v L, w M, tales que
u = v +w.
Denicion 9 (subespacios suplementarios) Dos subespacios L y M de un mismo es-
pacio E se dicen suplementarios (en E) si L M = E.
6

Algebra (Tema 1)
Observacion: Dados dos subespacios L, M suplementarios en E, todo vector de E se
descompone de forma unica como suma de un vector de L y otro de M.
Ejemplo: En R
2
cualesquiera dos rectas distintas que pasen por el origen son suple-
mentarias; en particular los dos ejes coordenados:
(x, y) R
2
, (x, y) = (x, 0) + (0, y).
1.2. Bases
1.2.1. Base y dimension
Denicion 10 (sistema generador) Dados E espacio vectorial y / E, se dice que
/ es un sistema generador (o sistema de generadores) de E si E = L[/], es decir, si
todo vector de E puede ponerse como combinacion lineal de los de /.
Denicion 11 Un espacio vectorial es de tipo nito si admite alg un sistema generador
con un n umero nito de vectores.
Nota: Todos los espacios que se estudien en este curso seran de tipo nito sin necesidad
de mencion expresa en lo sucesivo.
Denicion 12 (base) Dado E espacio vectorial, una base es un sistema generador,
libre y ordenado.
Teorema 1 (existencia de bases) Todo espacio vectorial admite una base.
Teorema 2 Todas las bases de un mismo espacio vectorial tienen el mismo n umero de
vectores.
Denicion 13 (dimension) Llamamos dimension de un espacio vectorial E, y la deno-
tamos por dimE, al n umero de elementos de cualquiera de sus bases.
Proposicion 3 De todo sistema generador de un espacio vectorial E puede extraerse una
base.
Apunte constructivo: Sea G un generador nito de E. Si es libre el resultado
esta probado. Si es ligado, existe un vector v G que depende linealmente de los restantes
vectores de G, as pues el conjunto G v es un generador. Se repite el argumento y,
dado que G es nito, en un n umero nito de pasos habremos extrado de G un generador
libre.
M. Lopez, G. Sansigre 7
Proposicion 4 Sea E un espacio vectorial de dimension n.
Si u
1
, . . . , u
n
es un sistema libre de E, entonces es sistema generador de E.
Si u
1
, . . . , u
n
es un sistema generador de E, entonces es base de E.
Si E es un espacio vectorial de dimension n, y H es un subespacio de E cuya
dimension tambien es n, entonces H = E.
Teorema 3 (complecion de la base) Sea E un espacio vectorial de dimension n, y sea
G = u
1
, u
2
, . . . , u
k
un sistema libre de E, con k < n. Entonces existen u
k+1
, . . . , u
n
E,
tales que (u
1
, . . . , u
k
, u
k+1
, . . . , u
n
) es una base de E.
Apunte constructivo: Se supone que conocemos una base o un generador F del espacio.
Puesto que todo sistema generador de E tiene al menos n elementos, el conjunto G no
puede ser generador, luego existe alg un vector u
k+1
F L[u
1
, u
2
, . . . , u
k
]. Ahora, el
conjunto u
1
, u
2
, . . . , u
k
, u
k+1
es un sistema libre de E, ya que
1
u
1
+ . . . +
k
u
k
+

k+1
u
k+1
= 0 implica, si
k+1
,= 0, que u
k+1
es combinaci on lineal de los u
1
, . . . , u
k
,
lo cual es imposible; luego
k+1
= 0, lo que implica, por la independencia lineal de los
u
1
, . . . , u
k
, que
1
= . . . =
k
= 0.
Si k +1 = n, ya tenemos una base de E, pues el conjunto u
1
, u
2
, . . . , u
k
, u
k+1
es un
sistema libre de n vectores; en caso contrario, volvemos a aplicarle el mismo razonamiento
a dicho conjunto (sea u
k+2
F L[u
1
, u
2
, . . . , u
k
, u
k+1
]; en nk pasos, habremos obtenido
un sistema libre de n vectores, es decir, una base de E.
1.2.2. Coordenadas respecto a una base
Denicion 14 (coordenadas respecto a una base) Sea E espacio vectorial sobre K
de dimension n; sea B = (u
1
, . . . , u
n
) una base de E. Si v E, v = x
1
u
1
+ . . . + x
n
u
n
con x
j
K, los escalares x
1
, . . . , x
n
se denominan coordenadas del vector v respecto a la
base B.
El vector x = (x
1
, . . . , x
n
) K
n
se denomina vector de coordenadas de v respecto
a B, y se suele denotar por [v]
B
.
Proposicion 5 Las coordenadas de un vector respecto a una base son unicas.
Observacion: Si E es un espacio de dimension n sobre el cuerpo K, jada una base B
de E, podemos identicar cada vector v E con su vector de coordenadas x = [v]
B
K
n
.
Podemos, pues, a todos los efectos, tratar los vectores de E como si fueran vectores de
K
n
.
En particular, todo subespacio vectorial de E lo podemos expresar mediante unas
ecuaciones implcitas homogeneas sobre las coordenadas respecto a la base B.
8

Algebra (Tema 1)
Ejemplo: En el espacio de polinomios K
n
[x], se considera la base B = (1, x, x
2
, . . . , x
n
).
Dado un polinomio P(x) = a
0
+a
1
x +. . . +a
n
x
n
, su vector de coordenadas respecto a B
es [P(x)]
B
= (a
0
, a
1
, . . . , a
n
) K
n+1
.
1.2.3. Cambio de base
Sea E un espacio vectorial de dimension n. Si B = (e
1
, . . . , e
n
) y 1 = (v
1
, . . . , v
n
)
son dos bases de E, entonces los vectores de cada una de ellas se pueden poner como
combinaciones lineales de los de la otra, por ejemplo:
v
1
= p
11
e
1
+p
21
e
2
+. . . +p
n1
e
n
v
2
= p
12
e
1
+p
22
e
2
+. . . +p
n2
e
n
.
.
.
v
n
= p
1n
e
1
+p
2n
e
2
+. . . +p
nn
e
n
.
Denicion 15 (matriz de cambio de base) Se llama matriz de cambio de base (o
matriz de paso) de B a 1 a la matriz
P =
_
_
_
_
_
_
p
11
p
12
p
1n
p
21
p
22
p
2n
.
.
.
.
.
.
.
.
.
.
.
.
p
n1
p
n2
p
nn
_
_
_
_
_
_
=
_
[v
1
]
B
, [v
2
]
B
, . . . , [v
n
]
B
_
. (1.7)
Observacion: La matriz de paso de B a 1 es invertible y su inversa es la que hace el
cambio inverso, es decir, la matriz de paso de 1 a B.
Formula del cambio de base. Permite hallar las coordenadas de un vector u E
respecto a una base conocidas en otra; esto es, relaciona las coordenadas de un mismo
vector en dos bases diferentes:
[u]
B
= P[u]
V
. (1.8)
Observacion: En las expresiones matriciales entenderemos siempre que los productos
son coherentes; es decir, el vector de coordenadas de u en ambas bases es un vector
columna de n componentes.
1.2.4. La relacion de Grassmann
Observacion: Dados dos subespacios M
1
y M
2
, de sistemas generadores respectivos
/
1
y /
2
, se tiene que /
1
/
2
es un sistema generador de M
1
+ M
2
; es decir, que
M. Lopez, G. Sansigre 9
la union de los sistemas generadores es un sistema generador de la suma; en
particular, la union de las bases es un sistema generador (pero no necesariamente base)
de la suma.
Proposicion 6 (Relacion de Grassmann) Dados dos subespacios vectoriales L, M de
un mismo espacio vectorial E, se tiene que
dim(L +M) = dimL + dimM dim(L M). (1.9)
Observacion: Para cualesquiera subespacios L, M de intersecci on nula, dim(LM) =
dimL + dimM.
En particular, si L, M son dos subespacios suplementarios en un espacio vectorial E,
entonces dimE = dimL + dimM.
10

Algebra (Ejercicios)
1.3. Ejercicios
1.1. Respondase a las siguientes cuestiones:
1. En el espacio de la matrices reales cuadradas de orden n, comprobar que los siguien-
tes subconjuntos son subespacios: las matrices diagonales, las matrices triangulares
superiores, las matrices tridiagonales, las matrices simetricas, y las matrices anti-
simetricas.
2. Probar que los dos ultimos son subespacios suplementarios.
3. Cual es la suma e interseccion de los subespacios formados por las matrices trian-
gulares superiores e inferiores?
1.2. En R
4
se considera el subespacio L generado por los vectores (1, 1, 1, 1) , (1, 2, 3, 4) ,
(5, 3, 1, 1) , (0, 1, 0, 1) . Se pide:
1. Comprobar que esos cuatro vectores son linealmente dependientes.
2. Hallar una base de L.
3. Construir una base de R
4
extendiendo la base anterior con vectores cuyas tres
primeras componentes sean iguales a 2.
1.3. Se consideran los vectores (1, 1, 2) , (2, 0, 1) , (a, 1, 0) de R
3
.
1. Determinar los valores del parametro a para que sean linealmente independientes.
2. Para a = 3, estudiar si el vector (1, 1, 1) es combinaci on lineal de ellos.
1.4. Determinar los valores de los parametros y que hacen que las tres cuaternas
(1, 2, 1, 3) , (1, 1, , 3) y (3, 2, 5, ) sean linealmente independientes.
1.5. Sea V el subespacio de R
4
denido por las ecuaciones cartesianas
x
1
+x
2
x
3
= 0, x
1
+x
4
= 0, x
2
x
3
x
4
= 0.
Escribir las ecuaciones de un subespacio suplementario de V . Es unico este suplemen-
tario?
1.6. Determinar una base escalonada del subespacio de R
6
engendrado por las las de
la matriz
_
_
_
_
_
1 1 1 1 8 14
1 1 0 3 15 18
1 1 2 2 1 7
1 1 2 2 2 8
_
_
_
_
_
.
Completar la base obtenida hasta obtener una base del espacio R
6
. Hallar las coordenadas
del vector (1, 1, 1, 1, 1, 1) en la base obtenida.
M. Lopez, G. Sansigre 11
1.7. Hallar una base de cada uno de los subespacios U +V y U V , siendo:
1. U = L[(1, 0, 2, 2), (1, 1, 0, 1)], V = L[(1, 2, 2, 0), (0, 1, 1, 2)].
2. U = L[(1, 2, 1, 0), (0, 1, 0, 1)], V = L[(0, 0, 1, 1), (1, 1, 2, 2)].
1.8. Sean F y G dos subespacios de un espacio E cuyas dimensiones son p y q.
Determinar todos los posibles valores de las dimensiones de los subespacios F + G y
F G.
1.9. En un espacio vectorial se consideran dos bases:
B = (u
1
, u
2
, u
3
) 1 = (u
1
+u
3
, u
2
2u
1
, u
3
u
2
) .
Escribir la matriz de cambio de base de B a 1. Calcular la matriz de cambio de base de
1 a B. Determinar las coordenadas del vector u
1
+u
2
+u
3
respecto a la base 1.
1.10. Comprobar que las matrices
_
1 0
0 1
_
,
_
1 0
0 1
_
,
_
0 1
1 0
_
,
_
0 1
1 0
_
forman una base de R
22
y hallar las coordenadas en esa base de una matriz generica.
Determinar la dimension del espacio de las matrices reales cuadradas de orden n. Hallar
asimismo las dimensiones de los subespacios de matrices simetricas y antisimetricas de
R
nn
. Escribir una base de cada subespacio en el caso de las matrices de tercer orden.
1.11. Dado el polinomio p(x) = 1 + 5x + 3x
2
, escribir el polinomio q(x) := p(x + 1)
como una combinaci on lineal de los polinomios p(x), p

(x) y p

(x).
Captulo 2
Espacios vectoriales eucldeos
Producto escalar y norma asociada. Familias ortogonales e independencia lineal.
Bases ortonormales. Matrices ortogonales. Coordenadas de un vector en una base
ortonormal. La matriz de Gram de una familia de vectores. El metodo de Gram
Schmidt. El teorema de la proyecci on ortogonal.
Introduccion
El espacio eucldeo por antonomasia es R
3
, nuestro espacio geometrico y fsico en el
que tiene sentido hablar de distancias, de angulos, de simetras (respecto a una recta, a
un punto). En el tema que ahora abordamos daremos signicado a todos estos conceptos
cuyo ejemplo canonico es R
3
.
A lo largo de todo el tema E es un espacio vectorial real.
2.1. Producto escalar y norma
Denicion 16 (producto escalar) Un producto escalar en E es una aplicacion
E E R
(u, v) u, v)
que cumple:
1. Es lineal en la primera componente, es decir:
u, v, w E, , R u +v, w) = u, w) +v, w). (2.1)
2. Es simetrica:
u, v E u, v) = v, u). (2.2)
3. Es positiva:
u E, u ,= 0 u, u) > 0. (2.3)
12
M. Lopez, G. Sansigre 13
Observacion: Las propiedades 1 y 2 conjuntamente implican la linealidad en la segunda
componente:
u, v, w E, , R u, v +w) = u, v) +u, w). (2.4)
Denicion 17 (espacio eucldeo) Un espacio vectorial real, de dimension nita con
producto escalar se llama espacio eucldeo.
Ejemplos:
1. En R
n
considerado como espacio de los vectores columna reales, un producto escalar
viene denido por x, y) = x
t
y. Recibe el nombre de producto escalar usual o
estandar.
2. En el espacio de las matrices reales R
mn
,
A, B) = traza (A
t
B). (2.5)
2.1.1. Propiedades y deniciones relacionadas
1. Dos vectores u, v E son ortogonales (o perpendiculares) si su producto escalar
es nulo: u, v) = 0. En ese caso es frecuente escribir u v.
2. El vector nulo es ortogonal a todos los del espacio: v E 0, v) = 0.
3. Y, recprocamente, si un vector es ortogonal a todos los del espacio, entonces es
nulo:
v E u, v) = 0 u = 0. (2.6)
4. Dado un vector u E no nulo, se dene
u

:= v E, u, v) = 0 (2.7)
u

es un subespacio vectorial llamado subespacio ortogonal a u. Ademas, si E


es de dimension nita n, dimu

= n 1.
5. Si M es un subespacio, se dene M ortogonal como
M

:= v E, u M, u, v) = 0 (2.8)
M

es un subespacio. En particular, si E es de dimension nita, M y M

son
suplementarios, E = M M

14

Algebra (Tema 2)
Proposicion 7 Un producto escalar induce una norma,
|u| :=
_
u, u) (2.9)
esta norma recibe el nombre de norma asociada al producto escalar.
Se cumple:
1. u E, |u| 0, |u| = 0 u = 0.
2. R, u E |u| = [[ |u|.
3. Desigualdad triangular:
u, v E, |u +v| |u| +|v|. (2.10)
4. Desigualdad de Cauchy-Schwarz:
u, v E [u, v)[ |u| |v|. (2.11)
La desigualdad de Cauchy-Schwarz permite denir el angulo entre dos vectores,
Denicion 18 Sean u, v dos vectores no nulos de E, se dene al angulo que forman
como aquel cuyo coseno es
cos =
u, v)
|u| |v|
, [0, ]. (2.12)
Observacion: Disponer de una norma permite denir una distancia, dados dos vectores
u, v denimos la distancia entre ellos:
d(u, v) := |u v|. (2.13)
Si M es un subespacio, para cualquier vector u E su distancia a M se dene como
d(u, M) := mnd(u, v), v M. (2.14)
2.1.2. Familias ortogonales. Matriz de Gram.
Denicion 19 Un conjunto de vectores T = u
1
, . . . , u
m
de E es ortogonal si
u
i
, u
j
) = 0 para i ,= j. Se dice que los vectores de T son ortogonales dos a dos.
Denicion 20 Un conjunto de vectores de E es ortonormal si sus vectores son orto-
gonales dos a dos y unitarios (es decir de norma 1).
Proposicion 8 Una familia ortogonal que no contiene el vector nulo es libre. En parti-
cular, toda familia ortonormal es libre.
Denicion 21 En un espacio eucldeo una base ortonormal es aquella cuyos vectores son
ortogonales dos a dos y unitarios.
M. Lopez, G. Sansigre 15
Ejemplo: La base canonica de R
n
es ortonormal respecto del producto escalar habitual.
Observacion: Sea B
o
= (e
1
, . . . , e
n
) una base ortonormal de E y sea v E, entonces
v =
n

j=1
v, e
j
)e
j
. (2.15)
Denicion 22 Una matriz Q R
nn
es ortogonal si Q
t
Q = I.
Observacion: Las columnas (y las) de una matriz ortogonal constituyen una base
ortonormal de R
n
con el producto escalar natural.
Denicion 23 Dado un conjunto de vectores u
1
, . . . , u
m
de E, se dene su matriz
de Gram como aquella G R
mm
tal que G
ij
:= u
i
, u
j
).
Observacion: La matriz de Gram es simetrica y su rango es igual al n umero maximo
de vectores independientes del conjunto. Si, en particular, el conjunto es una base B del
espacio, la matriz se llama tambien matriz del producto escalar en la base B.
Observacion: La matriz de Gram de una familia ortogonal es diagonal; en particular,
la de una familia ortonormal es la identidad.
2.1.3. Ortonormalizacion de Gram-Schmidt
Todo espacio vectorial de dimension nita admite una base ortonormal; en este aparta-
do se demuestra este resultado y se estudian algunas consecuencias importantes de este
hecho.
Teorema 4 (Gram-Schmidt) Sea E un espacio con producto escalar y u
1
, u
2
, . . . , u
m

una familia libre, entonces existe una familia ortonormal q


1
, q
2
, . . . , q
m
tal que
L[u
1
, u
2
, . . . , u
k
] = L[q
1
, q
2
, . . . , q
k
], k = 1, 2, . . . , m. (2.16)
Construccion:
q
1
=
u
1
|u
1
|
,
q
2
=
u
2
u
2
, q
1
)q
1
|u
2
u
2
, q
1
)q
1
|
,
q
k
=
u
k
u
k
, q
1
)q
1
u
k
, q
k1
)q
k1
|u
k
u
k
, q
1
)q
1
u
k
, q
k1
)q
k1
|
, k = 3, . . . , m.
(2.17)
16

Algebra (Tema 2)
Consecuencia importante
Sea M un subespacio de E de dimension m y B = (u
1
, . . . , u
m
, u
m+1
, . . . , u
n
) una
base de E obtenida completando una base de M; ortonormalizando por Gram-Schmidt
obtenemos una base ortonormal B
o
= (q
1
, . . . , q
m
, q
m+1
, . . . , q
n
) de E. Los vectores de
esta base pueden agruparse de modo que los m primeros (q
1
, . . . , q
m
) constituyen una
base ortonormal de M y el resto (q
m+1
, . . . , q
n
) una base ortonormal de M

.
Teorema 5 (de la proyeccion ortogonal) Sea M un subespacio de E. Entonces para
cada vector u E existen unicos v M, w M

de forma que u = v + w, ademas


d(u, M) = |u v|.
Denicion 24 El vector v recibe el nombre de proyecci on ortogonal de u sobre M.
2.2. Producto hermtico y matrices unitarias
2.2.1. Espacios hermticos
Si E es un espacio vectorial complejo, el producto escalar (tambien llamado producto
hermtico) se dene del siguiente modo:
Denicion 25 (producto hermtico) Un producto escalar o hermtico en E es una
aplicacion
E E C
(u, v) u, v)
que cumple:
M. Lopez, G. Sansigre 17
1. Es lineal en la primera componente, es decir:
u, v, w E, , C u +v, w) = u, w) +v, w). (2.18)
2. Es hermtica:
u, v E u, v) = v, u). (2.19)
3. Es positiva:
u E, u ,= 0 u, u) R, u, u) > 0. (2.20)
Observacion: Las propiedades 1 y 2 conjuntamente implican una propiedad llamada
antilinealidad en la segunda componente:
u, v, w E, , C u, v +w) = u, v) +u, w). (2.21)
Cuando una aplicacion de E E es lineal en la primera componente y antilineal en la
segunda se dice que es sesquilineal.
Denicion 26 (espacio hermtico) Un espacio vectorial complejo, de dimension nita
con producto escalar se llama espacio hermtico.
Denicion 27 (producto hermtico usual) Dados u, v C
n
, su producto escalar o
hermtico usual es u, v) = u
t
v = v
t
u, en donde v representa el conjugado complejo del
vector v.
Norma y propiedades relacionadas
La denicion de norma es identica a la dada en el caso de los espacios eucldeos.
Las propiedades enunciadas all tambien son validas en los espacios hermticos, con la
excepcion de que en estos la matriz de Gram no es simetrica sino hermtica, es decir:
G
t
= G. El concepto de matriz ortogonal se ve ahora reemplazado por el de matriz
unitaria.
2.2.2. Matrices unitarias
Denicion 28 (matriz unitaria) Una matriz U C
nn
es unitaria si U
h
U = I, en
donde U
h
denota la matriz transpuesta conjugada de U.
Observacion: Las columnas (y las) de una matriz unitaria constituyen una base
ortonormal de C
n
con el producto hermtico natural.
18

Algebra (Ejercicios)
2.3. Ejercicios
2.1. Dados los vectores (2, 1, 1) y (1, 0, 1) , hallar su producto escalar, sus normas y
el angulo que forman.
2.2. Escribir la matriz de Gram asociada a los vectores (1, 0, 1) , (1, 2, 1) , (1, 1, 1) .
2.3. Hallar los valores de a, b y c para que la familia (1, 2, 1, 0) , (1, a, 3, 7) , (b, 4, 1, c)
sea ortogonal.
2.4. Hallar una base ortonormal del plano x +y = 5z, de forma que su primer vector
sea proporcional a (1, 1, 0) .
2.5. Si (u
1
, , u
n
) es una base ortonormal de un espacio eucldeo, calcular las coor-
denadas del vector u =2u
1
u
2
+ 2u
n
respecto a dicha base, y su norma.
2.6. Demostrar que dos vectores v y w de un espacio eucldeo tienen la misma norma
si y solo si su suma v +w y su diferencia v w son ortogonales.
2.7. Dados dos vectores a y b de R
3
, linealmente independientes, comprobar que los
tres vectores
u =
a
|a|
, v =
b u, b)u
|u b|
, w =
a b
|a b|
forman una base ortonormal del espacio.
2.8. Dados tres vectores a, b y c del espacio ordinario, demostrar que los vectores
u = a b , v = b c , w = c a
son linealmente independientes si y solo si lo son a, b y c. En ese supuesto, determinar
las coordenadas del vector a +b +c en la base (u, v, w).
2.9. Aplicando el metodo de Gram-Schmidt a la matriz
_
_
_
_
_
_
_
_
3 0 8
2 1 2
2 2 7
2 2 2
2 2 2
_
_
_
_
_
_
_
_
determinar una base ortonormal del subespacio generado por las columnas de esta ma-
triz. Obtener una base ortonormal del espacio R
5
completando esa base con una base
ortonormal del subespacio ortogonal al engendrado por las columnas de la matriz.
M. Lopez, G. Sansigre 19
2.10. Calcular todos los posibles valores reales de a, b y c para que la siguiente matriz
sea ortogonal:
_
_
_
0 2b c
a b c
a b c
_
_
_.
2.11. Calcular todos los posibles valores reales de a y b para que la siguiente matriz
sea unitaria:
_
a bi
a bi
_
.
2.12. Sea U = A + iB, con A y B reales, una matriz compleja unitaria. Comprobar
que la matriz
M =
_
A B
B A
_
es ortogonal.
2.13. Probar que los siguientes subespacios son suplementarios ortogonales en R
n
:
L : x
1
+ +x
n
= 0 M : x
1
= = x
n
.
Calcular la proyecci on ortogonal del vector (1, 0, 0, , 0) sobre L.
2.14. Determinar la proyecci on ortogonal del vector (1, 1, 0, 2) sobre el subespacio
generado por los dos vectores (1, 1, 0, 1) y (0, 2, 1, 1).
2.15. Escribir la distancia del vector (1, 3, 2, 0) al subespacio de R
4
de ecuaciones
x
1
= x
2
, x
3
= x
4
.
2.16. En el espacio eucldeo R
4
se considera el subespacio /generado por los vectores
(1, 0, 1, 1), (1, 1, 0, 1) y (1, 1, 1, 0). Se pide:
1. Calcular una base ortonormal del subespacio /

.
2. Descomponer el vector b = (7, 7, 7, 7) como suma de sendos vectores de / y de
/

.
2.17. Dados dos vectores u y v de un espacio eucldeo, expresar el vector componente
de v en la direccion de u en funcion de u, v) y |u|.
2.18. Se considera el espacio eucldeo R
32
dotado del producto escalar de Frobenius
A, B) = traza (A
t
B). Calc ulese una base ortonormal del subespacio generado por las
matrices
M
1
=
_
_
_
2 1
0 0
0 2
_
_
_, M
2
=
_
_
_
0 3
1 0
0 0
_
_
_ y M
3
=
_
_
_
3 3
1 0
0 0
_
_
_,
de modo que la primera matriz de dicha base sea proporcional a M
1
y la segunda pertenez-
ca al subespacio generado por M
1
y M
2
.
Captulo 3
Aplicaciones lineales y matrices
3.1 Aplicaciones lineales entre espacios vectoriales. Subespacios n ucleo e imagen de una
aplicacion lineal. Ecuacion de dimensiones de una aplicacion lineal.
3.2 Matrices. Operaciones elementales. Rango de una matriz. Calculo de la inversa me-
diante operaciones elementales: algoritmo de GaussJordan.
3.3 Matriz de una aplicacion lineal en bases jadas. Cambio de base. Semejanza de
matrices.
3.4 Proyecciones y simetras. Producto vectorial. Giros en el espacio tridimensional.
3.1. Aplicaciones lineales entre espacios vectoriales
3.1.1. Denicion, ejemplos y propiedades
Denicion 29 Sean E, F dos espacios vectoriales sobre un mismo cuerpo K; sea una
aplicacion f : E F. Se dice que f es lineal (tambien se denomina homomorsmo
de espacios vectoriales) si verica
u, v E, f(u +v) = f(u) +f(v); (3.1)
u E, K, f(u) = f(u). (3.2)
O, equivalentemente, si verica
u, v E, , K, f(u +v) = f(u) + f(v). (3.3)
El espacio E se llama espacio inicial, mientras que F es el espacio nal.
Si los espacios inicial y nal coinciden E = F la aplicacion recibe el nombre de
endomorsmo.
20
M. Lopez, G. Sansigre 21
Ejemplos:
La aplicacion f de R
3
a R
2
, denida por f(x, y, z) = (x + 2y, x y + z) es lineal.
Es un caso particular de:
Dado un cuerpo K y dos enteros positivos m y n, se considera una matriz A K
mn
(m las y n columnas).
A dene una aplicacion lineal f de K
n
a K
m
, mediante
u K
n
, f(u) := Au K
m
. (3.4)
Propiedades de las aplicaciones lineales
Para f : E F lineal, se deducen inmediatamente de la denicion las siguientes
propiedades:
f(0
E
) = 0
F
.
u E, f(u) = f(u).
Si (e
1
, . . . , e
n
) es una base de E, todo vector u de E se expresa como u =
n

j=1
x
j
e
j
,
y su imagen como
f(u) =
n

j=1
x
j
f(e
j
), (3.5)
es decir, toda aplicacion lineal queda caracterizada por las imagenes de los
vectores de una base del espacio inicial.
3.1.2. Imagen y n ucleo de una aplicacion lineal
Denicion 30 (imagen y n ucleo de f) Sea f : E F aplicacion lineal; la imagen
de f es el conjunto
Imf := f(E) = f(u) : u E. (3.6)
el n ucleo de f es
ker f := u E : f(u) = 0. (3.7)
22

Algebra (Tema 3)
Propiedades: Sea f : E F lineal. Entonces:
La imagen de f es un subespacio vectorial del espacio nal F.
f es suprayectiva Imf = F.
Si B es cualquier sistema generador (por ejemplo, una base) del espacio inicial, f(B)
es un sistema generador de Imf.
El n ucleo de f es un subespacio del espacio inicial E
f es inyectiva ker f = 0 f transforma bases (de E) en bases de Imf.
Ecuacion de dimensiones de una aplicacion lineal
dimE = dim(ker f) + dim(Imf). (3.8)
Si A es una matriz de R
mn
, ker A e ImA
t
son subespacios suplementarios ortogo-
nales en R
n
.
Denicion 31 Dos espacios vectoriales E, F sobre un mismo cuerpo K se dicen iso-
morfos entre s (o bien que E es isomorfo a F), y se escribe
E F
si existe un isomorsmo (i.e. aplicacion lineal y biyectiva) f : E F.
Proposicion 9 Sean E, F espacios vectoriales sobre un mismo cuerpo K, con E de di-
mension nita. Entonces
E y F son isomorfos dimE = dimF.
Observacion: Si dos espacios E y F sobre un mismo cuerpo tienen la misma dimen-
sion, y f : E F es lineal, entonces
f es inyectiva f es suprayectiva.
Ejemplo: Dado cualquier espacio vectorial E, sobre el cuerpo K, de dimension nita
n, y jada una base B = (e
1
, . . . , e
n
), la aplicacion que a cada u E asocia [u]
B
es un
isomorsmo entre los espacios E y K
n
.
M. Lopez, G. Sansigre 23
3.2. Matrices
3.2.1. El espacio vectorial K
mn
Sean m, n enteros positivos y K un cuerpo. Una matriz de tama no (o de dimensiones)
mn en el cuerpo es una tabla rectangular formada por mn elementos que se disponen
como se indica:
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
.
Cada a
ij
se llama elemento, coeciente o entrada de la matriz. Se dice que esta situado
en la la i de la matriz y en la columna j. La matriz esta formada por m las que son
vectores de K
n
y por n columnas que lo son de K
m
. Solemos utilizar letras may usculas
para indicar una matriz A, B, M, etc. y la correspondiente min uscula para sus entradas:
a
ij
, b
ij
, m
ij
. A veces expresaremos a
ij
= (A)
ij
. En general se intentara que la notacion se
explique a s misma. El vector (a
i1
, a
i2
, . . . , a
in
) constituye la la i-esima de la matriz y el
vector
_
_
_
_
_
_
a
1j
a
2j
.
.
.
a
mj
_
_
_
_
_
_
es la columna j-esima de la matriz.
El conjunto de las matrices con coecientes en K y dimensiones mn se denota K
mn
y se estructura como espacio vectorial mediante:
A, B K
mn
(A+B)
ij
:= a
ij
+b
ij
, (3.9)
K, A K
mn
(A)
ij
:= a
ij
. (3.10)
El cuerpo de escalares es K y la dimension es igual al n umero de elementos de la matriz
que es mn. Las bases naturales de este espacio se obtienen tomando las matrices cuyas
entradas son todas nulas salvo una que vale 1 y recorre todas las posiciones posibles.
En particular, si m = n se dice que la matriz es cuadrada de orden n. Los elementos
a
ii
de igual ndice de la que de columna se llaman elementos diagonales de la matriz y
constituyen la diagonal principal de la matriz. La matriz cuyos elementos diagonales son
iguales a 1 y el resto nulos se llama matriz identidad y se denota con la letra I:
I =
_
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
_
. (3.11)
24

Algebra (Tema 3)
3.2.2. Producto matricial
Denicion 32 Dadas dos matrices A K
mn
, B K
nr
, se dene su producto AB
como aquella matriz C K
mr
tal que c
ij
=
n

k=1
a
ik
b
kj
, i = 1, 2, . . . , m , j = 1, 2, . . . , r.
El elemento (ij) del producto se obtiene multiplicando la la i de la primera matriz
por la columna j de la segunda. Es preciso que el n umero de columnas de la primera
matriz iguale al n umero de las de la segunda.
El producto de matrices es distributivo respecto de la suma a izquierda y derecha,
siempre y cuando las matrices tengan las dimensiones adecuadas.
Denicion 33 Dada una matriz A K
mn
, se dene su transpuesta A
t
K
nm
como
(A
t
)
ij
= a
ji
, i = 1, 2, . . . , m , j = 1, 2, . . . , n. (3.12)
Es decir, la que se obtiene a partir de A cambiando las por columnas.
Proposicion 10 Sean A, B dos matrices para las que el producto AB tenga sentido;
entonces
(AB)
t
= B
t
A
t
. (3.13)
Producto matricial y combinaciones lineales
Sean A K
mn
, B K
nr
, denotemos C
k
la columna k-esima y F
k
la la, entonces:
Las columnas de AB son combinaciones lineales de las de A, es mas C
k
(AB) =
AC
k
(B).
Las las de AB son combinaciones lineales de las de B y se cumple que F
k
(AB) =
F
k
(A)B.
La matriz AB puede expresarse como suma de matrices producto columna-la:
AB =
n

k=1
C
k
(A)F
k
(B). (3.14)
3.2.3. La inversa de una matriz
Denicion 34 Una matriz cuadrada A K
nn
, se dice que es invertible si A
1

K
nn
tal que AA
1
= A
1
A = I. La matriz A
1
se denomina inversa de A y es unica.
Proposicion 11 Sean A y B dos matrices cuadradas del mismo orden n, ambas invert-
ibles. Entonces AB tambien es invertible y
(AB)
1
= B
1
A
1
. (3.15)
M. Lopez, G. Sansigre 25
3.2.4. Operaciones elementales sobre matrices
Denicion 35 Dada una matriz A K
mn
, se denen las siguientes operaciones ele-
mentales por las (columnas) sobre la matriz A:
1) Suma de una la (columna) de la matriz, multiplicada por un escalar, a otra la
(columna) distinta.
2) Multiplicacion de una la (columna) de la matriz por un escalar no nulo.
3) Intercambio de dos las (columnas).
Denicion 36 Se llama matriz elemental por las (columnas) a una matriz cuadrada,
resultado de efectuarle una operacion elemental por las (columnas) a la matriz identidad.
Ejemplos:
La matriz
E
1
=
_
_
_
_
_
1 0 0 0
0 1 0 0
2 0 1 0
0 0 0 1
_
_
_
_
_
es una matriz elemental por las, resultante de restarle a la tercera la el doble de la
primera.
Asimismo, es una matriz elemental por columnas, resultante de restarle a la primera
columna el doble de la tercera.
La matriz
E
2
=
_
_
_
_
_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_
_
_
_
_
es una matriz elemental por las, resultante de intercambiar las las 2 y 4.
Tambien es matriz elemental por columnas, resultante de intercambiar las columnas
2 y 4.
Observacion: Toda matriz de elemental por las lo es por columnas y viceversa (aunque
no necesariamente asociadas a la misma operacion por las que por columnas).
Observacion: Toda matriz elemental es invertible, y su inversa es la matriz elemental
asociada a la operacion inversa. Las inversas de las matrices de los ejemplos son:
E
1
1
=
_
_
_
_
_
1 0 0 0
0 1 0 0
2 0 1 0
0 0 0 1
_
_
_
_
_
, E
2
= E
1
2
.
26

Algebra (Tema 3)
3.2.5. Rango de una matriz
Denicion 37 El subespacio columna de una matriz A K
mn
es el subespacio
de K
m
engendrado por las columnas de A. De igual forma, su subespacio la es el
subespacio de K
n
engendrado por las las de A.
Observacion: El subespacio columna de una matriz coincide con la imagen de la
aplicacion lineal x Ax por ese motivo suele denotarse ImA; analogamente, el subes-
pacio la se denota ImA
t
.
Denicion 38 Dada una matriz A K
mn
, su rango por columnas es la dimension
del subespacio columna de A (el n umero maximo de columnas de A linealmente indepen-
dientes). El rango por las es la dimension del subespacio la de A; es decir, el n umero
m aximo de las de A linealmente independientes.
Proposicion 12 Para cualquier matriz A K
mn
, el rango por las y el rango por
columnas de A coinciden. Se hablara pues del rango de una matriz, sin especicacion
adicional.
3.2.6. Rango y producto matricial
Proposicion 13 Dadas dos matrices A, B para las que el producto AB tenga sentido,
se tiene que
r(AB) mn(r(A), r(B)). (3.16)
Para las matrices cuadradas, el rango maximo (igual a su orden) caracteriza su
invertibilidad:
Teorema 6 Sea A K
nn
una matriz cuadrada. Entonces
A es invertible r(A) = n.
Proposicion 14 Si A es una matriz invertible y B, C son matrices cualesquiera para las
que los productos siguientes tengan sentido, entonces
r(AB) = r(B) ; r(CA) = r(C).
Observacion: A partir de ahora vamos a adoptar el convenio de identicar K
n
con
K
n1
; esto es, representaremos los vectores de n componentes como vectores columna.
M. Lopez, G. Sansigre 27
3.2.7. Calculo del rango mediante operaciones elementales
Dada una matriz A K
mn
, el realizar operaciones elementales sobre sus las equivale
a premultiplicar por sucesivas matrices elementales:
E
k
E
2
E
1
A.
Cada una de estas operaciones deja invariante el rango. Si mediante este proceso llegamos
a una matriz escalonada (cuyo rango se deduce inmediatamente) habremos conseguido
calcular r(A).
Igualmente puede procederse efectuando operaciones elementales sobre las columnas
(posmultiplicaci on por matrices elementales), e incluso combinando ambos metodos.
3.2.8. Algoritmo de Gauss-Jordan
Permite calcular la inversa de una matriz como producto de matrices elementales. Sea
A una matriz cuadrada e invertible. Si, de igual modo que antes, mediante operaciones
elementales sobre sus las, conseguimos llegar a la matriz identidad, tendremos:
E
k
E
2
E
1
A = I (3.17)
Es decir, que A
1
= E
k
E
2
E
1
, que es el resultado de efectuar, sobre la matriz
identidad, las mismas operaciones efectuadas sobre A, lo cual nos permite calcular A
1
facilmente.
Tambien se puede proceder de igual modo por columnas, pero sin mezclar en ning un
caso ambos metodos.
3.3. Matriz de una aplicacion lineal en bases jadas
Sean E y F espacios vectoriales sobre un mismo cuerpo K, B = (e
1
, . . . , e
n
) una base
de E, 1 = (v
1
, . . . , v
m
) una base de F y f : E F una aplicacion lineal; entonces, y
puesto que la imagen por f de cualquier vector de E es combinacion lineal de los vectores
de 1, se cumple:
f(e
1
) = a
11
v
1
+a
21
v
2
+. . . +a
m1
v
m
f(e
2
) = a
12
v
1
+a
22
v
2
+. . . +a
m2
v
m
.
.
.
f(e
n
) = a
1n
v
1
+a
2n
v
2
+. . . +a
mn
v
m
donde a
jk
, j = 1, . . . , m, son las coordenadas del vector f(e
k
) (k = 1, . . . , n) respecto a la
base 1 = (v
1
, . . . , v
m
).
28

Algebra (Tema 3)
Denicion 39 La matriz
[f]
V
B
:=
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
=
_
[f(e
1
)]
V
. . . [f(e
n
)]
V
_
K
mn
(3.18)
se llama matriz de la aplicacion lineal f respecto a las bases B y 1.
3.3.1. Matriz de una aplicacion lineal y vectores de coordenadas
Sean u E, f(u) F. La matriz de la aplicacion f respecto a las bases B y 1
relaciona el vector de coordenadas de u en B con el vector de coordenadas de f(u) en 1:
u E, [f(u)]
V
= [f]
V
B
[u]
B
(3.19)
Esta relacion es muy importante, dado que muestra que, jadas las bases, una apli-
cacion lineal viene representada por una matriz y totalmente caracterizada por ella.
3.3.2. Composicion de aplicaciones lineales y producto de ma-
trices
La siguiente proposicion muestra que el producto matricial representa la composicion
de aplicaciones lineales:
Proposicion 15 Sean E, F, G espacios vectoriales sobre K y sean f : E F y g : F G
aplicaciones lineales. Si B, 1 y J son bases de E, F y G, respectivamente, se cumple:
[g f]
W
B
= [g]
W
V
[f]
V
B
. (3.20)
Proposicion 16 Sean E y F espacios vectoriales sobre K, ambos de la misma dimension
n, de bases respectivas B y 1. Si f : E F es un isomorsmo, entonces la matriz [f]
V
B
es invertible y
[f
1
]
B
V
=
_
[f]
V
B
_
1
. (3.21)
Observacion: Si la matriz de una aplicacion lineal es invertible, entonces dicha apli-
cacion es un isomorsmo.
M. Lopez, G. Sansigre 29
3.3.3. Cambio de bases en una aplicacion lineal
Proposicion 17 Sean E y F espacios de dimensiones respectivas n y m, f : E F una
aplicacion lineal, B y

B dos bases de E, 1 y

1 dos bases de F. Si P K
nn
es la matriz
de paso de B a

B y Q K
mm
es la matriz de paso de 1 a

1, se verica que
[f]

B
= Q
1
[f]
V
B
P. (3.22)
Cambio de base en un endomorsmo. Sea E espacio de dimension n, f : E E
un endomorsmo, B y

B dos bases de E. Si P K
nn
es la matriz de paso de B a

B, se
verica que
[f]

B
= P
1
[f]
B
B
P. (3.23)
Denicion 40 Dos matrices cuadradas A, B K
nn
se dicen semejantes si existe una
matriz invertible P K
nn
tal que B = P
1
AP.
Si A = [f]
V
B
es la matriz de una aplicacion lineal f en las bases que se indican,
entonces:
Los vectores del subespacio columna de A son los de coordenadas (respecto a la
base 1) de los vectores de Imf.
3.4. Proyecciones, simetras y giros
3.4.1. Proyecci on ortogonal sobre un subespacio
Sea M un subespacio de R
n
, la aplicacion que a cada u asocia su proyecci on ortogonal
sobre M es lineal. Si denotamos la matriz por P se cumple:
P es simetrica P
t
= P e idempotente P
2
= P.
ImP = M, ker P = M

, por lo que n ucleo e imagen son subespacios suplementarios.


La matriz de la proyeccion ortogonal sobre M

es I P.
Si una matriz es simetrica e idempotente, entonces es la proyeccion ortogonal sobre
su imagen.
Si las columnas de A R
mn
son linealmente independientes, la matriz de la proyec-
cion sobre el espacio columna de A es
P = A(A
t
A)
1
A
t
(3.24)
30

Algebra (Tema 3)
En particular, la matriz de la proyecci on sobre el subespacio generado por un vector
no nulo v es
P =
vv
t
v
t
v
(3.25)
3.4.2. Simetra ortogonal respecto de un subespacio
Dado el subespacio M R
n
, la aplicacion que a cada u asocia Su = 2Pu u
representa la simetra ortogonal respecto de M. La matriz S = 2P I es simetrica y
ortogonal: S
2
= I. Recprocamente, toda matriz simetrica y ortogonal es una simetra
respecto de su subespacio imagen.
Dado un vector no nulo v, su hiperplano ortogonal viene dado por la ecuacion
v
t
x = 0 y la matriz de la simetra respecto a dicho hiperplano es
H = I 2
vv
t
v
t
v
(3.26)
la matriz H se llama de Householder y tiene numerosas aplicaciones en algebra
numerica.
M. Lopez, G. Sansigre 31
3.4.3. El producto vectorial en R
3
Denicion 41 (producto vectorial) Dados dos vectores u y v de R
3
, su producto vec-
torial u v es:
u v = (u
2
v
3
u
3
v
2
, u
3
v
1
u
1
v
3
, u
1
v
2
u
2
v
1
). (3.27)
Esta expresion quiza no sea facil de recordar de memoria, por lo que suele calcularse
desarrollando por la primera la (formada por los vectores canonicos) el determinante
simbolico:
u v =

e
1
e
2
e
3
u
1
u
2
u
3
v
1
v
2
v
3

= (u
2
v
3
u
3
v
2
)e
1
+ (u
3
v
1
u
1
v
3
)e
2
+ (u
1
v
2
u
2
v
1
)e
3
(3.28)
Propiedades del producto vectorial
Sean u, v, w vectores cualesquiera de R
3
,
1. u v = 0 u y v son proporcionales;
2. u v = v u;
3. uv |u v| = |u||v|;
4. producto mixto: u v, w) = det
_
u [ v [ w
_
.
El producto vectorial como aplicacion lineal
Sea u R
3
un vector no nulo, la aplicacion en R
3
que a cada vector v asocia uv es
un endomorsmo. Ademas su matriz (en la base canonica) es
u =
_
_
_
0 u
3
u
2
u
3
0 u
1
u
2
u
1
0
_
_
_, (3.29)
lo cual equivale a escribir u v = uv.
3.4.4. Giros en el espacio
Dada una recta L[u] en el espacio R
3
que pase por el origen, la cual consideraremos
orientada seg un el vector director unitario u, y dado un n umero real , la aplicacion que a
cada vector de R
3
le asigna su girado un angulo alrededor de L[u] es lineal (endomorsmo
de R
3
.
Al contrario que las proyecciones y simetras, esta aplicacion representa un movimiento
del solido rgido en el espacio.
32

Algebra (Tema 3)
Matriz de giro
Si se considera una base ortonormal de R
3
(u, v, w) tal que v w = u, la matriz del
giro en dicha base es
_
_
_
1 0 0
0 cos sen
0 sen cos
_
_
_.
As pues, la matriz del giro en la base canonica puede calcularse como
G =
_
u [ v [ w
_
_
_
_
1 0 0
0 cos sen
0 sen cos
_
_
_
_
u [ v [ w
_
t
. (3.30)
Calculo de la matriz de giro en terminos de la proyeccion sobre el eje
Si consideramos P = uu
t
, matriz de proyeccion ortogonal sobre la recta L[u], todo
vector r puede descomponerse como r = Pr +(I P)r, en donde la primera componente
permanece invariante mediante el giro y la segunda, perteneciente al plano ortogonal al
eje, al girar se transforma en cos (I P)r + sen u (I P)r.
As pues, la matriz del giro puede escribirse en la forma
G = P+ cos (I P) + sen u(I P). (3.31)
Caracterizacion de las matrices de giro
Proposicion 18 Una matriz G real de tercer orden representa un giro respecto de un eje
si y solo si es ortogonal (G
t
G = I) y su determinante es positivo.
Si una matriz G es de giro, puede encontrarse el eje de rotacion como ker(GI) y el
coseno del angulo de giro mediante cos =
traza A1
2
.
M. E. Domnguez, P. Gomez 33
3.5. Ejercicios
3.1. Una aplicacion lineal L de R
2
en R
3
viene determinada por las condiciones
L(3, 5) = (2, 4, 1) y L(1, 2) = (5, 3, 4). Calcular la imagen por L del vector (2, 1).
Hallar la matriz que representa a la aplicacion en las bases canonicas de R
2
y R
3
.
3.2. Si T es el endomorsmo de R
2
que cumple T(3, 2) = (9, 11) y T(2, 1) = (5, 3),
hallese la matriz de T en la base canonica del espacio.
3.3. Para cada n umero real a se considera la aplicacion lineal del espacio R
4
en el
espacio R
3
asociada a la matriz
_
_
_
1 a 1 2
2 1 3 5
1 10 6 1
_
_
_.
Hallar unas ecuaciones parametricas del n ucleo de la aplicacion y una base del subespacio
imagen de la misma.
3.4. Sea f el endomorsmo de R
3
denido por
f(1, 1, 1) = (1, 2, 3);
f(1, 1, 0) = (2, 0, 2);
f(1, 0, 0) = (3, 2, 1).
1. Escribir la matriz de f respecto a la base canonica de R
3
.
2. Determinar unas bases de ker f e Imf, as como unas ecuaciones cartesianas de los
mismos.
3. Dado el subespacio M = L[(1, 2, 0), (2, 1, 1)] de R
3
, determinar una base de f(M).
3.5. Se considera la aplicacion lineal de R
3
en R
2
asociada a la matriz
M =
_
1 2 3
4 5 6
_
.
Determinar la matriz que representa a esta aplicacion en las bases
((1, 1, 2), (1, 2, 4), (2, 4, 7)) ; ((1, 1), (2, 3)) .
3.6. Dado la aplicacion lineal del espacio C
2
asociado a la matriz
_
1 1 + i
1 i 1
_
,
hallar la matriz que lo representa respecto a la base ((1, i), (i, 1)).
34

Algebra (Ejercicios)
3.7. De una matriz A C
44
se sabe que A
_
1 2 3 4
_
t
=
_
4 3 2 1
_
t
y que
ImA ker A.
1. Calc ulese el rango de A.
2. Calc ulese el vector suma de las columnas de A.
3.8. Determinar las ecuaciones de las siguientes transformaciones del espacio R
3
, in-
dicando cuales de ellas son lineales:
1. La simetra respecto al origen, la simetra respecto al eje OZ y la simetra respecto
al plano XOY .
2. La proyeccion sobre el plano z = 0 y la proyeccion sobre el eje OZ.
3. El giro positivo de un angulo

2
en torno al eje OZ.
4. La traslacion denida por el vector (1, 1, 1).
5. La homotecia de centro el origen y razon 2.
3.9. Responder las siguientes cuestiones:
1. Hallar la matriz de proyecci on ortogonal sobre la recta x = y = 2z. Calcular asimis-
mo la matriz de simetra respecto a esa misma recta.
2. Escribir la matriz de proyecci on ortogonal sobre el plano 2x+2y+z = 0, y la matriz
de simetra respecto a dicho plano.
3. Hallar la matriz de proyeccion ortogonal sobre el subespacio de R
4
determinado por
las ecuaciones
_
x
1
+x
2
= 0,
x
3
+x
4
= 0.
4. Calcular la matriz de giro de angulo
2
3
en torno al vector (1, 1, 1).
3.10. Sea A C
mn
. Demostrar que ker A
h
A = ker Ay deducir la igualdad r
_
A
h
A
_
=
r (A). Probar tambien que A
h
A = O si y solo si A = O.
3.11. Responder la siguientes cuestiones:
1. Calcular el rango de la matriz
M =
_
_
_
_
_
_
_
_
_
_
_
a b b b b
b a b b b
b b a b b
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b b b a b
b b b b a
_
_
_
_
_
_
_
_
_
_
_
y deducir para que valores de a y b es M invertible.
M. Lopez, G. Sansigre 35
2. Comprobar la formula
(I
m
+UV
t
)
1
= I
m
U(I
n
+V
t
U)
1
V
t
; U, V R
mn
y utilizarla para hallar la inversa de M cuando exista.
Captulo 4
Sistemas de ecuaciones lineales
4.1 Sistemas homogeneos y no homogeneos. Estructura del conjunto de soluciones: sub-
espacios vectoriales y variedades lineales. El teorema de RoucheFrobenius. Reduc-
cion gaussiana. Factorizaci on LU.
4.2 Sistemas incompatibles: aproximacion por mnimos cuadrados. Solucion de mnima
norma.
4.1. Sistemas de ecuaciones lineales
Se trata de encontrar, si existen, todas las n-uplas de valores x
1
, x
2
, . . . , x
n
, en un
cuerpo K, que satisfagan simultaneamente las m ecuaciones
a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
en donde a
ij
y b
i
son elementos de K prejados. Las ecuaciones anteriores (ecuaciones
lineales) constituyen un sistema lineal, en las n incognitas x
1
, . . . , x
n
.
Llamando A =
_
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_
_
_
_
; x =
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
; b =
_
_
_
_
b
1
.
.
.
b
m
_
_
_
_
el sistema anterior
puede expresarse matricialmente como
Ax = b. (4.1)
Un vector u K
n
que satisfaga que Au = b se denomina vector solucion del
sistema.
La matriz A se denomina matriz de coecientes; el vector b, vector de terminos
independientes; la yuxtaposicion de ambos,
(A[b) K
m(n+1)
36
M. Lopez, G. Sansigre 37
se llama matriz ampliada, y contiene todos los datos que determinan el sistema lineal
y, por tanto, sus soluciones.
Denicion 42 Un sistema lineal se dice compatible si admite alguna solucion; si, ademas,
es unica, se llama compatible determinado; si admite mas de una solucion, compatible
indeterminado; si no admite ninguna solucion, incompatible.
4.1.1. Estructura de las soluciones
Un sistema lineal se dice homogeneo si sus terminos independientes son todos
nulos.
Observacion: Todo sistema homogeneo admite como solucion el vector nulo de K
n
, que
constituye la llamada solucion trivial.
Para cada sistema lineal Ax = b, que llamaremos sistema completo, su sistema
homogeneo asociado es Ax = 0. Se tiene que cualesquiera dos soluciones del sistema
completo dieren en una solucion del sistema homogeneo; en efecto: sean u
1
, u
2
soluciones
de Ax = b; entonces
A(u
1
u
2
) = Au
1
Au
2
= b b = 0, (4.2)
luego u
1
u
2
es solucion del sistema homogeneo.
En resumen: El conjunto de soluciones del sistema homogeneo Ax = 0 coincide con
ker A; es decir, el n ucleo de la aplicacion lineal que A representa respecto a las bases
canonicas de K
n
y K
m
. Es, por lo tanto, un subespacio vectorial de K
n
. Ademas,
dim(ker A) = n dim(ImA) = n r(A); en nuestro caso, n es el n umero de incognitas.
Dado v K
n
vector solucion de Ax = b, cualquier otra solucion se obtiene sumandole
a v una solucion del sistema homogeneo. Cada solucion v recibe el nombre de solucion
particular. El conjunto de soluciones del sistema completo recibe el nombre de variedad
lineal, su dimension es la del n ucleo de A.
Ejemplo: En el espacio eucldeo R
3
, las rectas y los planos (que no pasan necesariamente
por el origen) constituyen las variedades lineales de dimensiones 1 y 2, respectivamente.
38

Algebra (Tema 4)
M. Lopez, G. Sansigre 39
4.1.2. El teorema de Rouche-Frobenius
Observese que, si llamamos A
j
a la columna j-esima de la matriz de coecientes, el
sistema lineal puede expresarse como
x
1
A
1
+x
2
A
2
+. . . +x
n
A
n
= b, (4.3)
es decir, se expresa el vector de terminos independientes como una combinacion lineal de
las n columnas de la matriz A, cuyos coecientes son precisamente las incognitas.
As pues, el sistema solo admitira solucion cuando, y solo cuando, b sea combinaci on
lineal de las columnas de A, lo cual se expresa en el siguiente
Teorema 7 (Rouche-Frobenius) El sistema lineal Ax = b es compatible si y solo si
r(A[b) = r(A).
Ademas, si el sistema lineal Ax = b es de n incognitas, y llamamos r al rango de A,
caben las siguientes posibilidades:
r(A[b) = r + 1 sistema incompatible.
r(A[b) = r sistema compatible;
r = n compatible determinado: solucion unica.
r < n compatible indeterminado; la solucion general depende de n r
parametros.
4.1.3. El metodo de eliminacion de Gauss
Observacion: Dado un sistema lineal Ax = b, de matriz de coecientes A K
mn
y
una matriz Q K
mm
invertible, el conjunto de soluciones del sistema anterior coincide
con el de
QAx = Qb. (4.4)
Se dice que este ultimo sistema es equivalente al Ax = b.
Recuerdese el concepto de operacion elemental por las, equivalente a premultipli-
cacion por la correspondiente matriz elemental, que siempre es invertible.
As pues, la observaci on anterior sugiere que, a la hora de resolver un sistema li-
neal, realicemos operaciones elementales por las sobre la matriz ampliada (A[b), lo que
equivale a premultiplicar A y b por una misma matriz invertible, obteniendo un sistema
equivalente.
Nuestro proposito sera llegar a una conguracion de la forma (ejemplo de tama no
4 6)
_
_
_
_
_

0
0 0
0 0 0

_
_
_
_
_
40

Algebra (Tema 4)
en donde el smbolo denota elementos no nulos, y el smbolo elementos cualesquiera.
En este ejemplo, el sistema sera compatible indeterminado, dependiendo la solucion
general de 6 4 = 2 parametros; podemos dejar libres dos incognitas, por ejemplo x
5
=
, x
6
= , K, despejando de abajo a arriba las cuatro restantes en funcion de
estas.
Si se llega a una situacion de la forma
_
_
_
_
_

0
0 0
0 0 0 0 0 0

_
_
_
_
_
,
entonces el sistema sera incompatible (r(A) = 3 y r(A[b) = 4).
Para llegar a estas conguraciones de matrices escalonadas, se sigue el siguiente
algoritmo:
Si es a
11
,= 0, se efect ua para cada la 2, 3, . . . , m la operacion
F

i
= F
i

a
i1
a
11
F
1
, (4.5)
es decir, a cada la le restamos el adecuado m ultiplo de la primera para hacer ceros
en la primera columna, obteniendo
_
_
_
_
_
_

0
.
.
.
.
.
.
.
.
.
.
.
.
0

.
.
.

_
_
_
_
_
_
.
Si es a
11
= 0, se escoge una la k tal que sea a
k1
,= 0, y se intercambian las las
1 y k; a continuaci on, se procede como se explico antes. Si todos los elementos de
la primera columna son nulos, el valor x
1
de la primera incognita es arbitrario y se
pasa al siguiente paso.
El siguiente paso es proceder del mismo modo con la columna 2, para las ecuaciones
3, . . . , n. Si fuesen nulos todos los a

2k
, k = 2, . . . , n, se tendra ya hecho el trabajo sobre
la columna 2 y se pasara a operar con la 3. En caso contrario:
Si es a

22
,= 0, se hacen las operaciones
F

i
= F

i2
a

22
F

2
, i = 3, 4, . . . , m, (4.6)
y si es a

22
= 0, se intercambia la la 2 con alguna posterior cuyo elemento a

k2
sea no nulo,
haciendose a continuacion las operaciones dichas.
Reiterando el proceso, se llega a la matriz escalonada.
M. Lopez, G. Sansigre 41
En cada paso no trivial hay que dividir por un elemento diagonal a
(i1)
ii
que se deno-
minara pivote o, eventualmente, intercambiar dos ecuaciones para obtener un pivote no
nulo. As pues, en muchos casos es imprescindible efectuar operaciones de intercambio de
las. Por ejemplo, si tuvieramos
_
_
_
_
_

0 0
0
0 0

_
_
_
_
_
sera imposible anular el elemento a
32
, por lo que se procedera a intercambiar las las 2
y 3.
En ocasiones puede llegarse a conguraciones como
_
_
_
_
_

0
0 0 0
0 0 0 0 0

_
_
_
_
_
que nos obligan a tomar como variables libres algunas de las incognitas intermedias (en
el ejemplo mostrado, la 3
a
y la 5
a
).
4.1.4. Factorizaci on LU
Cuando puede reducirse la matriz A a forma escalonada T sin intercambio de las,
quiere decir que la matriz que transforma A en T es triangular inferior, y puede escogerse
con elementos diagonales iguales a 1. En el siguiente teorema se establecen las condiciones
precisas para que la factorizacion exista:
Teorema 8 (factorizacion LU) Sea A K
nn
tal que sus menores angulares:

k
= det
_
_
_
_
a
11
a
1k
.
.
.
.
.
.
.
.
.
a
k1
a
kk
_
_
_
_
, k = 1, . . . , n (4.7)
son todos no nulos. Entonces existen matrices ( unicas) L y U, la primera triangular infe-
rior con elementos diagonales iguales a 1 y U triangular superior con elementos diagonales
no nulos de forma que A = LU.
Observacion: Si una matriz A admite factorizacion LU, la resolucion del sistema lineal
Ax = b se realiza mediante la solucion de dos sistemas triangulares:
Ly = b, Ux = y. (4.8)
42

Algebra (Tema 4)
4.2. El problema de los mnimos cuadrados
Un modelo matematico es un esquema ideal que responde a un problema real. La
b usqueda de solucion de un problema real pasa a veces por observaciones aparentemente
contradictorias. El planteamiento matematico de tal problema puede conducir, por ejem-
plo, a un sistema lineal incompatible. En esos casos se corrige el termino independiente
(que hace incompatible el sistema) y se sustituye por un termino independiente para el
cual el sistema tenga solucion. A esta solucion del sistema con termino independiente
modicado se le llama pseudosolucion del sistema de partida.
Denicion 43 Dado un sistema lineal Ax = b, se llama solucion de mnimos cuadra-
dos o pseudosolucion a cualquier solucion de Ax = P
ImA
(b), siendo P
ImA
la proyec-
cion ortogonal sobre el subespacio columna de A.
Proposicion 19 Si el sistema Ax = b es compatible, entonces sus soluciones coinciden
con las soluciones de mnimos cuadrados.
Denicion 44 Dado el sistema Ax = b, con A R
mn
y b R
m
, las ecuaciones
normales asociadas vienen dadas por el sistema
A
t
Ax = A
t
b. (4.9)
Proposicion 20 Supongase A R
mn
y b R
m
:
El sistema de las ecuaciones normales siempre es compatible.
Las soluciones de A
t
Ax = A
t
b coinciden con las soluciones de mnimos cuadrados.
Si el rango de A es n (columnas linealmente independientes), la solucion x
0
de
mnimos cuadrados es unica:
A
t
Ax
0
= A
t
b x
0
= (A
t
A)
1
A
t
b. (4.10)
Solucion de mnima norma
Si A R
mn
y r(A) = m < n, el sistema Ax = b es compatible indeterminado. Se
trata de encontrar, entre todas sus soluciones, aquella x
0
cuya norma sea mnima.
Cualquier vector solucion se descompone de manera unica como x = x
0
+u, en donde
x
0
(ker A)

= ImA
t
y u ker A. Como dos soluciones cualesquiera dieren en un
vector de ker A, se tiene que x
0
tambien es solucion, y es precisamente la unica solucion
de mnima norma.
La solucion de mnima norma queda, pues, caracterizada por pertenecer a ImA
t
y
puede expresarse como x
0
= A
t
(AA
t
)
1
b.
El problema general de mnimos cuadrados
En el caso general (Ax = b con cualquier valor para el rango de A) la solucion de
mnimos cuadrados y mnima norma obtenerse proyectando sobre ImA
t
cualquier solucion
de mnimos cuadrados. En el tema 7 se abordara de nuevo este problema.
M. E. Domnguez, P. Gomez 43
4.3. Ejercicios
4.1. Resolver por el metodo de Gauss los siguientes sistemas de ecuaciones lineales:
_

_
2x y + 3z +u + 4v = 2
4x +y + 8z +u + 12v = 13
6x + 15y + 4z 5u +v = 27
_

_
2x + 4y + 8z = 6
4x +y + 9z = 12
x + 2y + 4z = 3
5x 4y + 6z = 15
3x + 5y + 11z = 9
4.2. Discutir seg un los valores de los parametros a y b los siguientes sistemas de
ecuaciones
_

_
ax +y +z = 1
x +ay +z = b
x +y +az = b
2
_

_
ax +y +bz = 1
x +ay +bz = 1
x +y +abz = b
4.3. Encontrar los vertices de un triangulo cuyos lados tienen por puntos medios los
puntos de coordenadas
(4, 1), (2, 3), (6, 2).
Quedan determinados los vertices de un cuadrilatero si se conocen los puntos medios de
sus lados? Generalizar estos resultados al caso de un polgono con un n umero cualquiera
de lados.
4.4. Calcular, empleando el metodo de Gauss-Jordan, las inversas de las matrices
_
_
_
1 4 1
2 9 2
5 2 6
_
_
_;
_
_
_
_
_
1 1 1 1
1 i 1 i
1 1 1 1
1 i 1 i
_
_
_
_
_
.
4.5. Hallar, usando el metodo de Gauss-Jordan, la inversa de la matriz
_
_
_
_
_
_
_
_
1 a a
2
a
3
a
4
0 1 a a
2
a
3
0 0 1 a a
2
0 0 0 1 a
0 0 0 0 1
_
_
_
_
_
_
_
_
.
Probar que una matriz triangular es invertible si y solo si todos los elementos de su
diagonal principal son distintos de cero y que, en ese caso, su inversa es una matriz
triangular del mismo tipo.
44

Algebra (Ejercicios)
4.6. Calcular, mediante el metodo de Gauss-Jordan, la inversa de la matriz
_
_
_
_
_
_
_
_
_
_
1 1 0 0 0 0
1 2 1 0 0 0
0 1 2 1 0 0
0 0 1 2 1 0
0 0 0 1 2 1
0 0 0 0 1 2
_
_
_
_
_
_
_
_
_
_
.
Generalizar el resultado obtenido a una matriz de orden n que tenga la misma estructura.
Este ejemplo pone de maniesto que la inversa de una matriz dispersa no tiene por que ser
ella misma dispersa.
4.7. Determinar la solucion de mnimos cuadrados del sistema de ecuaciones
_

_
3x + 2y = 1
2x 4y = 3
5x + 2y = 2
4x 3y = 0
hallando y resolviendo el correspondiente sistema de ecuaciones normales.
4.8. Determinar la solucion de mnima norma del sistema de ecuaciones
_
3x
1
+ 2x
2
5x
3
+x
4
= 3
2x
1
4x
2
+ 3x
3
5x
4
= 1
.
4.9. Sean u
1
, u
2
R
3
linealmente independientes. Para cada v, b R
3
se considera el
sistema de ecuaciones
(u
1
[u
2
[v) x = b. ()
Se pide razonar para que vectores v y b la solucion de () es el conjunto
_
(0, 0, 2)
t
+(5, 1, 1)
t
, R
_
.
4.10.
1. Determnese la proyeccion ortogonal del vector (1, 2, 1) sobre el subespacio vectorial
de R
3
de ecuacion x
1
+x
2
x
3
= 0.
2. Calc ulese la solucion de mnimos cuadrados del sistema
_
_
_
1 0
1 1
2 1
_
_
_u =
_
_
_
1
2
1
_
_
_.
M. Lopez, G. Sansigre 45
4.11. Dados los puntos del plano de coordenadas (x
k
, y
k
) con k = 1, 2, . . . , n, la recta
de regresion de y sobre x es la recta de ecuacion y = mx+p, cuyas pendiente m y ordenada
en el origen p minimizan la expresion
n

k=1
(y
k
mx
k
p)
2
.
Deducir la expresion explcita de los coecientes m y p. Hallar la recta de regresion de los
puntos (2, 1), (4, 7), (6, 6), (8, 10), (10, 16).
4.12. Calc ulese la solucion de mnimos cuadrados y mnima norma del sistema
_
_
_
_
_
1 1 1
2 1 1
2 1 1
1 1 1
_
_
_
_
_
_
_
_
x
y
z
_
_
_ =
_
_
_
_
_
0
3
2
0
_
_
_
_
_
.
Captulo 5
Reduccion por semejanza de una
matriz
5.1 Valores y vectores propios. El polinomio caracterstico de una matriz. Subespacios
propios. Diagonalizacion.
5.2 Teorema de CayleyHamilton.
5.1. Introduccion
En este captulo estudiaremos condiciones necesarias y sucientes para que una matriz
sea semejante a una matriz diagonal: lo que equivale a encontrar una base de vectores que
se transforman en proporcionales a s mismos.
5.2. Valores y vectores propios
Denicion 45 (valor y vector propio) Sea A una matriz cuadrada de orden n y co-
ecientes en un cuerpo K.
Se dice que un escalar de K es un valor propio o autovalor de la matriz A si
existe un vector v, perteneciente a K
n
, no nulo y tal que Av = v.
Se dice que un vector v de K
n
es un vector propio o autovector de la matriz A si
v es no nulo y ademas existe un escalar en K tal que Av = v.
Observaciones:
A todo valor propio corresponde un vector propio y viceversa. Los m ultiplos no
nulos de un vector propio son vectores propios asociados al mismo valor propio. De
hecho, el conjunto de todos los vectores propios asociados a un determinado valor
46
M. Lopez, G. Sansigre 47
propio constituye, junto con el vector nulo, un subespacio vectorial al que se deno-
minara subespacio caracterstico o propio de la matriz asociado al susodicho
valor.
En efecto, basta observar que si es un valor propio, entonces los vectores propios
v asociados a el verican Av v = 0. Es decir, son las soluciones no nulas del
sistema lineal homogeneo (AI)x = 0 donde I representa la matriz identidad de
orden n. Por consiguiente, el subespacio caracterstico asociado a es el n ucleo de
la matriz AI que denotamos por ker(AI).
Si la matriz A es invertible, los valores propios de la inversa son los inversos de los
valores propios de A. Basta para comprobarlo observar las equivalencias:
Av = v v = A
1
v A
1
v =
1

v (5.1)
Es claro que todos los valores propios de la matriz han de ser distintos de cero,
puesto que si la matriz es invertible, el sistema homogeneo asociado Ax = 0 solo
admite solucion trivial.
Si la matriz A es una matriz diagonal, entonces los elementos diagonales son valores
propios mientras que los vectores de la base canonica son vectores propios.
Si la matriz A es triangular, entonces los elementos diagonales son sus valores
propios, pero los vectores canonicos ya no son sus autovectores.
Proposicion 21 Si v
1
, v
2
, . . . , v
r
son r vectores propios de una matriz A, asociados res-
pectivamente a r valores propios
1
,
2
, . . . ,
r
, distintos dos a dos, entonces dichos vec-
tores son linealmente independientes.
Observacion: En particular, si una matriz A tiene tantos valores propios distintos como
indica su orden, entonces los vectores propios asociados constituyen una base de K
n
. Si
se construye una matriz P de forma que sus columnas sean los vectores propios de esa
base, entonces la matriz P
1
AP es una matriz diagonal semejante a A y representa, por
lo tanto, la misma transformacion lineal.
Sin embargo, la existencia de n valores propios distintos es condicion suciente pero
no necesaria para que exista tal base; por ejemplo, si se considera la matriz identidad,
con 1 como unico autovalor, toda base de K
n
es de vectores propios de esta matriz.
Se pueden encontrar otros ejemplos no tan triviales: matrices diagonales con elementos
repetidos, etc.
5.2.1. Polinomio caracterstico
Ya se ha visto que si es un valor propio de una matriz A, el subespacio caracterstico
asociado es precisamente ker(A I). Para que el sistema homogeneo admita solucion
48

Algebra (Tema 5)
no trivial es necesario que la matriz A I tenga rango inferior a su orden o, equiva-
lentemente, que su determinante sea nulo. He aqu entonces, un procedimiento para
calcular los valores y vectores propios de una matriz: una vez calculadas las races de
la ecuacion det(I A) = 0, se resuelven los sistemas lineales homogeneos (I A)x = 0
para cada una de dichas races y las soluciones no nulas seran vectores propios.
Si consideramos
[I A[ =

a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

, (5.2)
observamos que el desarrollo de tal determinante nos da un polinomio en la indeterminada
, cuyo termino de mayor grado, que se obtiene a partir del producto de los elementos de
la diagonal, es
n
; se trata, pues, de un polinomio monico de grado igual al orden de la
matriz.
Denicion 46 Dada A K
nn
, se llama polinomio caracterstico de A, y se denota
por
A
, al polinomio con coecientes en K, monico de grado n, denido por

A
() := [I A[, (5.3)
cuyas races son los autovalores de A.
Denicion 47 Dada A K
nn
, un autovalor de A se dice que tiene multiplici-
dad algebraica igual a m si tiene multiplicidad m como raz de
A
. La dimension del
subespacio ker(AI) se llama multiplicidad geometrica de .
Observaciones:
El termino independiente de
A
es
A
(0) = det(A) = (1)
n
det A. Por otro lado,
el termino independiente de un polinomio es (1)
n
multiplicado por el producto de
sus races, concluimos que
det A =
1

2
. . .
n
, (5.4)
en donde los
j
anteriores representan todos los autovalores de A, multiplicados
tantas veces como indiquen sus multiplicidades.
El termino de grado n 1 de
A
se obtiene tambien a partir de la suma de todos
los elementos de la diagonal principal:

A
() = ( a
11
)( a
22
) . . . ( a
nn
) + ( terminos de grado menor que n) =

n
(a
11
+a
22
+. . . +a
nn
)
n1
+ ( terminos de grado menor que n 1)
M. Lopez, G. Sansigre 49
Se observa, pues, que el coeciente de grado n 1 de
A
es el opuesto de la traza
de A. Ademas dicho coeciente coincide con el opuesto de la suma de las races y,
en conclusion,
trA =
1
+
2
+. . . +
n
, (5.5)
siendo los
j
todos los autovalores de A, sumados tantas veces como indiquen sus
multiplicidades.
Las matrices reales de orden impar tienen, al menos, un valor propio real.
La matriz
A =
_
0 1
1 0
_
tiene como polinomio caracterstico
2
+ 1. Como matriz real no admite valores
propios, mientras que como matriz compleja admite dos distintos i y i: existe una
base de C
2
(no real) formada por vectores propios de A.
Si una matriz real (contemplada como matriz compleja) tiene un valor propio com-
plejo , entonces es tambien valor propio. Ademas, los vectores propios correspon-
dientes pueden tomarse conjugados:
Av = v Av = v (5.6)
Como consecuencia, v, v es libre.
Ejemplo: Calcular los valores y vectores propios de la matriz
A =
_
_
_
1 0 0
1 4 1
1 0 2
_
_
_ (5.7)
Calculemos en primer lugar su polinomio caracterstico

A
() =

1 0 0
1 4 1
1 0 2

= ( 1)( 4)( 2) (5.8)


Para calcular los vectores propios resolvamos:
(AI)x =
_
_
_
0 0 0
1 3 1
1 0 1
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_ =
_
_
_
0
0
0
_
_
_ (5.9)
50

Algebra (Tema 5)
Las soluciones son los m ultiplos de v
t
1
= (1, 0, 1). Analogamente, los vectores propios
asociados a 4:
(A4I)x =
_
_
_
3 0 0
1 0 1
1 0 2
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_ =
_
_
_
0
0
0
_
_
_ (5.10)
Las soluciones son los m ultiplos de v
t
2
= (0, 1, 0). Por ultimo, para el valor propio 2 se
tiene
(A2I)x =
_
_
_
1 0 0
1 2 1
1 0 0
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_ =
_
_
_
0
0
0
_
_
_ (5.11)
Las soluciones son los m ultiplos de v
t
3
= (0, 1, 2).
Los vectores v
1
, v
2
, v
3
son linealmente independientes. Si P es la matriz cuyas colum-
nas son dichos vectores,
P =
_
_
_
1 0 0
0 1 1
1 0 2
_
_
_ (5.12)
el producto AP tiene como primera columna v
1
, como segunda 4v
2
y como tercera 2v
3
.
Dicho de otra forma, se verica AP = Pdiag (1, 4, 2). Equivalentemente, P
1
AP =
diag (1, 4, 2).
5.3. Diagonalizacion
En el ejemplo previo se ha encontrado una matriz diagonal semejante a la matriz
original A. Los elementos de la diagonal son los valores propios de A, mientras que las
columnas de la matriz P son vectores propios.
De una forma mas general, si una matriz cuadrada A es semejante a una diagonal D,
entonces la relacion AP = PD signica que la columna j-esima de P es proporcional a
la j-esima de AP. Dicho con otras palabras, el elemento j de la diagonal D es un valor
propio de A y tiene como vector propio asociado precisamente la columna j de P. Se
tiene que las columnas de P son una base de K
n
formada por vectores propios de A.
Proposicion 22 Dos matrices semejantes tienen el mismo polinomio caracterstico.
Demostracion: Sean A, B dos matrices semejantes, relacionadas por B = P
1
AP,
entonces:

B
() = det (I B) = det (I P
1
AP)
= det [P
1
(I A)P] = det (I A) =
A
()
Como corolario se deduce que dos matrices semejantes tienen la misma traza (opuesto
del coeciente de
n1
en el polinomio caracterstico) as como el mismo determinante
((1)
n
por el termino independiente).
M. Lopez, G. Sansigre 51
Observacion: La igualdad de los polinomios caractersticos es una condicion necesaria,
no suciente de semejanza. Por ejemplo, la matriz
A =
_
0 1
0 0
_
(5.13)
tiene por polinomio caracterstico
2
, al igual que la matriz nula, sin embargo A no es
diagonalizable (no existen dos vectores propios linealmente independientes) mientras que
la matriz nula obviamente es diagonalizable; ademas, la unica matriz semejante a la matriz
nula es ella misma.
Proposicion 23 Sea A una matriz cuadrada de orden n. Supongase que el polinomio
caracterstico de A admite la descomposicion:

A
() = (
1
)

1
. . . (
r
)

r
(5.14)
donde
j
,
j
, j = 1, . . . , r son los valores propios distintos (dos a dos) de A y sus multi-
plicidades respectivas. Entonces, para cada j = 1, . . . , r se tiene
1 dim ker(A
j
I)
j
(5.15)
Es decir, la multiplicidad geometrica es menor o igual que la algebraica.
Denicion 48 Una matriz cuadrada A es diagonalizable cuando es semejante a una ma-
triz diagonal, es decir cuando existe una matriz P invertible tal que P
1
AP es diagonal.
Proposicion 24 (caracterizacion de matriz diagonalizable) Sea A una matriz cuadra-
da de orden n y coecientes en un cuerpo K. Entonces A es diagonalizable si y solamente
si:
1. Su polinomio caracterstico admite, contando sus multiplicidades, n races en el
cuerpo K y, ademas
2. para cada valor propio de A las multiplicidades algebraica y geometrica coinciden.
Corolario.- Una matriz compleja es diagonalizable si y solo si para todo autovalor
de A, dim(ker(AI)) coincide con la multiplicidad algebraica de .
Una matriz real es diagonalizable (en R) si y solo si todos sus autovalores son reales
y, ademas, para todos ellos se cumple la condicion de la dimension.
Observese que una matriz real puede ser no diagonalizable en R, pero diagonalizable
en C, por ejemplo
_
0 1
1 0
_
. (5.16)
52

Algebra (Tema 5)
Observaciones: Todas las propiedades siguientes se enuncian para una matriz cuadrada
de orden n:
1. Si A es diagonalizable, entonces A
t
tambien lo es (y la matriz de paso que la
diagonaliza es la inversa de la transpuesta de la de A).
En efecto, si P
1
AP = D diagonal, entonces
D = D
t
= (P
1
AP)
t
= P
t
A
t
(P
1
)
t
= P
t
A
t
(P
t
)
1
. (5.17)
2. Si A es diagonalizable e invertible, entonces A
1
tambien es diagonalizable
(y la matriz de paso que la diagonaliza es la misma que la de A).
En efecto, si P
1
AP = D = diag(
1
, . . . ,
n
) con todos los
j
no nulos, entonces
diag(
1
1
, . . . ,
1
n
) = D
1
= (P
1
AP)
1
= P
1
A
1
P. (5.18)
3. Si A es diagonalizable, entonces cualquier potencia de A tambien lo es (y
la matriz que la diagonaliza es la misma).
En efecto, P
1
AP = D = diag(
1
, . . . ,
n
) implica que
diag(
k
1
, . . . ,
k
n
) = D
k
= (P
1
AP)
k
= (P
1
AP)(P
1
AP) (P
1
AP) = P
1
A
k
P.
5.3.1. Teorema de CayleyHamilton
Sea A una matriz con coecientes en un cuerpo K y sea
P() =
m

j=0
a
j

j
(5.19)
un polinomio cualquiera con coecientes en el mismo cuerpo. Se dene la matriz P(A)
como la que se obtiene sustituyendo en la expresion del polinomio las potencias de por
potencias de A, es decir:
P(A) :=
m

j=0
a
j
A
j
= a
0
I +a
1
A+a
2
A
2
+ +a
m
A
m
(5.20)
Observaciones:
1. Si
0
es valor propio de una matriz A, entonces para cualquier polinomio P, P(
0
)
es valor propio de P(A).
2. Los vectores propios de A lo son de P(A) para cualquier polinomio P.
3. Atenci on! los recprocos no son, necesariamente, ciertos.
Denicion 49 Se dice que una matriz A es raz de un polinomio P si la matriz P(A)
es la matriz nula.
Teorema 9 (de Cayley-Hamilton) Toda matriz es raz de su polinomio caracterstico.
M. Lopez, G. Sansigre 53
5.3.2. Aplicaciones
Sea A una matriz cuadrada, sea su polinomio caracterstico y P un polinomio
cualquiera.
1. En virtud del teorema de division eucldea de polinomios, P(A) = R(A) siendo R
el resto de dividir P entre .
2. En particular, el resultado anterior puede utilizarse para calcular potencias de A ya
que A
m
= P(A) para P() =
m
.
3. Si A es diagonalizable, entonces P(A) tambien lo es, cualquiera que sea el polinomio
P. Ademas, si Q es una matriz de vectores propios de A y D es diagonal, se tiene:
Q
1
AQ = D Q
1
P(A)Q = P(D) (5.21)
54

Algebra (Ejercicios)
5.4. Ejercicios
5.1. Calcular los valores y vectores propios de cada una de las siguientes matrices
_
3 2
2 2
_
,
_
3 1
4 1
_
,
_
_
_
3 2 1
6 4 2
2 1 1
_
_
_,
_
_
_
1 1 1
4 3 2
2 1 1
_
_
_,
_
_
_
3 1 3
0 1 2
2 1 1
_
_
_.
analizando si son o no diagonalizables.
5.2. Calcular los valores de a y b que hacen que (1, 1, 1)
t
sea un autovector de la
matriz
_
_
_
b 2 0
a b 1
0 0 a
_
_
_.
5.3. Indicar los valores de a R para que
_
_
_
1 a + 1 1
0 2 3
0 2 1
_
_
_ sea semejante a
diag (1, 4, 1).
5.4. Dada la matriz A =
_
_
_
1 2 1
0 3 0
2 4 a
_
_
_ R
33
, determinar cuales de las siguientes
armaciones son ciertas:
1. = 3 es siempre un autovalor de A.
2. Si a = 2 entonces = 0 no es un autovalor de A.
3. Para a = 0 la matriz A no es diagonalizable.
4. Para a = 0, A es semejante a diag(1, 3, 2).
5.5. Sea A una matriz cuadrada invertible de orden n. Probar que la matriz inversa
de A se puede expresar como un polinomio en A. Obtener este polinomio (es unico?) en
el caso particular de la matriz
_
_
_
1 2 2
1 3 1
2 4 5
_
_
_.
5.6. Se considera el polinomio p(z) = c
0
+c
1
z+c
2
z
2
+c
3
z
3
y la matriz S =
_
_
_
_
_
0 1 0 0
0 0 1 0
0 0 0 1
1 0 0 0
_
_
_
_
_
.
P. Gomez, G. Sansigre 55
1. Determinar los valores y vectores propios de S.
2. Obtener explcitamente la matriz que resulta al evaluar el polinomio p(z) en la
matriz S.
3. Determinar los valores y vectores propios de la matriz resultante, comprobando que
siempre es diagonalizable.
4. Determinar los coecientes de p(z) para que la matriz
_
_
_
_
_
1 2 3 4
4 1 2 3
3 4 1 2
2 3 4 1
_
_
_
_
_
sea p(S). Deducir sus valores y vectores propios.
5.7. Sean B = (v
1
, v
2
, . . . , v
n
) una base de C
n
y A C
nn
tal que
_
Av
1
= v
1
Av
j
= v
1
+v
j
, j = 2, . . . , n.
1. Estudiar para que valores de la matriz A es invertible. Para dichos valores, hallar
A
1
v
2
.
2. Estudiar para que valores de la matriz A es diagonalizable. Para dichos valores,
hallar matrices P y D tales que P
1
AP = D.
5.8. Comprobar que una matriz y su traspuesta tienen el mismo polinomio carac-
terstico y, por tanto, los mismos valores propios. Analizar lo que sucede con los vectores
propios.
5.9. Sea A una matriz diagonalizable cuyo polinomio caracterstico es
A
(z) = (z
3)
13
(z + 4)
7
. Hallar el polinomio caracterstico de A2I.
5.10. Hallar los valores propios de la matriz
w =
_
_
_
0 c b
c 0 a
b a 0
_
_
_
Interpretar el resultado geometricamente considerando el operador L(r) := wr siendo
w = (a, b, c)
t
.
56

Algebra (Tema 6)
5.11. Dados dos vectores a y b en R
n
, determnense los valores y vectores propios de
la matriz de rango unidad ab
t
. Como aplicacion, hallense los valores y vectores propios
de la matriz
_
_
_
_
_
_
1 1 1
2 2 2
.
.
.
.
.
.
.
.
.
.
.
.
n n n
_
_
_
_
_
_
5.12. Establecer la relacion que existe entre los valores y vectores propios de una
matriz compleja M y los de la matriz aI + bM siendo a, b n umeros complejos no nulos
arbitrarios. Como aplicacion, deducir los valores y vectores propios de la matriz
_
_
_
_
_
_
c d d
d c d
.
.
.
.
.
.
.
.
.
.
.
.
d d c
_
_
_
_
_
_
.
5.13. Sea A C
nn
con r(A) = tr(A) = 1. Hallar los valores propios de A, as como
sus multiplicidades algebraicas y geometricas. Deducir si A es o no diagonalizable.
5.14. Se dice que una matriz A es nilpotente si existe k N tal que A
k
= 0. Sea A
nilpotente.
1. Calcular los valores propios de A y de AI
2. Deducir del apartado anterior la traza y el determinante de AI .
Captulo 6
Diagonalizacion unitaria
6.1 Teorema de Schur: triangulacion unitaria de una matriz cuadrada. 6.2 Matrices nor-
males. 6.3 Teorema espectral. 6.4 Clasicacion de matrices reales simetricas. Cociente de
Rayleigh. 6.5 Ejercicios.
6.1. Teorema de Schur: triangulacion unitaria de una
matriz cuadrada
Denicion 50 (matrices semejantes unitariamente) Se dice que dos matrices cuadradas
complejas A y B son semejantes unitariamente si existe una matriz unitaria U tal
que B = U
1
AU.
Recuerdese que al ser U unitaria, U
1
= U
h
. As pues, en este caso, B = U
1
AU =
U
h
AU.
Teorema 10 (Teorema de Schur) Toda matriz cuadrada compleja es semejante uni-
tariamente a una matriz triangular superior. Es decir,
A C
nn
U C
nn
unitaria tal que U
h
AU = T es triangular superior.
6.2. Matrices normales
Denicion 51 (matriz normal) A C
nn
se dice que es normal si AA
h
= A
h
A.
57
58

Algebra (Tema 6)
Ejemplos: Algunos ejemplos de matrices normales son:
Las matrices hermticas complejas (o las reales simetricas)
Las matrices antihermticas complejas (o las reales antisimetricas)
Las matrices unitarias (o las ortogonales)
Las matrices diagonales.
Observacion: 1 Si dos matrices A, B son semejantes unitariamente, entonces A es nor-
mal si y solo si B es normal.
Teorema 11 Una matriz triangular es normal si y solo si es diagonal.
Demostracion: Veamos que T es normal T es diagonal:
() Obvia pues si T es diagonal, entonces T es normal.
() Sea T triangular normal; podemos suponer que T es triangular superior pues si no
trabajaramos con T
h
que es normal y triangular tambien. As pues
T =
_
_
_
_
_
_
t
11
t
12
t
1n
0 t
22
t
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 t
nn
_
_
_
_
_
_
. (6.1)
Aplicando que es normal, TT
h
= T
h
T. podemos igualar el elemento (1, 1) de la
matriz TT
h
con el elemento (1, 1) de T
h
T :
_
TT
h
_
11
= [t
11
[
2
+[t
12
[
2
+ +[t
1n
[
2
_
T
h
T
_
11
= [t
11
[
2
_
_
_
t
12
= t
13
= = 0 (6.2)
luego T es de la forma
T =
_
_
_
_
_
_
t
11
0 0
0 t
22
t
2n
.
.
.
.
.
.
.
.
.
.
.
.
0 0 t
nn
_
_
_
_
_
_
(6.3)
pues la primera la de T queda como la primera la de una matriz diagonal. Por
otro lado, igualando
_
TT
h
_
22
=
_
T
h
T
_
22
se obtiene que la segunda la de T queda
como la segunda la de una matriz diagonal. Iterando el proceso, se llega a que T
es diagonal.
Denicion 52 (matriz diagonalizable unitariamente y ortogonalmente)
M. E. Domnguez 59
Se dice que una matriz A C
nn
es diagonalizable unitariamente si existe una
matriz unitaria U tal que U
1
AU = D con D diagonal.
Si la matriz U resulta ser real y unitaria (es decir, matriz ortogonal) se dice que A
es diagonalizable ortogonalmente.
Observacion: 2 Observese que en ese caso, D contiene los autovalores y U una base
ortonormal formada por autovectores de A. Luego se deduce que:
Si A es diagonalizable, entonces A es diagonalizable unitariamente si y solo si sus sub-
espacios propios son ortogonales dos a dos.
A continuacion vemos otra caracterizacion de matrices diagonalizables unitariamente.
6.3. Teorema espectral
Teorema 12 (Teorema espectral para matrices normales) Una matriz A C
nn
es diagonalizable unitariamente si y solo si es normal.
Teorema 13 (Teorema espectral para matrices hermticas)
A es diagonalizable unitariamente con autovalores reales A es hermtica
Corolario.- [Teorema espectral para matrices reales simetricas] A es diagonalizable
ortogonalmente con autovalores reales A es real y simetrica
6.3.1. Aplicacion a matrices hermticas, antihermticas y uni-
tarias
Todas estas matrices son normales, luego son diagonalizables unitariamente. Por tanto:
U
h
AU = D = diag (
1
,
2
, ,
n
) (6.4)
U
h
A
h
U = D
h
= diag
_

1
,
2
, ,
n
_
(6.5)
as que D hereda las mismas propiedades que tena A :
Si A es hermtica (A
h
= A), se tiene que D tambien lo es, luego
k
=
k
, es decir
sus autovalores son reales. A un mas, una condicion necesaria y suciente para
que una matriz normal sea hermtica es que sus valores propios sean reales. Como
consecuencia, las matrices simetricas reales son diagonalizables ortogonalmente y
poseen autovalores reales.
60

Algebra (Tema 6)
Si A es antihermtica (A
h
= A), se tiene que D tambien lo es, luego
k
=

k
, es decir sus autovalores son imaginarios puros. A un mas, una condicion
necesaria y suciente para que una matriz normal sea antihermtica es que sus valores
propios sean imaginarios puros. Como consecuencia, las matrices antihermticas (y
en particular, las antisimetricas reales) son diagonalizables unitariamente y poseen
autovalores imaginarios puros.
Si A es unitaria (A
h
= A
1
): se tiene que D tambien lo es, luego
k
=
1
k
, que
equivale a [
k
[ = 1, es decir, sus autovalores tienen modulo 1. A un mas, una
condicion necesaria y suciente para que una matriz normal sea unitaria es que sus
valores propios tengan modulo 1. Como consecuencia, las matrices unitarias (y en
particular, las ortogonales) son diagonalizables unitariamente y poseen autovalores
de modulo 1.
Al resultado que se ha dado para matrices hermticas se le suele dar el siguiente
nombre:
Teorema 14 (Teorema espectral) A es hermtica si y solo si A es diagonalizable uni-
tariamente con autovalores reales.
6.4. Clasicacion de matrices reales simetricas
Seg un el Teorema Espectral, toda matriz real simetrica A es diagonalizable ortogo-
nalmente, y sus autovalores son reales. Dependiendo del signo de sus autovalores, se dice
que:
A es SEMIDEFINIDA POSITIVA si sus autovalores son positivos o nulos (
k
0).
En particular, A es DEFINIDA POSITIVA si sus autovalores son positivos (es decir,

k
> 0).
Aes SEMIDEFINIDA NEGATIVA si sus autovalores son negativos o nulos (
k
0).
En particular, A es DEFINIDA NEGATIVA si sus autovalores son negativos (es
decir,
k
< 0).
Por ultimo, A es INDEFINIDA si posee alg un autovalor positivo y alguno negativo.
Esta clasicacion tambien esta relacionada con los signos que toma la funcion f (x) =
x
t
Ax. Ello es debido al siguiente teorema:
Teorema 15 Si A es real y simetrica, y sean
mn
y
max
sus autovalores mnimo y
maximo, respectivamente. Entonces se verica que

mn
|x|
2
x
t
Ax
max
|x|
2
(6.6)
M. E. Domnguez 61
Demostracion: Por el Teorema Espectral para matrices reales simetricas, existe una
matriz ortogonal Q tal que
Q
t
AQ = D = diag (
mn
, ,
max
) . (6.7)
Denotando x = Qy se tiene que
x
t
Ax = y
t
Q
t
AQy = y
t
diag (
mn
, ,
max
) y =
mn
y
2
1
+ +
max
y
2
n
(6.8)
pero dicha cantidad puede acotarse superiormente por

max
_
y
2
1
+ +y
2
n
_
=
max
|y|
2
=
max
|x|
2
(6.9)
(donde se ha usado que |y| = |Qy| = |x| pues Q es ortogonal). As pues, x
t
Ax

max
|x|
2
.
Analogamente, para la acotacion inferior, se observa que la expresion (6.8) es mayor
o igual que

mn
_
y
2
1
+ +y
2
n
_
=
mn
|y|
2
=
mn
|x|
2
(6.10)
luego
mn
|x|
2
x
t
Ax, concluyendo la demostracion.
As pues, la clasicacion anterior puede reescribirse de la siguiente forma, simplemente
observando los signos que toma la funcion x
t
Ax :
A es SEMI NIDA POSITIVA si x
t
Ax 0.
En particular, A es DEFINIDA POSITIVA si x
t
Ax > 0 para todo vector x no nulo.
A es SEMIDEFINIDA NEGATIVA si x
t
Ax 0.
En particular, A es DEFINIDA NEGATIVA si x
t
Ax < 0 para todo vector x no
nulo.
A es INDEFINIDA si x
t
Ax toma tanto valores positivos como valores negativos.
6.4.1. Cociente de Rayleigh
Denicion 53 (cociente de Rayleigh) Si A es real simetrica, el cociente de Rayleigh
es la funcion denida por el cociente
R(x) =
x
t
Ax
|x|
2
x ,= 0. (6.11)
62

Algebra (Tema 6)
Observese que si x es autovector de A asociado al autovalor , entonces Ax = x,
luego x
t
Ax = |x|
2
y se tiene que
R(x) =
x
t
Ax
|x|
2
= . (6.12)
As pues, el valor que toma R en cada autovector es el autovalor correspondiente. En
particular, R(x
mn
) =
mn
y R(x
max
) =
max
, siendo x
mn
, x
max
, respectivamente, los
autovectores de A asociados a los autovalores mnimo y maximo de A (
mn
y
max
),
respectivamente.
Por otro lado, la ecuacion (6.6) garantiza que

mn

x
t
Ax
|x|
2

max
x ,= 0. (6.13)
luego se deduce lo siguiente:
Observacion: Si A es real simetrica, entonces R es una funcion acotada por

mn
R(x)
max
(6.14)
donde
mn
y
max
son, respectivamente, los autovalores mnimo y maximo de A. Ademas,
dichos valores maximos y mnimos se alcanzan en los autovectores de A asociados a
mn
y
max
, respectivamente.
M. Lopez, J. Martn 63
6.5. Ejercicios
6.1. Determnese una base ortonormal de vectores propios de la matriz
_
_
_
3 2 4
2 0 2
4 2 3
_
_
_.
6.2. Compruebese que las dos matrices
_
1 1
0 0
_
,
_
1 0
0 0
_
son semejantes pero no son unitariamente semejantes.
6.3. Hallense los valores propios de la matriz
_
_
_
0 1 2
1 0 2
2 2 0
_
_
_.
6.4. Compruebese que cualquier matriz de la forma aI +S, con S normal, es normal.
Determnese una base ortonormal de vectores propios de la matriz
_
_
_
3 1 2
1 3 2
2 2 3
_
_
_.
6.5. Demuestrese que una matriz compleja A es normal si y solo si cumple que
x C
n
, |A
h
x| = |Ax|.
6.6. Pruebese que toda transformacion lineal y ortogonal del espacio tridimensional
eucldeo ordinario se reduce a una de las tres posibilidades:
a) Un giro respecto de un eje.
b) Una simetra respecto de un plano.
c) La composicion de dos transformaciones de los tipos anteriores.
6.7. Pruebese que dos matrices complejas normales son diagonalizables simultanea-
mente por una misma matriz unitaria si y solo si conmutan.
6.8. Determnense los valores del parametro a que hacen denida positiva la matriz
_
_
_
a 1 1
1 a 1
1 1 a
_
_
_.
64

Algebra (Tema 7)
6.9. Clasifquese la siguiente matriz real y simetrica
_
_
_
a +b a b
a a +c c
b c b +c
_
_
_, a, b, c > 0.
6.10. Sea A una matriz real y simetrica tal que
a
ii
> 0, i = 1, . . . , n; a
ij
0, i ,= j; a
ii
=

j=i
a
ij
.
Clasifquese dicha matriz.
Captulo 7
Descomposicion en valores
singulares.
7.1 Norma vectorial y norma matricial. Normas inducidas. N umero de condicion de una
matriz.
7.2 Existencia y determinacion de la DVS. Propiedades de la DVS. Matriz pseudoinver-
sa.
7.1. Norma vectorial y norma matricial.
Las normas de vectores o de matrices son n umeros reales no negativos que se utilizan
como medida de su tama no. Gracias a las normas se puede por ejemplo establecer que
un vector es mayor o menor que otro. Asimismo se podra decir que dos matrices son
numericamente iguales cuando la norma de su diferencia sea sucientemente peque na.
7.1.1. Normas en un espacio vectorial E.
Denicion 54 Sea (E, K, +, ) un espacio vectorial, con K = R o K = C. Una norma
en E es cualquier aplicacion
| | : E R (7.1)
que verique K y z, w E las siguientes propiedades:
1)
|z| 0, y |z| = 0 z = 0. (7.2)
2)
|z| = [[|z| (7.3)
3)
|z +w| |z| +|w| (Desigualdad triangular). (7.4)
65
66

Algebra (Tema 7)
Ejemplo 1. Tres ejemplos clasicos de norma en E = C
n
son:
norma 1:
|z|
1
= [z
1
[ + +[z
n
[ (7.5)
norma 2 o norma eucldea:
|z|
2
=
_
[z
1
[
2
+ +[z
n
[
2
(7.6)
norma o norma del supremo:
|z|

= max [z
1
[, , [z
n
[ (7.7)
Se puede comprobar con relativa facilidad que cada una de las expresiones anteriores
satisface las tres condiciones de la denicion de norma.
Observacion: Toda norma | | en E induce una distancia d(z, w) := |z w| en E.
En particular, la norma eucldea en R
n
induce la distancia habitual.
Denicion 55 Se dice que dos normas | |
i
, | |
j
en E son equivalentes si existen
unas constantes reales , > 0 tales que
z E, |z|
i
|z|
j
|z|
i
(7.8)
La equivalencia de normas permite por ejemplo asegurar que la convergencia seg un
una norma implica tambien la convegencia seg un las demas normas.
Proposicion 25 Las normas 1, 2 e son equivalentes.
Observacion: Todo producto escalar , ) en E induce una norma en E, denida como
|z| :=
_
z, z) (7.9)
Observacion: En particular, la norma 2 anteriormente mencionada coincide con la
norma inducida por el producto escalar estandar en C
n
, es decir:
|z|
2
=

z
h
z (7.10)
Ejemplo 2. Es conocido que la forma sesquilineal (es decir, lineal en la primera compo-
nente y antilineal en la segunda),
, ) : C
mn
C
mn
C
(A, B) tr(B
h
A)
(7.11)
constituye un producto escalar en C
mn
, como se vio en el Captulo 2. La norma inducida
por este producto escalar se denomina norma de Frobenius y es
|A|
F
=
_
tr(A
h
A) =

i,j
[a
ij
[
2
(7.12)
J. Garca de Jalon, P. Gomez, J. Martn 67
7.2. Normas matriciales.
7.2.1. Norma matricial inducida por normas vectoriales.
Denicion 56 Sea | |
p
, p = 1, 2, , una norma vectorial denida tanto en C
m
como
en C
n
. Se denomina norma matricial | |
p
en C
mn
inducida por dicha norma
vectorial a
|A|
p
:= max
x=0
|Ax|
p
|x|
p
(7.13)
Se puede demostrar de un modo sencillo que la denicion anterior verica las propiedades
de norma. En lo sucesivo con frecuencia se omitira el subndice p y se entender a que la nor-
ma es una de las normas vectoriales p = 1, 2, , y la correspondiente norma matricial
inducida.
Observacion: Como consecuencia de la denicion,
x C
n
, |Ax| |A||x| (7.14)
Observacion: Se verica
max
x=0
|Ax|
|x|
= max
x=0
_
_
_
_
_
A
x
|x|
_
_
_
_
_
= max
u=1
|Au| (7.15)
Proposicion 26 Si | | es una norma en C
nn
inducida por normas vectoriales,
A, B C
nn
, |AB| |A||B| (7.16)
Demostracion: Teniendo en cuenta que y es un vector unitario que maximiza la norma
vectorial que induce |AB|, pero no necesariamente las normas vectoriales que inducen
|A| o |B|,
|AB| = |(AB) y| = |A(By)| |A| |By| |A| |B| (7.17)
7.2.2. Ejemplos de normas matriciales inducidas.
Ejemplos relevantes de normas matriciales inducidas por normas vectoriales son los
siguientes:
68

Algebra (Tema 7)
Norma 1: Utilizando la norma | |
1
en C
m
y C
n
,
|A|
1
= max
u
1
=1
|Au|
1
= max
1kn
_
_
_
m

j=1
[a
jk
[
_
_
_
= max
k
|C
k
(A)|
1
(7.18)
Norma 2 o norma espectral: Utilizando la norma | |
2
en C
m
y C
n
,
|A|
2
= max
u
2
=1
|Au|
2
=
_
(A
h
A) (7.19)
donde es el radio espectral de la matriz (mayor valor propio en valor absoluto).
Norma : Utilizando la norma | |

en C
m
y C
n
,
|A|

= max
u

=1
|Au|

= max
1jm
_
n

k=1
[a
jk
[
_
= max
j
|F
j
(A)|
1
(7.20)
Observacion: Se satisfacen las relaciones,
|A|

= |A
t
|
1
, |A|
2
= |A
t
|
2
= |A
h
|
2
(7.21)
Observacion: La norma de Frobenius no esta inducida por ninguna norma vectorial,
como se comprueba considerando la matriz identidad de orden n, ya que |I
n
|
F
=

n.
Proposicion 27 Cualquier norma | | en C
nn
inducida por normas vectoriales verica
|A| (A) (7.22)
7.3. N umero de condicion de una matriz.
Denicion 57 Sea A C
mn
, con rg(A) = n m. Se dene el n umero de condicion de
A asociado a una norma | | como
c(A) =
max
u=1
|Au|
mn
u=1
|Au|
(7.23)
Comentario: El cociente anterior esta bien denido, porque
mn
u=1
|Au| = 0 u ,= 0, Au = 0 rg(A) < n (7.24)
En el caso rg(A) < n y A ,= 0, se dene c(A) = .
J. Garca de Jalon, P. Gomez, J. Martn 69
Observacion: Si A C
nn
es regular y | | es una norma matricial inducida por una
norma vectorial, entonces la expresion anterior se convierte en,
c(A) = |A||A
1
| (7.25)
Observacion: Con la norma espectral, para matrices de maximo rango (por columnas),
el n umero decondicion c
2
(A) viene dado por la expresion,
c
2
(A) =

max
(A
h
A)

min
(A
h
A)
, A C
mn
(7.26)
Observacion: Si A C
nn
es normal e invertible, U C
nn
unitaria tal que U
h
AU =
D = diag(
1
, . . . ,
n
), con 0 < [
1
[ . . . [
n
[. Ademas
U
h
A
h
AU = (U
h
A
h
U)U
h
AU = D
h
D = diag([
1
[
2
, . . . , [
n
[
2
). (7.27)
Utilizando la expresion (7.26) para el n umero de condicion c
2
(A) se obtiene el llamado
n umero de condicion espectral,
c
2
(A) =

max
(A
h
A)

min
(A
h
A)
=
[
n
[
[
1
[
(7.28)

El n umero de condicion proporciona una cota superior para el error en la resolucion


de un sistema de ecuaciones. Se ver a en dos casos.
7.3.1. Perturbacion del termino independiente b.
Se considera el sistema compatible y determinado Ax = b, con A C
nn
y rg(A) = n.
Se desea estudiar la variacion del vector solucion x ante variaciones del vector b. De
este modo, se considera el sistema A(x +x) = b + b y se pretende estimar |x|.
Observese que,
b = Ax (7.29)
x = A
1
b (7.30)
Tomando normas de ambas ecuaciones, multiplicando miembro a miembro y reorde-
nando se llega a,
|x|
|x|
|A||A
1
|
|b|
|b|
= c(A)
|b|
|b|
(7.31)
Se observa que el n umero de condicion proporciona una cota superior para la ampli-
cacion del error relativo. Esta cota superior es optima (alcanzable).
70

Algebra (Tema 7)
7.3.2. Perturbacion de la matriz A.
De nuevo se considera el sistema Ax = b, con matriz cuadrada e invertible. Ahora se
desea estudiar la variaci on del vector solucion x ante variaciones de la matriz A. De este
modo, se considera el sistema (A+A)(x +x) = b. Operando de un modo similar se
llega a,
|x|
|x +x|
|A||A
1
|
|A|
|A|
= c(A)
|A|
|A|
(7.32)
De nuevo, el n umero de condicion proporciona una cota superior optima para la am-
plicacion del error relativo.
7.4. Descomposicion de valores singulares (DVS) de
una matriz
7.4.1. Existencia y determinacion de DVS
Teorema 16 Existencia de la DVS.
Para cualquier matriz A C
mn
, U C
mm
, unitaria, V C
nn
, unitaria, y
= diag(
1
,
2
, ,
p
) R
mn
, tales que,
A = UV
h
=
r

j=1
U
j

j
V
h
j
(7.33)
donde
1

2

r
>
r+1
= =
p
= 0, p = mnm, n y r = rg(A). Los
valores
1
,
2
, ,
p
son los valores singulares de A
Demostracion: Por la importancia del tema se ofrece a continuacion una demostracion
de tipo constructivo: es importante porque es el metodo que se sigue en la practica para
calcular la DVS de una matriz.
Se va a demostrar la existencia de la DVS detallando un procedimiento bien denido
para calcular las matrices U, y V, tales que la ec. (7.33) se cumple para cualquier
matriz compleja rectangular A. Sin perdida de generalidad se supondra m n. Si m < n
el procedimiento que sigue se puede aplicar a A
h
.
La matriz A
h
A es hermtica y (al menos) semi-denida positiva, con valores propios
0. Suponiendo que la factorizacion (7.33) existe, esta matriz resulta ser:
A
h
A = V
t
U
h
UV
h
= V
t
V
h
= VD
n
V
h
(7.34)
o bien,
_
A
h
A
_
V = VD
n
, V C
nn
(7.35)
de donde se deduce que V es la matriz unitaria que diagonaliza a A
h
A, y D
n
es la
correspondiente matriz diagonal de valores propios, reales y no negativos, que se suponen
ordenados de mayor a menor,
J. Garca de Jalon, P. Gomez, J. Martn 71
D
n
= diag(
1
, ,
n
),
1

r
>
r+1
= =
n
= 0 (7.36)
Teniendo en cuenta que seg un la ec. (7.34), D
n
=
t
, la matriz rectangular y diagonal
queda determinada en la forma,
= diag(
1
, ,
n
) R
mn
,
1

r
>
r+1
= =
n
= 0 (7.37)
con los valores singulares denidos como

i
=
_

i
(A
h
A), i = 1, 2, , n (7.38)
Las expresiones (7.35) y (7.37) permiten calcular V y . Queda por determinar la
matriz U de modo que sea unitaria y satisfaga la ec. (7.33). A partir de dicha ecuacion
se tendra,
AV = U (7.39)
que en forma desarrollada se puede escribir,
A(V
1
[V
2
[ [V
r
) = (
1
U
1
[
2
U
2
[ [
r
U
r
) (7.40)
y de donde se deduce que,
U
j
=
AV
j

j
, j = 1, 2, , r (7.41)
La ecuacion (7.41) solo permite calcular las r columnas de U asociadas con valores sin-
gulares no nulos. Como esta matriz debe ser unitaria, hay que demostrar que las columnas
obtenidas mediante la ec. (7.41) constituyen un sistema ortonormal. En efecto,
U
h
i
U
j
=
1

j
V
h
i
A
h
AV
j
=
1

ij
, j = 1, 2, , r (7.42)
Las restantes columnas de U se pueden calcular mediante el teorema de la base in-
completa y el metodo de Gram-Schmidt, de modo que dicha matriz U sea unitaria.
Observacion: La DVS no es unica. Seg un el metodo de calculo que se acaba de describir,
la indeterminacion esta en el calculo de los vectores propios de A
h
A, que constituyen las
columnas de la matriz unitaria V. Tampoco el calculo de las columnas de U asociadas
con valor singular nulo esta determinado.
72

Algebra (Tema 7)
Observacion: Las columnas de U son vectores propios de la matriz AA
h
. En efecto,
sustituyendo A por su DVS dada por (7.33),
AA
h
= UV
h
V
t
U
h
= U
t
U
h
= UD
m
U
h
(7.43)
Sin embargo, no es correcto calcular de modo independiente la matriz U seg un la
expresion (7.43) y la matriz V seg un la expresion (7.34). Una vez calculada una de ellas,
la segunda debe ser calculada seg un la expresion (7.33), tal como se ha hecho para U con
las expresiones (7.40) y (7.41).
Observacion: Las matrices A
h
A y AA
h
tienen los mismos valores propios no nulos y
con las mismas multiplicidades. Si m > n o n > m, el valor propio nulo tendra multipli-
cidad algebraica aumentada en mn en AA
h
o en n m en A
h
A, respectivamente. De
hecho

A
h
A
() =
n

AA
h() (7.44)
7.4.2. Propiedades de la DVS
Se cumplen las siguientes propiedades:
1. Por lo visto anteriormente
ImA = ImAA
h
= L[U
1
, , U
r
] (7.45)
kerA = kerA
h
A = L[V
r+1
, , V
n
]. (7.46)
2. Como kerA
h
= (ImA)

se tiene
kerA
h
= L[U
r+1
, , U
m
] (7.47)
Como ImA
h
= (kerA)

se tiene
ImA
h
= L[V
1
, , V
r
] (7.48)
3. Sea A C
mn
, de rango igual a n; como consecuencia de los resultados vistos
anteriormente, |A|
2
=
max
y mn
x
2
=1
|Ax|
2
=
mn
, donde
max
y
mn
son los
valores singulares maximo y mnimo, respectivamente, de A.
Por tanto, el n umero de condicion espectral de la matriz A es:
c
2
(A) =

m ax

mn
(7.49)
J. Garca de Jalon, P. Gomez, J. Martn 73
4. Cualquier matriz A de rango r se puede expresar como suma de r matrices de rango
1 por medio de la DVS en la forma,
A = UV
h
=
r

j=1

j
U
j
V
h
j
,
1

2

r
> 0 (7.50)
Se puede demostrar que la matriz de rango k que mejor aproxima a la matriz A
es precisamente la matriz B =

k
j=1

j
U
j
V
h
j
y que la distancia en norma espectral
entre las matrices A y B es precisamente
k+1
, es decir, el primer valor singular no
considerado en B.
Figura 7.1: Representaci on graca de la DVS de una matriz de rango r.
7.4.3. Representacion graca de la DVS
La Figura 7.1 representa la DVS de una matriz rectangular con r < n < m. Las
matrices U
R
y V
R
corresponden con las r primeras columnas de U y V, respectivamente.
La DVS se puede escribir en las formas,
A = UV
h
= U
R

r
V
h
R
=
r

j=1

j
U
j
V
h
j
(7.51)
Observese en primer lugar los tama nos de las distintas matrices: U y V son cuadradas
(unitarias), mientras que tiene el mismo tama no que A. Observese tambien que las
submatrices U
N
y V
N
no intervienen en el resultado de la DVS, al estar multiplicadas
por submatrices nulas de la matriz . Recuerdese que las columnas de U
R
son una base
ortonormal de ImA y que las columnas de V
R
lo son de ImA
h
. Asmismo las columnas
de V
N
y de U
N
son respectivamente bases ortogonales de kerA y de kerA
h
.
74

Algebra (Tema 7)
7.4.4. Matriz pseudoinversa
Lema 1 Considerese el sistema de ecuaciones y = c con la forma
_
_
_
_
_
_
_
_
_

1
0 [
.
.
.
.
.
.
.
.
. [ O
0
r
[
+
O [ O
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
y
1
.
.
.
y
r
y
r+1
.
.
.
y
n
_
_
_
_
_
_
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
_
_
_
_
c
1
.
.
.
c
r
c
r+1
.
.
.
c
m
_
_
_
_
_
_
_
_
_
_
_
_
(7.52)
donde
1
,
2
, ,
r
son n umeros reales no nulos y c
1
, c
2
, , c
m
son n umeros complejos.
La solucion de mnimos cuadrados y mnima norma eucldea del sistema (7.52) es
y
0
=
+
c, donde

+
=
_
_
_
_
_
_
_
_
_

1
1
0 [
.
.
.
.
.
.
.
.
. [ O
0
1
r
[
+
O [ O
_
_
_
_
_
_
_
_
_
R
nm
(7.53)
(O representa las matrices nulas adecuadas).
Demostracion: Se apuntar an brevemente las ideas en las que esta basada. Se consid-
era en primer lugar el error en el sistema (7.52). Las ecuaciones 1, 2, , r se satisfacen
exactamente tomando y
j
=
c
j

j
. Las restantes ecuaciones no se pueden satisfacer en gen-
eral, y el error en ellas es independiente del valor de las incognitas y
j
, j = 1, , n, por
estar multiplicadas por 0. Esto determina las soluciones de mnimo error en funcion de
y
r+1
, , y
n
.
Por lo que respecta a la solucion de mnima norma del conjunto de soluciones de mni-
mo error, observese que los valores de y
r+1
, , y
n
no inuyen en el error de la solucion
por estar multiplicados por 0. La solucion de mnimo modulo y mnima norma se obten-
dra cuando y
r+1
= = y
n
= 0. La solucion de mnimo error y mnima norma de (7.52)
estara dada por y
0
=
+
c, con
+
dada por (7.53).
Proposicion 28 Sea el sistema de ecuaciones Ax = b, con A C
mn
y b C
m
. Si
A = UV
h
, la solucion de mnimos cuadrados y mnima norma eucldea de dicho sistema
viene dada por x
0
= V
+
U
h
b.
Demostracion: Deniendo y = V
h
x y c = U
h
b, se tiene que los siguientes sistemas
de ecuaciones son equivalentes: Ax = b y = c.
La solucion de mnimos cuadrados y mnima norma del sistema y = c es, por el
lema anterior, y
0
=
+
c.
J. Garca de Jalon, P. Gomez, J. Martn 75
Como |b Ax|
2
=
_
_
_U
h
b U
h
Ax
_
_
_
2
=
_
_
_U
h
b U
h
AVy
_
_
_
2
= |c y|
2
, x
0
= Vy
0
minimiza la norma eucldea de b Ax y, ademas, hace que la norma eucldea de x
0
sea
mnima, ya que |x
0
|
2
= |y
0
|
2
.
Por tanto, la solucion de mnimos cuadrados y mnima norma es x
0
= V
+
U
h
b.
Como el resultado anterior es valido para cualquier vector b C
m
, se deduce la
unicidad de la matriz V
+
U
h
.
Denicion 58 (matriz pseudoinversa) La matriz pseudoinversa de A C
mn
es la
unica matriz A
+
C
nm
tal que, para cada b C
m
, A
+
b es la solucion de mnimos
cuadrados y mnima norma del sistema Ax = b.
Observacion: Si A = UV
h
tiene rango igual a r, entonces,
A
+
= V
+
U
h
=
r

j=1

1
j
V
j
U
h
j
. (7.54)
Observacion: La matriz pseudoinversa comprende como casos particulares otras ma-
trices vistas a lo largo del curso. As:
Si la matriz A es invertible, entonces A
+
= A
1
.
Si la matriz A es de rango maximo y m > n, entonces A
+
=
_
A
h
A
_
1
A
h
.
Si la matriz A es de rango maximo y m < n, entonces A
+
= A
h
_
AA
h
_
1
.
76

Algebra (Ejercicios)
7.5. Ejercicios
7.1. Hallense las normas 1, 2 y de los siguientes vectores:
(1, 2, 0, 2) (1, i, 3 + 4i, 2 +i)
7.2. Representese los conjuntos del plano R
2
y del espacio R
3
determinados por las
siguientes condiciones:
|x|
1
1, |x|
2
1, |x|

1.
7.3. En el espacio R
n
, compruebese la validez de las siguientes desigualdades:
|x|

|x|
2
|x|
1
n|x|

Determnense vectores de R
2
para los que cada una de las desigualdades anteriores, por
separado, se convierta en una igualdad.
7.4. Estudiar la relacion entre el radio y la norma espectrales de la matriz
_
2 6
6 3
_
.
Compruebese que el resultado se extiende a cualquier matriz normal.
7.5. Determnese el n umero de condicion de la matriz
_
4 2
4 2
_
para cada una de
las normas matriciales 1, 2 e .
7.6. Hallar los valores singulares de las siguientes matrices:
_
8 4 8
6 3 6
_
,
_
_
_
7 4
4 8
4 1
_
_
_,
_
5 10
11 2
_
.
7.7. Hallar la descomposicion de valores singulares de la matriz
M =
_
_
_
5 3 5 3
4 0 4 0
2 6 2 6
_
_
_.
A partir de ella, calcular la matriz pseudoinversa de A.
7.8. La norma de Frobenius | |
F
de una matriz real es la norma asociada al producto
escalar A, B) = traza
_
B
h
A
_
. Pruebese que para una matriz A de rango r se tiene:
|A|
2
F
=
r

k=1

k
(A)
2
7.9. Demuestrense las siguientes propiedades:
J. Garca de Jalon, J. Martn 77
1. Toda matriz compleja y su transpuesta conjugada poseen los mismos valores singu-
lares.
2. Si las las (o columnas) de una matriz son ortonormales, entonces los valores sin-
gulares de dicha matriz son todos iguales a la unidad. En particular, los valores
singulares de una matriz ortogonal (o unitaria) son 1.
3. El producto de los valores singulares de una matriz cuadrada coincide con el modulo
del determinante de la matriz.

S-ar putea să vă placă și