Sunteți pe pagina 1din 30

TEMA 2.

ALGEBRA LINEAL
TEMA 2. ALGEBRA LINEAL 5

' $
Tema 2.
ALGEBRA LINEAL
& %

Como es sabido, algunas magnitudes fı́sicas se describen mediante un


número; son las llamadas magnitudes escalares. Por el contrario, otras deben
describirse mediante un número, una dirección y un sentido (un vector):
son las magnitudes vectoriales. Este tema esta dedicado al estudio de los
vectores y las herramientas asociadas a su manejo. Los contenidos del tema son

♦ Espacios Vectoriales
♦ Calculo Matricial
♦ Sistemas de Ecuaciones Lineales
♦ Cambios de Base
♦ Aplicaciones Lineales
♦ Endomorfismos. Diagonalizacion

1. Espacios Vectoriales

1.1. Vectores. Un vector n-dimensional es un elemento de Rn , es de-


cir, un objeto de la forma (x1 , . . . , xn ). Habitualmente distinguiremos ti-
pográficamente los vectores de los escalares (o números) utilizando para los
primeros la notación ~x = (x1 , . . . , xn ). Normalmente los espacios que estu-
diaremos serán el plano R2 o el espacio tridimensional R3 , aunque a veces nos
sean precisos espacios de dimensión superior.
En Fı́sica y Matemáticas es común representar un vector mediante un seg-
mento orientado (una flecha) de una cierta longitud (definiremos más adelante
la longitud de un vector). Una pequeña diferencia entre las interpretaciones
fı́sica y matemática de esta representación consiste en que para la fı́sica el
origen del vector puede estar en cualquier punto del espacio (obteniendo los
llamados ’vectores libres’). Por contra, para nosostros –por el momento– todos
los vectores tienen el mismo origen: el vector ~0 = (0, . . . , 0).

1.2. Operaciones con vectores. Existen dos operaciones principales que


pueden realizarse con vectores: suma y producto por escalar.
• Suma. Dados vectores ~u = (u1 , . . . , un ) y ~v = (v1 , . . . , vn ) de Rn , su
suma es el vector ~u + ~v = (u1 + v1 , . . . , un + vn ). Gráficamente, esta
operación se corresponde con la ley del paralelogramo y coincide con
la suma de fuerzas que se estudia en la Fı́sica.
• Producto por escalar. Dados un vector ~u = (u1 , . . . , un ) ∈ Rn y un
escalar λ ∈ R, su producto es el vector λ~u = (λu1 , . . . , λun ). λ~u tiene
la misma dirección que ~u y el mismo sentido si λ > 0.
Es fácil comprobar que estas operaciones poseen las propiedades siguientes:
• ~u + (~v + w)
~ = (~u + ~v ) + w
~ • λ(~u + ~v ) = λ~u + λ~v
• ~u + ~v = ~v + ~u • (λ + µ)~u = λ~u + µ~u
• ~u + ~0 = ~u • (λµ)~u = λ(µ~u)
• ~u + (−~u) = ~0 • 1~u = ~u
6 TEMA 2. ALGEBRA LINEAL

En general se llama espacio vectorial a cualquier conjunto de elementos (vec-


tores) que puedan sumarse y multiplicarse por escalares, de manera que estas
operaciones respeten las propiedades que acabamos de enumerar. Ası́ Rn es
un espacio vectorial, pero también lo son el conjunto de polinomios o el de
matrices de un cierto tamaño (y en estos casos los vectores son respectiva-
mente los polinomios y las matrices). Por nuestra parte, en lo que sigue no
volveremos a utilizar esta definición.

1.3. Producto escalar. Otra operación que puede realizarse con vectores es
el producto escalar. Dados dos vectores ~u, ~v de Rn , su producto escalar es el
número
~u • ~v = u1 v1 + · · · + un vn .
Como se ve, esta operación es de un carácter muy diferente al de las dos vistas
en el apartado anterior. De hecho, el producto escalar se utiliza para medir
distancias y ángulos en Rn del modo siguiente
• la longitud (o módulo, o norma) de un vector ~v se define como
√ q
||~v || = ~v • ~v = v12 + · · · + vn2 .
Si ||~v || = 1 decimos que ~v es un vector unitario. En caso contrario (y
si ~v 6= ~0), podemos normalizarlo: ~v /||~v || es unitario y tiene la misma
direción y sentido que ~v .
• El ángulo entre dos vectores ~u y ~v (que denotaremos habitualmente
por ~ud , ~v o ∠(~u, ~v )) se define mediante la relación
~u • ~v
cos(~u
d, ~v ) = .
||~u|| · ||~v ||
Para medir este ángulo tomaremos siempre 0 ≤ ~u
d, ~v ≤ π, es decir,
consideraremos ángulos no orientados.
Diremos que los vectores ~u y ~v son ortogonales (o perpendiculares) si su pro-
ducto escalar es 0, es decir, si forman un ángulo π/2.
Algunas de las propiedades fundamentales del producto escalar son las si-
guientes: dados vectores ~u, ~v , w,
~ y escalares λ, µ,
• ~u • ~v = ~v • ~u (conmutatividad);
• (λ~u + µ~v ) • w ~ = λ(~u • w) ~ + µ(~v • w)
~ (asociatividad);
• ||~u + ~v || ≤ ||~u|| + ||~v || (desigualdad triangular);
• ||λ~u|| = |λ| · ||~u|| (escalado).

1.4. Combinaciones lineales. Subespacios. Dado un conjunto de vectores


S = {~v1 , ~v2 , . . . , ~vm } de Rn llamaremos combinación lineal de los elementos de
S a toda expresión de la forma
λ1~v1 + λ2~v2 + · · · + λm~vm
siendo los coeficientes λi números reales. Alternativamente, diremos que el
vector ~u ∈ Rn es combinación lineal de los elementos de S si existen escalares
λ1 , · · · , λm , tales que ~u = λ1~v1 + λ2~v2 + · · · + λm~vm .
En el caso de que el conjunto S sea infinito (y dado que la suma de un número
infinito de vectores no tiene sentido) en cualquier combinación lineal de los
elementos de S, casi todos los coeficientes –todos excepto un número finito–
serán cero.
Ejemplo. Sea S = {(1, 2), (2, 3), (3, 4)} ⊆ R2 . El vector (2, 4) es combinación
lineal de los elementos de S ya que
(2, 4) = 3(1, 2) − 2(2, 3) + 1(3, 4).
TEMA 2. ALGEBRA LINEAL 7

Diremos que el conjunto L ⊆ Rn es un subespacio vectorial de Rn si toda


combinación lineal de los elementos de L produce como resultado un vector
de L. Claro está que para evaluar la condición de subespacio no es preciso
computar todas las posibles combinaciones lineales que pueden obtenerse a
partir de L. De hecho, basta comprobar que se verifican las dos condiciones
siguientes:
• si ~u, ~v ∈ L entonces ~u + ~v ∈ L;
• si ~u ∈ L y λ ∈ R, entonces λ~u ∈ L.
Ejemplo. Sea L = {(x, y, z, t) ∈ R4 | x = 0, y = z +t}. Un vector de L tendrá
coordenadas de la forma ~u = (0, α + β, α, β), para ciertos α, β. Por tanto L es
un subespacio vectorial de R4 , ya que si ~u, ~v ∈ L, entonces ~u = (0, α + β, α, β),
~v = (0, γ + δ, γ, δ), luego ~u + ~v = (0, (α + γ) + (β + δ), α + γ, β + δ) ∈ L y
λ~u = (0, λ(α + β), λα, λβ) ∈ L.

1.5. Conjuntos generadores. Sea S = {~v1 , ~v2 , . . . , ~vm } un conjunto de vec-


tores de Rn . Diremos que S es un conjunto generador de Rn (o que ge-
nera Rn ) si todo vector de Rn es combinación lineal de los elementos de S.
Análogamente, dado un subespacio L de Rn , diremos que S es un conjunto
generador de L si S ⊆ L y todo vector de L es combinación lineal de elementos
de S.
Ejemplo. S = {(1, 2), (2, 3), (3, 4)} ⊆ R2 genera R2 .
En particular, dado S = {~v1 , ~v2 , . . . , ~vm } ⊆ Rn , el conjunto de todas las com-
binaciones lineales de los elementos de S
{λ1~v1 + λ2~v2 + · · · + λm~vm | λi ∈ R}
es obviamente un subespacio vectorial que está generado por S. Habitualmente
representaremos este espacio por hSi o h~v1 , ~v2 , . . . , ~vm i.
Ejemplo. Sea L = {(x, y, z, t) ∈ R4 | x = 0, y = z + t}. Como sabemos, un
vector de L tendrá coordenadas ~u = (0, α + β, α, β). Por tanto ~u = (0, α +
β, α, β) = α(0, 1, 1, 0) + β(0, 1, 0, 1), y L = h(0, 1, 1, 0), (0, 1, 0, 1)i.
Ejemplo. Si S = {~v } con ~v 6= ~0, entonces hSi = h~v i es una recta vectorial,
r. Explı́citamente r = {λ~v | λ ∈ R}. Por ejemplo, si ~v = (1, 2), entonces
h(1, 2)i = {(λ, 2λ) | λ ∈ R}. Dicho de otro modo, (x, y) ∈ r si y sólo si

x = λ
λ ∈ R.
y = 2λ
igualdades que constituyen las ecuaciones paramétricas de r.
Ejemplo. Si ~u y ~v son vectores no nulos y no múltiplos uno del otro, entonces
h~u, ~v i es un plano vectorial, Π. Explı́citamente Π = {λ~u + µ~v | λ, µ ∈ R}.
Por ejemplo, si ~u = (1, 1, 0) y ~v = (0, 1, 1), entonces h(1, 1, 0), (0, 1, 1)i =
{(λ, λ + µ, µ) | λ, µ ∈ R}. Dicho de otro modo, (x, y, z) ∈ Π si y sólo si

x = λ 
y = λ+µ λ, µ ∈ R.
z = µ

igualdades que constituyen las ecuaciones paramétricas de Π.


Ejemplo. Sea L = {(x, y, z, t) ∈ R4 | x = 0, y = z + t}. L es un plano
vectorial de R4 con ecuaciones paramétricas

x = 0  
y = α+β

α, β ∈ R.
z = α  
t = β

8 TEMA 2. ALGEBRA LINEAL

1.6. Conjuntos libres. Si ~u ∈ hSi = h~v1 , ~v2 , . . . , ~vm i, puede suceder que ~u se
escriba como combinación lineal de estos vectores de más de una forma. Ası́,
en el ejemplo anterior
(2, 4) = 3(1, 2) − 2(2, 3) + 1(3, 4) = 2(1, 2) + 0(2, 3) + 0(3, 4).
Si tal cosa sucede, decimos que los vectores ~v1 , ~v2 , . . . , ~vm son linealmente de-
pendientes (ó que el conjunto S es ligado). Nótese que si ~u se escribe de más
de una forma como combinación lineal de S, entonces también ~0 se escribe de
más de una forma. En efecto, volviendo al ejemplo anterior, restando las dos
escrituras del vector (2, 4) obtenemos
(0, 0) = (1, 2) − 2(2, 3) + (3, 4)
y siempre (0, 0) = 0(1, 2) + 0(2, 3) + 0(3, 4). Por consiguiente, un conjunto de
vectores es ligado si y sólo si existe alguna combinación lineal de esos vectores
que da como resultado ~0 con coeficientes no todos nulos.
Obsérvese además que en un conjunto ligado algún vector es combinación lineal
de los restantes. En efecto, en el ejemplo anterior, partiendo de la igualdad
(0, 0) = (1, 2) − 2(2, 3) + (3, 4) no hay más que despejar cualquiera de los vec-
tores con coeficiente no nulo, (1, 2) = 2(2, 3)−(3, 4). Estos vectores que pueden
obtenerse como combinación lineal de los restantes son, en cierto modo, redun-
dantes. En efecto, si ~v1 , ~v2 , . . . , ~vm son vectores linealmente dependientes y ~v1
es combinación lineal de los demás, entonces h~v1 , ~v2 , . . . , ~vm i = h~v2 , . . . , ~vm i.
Ejemplo. En virtud de los razonamientos anteriores, {(1, 2), (2, 3), (3, 4)} es
un conjunto ligado. Además h(1, 2), (2, 3), (3, 4)i = h(2, 3), (3, 4)i.
Si S = {~v1 , ~v2 , . . . , ~vm } no es conjunto ligado, diremos que es libre (o que
~v1 , ~v2 , . . . , ~vm son vectores linealmente independientes).
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
H
1 Probar que si S = {~v1 , ~v2 , . . . , ~vm } es libre y ~u ∈ hSi, entonces la expresión
de ~u como combinación lineal de los elementos de S es única.
2 Sea L = {(x, y, z) ∈ R3 | x = y + z}. Mostrar que L es un subespacio. Encon-
trar un conjunto libre de vectores que lo generen. Deducir unas ecuaciones
paramétricas de L. Dibujarlo.

1.7. Bases y coordenadas. Un conjunto finito de vectores S =


{~v1 , ~v2 , . . . , ~vm } ⊆ Rn que sea libre y genere Rn se llama base de Rn .
Análogamente, un conjunto finito de vectores S = {~v1 , ~v2 , . . . , ~vm } ⊆ Rn que
sea libre y genere un subespacio L ⊆ Rn se llama base de L.
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼

3 Dado el conjunto de vectores S = {~v1 , ~v2 , . . . , ~vm } ⊆ Rn , comprobar que son


H

condiciones equivalentes:
(a) S es una base de Rn (o de un subespacio L);
(b) S es un conjunto libre maximal en Rn (o en L);
(c) S es un conjunto generador minimal de Rn (o de L).

Todo espacio vectorial (y todo subespacio) posee alguna base. Además, todas
las bases del mismo espacio están formadas por el mismo número de vectores.
Este número se llama dimensión del espacio (o del subespacio).
Ejemplos.

• Una base de una recta está formada por un solo vector. Las rectas son
subespacios de dimensión 1.
• Una base de un plano está formada por dos vectores. Los plano son
subespacios de dimensión 2.
TEMA 2. ALGEBRA LINEAL 9

• Los vectores ~e1 = (1, 0, . . . , 0), ~e2 = (0, 1, . . . , 0), . . . , ~en = (0, . . . , 0, 1)
forman una base de Rn , llamada base canónica (a la que denotaremos
por C). Por consiguiente, cualquier otra base de Rn debe estar también
formada por n vectores: la dimensión de Rn es n.
• Sea L = {(x, y, z, t) ∈ R4 | x = 0, y = z + t} el subespacio es-
tudiado en un ejemplo anterior. Como hemos visto, si ~u ∈ L en-
tonces ~u = (0, α + β, α, β) = α(0, 1, 1, 0) + β(0, 1, 0, 1). Por tanto
L = h(0, 1, 1, 0), (0, 1, 0, 1)i. Además estos dos vectores son linealmente
independientes, luego constituyen una base de L. En particular, la di-
mensión de L es 2.

Sea pues B = {~v1 , ~v2 , . . . , ~vm } una base (cualquiera) de Rn . Cada vector
~u ∈ Rn puede escribirse como combinación lineal de los elementos de la base
B (puesto que B es generador)

~u = λ1~v1 + · · · + λn~vn .

Además tal combinación lineal es única (puesto que B es libre). Los coeficientes
λ1 , . . . , λn se llaman las coordenadas de ~u en la base B y la igualdad anterior
se representa abreviadamente como ~u = (λ1 , . . . , λn )B o ~uB = (λ1 , . . . , λn ).
Ejemplo. Sea (x, y, z) ∈ R3 . Las coordenadas de (x, y, x) en la base canónica
C son precisamente (x, y, z)C . Por tanto las notaciones (x, y, x) y (x, y, z)C re-
presentan el mismo vector. Es esta razón la que hace especialmente interesante
la base canónica.
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼

4 Consideramos los vectores ~v1 = (2, 1, 3), ~v2 = (1, 1, −1) y ~v3 = (0, 0, 1).
(a) Comprobar que B = {~v1 , ~v2 , ~v3 } es una base de R3 ;
(b) calcular las coordenadas en B de los vectores (−1, 0, 1) y (1, 2, −3);
(c) calcular las coordenadas en C de los vectores (−1, 0, 1)B y (1, 2, −3)B .

1.8. Bases ortonormales. La introducción de bases permite asignar coor-


denadas e identificar ası́ la posición de un objeto en el espacio. Desde este
punto de vista, todas las bases son igualmente legı́timas. Sin embargo puede
suceder que, a la hora de abordar un problema concreto, los cálculos a realizar
se simplifiquen utilizando una determinada base, o se compliquen utilizando
otra. Por otro lado, la expresión del producto escalar dada en el apartado 1.3,
es, en principio, únicamente válida cuando los vectores están expresados en
la base canónica y produce resultados erróneos si se aplica a coordenadas en
otra base distinta.
Ejemplo. Retomemos los vectores (−1, 0, 1) y (1, 2, −3) del ejercicio 4 . Su
producto escalar es obviamente (−1, 0, 1) • (1, 2, −3) = −4. Ahora bien, si
expresamos estos vectores en la base B obtenemos (−1, 0, 1) = (−1, 1, 5)B ,
(1, 2, −3) = (−1, 3, 3)B . Y (−1, 1, 5) • (−1, 3, 3) = 19 6= −4.
Como norma general, la canónica es posiblemente la base más importante del
espacio. Otras bases comparten algunas de sus propiedades y son también
importantes. Diremos que una base B = {~v1 , ~v2 , . . . , ~vn } de Rn es ortogonal si
está formada por vectores ortogonales entre sı́. Si además estos vectores son
unitarios, entonces diremos que B es una base ortonormal.
Si B = {~u1 , ~u2 , . . . , ~un } es una base ortonormal de Rn y ~v , w
~ tienen coordenadas
~v = (v1 , . . . , vn )B , w~ = (w1 , . . . , wn )B , entonces
n
X
~v • w
~= vi wj (~ei • ~ej ) = v1 w1 + · · · + vn wn
i,j=1
10 TEMA 2. ALGEBRA LINEAL

es decir, la expresión del producto escalar para la base canónica sigue siendo
válida para la base B. En consecuencia, cuando en nuestros cálculos inter-
venga el producto escalar (es decir, cuando estemos tratando un problema rela-
cionado con medidas de longitudes o ángulos) deberemos usar una (cualquiera)
base ortonormal.

2. Cálculo Matricial

2.1. Noción de matriz. Una matriz numérica de tamaño m × n, o abre-


viadamente una matriz m × n, es una tabla de la forma
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
A =  .. abreviadamente A = (aij )
 
.. .. 
 . . . 
am1 am2 · · · amn
con aij ∈ R. El conjunto de matrices m × n se denotará Mm×n .

2.2. Operaciones con matrices. Con las matrices se pueden realizar diver-
sas operaciones, a saber:
• Suma: Si (aij ) y (bij ) ∈ Mm×n , (aij ) + (bij ) = (aij + bij ).
• Producto por escalar: Si (aij ) ∈ Mm×n y λ ∈ R, λ · (aij ) = (λaij ).
• Producto de matrices: Si (aij )P ∈ Mm×n y (bjk ) ∈ Mn×r , su producto
es (cik ) ∈ Mm×r siendo cik = nj=1 aij bjk .
• Traspuesta: Si A = (aij ) ∈ Mm×n , At = (a0ij ) ∈ Mn×m , con a0ij = aji .
   
 2 1 2
Ejemplo. Si A = 1 3 , B = , C = y
−1 3 −1
 
2 1 3
D= , entonces
−1 1 2
 
    2 −1
0 3 7 7 0
, C2 = , Dt =  1 1  .

AB = −1 , CD =
7 2 7 0 7
3 2
Algunas propiedades de las operaciones definidas son:

• A+B =B+A • A · (B · C) = (A · B) · C
• A + (B + C) = (A + B) + C • c · (A · B) = (c · A) · B
• c · (A + B) = c · A + c · B • (A · B)t = B t · At
• (A + B)t = At + B t • (A · B)−1 = B −1 · A−1

Por supuesto, estas propiedades se verifican siempre que tengan sentido (por
ejemplo, no se pueden sumar matrices de tamaños distintos).

2.3. Algunos tipos de matrices. Algunas matrices reciben un nombre par-


ticular que es preciso conocer.
Cuadrada: la que tiene el mismo número de filas que de columnas.
Simétrica: A es simétrica si A = At .
Identidad: In ∈ Mn×n . Es la que tiene todos sus coeficientes nulos
salvo los que están sobre la diagonal principal, aii , que son iguales a
1. Obsérvese que si A ∈ Mm×n , se verifica que A · In = Im · A = A.
Diagonal: A = (aij ) es diagonal si es cuadrada y aij = 0 siempre que
i 6= j.
Triangular superior: aquella cuyos elementos por debajo de la diago-
nal principal son nulos. De forma análoga se define triangular inferior.
TEMA 2. ALGEBRA LINEAL 11

Matriz fila y matriz columna: son las matrices con una sola fila o
una sola columna, respectivamente.
Inversible: A ∈ Mn×n (cuadrada) es inversible si existe B ∈ Mn×n tal
que AB = BA = In . Si existe, la matriz B es única y se denota por
A−1 .
Ortogonal: A ∈ Mn×n (cuadrada) es ortogonal si At A = AAt = In .

2.4. Determinante de una matriz cuadrada. A cada matriz cuadrada


A ∈ Mn×n se le asocia un número (que denotaremos |A| o det(A)) llamado
determinante de A, que resulta ser de utilidad en muchas ocasiones. Recor-
damos brevemente cómo se calcula. Para simplificar, llamaremos ’lı́nea’ a una
fila o una columna.

• Si A = (a) ∈ M1×1 , |A| = a.


a b
• Si A = ∈ M2×2 , |A| = ad − bc.
c d
• En general, si A = (aij ) ∈ Mn×n , denotamos por Aij a la matriz
(n − 1) × (n − 1) que se obtiene al eliminar la fila i y la columna j de
A. Entonces, si elegimos la lı́nea i de A,
n
X
|A| = (−1)i+j aij · |Aij |.
j=1

El resultado obtenido es independiente de la lı́nea elegida.

Estas reglas permiten reducir el cálculo de un determinante al de varios de-


terminantes de menor tamaño, de manera que aplicando reiteradamente este
proceso se calcula cualquier determinante. Por otro lado hay algunas estrate-
gias que nos permiten agilizar el cálculo. Por ejemplo,

• Es conveniente elegir una lı́nea con el mayor número posible de ceros.


Obviamente, si una de ellas tiene todos sus elementos cero, entonces
el determinante vale cero.
• Si A es triangular, |A| es el producto de los elementos de la diagonal
principal.
• Si se suma a una lı́nea una combinación de otras paralelas, el valor del
determinante no varı́a.
• Si intercambiamos dos lı́neas paralelas en A, el determinante cambia
de signo.
• Si se multiplican todos los elementos lı́nea de A por un número α, el
determinante queda multiplicado por α.
• |A| = |At |, |AB| = |A| · |B|, |In | = 1.

Estas propiedades nos permiten convertir A en una matriz con ’muchos’ ceros
y calcular ası́ más fácilmente el determinante.
Ejercicios.∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼

5 Calcular los determinantes de las siguientes matrices:


 
  3 9 −1 2
1 4 3  1 4 9 0 
A =  −2 5 −1  B=  2 5 −1 1 

1 2 −3
6 5 2 1

6 Sea A una matriz cuadrada n × n.


(a) Probar que A es ortogonal si y sólo si sus columnas forman una base
ortonormal de Rn .
(b) Probar que si A es ortogonal, entonces su determinante vale ±1. ¿Es
cierto el recı́proco?
12 TEMA 2. ALGEBRA LINEAL

7 Dados números reales a0 , · · · , an (n ≥ 1), se llama determinante de Vander-


monde al determinante
1 a0 a20 · · · an0

1 a1 a21 · · · an1

Vn = .

.. .. ..
.. . . .

1 an a2 · · · an
n n
Q
Se verifica que Vn = 0≤j<i≤n (ai − aj ). Comprobar esta fórmula para n =
1, 2, 3.

2.5. Rango de una matriz. Dada una matriz A de tamaño m × n se de-


nomina menor de orden r de A, con 1 ≤ r ≤ min(m, n), al determinante de
cualquier matriz de tamaño r formada con los elementos de la intersección de
r cualesquiera de sus filas y r cualesquiera de sus columnas.
Teorema. Sea A una matriz m × n. Los tres números siguientes
• la dimensión del subespacio generado por sus vectores fila;
• la dimensión del subespacio generado por sus vectores columna;
• el orden del mayor menor no nulo de A
coinciden. Llamaremos rango de A (y lo denotaremos rang(A)) a cualquiera
de estos números.
Entre las aplicaciones del rango de una matriz, podemos destacar las dos
siguientes.
(a) Cálculo de la dimensión de un subespacio. Dado un conjunto de vectores
S = {~v1 , ~v2 , . . . , ~vm } ⊆ Rn , la dimensión del subespacio que generan coincide
con el rango de la matriz que los tiene como filas. En particular, n vectores
de Rn forman una base de Rn si y sólo si el determinante de la matriz que los
tiene como filas es no nulo.
(b) Un criterio de invertibilidad de una matriz.
Teorema. Sea A una matriz n × n (cuadrada). A es inversible si y sólo
si det(A) 6= 0, es decir, si y sólo si rang(A) = n. En tal caso det(A−1 ) =
(det(A))−1 .
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
8 Calcular el rango de las siguientes matrices:
   
2 1 4 3 3 9 −1 2
 −1 −2 5 −1   1 4 9 0 
A=  B= .
 0 1 2 −3   4 13 8 2 
1 0 11 −1 5 17 17 2

3. Sistemas de Ecuaciones Lineales

3.1. Sistemas de ecuaciones lineales. Un sistema lineal de m ecuaciones


con n incógnitas es un conjunto de ecuaciones de la forma

a11 x1 + a12 x2 + · · · + a1n xn = b1 
a21 x1 + a22 x2 + · · · + a2n xn = b2 

.. .. (S)
. . 


a x + a x + ··· + a x = b 
m1 1 m2 2 mn n m

siendo aij y bi números reales conocidos. Los aij son los coeficientes del sistema
y los bi sus términos independientes. En particular, cuando b1 = · · · = bn = 0,
se dice que el sistema es homogéneo.
TEMA 2. ALGEBRA LINEAL 13

Resolver (S) es hallar el conjunto de todos los (x1 , . . . , xn ) ∈ Rn que verifiquen


las condiciones anteriores. Dichos (x1 , . . . , xn ) se denominan soluciones del
sistema (S). Pueden darse las siguientes posibilidades:

• (S) no tiene ninguna solución (sistema incompatible). Por ejemplo


dos rectas paralelas y distintas en el plano no se cortan, luego sus
ecuaciones forman un sistema imcompatible.

x+y = 1
Conjunto de soluciones: ∅.
x+y = 2
• (S) tiene una única solución (sistema compatible determinado). Por
ejemplo, dos rectas en el plano que se cortan en un punto

x+y = 1
Solución: (x, y) = (1, 1).
x + 2y = 3
• (S) tiene más de una solución (sistema compatible indeterminado). Por
ejemplo, el sistema formado por la ecuación de una recta
x+y =1 Soluciones: (x, y) = (λ, 1 − λ) si λ ∈ R.

Por consiguiente, dos son las cuestiones que se presentan: saber si (S) tiene o
no solución (y cuantas soluciones), y en caso afirmativo encontrarlas.

3.2. Sistemas homogéneos y ecuaciones implı́citas de subespacios.


Dado un sistema (S) de ecuaciones lineales homogéneas, sea L el conjunto de
sus soluciones. Es fácil ver (y se deja como ejercicio al lector) que L es un
subespacio vectorial. Resolver (S) es equivalente a determinar una base de L.
Antes de centrarnos en el problema de resolver un sistema de ecuaciones (tema
al que dedicaremos los apartados siguientes), conviene hacer notar que en
ocasiones es preciso abordar el problema inverso, es decir: dado un subespacio
F , encontrar unas ecuaciones que lo tengan como solución. Tales ecuaciones
reciben el nombre de ecuaciones implı́citas de L.
El cálculo de estas ecuaciones implı́citas puede llevarse a cabo en términos
de rangos de matrices. En efecto, pongamos que F es el subespacio de Rn
generado por los vectores ~v1 , ~v2 , . . . , ~vm . Un vector ~x ∈ Rn , está en F si
y sólo si es combinación lineal de los ~v1 , ~v2 , . . . , ~vm , es decir, si y sólo si
dimh~v1 , ~v2 , . . . , ~vm i = dimh~v1 , ~v2 , . . . , ~vm , ~xi. Esta condición es equivalente
a que las matrices que tienen como filas a ~v1 , ~v2 , . . . , ~vm y ~v1 , ~v2 , . . . , ~vm , ~x
posean el mismo rango. Desarrollando esta igualdad obtenemos unas ecua-
ciones implı́citas de F .
Ejemplo. Calculemos unas ecuaciones implı́citas de la recta r generada por
el vector (1, −1, 2) de R3 . Un vector (x, y, z) está en r si y sólo si
 
1 −1 2
rang =1
x y z
es decir cuando
1 −1 1 2
=0, = 0.
x y x z
Desarrollando los dos determinantes obtenemos las ecuaciones de r:

x+y = 0
.
x − 2z = 0

Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
9 Obtener la dimensión, una base y unas ecuaciones implı́citas del subespacio
L generado por ~u = (1, 2, 0), ~v = (0, 3, 2) y w
~ = (2, 7, 2).
14 TEMA 2. ALGEBRA LINEAL

3.3. Escritura matricial. Vamos ya a dedicarnos a estudiar los sistemas de


ecuaciones. El sistema (S) puede escribirse en forma matricial como
    
a11 a12 · · · a1n x1 b1
 a21 a22 · · · a2n   x2   b2 
..   ..  =  .. 
    
 .. ..
 . . .  .   . 
am1 am2 · · · amn xn bm
o abreviadamente A~xt = ~bt . La matriz A = (aij ) ∈ Mm×n se denomina
matriz del sistema, y la matriz A∗ = (aij |bi ) ∈ Mm×(n+1) matriz ampliada.
Ası́, toda la información relevante sobre el sistema (S) está contenida en la
matriz ampliada A∗ .
Una consecuencia inmediata de la escritura matricial de un sistema es la lla-
mada regla de Cramer: si A es cuadrada y det(A) 6= 0, entonces la (única)
solución del sistema (S) es ~xt = A−1~bt . Esta regla tiene un interés únicamente
teórico, ya que su aplicación práctica queda limitada por el enorme trabajo de
cálculo que implica determinar A−1 (piénsese en un sistema 100 × 100).
Es interesante observar que buscar soluciones de (S) equivale a buscar las com-
binaciones lineales de las columnas de A que nos den ~bt , hecho que proporciona
de forma inmediata un criterio para saber si un sistema tiene o no solución
mediante el teorema de Rouché-Frobenius que veremos a continuación.

3.4. Existencia y unicidad de soluciones. Es posible saber si un sistema


dado tiene solución, y en su caso si ésta es o no única, sin necesidad de re-
solverlo.
Teorema (de Rouché-Frobenius). Consideremos el sistema (S) de m
ecuaciones con n incógnitas, A~xt = ~bt .
(1) (S) tiene solución si y sólo si el rango de la matriz del sistema coincide
con el rango de la matriz ampliada.
(2) Si r es dicho rango, la solución es única si y sólo si r = n.
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
H
10 Probar el Teorema de Rouché-Frobenius.
11 Discutir el sistema de ecuaciones

x +2y +z = 2 
x +y +2z = 3
x +2y +z = b

12 Comprobar la afirmación hecha en el apartado 3.3: si A es una matriz


cuadrada y det(A) 6= 0, entonces el sistema A~xt = ~bt tiene una única solución.

3.5. Dimensión del espacio de soluciones. El teorema de Rouché-


Frobenius nos dice si un sistema tiene o no solución, pero no nos dice cuántas
soluciones tiene (salvo que tenga 0 o 1). Vamos a abordar ahora esta cuestión.
Sea (S) : A~xt = ~bt un sistema de m ecuaciones y n incógnitas. Puede
suceder que algunas de las ecuaciones de (S) sean combinaciones lineales de
las restantes. Estas ecuaciones son redundantes y pueden ser eliminadas sin
que ello afecte al conjunto de soluciones. Supongamos pues que en el sistema
(S) han sido eliminadas ya todas las ecuaciones redundantes. De este modo
rang(A∗ ) = m. Pueden presentarse varios casos.
• Si m > n hay más ecuaciones que incógnitas. Como rang(A) ≤ n, el
sistema no tiene solución.
• Si m = n hay tantas ecuciones como incógnitas. Si det(A) 6= 0, en-
tonces rang(A) = m y el sistema posee solución única. Por contra, si
det(A) = 0, entonces rang(A) < m y el sistema es incompatible.
TEMA 2. ALGEBRA LINEAL 15

• Si m < n hay menos ecuciones que incógnitas. Si rang(A) < m el sis-


tema no tiene solución. Si rang(A) = m, entonces A posee m columnas
independientes. Pasemos las n−m variables que no corresponden a es-
tas columnas al término independiente de la derecha como parámetros.
El sistema ası́ obtenido es cuadrado y, según acabamos de ver, tiene
solución única. Por consiguiente, el sistema original tiene infinitas solu-
ciones que dependen de n − m parámetros. Decimos que el conjunto
de soluciones tiene dimensión n − m.

Si el sistema de ecuaciones es homogéneo, como sabemos, sus soluciones for-


man un subespacio vectorial de Rn y el sistema constituye unas ecuaciones
implı́citas del subespacio. En este caso, la dimensión del conjunto de solu-
ciones coincide con la dimensión del subespacio vectorial que forma. Si el
sistema no es homogéneo, entonces sus soluciones no forman ya un subespa-
cio vectorial, sino lo que se llama una ’variedad afı́n’, que estudiaremos en el
tema siguiente. En este caso, la dimensión de este conjunto como conjunto de
soluciones coincide también con su dimensión ’geométrica’ que introduciremos
cuando lo estudiemos.
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼

13 Calcular la dimensión del espacio de soluciones del sistema



x +2y +z = 2 
x +y +2z = 3
x +2y +z = b

3.6. Resolución de un sistema lineal. Método de Gauss. Partimos de


un sistema (S) : A~xt = ~bt . Supongamos en primer lugar que este sistema es
cuadrado (es decir, que la matriz A lo es). El método más eficaz de resolver
(S) es transformarlo en otro que, poseyendo las misma soluciones, sea lo más
simple posible. Un tipo muy simple de sistemas son los ’triangulares’, es decir,
aquellos en los que todos lo coeficientes por debajo de la diagonal son 0. Esta
es precisamente la idea del método de Gauss: transformar el sistema original
en otro triangular con las mismas soluciones. En lo que sigue, en lugar de
manipular sistemas (lo que resulta algo engorroso) vamos a operar con sus
matrices ampliadas, que poseen toda la información relevante sobre ellos y
son más simples de escribir.
Sea pues A∗ la matriz ampliada del sistema (S). Llamaremos operaciones
elementales en A∗ (o en el sistema (S)) a las siguientes:

• Permutar dos filas de A∗ (lo que corresponde a permutar dos ecuaciones


de (S)).
• Multiplicar una fila de A∗ por una constante no nula (multiplicar una
ecuación por una constante no nula).
• Sumar a una fila de A∗ otra fila multiplicada por una constante (sumar
a una ecuación otra ecuación multiplicada por una constante).

Es evidente que el sistema obtenido a partir de A∗ mediante un número finito


de operaciones elementales tiene las mismas soluciones que el original (S).
Como hemos dicho, el método de Gauss consiste en simplificar el sistema (S)
mediante operaciones elementales. Veamos un ejemplo.
Ejemplo. Resolvamos mediante el método de Gauss el sistema

−3x −3y −3z = −3 
−2x +2y +z = 0
x −3y+ 3z = 0

16 TEMA 2. ALGEBRA LINEAL

Aplicando el método obtenemos la sucesión de matrices ampliadas


   
−3 −3 −3 −3 1 −3 3 0
 −2 2 1 0  →  −2 2 1 0  →
1 −3 3 0 −3 −3 −3 −3
   
1 −3 3 0 1 −3 3 0
→  0 −4 7 0  →  0 −4 7 0  .
0 −12 6 −3 0 0 −15 −3
Observemos que esta última matriz corresponde al sistema

x − 3y + 3z = 0 
−4y + 7z = 0
−15z = −3

cuya solución es fácil de calcular comenzando por la última ecuación y susti-


tuyendo regresivamente:
−15z = −3 ⇒ z = 1/5
−4y + 7z = 0 ⇒ y = 7/20
x − 3y + 3z = 0 ⇒ x = 9/20.

Si el sistema que deseamos resolver no es cuadrado (pongamos m ecuaciones


con n > m incógnitas), en primer lugar hacemos cero todos los elementos
bajo la diagonal que comienza en el elemento en posición (1, 1). A conti-
nuación convertimos n − rang(A∗ ) incógnitas en parámetros que pasamos al
término independiente de la derecha. Obtenemos ası́ un sistema cuadrado que
resolvemos mediante sustitución regresiva.
Ejemplo. Resolvamos mediante el método de Gauss el sistema

x +y +z = −2 
2x +3z +4t = −1
3x +y +3z +7t = 2

Aplicando el método obtenemos la sucesión de matrices ampliadas


   
1 1 1 0 −2 1 1 1 0 −2
 2 0 3 4 −1  →  0 −2 1 4 3 

3 1 3 7 2 0 0 −1 3 1
Convertimos ahora la incógnita t en un parámetro, t = λ. Con esto obtenemos
el sistema de matriz ampliada
 
1 1 1 −2
 0 −2 1 3 − 4λ 

0 0 −1 1 − 3λ
que finalmente resolvemos de forma recursiva
t = λ
z = −1 + 3λ
7
y = −2 + λ
2
13
x = 1 − λ.
2
Ejercicios.∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
14 Utilizando el método de Gauss, resolver
 los siguientes sistemas 
2x +8y +6z = 20  x +2y +z −2t = 10 
(a) 4x +2y −2z = −2 (b) −x +2y −z +t = 6
3x −y +z = 11 y +z = 2
 
TEMA 2. ALGEBRA LINEAL 17

15 (a) (Un problema propuesto por Miguel de Cervantes) Un pastor comenta


a otro: ’si me dieras una de tus ovejas, entonces tendrı́a el doble que
tú’, a lo que el otro le responde: ’y si tú me la dieras a mı́, entonces
tendrı́amos las mismas’. ¿Cuántas ovejas tiene cada uno?
(b) (Un problema propuesto por Lewis Carrol) Una limonada, tres bocadi-
llos y siete bizcochos cuestan 1 chelı́n y 2 peniques; una limonada, cua-
tro bocadillos y diez bizcochos cuestan 1 chelı́n y 5 peniques. ¿cuánto
costará una limonada, un bocadillo y un bizcocho? [Nota. En tiempos
de L. Carrol, un chelı́n equivalı́a a 12 peniques.]

3.7. Una modificación del método de Gauss. Si la matriz A del sistema


(S) es cuadrada y det(A) 6= 0, como sabemos, el sistema posee solución única.
Podemos llegar a esta solución sin necesidad de realizar el proceso de susti-
tución regresiva. Para ello, una vez obtenida la forma triangular, proseguimos
realizando operaciones elementales hasta que la parte izquierda de la matriz
sea la identidad. En ese momento, la columna de términos independientes es
ya la solución del sistema.
Ejemplo. Vamos a resolver por este procedimiento el sistema tratado en el
apartado anterior. Como hemos visto, la matriz ampliada
 
−3 −3 −3 −3
 −2 2 1 0 
1 −3 3 0
puede llevarse, mediante una serie de transformaciones elementales a la forma
triangular
 
1 −3 3 0
 0 −4 7 0  .
0 0 −15 −3
Proseguimos ahora realizando operaciones elementales hasta llevarla a la iden-
tidad. El orden en que se van convirtiendo en cero los elementos por encima de
la diagonal es el ’simétrico’ del que hemos usado para hacer cero los elementos
situados debajo.
   
1 −3 3 0 1 −3 0 −3/5
 0 −4 7 0  →  0 −4 0 −7/5  →

0 0 −5 −3 0 0 1 1/5
   
1 −3 0 −3/5 1 0 0 9/20
→  0 1 0 7/20  →  0 1 0 7/20  .
0 0 1 1/5 0 0 1 1/5
Observemos que esta última matriz corresponde al sistema

x = 9/20 
y = 7/20
z = 1/5

en el que no hay nada que resolver.


Ejercicios.∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
14’ Resolver por este método los sistemas propuestos en el ejercicio 14.

3.8. Resolución simultánea de varios sistemas de ecuaciones. En oca-


siones se plantea la resolución de varios sistemas de ecuaciones con la misma
matriz de sistema, es decir, difiriendo únicamente en sus términos indepen-
dientes. Cuando el cálculo de estos sistemas se aborda mediante el método de
Gauss, es posible resolverlos todos simultáneamente, sin más que ampliar la
matriz del sistema con tantas columnas como sistemas debamos resolver. La
forma más clara de entender estas situación es mediante un ejemplo.
18 TEMA 2. ALGEBRA LINEAL

Ejemplo. Vamos a resolver los sistemas


 
−3x − 3y − 3z = −3  −3x − 3y − 3z = −9 
−2x + 2y + z = 0 y −2x + 2y + z = 1
x − 3y + 3z = 0 x − 3y + 3z = 1
 

Como decimos, no es necesario resolverlos por separado. Basta ampliar la


matriz del sistema (que es la misma para los dos) con las dos columnas de
términos independientes
 
−3 −3 −3 −3 −9
 −2 2 1 0 1 .
1 −3 3 0 1
Ahora, operando como en el ejemplo anterior, llevamos la submatriz izquierda
a la forma triangular (o diagonal si ası́ nos apetece)
 
1 −3 3 0 1
 0 −4 7 0 3 .
0 0 −15 −3 −15
Finalmente mediante sustitución regresiva resolvemos los dos sistemas

−15z = (−3, −15) ⇒ z = (1/5, 1)


−4y + 7z = (0, 3) ⇒ y = (7/20, 1)
x − 3y + 3z = (0, 1) ⇒ x = (9/20, 1)
es decir, (1/5, 7/20, 9/20) es la solución del primer sistema, y (1, 1, 1) la del
segundo.

3.9. Cálculo de la inversa de una matriz. Dada una matriz inversible M ,


el cálculo de la inversa de M puede plantearse como la resolución simultánea
de varios sistemas de ecuaciones. En efecto, pongamos que M es una matriz
3 × 3 y escribamos
 
x1 x2 x3
M −1 =  y1 y2 y3  .
z1 z2 z 3
La igualdad M M −1 = In es equivalente a las tres igualdades
 
xi
M  yi  = ~ei t
zi
i = 1, 2, 3, siendo ~ei el i-ésimo vector de la base canónica. Según lo visto en
el apartado anterior estos tres sistemas pueden resolverse simultáneamente.
Veamos un ejemplo.
Ejemplo. Vamos a calcular la inversa de la matriz
 
−3 −3 −3
M=  −2 2 1 .
1 −3 3

El cálculo de dicha inversa puede plantearse como


    
−3 −3 −3 x1 x2 x3 1 0 0
 −2 2 1   y1 y 2 y 3  =  0 1 0 
1 −3 3 z1 z2 z3 0 0 1
es decir, como la resolución simultánea de 3 sistemas de ecuaciones lineales
(uno por cada columna de M −1 ). Procedemos hasta que la matriz del sistema
TEMA 2. ALGEBRA LINEAL 19

(la submatriz izquierda) sea la identidad. De forma automática habremos


obtenido en la submatriz derecha la inversa de M .
   
−3 −3 −3 1 0 0 1 −3 3 0 0 1
 −2 2 1 0 1 0  →  −2 2 1 0 1 0  →
1 −3 3 0 0 1 −3 −3 −3 1 0 0
   
1 −3 3 0 0 1 1 0 9/4 0 −3/4 −1/2
 0 −4 7 0 1 2  →  0 −4 7 0 1 2 →

0 −12 6 1 0 3 0 0 −15 1 −3 −3
 
1 0 0 −3/20 −3/10 −1/20
 0 −4 0 7/15 −2/5 3/5  →
0 0 −15 1 −3 −3
 
1 0 0 −3/20 −3/10 −1/20
→  0 1 0 −7/60 1/10 −3/20  .
0 0 1 −1/15 1/5 1/5
Es decir  
−3/20 −3/10 −1/20
M −1 =  −7/60 1/10 −3/20  .
−1/15 1/5 1/5
Este método, pese a parecer más complicado, es de hecho uno de los que menos
operaciones requiere, lo cual resulta más evidente al tratar de hallar inversas
de matrices ’grandes’.
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
16 Calcular la inversa de las matrices
 
  −1 1 −1 1
4 2 5  1 −1 −1 1 
A= 2 2 −1  B=
 −1 −1
.
1 1 
0 −1 4
1 1 1 1

4. Cambios de Base

4.1. Cambios de base. Sean U = {~u1 , . . . , ~un } y B = {~v1 , . . . , ~vn } dos bases
del espacio Rn . Como sabemos, un vector w ~ posee coordenadas respecto de
ambas bases. El problema que nos ocupa en esta sección es como deducir unas
coordenadas a partir de las otras. En concreto pongamos
w
~ = (α1 , . . . , αn )U = (β1 , . . . , βn )B .
Pongamos tambien que (α1 , . . . , αn ) son conocidos. ¿Cómo deducimos los
valores de (β1 , . . . , βn )?
Naturalmente, para realizar este cálculo debemos conocer la relación entre las
dos bases involucradas. Pongamos que
~ui = (ui1 , . . . , uin )B .
Entonces
~ = α1 ~u1 + · · · + αn ~un
w
= α1 (u11~v1 + · · · + u1n~vn ) + · · · + αn (un1~v1 + · · · + unn~vn )
= (α1 u11 + · · · + αn un1 )~v1 + · · · + (α1 u1n + · · · + αn unn )~vn .
Por consiguiente
(β1 , . . . , βn ) = ((α1 u11 + · · · + αn un1 ), . . . , (α1 u1n + · · · + αn unn )).
20 TEMA 2. ALGEBRA LINEAL

Esta expresión puede excribirse en forma matricial del modo


    
β1 u11 . . . un1 α1
 ..   .. ..   ..  .
 . = . ... .  . 
βn u1n . . . unn αn
La matriz que aparece en esta expresión se llama matriz de cambio de base de
U a B y se denota M (U ; B). Nótese que sus columnas son las coordenadas de
los vectores de U en la base B. Por tanto la igualdad anterior puede recordarse
como
M (U ; B)(coordenadas en U) = (coordenadas en B).

4.2. El cambio inverso. Naturalmente, dadas las bases U y B de Rn ,


podemos pretender pasar de la primer a la segunda o de la segunda a la
primera. Esto implica conocer dos matrices de cambio de base: M (U ; B)
y M (B ; U). Pues bien, matrices asociadas a cambios de base inversos son
matrices inversas, es decir
M (U ; B) = M (B ; U)−1
con lo cual, conocida una de ellas, calcular la otra es inmediato.
Ejercicios.∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
17 Consideramos los vectores ~v1 = (2, 1, 3), ~v2 = (1, 1, −1), ~v3 = (0, 0, 1).
(a) Comprobar que B = {~v1 , ~v2 , ~v3 } es una base de R3 .
(b) Calcular las matrices M (C ; B) y M (B ; C).
(c) Calcular las coordenadas de (3, 2, 1) en B. Calcular las coordenadas de
(3, 2, 1)B en C.

5. Aplicaciones Lineales

5.1. Aplicaciones. Una aplicación (o función) f de Rn en Rm (abreviada-


mente f : Rn −→ Rm ) es una regla que asocia a cada elemento ~v de Rn un
elemento f (~v ) de Rm (también llamado imagen de ~v ).
Decimos que la aplicación f es inyectiva si cada par de elementos distintos
~u, ~v ∈ Rn poseen imágenes distintas, f (~u) 6= f (~v ). Decimos que es suprayectiva
si cada elemento w ~ ∈ Rm es imágen de algún elemento de Rn . Finalmente,
decimos que es biyectiva si es simultáneamente inyectiva y suprayectiva. Si f
es biyectiva, podemos considerar su inversa f −1 , definida de la manera obvia:
f −1 (w)
~ = ~v si f (~v ) = w.
~
Ejemplo. Consideremos la aplicaciones f, g : R −→ R definidas como f (x) =
cos(x), g(x) = x3 . f no es inyectiva
√ ni suprayectiva mientras que g es biyectiva.
−1
La inversa de g es g (x) = x. 3

Dadas dos aplicaciones f : Rn −→ Rm y g : Rm −→ Rp , llamamos composición


de f y g a la aplicación g ◦ f : Rn −→ Rp definida por (g ◦ f )(~v ) = g(f (~v )).
Claramente, si f es biyectiva se verifica que f −1 ◦ f = f ◦ f −1 = id, siendo id
la aplicación identidad, id(~v ) = ~v .
Ejemplo. Dadas la aplicaciones f, g del ejemplo anterior, (f ◦ g)(x)√= cos(x3 )
3
◦ f )(x) = (cos(x))3 . Obviamente (g −1 ◦ g)(x) = x3 = x y
mientras que (g√
−1 3
(g ◦ g )(x) = ( x) = x.
3

5.2. Aplicaciones lineales. Una aplicación f : Rn −→ Rm es lineal si respeta


las operaciones naturales de Rn y Rm , es decir si para cualesquiera ~u, ~v ∈ Rn ,
λ ∈ R se verifica que
• f (~u + ~v ) = f (~u) + f (~v ); y
• f (λ~v ) = λf (~v ).
TEMA 2. ALGEBRA LINEAL 21

Ejemplos.

(1) f : R3 → R3 definida por f (x, y, z) = (2x + y − z, x − y, z), es lineal.


(2) f : R → R definida por f (x) = cos x no es lineal.

De hecho, una aplicación f : Rn −→ Rm es lineal si cada componente de f (~x)


es una combinación lineal de las coordenadas de ~x. Una de las más importantes
propiedades de las aplicaciones lineales es la siguiente.
Teorema. Una aplicación lineal f : Rn −→ Rm queda determinada por las
imágenes de los vectores de una base de Rn .
Es decir, dada una base B = {~v1 , . . . , ~vn } de Rn , conocer f (~v1 ), . . . , f (~vn )
equivale a conocer f (~v ) para cualquier vector ~v ∈ Rn . En efecto, por ser B
una base podemos escribir
~v = λ1~v1 + · · · + λn~vn
y por las propiedades de linealidad de f
f (~v ) = λ1 f (~v1 ) + · · · + λn f (~vn ).

Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼

18 Estudiar cuáles de las siguientes aplicaciones son lineales:


(a) f : R3 → R, dada por f (x, y, z) = ax + by + cz, donde a, b, c ∈ R.
(b) f : R → R, dada por f (x) = x2 . √
(c) f : R2 → R3 , dada por f (x, y) = (2x − y, 39x + 27y, − 2x + πy)
19 Consideremos la base canónica C = {~e1 , ~e2 , ~e3 } de R3 y la aplicación lineal
f : R3 → R3 determinada por f (~e1 ) = (1, 1, 1), f (~e2 ) = (1, 0, 1) y f (~e3 ) =
(1, −1, 0). Calcular f (1, 2, 3).

5.3. Escritura matricial. En virtud del Teorema del apartado anterior, las
matrices pueden usarse para representar aplicaciones lineales. En efecto, sea
f : Rn −→ Rm una aplicación lineal y sea C = {~e1 , . . . , ~en } la base canónica
de Rn . Si ~v = (λ1 , . . . , λn )C entonces, como sabemos,
f (~v ) = λ1 f (~e1 ) + · · · + λn f (~en ).
Esta igualdad puede expresarse matricialmente como
 
 
  λ1
f (~v ) =  f (~e1 )
 f (~e2 ) ··· f (~en )   .. 


 . 
λn

donde la columna i-ésima de la matriz está formada por las coordenadas f (~ei ).
La matriz que aparece en la fórmula se llama matriz de f y se denota por M (f ).
Como hemos visto, proporciona las coordenadas de f (~v ) una vez conocidas las
coordenadas de ~v .
Ejemplo. Retomemos los datos del Ejercicio 19 . La matriz de la aplicación
f es
 
1 1 1
M (f ) =  1 0 −1 
1 1 0
luego
    
1 1 1 1 6
f (1, 2, 3)t =  1 0 −1   2  =  −2  .
1 1 0 3 3
22 TEMA 2. ALGEBRA LINEAL

5.4. Composición de aplicaciones. La composición de aplicaciones lineales


se corresponde se con el producto de matrices. En concreto, dadas aplicaciones
lineales f : Rn −→ Rm y g : Rm −→ Rp , se verifica que
M (g ◦ f ) = M (g)M (f ).

6. Endomorfismos. Diagonalización

6.1. Endomorfismos. Las aplicaciones lineales más importantes son aquellas


en que los espacios de salida y llegada son iguales, es decir las del tipo f :
Rn −→ Rn . Estas aplicaciones reciben el nombre de endomorfismos. A su vez,
el tipo más importante de endomorfismos son los biyectivos (en algunos libros,
un endomorfismo biyectivo recibe el nombre de isomorfismo). La condición
de biyectividad para un endomorfismo f puede evaluarse muy fácilmente a
partir de su matriz. En efecto, como consecuencia del teorema de Rouché-
Frobenius, f es biyectivo si sólo si det(M (f )) 6= 0. En este caso, f posee
una aplicación inversa f −1 que es también lineal y biyectiva y cuya matriz es
M (f −1 ) = M (f )−1 .

6.2. Más cambios de base. Dado un endomorfismo f : Rn −→ Rn hasta


ahora hemos introducido la matriz de f cuando en el espacio se considera
la base canónica C. Del mismo modo, dada una base cualquiera B, puede
considerarse la matriz M (f )B que, a partir de las coordenadas de un vector
~u en B proporciona las coordenadas de f (~u) también en B. Veamos como
podemos deducir M (f )B a partir de M (f ) = M (f )C .
Supongamos pues conocida M (f )C y sea ~u = (λ1 , . . . , λn )B un vector del espa-
cio. Para abreviar denotemos por ~uB las coordenas de ~u en B. Para calcular
f (~u) utilizando la información que proporciona M (f )C , en primer lugar debe-
mos determinar las coordenadas de ~u en la base canónica. Claramente estas
son
~utC = M (B ; C)~utB .
Por lo tanto, la imagen de ~u mediante la aplicación f es
M (f )C ~utC = M (f )C (M (B ; C)~utB ).
Ahora bien, esta operación proporciona las coordenadas de f (~u) en la base
canónica, mientras que la matriz que buscamos debe proporcionarlas direc-
tamente en la base B. El último paso debe ser, por lo tanto, traducir estas
coordenadas canónicas a coordenadas en C. Esto lo conseguimos con la matriz
de cambio de base M (C ; B). Las coordenas en B de f (~u) son finalmente
f (~u)tB = M (C ; B)(M (f )C (M (B ; C)~utB )
= (M (C ; B)M (f )C M (B ; C))~utB .
Con todo esto, hemos probado que M (f )B = M (C ; B)M (f )C M (B ; C).
Habitualmente escribiremos P = M (B ; C), con lo que la fórmula anterior
adquiere la expresión más simple M (f )B = P −1 M (f )C P .
Ejemplo. Sea F : R3 −→ R3 la aplicación lineal que definimos en el Ejercicio
19 . Su matriz (en la base canónica) es
 
1 1 1
M (f )C =  1 0 −1  .
1 1 0
Sea B = {~v1 , ~v2 , ~v3 } la base introducida en el Ejercicio 17 . Calculemos la
matriz de f respecto de la base B. Según hemos visto
M (f )B = M (C ; B)M (f )C M (B ; C).
TEMA 2. ALGEBRA LINEAL 23

Por otro lado, en virtud de los cálculos realizados en el Ejercicio 17 ,


   
1 −1 0 2 1 0
M (C ; B) =  −1 2 0  , M (B ; C) =  1 1 0 .
−4 5 1 3 −1 1
Ası́ pues
   
1 −1 0 1 1 1 2 1 0
M (f )B =  −1 2 0   1 0 −1   1 1 0 
−4 5 1 1 1 0 3 −1 1
 
7 −1 2
=  −8 3 −3  .
−26 8 −9
Supongamos ahora que deseamos calcular f (~u) para cierto vector ~u del que
conocemos sus coordenadas en B, pongamos ~u = (−4, 6, 7)B . Para ello efectu-
amos el producto
    
7 −1 2 −4 −20
 −8 3 −3   6  =  29  .
−26 8 −9 7 89
Por tanto f (~u) = (−20, 29, 89)B .

6.3. Diagonalización de un endomorfismo. Sea f : Rn → Rn un endo-


morfismo. Como hemos visto, cada base B de Rn proporciona una matriz
M (f )B . Es natural preguntarse por la base del espacio en la cual la matriz
asociada a f sea lo más simple posible. Lo que quizá no es demasiado fácil
es decidir cuando una matriz es más ’simple’ que otra. En todo caso, pode-
mos convenir en que una de las matrices más simples es la identidad, In . Sin
embargo, no podemos aspirar, en general, a encontrar una base respecto de
la cual la matriz de f sea In , puesto que esto sólo sucede para f = id. Otro
tipo de matrices muy simples (’parecidas’ a la identidad) son las diagonales.
El problema de la diagonalización consiste en lo siguiente: dado un endomor-
fismo f de Rn decidir si existe alguna base B del espacio en la cual M (f )B sea
diagonal y, en tal caso, encontrarla.
Alternativamente, este problema puede plantearse en términos estrictamente
matriciales: dada una matriz cuadrada M ∈ Mn×n , decidir si existe alguna
matriz inversible P tal que P −1 M P sea diagonal y, en tal caso, encontrarla.
El resto del capı́tulo está dedicado a estudiar este problema.

6.4. Autovalores y autovectores. Supongamos que dada la aplicación f ,


disponemos ya de una base B = {~v1 , . . . , ~vn } en la cual M (f )B es diagonal.
Pongamos
 
λ1
 λ2 
M (f )B = 
 
.. 
 . 
λn
(donde, eventualmente, alguno de los λi puede ser 0). Evaluemos el com-
portamiento de f sobre los vectores de la base B. Como ~v1 = (1, 0, . . . , 0)B
y
    
λ1 1 λ1
 λ2  0   0 
  ..  =  .. 
    
 ..
 .   .   . 
λn 0 0
24 TEMA 2. ALGEBRA LINEAL

se verifica que f (~v1 ) = λ1~v1 . Análogamente f (~vi ) = λi~vi para cualquier otro
vector de la base. Por consiguiente, los vectores de la base B son tales que su
imagen por f es un múltiplo de sı́ mismos.
Definición. Diremos que ~v es un autovector (o un vector propio) de f (o de
la matriz M ) si existe un escalar λ tal que f (~v ) = λ~v (respectivamente, tal
que M~v t = λ~v t ). Diremos que λ ∈ R es un autovalor (o valor propio) de f (o
de M ) si existe un vector ~v 6= ~0 tal que f (~v ) = λ~v (respectivamente, tal que
M~v t = λ~v t ).
Como consecuencia inmediata de los razonamientos anteriores, obtenemos la
siguiente caracterización.
Teorema. Una aplicación lineal f : Rn → Rn es diagonalizable si y sólo si
existe una base de Rn formada por vectores propios de f .
En secciones sucesivas veremos como evaluar la condición de este teorema.
Aunque nuestro objetivo son los vectores propios, conviene comenzar expli-
cando como calcular los valores propios. Posteriormente determinaremos los
autovectores a partir de los autovalores a los que están asociados.

6.5. Calculando los autovalores de un endomorfismo. Sea pues f un


endomorfismo de Rn y M la matriz de f en alguna base. Recordemos que λ
es un autovalor de f si existe un vector ~v 6= ~0 tal que M~v t = λ~v t . Pasando
todos los términos al miembro izquierdo, esta condición es equivalente a que
(M − λIn )~v t = ~0t , es decir, a que ~v sea una solución no nula del sistema lineal
homogéneo (M − λIn )~xt = ~0t . Como recordamos, este sistema tiene solución
no trivial si y sólo si el determinante de la matriz del sistema vale 0,
det(M − λIn ) = 0.
Al desarrollar el miembro izquierdo de la expresión anterior aparece un poli-
nomio en λ de grado n, que se llama polinomio caracterı́stico de M y se denota
pM (λ). Por tanto, las raı́ces de este polinomio son precisamente los autovalores
de f .
Notas. (1) Las raı́ces del polinomio caracterı́stico son n números en general
complejos. En este curso sólo tratamos con números reales, luego sólo consi-
deraremos autovalores a las raı́ces reales de pM (λ). (2) Para la obtención de
pM (λ) hemos partido de la matriz de f en una cierta base del espacio. En
cualquier otra base de Rn el polinomio obtenido serı́a justamente el mismo
(aun cuando la matriz de f sea distinta). Por este motivo, también podemos
denotar el polinomio caracterı́stico como pf (λ).
Ejemplo. Vamos a calcular los autovalores de la matriz
 
1 0 0 0
 −1 0 1 −1 
M =  0

1 2 0 
0 −1 1 1
Comenzamos determinando el polinomio caracterı́stico

1−λ 0 0 0
−λ 1 −1
−1 −λ 1 −1
|M − λI4 | = = (1 − λ) 1 2 − λ 0
0 1 2−λ 0
−1

1 1 − λ
0 −1 1 1−λ
= (1 − λ)(−λ3 + 3λ2 − 4)

luego pM (λ) = (1 − λ)(−λ3 + 3λ2 − 4). Los autovalores de M son las raı́ces
reales de pM (λ). Estas raı́ces son 1, 2 (doble) y −1.
Llamaremos multiplicidad algebraica de un autovalor λ a su multiplicidad como
raı́z del polinomio caracterı́stico. En el ejemplo anterior −1 y 1 son autovalores
de multiplicidad 1, mientras que 2 es un autovalor de multiplicidad 2.
TEMA 2. ALGEBRA LINEAL 25

6.6. Calculando los autovectores de un endomorfismo. Una vez deter-


minados los autovalores, calcularemos los vectores propios asociados a cada
uno. La unión de todos ellos nos proporcionará los vectores propios de f .
Si λ es un autovalor de f , llamamos subespacio propio asociado a λ, y lo deno-
tamos por V (λ), al conjunto (subespacio vectorial) de todos los autovectores
asociados a λ, es decir
V (λ) = {~v ∈ Rn | f (~v ) = λ~v }.
Obsérvese que una vez conocido λ, la condición f (~v ) = λ~v (o equivalentemente
(M −λI)~v = ~0, siendo M = M (f )C ) proporciona directamente unas ecuaciones
implı́citas de V (λ).
Ejemplo. Dada la matriz M del ejemplo anterior, calculemos el conjunto de
vectores propios asociados al autovalor λ = 2. V (2) es el conjunto de vectores
(x, y, z, t) que son soluciones del sistema de ecuaciones
    
1 0 0 0 x 2x
 −1 0 1 −1    y  =  2y  .
   

 0 1 2 0   z   2z 
0 −1 1 1 t 2t
Es fácil comprobar que las soluciones de este sistema son
x = 0, y = 0, z = α, t = α, (α ∈ R)
luego V (2) = {α(0, 0, 1, 1) | α ∈ R} = h(0, 0, 1, 1)i. Nótese que V (2) es un
subespacio vectorial de R4 de dimensión 1.
Llamaremos multiplicidad geométrica de un autovalor λ a la dimensión de
subespacio propio asociado a λ, V (λ). Por tanto, la multiplicidad geométrica
de λ es precisamente
dim V (λ) = n − rang(M − λIn ).

Teorema. Si λ es un autovalor de M con multiplicidad algebraica m(λ),


entonces 1 ≤ dim V (λ) ≤ m(λ).
Ejemplo. De nuevo para la matriz M del ejemplo que venimos desarrollando,
m(1) = 1, m(2) = 2, m(−1) = 1. Por tanto, según el teorema
• 1 ≤ dim V (1) ≤ 1, luego dim V (1) = 1;
• 1 ≤ dim V (2) ≤ 2, (ya hemos visto que dim V (2) = 1);
• 1 ≤ dim V (−1) ≤ 1, luego dim V (−1) = 1.
Para completar este ejemplo vamos a determinar los autovectores asociados
a los autovalores 1 y −1. V (1) es el conjunto de vectores (x, y, z, t) que son
soluciones del sistema de ecuaciones
    
1 0 0 0 x x
 −1 0 1 −1  y   y 
   =  .
 0 1 2 0  z   z 
0 −1 1 1 t t
cuyas soluciones son
x = −α, y = 0, z = 0, t = α, (α ∈ R)
luego V (1) = h(−1, 0, 0, 1)i. Finalmente V (−1) es el conjunto de soluciones
del sistema     
1 0 0 0 x −x
 −1 0 1 −1    y  =  −y  .
   

 0 1 2 0   z   −z 
0 −1 1 1 t −t
cuyas soluciones son x = 0, y = −3α, z = α, t = −2α, (α ∈ R), luego
V (−1) = h(0, −3, 1, −2)i.
26 TEMA 2. ALGEBRA LINEAL

En resumidas cuentas, hemos encontrado 3 vectores propios linealmente in-


dependientes para M . Como la dimensión del espacio es 4, estos vectores no
forman una base y la matriz no es diagonalizable.

6.7. Diagonalizando un endomorfismo. Si analizamos el ejemplo anterior


podemos concluir lo siguiente: para que la matriz M = M (f ) (o la aplicación
lineal f de Rn ) sea diagonalizable, precisamos n vectores propios linealmente
independientes, que podemos obtener de los subespacios V (λ). Vectores pro-
pios asociados a distintos autovalores son siempre linealmente independientes.
Como cada uno de los subespacios V (λ) tiene dimensión dim V (λ) ≤ m(λ), el
número total de autovalores linealmente independientes que podemos obtener
es X X
dim V (λ) ≤ m(λ) ≤ n
λ autovalor λ autovalor
donde la última desigualdad se deduce del hecho de que un polinomio de grado
n tiene a lo sumo n raı́ces reales. Por tanto, M es diagonalizable si y sólo si
cada una de las desigualdades anteriores es una igualdad, es decir, si y sólo si

• todas las raı́ces del polinomio caracterı́stico son reales; y


• para cada una de ellas λ, se verifica que dim V (λ) = m(λ).

En el caso de que M = M (f ) sea diagonalizable, según la discusión que hicimos


en el apartado 6.4, la base en que la matriz de f es diagonal es precisamente
la formada por los vectores propios, y la matriz de f en esa base tiene en la
diagonal los valores propios λ1 , . . . , λr .
En definitiva, para diagonalizar un endomorfismo procederemos como sigue:

• Para cada autovalor λi , tomamos una base de V (λi ). La unión de estas


bases nos da una base B de V .
• Escribimos las componentes de dichos vectores de forma ordenada en
columnas formando una matriz n × n. Esta matriz es P = M (B ; C).
• P −1 M P = D debe ser la matriz diagonal formada escribiendo en la
diagonal cada autovalor tantas veces como indique dim V (λi ) y res-
petando el orden de los vectores de B.

Ejemplo. Vamos a diagonalizar la matriz


 
2 2 −2
M = 2 5 −4  .
−2 −4 5
Su polinomio caracterı́stico es pM (λ) = λ3 − 12λ2 + 21λ − 10 y sus autovalores
1 y 10 con multipliciadades m(1) = 2, m(10) = 1. Además, dim V (1) = 2,
dim V (10) = 1 con lo cual la matriz es diagonalizable. Calculando, se obtiene,
V (1) = h(2, 0, 1), (−2, 1, 0)i , V (10) = h(−1, −2, 2)i.
Ası́ que
 −1     
2 −2 −1 2 2 −2 2 −2 −1 1 0 0
 0 1 −2   2 5 −4   0 1 −2  =  0 1 0  .
1 0 2 −2 −4 5 1 0 2 0 0 10
Nótese que si cambiamos el orden de los vectores de la base de autovectores,
entonces P −1 M P sigue siendo una matriz diagonal, pero el orden de los au-
tovalores en su diagonal cambia solidariamente. Por ejemplo, si
 
−1 2 −2
P =  −2 0 1 
2 1 0
TEMA 2. ALGEBRA LINEAL 27

entonces  
10 0 0
P −1 AP =  0 1 0  .
0 0 1

Hay dos casos importantes de matrices que son siempre diagonalizables:


• Las que tiene todos sus autovalores simples.
• Las simétricas.
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
20 Hallar el polinomio caracterı́stico de cada una de las siguientes matrices y
comprobar si son diagonalizables. En caso afirmativo, hallar la forma diagonal
y las matrices P , P −1 .
 
2 1 0 0  
  4 −3 −2
0 −1  −2 −1 0 0 
 C =  4 −3 −4  .
A= B=
1 0  1 2 2 1 
−3 3 5
1 1 −1 0

21 Determinar para qué valores de α y β es diagonalizable la matriz


 
5 0 0
M =  0 −1 β  .
3 0 α

6.8. Diagonalización ortogonal. En algunas ocasiones interesa dia-


gonalizar una matriz M de manera que la base de autovectores considerada
sea ortonormal (o equivalentemente, que la matriz de paso P sea ortogonal).
Esto no siempre es posible. En efecto, en cada uno de los subespacios V (λ)
podemos tomar siempre una base ortonormal, pero vectores propios asocia-
dos a distintos autovalores no tienen por que ser ortogonales. Cuando esto sı́
sucede, diremos que M admite una diagonalización ortogonal. Por ejemplo,
las matrices simétricas admiten siempre diagonalización ortogonal.
Ejemplo. La matriz M del último ejemplo es simétrica. Vamos a dia-
gonalizarla ortogonalmente. Para ello basta encontrar una base ortogonal de
autovectores y posteriomente normalizarla. Como hemos visto, sus espacios
de autovectores son
V (1) = h(2, 0, 1), (−2, 1, 0)i , V (10) = h(−1, −2, 2)i.
Nótese que cualquier autovector de V (1) es ortogonal a cualquier vector de
V (10), ya que
(2α − 2β, β, α) • (−1, −2, 2) = 0.
Como se ha dicho, esto siempre sucede para matrices simétricas. Busquemos
ahora una base ortogonal de V (1) y ampliemosla con el vector (−1, −2, 2).
Para encontrar tal base ortogonal de V (1) mantenemos como primer vector
a (2, 0, 1), y buscamos otro vector en V (1) que sea ortogonal a él. Para ello
imponemos
(2, 0, 1) • (2α − 2β, β, α) = 5α − 4β = 0.
Por tanto basta tomar α = 4, β = 5. La base ortogonal del autovectores es
{(2, 0, 1), (−2, 5, 4), (−1, −2, 2)}. Una vez normalizados estos vectores, la base
ortonormal es { √15 (2, 0, 1), √145 (−2, 5, 4), 13 (−1, −2, 2)}.
Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
22 Diagonalizar ortogonalmente la matriz
 
0 1 1
A =  1 0 1 .
1 1 0
28 TEMA 2. ALGEBRA LINEAL

6.9. Una aplicación de la diagonalización. La diagonalización posee nu-


merosas aplicaciones. Algunas de serán vistas en temas posteriores de este
curso o en el curso próximo. Por el momento vamos a exponer una muy
simple: el cálculo rápido de potencias elevadas de una matriz.
Sea A una matriz cuadrada y supongamos que deseamos calcular Ak para un
exponente k grande. Si A es diagonalizable, existen una matriz P inversible
y otra matriz D diagonal tales que D = P −1 AP o, equivalentemente, A =
P DP −1 . Por tanto
Ak = (P DP −1 )(P DP −1 ) · · · (P DP −1 )
= P D(P −1 P )D(P −1 P ) · · · (P −1 P )DP −1
= P Dk P −1
y el cálculo de la potencia k-ésima de A se reduce al de la potencia k-ésima
de D. Ahora bien, siendo ésta una matriz diagonal, pongamos
 
λ1
D=
 .. 
. 
λn
fácilmente se comprueba que
 
λk1
Dk = 
 .. 
. 
λkn
y para calcular Ak sólo son precisas dos multiplicaciones.
Ejemplo. Calculemos la potencia k-ésima de la matriz
 
2 2 −2
A= 2 5 −4  .
−2 −4 5
En un ejemplo anterior ya vimos que
   
1 0 0 2 −2 −1
P −1 AP =  0 1 0  con P = 0 1 −2 
0 0 10 1 0 2
Calculando P −1 se obtiene
 
2 4 5
1
P −1 = −2 5 4 
9 −1 −2 2
luego
 
1 0 0
Ak = P Dk P −1 = P  0 1 0  P −1
0 0 10k
8 + 10k −2 + 2 · 10k 2 − 2 · 10k
 
1
= −2 + 2 · 10k 5 + 4 · 10k 4 − 4 · 10k  .
9
2 − 2 · 10k 4 − 4 · 10k 5 + 4 · 10k

Ejercicios. ∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼∼
23 Calcular A1000 siendo
 
0 1 1
A= 1 0 1 .
1 1 0
TEMA 2. ALGEBRA LINEAL 29

Soluciones de los Ejercicios Propuestos

1 Si ~u = λ1~v1 + · · · + λn~vn = µ1~v1 + · · · + µn~vn son dos escrituras distintas de ~u,


entonces ~0 = ~u − ~u = (λ1 − µ1 )~v1 + · · · + (λn − µn )~vn . Como algún coeficiente λi − µi
es no nulo, concluimos que S es ligado.
2 Si ~u, ~v ∈ L, entonces estos vectores tendrán coordenadas de la forma ~u = (α +
β, α, β), ~v = (γ + δ, γ, δ), luego ~u + ~v = ((α + γ) + (β + δ), α + γ, β + δ) ∈ L, y
λ~u = (λ(α + β), λα, λβ) ∈ L con lo que L es un subespacio. Además como (α +
β, α, β) = α(1, 1, 0) + β(1, 0, 1), se verifica que L = h(1, 1, 0), (1, 0, 1)i. Finalmente, las
ecuaciones paramétricas de L son

x = α+β 
x = α α, β ∈ R.
z = β

3 Si S es una base, entonces S es libre y generador. Si no fuera maximal, existirı́a


un vector ~u tal que S ∪ {~u} = {~v1 , . . . , ~vm , ~u} serı́a libre. Ahora bien, por ser S
generador resulta que ~u = λ1~v1 + · · · + λn~vn , lo que contradice que S ∪ {~u} sea libre.
Recı́procamente, veamos que si S es libre maximal entonces también es generador
(con lo cual será una base). Sea ~u un vector cualquiera. Veamos que ~u ∈ hSi.
Como el conjunto S ∪ {~u} es ligado (puesto que S es libre maximal), se verifica que
λ0 ~u + λ1~v1 + · · · + λn~vn = ~0 con λ0 6= 0 (sino λ1~v1 + · · · + λn~vn = ~0 en contradicción
con el hecho de que S es libre). Despejando ~u obtenemos ~u = λ10 (λ1~v1 + · · · + λn~vn ).
Para equivalencia con los sistemas generadores minimales el razonamiento es similar.
4 (a) Dado que consideramos 3 vectores de R3 , para comprobar que forman una
base, basta ver, bien que son linealmente independientes o bien que son generadores.
Veamos que son linealmente independientes. Si α(2, 1, 3) + β(1, 1, −1) + γ(0, 0, 1) =
(0, 0, 0) entonces, desarrollando esta igualdad coordenada a coordenada,

2α +β = 0 
α +β = 0 .
3α −β +γ = 0

La única solución de este sistema es la trivial: α = β = γ = 0. Por tanto, los vectores


son linealmente independientes y forman una base.
(b) (−1, 0, 1) = (α, β, γ)B significa que (−1, 0, 1) = α(2, 1, 3) + β(1, 1, −1) + γ(0, 0, 1)
lo que, como antes, conduce al sistema de ecuaciones

2α +β = −1 
α +β = 0
3α −β +γ = 1

cuya solución es α = −1, β = 1, γ = 5. Por tanto (1, 0, 1) = (−1, 1, 5)B . Análogamente


(1, 2, −3) = (−1, 3, 3)B .
(c) (−1, 0, 1)B = (α, β, γ)C significa que (α, β, γ) = −1(2, 1, 3) + 0(1, 1, −1) + 1(0, 0, 1).
Operando (−1, 0, 1)B = (−2, −1, −2). Análogamente (1, 2, −3)B = (4, 3, −2)B .
5 det(A) = −68, det(B) = 61.
6 (a) Sean ~c1 , . . . , ~cn las columnas de A. El elemento en la posición (i, j) de At A es
el producto escalar de la fila i de At (que es el vector ~ci ) por la columna j de A (que
es el vector ~cj ). Ahora bien, A es ortogonal si y sólo si At A = In , es decir si y sólo si

1 si i = j;
~ci • ~cj =
0 si i 6= j;
si y sólo si {~c1 , . . . , ~cn } es una base ortonormal.
(b) Si At A = In , entonces 1 = det(At A) = det(At ) det(A) = det(A)2 , luego det(A) =
±1. El recı́proco no es cierto. Por ejemplo, la matriz
 
1 0
1 1
tiene determinante 1 pero no es ortogonal.
30 TEMA 2. ALGEBRA LINEAL

8 rang(A) = 3, rang(B) = 2.
9 La dimensión de L coincide con el rango de la matriz que tiene como filas a ~u, ~v , w,
~
es decir,  
1 2 0
dim(L) = rang  0 3 2  = 2.
2 7 2
Una base de L se obtiene eliminando del conjunto generador {~u, ~v , w} ~ los vectores (el
vector en este caso, puesto que dim(L) = 2) que son linealmente dependientes de los
demás. Por ejemplo w ~ es combinación lineal de ~u, ~v , luego {~u, ~v } es una base de L.
Calculemos unas ecuaciones implı́citas de L. Un vector ~x = (x, y, z) está en L si es
combinación lineal de ~u y ~v , es decir si el conjunto {~u, ~v , ~x} es ligado. Esto sucede
cuando  
1 2 0
rang  0 3 2  = 2
x y z
es decir, cuando el determinante de esta matriz vale 0. Calculando el determinante,
esta condición queda 4x − 2y + 3z = 0. Esta es una ecuación implı́cita de L.
10 Consideremos el sistema (S) : A~xt = ~bt . Buscar soluciones de (S) equivale a
buscar las combinaciones lineales de las columnas de A que nos den ~bt . Por tanto,
el sistema tiene solución si ~b es combinación lineal de las columnas de A, es decir, si
rang(A) = rang(A∗ ). En tal caso, la solución es única si lo es la escritura de ~b como
combinación lineal de las columnas de A. Hemos visto que esto sucede si las columnas
de A son linealmente independientes, es decir si el rango de A coincide con el número
de columnas de A.
11 Sean A la matriz del sistema y A∗ la matriz ampliada, es decir
   
1 2 1 1 2 1 2
A =  1 1 2  , A∗ =  1 1 2 3 .
1 2 1 1 2 1 b
Fácilmente se comprueba que rang(A) = 2. Por ejemplo, la tercera columna de A es
combinación de las dos primeras. Por tanto
 
1 2 2
rang(A∗ ) = rang  1 1 3 .
1 2 b
Ahora bien, como  
1 2 2
det  1 1 3 =b−2
1 2 b
se verifica que rang(A) = rang(A∗ ) si y sólo si b = 2. En consecuencia el sistema tiene
solución si b = 2. En tal caso rang(A) = 2 < n = 3, luego la solución no es única.
12 Si A es una matriz cuadrada n × n y det(A) 6= 0 entonces rang(A) = n. Como
rang(A∗ ) ≥ rang(A) y rang(A∗ ) ≤ n (puesto que A∗ tiene n filas), necesariamente
rang(A) = rang(A∗ ) = n y el sistema A~xt = ~bt tiene solución única.
13 En el Ejercicio 10 comprobamos que el sistema tiene solución cuando
b = 2. En este caso la tercera ecuación es redundante y puede ser elimi-
nada. Haciendo esto obtenemos un sistema de dos ecuaciones con tres incogni-
tas. La dimensión del espacio de soluciones del sistema es (número de incógnitas) −
(número de ecuaciones independientes) = 3 − 2 = 1. En efecto, también hemos visto
que la tercera columna de la matriz del sistema original es combinación lineal de
las otras dos. Por consiguiente, la tercera incognita, z, puede pasarse al término
inpendiente de la derecha como parámetro, z = λ ∈ R. Llegamos ası́ al sistema

x +2y = 2−λ
x +y = 3 − 2λ
cuyas soluciones dependen de un parámetro

x = −2 + λ
.
y = −1 + λ
TEMA 2. ALGEBRA LINEAL 31

14 Solución: (a) x = 2, y = −1, z = 4. (b) x = −10−7λ, y = 2−λ, z = λ, t = −8−4λ.

15 (a) 7 y 5 ovejas. (b) Denotemos por a, b y c los precios de la limonada, el bocadillo


y el bizcocho, respectivamente, y sea d = a + b + c el precio que queremos calcular.
Los datos del problema llevan al sistema de ecuaciones (donde todo el dinero se ha
traducido a peniques)

a +3b +7c = 14 
a +4b +10c = 17
a +b +c = d

Tratando el sistema por el método de Gauss, transformamos la última ecuación en


0a + 0b + 0c = d − 8. Como sabemos que el sistema tiene solución, necesariamente
d − 8 = 0, luego d = 8 peniques. [Alternativamente, y si se prefiere, como el sistema
anterior es compatible, el rango de la matriz del sistema coincide con el rango de la
matriz ampliada. Esto sucede cuando d = 8.]
16 Solución:
 
  −1/4 1/4 −1/4 1/4
7/2 −13/2 −6  1/4 −1/4 −1/4 1/4 
A =  −4 8 7  B=
 −1/4 −1/4
.
1/4 1/4 
−1 2 2
1/4 1/4 1/4 1/4

17 (a) Para probar que B es una base basta comprobar que el determinante de la
matriz que tiene como columnas a ~v1 , ~v2 , ~v3 , es no nulo. Ahora bien, como se calcula
fácilmente  
2 1 0
det  1 1 0  = 1.
3 −1 1
(b) Según lo visto en los apartados 4.1 y 4.2,
 
2 1 0
M (B ; C) =  1 1 0 
3 −1 1
 
1 −1 0
M (C ; B) = M (B ; C)−1 =  −1 2 0 .
−4 5 1
(c) Para calcular las coordenadas de (3, 2, 1)C en B hacemos
      
3 1 −1 0 3 1
M (C ; B)  2  =  −1 2 0  2  =  1 
1 −4 5 1 1 −1
es decir, (3, 2, 1)C = (1, 1, −1)B . Análogamente, para calcular las coordenadas de
(3, 2, 1)B en C hacemos
      
3 2 1 0 3 8
M (B ; C)  2  =  1 1 0  2  =  5 
1 3 −1 1 1 8
es decir, (3, 2, 1)C = (8, 5, 8)B .
18 (a) y (c) son lineales. (b) no lo es puesto que f (x + y) = (x + y)2 6= x2 + y 2 =
f (x) + f (y).
19 f (1, 2, 3) = 1f (1, 0, 0)+2f (0, 1, 0)+3f (0, 0, 1) = (1, 1, 1)+2(1, 0, 1)+3(1, −1, 0) =
(6, −2, 3).
20 (a) El polinomio caracterı́stico de A es pA (λ) = λ2 + 1, cuyas raı́ces son los
números complejos ±i. Por consiguiente A no es diagonalizable.
(b) El polinomio caracterı́stico de B es pB (λ) = λ4 − 3λ3 + 3λ2 − λ, cuyas raı́ces son
0 (simple) y 3 (triple). Los espacios de autovectores asociados a estos autovalores son
V (0) = h(−1, 2, 1, −5)i y V (1) = h(0, 0, −1, 1)i. Por consiguiente B no es diagonali-
zable.
(c) El polinomio caracterı́stico de C es pC (λ) = λ3 −6λ2 +11λ−6, cuyas raı́ces son 1,2 y
3 (todas ellas simples). Por tener todos sus autovalores distintos, C es diagonalizable.
32 TEMA 2. ALGEBRA LINEAL

Los espacios de autovectores asociados a estos autovalores son V (1) = h(1, 1, 0)i,
V (2) = h(1, 0, 1)i y V (3) = h(0, −2, 3)i. Por consiguiente, la matriz de paso P es
   
1 1 0 −2 3 2
P =  1 0 −2  con lo que P −1 =  3 −3 −2  .
0 1 3 −1 1 1
Finalmente, la forma diagonal de C es
     
−2 3 2 4 −3 −2 1 1 0 1 0 0
P −1 CP =  3 −3 −2   4 −3 −4   1 0 −2  =  0 2 0 .
−1 1 1 −3 3 5 0 1 3 0 0 3

21 El polinomio caracterı́stico de M es pM (λ) = (λ + 1)(λ − 5)(λ − α), cuyas


raı́ces son −1, 5 y α. Por tanto, si α 6= −1, 5, entonces M tiene tres autovalores
distintos y es diagonalizable. Si α = −1, entonces el autovalor −1 es doble. Como
dim(V (−1)) = 2 si β = 0 y dim(V (−1)) = 1 si β 6= 0, en este caso M es diagonalizable
cuando β = 0. Finalmente, si α = 5, entonces el autovalor 5 es doble, mientras que
dim(V (5)) = 3 − rang(M − 5I3 ) = 1. Por consiguiente, en este caso M tampoco es
diagonalizable. En definitiva, M es digonalizable si y sólo si α 6= −1, 5 o si α = −1 y
β = 0.
22 El polinomio caracterı́stico de A es pA (λ) = λ3 − 3λ − 2, cuyas raı́ces son 2
(simple) y −1 (doble). Los espacios de autovectores asociados a estos autovalores son
V (2) = h(1, 1, 1)i y V (−1) = h(−1, 0, 1), (−1, 1, 0)i. Vamos a obtener a partir de ellos
una base ortogonal de autovectores, que luego normalizaremos. Por ser A diagonal,
cualquier autovalor de V (2) es ortogonal a cualquier autovector de V (−1) (como se
puede comprobar inmediatamente).
Para ello buscaremos una base ortogonal de V (−1) y la ampliaremos con el vector
(1, 1, 1). Para encontrar tal base ortogonal de V (−1) mantenemos como primer vector
a (−1, 0, 1), y buscamos otro vector de V (−1) que sea ortogonal a él. Como V (−1) =
{(−α − β, β, α) | α, β ∈ R}, para ello imponemos
(−1, 0, 1) • (−α − β, β, α) = 2α + β = 0.
Por tanto basta tomar α = 1, β = −2 y (1, −2, 1) como segundo vec-
tor de la base de V (−1). Ası́, la base ortogonal del autovectores es
{(1, 1, 1), (−1, 0, 1), (1, −2, 1)}. Una vez normalizados estos vectores, la base ortonor-
mal es { √13 (1, 1, 1), √12 (−1, 0, 1), √16 (1, −2, 1)}. La matriz de paso, P es
 √ √ √ 
1/√3 −1/ 2 1/√6
P =  1/√3 √0 −2/√6

1/ 3 1/ 2 1/ 6
con lo que  √ √ √ 
1/√3 1/ 3 1/√3
P −1 = P t =  −1/√2 √0 1/√2
.
1/ 6 −2/ 6 1/ 6
Finalmente, la forma diagonal de C es D = P −1 CP
 √ √ √   √ √ √ 
1/√3 1/ 3 1/√3 0 1 1 1/√3 −1/ 2 1/√6
 −1/ 2
√0 −2/√6
  1 0 1   1/ 3
√ √0 1/√2 √

1/ 6 −2/ 6 1/ 6 1 1 0 1/ 3 1/ 2 1/ 6
 
2 0 0
=  0 −1 0 .
0 0 −1

23 En el Ejercicio 22 hemos diagonalizado ortogonalmente la matriz A. Podemos


utilizar esta diagonalización para calcular A1000 , aunque es preferible usar una diago-
nalización no ortogonal, dado que la cantidad de radicales que aparecen en la expresión
que hemos encontrado hace el cálculo incómodo. Ası́ pues utilizaremos una diago-
nalización no ortogonal, a partir de los vectores propios encontrados inicialmente, es
decir, mediante las matrices
   
1 −1 −1 1/3 1/3 1/3
P = 1 0 1  y consecuentemente P −1 =  −1/3 −1/3 2/3  .
1 1 0 1/3 2/3 −1/3
TEMA 2. ALGEBRA LINEAL 33

Por tanto, A1000 = P D1000 P −1 ,


   1000  
1 −1 −1 2 0 0 1/3 1/3 1/3
A1000 =  1 0 1  0 1 0   −1/3 −1/3 2/3 
1 1 0 0 0 1 1/3 2/3 −1/3
 1000
+ 2 21000 − 1 21000 − 1

2
=  21000 − 1 21000 + 2 21000 − 1  .
21000 − 1 21000 − 1 21000 + 2

S-ar putea să vă placă și