Documente Academic
Documente Profesional
Documente Cultură
ALGEBRA LINEAL
E.T.S.I.T.
17 de septiembre de 2010
Contenidos
1. Preliminares 3
1.1. Números complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3. Números combinatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
4. Espacios euclı́deos 75
4.1. Ejemplo introductorio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
4.2. Producto escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
1
4.3. Sistemas y bases ortogonales y ortonormales . . . . . . . . . . . . . . . . . . . . . . 79
4.4. Método de ortogonalización de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . 81
4.5. Subespacio ortogonal a uno dado y proyección ortogonal sobre un susbespacio . . . 83
4.6. Problemas de ajuste . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.6.1. Ejemplo 1. Sistemas sobredeterminados . . . . . . . . . . . . . . . . . . . . 87
4.6.2. Ejemplo 2. Aproximación trigonométrica . . . . . . . . . . . . . . . . . . . . 88
4.6.3. Ejemplo 3. Aproximación con polinomios . . . . . . . . . . . . . . . . . . . 91
4.7. Apéndice. Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.7.1. Formas bilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
4.7.2. Formas cuadráticas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
4.7.3. Bases ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
4.7.4. Ley de Inercia de Sylvester. Signatura y rango . . . . . . . . . . . . . . . . 102
4.7.5. Formas definidas y semidefinidas . . . . . . . . . . . . . . . . . . . . . . . . 103
2
Tema 1
Preliminares
Este capı́tulo preliminar presenta una serie de herramientas que utilizaremos a lo largo del
curso. Es necesario que todo lo que aquı́ se explica sobre los números complejos, los polinomios
y los números combinatorios se asimile como algo que va a ser manejado a lo largo del curso.
Definición y propiedades
Denotamos por R al conjunto de los números reales. La definición de los números complejos
puede hacerse de varias formas. Nosotros llamaremos número complejo z a un par ordenado de
números reales (a, b), a, b ∈ R. Escribimos z = (a, b) y definimos a = Re(z) como la parte real del
complejo z y b = Im(z) como la parte imaginaria. Al conjunto de números complejos se denota
por C.
Se dice que dos números complejos z1 = (a1 , b1 ), z2 = (a2 , b2 ) son iguales z1 = z2 si y sólo si
a1 = a2 y b1 = b2 .
Una vez definido un conjunto de números, su utilización requiere la construcción de opera-
3
ciones entre ellos. En C se puede definir la suma y el producto:
z1 + z2 = (a1 + a2 , b1 + b2 )
z1 × z2 = (a1 a2 − b1 b2 , a1 b2 + a2 b1 ).
La definición de estas operaciones no es arbitraria, pues éstas tienen que cumplir una serie de
propiedades que dé a la nueva construcción coherencia con las operaciones entre los tipos de
números anteriores. Ası́, se cumplen las propiedades
(1) Para z1 , z2 números complejos cualesquiera, z1 + z2 = z2 + z1 , z1 × z2 = z2 × z1 .
(2) Para z1 , z2 , z3 números complejos cualesquiera, z1 +(z2 +z3 ) = (z1 +z2 )+z3 , z1 ×(z2 ×z3 ) =
(z1 × z2 ) × z3 .
(3) El elemento 0 = (0, 0) es neutro para la suma (z + 0 = z para cualquier complejo z) y el
elemento 1 = (1, 0) es neutro para el producto (z × 1 = z para cualquier complejo z).
(4) Para z1 , z2 , z3 números complejos cualesquiera, z1 × (z2 + z3 ) = z1 × z2 + z1 × z3 .
(5) Para z = (a, b) cualquier número complejo, el elemento −z =µ(−a, −b) es su opuesto
¶
a −b
(z + (−z) = (0, 0)) y si z = (a, b) 6= (0, 0), el elemento z −1 = , es su
a2 + b2 a2 + b2
inverso (z × z −1 = (1, 0)).
Los números complejos son una extensión de los reales. El número complejo de la forma
(a, 0) se identifica con el número real a. De este modo, por ejemplo, (0, 0) = 0 y (1, 0) = 1.
Esta identificación es compatible con las operaciones, de modo que las operaciones definidas
anteriormente en C y restringida al conjunto de números con parte imaginaria nula coinciden
con las operaciones usuales de suma y producto de números reales. De este modo, R se puede
considerar como un subconjunto de C.
Representación geométrica
Los números complejos se representan geométricamente como puntos del plano o como vec-
tores del plano con base en el origen. La parte real es la componente del vector en el eje horizontal
y la parte imaginaria la componente del vector en el eje vertical.
b z = (a, b)
6 ¡
µ
¡
¡
¡
¡ -
a
Se llama unidad imaginaria al número complejo (0, 1), que se denota por i. De este modo,
i2 = −1, (−i)2 = −1, i3 = −i . . .. A veces se utiliza la letra j, sobre todo en el contexto de la
teorı́a de circuitos, donde la letra i se reserva para denotar la intensidad.
4
Forma binómica de un número complejo
Dado (a, b) ∈ C podemos escribir:
según la identificación ya introducida. Esta suele ser la notación habitual y se denomina forma
binomial o binómica del número complejo. Esta representación identifica con la misma claridad
las partes real e imaginaria de un número complejo. Además, permite reconocer las operaciones:
sumar dos complejos es sumar partes reales y sumar partes imaginarias. Multiplicar dos complejos
se realiza como si fuesen reales, teniendo en cuenta que i2 = −1. Los números complejos (0, b) =
bi (b ∈ R) se denominan imaginarios puros.
Conjugado de un complejo
Dado un número complejo z = a + bi, se llama conjugado de z al número complejo z̄ = a − bi.
Geométricamente no es sino la reflexión de z respecto del eje real.
z = a + bi
¡
µ
¡
¡
¡
¡
@
@
@
@
@
R z̄ = a − bi
(1) z + z̄ = 2Re(z).
(2) z − z̄ = 2iIm(z).
(4) z ∈ R ⇔ z = z̄.
(5) z1 + z2 = z1 + z2 , z1 z2 = z1 z2 .
(6) z = z.
(8) Si z 6= 0, z −1 = (z̄)−1 .
(2 − i)(1 + 3i) 2 + 6i − i + 3 5 + 5i
z = = =
1+i 1+i 1+i
5
(5 + 2i) (5 + 2i)(1 − i) 5 − 5i + 2i + 2 7 3
z = = = = − i.
(1 + i) (1 + i)(1 − i) 1+1 2 2
1 + i3 1−i 1 1 2i i
z = = = = = = .
(1 − i)3 (1 − i)3 (1 − i)2 −2i 4 2
z = a + bi
¡
µ
¡
¡ |z|
¡
¡
6
Este número se suele denotar por θ = Arg(z). Geométricamente, Arg(z) representa la medida en
radianes del ángulo que forma el semieje real positivo con el vector plano definido por z (tomamos
como ángulo positivo al dado por el sentido contrario a las agujas del reloj).
z = a + bi
¡
µ
¡
¡ |z|
¡
¡Arg(z)
Ejemplos
de manera que los números r = |z| (módulo) y θ = Arg(z) (argumento principal) determinan
también al complejo z, al igual que su parte real y su parte imaginaria. Esto proporciona dos
nuevas representaciones de un número complejo:
Con estas representaciones, hay que observar que dos números complejos rθ , rθ0 0 son iguales si
r = r0 y θ − θ0 = 2kπ para algún entero k.
Ejemplos. Pasamos a forma trigonométrica
z = 1 = 1(cos(0) + i sin(0))
√
z = 2 + 2i = 2 2(cos(π/4) + i sin(π/4))
√
z = 1 + 3i = 2(cos(π/3) + i sin(π/3)).
7
Vamos primero a recuperar el producto de complejos definido al principio y a dar su inter-
pretación. Dados dos complejos z1 y z2 cuyas formas trigonométricas son zk = rk (cos θk +i sin θk ),
k = 1, 2, tendremos
z n = rn (cos(nθ) + i sin(nθ)).
Ası́, calcular la potencia de un número complejo z es sencillo, una vez que se tiene su for-
ma trigonométrica: el complejo resultante se puede expresar en forma trigonométrica, donde su
módulo se obtiene elevando a la potencia el módulo de z y uno de sus argumentos se calcula
multiplicando por la potencia el argumento de z.
Pasamos al problema de calcular raı́ces de números complejos. Sea n ≥ 1 un entero. Recorde-
mos primero que todo real positivo r ≥ 0 posee exactamente una raı́z n-ésima positiva, que vamos
√ 1
a denotar por n r o bien r n .
Dado z 6= 0 de forma trigonométrica z = r(cos θ + i sin θ), planteamos el problema de obtener
todos los complejos w tales que wn = z. (Se dirá que w es una raı́z n-ésima compleja de z). Si
el w buscado tiene forma trigonométrica w = ρ(cos φ + i sin φ), del cálculo de potencia anterior
tenemos que
wn = ρn (cos(nφ) + i sin(nφ)).
Como wn debe coincidir con z, cuya forma trigonométrica es z = r(cos θ +i sin θ), entonces ρn = r
y nφ = θ + 2πk, con k entero. De este modo, ρ está determinado como
√
ρ = n r,
8
mientras que para φ tenemos
θ 2π
φk = +k ,
n n
con k entero. En principio, cualquier valor de k proporciona una raı́z de z. Sin embargo para los
valores k = 0, 1, ..., n − 1, los complejos correspondientes
wk = ρφk , 0 ≤ k ≤ n − 1,
La última operación que vamos a definir es la exponencial compleja. Dado un número complejo
z = a + bi, con a, b reales, definiremos la exponencial ez como el número complejo
esto es,
|ez | = ea > 0, b argumento de (ez ).
Algunas propiedades de la exponencial compleja son las siguientes:
9
(a) ez1 +z2 = ez1 .ez2 (z1 , z2 ∈ C),
(b) (ez )−1 = e−z (z ∈ C).
(c) eiθ = cos θ + i sin θ, θ ∈ R, es el complejo de módulo unidad y argumento θ.
(d) Todo número complejo z 6= 0 con r = |z|, θ = Arg(z) puede expresarse en la forma
z = reiθ .
La última propiedad proporciona una nueva representación de un número complejo, la forma
exponencial. Procede de reescribir la forma trigonométrica utilizando la definición de exponencial
compleja:
z = r(cos θ + i sin θ) = reiθ .
Ejemplos.
√
1+i 3 iπ
z = = cos(π/3) + i sin(π/3) = e 3
2
z = 2eiπ = 2(cos(π) + i sin(π)) = −2.
Por su parte, la propiedad (c) da lugar a dos fórmulas muy útiles que es conveniente recordar.
Si θ es un ángulo cualquiera, la definición de exponencial dice que
eiθ = cos θ + i sin θ,
e, igualmente
e−iθ = cos (−θ) + i sin (−θ) = cos θ − i sin θ,
es decir, que los dos complejos eiθ y e−iθ son conjugados. Si ahora sumamos ambas igualdades,
tenemos
eiθ + e−iθ
eiθ + e−iθ = 2 cos θ ⇒ cos θ = . (1.1)
2
Si en lugar de sumar, restamos, tendremos
eiθ − e−iθ
eiθ − e−iθ = 2i sin θ ⇒ sin θ = . (1.2)
2i
Las fórmulas (1.1) y (1.2) permiten reescribir, respectivamente, el coseno y el seno de un ángulo
en términos de exponenciales complejas (véanse, por ejemplo, los ejercicios 10 y 11).
1.2. Polinomios
Dados un número natural n y los n + 1 números reales o complejos a0 , a1 , . . . , an , los llamados
coeficientes, se define el polinomio p en la variable x como la función que hace corresponder al
valor que tome x el valor
p(x) = a0 + a1 x + a2 x2 + · · · + an xn .
Se dice que el grado del polinomio p es n cuando an 6= 0.
Dos polinomios p(x) = a0 + a1 x + a2 x2 + · · · + an xn , q(x) = b0 + b1 x + b2 x2 + · · · + bm xm son
iguales p = q si tienen el mismo grado n = m y son idénticos los coeficientes de potencias iguales
de la indeterminada: aj = bj , j = 1, . . . , n.
10
Operaciones con polinomios
Dados dos polinomios
p(x) = a0 + a1 x + a2 x2 + · · · + an xn , q(x) = b0 + b1 x + b2 x2 + · · · + bm xm ,
p(x) + q(x) = c0 + c1 x + c2 x2 + · · · + cn xn ,
ci = ai + bi , i = 0, 1, . . . , n,
donde, para n > m se tiene que suponer que los coeficientes bm+1 , . . . , bn son iguales a cero.
(1 + 2x) + (3 + x + x2 + x3 ) = 4 + 3x + x2 + x3 .
El grado de la suma será igual a n si n > m. Para n = m, puede ocurrir que el grado de la suma
sea menor que n, precisamente si bn = −an .
Se llama producto de los polinomios p(x), q(x) al polinomio
(1 + 2x)(3 + x + x2 + x3 ) =?.
donde el grado de r es menor que el de q o bien r es nulo. Ası́, p/q será un polinomio cuando
r = 0. Por ejemplo,
11
Raı́ces de polinomios. Algoritmo de Horner
El teorema fundamental del Álgebra afirma que todo polinomio p de grado n tiene al menos
un cero, esto es, la ecuación p(x) = 0 admite al menos una solución, real o compleja. Utilizando
la división de polinomios, se tiene el siguiente resultado:
Puede ser interesante hacer varios comentarios con respecto al cálculo de raı́ces de un poli-
nomio:
(i) El resultado anterior (Teorema 1) afirma que si α1 es raı́z de un polinomio p(x), éste se
puede factorizar en la forma
p(x) = q1 (x)(x − α1 ),
donde (x − α1 ) es naturalmente un polinomio de grado uno y q1 (x) es un polinomio con
grado uno menos que el de p(x) y que procede de la división de p(x) entre x − α1 . De este
modo, si se conociese una raı́z de q1 (x), podrı́a aplicarse el mismo procedimiento a q1 (x) y
escribir
p(x) = q1 (x)(x − α1 ) = q2 (x)(x − α2 )(x − α1 ),
con q2 (x) de grado dos unidades inferior al de p(x). El conocimiento de todas las raı́ces
de p(x) permite entonces, a través de este procedimiento, llegar a una descomposición en
factores lineales de p(x):
p(x) = a0 + a1 x + · · · + an xn = an (x − α1 ) · · · (x − αn ),
con α1 , . . . , an los n ceros, repetidos o no, del polinomio p(x). Por ejemplo, el polinomio
p(x) = −2 + 5x − 4x2 + x3 tiene por raı́ces α1 = 1, α2 = 1, α3 = 2, de modo que puede
escribirse
p(x) = (x − 1)2 (x − 2).
(ii) Cuando los coeficientes de p(x) son números reales y p(x) posee una raı́z compleja α = a+bi,
entonces su conjugado ᾱ = a − bi es también una raı́z de p(x) (¿por qué?). En este caso,
los dos factores lineales de la descomposición de p(x), (x − (a + bi))(x − (a − bi)) pueden
agruparse en un factor cuadrático x2 + cx + d con c y d ciertos números reales. Por ejemplo,
el polinomio p(x) = x3 − x2 + x − 1 tiene por raı́ces α1 = 1, α2 = i, α3 = −i y puede
factorizarse de dos formas:
p(x) = (x − 1)(x − i)(x + i) = (x − 1)(x2 + 1).
(iii) Si α1 , . . . αk son los ceros distintos de un polinomio p(x) de cierto grado n, con multiplici-
dades m1 , . . . , mk respectivamente, entonces p(x) puede factorizarse en la forma
p(x) = a0 + a1 x + · · · + an xn = an (x − α1 )m1 · · · (x − αk )mk .
Por ejemplo, el polinomio anterior p(x) = −2 + 5x − 4x2 + x3 tenı́a por raı́ces distintas
α1 = 1, α2 = 2. La multiplicidad de la primera es m1 = 2 y de la segunda m2 = 1; como
hemos visto, puede escribirse p(x) = (x − 1)2 (x − 2).
12
(iv) Si α es una raı́z de p(x) con multiplicidad dos, entonces α es también raı́z de su derivada
p0 (x). En efecto, si α es raı́z de p(x), puede escribirse
con q(x) un polinomio de un grado inferior al de p(x). Hay que observar que puesto que
α tiene multiplicidad dos como raı́z de p(x), también es raı́z de q(x), es decir, q(α) = 0.
Derivando la expresión anterior, se tiene
13
La fórmula (1.3) corresponde a un paso general del algoritmo: para calcular el siguiente valor bk
(es decir el correpondiente paréntesis) se suma al coeficiente ak la constante c por el último valor
de las b calculado, bk+1 (es decir, el último paréntesis calculado). Esto puede representarse en la
siguiente tabla:
(x − c)q(x) + b0 = bn xn + (bn−1 − cbn )xn−1 + · · · + (b2 − cb3 )x2 + (b1 − cb2 )x + b0 − cb1
= an xn + an−1 xn−1 + · · · + a2 x2 + a1 x + a0 = p(x),
donde hemos utilizado la fórmula (1.3) en cada uno de los paréntesis. De esta manera, los números
b1 , . . . , bn son los coeficientes del polinomio cociente de p(x) entre x − c, con b0 = p(c) el resto de
la división.
5 10 0 1 -1
-10 0 0 -2
-2 5 0 0 1 -3
El cociente de la división de p(x) por x + 2 es 5x3 + 1 y el resto −3, precisamente el valor de
p(−2). Se tiene p(x) = (5x3 + 1)(x + 2) − 3.
n! = 1 · 2 · 3 · · · n.
Por convenio 0! = 1. Hay que observar que el factorial de n es el número de ordenaciones posibles
de n elementos.
14
Permutaciones
Se llaman permutaciones a las agrupaciones de un determinado número de elementos, orde-
nados de tal forma que cada grupo se diferencia de los demás por el orden de colocación de dichos
elementos.
Una forma de representar las permutaciones es la siguiente: dados un número n ≥ 1 de elemen-
tos, denotados por a1 , . . . an , una permutación es una reordenación de los elementos aσ(1) , aσ(2)
, . . . , aσ(n) , de manera que el primer elemento pasa a estar en la posición σ(1), el segundo en la
posición σ(2), etc. Ası́, una permutación puede identificarse con una aplicación
π(σ) = (−1)inv(σ) ,
que sólo puede tomar los valores 1 ó −1. En nuestro ejemplo anterior, π(σ) = −1.
Números combinatorios
Sean n, k ≥ 0 enteros con n ≥ k. Se llaman combinaciones de n elementos tomados de k
en k a las agrupaciones que pueden formarse con n elementos tomados de k en k, de manera
que cada grupo se distingue de los demás por lo menos en uno de los elementos que lo forman,
independientemente del orden de su colocación.
Por ejemplo, con n = 4 elementos, podemos formar las combinaciones
k=1 a, b, c, d →4
k=2 ab, ac, ad →6
bc, bd
cd
k=3 abc, abd, acd →4
bcd
k=4 abcd →1
15
El número de combinaciones distintas de n elementos tomados de k en k se llama número com-
binatorio n sobre k y se define como
µ ¶
n n!
= ,
k k!(n − k)!
µ ¶
n
donde si k = 0 recordemos que = 1. Ası́, del ejemplo anterior
0
µ ¶ µ ¶ µ ¶ µ ¶ µ ¶
4 4 4 4 4
= 1, = 4, = 6, = 4, = 1.
0 1 2 3 4
n
0 1
1 1 1
2 1 2 1
3 − − − 1 3 3 1
4 1 4 6 4 1
5 1 5 10 10 5 1
El triángulo puede explicarse del siguiente modo: dado un número n de la columna de la izquierda,
los elementos de la correspondiente fila del triángulo son los números combinatorios
µ ¶ µ ¶ µ ¶
n n n
, ,..., .
0 1 n
El primer y el último elemento de cada fila valen siempre uno, dado que
µ ¶ µ ¶
n n
= = 1.
0 n
16
Por otra parte, la última propiedad de los números combinatorios es la que va generando las filas
del triángulo. Un elemento interior cualquiera del mismo se obtiene subiendo a la fila anterior y
sumando los elementos más próximos a izquierda y derecha
Los números combinatorios aparecen también como coeficientes del llamado binomio de New-
ton: si a, b son dos números reales o complejos y n ≥ 0 es un entero, entonces
µ ¶ µ ¶ µ ¶ µ ¶
n n n n n−1 n n−2 2 n
(a + b) = a + a b+ a b + ··· + bn
0 1 2 n
n µ ¶
X n
= an−k bk .
k
k=0
Hay que recordar que los coeficientes del desarrollo de una potencia n de un binomio a + b no
son otra cosa que los números combinatorios
µ ¶ µ ¶ µ ¶
n n n
, ,..., .
0 1 n
Una de las aplicaciones del binomio de Newton que más se suele utilizar se refiere al desarrollo
de polinomios en potencia de x, véase el ejercicio 14.
EJERCICIOS
17
a) |z| = 1, b) |z| ≤ 1, c) |z| > 1, d) z + z̄ = |z|,
e) z + z̄ = 1, f) z − z̄ = 1, g) z + z̄ = i.
Ejercicio 5. ¿Qué lugares geométricos del plano están representados por las siguientes ecuaciones
y desigualdades?
a) |z − 1| = 1, b) Re(z 2 ) = −1, c) 0 ≤ arg(1/z) ≤ π/2.
Ejercicio 6. (i) Representa en forma polar y en forma trigonométrica los siguientes números
complejos
a) z = −2 + 2i, b) z = i, c) z = 1,
d) z = 2 + 3i, e) z = −1 + i, f) z = 4 − 2i.
(ii) Representa en forma binómica los siguientes números complejos
a) z = 3e2πi , b) z = e(π/2)i , c) z = 4e−(3π/4)i ,
d) z = 12 e−(π/6)i , e) z = 2e(π/7)i .
Ejercicio 8. Calcula todos los valores de las siguientes raı́ces de números complejos:
√ √ √ √ √
a) 8 1, b) 3 −2 + 2i, c) 5 −4 + 3i, d) 3 i, e) 1 − i.
Ejercicio 11. Representa en forma de polinomio de primer grado en las funciones trigonométricas
de los ángulos múltiplos de θ:
a) sin3 θ, b) cos5 θ, c) sin2 θ, d) cos2 θ.
Ejercicio 12. (Obtenido del libro: Curso práctico de Algebra, de J. Gardo y A. Miquel, inten-
dentes mercantiles y censores jurados de cuentas, ed. Cultura, Barcelona, 1950). 10 estudiantes
propusieron a su patrona gratificarla espléndidamente el dı́a en que les viera sentados a la mesa
18
en el mismo orden. Haciendo tres comidas diarias, ¿cuántos dı́as tenı́an que transcurrir antes de
verse obligados a repetir una de las colocaciones precedentes?
Ejercicio 13. (Del mismo libro que el ejercicio anterior). En un cuartel hay 20 guardias los cuales
tienen un servicio por parejas, variando la composición de las parejas diariamente. Empezaron
el servicio en determinada fecha y los relevaron cuando se veı́an obligados a repetir las parejas.
?Cuántos dı́as duró dicho servicio extraordinario?
Ejercicio 14. Utilizando el binomio de Newton, desarrolla en potencias de x los polinomios: (a)
(x − 1)3 . (b) (x + 2)4 . (c) (x + 1)5 .
Ejercicio 3.
(a) x ≥ 0, y = 0.
(b) x = y = 0 o bien x = 1, y = 0.
Ejercicio 4.
(a) Circunferencia centrada en el origen de radio uno.
(b) Cı́rculo centrado en el origen de radio uno sin incluir la circunferencia.
Ejercicio 5.
(a) Circunferencia centrada en (1, 0) de radio uno.
(b) Hipérbola y 2 − x2 = 1.
(c) Cuadrante inferior derecho del plano.
Ejercicio 7.
a)
Ejercicio 8.
kπi
a) Las raı́ces son zk = e 4 , k = 0, 1, 2, 3, 4, 5, 6, 7.
19
b) Las raı́ces son
√
6
z0 = 8(cos(π/4) + i sin(π/4)),
√
6
z1 = 8(cos(11π/12) + i sin(11π/12)),
√
6
z2 = 8(cos(19π/12) + i sin(19π/12)).
√ arctg(−3/4)+2kπ
c) Las raı́ces son zk = 5
5ei 5 , k = 0, 1, 2, 3, 4.
Ejercicio 10.
a) cos(5θ) = cos5 (θ) − 10 cos3 (θ) sin2 (θ) + 5 cos(θ) sin4 (θ).
d) sin(7θ) = 7 cos6 θ sin θ − 35 cos4 θ sin3 θ + 21 cos2 θ sin5 θ − sin7 θ.
Ejercicio 11.
a) sin3 θ = −(1/4) sin(3θ) + (3/4) sin θ.
b) cos5 θ = (1/16) cos(5θ) + (5/16) cos(3θ) + (5/8) cos θ.
20
Tema 2
55 A x1 B 20
- - -
¶¶
¶
¶
¶
/¶
¶
¶
?x4 ¶ x2 x3
¶
¶ ?
¶
¶
D ¶ x5 C
¶ -
?20 ?15
Partiendo entonces del principio de que en cada nudo de la red la cantidad de lı́quido que
21
entra debe ser igual a la cantidad que sale, tenemos las siguientes relaciones
Nudo A: x1 + x4 = 55,
Nudo B: x1 = x2 + x3 + 20,
Nudo C: x3 + x5 = 15,
Nudo D: x2 + x4 = x5 + 20.
x1 + x4 = 55
x1 − x2 − x3 = 20
x3 + x5 = 15
x2 + x4 − x5 = 20.
Con las técnicas que presentamos en este tema, comprobaremos más adelante que el sistema tiene
infinitas soluciones, dependientes del valor del flujo en dos canales, pongamos x4 y x5 , en la forma
x1 = 55 − x4 , x3 = 15 − x5 , x2 = 20 − x4 + x5 .
De manera que para que la red funcione, el flujo entre AD y entre DC puede ser arbitrario, pero
los restantes denen estar sujetos a las relaciones antes obtenidas.
Fijémonos, por otro lado, en que si se cierra el canal BC, entonces x3 = 0, de manera que de
las ecuaciones de arriba, ha de ser x5 = 15 y x1 = 55 − x4 , x2 = 35 − x4 . para que ningún canal
lleve un flujo superior a 30, ha de ser (razona por qué)
25 ≤ x4 ≤ 30, x1 = 55 − x4 , x2 = 35 − x4
El problema a resolver en este tema será encontrar y analizar un método práctico de discusión
y en su caso resolución de un sistema lineal de m ecuaciones y n incógnitas, que es un conjunto
de expresiones de la forma (recuerda el sistema del ejemplo)
para m, n > 1. Aquı́ los datos conocidos son los números aij , 1 ≤ i ≤ m, 1 ≤ j ≤ n o coeficientes
del sistema y los números bi , 1 ≤ i ≤ m o términos independientes. El problema consiste en
determinar si hay valores para las incógnitas x1 , . . . , xn que satisfagan las m ecuaciones de (2.1)
y, en su caso, obtenerlos. Tales valores constituyen las soluciones del sistema.
El sistema (2.1) se dice que es compatible si tiene alguna solución. Cuando no tiene soluciones,
se dice que es incompatible. Por otro lado, un sistema compatible o tiene una única solución, en
cuyo caso el sistema se llama determinado, o tiene infinitas, en cuyo caso el sistema se dice que
es indeterminado.
22
2.2. Algebra de matrices
Necesitamos primero introducir una notación matricial que nos será útil tanto en éste como
en temas posteriores. Los coeficientes del sistema (2.1) se suelen disponer en lo que se llama una
matriz rectangular de m filas y n columnas
a11 a12 · · · · · · a1n
a21 a22 · · · · · · a2n
A=
···
= (aij ) (2.2)
··· ··· ··· ···
am1 am2 · · · · · · amn
de forma que el valor de aij se sitúa en la intersección de la fila i−ésima con la columna j−ésima.
El conjunto de todas las matrices m × n se denota por Mm,n (R) o Mm,n (C), dependiendo de si
sus elementos son números reales o complejos. En el caso de que el número de filas y de columnas
coincidan (m = n) se dice que la matriz es cuadrada. Casos particulares de matrices son las
matrices fila (m = 1), las matrices columna (n = 1), la matriz identidad In = In,n , etc.
Naturalmente, para poder sumar, las matrices han de tener el mismo tamaño m × n. Las
propiedades de esta operación son:
(a) Asociativa: ∀A, B, C ∈ Mm,n (K) (A + B) + C = A + (B + C).
(b) Conmutativa: A + B = B + A.
(c) Elemento neutro: la matriz del orden correspondiente cuyos elementos son todos nulos.
(d) Elemento opuesto: cada matriz posee su opuesta, que es la matriz obtenida al tomar opuestos
en todos los elementos.
También se puede multiplicar una matriz A ∈ Mm,n (K) por un número real o complejo λ ∈ K,
sin más que multiplicar por λ cada elemento de A:
a11 a12 · · · · · · a1n λa11 λa12 · · · · · · λa1n
a21 a22 · · · · · · a2n λa21 λa22 · · · · · · λa2n
λA = λ
···
= .
··· ··· ··· ··· ··· ··· ··· ··· ···
am1 am2 · · · · · · amn λam1 λam2 · · · · · · λamn
23
(a) Distributiva: (λ + α)A = λA + αA, ∀λ, α ∈ K, A ∈ Mm,n (K).
(b) Distributiva: λ(A + B) = λA + λB
(c) Asociativa: (λα)A = λ(αA).
(d) Si λA es la matriz nula, entonces o bien λ = 0 o bien A es la matriz nula.
Finalmente hay otras dos operaciones sobre matrices que utilizaremos a lo largo del curso.
En primer lugar, está la trasposición de matrices. La matriz traspuesta de una dada A = (aij ) ∈
Mm,n (K) es la matriz que se obtiene intercambiando filas por columnas. Se denota por AT ∈
Mn,m (K) y su elemento (i, j) es aji . Por ejemplo:
1 2 µ ¶
T 1 3 5
A= 3 4 ⇒A = .
2 4 6
5 6
XY = x1 y1 + x2 y2 + · · · + xn yn .
Desde este punto de vista, no pueden multiplicarse matrices de cualquier tamaño. Para que un
producto AB tenga sentido, el número de columnas de A ha de ser igual al número de filas
de B. En ese caso, la matriz producto C = AB tiene tantas filas como A y tantas columnas
como B. La expresión genérica de la matriz producto es la siguiente: si A = (aij ) ∈ Mm,n (K) y
B = (bjk ) ∈ Mn,p (K) entonces C = AB = (cik ) ∈ Mm,p (K) donde
n
X
cik = ai1 b1k + ai2 b2k + · · · + ain bnk = aij bjk .
j=1
Ejemplos.
1
−1
(1 4 0 2)
2 = 3
3
4 −1 1
3 2 2 1 16 5 4
2 4 0
1 −1 0 2 −1
= 6 −9 3 .
1 0
2 0 −3 4 19 −13 6
2 −2 1
24
Sin embargo, hay matrices cuadradas que son diferentes de la matriz no nula y carecen de inversa
para el producto. La noción de matriz inversa será tratada más adelante.
(d) El producto de matrices no es conmutativo: en general AB 6= BA.
(e) Trasposición y producto: (AB)T = B T AT .
Finalmente, notemos que el sistema (2.1) puede escribirse en formulación matricial como
x + 2y + z = 1
2x + y + 3z = 0 (2.4)
4x − y − 3z = 3
El método consiste en pasar de este sistema a otro equivalente más sencillo a través de un proceso
de eliminación de incógnitas. Buscamos primero eliminar la incógnita x de las ecuaciones segunda
y tercera. Para ello, restamos a la segunda ecuación dos veces la primera y a la tercera cuatro
veces la primera. Obtenemos
x + 2y + z = 1
−3y + z = −2
−9y − 7z = −1.
Ahora, eliminamos la incógnita y de la tercera ecuación, restando a ésta tres veces la segunda.
El resultado es
x + 2y + z = 1
−3y + z = −2 (2.5)
−10z = 5.
Hemos llegado a un sistema llamado de tipo triangular superior. Esto significa que la primera
variable (x) sólo aparece en la primera ecuación, la segunda (y) sólo en las dos primeras ecuaciones
y la última variable (z) en todas las ecuaciones. Parece claro que los sistemas (2.4) y (2.5) son
equivalentes, en el sentido de que, o bien son ambos incompatibles o si tienen soluciones, son las
mismas. Esto se debe a que el sistema (2.5) se obtiene de (2.4) simplemente operando con sus
ecuaciones.
Ahora bien, el sistema (2.5) puede discutirse sin aparente problema, y resolverse despejando las
incógnitas desde la última ecuación hasta la primera. Este proceso se llama sustitución regresiva.
Ası́, la última ecuación dice que
z = −5/10 = −1/2.
25
Llevando este valor a la segunda ecuación, obtenemos
−2 − z
y= = 1/2,
−3
y sustituyendo en la primera ecuación, se tiene
x = 1 − 2y − z = 1/2.
Esto significa que el sistema (2.4) es compatible (tiene solución) y determinado (la solución es
única). La solución es x = 1/2, y = 1/2, z = −1/2.
Notas
(1) Es importante indicar que cuando se elimina una variable, se comparan las ecuaciones con
una que queda fija mientras se esté eliminando esa variable. Cuando se cambia de incógnita
a eliminar, también cambiamos de ecuación con la que comparar. Ası́, en el ejemplo anterior,
eliminar x implica cambiar las ecuaciones segunda y tercera comparándolas con la primera, que
queda fija. Una vez eliminada x, nos olvidamos de la primera ecuación; para eliminar y cambiamos
la tercera ecuación comparándola con la segunda, que es ahora la que queda fija. Este proceso es
general: siempre se hace lo mismo independientemente del número de ecuaciones y de incógnitas
que tengamos:
1. Eliminar la primera incógnita de todas las ecuaciones salvo la primera, comparando aquéllas
con ésta, que queda fija.
2. Eliminar la segunda incógnita de todas las ecuaciones salvo las dos primeras, comparando
todas las ecuaciones desde la tercera con la segunda, que queda fija.
3. Repetir el proceso hasta la penúltima incógnita, que se elimina de la última ecuación,
comparando ésta con la penúltima, que queda fija.
(2) El número por el que hay que multiplicar a la ecuación fijada para eliminar la incógnita
depende de los coeficientes que tenga ésta en las ecuaciones. Por ejemplo, para eliminar y en la
tercera ecuación, hemos restado a ésta (−9)/(−3) veces la segunda ecuación, que es lo necesario
para hacer cero la posición de −9y: −9y − (−9/ − 3)(−3y) = 0.
(3) Este algoritmo puede utilizarse para discutir y en su caso resolver cualquier sistema de ecua-
ciones (véase la hoja de ejercicios).
(4) El sistema final del proceso siempre ha de quedar de tipo escalonado, en el sentido de que si
hay solución, se puedan ir despejando los valores de las incógnitas ‘desde abajo hacia arriba ’, en
el proceso que hemos llamado sustitución regresiva.
Ejemplo 2. Discute y en su caso resuelve el sistema
x − y + 2z = 1
2x + y = 3
x + 2y − 2z = 0
Repetimos el proceso del ejemplo 1. La eliminación de la incógnita x lleva al sistema
x − y + 2z = 1
3y − 4z = 1
3y − 4z = −1,
26
la eliminación de la incógnita y nos lleva a
x − y + 2z = 1
3y − 4z = 1
0 = −2.
Este es el sistema final. Notemos que la última ecuación no puede darse. Este sistema no puede
tener solución pues la última ecuación nunca puede cumplirse. Ası́, el sistema final, y por tanto
el original, es incompatible, no tiene solución.
Ejemplo 3. Discute y en su caso resuelve el sistema
−3y + 14z = 4
2x + 2y − 3z = 5
4x + 2y − 2z = 10.
Nuestro problema aquı́ está en que aparentemente no podemos empezar el proceso, pues la
incógnita x no aparece en la primera ecuación y sı́ en las demás. Esto se resuelve cambiando de
posición dos ecuaciones, por ejemplo las dos primeras (esto se llama pivotaje),
2x + 2y − 3z = 5
−3y + 14z = 4
4x + 2y − 2z = 10.
Ahora sı́ podemos empezar. Eliminando x de la última ecuación (en la segunda ya no aparece,
por lo que no hay que tocar la segunda ecuación)
2x + 2y − 3z = 5
−3y + 14z = 4
−2y + 4z = 0,
2x + 2y − 3z = 5
−3y + 14z = 4
−16 −8
z = ,
3 3
de donde el sistema es compatible y determinado, con solución x = 9/4, y = 1, z = 1/2.
Ejemplo 4. Discute y en su caso resuelve el sistema
x + 2y + z = 0
3x − z = 2
x − y − z = 1.
x + 2y + z = 0
−6y − 4z = 2
0 = 0.
27
La última ecuación desaparece. Esto significa que no podemos despejar la incógnita z de ella. A
pesar de esto, el sistema final no da ningún tipo de incompatibilidad, lo único que ocurre es que
la variable z puede tomar cualquier valor. El sistema es compatible e indeterminado, es decir,
tiene infinitas soluciones. Estas dependen del valor arbitrario de z. Para cada valor de z tenemos
una solución, obtenida del sistema
x + 2y = −z
−6y = 2 + 4z,
es decir, y = −(1+2z)/3, x = (1−z)/3. El conjunto de soluciones es de la forma x = (1−z)/3, y =
−(1 + 2z)/3, con z arbitrario. Ası́ pues, la aparición de una ecuación trivial en el sistema final
significa que la variable afectada toma cualquier valor, es lo que se llama una variable libre.
Hay tantas variables libres como ecuaciones triviales aparezcan en el sistema final. El sistema es
indeterminado (tiene infinitas soluciones, una por cada valor de z) y las soluciones se obtienen
despejando el resto de las variables, llamadas básicas, en función de las libres.
(1) Si la operación consiste en permutar las filas r y s (r 6= s), entonces E se obtiene de Im per-
mutando las filas r y s de ésta. De este modo, EA es una matriz que se obtiene de A permutando
sus filas r y s. Por ejemplo
3 2 0 0 1 6 7
A = 4 5,E = 0 1 0 ⇒ EA = 4 5.
6 7 1 0 0 3 2
28
(2) Si la operación consiste en multiplicar la fila r por un número λ 6= 0, entonces E se obtiene
de la identidad Im sustituyendo el 1 de la posición (r, r) por λ. Ası́, EA es una matriz que se
obtiene de A multiplicando por λ su fila r. Por ejemplo
µ ¶ µ ¶ µ ¶
2 5 8 1 0 2 5 8
A= ,E = ⇒ EA = .
−1 0 −1 0 4 −4 0 −4
2 1 1 1 0 0 2 1 1
A= 4 5 0
,E = 0
1 0 ⇒ EA = 4 5 0.
−2 −1 −1 1 0 1 0 0 0
Por su interés para la eliminación gaussiana, destacamos la matriz asociada a la combinación
de operaciones elementales que consiste en sumar a la fila r la fila s (r 6= s) multiplicada por un
número λ 6= 0. La matriz E se obtiene de la identidad Im incorporando a ésta el valor λ en la
posición (r, s). Por ejemplo,
2 1 1 1 0 −1 0 0 0
A = 4 5 0,E = 0 1 0 ⇒ EA = 4 5 0.
2 1 1 0 0 1 2 1 1
a11 a12 · · · · · · a1n
a21 a22 · · · · · · a2n
A=
···
··· ··· ··· ···
am1 am2 · · · · · · amn
(a) Las primeras filas de U corresponden a filas no idénticamente nulas. El primer elemento no
nulo de cada una de estas filas se llama pivote.
(b) Debajo de cada pivote hay una columna de ceros.
29
(c) Cada pivote está a la derecha del pivote de la fila anterior.
Para sistemas lineales U~x = ~c con matriz de coeficientes U en forma escalonada superior se
verifica:
(1) El sistema es compatible si y sólo si filas nulas de U corresponden a componentes nulas del
término independiente c (recuérdense los ejemplos 2 y 4).
(2) El sistema es determinado si hay tantos pivotes como incógnitas, en cuyo caso se resuelve
por sustitución regresiva.
(3) El sistema es indeterminado si hay menos pivotes que incógnitas (ejemplo 4). En ese caso,
la solución general se obtiene por ejemplo identificando las incógnitas no asociadas a ningún
pivote (variables libres) ası́ como cada una de las incógnitas asociadas a los pivotes (variables
básicas) resolviendo por sustitución regresiva el sistema triangular superior que se obtiene al
pasar al término independiente la contribución de las variables libres (recuérdese el ejemplo
4).
Se dice que dos sistemas lineales con el mismo número de incógnitas son equivalentes si, o bien
son ambos incompatibles o bien son ambos compatibles y comparten las mismas soluciones.
Hemos visto que un paso tı́pico del método de eliminación gaussiana consiste en llevar un
sistema lineal a otro mediante operaciones elementales sobre las ecuaciones del sistema. Esta
manera de obtener las ecuaciones del sistema resultante a partir de las del sistema original hace
que los dos sistemas sean equivalentes. Pero, en términos matriciales, una operación elemental
entre ecuaciones del sistema es en realidad una operación elemental entre las filas de la matriz
ampliada (las filas de la matriz de coeficientes más las correspondientes componentes del término
independiente).
De nuevo, como ocurrı́a con el método de Horner para evaluar un polinomio, una de las ven-
tajas del método de eliminación gaussiana es su carácter algorı́tmico, que facilita su aprendizaje.
Además, nada impide que pueda aplicarse a cualquier sistema
La equivalencia entre los sistemas permite afirmar entonces que discutir y en su caso resolver
el sistema (2.1) sea equivalente a discutir y en su caso resolver el sistema escalonado obtenido. Por
otra parte, las operaciones elementales involucradas son del tipo: sumar a una fila (ecuación) otra
multiplicada por un número y probablemente intercambiar la posición de dos filas (ecuaciones).
Ası́ pues, los pasos para discutir y resolver un sistema por eliminación gaussiana son los
siguientes:
1. Utilizar las operaciones elementales indicadas sobre la matriz ampliada del sistema para
llevar éste a uno equivalente con forma escalonada superior, haciendo ceros por debajo de
los pivotes de cada fila.
30
2. Discutir el sistema escalonado resultante, según lo indicado en el apartado anterior. En
caso de que el sistema sea compatible determinado, resolver por sustitución regresiva. Si
el sistema es indeterminado, trasladar la contribución de las variables libres al segundo
miembro y resolver en las variables básicas por sustitución regresiva.
x1 + 2x2 − x3 + x4 − 2x5 = 1
−6x2 + 3x3 − 3x4 + 5x5 = −1
31
Fijémonos en que como filas nulas de U (tercera y cuarta) corresponden a componentes nulas del
término independiente, el sistema es compatible. Puesto que sólo hay dos variables con pivote
(primera y segunda) el sistema es indeterminado y las variables libres son x3 , x4 y x5 . Pasando
al término independiente su contribución, el sistema escalonado se escribe
x1 + 2x2 = 1 + x3 − x4 + 2x5
−6x2 = −1 − 3x3 + 3x4 − 5x5 .
Para valores arbitrarios de x3 , x4 y x5 , las soluciones del sistema original son de la forma x2 =
(1 + 3x3 − 3x4 + 5x5 )/6, x1 = (2 + x5 )/3.
AB = BA = In , (2.6)
con In la matriz identidad de tamaño n×n. Entonces, multiplicando ambos miembros del sistema
por B, tendrı́amos
BA~x = B~b ⇒ ~x = B~b,
de manera que tal matriz B determinarı́a la solución del sistema. Dada una matriz A ∈ Mn×n (K),
la matriz B ∈ Mn×n (K) que verifica (2.6) se llama matriz inversa de A y se denota por A−1 .
Cuando una matriz A admite inversa, se dice que es regular o no singular. Si A no admite inversa,
se dice que es singular. De la propia definición se deduce algo muy importante:
Además:
TAMBIÉN MUY IMPORTANTE: No todas las matrices cuadradas poseen matriz inversa.
En esta sección vamos a ver cómo determinar si una matriz cuadrada admite matriz inversa
y en su caso calcularla.
32
5. Toda matriz E ∈ Mn,n (K) asociada a una operación elemental posee inversa.
La última propiedad mencionada tiene una importancia especial, pues hay un método para
determinar si una matriz tiene inversa, y en su caso calcularla, utilizando operaciones elementales
de un modo parecido al proceso de eliminación gaussiana. El método se llama de Gauss-Jordan.
Empezamos con un ejemplo.
33
restando a la fila segunda la tercera multiplicada por −2 y a la fila primera la tercera multiplicada
por −2. Ası́,
1 3 0 1/3 4/3 −2/3
0 1 0 1/3 5/6 −2/3
0 0 1 −1/3 2/3 −1/3
Finalmente, pasando al segundo pivote, hacemos ceros por encima de él, restando a la fila primera
la segunda multiplicada por tres,
1 0 0 −2/3 −7/6 4/3
0 1 0 1/3 5/6 −2/3
0 0 1 −1/3 2/3 −1/3
entonces
−2/3 −7/6 4/3
B = 1/3 5/6 −2/3 ,
−1/3 2/3 −1/3
Ep Ep−1 · · · E1 A = In .
[ A | In ] ,
tal y como hemos hecho en el ejemplo, y realizamos la primera operación elemental tanto en A
como en la identidad In , nos queda
[ E1 A | E1 In ] = [ E1 A | E1 ] .
[ E2 E1 A | E2 E1 ] .
[ Ep Ep−1 · · · E2 E1 A | Ep Ep−1 · · · E2 E1 ] ,
34
es decir
[ In | B].
Esto justifica la aparición de la inversa de A a la derecha, donde inicialmente estaba la matriz
identidad.
Hay algunos detalles a tener en cuenta en este método.
El método sirve también para identificar si la matriz en cuestión admite inversa. Es el mismo
procedimiento el que nos advierte; si hay un momento en el que no podemos continuar al
pretender transformar la matriz A en la identidad, entonces la matriz no será invertible.
Esto se da cuando:
(i) La primera columna de A es nula; pues entonces no podremos colocar un 1 en el
elemento (1, 1) por muchas operaciones por filas que realicemos.
(ii) La columna por debajo del elemento de la derecha de un pivote es nula; pues entonces
nunca podremos colocar un 1 en la siguiente posición de la diagonal principal de la
matriz, por muchas operaciones elementales que hagamos. Por ejemplo,
4 2 6 1 0 0 1 1/2 3/2 1/4 0 0
3 0 7 0 1 0 → 0 −3/2 5/2 −3/4 1 0 ,
−2 −1 −3 0 0 1 0 0 0 1/2 0 1
y la matriz
4 2 6
A= 3 0 7
−2 −1 −3
no tiene inversa.
De nuevo, al igual que ocurrı́a con la eliminación gaussiana, hay que destacar la estructura
algorı́tmica del método, lo que facilita su aprendizaje.
Hay que observar también que, al calcular la inversa de una matriz, en ningún momento se
obtienen explı́citamente las matrices elementales E1 , . . . , Ep . Lo que importa es el producto
final Ep · · · E1 , es decir, la matriz inversa.
35
En el caso de una matriz 3 × 3,
a11 a12 a13
A = a21 a22 a23 ,
a31 a32 a33
el determinante de A podrı́a definirse igualmente como el volumen del paralelepı́pedo cuyas aristas
están generadas por las columnas de A, entendidas como vectores en el espacio. En este caso, la
fórmula es un poco más complicada de obtener y se llama regla de Sarrus,
a11 a12 a13
det a21 a22 a23 = a11 a22 a33 + a31 a12 a23 + a21 a32 a13
a31 a32 a33
= −a12 a21 a33 − a11 a32 a23 − a31 a22 a13 .
Para matrices de mayor tamaño no podemos dar una referencia geométrica realista, de manera
que la definición sigue otro enfoque.
Sea A = (aij ) ∈ Mn,n (K). Se define el determinante de A como el número
X
det(A) = π(σ)a1σ(1) a2σ(2) · · · anσ(n)
σ∈Sn
¯ ¯
¯ a11 a12 · · · · · · a1n ¯
¯ ¯
¯ a21 a22 · · · · · · a2n ¯¯
= ¯ ,
¯ ··· ··· · · · · · · · · · ¯¯
¯
¯
an1 an2 · · · · · · ann ¯
donde Sn es el conjunto de permutaciones de orden n y π(σ) la paridad de la permutación σ
(véase el tema preliminar). Cuando σ recorre Sn , los términos a1σ(1) a2σ(2) , . . . , anσ(n) describen
todos los posibles productos de n factores extraı́dos de los elementos de A con la propiedad de
que en dichos productos siempre figura un elemento de cada fila y de cada columna de A.
En el cálculo efectivo de un determinante no suele usarse la definición salvo en los ejemplos
clásicos con n = 2 y n = 3, que hemos mencionado previamente.
El cálculo de un determinante puede hacerse de varias formas, y aquı́ mencionaremos algunas.
La primera está basada en propiedades fundamentales del determinante, que pasamos a describir.
Dada A = (aij ) ∈ Mn,n (K), denotamos sus filas por F1 , . . . , Fn , es decir,
F1
F
2
.
A= .
. .
..
.
Fn
Las propiedades son las siguientes:
1. det(A) es lineal en cada fila, es decir, si 1 ≤ k ≤ n,
(a) Para λ ∈ K,
¯ ¯ ¯ ¯
¯ F1 ¯ ¯ F1 ¯
¯ ¯ ¯ ¯
¯ F2 ¯ ¯ F2 ¯
¯ ¯ ¯ ¯
¯ .. ¯ ¯ .. ¯
¯ . ¯ ¯ . ¯
¯ ¯ ¯ ¯
¯ λF ¯ = λ ¯ F ¯ .
¯ k¯ ¯ k¯
¯ . ¯ ¯ . ¯
¯ .. ¯ ¯ .. ¯
¯ ¯ ¯ ¯
¯ F ¯ ¯F ¯
n n
36
(b) Si la fila Fk = Fk0 + Fk00 es suma de otras dos, entonces
¯ ¯ ¯ ¯ ¯ ¯
¯ F1 ¯ ¯ F1 ¯ ¯ F1 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ F2 ¯ ¯ F2 ¯ ¯ F2 ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ .. ¯ ¯ .. ¯ ¯ .. ¯
¯ . ¯ ¯ . ¯ ¯ . ¯
¯ ¯ ¯ ¯ ¯ ¯
¯ F ¯ = ¯ F 0 ¯ + ¯ F 00 ¯ .
¯ k¯ ¯ k¯ ¯ k ¯
¯ . ¯ ¯ . ¯ ¯ . ¯
¯ .. ¯ ¯ .. ¯ ¯ .. ¯
¯ ¯ ¯ ¯ ¯ ¯
¯Fn ¯ ¯ ¯ ¯ ¯
Fn Fn
Por ejemplo
¯ ¯ ¯ ¯
¯2 4 6 ¯¯ ¯1 2 3 ¯¯
¯ ¯
¯0 1 −2 ¯¯ = 2 ¯¯ 0 1 −2 ¯¯
¯
¯1 4 1 ¯ ¯1 4 1 ¯
¯ ¯ ¯ ¯
¯1 2 3 ¯¯ ¯¯ 1 2 3 ¯¯
¯
= ¯¯ 0 1 −2 ¯¯ + ¯¯ 0 1 −2 ¯¯ .
¯1 4 1 ¯ ¯1 4 1 ¯
3. det(In ) = 1, n = 1, 2, . . ..
4. det(λA) = λn det(A).
5. Sea σ ∈ Sn y Aσ la matriz obtenida al permutar las filas de A según σ,
Fσ(1)
Fσ(2)
.
Aσ = .
. .
.
..
Fσ(n)
37
Por ejemplo,
¯ ¯ ¯ ¯
¯2 4 6 ¯¯ ¯1 2 3 ¯¯
¯ ¯
¯1 2 3 ¯¯ = 2 ¯¯ 1 2 3 ¯¯ = 0.
¯
¯0 1 1¯ ¯0 1 1¯
7. El determinante no cambia cuando a una fila se le suma una combinación lineal de las restantes
filas.
Por ejemplo,
¯ ¯ ¯ ¯ ¯ ¯
¯2 4 6 ¯¯ ¯¯ 2 4 6 ¯¯ ¯¯ 2 4 6 ¯¯
¯
¯0 1 −2 ¯¯ = ¯¯ 0 1 −2 ¯¯ = ¯¯ 0 1 −2 ¯¯ .
¯
¯1 4 1 ¯ ¯0 2 −2 ¯ ¯ 0 0 2 ¯
Lo aconsejable para calcular determinantes, sobre todo si son grandes, es hacer uso de estas
propiedades fundamentales, aplicándolas para ir transformando el determinante en otros más
fáciles de calcular. Lo usual suele ser reducir con operaciones elementales el cálculo del determi-
nante al de una matriz triangular (véase el ejemplo en las propiedades 7 y 9). Por ejemplo,
¯ ¯ ¯ ¯
¯1 3 1 1¯ ¯1 3 1 1¯
¯ ¯ ¯ ¯
¯2 1 5 ¯ ¯
2 ¯ ¯ 0 −5 3 0 ¯¯
¯ =
¯1 −1 2 3 ¯¯ ¯¯ 0 −4 1 2 ¯¯
¯
¯ ¯ ¯
4 1 −3 7 0 −11 −7 3 ¯
¯ ¯ ¯ ¯
¯1 3 1 1¯ ¯1 3 1 1 ¯
¯ ¯ ¯ ¯
¯0 −5 3 ¯ ¯
0 ¯ ¯ 0 −5 3 0 ¯
¯ = ¯ = −115.
¯0 0 ¯ ¯
−7/5 2 ¯ ¯ 0 0 −7/5 2 ¯
¯ ¯
¯ ¯ ¯
0 0 −68/5 3 0 0 0 −115/7 ¯
38
Entonces, para cualquier fila k se satisface la fórmula
det(A) = ak1 Ak1 + ak2 Ak2 + · · · + akn Akn ,
llamada desarrollo del determinante por los elementos de la fila k. Hay una fórmula análoga para
el desarrollo del determinante por una columna cualquiera l:
det(A) = a1l A1l + a2l A2l + · · · + anl Anl .
Por ejemplo
¯ ¯
¯2 4 6 ¯¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ 1 −2 ¯ ¯ 0 −2 ¯ ¯0 1¯
¯0 ¯ ¯
1 −2 ¯ = 2 ¯ ¯ − 4¯¯ ¯ + 6¯¯ ¯ = 4.
¯ 4 1 ¯ 1 1 ¯ 1 4¯
¯1 4 1 ¯
¯ ¯
¯2 4 6 ¯¯ ¯ ¯ ¯ ¯ ¯ ¯
¯ ¯ 0 −2 ¯ ¯ 2 6 ¯ ¯2 6 ¯¯
¯0 ¯
1 −2 ¯ = −4 ¯ ¯ ¯ + ¯ ¯ − 4¯¯ = 4.
¯ 1 1 ¯ ¯1 1¯ 0 −2 ¯
¯1 4 1 ¯
39
y por tanto
9 20 −14
1
A−1 = −2 −4 4 .
4
−1 −4 2
Por otra parte, en el caso de un sistema A~x = ~b con el mismo número de ecuaciones que
incógnitas (A cuadrada) y con solución única (det(A) 6= 0), se puede obtener ésta a través de las
llamadas fórmulas de Cramer. Utilizando la expresión anterior de A−1 , tenemos
1
~x = A−1~b = (Aadj )T ~b,
det(A)
Ejercicio 2. Halla con las matrices siguientes las operaciones que se indican: A − 2B, 3A − C, A +
B + C, A2 ;
1 −1 2 0 2 1 0 0 2
A = 3 4 5 , B = 3 0 5, C = 3 1 0.
0 1 −1 7 −6 0 0 −2 4
Determina una matriz D tal que A + B + C + D sea la matriz nula 3 × 3. Determina una matriz
E tal que 3C − 2B + 8A − 4E sea la matriz nula 3 × 3.
40
Ejercicio 4. Estudia y, en los casos de compatibilidad, calcula la solución general de los sistemas
lineales Ax = b con coeficientes reales, cuando A y b valen
3 −1 1 2 −1
0 1 0 2 0
A= 6
b=
2 1 5 5
−3 3 1 −1 4
1 0 1 2 4 4
A = 4 −1 3 1 3 b = 9
2 2 0 1 0 5
2 −1 0 −4
4 −2 0 8
A = 0 2 1 b= 4
2 1 1 0
2 −5 −2 −12
1 0 2 1 0
2 2 −1 3 0
A= 1 2
b=
1 4 0
5 4 −4 5 0
x+y+z+t=7 x+y+z+t=7
x+y + 2t = 8 x+y + 2t = 5
2x + 2y + 3z = 10 2x + 2y + 3z = 10
−x − y − 2z + 2t = 0 − x − y − 2z + 2t = 0
x − y + 2z − t = −8 2x + 4y − z = −5
2x − 2y + 3z − 3t = −20 x + y − 3z = −9
x + y + z = −2 4x + y + 2z = 9
x − y + 4z + 3t = 4
(3 − 2i)x1 + x2 − 6x3 + x4 = 0
x1 − ix2 − x4 = 0
2x1 + x2 − (3 + i)x3 = 0
x1 + x2 − 2x3 − (1 + 2i)x4 = 0.
41
x1 + 2ix3 − 2ix4 = 2
x2 + 2x3 + 2x4 = 1
x1 + (1 + i)x3 + (1 − i)x4 = 0
x1 + x2 = 0.
donde
0 1 2 1
A= 1 4 −1 0.
−1 −3 3 1
Establece una relación entre las componentes del término independiente ~b = (b1 , b2 , b3 )T para que
el sistema anterior sea compatible.
Ejercicio 10. Dados los cuatro sistemas lineales de tres ecuaciones y tres incógnitas con la misma
matriz de coeficientes
2x − 3y + z = 2 2x − 3y + z = 6
x + y − z = −1 x+y−z =4
−x + y − 3z = 0 −x + y − 3z = 5
2x − 3y + z = 0 2x − 3y + z = −1
x+y−z =1 x+y−z =0
−x + y − 3z = −3 −x + y − 3z = 0
42
a) Resuelve los sistemas lineales aplicando eliminación gaussiana a la matriz aumentada
2 −3 1 : 2 6 0 −1
1 1 −1 : −1 4 1 0
−1 1 −3 : 0 5 −3 0
Ejercicio 11. Determina cuáles de las siguientes matrices tienen inversa y, en caso afirmativo,
hállala.
4 2 6 1 2 0
A= 3 0 7 , B = 2 1 −1
−2 −1 −3 3 1 1
1 1 −1 1 2 3 1 2
1 2 −4 −2 −2 4 −1 5
C=
2
, D=
1 1 5 3 7 3/2 1
−1 0 −2 −4 6 9 3 7
4 0 0 0 2 0 1 2
6 7 0 0 1 1 0 2
E=
9 11 1 0 , F =
2 −1 3 1
5 4 1 1 3 −1 4 3
Ejercicio 13. Calcula, utilizando la definición, las fórmulas para el determinante de una matriz
A 2 × 2 cualquiera y de una matriz A 3 × 3 cualquiera.
Ejercicio 14. (a) Da un ejemplo de dos matrices A y B para las cuales det(A+B) 6=detA+detB.
(b) Si B = P −1 AP , ¿por qué es detB =detA?
(c) Una matriz formada por ceros y unos, ¿ tiene determinante igual a 0, 1 ó −1 ?
(d) Demuestra que el determinante de una matriz antisimétrica de orden impar es 0.
Nota: Una matriz A es antisimétrica si AT = −A.
43
Ejercicio 16. Evalúa los determinantes siguientes:
¯ ¯ ¯ ¯
¯ 6 2 1 0 5 ¯¯ ¯ 1 2 −1 3 1 ¯¯
¯ ¯
¯ 2 1 1 −2 1 ¯¯ ¯ 2 −1 1 −2 3 ¯¯
¯ ¯
¯ ¯ ¯ ¯
¯ 1 1 2 −2 3 ¯ , ¯ 3 1 0 2 −1 ¯ .
¯ ¯ ¯ ¯
¯ 3 0 2 3 −1 ¯¯ ¯ 5 1 2 −3 4 ¯¯
¯ ¯
¯ −1 −1 −3 4 2 ¯ ¯ −2 3 −1 1 −2 ¯
¯ ¯ ¯ ¯
¯1 3 1 1¯ ¯1 1 −2 4 ¯
¯ ¯ ¯ ¯
¯2 1 5 2 ¯¯ ¯0 1 1 3 ¯¯
¯ , ¯ .
¯1 −1 2 3 ¯¯ ¯2 −1 1 0 ¯¯
¯ ¯
¯ ¯ ¯ ¯
4 1 −3 7 1 1 2 5
¯ ¯ ¯ ¯
¯ 1 1 i 0¯ ¯1 − i 0 2i −2i ¯
¯ ¯ ¯ ¯
¯ i 0 −3 2 ¯¯ ¯ 0 1 2 2 ¯¯
¯ , ¯ .
¯ 2 + 2i2 2i − 6 4 ¯¯ ¯ 1 0 1 + i 1 − i ¯¯
¯ ¯
¯
4i + 5 1 −3 − i 0¯ ¯
1 1 0 0 ¯
Ejercicio 4.
Primer sistema: compatible determinado. Solución: x1 = 1, x2 = 2, x3 = 0, x4 = −1.
Segundo sistema: compatible indeterminado.
Tercer sistema: incompatible.
Cuarto sistema: compatible determinado. Solución: x1 = 0, x2 = 0, x3 = 0, x4 = 0.
Ejercicio 5.
Primer sistema: compatible indeterminado. Solución: x = 8 − y, z = −4, t = 3.
Segundo sistema: incompatible.
Tercer sistema: compatible determinado. Solución: x = −7, y = 3, z = 2, t = 2.
Cuarto sistema: compatible determinado. Solución: x = 1, y = −1, z = 3.
Ejercicio 6.
Sistema (a). Tres casos:
Si a = 0, sistema incompatible.
44
Ejercicio 7. El primer sistema es compatible indeterminado. Las soluciones son de la forma
2i 2
x1 = 1+i x3 , x2 = 1+i x3 , x4 = 0.
Ejercicio 8. b2 + b3 − b1 = 0.
Ejercicio 9.
1 0 0 1 0 0 1 0 0
E= 0 0
1 , E = −3 1 0 , E = 0 1 0.
0 1 0 0 0 1 −5 0 1
Ejercicio 12.
−2 5 3 7
5 −12 −7 −16
B −1 =
−4
.
8 5 12
2 10 2 2
Ejercicio 15.
¯ ¯ ¯ ¯ ¯ ¯
¯1 a b + c ¯¯ ¯¯ 1 a a + b + c ¯¯ ¯1 a 1¯
¯ ¯ ¯
¯1 ¯ ¯ ¯
b a + c ¯ = ¯ 1 b a + b + c ¯ = (a + b + c) ¯¯ 1 b 1 ¯¯ = 0.
¯
¯1 c a + b¯ ¯1 c a + b + c¯ ¯1 c 1¯
Ejercicio 16.
Primer determinante = −24. Segundo determinante = −32.Tercer determinante = −115.Cuarto
determinante = 4.Quinto determinante = 0.Sexto determinante = −4 + 8i.
45
Tema 3
Varios son los objetivos de este tema. A diferencia de la lección anterior, que trataba de
resolver problemas concretos encontrando algoritmos apropiados para ello, aquı́ buscamos reglas
para manejar vectores. Cuando se habla de vectores, uno piensa en principio en los vectores del
plano (que ya hemos tratado someramente al explicar los números complejos) o los vectores en el
espacio tridimensional. Estos son, sin embargo, ejemplos de una estructura, la de espacio vectorial,
que tiene sentido sin la referencia geométrica. De esta forma, la palabra vector ha de entenderse
en un sentido más general, como elemento de un conjunto que tiene unas reglas operacionales
determinadas. Ası́, los polinomios son vectores, las matrices son vectores, etc. Tenemos entonces
que explicar lo que se entiende por espacio vectorial, las operaciones entre sus elementos, los
vectores, y las relaciones entre espacios vectoriales a través de las aplicaciones lineales.
El hecho de que estas dos operaciones entre vectores en el plano verifiquen una serie de reglas
(véase la definición general) significa que el conjunto de vectores en el plano con base en el origen
o R2 adquiere lo que se llama estructura de espacio vectorial. De manera que, en general, para
obtener un espacio vectorial, necesitamos un conjunto de elementos y dos operaciones sobre ese
conjunto que permitan generar nuevos elementos y que sigan unas reglas apropiadas.
46
3.2. Espacios vectoriales
Únicamente consideraremos espacios vectoriales sobre el cuerpo K = R ó C. Un espacio
vectorial (e. v.) sobre el cuerpo K de escalares es un conjunto no vacı́o V formado por elementos
~x ∈ V , dotado de una operación interna + : V ×V → V y de una operación externa · : K×V → V
de manera que se verifican las propiedades siguientes:
(1) Para cualesquiera ~x, ~y , ~z ∈ V
~x + (~y + ~z) = (~x + ~y ) + ~z.
(3) Existe un elemento neutro ~0 ∈ V tal que para cada ~x ∈ V se tiene que ~x + ~0 = ~0 + ~x = ~x.
(4) Para cada ~x ∈ V existe un elemento opuesto −~x ∈ V tal que ~x + (−~x) = (−~x) + ~x = ~0.
(5) Para cada ~x ∈ V y α, β ∈ K,
α · (β · ~x) = (αβ) · ~x.
Ejemplos
2. V = C n con las operaciones de antes puede ser un espacio vectorial sobre R o sobre C.
3. V = Mm,n (K), con las operaciones definidas en el tema 1, es un espacio vectorial sobre K.
4. V = P [X], espacio de todos los polinomios en una variable y coeficientes complejos, es, con
las operaciones habituales de suma de polinomios y producto de un polinomio por un escalar, un
espacio vectorial sobre K.
5. V = Pn [X], espacio de los polinomios en una variable, coeficientes complejos y grado a lo sumo
n es, con las operaciones habituales de suma de polinomios y producto de un polinomio por un
escalar, un espacio vectorial sobre K.
47
3.2.1. Combinaciones lineales. Subespacios vectoriales
Ası́ pues, un hecho importante de los espacios vectoriales es que se pueden sumar vectores y
multiplicar vectores por escalares, es decir, formar combinaciones lineales de vectores, obteniendo
ası́ nuevos elementos del espacio vectorial. Dado un e.v. V sobre K, se dice que un vector ~v ∈ V es
combinación lineal del sistema finito {~v1 , ~v2 , . . . , ~vm } si existen escalares λ1 , λ2 , . . . , λm de manera
que
m
X
~v = λ1~v1 + λ2~v2 + · · · + λm~vm = λk~vk .
k=1
Ejemplos
(1) Para una matriz A ∈ Mm,n (K) el conjunto de soluciones del sistema lineal homogéneo A~x = ~0
es un subespacio vectorial de Kn .
(2) El conjunto de vectores de R3 ,
W = {(0, 0, 1)T , (0, 1, 0)T },
no es un subespacio vectorial, pues el vector (0, 0, 1)T + (0, 1, 0)T = (0, 1, 1)T no pertenece a W .
Todo conjunto de vectores G, aunque no sea un subespacio vectorial, lleva asociado uno. Es
el llamado espacio generado por G y es el conjunto de todas las combinaciones lineales formadas
con elementos de G. Es el mı́nimo subespacio vectorial que contiene a G y se denota por hGi o
span(G).
Ejemplos
(1) Para una matriz A ∈ Mm,n (K) se puede definir: 1. El espacio columna de A, que es el
subespacio de Km generado por las columnas de A. 2. El espacio fila de A, que es el subespacio
de Kn generado por las filas de A.
(2) El conjunto de vectores de R3 ,
G = {(0, 0, 1)T , (0, 1, 0)T },
genera el subespacio vectorial
hGi = {(x, y, z)T ∈ R3 /x = 0}.
48
3.2.2. Dependencia e independencia lineal. Bases y dimensión
Una descripción más explı́cita de un e.v. puede darse a partir de relaciones entre sus elementos
los vectores.
Sea V un e.v. Se dice que los vectores ~x1 , . . . , ~xn ∈ V son linealmente dependientes si existen
escalares λ1 , . . . , λn ∈ K no todos nulos verificando
Esto significa que algún vector del sistema es combinación lineal de los restantes. Recı́procamente,
si un vector ~x ∈ V es combinación lineal de los vectores ~x1 , . . . , ~xn entonces existen escalares
λ1 , . . . , λn con
~x = λ1 ~x1 + · · · + λn ~xn ,
es decir,
Si consideramos los vectores como flechas desde el origen, no es difı́cil visualizar la dependencia
lineal en el espacio tridimensional. Dos vectores son dependientes si están en la misma recta, y
tres vectores son dependientes si están en el mismo plano.
Por ejemplo, las columnas de la matriz
1 3 0
A= 2 6 1 ,
−1 −3 −3
son linealmente dependientes, ya que la segunda columna es tres veces la primera. Un poco más
complicado de ver es que las filas son también dependientes.
Se dice que un conjunto finito de vectores {~x1 , . . . , ~xn } es libre cuando los vectores ~x1 , . . . , ~xn
son linealmente independientes. Caso de no ser libre, el conjunto se denomina ligado.
Pasamos ahora a explicar lo que es una base en un espacio vectorial. Para manejar en la
práctica muchos espacios vectoriales, se suele buscar un conjunto finito y destacado de vectores,
de manera que cualquier otro vector del espacio vectorial pueda escribirse como combinación lineal
de los vectores de este conjunto. Esto no siempre puede hacerse, pues hay espacio vectoriales que
no pueden describirse completamente por un conjunto finito de vectores. Sin embargo, hay otros
que sı́ admiten tal propiedad; son los llamados espacios vectoriales de generación finita. Por
ejemplo, todo vector de R3 (x, y, z)T es una combinación lineal
49
de los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T ; de este modo, el espacio vectorial R3 es de generación
finita, pues todo vector de R3 puede escribirse como combinación lineal de un conjunto finito de
vectores.
Vamos a restringirnos a partir de ahora a espacios vectoriales de generación finita. Se dice
que un conjunto G = {~x1 , . . . , ~xn } de vectores de un espacio vectorial V es un sistema generador
de V si todo vector de V puede escribirse como combinación lineal de los vectores de G.
Para poder describir completamente todos los vectores de un espacio vectorial, necesitaremos
entonces que éste admita un sistema de generadores. Sin embargo, no es suficiente con esto. Para
ver el porqué, consideremos el siguiente ejemplo de vectores en el plano:
Cualquier vector ~v = (x, y)T de R2 se puede escribir como combinación lineal de estos tres
vectores; por ejemplo,
De esta manera, el conjunto G = {~v1 , ~v2 , ~v3 } es un conjunto de generadores de R2 . Sin embargo,
hay un problema. Por ejemplo, el vector ~v = (1, 1)T se puede escribir como
o también como
El hecho de que un mismo vector se pueda escribir como combinación lineal de los tres vectores de
más de una forma da lugar a confusión. Ası́, necesitamos que los vectores del sistema generador
que tomemos verifiquen que cualquier vector se pueda escribir como combinación lineal de ellos
sólo de una forma.
Siguiendo con el mismo ejemplo, observemos que si ahora tomamos el conjunto G0 = {~v1 , ~v2 },
éste sigue siendo un sistema de generadores de vectores del plano, pues si ~v = (x, y)T es cualquiera,
se puede escribir
~v = x~v1 + y~v2 .
entonces se tiene
50
vectores de un sistema generador, hay que exigir a éstos que sean linealmente independientes.
Esto da lugar a la definición de base. Se dice que un conjunto de vectores B = {~x1 , . . . , ~xn } ⊂ V
es una base de V cuando B es un sistema generador y libre. Añadir la propiedad de independencia
lineal a la de generador implica que cada vector ~v ∈ V puede expresarse de una y sólo una manera
como combinación de los vectores de una base.
A todo esto hay que añadir dos cosas: la primera es que podemos tener más de una base en
un espacio vectorial de generación finita. Ası́, en el ejemplo anterior, G0 forma una base, pero
también G00 = {~v1 , ~v3 } forma una base, o también G000 = {~v2 , ~v3 }. Lo segundo a mencionar es el
llamado teorema de la base:
Teorema 2. Todas las bases de un espacio vectorial de generación finita V son finitas y poseen el
mismo número de elementos. Este número se denomina dimensión del e. v. V y se escribe dimK V .
Ejemplos.
(1) Bases canónicas (véase el ejercicio 1). Ya hemos visto que los vectores (1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T
constituyen un sistema generador de R3 . Además, son linealmente independientes, pues cualquier
combinación lineal nula de ellos
genera un sistema lineal de tres ecuaciones trivial con λ1 = λ2 = λ3 = 0. De este modo, forman
una base de R3 llamada base canónica. Por tanto dimR R3 = 3.
(2) En general, la base canónica de Rn como espacio vectorial sobre R es el conjunto de n vectores,
(3) En el espacio de los polinomios de grado menor o igual que un entero no negativo n y
coeficientes reales, denotado por Pn [X], la base canónica viene dada por los monomios
1, x, x2 , . . . , xn ,
Las siguientes propiedades establecen las formas para obtener bases de sistemas generadores
y de sistemas libres.
51
3. Si G es un sistema generador, entonces tiene como mı́nimo n elementos. Además, G es una
base si y sólo si contiene exactamente n elementos.
4. Un sistema libre L ⊂ V es una base si y sólo si no se puede ampliar a otro sistema libre.
5. Cualquier sistema libre se puede extender a una base, añadiendo más vectores si es necesario.
Por tanto, una base es un conjunto independiente máximo. No puede ser más grande porque
entonces perderı́a la independencia (propiedad 4 del Teorema 2). No puede ser menor porque
entonces no generarı́a todo el espacio (propiedad 1 del Teorema 2).
En términos generales, para determinar si un conjunto de vectores forma una base, hemos
de comprobar que es un sistema generador y que es un sistema libre. Sin embargo, los distintos
resultados del Teorema 2 tienen su aplicación a la hora de determinar bases de un espacio vectorial.
En este sentido, las propiedades 3 y 6 son bastante útiles cuando se conoce la dimensión del
espacio en el que está uno trabajando. Ası́, la propiedad 3 dice, por ejemplo, que si tenemos
tres vectores en R3 que forman un sistema generador, entonces directamente forman una base,
pues su número es exactamente la dimensión de R3 . Nos ahorramos entonces comprobar que son
linealmente independientes. Igualmente, si uno conoce dos vectores en R2 que son linealmente
independientes, la propiedad 6 nos dice que entonces forman una base. No es necesario por tanto
estudiar si generan todo R2 .
Se dice que x1 , x2 , . . . , xn son las coordenadas del vector ~x respecto de la base B. Cuando se
sobreentiende cuál es la base B, se suele escribir ~x = (x1 , x2 , . . . , xn )T o bien, en otro caso,
M (~x, B) = (x1 , x2 , . . . , xn )T .
Por ejemplo, el vector ~v = (1, 2, 3)T tiene coordenadas en la base canónica
52
va a ser posible relacionar unas coordenadas con otras; las relaciones que ligan a los dos sistemas
de coordenadas se llaman ecuaciones del cambio de base.
Pongamos primero un ejemplo. Como hemos visto, dada la base canónica B = {~e1 , ~e2 , ~e3 } de
R , el vector ~v = ~e1 + 2~e2 + 3~e3 tiene por coordenadas ~v = (1, 2, 3)T en la base B. Consideramos
3
ahora otra base de R3 , por ejemplo B 0 = {~v1 , ~v2 , ~v3 }, donde ~v1 = (1, 1, 0)T , ~v2 = (0, 1, −1)T , ~v3 =
(−1, 1, −1)T . Nuestro problema es expresar el vector ~v con respecto a la nueva base B 0 , es decir,
calcular sus coordenadas en esta base. Imaginemos que tales coordenadas son
Observemos que los vectores de B 0 se expresan con respecto a la base canónica B del siguiente
modo:
Sustituyendo, se tiene:
~v = x01~v1 + x02~v2 + x03~v3 = x01 (~e1 + ~e2 ) + x02 (~e2 − ~e3 ) + x03 (−~e1 + ~e2 − ~e3 )
= (x01 − x03 )~e1 + (x01 + x02 + x03 )~e2 + (−x02 − x03 )~e3 .
Tenemos entonces dos expresiones de un mismo vector en la base B; deben por tanto coincidir.
Entonces,
x01 − x03 = 1
x01 + x02 + x03 = 2
−x02 − x03 = 3.
que, resolviendo, proporciona los valores x01 = 5, x02 = −7, x03 = 4 y M (~v , B) = (5, −7, 4)T . Hay
que fijarse en la matriz del sistema: su primera columna está formada por las coordenadas del
vector ~v1 en la base B, la segunda columna está formada por las coordenadas del vector ~v2 en la
base B y la tercera tiene por elementos las coordenadas del vector ~v3 en la base B.
Este procedimiento se puede generalizar. Sea V un e. v. sobre K de dimensión n. Sea B =
{b1 , ~b2 , . . . , ~bn } una base de V , en las que las coordenadas de un vector ~x ∈ V se denotan por
~
M (~x, B) = (x1 , x2 , . . . , xn )T . Sea B 0 = {~b01 , ~b02 , . . . , ~b0n } otra base de V , en la que las coordenadas
53
de ~x ∈ V se denotan por M (~x, B 0 ) = (x01 , x02 , . . . , x0n )T . Supongamos que se conocen los vectores
de B 0 en función de los de B, es decir,
~b0 = q11~b1 + q21~b2 + · · · + qn1~bn
1
~b0 = q12~b1 + q22~b2 + · · · + qn2~bn
2
.. .
. = ..
~b0 = q1n~b1 + q2n~b2 + · · · + qnn~bn .
n
Ejemplo. Calculemos las coordenadas del vector ~x = (3, 2, 1)T en la base B 0 = {~v1 , ~v2 , ~v3 }, donde
~v1 = (1, 2, 0)T , ~v2 = (−3, −7, 1)T , ~v3 = (0, −2, 1)T . La base de referencia donde está dispuesto el
vector ~x es la base canónica. La relación entre las dos bases es
~v1 = ~e1 + 2~e2
~v2 = −3~e1 − 7~e2 + ~e3
~v1 = −2~e2 + ~e3 .
Entonces la matriz de cambio de base es
1 −3 0
Q = 2 −7 −2 .
0 1 1
Luego, las nuevas coordenadas M (~x, B 0 ) = (x01 , x02 , x03 )T deben verificar el sistema lineal
3 1 −3 0 x01
2 = 2 −7 −2 x0 ,
2
1 0 1 1 x03
que, resolviendo, nos da x01 = −3, x02 = −2, x03 = 3.
54
3.3. Subespacios fundamentales de una matriz
3.3.1. Definición y propiedades
Pasamos ahora a describir un procedimiento para resolver en la práctica varios problemas que
se han ido planteando en secciones anteriores. Concretamente:
Con respecto al problema 1, generalmente los subespacios (que no sean el formado exclusiva-
mente por el vector nulo) se describen de dos maneras. La primera consiste en dar un sistema de
generadores del subespacio (en particular, una base) que pueden disponerse como el espacio fila o
el espacio columna de una matriz. En la segunda, podemos dar una lista de restricciones acerca del
subespacio; en lugar de decir cuáles son los vectores en el subespacio, se dicen las propiedades que
deben satisfacer. Generalmente estas restricciones vienen dadas más o menos explı́citamente por
un conjunto de ecuaciones lineales, de modo que el subespacio queda descrito como el conjunto
de soluciones de un sistema lineal homogéneo A~x = ~0 y cada ecuación del sistema representa una
restricción. En el primer tipo puede haber filas o columnas redundantes y en el segundo puede
haber restricciones redundantes. En ninguno de los dos casos es posible dar una base (resolver el
problema 2) por mera inspección, es necesario algún procedimiento sistemático.
El método que aquı́ explicaremos está basado en el proceso de eliminación gaussiana de una
matriz A dado en el tema 1 y la matriz U escalonada superior que quedaba asociada a ésta al
final del proceso. Con este procedimiento vamos también a poder resolver los problemas 3 y 4 y
el problema añadido de cómo pasar de una representación de un subespacio a la otra.
Definición. Supongamos que reducimos una matriz A ∈ Mm,n (K) mediante operaciones elemen-
tales a una matriz U de forma escalonada. Llamemos r al número de pivotes de U , de tal modo
que las últimas m − r filas de U son idénticamente nulas. A este número r se le llama rango de
la matriz A.
La relación entre los subespacios fundamentales de una matriz y los subespacios vectoriales es
la siguiente: si el subespacio viene dado por un sistema de generadores, será el espacio fila (o el
espacio columna) de la matriz cuyas filas (o columnas) sean los vectores del sistema generador. Si
55
el subespacio viene dado por un conjunto de restricciones, se escribirá como el espacio nulo o el
espacio nulo por la izquierda de una matriz, la del sistema homogéneo dado por las restricciones.
Queda claro entonces que para determinar una base de un subespacio tenemos que analizar
la manera de determinar una base de los subespacios fundamentales de una matriz. En ello
tendrá que ver su forma escalonada obtenida por eliminación gaussiana.
f il(A) = f il(U ),
por tanto, f il(A) tiene la misma dimensión r y la misma base. Hay que notar que no comen-
zamos con las m filas de A, que generan el espacio fila y descartamos m − r para obtener una
base. Podrı́amos hacerlo, pero puede ser difı́cil decidir cuáles filas descartar; es más sencillo tomar
simplemente las filas de U distintas de cero.
Ejemplo. Determina una base del subespacio de R4 generado por los vectores ~v1 = (1, 1, 0, 1)T , ~v2 =
(1, 2, 2, 1)T , ~v3 = (3, 4, 2, 3)T .
Disponemos los vectores generadores como las filas de una matriz
1 1 0 1
A = 1 2 2 1.
3 4 2 3
Puesto que U tiene dos pivotes, r = 2, de modo que la dimensión del subespacio es dos. Como
una base de f il(U ) lo forman las dos primeras filas, lo mismo ocurre con f il(A), de manera que
una base del subespacio es w~ 1 = (1, 1, 0, 1)T , w
~ 2 = (0, 1, 2, 0)T .
2. Espacio nulo de A. Es el formado por los vectores ~x tales que A~x = ~0. En la eliminación
gaussiana se reduce el sistema A~x = ~0 al sistema U~x = ~0 precisamente sin alterar ninguna de las
soluciones. Por tanto, el espacio nulo de A es el mismo que el de U ,
Ker(A) = Ker(U ).
De las m aparentes restricciones impuestas por las m ecuaciones A~x = ~0 sólo r son independientes,
especificadas precisamente por las r filas de U distintas de cero. Ası́, el espacio nulo de A tiene
dimensión n−r, que es el número de variables libres del sistema reducido U~x = ~0, correspondientes
a las columnas de U sin pivotes. Para obtener una base, podemos dar el valor 1 a cada variable
libre, cero a las restantes y resolver U~x = ~0 para las r variables básicas por sustitución regresiva.
Los n − r vectores ası́ producidos forman una base de Ker(A).
56
Ejemplo. Determina una base del subespacio W de R4 , formado por los vectores ~x = (x1 , x2 , x3 , x4 )T
tales que
−x1 + x2 − x3 + 2x4 = 0
2x1 − 2x2 + x3 = 0
5x1 − 5x2 + 3x3 − 2x4 = 0
x1 + x3 = x2 + 2x4
x3 = 4x4
Dando los valores x2 = 1, x4 = 0, tenemos el vector ~v1 = (1, 1, 0, 0)T . Con los valores x2 = 0, x4 =
1 se obtiene ~v2 = (−2, 0, 4, 1)T . Los vectores ~v1 , ~v2 forman una base de W .
3. Espacio columna de A. Podrı́amos tener en cuenta que las columnas de A son las filas
de AT y actuar sobre AT . Es mejor, sin embargo, estudiar el espacio columna en términos de los
números originales m, n y r.
Es importante destacar que A no tiene el mismo espacio columna que U . La eliminación
gaussiana altera las columnas. Sin embargo, cada vez que ciertas columnas de U formen una base
del espacio columna de U , las correspondientes columnas de A forman una base del espacio
columna de A.
La razón es la siguiente: sabemos que A~x = ~0 si y sólo si U~x = ~0. Los dos sistemas son equiva-
lentes y tienen las mismas soluciones. En términos de multiplicación de matrices, A~x = ~0 expresa
una dependencia lineal entre las columnas de A, con coeficientes dados por las coordenadas de ~x.
Por tanto, cada una de estas dependencias corresponde a una dependencia lineal U~x = ~0 entre las
columnas de U y con los mismos coeficientes. Si el conjunto de columnas de A es independiente,
lo mismo es válido para las columnas de U y viceversa.
Ahora, para encontrar una base de col(A), partimos de encontrar una base de col(U ). Pero
una base de col(U ) la forman las r columnas de U que contienen los pivotes. Ası́, tenemos:
La dimensión de col(A) es igual al rango r, que es la dimensión de f il(A): en cualquier matriz,
el número de filas independientes es igual al número de columnas independientes. Una base de
col(A) está formada por aquellas r columnas de A correspondientes, en U , a las columnas que
contienen los pivotes.
57
Ejemplo. Para la matriz
1 2 0 1
A= 0 1 1 0,
1 2 0 1
la eliminación gaussiana lleva a que
1 2 0 1
U= 0 1 1 0.
0 0 0 0
Para U , las columnas con pivote son la primera y la segunda, luego una base de col(A) está for-
mada por las dos primeras columnas de A: (1, 0, 1)T , (2, 1, 2)T .
esta regla puede aplicarse a AT , que tiene m columnas. Como rango fila=rango columna = r,
entonces dimKer(AT ) = m − r. Se puede determinar una base de Ker(AT ) de la misma manera
que se ha hecho con el espacio nulo de A.
Explicado el procedimiento para obtener una base de un subespacio, resolvemos los problemas
pendientes.
Para obtener una base de un sistema generador (problema 3), basta con hallar una base del
espacio fila de la matriz cuyas filas son los vectores generadores.
Ejemplo. Obtenemos una base del subespacio generado por el sistema de generadores de R3 :
~v1 = (1, 2, 1)T , ~v2 = (3, 2, 1)T , ~v3 = (4, 0, 0)T , ~v4 = (−1, 2, 1)T .
Disponemos los vectores como las filas de una matriz y reducimos a forma escalonada
1 2 1 1 2 1 1 2 1
3 2 1 0 −4 −2 0 −4 −2
→
4 0 0 0 −8 −4 → 0 0 0
−1 2 1 0 4 2 0 0 0
La dimensión del espacio fila es dos, luego de los cuatro vectores sólo dos son independientes.
Una base del subespacio lo forman los vectores (1, 2, 1)T , (0, −4, −2)T .
Para obtener una base de un espacio vectorial a partir de un sistema libre (problema 4) basta
con ampliar el espacio fila correspondiente con vectores que van siendo independientes, hasta
completar la dimensión.
58
Ejemplo. Completamos a una base de R4 a partir de los vectores ~v1 = (1, 1, 0, 1)T , ~v2 =
(1, 2, 2, 1)T , ~v3 = (3, 0, 2, 3)T .
Disponemos los vectores como las filas de una matriz y reducimos a forma escalonada.
1 1 0 1 1 1 0 1 1 1 0 1
1 2 2 1 → 0 1 2 0 → 0 1 2 0.
3 0 2 3 0 −3 2 0 0 0 8 0
Si añadimos una cuarta fila con un pivote, por ejemplo, (0, 0, 0, 1)T , tenemos que la dimensión
del espacio fila de la matriz que forman los tres primeros vectores y este cuarto es cuatro, luego
un vector que completa a una base es, por ejemplo, (0, 0, 0, 1)T .
Ejemplo. Obtenemos las ecuaciones del subespacio generado por los vectores ~v1 = (1, 0, 3)T , ~v2 =
(−2, 3, −1)T .
Disponemos los vectores como las filas de una matriz, añadiendo una tercera fila con un vector
genérico (x, y, z)T del subespacio y reducimos a forma escalonada:
1 0 3 1 0 3 1 0 3
−2 3
−1 → 0 3 5
→ 0 3 5
x y z 0 y z − 3x 0 0 z − 3x − (5/3)y
Como el vector (x, y, z)T está en el subespacio, la dimensión del espacio fila de la matriz ha de
ser dos, luego la última fila de la forma escalonada tiene que ser nula. Por tanto, el subespacio es
Al revés, para dar un sistema generador a partir de las ecuaciones de un subespacio, basta
con calcular una base del espacio nulo de la matriz del sistema de ecuaciones.
59
Ejemplo. Para los subespacios
W1 = {(x, y, z)T /x + y + z = 0}
W2 = {(x, y, z)T /x − z = 0}
el subespacio W1 ∩ W2 es
W1 ∩ W2 = {(x, y, z)T /x + y + z = 0, x − z = 0}
W1 = {(x, y, z)T /x + y = 0, z = 0}
W2 = {(x, y, z)T /z = 0}.
La forma de determinar una base del subespacio suma muestra que todo vector w ~ de W =
W1 + W2 puede escribirse como suma w ~ =w ~1 + w~ 2 donde w~ 1 ∈ W1 y w
~ 2 ∈ W2 .
Cuando los subespacios sólo tiene en común el vector nulo, W1 ∩W2 = {~0}, el subespacio suma
se denomina suma directa de W1 y W2 y se denota por W = W1 ⊕ W2 . En este caso, los vectores
componentes w~ 1, w
~ 2 de la descomposición w~ =w ~1 + w~ 2 de cualquier vector w
~ de la suma que
mencionábamos antes son únicos: los vectores de W sólo pueden descomponerse de una forma.
W1 = {(x, y, z)T /x + y = 0, z = 0}
W2 = {(x, y, z)T /z = 0},
60
Fórmula de las dimensiones. Si W1 y W2 son dos subespacios vectoriales de dimensión finita
En particular, si W1 ∩ W2 = {~0},
¡
µ
¡
¡
~v = (x, y) T~v = ( 21 x, 12 y) ¡T ~
v = (2x, 2y)
¡
¡
µ
¡ ¡
¡ ¡
¡ µ
¡
¡ ¡
¡ ¡ ¡
Desde el punto de vista algebraico, esto significa multiplicar cada componente del vector por
una constante λ ∈ R. Si 0 < λ < 1, el vector se reduce de tamaño, si λ > 1, aumenta. En el caso
de que λ < 0, el vector cambia además de sentido. Todo ello genera una transformación entre
vectores (homotecia de centro el origen y razón λ),
2 2
T : R
µ → ¶ R µ ¶
x λx
7−→ T (x, y) = .
y λy
Éste es un primer ejemplo de una transformación lineal entre espacios vectoriales. Se dice que es
lineal por lo siguiente: si uno toma una combinación de dos vectores cualesquiera y le aplica la
homotecia, el vector resultante es el mismo que si aplicamos primero la homotecia a los vectores
originales y luego hacemos la combinación lineal a los vectores transformados. Fijémonos por
último en que la aplicación se puede escribir como el producto de una matriz por el vector
genérico, en la forma
µ ¶ µ ¶ µ ¶µ ¶
x λx λ 0 x
7−→ T (x, y) = = .
y λy 0 λ y
El siguiente ejemplo tiene también su interpretación geométrica. Se trata de girar los vectores
del plano un ángulo determinado α.
61
¢̧
¢ T (~
v)
¢
¢ ~v = (x, y)
¢ *
©
¢ α ©©
¢
© ©©
¢ © θ
¢ ©
©
Para dar una expresión a esta tranformación entre vectores podemos hacer uso de los números
complejos que tratamos en el tema preliminar. Recordemos que un vector en el plano con base
en el origen y coordenadas ~v = (x, y)T representa también el complejo z = x p+ iy o, en forma
trigonométrica z = r cos θ + ir sin θ, donde x = r cos θ, y = r sin θ, r = |z| = x2 + y 2 y θ es el
argumento principal de z. Observemos entonces que un giro de ángulo α proporciona un nuevo
vector, es decir, un nuevo complejo, cuyo módulo es similar al del vector de inicio, mientras que
uno de sus argumentos se obtiene sumando α al argumento θ. De este modo, el nuevo complejo
puede escribirse
T (z) = r cos (θ + α) + ir sin (θ + α),
es decir, el vector transformado tiene por coordenadas
T (~v ) = (r cos (θ + α), r sin (θ + α))T .
En términos de las componentes originales x e y, hay que tener en cuenta que x = r cos θ, y =
r sin θ y las relaciones
cos(θ + α) = cos(θ) cos(α) − sin(θ) sin(α),
sin(θ + α) = cos(θ) sin(α) + sin(θ) cos(α).
Podemos entonces escribir que
µ ¶µ ¶
T cos α − sin α x
T (~v ) = T (x, y) = (x cos(α) − y sin(α), x sin(α) + y cos(α)) = ,
sin α cos α y
transformación que se expresa como producto de una matriz por el vector de salida. La aplicación
2 2
T : R
µ → ¶ R µ ¶µ ¶
x cos α − sin α x
7−→ T (x, y) =
y sin α cos α y
es lineal. Esto puede razonarse como antes. Si combinamos dos vectores y el vector resultante gira
un ángulo α, el resultado es el mismo que si primero giramos los vectores originales un ángulo α
y luego hacemos la combinación lineal a los vectores resultantes del giro.
Naturalmente, no todas las aplicaciones son lineales. Por ejemplo, otra de las transformaciones
que pueden hacerse en R2 es añadir una cantidad fija a cada componente α, β 6= 0 de los vectores.
Por ejemplo, podemos generar la aplicación
2 2
T : R
µ → ¶ R µ ¶
x x+1
7−→ T (x, y) = .
y y+1
62
Esta transformación no es lineal. Si, por ejemplo, sumamos dos vectores y a la suma se añade el
vector (α, β)T = (1, 1)T , el resultado no es el mismo que si primero añadimos (α, β)T = (1, 1)T a
los vectores originales y luego sumamos. Hay que observar también que esta transformación no
puede escribirse como producto matriz por vector.
Estos ejemplos pretenden mostrar que para que una aplicación entre espacios vectoriales sea
lineal, su actuación sobre los vectores debe conmutar con las operaciones de los subespacios:
combinar los vectores y transformar debe dar el mismo resultado que transformar primero los
vectores y luego combinarlos.
Esto es
63
3.5.2. Matriz de una aplicación lineal. Cambio de base
En espacios de dimensión finita, para manejarse con aplicaciones lineales, es mejor utilizar
coordenadas. Ello va a permitir relacionar las aplicaciones lineales con las matrices, lo que hace
más sencillo el uso de las primeras.
Sean U y V espacios vectoriales de dimensión finita sobre un mismo cuerpo K. Sean BU =
{~u1 , . . . , ~un }, BV = {~v1 , . . . , ~vm } bases en U y V respectivamente. Sea T : U → V una aplicación
lineal. Se define la matriz de la aplicación lineal T en dichas bases como la matriz M (T, BU , BV ) ∈
Mm,n (K) cuyas columnas son las coordenadas de las imágenes por T de los vectores de la base
de partida BU , expresadas en la base de llegada BV , esto es
Ejemplos.
[1] Para la aplicación lineal T : R4 → R3 , T (x1 , x2 , x3 , x4 ) = (x1 +x2 +x3 , x2 +x4 , x1 +x2 +x3 +x4 ),
se tiene que, en las bases canónicas
1 1 1 0
c c
M (T, BR 4 , B R3 ) = 0 1 0 1.
1 1 1 1
La razón es la siguiente: la primera columna de la matriz corresponde al vector imagen por T del
primer vector de la base canónica en R4 , escrito con respecto a la base canónica en R3 , esto es
[2] Para la aplicación lineal T : P4 [X] → P3 [X], T (p(x)) = p0 (x) se tiene que en las bases canónicas
la matriz de T es
0 1 0 0 0
0 0 2 0 0
M (T, BPc 4 [X] , BPc 3 [X] ) =
0
.
0 0 3 0
0 0 0 0 4
Veamos cómo se van generando las columnas. La primera es la imagen por T del primer vector, el
polinomio p(x) = 1. Como p0 (x) = 0, entonces T (p(x)) es el polinomio nulo, luego sus coordenadas
son todas nulas en cualquier base. La segunda columna de la matriz es la imagen por T del
polinomio p(x) = x. esto es
64
de coordenadas (1, 0, 0, 0) en la base canónica de P3 [X]. Estas coordenadas forman la segunda
columna de la matriz. Ası́ sucesivamente,
(ii) La expresión de la matriz depende de las bases elegidas: si cambian las bases, cambia la
matriz. Insistiremos más adelante sobre ello.
Ya hemos comentado que al cambiar las bases en los espacios vectoriales cambia la matriz
de la aplicación lineal. Veamos cómo afectan los cambios de base. Consideremos una aplicación
lineal T : U → V de la que conocemos su matriz asociada M (T, BU , BV ) cuando fijamos las
bases BU , BV . Imaginemos que cambiamos las bases a BU0 , BV0 y queremos determinar la matriz
asociada a T en estas bases, M (T, BU0 , BV0 ). Planteamos el siguiente esquema
65
M (T, BU , BV ) - VB T (~
UBU V
x)
6 6
M (BU0 , BU ) M (BV0 , BV )
Las flechas a la izquierda y a la derecha son las que llevan, respectivamente, un vector escrito
en la base BU0 en el mismo vector expresado ahora en la base BU y cualquier vector escrito en
la base BV0 en el mismo vector expresado ahora en la base BV . Ambas transformaciones vienen
entonces dadas por las correspondientes matrices de cambio de base M (BU0 , BU ), M (BV0 , BV ) de
las que hablamos al principio de la lección (coordenadas de un vector respecto a una base y
cambio de base). Ası́, por ejemplo, la flecha de la izquierda lleva un vector ~u ∈ U en
M (BU0 , BU )~u,
M (BV0 , BV )~v .
Por otro lado, las flechas de arriba y de abajo corresponden a la aplicación lineal T pero en bases
distintas. Supongamos que conocemos la matriz asociada a T arriba, es decir M (T, BU , BV ), pero
no la de abajo M (T, BU0 , BV0 ), que es la que queremos calcular.
Fijémonos ahora en que tiene que ser igual llevar un vector ~x ∈ U desde la esquina inferior
izquierda a su imagen T (~x) en la esquina superior derecha por los dos caminos siguientes: flecha
izquierda + flecha arriba o bien flecha abajo + flecha derecha. En términos matriciales, el primer
camino es
y el segundo es
66
por tanto
Ahora bien, el vector ~x en este razonamiento es arbitrario, de modo que la igualdad vectorial es
en realidad una igualdad matricial
BU = {(1, 0, 0)T , (0, 1, 0)T , (0, 0, 1)T }, BV = {(1, 0)T , (0, 1)T }
BU0 = {(1, 0, 0)T , (1, 0, 1)T , (1, 1, 0)T }, BV0 = {(1, −1)T , (0, 1)T },
Fijémonos entonces que una aplicación lineal suele venir dada o bien en forma explı́cita, es
decir, dando su imagen para un vector genérico, o bien, si hemos fijado bases, a través de un
producto matriz por vector.
Por último, la siguiente fórmula de dimensiones relaciona en su demostración el núcleo y la
imagen de una aplicación lineal con subespacios fundamentales de una cualquiera de sus matrices
asociadas.
dimKer(T ) = dimKer(A) = n − r,
dimIm(T ) = dimcol(A) = r,
67
EJERCICIOS DEL TEMA 2
Ejercicio 1. Para los siguientes espacios vectoriales E sobre R, comprueba que el conjunto de
vectores dado es una base de dicho espacio (llamada base canónica):
(1) E = Rn , B = {~e1 , · · · , ~en }, ~ej vector de tamaño n con todas sus componentes nulas excepto
la j-ésima que vale 1.
(2) E = Pn [X] (conjunto de polinomios de grado menor o igual que n y coeficientes reales),
B = {1, x, · · · , xn }.
(3) E = Mmxn (R) (conjunto de matrices de m filas y n columnas con elementos reales), B =
{A1,1 , · · · , Am,n } con Ar,s = Ir,s (matriz de m filas y n columnas con todos sus elementos nulos
excepto el 1 de la posición (r, s)).
(4) E = C n , B = {~e1 , · · · , ~en , ~v1 , · · · , ~vn } con ~vj el vector de n componentes, todas ellas nulas
salvo la j-ésima que vale i y ~ej el del apartado (1).
Calcula la dimensión de cada uno de ellos. ¿ Qué bases canónicas se obtienen al considerar los
anteriores espacios vectoriales sobre C?.
Ejercicio 2. De los siguientes subconjuntos de R3 , identifica los que son subespacios vectoriales
de R3 , razonando tu respuesta:
(a) {(x, y, z)T /y = 0}
(b) {(x, y, z)T /x = 0, y + z = 0}
(c) {(x, y, z)T /x = y, z = 2x}
Ejercicio 3. ¿Cuáles de los siguientes subconjuntos de R4 son subespacios? Cuando lo sean halla
su dimensión y una base.
a) El conjunto de los vectores (x1 , x2 , x3 , x4 )T con x1 x3 x4 = 0.
b) El conjunto de los vectores (x1 , x2 , x3 , x4 )T que satisfacen x1 − 2x2 + 4x3 − x4 = 0.
c) El conjunto de los vectores (x1 , x2 , x3 , x4 )T con x1 = 0 y x4 = 2.
Ejercicio 6. Determina si los siguientes conjuntos de vectores son libres o ligados en función del
valor del parámetro a:
a) [1, 2, −4]T , [−1, −2, a]T , [a, 8, −16]T , [1, −1, 5]T
b) [1, 1, 0, 1]T , [1, 2, 2, 1]T , [3, a, 2, 3]T
c) [1, 2, 1, 0]T , [1, 1, 1, 1]T , [a, 0, −1, −2]T , [0, 1, −1, 1]T .
68
Ejercicio 7. En el espacio de los polinomios de grado menor o igual que 2 se considera el
subespacio S generado por los polinomios 1 + 2x, 2 + x2 , 3 + 2x + x2 y 4 + 4x + x2 . Halla una
base de S y da las coordenadas del polinomio 3x2 − 4x + 4 en dicha base.
Ejercicio 8. Halla una base de los subespacios generados por los conjuntos de vectores siguientes,
y amplı́a dichas bases hasta obtener una base del espacio R4 :
a) [2, 1, 3, 0]T , [−1, 0, 0, 2]T , [3, 1, 1, 1]T y [4, 1, −1, 2]T .
b) [2, 0, 1, 3]T , [1, 1, 0, −1]T , [0, −2, 1, 5]T y [3, −1, 2, 7]T .
Halla las coordenadas en las bases de R4 obtenidas en los apartados a) y b) del vector [1, 0, 2, 1]T .
Ejercicio 9. Sea P4 [X] el espacio vectorial de los polinomios de grado menor o igual que 4 con
coeficientes reales.
(1) Demuestra que B = {1, x, x(x − 1), x3 , x4 } es una base de P4 [X].
Sea W el subconjunto de P4 [X] definido por
W = {p(x) ∈ P4 [X]/p(1) = p(−1) = 0}.
(2) Demuestra que W es un subespacio vectorial.
(3) Encuentra la dimensión y una base de W .
(4) Completa dicha base a una de P4 [X], B‘.
(5) Halla la matriz de cambio de base M (B‘, B).
(6) Encuentra un subespacio V de P4 [X] tal que P4 [X] = W ⊕ V .
Ejercicio 11. Dado el subespacio S de R3 generado por los vectores (1, 0, 3)T , (−2, 3, −1)T ,
determina si el vector (0, 4, 6)T pertenece o no a este subespacio.
Ejercicio 12. Halla la dimensión y una base de los cuatro subespacios fundamentales asociados
a las matrices
siguientes:
1 2 0 1 1 2 0 2 1 i −i 0
A= 0 1 1 0 , B = −1 −2 1 1 0 ,C = 1 1 0.
−2 −1 3 −2 1 2 −3 −7 −2 0 0 1
Ejercicio 13. a) Construye una matriz cuyo espacio nulo esté generado por (1, 0, 1)T .
b) ¿ Existe una matriz cuyo espacio fila contenga al vector (1, 1, 1)T y cuyo espacio nulo contenga
al vector (1, 0, 0)T .
Ejercicio 14. Determina el rango de los siguientes conjuntos de polinomios de grado menor o
igual que 3:
p1 (x) = 1 + x + x2 + 2x3 , p2 (x) = −2 + 3x + 2x2 − x3 ,
p3 (x) = 1 − 2x + 2x3 , p4 (x) = 4x + 6x2 + 6x3 .
69
a) Comprueba que T es una transformación lineal.
b) Halla la dimensión y una base de Im(T ).
c) Halla la dimensión y una base de Ker(T ).
Ejercicio 18. Determina una aplicación lineal T : R4 → R3 tal que Ker(T ) esté generado por
los vectores (−1, 0, 0, 1)T y (1, 3, 2, 0)T y tal que Im(T ) esté generada por los vectores (1, 1, 1)T
y (0, −2, 1)T .
Ejercicio 3.
(a) No es subespacio.
(b) Subespacio de dimensión tres. Una base es, por ejemplo
(c) No es subespacio.
Ejercicio 5.
F = {(x, y, z, t)T /z − x = 0, 2x + y + t = 0}. dim(F ) = 2. Base: {(1, 1, 1, −3)T , (0, −5, 0, 5)T }.
G = {(x, y, z, t)T /y − t = 0, 2y + 3t = 0}. dim(G) = 2. Base: {(1, 0, 0, 0)T , (0, 0, 1, 0)T }.
70
H = {(x, y, z, t)T /−x+z +t = 0}. dim(H) = 3. Base: {(0, 1, 0, 0)T , (1, 0, −1, 2)T , (2, 0, 0, 2)T }.
F + G = R4 , F + H = R4 .
F ∩ H = {(x, y, z, t)T /t = 0, x = z, y = −2z}. dim(F ∩ H) = 1. Base: {(1, −2, 1, 0)T }.
Ejercicio 6.
(a) Ligados para todo valor de a.
(b) Libres si a 6= 4. En otro caso, ligados.
(c) Libres si a 6= −1.
Ejercicio 7. Una base de S está formada, por ejemplo, por los polinomios p1 (x) = 1+2x, p2 (x) =
−4x + x2 . Buscamos ahora escribir el polinomio p(x) = 4 − 4x + 3x2 como combinación lineal de
p1 y p2 , es decir, p(x) = λ1 p1 (x) + λ2 p2 (x). En coordenadas, λ1 y λ2 deben satisfacer el sistema
1 0 µ ¶ 4
2 −4 λ1 = −4 ,
λ2
0 1 3
Ejercicio 8.
a) Una base la forman, por ejemplo, los tres primeros vectores. Se puede ampliar esa base con,
por ejemplo, el vector (0, 0, 0, 1)T . Las coordenadas de (1, 0, 2, 1)T en esa nueva base forman la
solución del sistema
2 −1 3 0 x1 1
1 0 1 0 x2 0
= ,
3 0 1 0 x3 2
0 2 1 1 x4 1
que es (x1 , x2 , x3 , x4 )T = (1, −2, −1, 6)T .
b) Una base está formada por los vectores (1, 1, 0, −1)T , (0, −2, 1, 5)T . Se pueden completar a una
base de R4 con, por ejemplo (0, 0, 1, 0)T , (0, 0, 0, 1)T . Las coordenadas de (1, 0, 2, 1)T en esa nueva
base forman la solución del sistema
1 0 0 0 x1 1
1 −2 0 0 x2 0
= ,
0 1 1 0 x3 2
−1 5 0 1 x4 1
Ejercicio 9.
(1) Los cinco polinomios son linealmente independientes y como dimP4 [X] = 5, forman una base.
(2) En términos de coordenadas en la base canónica de P4 [X], W se puede describir como
W = {p(x) = a0 + a1 x + a2 x2 + a3 x3 + a4 x4 /p(1) = a0 + a1 + a2 + a3 + a4 = 0,
p(−1) = a0 − a1 + a2 − a3 + a4 = 0},
que es un sistema homogéneo de dos ecuaciones para cinco incógnitas, luego W es un subespacio
vectorial.
71
(3) Resolviendo el sistema, W nos queda
luego su dimensión es tres. Una base puede estar formada por los polinomios
(4) Se puede completar esta base a una de P4 [X] con, por ejemplo, los polinomios
B 0 = {p1 , p2 , p3 , p4 , p5 }.
(5) El esquema para hallar la matriz de cambio de base es el siguiente
I5 - P4 [X]B
P4 [X]Bc c
6 6
M (B 0 , Bc ) M (B 0 , Bc )
M (B 0 , B)
-
P4 [X]B 0 P4 [X]B
de modo que
−1 0 −1 0 0
1 −1 0 0 0
0 −1 0
M (B , B) = M (B, Bc ) M (B , Bc ) = 1 0 0 0 0.
0 1 0 1 0
0 0 1 0 1
72
Ejercicio 10.
(b) Coordenadas: (5, −5/2, 17/12, −25/24, 113/144)T .
Ejercicio 12.
Para la matriz A:
Para la matriz B:
dimKer(B) = 3. Base: (−1, 0, −1, 0, 1)T , (−2, 0, −3, 1, 0)T , (2, 1, 0, 0, 0)T .
Para la matriz C:
dimf il(C) = 3. Base: (i, −i, 0)T , (1, 1, 0)T , (0, 0, 1)T .
µ ¶
0 1 0
Ejercicio 13. (a) Por ejemplo A = .
1 0 −1
(b) No.
Ejercicio 15.
a) T es producto de matriz por vector, luego es una aplicación lineal; concretamente:
x1 x
1 −2 1 −1 1
x2 x2
T ((x1 , x2 , x3 , x4 )T ) = A
x3 = 2 −1 0 1
x3 .
0 3 −2 3
x4 x4
73
Ejercicio 16. La matriz de T en las bases canónicas es
µ ¶
2 1 0
A= .
0 1 −1
Ejercicio 17.
a)
1 −1 1
A = M (T, Bc , Bc ) = 2 −3 −1 .
−1 4 5
b)
−7/2 −51/2 −17/2
0 0
M (T, B , B ) = 1/2 3 2 .
1 15/2 7/2
c) T es invertible si una matriz cualquiera asociada a T es invertible. Como por ejemplo det(A) =
3, entonces T es invertible. Además,
−11/3 3 4/3
M (T −1 , Bc , Bc ) = −3 2 1 .
5/3 −1 −1/3
Nota: Para discutir si existe T −1 es necesario que T actúe entre espacios de la misma dimensión.
Ejercicio 19.
a) Si p(x) = a0 + a1
x+ a2 x2 + a3 x3 + a4 x4 , entonces T (p) = (a0 − a1 + a2 − a3 + a4 , a0 − a1 +
a0
a
1
a2 − a3 + a4 )T = A a2 donde
a3
a4
µ ¶
1 −1 1 −1 1
A= .
1 1 1 1 1
b) dimKer(T ) = dimKer(A) = 3. Una base puede estar formada, por ejemplo, por los polinomios
p1 (x) = −1 + x2 , p2 (x) = −x + x3 , p3 (x) = −1 + x4 .
c)
1 −1 −1 0 0
µ ¶ 0 1 0 −1 0
1 2 −1 µ1 2 0 0 1
¶
0
M (T, B, B ) = A0 0 1 0 0 = .
1 1 0 −2 0 0 0
0 0 0 1 0
0 0 0 0 1
74
Tema 4
Espacios euclı́deos
u1 v1 + u2 v2 = 0.
75
La operación
µ ¶
v1
h~u, ~v i = ~uT ~v = (u1 , u2 ) = u1 v1 + u2 v2 ,
v2
AK
~v ¢¢̧ A
A ~v − P~v
¢ A
¢ ©
©
¢
A ©©
A©
¢ ©©*P~
© v
¢ ©
© ©
©
¢ ©© ©©
© ©
¢
©©
©©
se muestra el vector P~v que es proyección ortogonal de un vector ~v sobre una recta que pasa
por el origen. Tal proyección se determina obligando a que la diferencia entre los dos vectores
~v − P~v sea perpendicular a la recta. Esta construcción proporciona además la distancia entre el
punto ~v = (x, y) del plano y la recta, como el módulo del vector diferencia entre ~v y su proyección
ortogonal. Fijémonos en que esta distancia es la mı́nima posible entre (x, y) y los puntos de la
recta, y se determina a través de la proyección ortogonal.
No parece difı́cil extender esta idea al espacio tridimensional, donde la ortogonalidad es tam-
bién visualizable. El problema ahora es buscar la manera de hablar de ortogonalidad y proyección
ortogonal en un espacio vectorial cualquiera. Necesitamos en principio definir algo que generalice
el producto escalar euclı́deo de R2 .
h·, ·i : V × V → K,
76
Combinando estas propiedades se tienen otras dos
h~u, ~v1 + ~v2 i = h~u, ~v1 i + h~u, ~v2 i.
Ejemplos.
h~u, ~v i = u1 v1 + · · · + un vn .
que es un producto interno sobre V (esto es, verifica las propiedades (1)-(4) de la definición). La
correspondiente norma es
µZ 2π ¶1/2
||f ||2 = f (x)2 dx .
0
Teorema 1. Sea (V, h·, ·i) un espacio vectorial euclı́deo. Entonces, se verifican
77
La desigualdad de Cauchy-Schwarz: si ~u, ~v ∈ V
h~u, ~v i = u1 v1 + u2 v2 .
~v
¢̧ ~u
¢
¢ ¡¡
µ
¢ ¡
¢¡
¡
¢
Los elementos ~u, ~v ∈ V pueden representarse como vectores en el plano que parten del origen.
Sean α y β respectivamente los ángulos formados por los vectores ~u y ~v con el eje horizontal. Se
tiene,
u1 v1 + u2 v2 h~u, ~v i
cos θ = cos(α − β) = cos α cos β + sin α sin β = = ,
||~u||||~v || ||~u||||~v ||
y se tiene la fórmula para determinar el ángulo entre los dos vectores en función del producto
interno y la norma:
78
Esta fórmula es general: si (V, h·, ·i) es un espacio vectorial euclı́deo, ~u, ~v ∈ V , entonces el ángulo
θ entre ~u y ~v viene dado por
(En el lado izquierdo se toma la parte real pues la fórmula es válida para cualquier producto
interno, sea real o complejo).
Definición. Sea (V, h·, ·i) un espacio vectorial euclı́deo. Se dice que dos vectores ~u y ~v son orto-
gonales cuando h~u, ~v i = 0.
u1 v1 + · · · + un vn = 0,
o, en términos matriciales,
~uT ~v = 0.
por ejemplo, ~u = (0, 1, 0, −1)T y ~v = (1, 1, 1, 1)T son ortogonales para este producto interno.
que es un producto interno sobre V . Las funciones f (x) = e3ix , g(x) = eix verifican
Z 2π Z 2π
e2ix 2π
hf, gi = e3ix e−ix dx = e2ix dx = | = 0.
0 0 2i 0
Luego las funciones f y g son ortogonales para este producto interno.
Ortonormal si es ortogonal y además todos los vectores tienen norma uno, es decir
Ası́, por ejemplo, los vectores ~e1 = (1, 1)T , ~e2 = (−1, 1)T forman un sistema ortogonal para el
producto interno euclı́deo en R2 y los vectores ~e1 = (1, 0)T , ~e2 = (0, 1)T forman un sistema
79
ortonormal. La diferencia está en que los vectores ortonormales, además de ser ortogonales, han
de tener norma uno.
Ası́, un sistema ortonormal es siempre ortogonal. Por otro lado, si uno tiene un sistema
{~e1 , ~e2 , . . . , ~en } ortogonal de vectores no nulos, basta considerar el conjunto de vectores
para obtener un sistema ortonormal. Por ejemplo, el sistema ortogonal anterior {~e1 = (1, 1)T , ~e2 =
(−1, 1)T } genera el sistema ortonormal { ||~~ee11 || = ( √12 , √12 )T , ||~~ee22 || = (− √12 , √12 )T }.
Por último, un sistema ortogonal de vectores no nulos es siempre un conjunto linealmente
independiente de vectores. En efecto, consideremos un sistema ortogonal {~e1 , ~e2 , . . . , ~en } y una
combinación nula cualquiera
Para comprobar que los vectores son independientes tenemos que llegar a que los coeficientes de
la combinación son todos nulos. Si hacemos el producto interno de la combinación lineal con ~e1 ,
tenemos
donde hemos utilizado la ortogonalidad de los vectores ~e1 , ~e2 , . . . , ~en . De aquı́, necesariamente
α1 = 0. Este razonamiento puede repetirse con los vectores ~e2 , ~e3 hasta ~en , concluyendo que
α2 = α3 = · · · = αn = 0 y, por tanto, los vectores son independientes.
Las bases que son ortogonales u ortonormales son muy útiles, entre otras cosas porque per-
miten obtener de forma sencilla las coordenadas de un vector en ellas. Esto es lo que afirma el
siguiente resultado.
Teorema 2. Sea (V, h·, ·i) un espacio vectorial euclı́deo y {~e1 , ~e2 , . . . , ~em } un sistema ortogonal
con espacio generado W . Si ~u ∈ W , entonces
Por ejemplo, el sistema B = {~e1 , ~e2 , ~e3 } con ~e1 = (1, 1, −1)T , ~e2 = (−1, 1, 0)T , ~e3 = (1, 1, 2)T ,
es un sistema ortogonal, y por tanto forma una base ortogonal, de R3 para el producto escalar
euclı́deo. Si ~u = (3, −2, 4)T , podemos calcular las coordenadas de ~u con respecto a la base B de
dos maneras: la primera, utilizando las fórmulas de cambio de base analizadas en el tema 2, es
decir, si ~u = α1~e1 + α2~e2 + α3~e3 , entonces las coordenadas α1 , α2 , α3 resuelven el sistema lineal
1 −1 1 α1 3
1 1 1 α2 = −2 ,
−1 0 2 α3 4
80
de donde α1 = −1, α2 = −5/2, α3 = 3/2. La segunda forma utiliza el teorema 2. Como la base es
ortogonal, entonces
(a) Existe un nuevo sistema ortogonal y libre {~e1 , ~e2 , . . . , ~em } tal que ~e1 = ~v1 y para k =
2, . . . , m el vector ~ek está determinado de forma única por la relación
h~ek , ~el i = 0, l = 1, . . . , k − 1.
(b) El nuevo sistema genera el mismo espacio que el de partida. En particular, toda base de V
se puede ortogonalizar.
El procedimiento enunciado en el teorema es como sigue. Dados {~v1 , ~v2 , . . . , ~vm } linealmente
independientes, el primer vector no cambia:
~e1 = ~v1 .
para obtener ~e2 , escribimos ~e2 = ~v2 − α12~e1 e imponemos la ortogonalidad entre ~e1 y ~e2 ,
h~v2 , ~e1 i
h~e2 , ~e1 i = 0 ⇒ h~v2 , ~e1 i − α12 h~e1 , ~e1 i = 0 ⇒ α12 = .
||~e1 ||2
h~v2 , ~e1 i
~e2 = ~v2 − ~e1 ,
||~e1 ||2
81
que, por construcción, es ortogonal a ~e1 . Ahora, para obtener ~e3 , se escribe ~e3 = ~v3 −α13~e1 −α23~e2
y se impone la ortogonalidad con ~e1 y ~e2 ,
h~v3 , ~e1 i
h~e3 , ~e1 i = 0 ⇒ h~v3 , ~e1 i − α13 h~e1 , ~e1 i = 0 ⇒ α13 = ,
||~e1 ||2
h~v3 , ~e2 i
h~e3 , ~e2 i = 0 ⇒ h~v3 , ~e2 i − α23 h~e2 , ~e2 i = 0 ⇒ α23 = .
||~e2 ||2
De este modo,
h~v3 , ~e1 i h~v3 , ~e2 i
~e3 = ~v3 − 2
~e1 − ~e1 .
||~e1 || ||~e2 ||2
El procedimiento permite un paso general. Supongamos que hemos obtenido ~e1 , . . . , ~ek−1 ortog-
onales y queremos obtener ~ek . Entonces escribimos ~ek = ~vk − α1k~e1 − α2k~e2 − · · · − αk−1,k~ek−1 e
imponemos las condiciones de ortogonalidad
h~vk , ~e1 i
h~ek , ~e1 i = 0 ⇒ α1k = ,
||~e1 ||2
.. .. ..
. . .
h~vk , ~ek−1 i
h~ek , ~ek−1 i = 0 ⇒ αk−1,k = ,
||~ek−1 ||2
con lo que ~ek queda determinado. Continuamos el proceso hasta obtener tantos vectores como al
principio.
Ejemplo. Supongamos que los vectores dados son
1 1 0
~v1 = 1 , ~v2 = 0 , ~v3 = 1 .
0 1 1
Entonces ~e1 = ~v1 . El vector ~e2 se obtiene de las condiciones
~e2 = ~v2 − α1,2~e1
h~e2 , ~e1 i = 0,
de donde
h~v2 , ~e1 i
~e2 = ~v2 − ~e1
h~e1 , ~e1 i
1
= ~v2 − ~e1 ,
2
y, operando, es ~e2 = (1/2, −1/2, 1)T . El tercer vector viene de las condiciones
~e3 = ~v3 − α1,3~e1 − α2,3~e2
h~e3 , ~e1 i = h~e3 , ~e2 i = 0,
por lo que
h~v3 , ~e1 i h~v3 , ~e2 i
~e3 = ~v3 − ~e1 − ~e2
h~e1 , ~e1 i h~e2 , ~e2 i
1 1
= ~v3 − ~e1 − ~e2 ,
2 3
82
y por tanto ~e3 = (−2/3, 2/3, 2/3)T .
Para obtener una base ortonormal, podemos primero calcular una base ortogonal {~e1 , ~e2 , . . . , ~em }
~e1 ~e2 ~en
a partir del método de Gram-Schmidt y luego dividir cada vector por su norma { , ,..., }.
||~e1 || ||~e2 || ||~en ||
Ası́, en el ejemplo anterior, los vectores ortonormales finales son entonces
Teorema 4. Sea (V, h·, ·i) un espacio vectorial euclı́deo y W un subespacio de dimensión finita.
Entonces,
(i) Un vector ~v está en W ⊥ si y sólo si ~v es ortogonal a un sistema de generadores (en particular
a una base) cualquiera de W .
(ii) El subespacio ortogonal W ⊥ es suplementario de W , es decir, V = W ⊕ W ⊥ .
(iii) Cada vector ~v ∈ V se escribe de forma única como una suma de dos vectores ~v = w
~ + ~u,
con w ⊥
~ ∈ W , ~u ∈ W .
(iv) Si V tiene dimensión finita, entonces dimW ⊥ = dimV − dimW .
Vamos a ilustrar estos resultados.
83
consideramos el subespacio W generado por el vector ~e1 = (1, 0, 0)T . Según el apartado (i) del
teorema 4, un vector ~v = (x, y, z)T está en W ⊥ si es ortogonal a un sistema generador cualquiera
de W ; como W está generado sólo por ~e1 = (1, 0, 0)T entonces
1
~v ∈ W ⊥ ⇔ h~v , ~e1 i = (x, y, z) 0 = x = 0.
0
Una base de W T es, por ejemplo {~e2 = (0, 1, 0)T , ~e3 = (0, 0, 1)T }. Entonces, tenemos que
{~e1 , ~e2 , ~e3 } es una base de R3 . Esto es lo que significa el apartado (ii) del teorema 4; en este
caso R3 = W ⊕ W ⊥ .
Por otro lado, todo vector ~v = (x, y, z)T ∈ R3 se escribe como
(Ker(A))⊥ = f il(A)
(Ker(AT ))⊥ = col(A)
En efecto, vamos a comprobar la primera igualdad. La segunda queda como ejercicio y es trivial
a partir de la primera. Fijémonos en que si ~x es tal que A~x = ~0, este sistema de ecuaciones afirma
que cada fila de A es ortogonal a cualquier vector ~x ∈ Ker(A). Luego f il(A) ⊂ (Ker(A))⊥ . Como,
por otra parte, ambos subespacios tienen la misma dimensión, ha de ser (Ker(A))⊥ = f il(A).
Volvamos a la situación del teorema 4. El sumando w ~ ∈ W de la descomposición ~v = w ~ + ~u
se llama proyección ortogonal de ~v sobre W y se denota por PW (~v ).
La relación del apartado (1) del teorema da un medio práctico para calcular PW (~v ). Tomemos
una base cualquiera {w ~ 1, w
~ 2, . . . , w
~ m } de W . Encontrar PW (~v ) es encontrar escalares λ1 , . . . , λm
tales que PW (~v ) = λ1 w
~ 1 + · · · + λm w ~ m , puesto que la proyección ha de estar en W . Por otro lado,
84
para que se verifique la condición de (1) se necesita y basta que ~v − PW (~v ) sea ortogonal a cada
w
~ i . Por tanto, los λi quedan caracterizados por las m condiciones
h~v − (λ1 w
~ 1 + · · · + λm w
~ m ), w
~ 1i = 0
h~v − (λ1 w
~ 1 + · · · + λm w
~ m ), w
~ 2i = 0
.. .
. = ..
h~v − (λ1 w
~ 1 + · · · + λm w
~ m ), w
~ m i = 0,
es decir,
λ1 hw
~ 1, w
~ 1 i + · · · + λm hw
~ m, w
~ 1 i = h~v , w
~ 1i
λ1 hw
~ 1, w
~ 2 i + · · · + λm hw
~ m, w
~ 2 i = h~v , w
~ 2i (4.3)
.. .
. = ..
λ 1 hw
~ 1, w
~ m i + · · · + λ m hw
~ m, w
~ m i = h~v , w
~ mi
Las ecuaciones (4.3) se llaman ecuaciones normales del problema. Un caso particularmente sencillo
es aquél en el que la base {w
~ 1, w
~ 2, . . . , w
~ m } es ortogonal. Entonces, el sistema (4.3) tiene la forma
~ 1 ||2 = h~v , w
λ1 ||w ~ 1i
.. .
. = ..
~ m ||2 = h~v , w
λm ||w ~ mi
h~v , w
~ 1i h~v , w
~ mi
PW (~v ) = w
~1 + · · · + w
~ m.
||w~ 1 ||2 ||w~ m ||2
Hay que insistir en que esta fórmula sólo es válida cuando la base elegida en W , {w ~ 1, w~ 2, . . . , w
~ m}
es ortogonal. En caso contrario, hay que utilizar las ecuaciones normales para determinar la
proyección ortogonal.
Ejemplos.
(1) Sea W = {(x, y, z, t)T /x + y − z = 0, x − t = 0}. Buscamos la proyección ortogonal de
~v = (1, 1, 1, 0)T sobre W . Primero obtenemos una base de W , que puede ser, por ejemplo, w ~1 =
(1, 0, 1, 1)T , w
~ 2 = (0, 1, 1, 0)T . Ahora, la proyección ha de ser de la forma PW (~v ) = λ1 w
~ 1 + λ2 w ~ 2.
Para determinar las coordenadas λ1 , λ2 , debemos obligar a que el vector diferencia ~v − PW (~v )
sea ortogonal al sistema generador de W . El planteamiento de las condiciones de ortogonalidad
da lugar al sistema de ecuaciones normales
3λ1 + λ2 = 2
λ1 + 2λ2 = 2,
85
(2) Consideremos ahora el espacio V de funciones reales y acotadas, definidas en el intervalo
[−1, 1] y dotado con el producto interno
Z 1
f, g ∈ V, hf, gi = f (x)g(x)dx.
−1
está en V , ası́ como los polinomios 1, x, x2 . Vamos a buscar la proyección ortogonal de f sobre
el subespacio de polinomios de grado menor o igual que dos y coeficientes reales W , generado
por tanto por los polinomios 1, x, x2 . Al tener que ser un elemento de W , la proyección tendrá la
forma
PW (f )(x) = α0 + α1 x + α2 x2 .
Para determinar los coeficientes de este polinomio, debemos obligar a que la función diferencia
f − PW (f ) sea ortogonal al sistema generador de W . Esto nos lleva al sistema de ecuaciones
normales
86
Vamos a buscar la proyección ortogonal de f (x) = x sobre el subespacio W generado por las
funciones 1, sin x, cos x. La proyección tendrá la forma PW (f ) = λ1 +λ2 sin x+λ3 cos x. Fijémonos
en que
Z 2π
h1, sin xi = sin xdx = − cos x|2π
0 = 0,
0
Z 2π
h1, cos xi = cos xdx = sin x|2π
0 = 0,
0
Z 2π
1
hsin x, cos xi = sin x cos xdx = − cos 2x|2π
0 = 0.
0 2
Esto significa que la base elegida en W es ortogonal. Entonces, la proyección ortogonal puede
calcularse como
hf, 1i hf, sin xi hf, cos xi
PW (f ) = 1+ sin x + cos x
h1, 1i hsin x, sin xi hcos x, cos xi
R 2π R 2π R 2π
xdx x sin xdx x cos xdx
= R02π + R02π 2
sin x + R02π cos x.
0 1dx 0 sin xdx 0 cos2 xdx
Calculando las integrales, tenemos que PW (f )(x) = π − 2 sin x. En este caso podemos usar la
fórmula cerrada para hallar la proyección, pues la base del subespacio sobre el que se proyecta es
ortogonal. Esto no podı́a hacerse en los anteriores ejemplos.
sobredeterminado (m > n, muchas más ecuaciones que incógnitas), con las columnas de A inde-
pendientes (rango (A) = n) e incompatible, es decir, ~b ∈
/ W = col(A). Por ejemplo,
1 1 5
1 2 µ ¶ 15
x
1
1 3 = 24 , (4.4)
x2
1 4 32
1 5 40
es de este tipo.
87
Si el sistema A~x = ~b no tiene solución, entonces ~b no puede ser combinación de las columnas
de A, es decir, ~b ∈/ W = col(A). Han de buscarse entonces valores de ~x de modo que, puesto
que A~x no puede ser ~b, esté lo más ‘cerca’ posible de ~b, en el sentido de que la norma euclı́dea
||A~x −~b|| sea la menor posible. Tales ~x juegan el papel de ‘soluciones’ en un sentido generalizado.
Su determinación comprende dos etapas:
(i) Hallar la mejor aproximación ~b∗ a ~b por elementos de W (proyección ortogonal).
(ii) Resolver el sistema A~x = ~b∗ en sentido convencional. La solución ~xLS de este sistema se
llama solución en el sentido mı́nimos cuadrados, pues por la caracterización de la proyección
ortogonal, hace mı́nima las distancias ||A~x − ~b|| cuando ~x recorre Rn .
En la práctica, estas dos etapas se suelen reunir de la siguiente forma. Denotemos por Ai la
i−ésima columna de A. Puesto que ~b∗ es la proyección ortogonal de ~b sobre W = col(A) y
~b∗ = A~xLS , entonces la condición de proyección ortogonal nos lleva a que ~b − ~b∗ = ~b − A~xLS debe
ser ortogonal a cada columna de A:
h~b − A~xLS , Aj i = 0, j = 1, 2, . . . , n,
o, equivalentemente
Si las columnas de A son linealmente independientes, el sistema de ecuaciones normales (4.5) tiene
solución única, y como hemos visto, es la solución de A~x = ~b en el sentido mı́nimos cuadrados.
De manera que para calcular la solución mı́nimos cuadrados de un sistema A~x = ~b, en la práctica
no se siguen las etapas (i) y (ii), sino que se plantea y resuelve directamente el sistema (4.5). Por
ejemplo, para el sistema (4.4) tenemos
µ ¶ µ ¶
T 5 15 T~ 116
A A= ,A b = ,
15 55 435
88
1
0.8
0.6
0.4
0.2
−0.2
−0.4
−0.6
−0.8
−1
−5 0 5 10 15
−4
x 10
Para ilustrar esto matemáticamente, vamos a considerar una onda de sonido con forma de
diente de sierra y frecuencia básica de 2000 ciclos por segundo. Tal onda es periódica en tiempo con
perı́odo T = 1/2000 = ,0005 segundos. La función p(t) que expresa dicha onda matemáticamente
puede escribirse:
µ ¶
2 T
p(t) = −t ,
T 2
para t ∈ [0, T ), repitiéndose periódicamente en intervalos de longitud T . El oı́do humano reconoce
sólo ondas de sonido que son funciones trigonométricas del tiempo
n
a0 X 2πkt 2πkt
q(t) = + (ak cos( ) + bk sin( )), a0 ∈ R, ak , bk ∈ R, 1 ≤ k ≤ n,
2 k=1
T T
donde ak , bk son las amplitudes de las componentes sinusoidales de la onda, mientras que las
frecuencias k/T se truncan al entero n tal que n/T ≤ 20000. La función q(t) es también periódica
de perı́odo T . Sin embargo, mientras que q(t) es una suma finita de ondas sinusoidales, la función
p(t) no lo es. Por tanto, la onda de sonido p(t) produce una respuesta del oı́do humano q(t) que
es sólo una aproximación de la onda p(t), obtenida truncando las frecuencias mayores de n/T .
El cálculo de la aproximación q(t) puede hacerse como una proyección ortogonal en un espacio
apropiado. La función q((t) debe hacer mı́nima la ‘distancia’ entre p(t) y cualquier expresión
combinación de funciones seno y coseno con frecuencias n/T ≤ 20000 (es decir, cualquier señal
para el oı́do humano). Tal ‘distancia’ se expresa a través de la integral
Z T
E= (p(t) − q(t))2 dt,
0
es decir, la función que buscamos debe aproximarse lo más posible al sonido original.
89
Vamos a resolver el problema en términos de una proyección ortogonal. Fijemos un número
n con n/T ≤ 20000. Consideremos el espacio V de las funciones acotadas de [0, T ] en R con el
producto interno
Z T
hf, gi = f (x)g(x)dx
0
ası́ como el subespacio de los llamados polinomios trigonométricos de grado menor o igual que n
( n
)
a0 X 2πkt 2πkt
Sn = + (ak cos( ) + bk sin( )), a0 ∈ R, ak , bk ∈ R, 1 ≤ k ≤ n, .
2 k=1
T T
Por tanto, la proyección ortogonal puede calcularse usando la fórmula cerrada válida cuando
la base es ortogonal. En este caso
n
a0 X 2πkt 2πkt
q(t) = + (ak cos( ) + bk sin( )), a0 ∈ R, ak , bk ∈ R
2 k=1
T T
La figura 4.2 muestra la función p(t) y el polinomio q(t) con n = 10. Hay que observar cómo q(t)
da una aceptable aproximación excepto en los extremos.
90
1.5
0.5
−0.5
−1
−1.5
0 2 4 6
−4
x 10
Figura 4.2: Función p(t) (lı́nea continua) y aproximación q(t) (lı́nea discontinua) con n = 10.
hay que encontrar un polinomio y = pm (x) de grado m < n que mejor se ajuste a los n + 1 datos.
Lo de mejor ajuste se entiende en el sentido de que el polinomio debe minimizar las distancias a
los datos del problema: si ~x = (x1 , . . . , xn+1 ), ~y = (y1 , . . . , yn+1 ), entonces
1/2
n+1
X
2
mı́n ||~y − ~z|| = (yj − pm (xj )) .
z ∈Rn+1
~
j=1
El origen del problema podrı́a ser el siguiente: normalmente los datos proceden de la medición
de un determinado fenómeno. Si bien en la práctica (por ejemplo, al utilizar el ordenador) el uso
directo de los datos no da ningún problema, si se quiere averiguar algo sobre el fenómeno, no hay
más remedio que pasar de lo discreto a algo continuo, tratando de sustituir los datos por una
función que los aproxime con suficiente precisión y que sea lo suficientemente manejable para que
podamos representar el fenómeno a través de ella y ası́ establecer conjeturas sobre el mismo. La
elección primaria de los polinomios se debe a que son las funciones más simples de manipular.
91
8
0
0 1 2 3 4 5 6 7
Figura 4.3: Representación de los datos correspondientes a una señal afectada de ruido.
92
8
0
0 1 2 3 4 5 6 7
Figura 4.4: Datos correspondientes a una señal afectada de ruido y polinomio de ajuste de grado
m = 9.
Como tal polinomio no existe, hemos llegado a un sistema sobredeterminado sin solución. Del
primer ejemplo sabemos que la solución mı́nimos cuadrados del problema satisface el sistema
AT A~x = AT ~b,
que proporciona los coeficientes del polinomio que buscamos, pues éstos minimizan la distancia
1/2
n+1
X
||A~x − ~b|| = (yj − pm (xj ))2 . (4.6)
j=1
Ası́, en la figura 4.4 hemos dibujado los datos de la señal distorsionada por un ruido junto con el
polinomio de grado m = 9 que mejor ajuste los datos, cuyos coeficientes se obtienen resolviendo
(4.6) para las correspondientes matrices A y ~b. Recordemos que en este caso, el número de datos
es n + 1 = 256 (de modo que A tiene n + 1 = 256 filas y m + 1 = 10 columnas). Ası́, con
un polinomio de grado comparativamente bajo conseguimos una representación aceptable de la
señal.
El segundo problema, en este contexto, que afecta a los polinomios, tiene que ver con la
aproximación entre funciones. En muchos modelos puede haber funciones difı́ciles de manipular
y, a efectos prácticos, puede ser recomendable sus sustitución por polinomios apropiados.
Por ejemplo, tomemos la función
Z t
2
x(t) = e−x dx, −1 ≤ t ≤ 1,
−1
93
1.5 2
1.5
1
1
0.5
0.5
0
0 −0.5
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
1.5 1.5
1 1
0.5 0.5
0 0
−1 −0.5 0 0.5 1 −1 −0.5 0 0.5 1
Figura 4.5: Gráfico aproximado de la función x(t) (izquierda) y polinomios de ajuste de grados 2
(derecha arriba) y 3 (derecha abajo).
explı́cita de x(t). Vamos entonces a buscar un polinomio que aproxime a x(t). La aproximación
se realizará en el sentido mı́nimos cuadrados, de modo que, de entre todas las funciones reales
continuas definidas en [−1, 1], sea el polinomio p(t) el que minimice la distancia con la función
x(t). Tal distancia está referida al producto interno
Z 1
hf, gi = f (t)g(t)dt,
−1
De este modo, si n es el grado del polinomio p(t), éste debe encontrarse como la proyección
ortogonal de x(t) sobre el espacio de polinomios de grado menor o igual que n y coeficientes reales,
con respecto al producto interno antes definido. Por ejemplo, si n = 2, p(t) = a0 + a1 t + a2 t2 debe
verificar el sistema de ecuaciones normales
94
2 2 1
a0 + a2 = x(1),
3 5 3
de donde a0 = 12 x(1), a1 = 4e 3
+ 38 x(1), a2 = 0. La figura 4.5 muestra el gráfico aproximado de la
función x(t) en el intervalo [−1, 1] y el de su polinomio de aproximación de grados 2 y 3. Hay que
observar el buen ajuste de éste último con la función.
(b) Halla en R3 todos los vectores ortogonales a la vez a v1 = (1, 1, 1)T y v2 = (1, −1, 0)T .
Ejercicio 2. Encuentra una base ortogonal de R3 partiendo del vector (1, 1, −1)T .
Ejercicio 5. Halla una base ortonormal de los subespacios generados por los vectores siguientes:
a) [1, −1, 1, 1]T , [0, 1, 1, 1]T y [3, 1, 1, 0]T ,
b) [1, 1, 1, 1]T , [1, 1, 2, 4]T y [1, 2, −1, −2]T .
(i) calcula una base ortonormal del subespacio columna col(A) utilizando el método de Gram-
Schmidt.
(ii) Llama Q a la matriz que tiene por columnas la base ortonormal obtenida en (i). Determina
larelación entre las columnas de A y las de Q.
(iii) Determina una matriz R de tres filas y tres columnas tal que A = QR. Esto es lo que se
llama factorización QR de la matriz A.
(iv) Repite el procedimiento con la matriz
1 1 2 0
1 0 1 1
A=
1
.
0 1 2
1 1 0 1
95
Ejercicio 7. Se consideran los subespacios U, V y W de R4 dados por:
U = {[x, y, z, t]T /x+y−z = 0, x−t = 0}, V = span([0, 1, 1, −1]T , [2, 0, 1, 1]T ), W = {[x, y, z, t]T /x+y = 0}.
Ejercicio 10. Calcula la descomposición del vector v en suma de dos vectores, uno en el sube-
spacio generado por los vectores wi que se indican y el otro ortogonal a dicho subespacio:
(a) v = (5, 2, −2, 1)T , w1 = (2, 1, 1, −1)T , w2 = (1, 1, 3, 0)T .
(b) v = (1, 0, −2, −1)T , w1 = (1, −1, 1, 1)T .
Ejercicio 12. Sea P3 [X] el espacio de los polinomios reales de grado menor o igual a tres. Sea
T : P3 [X] → R2 la aplicación lineal que a cada polinomio p lo envı́a al vector (p(−1), p(1))T .
a) Calcula una base de Ker(T ).
b) En el conjunto de las funciones reales definidas en (−1, 1), se considera el producto interno
Z 1
hf, gi = f (x)g(x)dx.
−1
96
Ejercicio 14. Se considera la matriz
−1 0 1 0
2 1 −3 2
A=
−4
.
2 2 4
1 3 −4 6
(i) Calcula la dimensión, una base y las ecuaciones del subespacio W generado por las filas de A.
(ii) Con el producto interno euclı́deo de R4 , determina la proyección ortogonal del vector ~v =
(1, 1, 1, 1)T sobre W .
(iii) De un vector ~u se conoce que su proyección ortogonal sobre W es (−1, 1, 0, 2)T y su proyección
ortogonal sobre W ⊥ es (1, −1, 1, 1)T . Determina el vector ~u, razonando la respuesta.
Ejercicio 15. Se considera el espacio P2 [X] de polinomios de grado menor o igual que dos y
coeficientes reales, con el producto interno
(i) Determina una base ortogonal de P2 [X] para el producto (4.7), a partir de la base canónica
de P2 [X].
(ii) Sea P1 [X] el subespacio de P2 [X] de polinomios de grado menor o igual que uno y coeficientes
reales. Calcula la mejor aproximación al polinomio p(x) = 1 − x2 por elementos de P1 [X], usando
el producto interno (4.7).
Ejercicio 2. ~v1 = (1, 1, −1)T , ~v2 = (1, 0, 1)T , ~v3 = (1, −2, −1)T .
Ejercicio 5.
~e1 ~e2 ~e3
a) Una base ortonormal serı́a w
~1 = ,w
~2 = ,w
~3 = donde
||~e1 || ||~e2 || ||~e3 ||
97
Ejercicio 7.
a)
U = {(x, y, z, t)T /x + y − z = 0, x − t = 0} = span((1, 0, 1, 1)T , (0, 1, 1, 0)T )
U ⊥ = {(x, y, z, t)T /x + z + t = 0, y + z = 0} = span((−1, −1, 1, 0)T , (−1, 0, 0, 1)T )
V = span((0, 1, 1, −1)T , (2, 0, 1, 1)T )
V ⊥ = {(x, y, z, t)T /y + z − t = 0, 2x + z + t = 0} = span((0, −2, 1, −1)T , (1, −2, 0, −2)T )
W = {(x, y, z, t)T /x + y = 0} = span((1, −1, 0, 0)T , (0, 0, 1, 0)T , (0, 0, 0, 1)T )
W ⊥ = {(x, y, z, t)T /x − y = 0, z = t = 0} = span((1, 1, 0, 0)T )
b)
Base ortonormal de U :~e1 = √1 (1, 0, 1, 1)T , ~
e2 = √115 (−1, , 3, 2, −1)T .
3
Base ortonormal de U ⊥ :~e1 = √13 (−1, −1, 1, 0)T , ~e2 = √115 (−2, 1, −1, 3)T .
Base ortonormal de V :~e1 = √13 (0, 1, 1, −1)T , ~e2 = √16 (2, 0, 1, 1)T .
Base ortonormal de V ⊥ :~e1 = √16 (0, −2, 1, −1)T , ~e2 = √13 (1, 0, −1, −1)T .
Base ortonormal de W :~e1 = √12 (1, −1, 0, 0)T , ~e2 = (0, 0, 1, 0)T , ~e3 = (0, 0, 0, 1)T .
Base ortonormal de W ⊥ :~e1 = √12 (1, 1, 0, 0)T .
Ejercicio 8. q
√ √ 5
~ 1 = (1/ 5, 2/ 5, 0)T , w
a) Base ortonormal, por ejemplo: w ~ 2 = 14 (−6/5, 3/5, 1)T .
q
b) PS (~v ) = h~v , w
~ 1 iw
~ 1 + h~v , w ~ 2 = − √15 w
~ 2 iw ~1 − 4
5
5
14 w
~ 2.
c) Basta con escribir ~v = ~v1 + ~v2 , donde
~v1 = PS (~v ) ∈ S, ~v2 = ~v − PS (~v ) ∈ S ⊥ .
Ejercicio 10.
(a) ~v = ~v1 + ~v2 donde ~v1 es la proyección ortogonal de ~v sobre el subespacio generado por w
~ 1, w
~ 2,
1
~v1 = P~v = (973, 322, −336, −651)T ,
287
mientras que
1
~v2 = ~v − ~v1 = (462, 252, −238, 938)T .
287
(b) ~v = ~v1 + ~v2 = − 12 (1, −1, 1, 1)T + (3/2, −1/2, −3/2, −1/2)T .
Ejercicio 11.
Primer sistema: x = −1/5, y = 11/10.
Segundo sistema: x = −1, y = 0, z = 0.
Ejercicio 12.
a) Una base es, por ejemplo: p1 (x) = −1 + x2 , p2 (x) = −x + x3 .
b) PKer(T ) (f )(x) = λ1 p1 (x) + λ2 p2 (x) donde λ1 , λ2 verifica el sistema de ecuaciones normales
µ ¶µ ¶ µ ¶
16/15 0 λ1 −11/24
= ,
0 16/105 λ2 −7/64
de donde λ1 = −55/128, λ2 = −735/1024.
30 12
Ejercicio 13. La recta y = 7 x − 7 .
98
4.7. Apéndice. Formas cuadráticas
4.7.1. Formas bilineales
Sea E un espacio vectorial real. Una forma bilineal en E es toda aplicación ϕ : E × E → R
que verifique:
X = P X 0, Y = P Y 0,
99
podremos escribir
ϕ(~x, ~y ) = X T AY = X 0T A0 Y 0 ,
luego
X 0T A0 Y 0 = X T AY = (P X 0 )T AP Y 0
= X 0T P T AP Y 0 = X 0T (P T AP )Y 0 ,
y al poder ser X 0 , Y 0 ∈ Mn1 (R) arbitrarios, se deduce que necesariamente
A0 = P T AP.
Esta es pues la fórmula del cambio de base para las formas bilineales.
Dos matrices cuadradas A, B ∈ Mn,n (R) se llaman congruentes cuando existe P ∈ Mn,n (R)
regular con
B = P T · A · P.
Como acabamos de ver, las distintas matrices que representan a una misma forma bilineal son
dos a dos congruentes.
Φ(~x + ~y ) = ϕ(~x + ~y , ~x + ~y )
= ϕ(~x, ~x) + ϕ(~x, ~y ) + ϕ(~y , ~x) + ϕ(~y , ~y )
= Φ(~x) + 2ϕ(~x, ~y ) + Φ(~y ),
Φ(~x − ~y ) = ϕ(~x − ~y , ~x − ~y )
= ϕ(~x, ~x) + ϕ(~x, −~y ) + ϕ(−~y , ~x) + ϕ(−~y , −~y )
= Φ(~x) − 2ϕ(~x, ~y ) + Φ(~y ),
100
4.7.3. Bases ortogonales
Sea E un espacio vectorial real de dimensión finita, sea ϕ : E × E → R una forma bilineal
simétrica y sea Φ : E → R la forma cuadrática asociada a ϕ. Se dice que un par de vectores
~x, ~y ∈ E son ortogonales para ϕ o para Φ, cuando
ϕ(~x, ~y ) = 0.
Se dice que una base B = {~bk }nk=1 de E es ortogonal para ϕ, cuando los vectores de B son dos a
dos ortogonales, es decir, cuando
ϕ(~bk , ~bl ) = 0, k 6= l, 1 ≤ k, l ≤ n.
Si A = M (ϕ, B), es condición necesaria y suficiente para que B sea una base ortogonal para ϕ
que A sea diagonal.
Vamos a demostrar que siempre existen bases ortogonales. En efecto, tomemos una base
arbitraria B de E y sea A = M (ϕ, B). La matriz A es simétrica. La teorı́a de la lección anterior
garantiza que existe una matriz P ortogonal tal que
AP = P D
D = P T AP
M (B 0 , B) = P
se tendrá que M (ϕ, B 0 ) = D, y por tanto que B 0 es una base ortogonal para ϕ.
En lenguaje matricial, acabamos de establecer que cada matriz A que sea simétrica es con-
gruente con una matriz diagonal y real.
En la práctica, y en contra de lo sugerido por la demostración anterior, no es necesario
recurrir a la diagonalización ortogonal de A. Se utiliza el método de Gauss. Este método se
puede implementar de dos maneras equivalentes. La primera consiste en completar cuadrados
con sentido común. La segunda es una variante del proceso de reducción de una matriz a forma
triangular superior mediante operaciones elementales sobre las filas. Estas ideas se desarrollarán
en la clase de problemas.
Supongamos que hemos encontrado una base ortogonal B para una forma cuadrática Φ. Dado
un vector ~x ∈ E, tendremos
n
X
T
Φ(~x) = X DX = dk (xk )2 ,
k=1
siendo
D = diag(d1 , d2 , . . . , dn ) = M (Φ, B)
[x1 , x2 , . . . , xn ]T = X = M (~x, B).
A la vista de esta expresión es habitual decir que Φ se ha reducido a una suma de cuadrados en
la base B.
101
4.7.4. Ley de Inercia de Sylvester. Signatura y rango
Cuando dos matrices son congruentes no comparten su polinomio caracterı́stico, a diferencia
de lo que sucedı́a en el caso de la semejanza. Dada una forma cuadrática Φ : E → R en un espacio
vectorial real de dimensión finita E, nos planteamos la cuestión de investigar qué pueden tener en
común las distintas matrices diagonales que representan a Φ en las diferentes bases ortogonales
de E. La respuesta la da el siguiente teorema, denominado Ley de inercia o Teorema de Sylvester.
Teorema 1 Sean B1 y B2 dos bases ortogonales para una misma forma cuadrática Φ : E → R.
Entonces las matrices diagonales D1 = M (Φ, B1 ) y D2 = M (Φ, B2 ) comparten
(a) el rango, que es igual al número r de elementos no nulos,
(b) el número p de elementos estrictamente positivos y
(c) el número q de elementos estrictamente negativos.
(Observemos que los elementos de D1 y de D2 son números reales y por tanto podemos hablar
de su signo).
D = M (Φ, B) = diag(d1 , d2 , . . . , dn ).
Tomemos ahora una nueva base B 0 formada por vectores que van siendo proporcionales a los de
B de suerte que
P = M (B 0 , B) = diag(λ1 , λ2 . . . , λn ), λk 6= 0, 1 ≤ k ≤ n.
Podemo escribir
Vemos claramente que podemos cambiar arbitrariamente la escala de los elementos diagonales,
pero los que eran nulos lo seguirán siendo y tampoco podemos alterar los signos. Esto es conforme
a la Ley de inercia.
Permutando si fuera preciso el orden de los elementos de la base B 0 y eligiendo adecuadamente
los factores de escala se concluye que siempre es posible encontrar una base donde Φ se reduce a
una matriz diagonal del tipo
donde los “1’s los “(-1)’s .aparecen tantas veces como indique la signatura de Φ. Esto es análogo
2
a la construcción de las bases ortonormales en los espacios euclı́deos, construcción esta última
que es un caso particular de la anterior.
102
Ahora es fácil comprobar que dos matrices del mismo orden son congruentes si, y sólo si, poseen
la misma signatura: Si son congruentes, la ley de inercia afirma que la signatura es común. Si
comparten la signatura, el proceso descrito anteriormente muestra que ambas son congruentes
con una matriz común (la formada por los “1’s los “(-1)’s ”), de donde se concluye que serán
2
Proposición 1 La forma ϕ o Φ es definida positiva si, y sólo si, se satisfacen las dos condiciones
(C1) y (C2) siguientes:
(C1) Φ(~x) ≥ 0, para cualquier ~x ∈ E.
(C2) Si un vector ~x ∈ E cumple que Φ(~x) = 0, entonces necesariamente ~x = ~0.
Vamos a demostrar ambas proposiciones en paralelo. Comenzamos tomando una base ortog-
onal B = {~bk }nk=1 para la forma Φ y llamemos
D = M (Φ, B) = diag(d1 , d2 , . . . , dn ),
103
y al ser cada sumando positivo, necesariamente dk (xk )2 = 0, 1 ≤ k ≤ n, de donde xk = 0, pues
dk > 0, 1 ≤ k ≤ n, y en consecuencia ~x = ~0. Ası́ pues, (C2) está satisfecha.
Hay caracterizaciones análogas del carácter definido negativo y semidefinido negativo. Las
propiedades (C1) y (C2) pueden adoptarse como definición de las formas definidas positivas (es
lo que hicimos en la lección de los espacios euclı́deos). La ventaja es que (C1) y (C2) tienen
sentido incluso en espacios de dimensión infinita, donde no disponemos de la noción de signatura.
Teorema 2 Sea A = {akl }nk,l=1 un matriz real simétrica y formemos la sucesión de menores
principales ∆1 , ∆2 , . . . , ∆n . Entonces
(a) Es condición necesaria y suficiente para que A sea definida positiva, que
∆m > 0, m = 1, 2, . . . , n.
(b) Es condición necesaria y suficiente para que A sea definida negativa, que
(−1)m ∆m > 0, m = 1, 2, . . . , n.
Nótese que ∆m es el producto de los m primeros pivots que se obtienen al aplicar eliminación
gaussiana sin intercambios de filas a la matriz A.
Ejercicios
Ejercicio 1. Reduce a suma de cuadrados por el método de Gauss las formas cuadráticas sigu-
ientes:
1 −2 4 x 1 −2 3 x
(x, y, z) −2 2 0
y , (x, y, z) −2 6 −9 y .
4 0 −7 z 3 −9 4 z
Encontrar bases en las cuales dichas formas cuadráticas diagonalicen.
Ejercicio 2. Dadas las formas cuadráticas cuyas matrices en la base ordenada canónica de R4
son
2 4 6 4 1 1 −2 −3
4 5 9 −4 1 2 −5 −1
A= 6
,
B=
,
9 19 −8 −2 −5 6 9
4 −4 −8 −24 −3 −1 9 11
encuentra transformaciones lineales que las reduzcan a una suma de cuadrados.
Ejercicio 3. Calcula una base ortogonal para las formas cuadráticas sobre R3 siguientes:
a) q(x, y, z) = x2 + 6y 2 + 7z 2 + 4xy − 4yz.
b) q(x, y, z) = −x2 − y 2 + z 2 − 2xy + 2xz + 2yz.
c) q(x, y, z) = y 2 + 3z 2 + xy + xz + 4yz.
d) q(x, y, z) = 2xy − 4xz + 2yz.
Ejercicio 4. Da una base de R3 en la cual la forma cuadrática
(λ ∈ R) se reduzca a una suma de cuadrados. Determina los valores de λ para los que q(x, y, z)
es semidefinida positiva.
104
Ejercicio 5. Clasifica las siguientes formas cuadráticas sobre R3 en función de los valores del
parámetro a ∈ R.
a) (a − 3)x2 + ay 2 + 2xz
b) ax2 + ay 2 + z 2 + 4xy + 2yz
c) −4z 2 + 2axy
Ejercicio 6. Determina si las siguientes matrices son definidas positivas
7 7 −4 2 1 2 −1 1
7 9 5 2 2 8 −6 4
.
−4 5 10 6 , −1 −6 6 −6
2 2 6 4 1 4 −6 15
Ejercicio 7. Determina los valores de a para los cuales las siguientes matrices son definidas
positivas
1 a a 1 1 a
A = a 1 a, B = 1 1 1.
a a 1 a 1 1
105
Tema 5
El tercer problema que tratamos aparece en varias aplicaciones. Consiste en encontrar una
forma de una matriz cuadrada lo más sencilla posible, pero manteniendo una cierta estructura.
Ya veremos que esto es diferente a la eliminación gaussiana, en el sentido de que tenemos que
mantener unos elementos asociados a las matrices que son los autovalores. El primer tema discute
el problema de cuándo podemos expresar una matriz cuadrada en forma diagonal, es decir, con
todos los elementos nulos excepto los de la diagonal principal, y estos no pueden ser cualesquiera.
La segunda lección del bloque pretende responder al caso general: si no es posible diagonalizar,
entonces cómo podemos reducir la matriz. Presenta también algunas primeras aplicaciones de
estos resultados, como resolver recurrencias vectoriales y ecuaciones en diferencias.
Ejemplo introductorio. Un ejemplo que puede ilustrar ésta y la siguiente lección es la rep-
resentación vectorial de la sucesión de Fibonacci que, como es conocido, aparece de manera
insospechada en multitud de procesos. Un caso que puede resultar interesante es su formulación
en modelos de tráfico en canales de comunicación, por ejemplo lı́neas telefónicas, que surgen en
teorı́a de la información. Consideremos un canal de información y supongamos que dos informa-
ciones elementales S1 y S2 de duraciones, por ejemplo, t1 = 1 y t2 = 2 respectivamente (pensemos
en el punto y la lı́nea en el alfabeto Morse) pueden combinarse para obtener un mensaje. Uno
puede estar interesado en el número de mensajes Mn de longitud n. Estos mensajes pueden di-
vidirse en dos tipos: aquellos que terminan con S1 y los que terminan con S2 . El número de
mensajes de primer tipo es Mn−t1 y el número de mensajes de segunda clase es Mn−t2 . Entonces,
tenemos
Mn = Mn−1 + Mn−2 , n = 3, 4, . . .
o, igualmente
Mn+1 = Mn + Mn−1 , n = 2, 3, . . . .
La relación anterior es válida para cualquier número natural n mayor que 3 y se establece entre
el número de mensajes de longitud n y el de una y dos unidades de tiempo menos. Ésta es la
llamada ecuación de Fibonacci y es un ejemplo clásico de recurrencia. Para poder obtener el
valor de Mn para cualquier n, necesitamos dos datos iniciales correspondientes a M1 y M2 , que
se suponen conocidos.
106
Una manera de resolver el problema consiste en plantearlo en forma vectorial. Si ~vn =
(Mn , Mn−1 )T , entonces
µ ¶
1 1
~vn+1 = A~vn = ~v , n = 2, 3, . . . ,
1 0 n
con ~v2 = (M2 , M1 )T conocido (llamado condición inicial). Observemos que si aplicamos sucesiva-
mente la relación anterior, tenemos
de modo que para calcular ~vn (y por tanto Mn ) para cualquier n ≥ 3, necesitamos obtener una
expresión general de una potencia cualquiera de la matriz A, lo que en general no puede hacerse.
Entonces, hemos de buscar, si es posible, una representación de la matriz que permita resolver
el problema por otro camino. Imaginemos que la condición inicial ~v2 verificase
A~v2 = λ~v2 ,
para cierto escalar λ. Entonces la solución del problema serı́a sencilla de obtener, pues
La pregunta es ¿existen vectores especiales de esa forma, de manera que podamos escribir la
condición inicial como combinación de ellos?
B = P −1 AP.
Hay que notar que si A es semejante con B y λ ∈ K entonces λIn − A es semejante con λIn − B.
Ya hemos visto un ejemplo de semejanza de matrices al hablar de la matriz de una aplicación
lineal en una base. Imaginemos que V es un espacio vectorial de dimensión finita, B, B 0 son dos
bases de V y T : V → V es una aplicación lineal (cuando el espacio de partida y el de llegada es
el mismo, T se llama endomorfismo). Denotemos por
107
M (T, B, B) - VB
VB T (~x)
6 6
M (B 0 , B) M (B 0 , B)
M (T, B 0 , B 0 )
-
VB 0 VB 0
~x
Recordemos que la relación entre las dos matrices de la aplicación lineal T viene dada por la
matriz P = M (B 0 , B) de cambio de base:
Esto no es otra cosa que una relación de semejanza: todas las matrices que representan al endo-
morfismo T en las distintas bases son semejantes entre sı́.
Presentada la noción de semejanza de matrices, nos planteamos la cuestión de si dada una
matriz A ∈ Mn,n (K) puede haber una matriz semejante con ella cuya expresión sea sencilla, más
concretamente diagonal.
108
el número mj , 1 ≤ j ≤ r se denomina multiplicidad algebraica de la raı́z caracterı́stica µj . Puesto
que pA tiene grado n, se cumple siempre que
n = m1 + m2 + · · · + mr .
A~v = λ~v .
Ası́ pues, los autovalores de A son las raı́ces caracterı́sticas de la matriz A que se encuentran
en el cuerpo K considerado. Si K = C, el conjunto de valores propios coincide con el espectro de
A, mientras que si K = R, los autovalores son las raı́ces caracterı́sticas que son números reales.
Normalmente, para determinar los autovalores de una matriz se suele hacer uso de la cuarta
condición del teorema, determinando si es posible los ceros del polinomio caracterı́stico que están
en el cuerpo considerado.
Dado un autovalor λ de A, es claro que los vectores del subespacio Ker(λIn − A) son los
autovectores asociados a λ y sólo ellos. El subespacio
d(λ) = dimE(A, λ) ≥ 1,
Ejemplos.
109
el polinomio caracterı́stico es
z − 2 −2 6
pA (z) = det(zI3 − A) = det −2 z + 1 3 = (z + 2)2 (z − 6).
2 1 z−1
De modo que los autovalores con sus multiplicidades algebraicas son
λ1 = −2, m1 = 2
λ2 = 6 m2 = 1.
Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad
geométrica. Para λ1 = −2
−4 −2 6 x
E(A, λ1 ) = Ker(−2I3 − A) = {(x, y, z)T / −2 −1 3 y = ~0}
2 1 −3 z
= {(x, y, z)T /2x + y − 3z = 0} = span((1, −2, 0)T , (0, 3, 1)T )
⇒ d(λ1 ) = 2.
Mientras que para el otro autovalor
4 −2 6 x
E(A, λ2 ) = Ker(6I3 − A) = {(x, y, z)T / −2 7 3 y = ~0}
2 1 5 z
= {(x, y, z)T /2x − y + 3z = 0, y + z = 0} = span((−2, −1, 1)T )
⇒ d(λ2 ) = 1.
110
Mientras que para el segundo autovalor
0 1 0 x
E(A, λ2 ) = Ker(I3 − A) = {(x, y, z)T / 1 −1 1 y = ~0}
0 1 0 z
= {(x, y, z)T /y = 0, z = −x} = span((1, 0, −1)T ) ⇒ d(λ2 ) = 1,
y, para el tercero,
2 1 0 x
T
E(A, λ3 ) = Ker(3I3 − A) = {(x, y, z) / 1 1 1 y = ~0}
0 1 2 z
= {(x, y, z)T /x = z, y = −2z} = span((1, −2, 1)T ) ⇒ d(λ3 ) = 1.
λ1 = 2, m1 = 1
λ2 = i m2 = 1
λ3 = −i m3 = 1.
Como matriz real, sólo hay un valor propio λ1 , mientras que el espectro lo forman las tres raı́ces.
Buscamos ahora los subespacios propios de cada autovalor y su correspondiente multiplicidad
geométrica, suponiendo que la matriz es compleja. Para λ1 = 2
2 1 0 x
E(A, λ1 ) = Ker(2I3 − A) = {(x, y, z)T / −1 2 −1 y = ~0}
0 0 0 z
= {(x, y, z)T /y = (2/5)z, x = −(1/5)z} = span((−1, 2, 5)T )
⇒ d(λ1 ) = 1.
111
y, para el tercero,
−i 1 0 x
E(A, λ3 ) = Ker((−i)I3 − A) = {(x, y, z)T / −1 −i −1 y = ~0}
0 0 −i − 2 z
= {(x, y, z)T /z = 0, x = −iy} = span((1, i, 0)T ) ⇒ d(λ3 ) = 1.
Nota: como λ2 y λ3 son conjugados, los vectores que generan cada subespacio propio también
lo son. Cuando la matriz tiene elementos reales, esta propiedad es general (¿por qué?).
5.3. Diagonalización
A la vista de los comentarios del ejemplo introductorio y de los elementos que acabamos
de definir, es clara la importancia de los autovalores y los autovectores en la determinación de
la solución a nuestro problema. El objetivo es por tanto encontrar una manera de tratar de
transformar una matriz cuadrada A en una matriz diagonal o triangular sin cambiar sus valores
propios. Esto no se cumple para la eliminación gaussiana: los autovalores de la matriz triangular
superior final del proceso de eliminación no son los de la matriz original.
Comenzamos dando un criterio para determinar cuándo podemos transformar una matriz en
otra diagonal.
Sea A ∈ Mn,n (K) una matriz cuadrada. Se dice que A es diagonalizable si existe una matriz
semejante con ella que es diagonal. Esto significa que existe una matriz P ∈ Mn,n (K) no singular
tal que
D = P −1 AP
es diagonal.
Como los autovalores de una matriz diagonal son precisamente los elementos de la diagonal
principal, es claro que la matriz diagonal semejante a la matriz A tiene por entradas diagonales
los autovalores de A.
Kn = E(A, λ1 ) ⊕ · · · ⊕ E(A, λr ).
Esto equivale a decir que A es diagonalizable si y sólo si existe una base en Kn formada por
vectores propios de A.
112
El criterio práctico para determinar si una matriz A es diagonalizable es el siguiente:
(1) Determinar los autovalores de A a través de las raı́ces de su polinomio caracterı́stico pA (z) =
det(zIn − A). Si alguna de sus raı́ces ya no está en K, la matriz ya no es diagonalizable.
(3) Caso de que todos los autovalores verifiquen las dos condiciones (i) y (ii) del apartado (c)
del Teorema 2, determinamos una base Bj de cada subespacio propio E(A, λj ) y juntamos
todas las bases para formar una base de Kn : B = B1 ∪ · · · ∪ Br . Entonces, si P es la matriz
cuyas columnas son los vectores de la base B, se tiene que P −1 AP es diagonal con los
elementos de la diagonal principal siendo los autovalores de A.
Ejemplos.
Entonces, si
1 0 −2
P = −2 3 −1 ,
0 1 1
se tiene que
−2 0 0
P −1 AP = 0 −2 0 .
0 0 6
113
(2) Para la matriz
1 −1 0
A = −1 2 −1 ,
0 −1 1
se tiene
λ1 = 0, mλ1 = 1, dλ1 = 1
λ2 = 1 mλ2 = 1, dλ2 = 1
λ3 = 3 mλ3 = 1, dλ3 = 1.
Luego si
1 1 1
P = 1 0 −2 ,
1 −1 1
se tiene que
0 0 0
P −1 AP = 0 1 0.
0 0 3
Este es un ejemplo de un caso particular de matrices diagonalizables: aquéllas cuyos autovalores
están en el cuerpo considerado y son todas distintas.
λ1 = 2, mλ1 = 1, dλ1 = 1
λ2 = i mλ2 = 1, dλ2 = 1
λ3 = −i mλ3 = 1, dλ3 = 1.
Como matriz real, A no es diagonalizable, pues tiene dos autovalores que no son reales. Pero
como matriz compleja, A es diagonalizable. La base de autovectores es la siguiente:
114
Luego si
−1 1 1
P = 2 −i i ,
5 0 0
se tiene que
2 0 0
−1
P AP = 0 i 0 .
0 0 −i
5.4. Triangularización
Ya sabemos que cuando no se cumplen las dos condiciones (i) y (ii) del teorema anterior,
la matriz A no es diagonalizable. Cuando la segunda de las condiciones de diagonalización falla
manteniéndose la primera (los autovalores están en el cuerpo considerado) la matriz aún puede
reducirse a forma triangular superior por semejanza.
Teorema 3. Sea A ∈ Mn,n (K). Entonces existen una matriz U ∈ Mn,n (K) no singular y una
matriz triangular superior S ∈ Mn,n (K) tales que S = U −1 AU si y sólo si los autovalores de
A están en K (esta condición se satisface siempre cuando K = C). La matriz U puede elegirse
unitaria (U ∗ = U −1 ).
115
entonces U es unitaria por ser producto de matrices unitarias y además
−1
1 ∗ ∗ ··· ∗ 1 ∗ ∗ ··· ∗
0 0
U −1 AU = .. P −1 AP ..
. U1 . U1
0 0
−1
1 ∗ ∗ ··· ∗ 1 ∗ ∗ ··· ∗
0 0
= .. A0 ..
. U1 . U1
0 0
1 ∗ ∗ · · · ∗ −1 λ1 ∗ ∗ ··· ∗ 1 ∗ ∗ ··· ∗
0 0 0
= .. .. ..
. U1−1 . A1 . U1
0 0 0
λ1 ∗ ∗ ··· ∗
0
= .. −1
. U1 A1 U1
0
λ1 ∗ ∗ · · · ∗
0
= .. ,
. S1
0
que es una matriz triangular superior.
Ejemplo. La matriz
3 1 0
A= 0 2 1,
−1 −1 1
tiene un único autovalor λ1 = 2 con multiplicidad m(λ1 ) = 3. Veamos que es triangularizable en
R. El subespacio propio asociado es
−1 −1 0 x
E(A, λ1 ) = Ker(2I3 − A) = {(x, y, z) / 0 T
0 −1 y = ~0}
1 1 1 z
√ √
= {(x, y, z) /z = 0, y = −x} = span((1/ 2, −1/ 2, 0)T ) ⇒ d(λ1 ) = 1.
T
Como
√ las multiplicidades
√ no coinciden, la matriz no es diagonalizable en R. Consideremos ~v1 =
(1/√2, −1/ T
√ 2, 0) y completemos hasta formar una base ortonormal, por ejemplo con ~v2 =
(1/ 2, 1/ 2, 0)T , ~v3 = (0, 0, 1)T . Entonces
√
2 1 −1/√ 2
A0 = P −1 AP = 0 3
√ 1/ 2 .
0 − 2 1
La matriz A1 es
µ √ ¶
3
√ 1/ 2
A1 = .
− 2 1
116
A1 tiene un único autovalor λ = 2 con multiplicidad m(λ) = 2. El subespacio propio asociado es
µ √ ¶µ ¶
−1 −1/ 2 x
E(A1 , λ) = Ker(2I3 − A1 ) = {(x, y) / T √ = ~0}
2 1 y
√ √ √ √
= {(x, y)T /y = − 2x} = span((1/ 3, − 2/ 3)T ) ⇒ d(λ) = 1,
√ √ √ T
que no es diagonalizable. Tomamos w ~1 =
√ √(1/ 3, −
√ 2/ 3) y completamos hasta una base
ortogonal de R2 , por ejemplo, con w~ 2 = ( 2/ 3, 1/ 3)T . Sea
µ √ √ √ ¶
1/
√ √ 3 2/√ 3
U1 = .
− 2/ 3 1/ 3
Entonces
µ p ¶
2 9/2
U1−1 A1 U1 = .
0 2
Sea
1 0√ √ 0√
U = P 0 1/
√ √ 3 2/√ 3 .
0 − 2/ 3 1/ 3
Por tanto
√ √
2 2/ 3 p
1/ 6
U −1 AU = 0 2 9/2 .
0 0 2
hA~x, ~y i = h~x, A∗ ~y i, ~x ∈ Kn , ~y ∈ Km .
Además, (A∗ )∗ = A.
Se dice que una matriz A ∈ Mn,n (R) es
simétrica si AT = A∗ = A,
antisimétrica si AT = A∗ = −A,
117
hermı́tica si A∗ = A,
antihermı́tica si A∗ = −A,
unitaria si A es no singular y A∗ = A−1 .
Recordemos también que A ∈ Mn,n (R) (resp. A ∈ Mn,n (C)) es ortogonal (resp. unitaria) si
sus columnas forman una base ortonormal de Rn (resp. C n ).
Las matrices destacables son las simétricas en el caso real y las hermı́ticas en el caso complejo.
Ambas son siempre diagonalizables. Además, la matriz formada por la base de autovectores es
ortogonal en el caso real y unitaria en el caso complejo.
118
Los autovectores asociados a autovalores distintos ya son ortogonales entre sı́. Como las mul-
tiplicidades coinciden, la matriz es diagonalizable. La base elegida al juntar las bases de cada
subespacio propio, es ortonormal, de modo que la matriz
√ √ √
1/ 2 1/ √6 1/√3
P = 0√ −2/√ 6 1/√3 ,
−1/ 2 1/ 6 1/ 3
es ortogonal. Además,
2 0 0
T −1
P AP = P AP = 0 2 0.
0 0 5
(2) Si λ y µ son autovalores de A distintos, los correspondientes subespacios propios E(A, λ),
E(A, µ) son ortogonales.
(3) Existe una matriz unitaria U ∈ Mn,n (C) tal que U ∗ AU = U −1 AU es diagonal.
Ejercicio 2. Sea T : R3 → R3 una aplicación lineal que admite por vectores propios a
v1 = (1, 1, 0)T , v2 = (1, −1, 0)T , v3 = (0, 0, 1)T .
Se sabe además que la imagen del vector w = (3, 1, 1)T es el vector (8, 0, 2)T . Halla los valores
propios de T .
119
Ejercicio 4. Demuestra que las matrices
4−a 1 −1 1−a 1 0
A= −6 −1 − a 2 B= 0 1−a 0
2 1 1−a 0 0 2−a
son semejantes independientemente del valor de a, pero que las matrices
2 0 0 2 0 3
C = 0 2 0 D = 0 2 −1
0 0 2 0 0 2
no son semejantes.
Ejercicio 5. Estudia para qué valores de los parámetros reales a y b son diagonalizables las
siguientes matrices
5 0 3 2 0 0
A = 0 −1 0 , B = 0 1 a.
0 a b 1 1 1
Halla un sistema completo de autovectores cuando sea posible.
Ejercicio 6. Encuentra autovalores, autovectores, forma diagonal y matriz de paso para las
siguientes matrices
0 −1 2 1 0 1
1 0 3, 0 1 −2 .
−2 −3 0 0 0 2
120
encontrando matrices ortogonales P , Q y R tales que P −1 AP , Q−1 BQ y R−1 CR sean diagonales.
Idem para la matriz
1 2 3
D = 2 4 6.
3 6 9
Ejercicio 1.
a)
5/2 −1 2 1/2
M (T, B 0 , B 0 ) = 3/2 1/2 1/2 .
4 −4 3
b) Los autovalores con sus multiplicidades algebraicas son
λ1 = 1, m1 = 1
λ2 = 2 m2 = 1
λ3 = 3 m3 = 1.
Entonces, por ejemplo B 00 ) = {(−1, 1, 1)T , (1, 1, 0)T , (1, 1, 1)T } y la matriz de T en esta base es
1 0 0
M (T, B 00 , B 00 ) = 0 2 0.
0 0 3
Ejercicio 3.
1 0 0 0
0 1 0 0
A=
0
.
0 1 0
−1 −1 1 2
pA (z) = (z − 2)(z − 1)3
121
λ1 = 2, m1 = 1, d1 = 1
λ2 = 1 m2 = 3.
A diagonaliza.
2 1 −1 0
0 1 0 0
A=
1
.
1 0 0
−1 −1 1 2
pA (z) = (z − 2)(z − 1)3
λ1 = 2, m1 = 1, d1 = 1
λ2 = 1 m2 = 3.
A no diagonaliza.
4 1 −2 −1
2 2 −2 −1
A=
4
.
2 −2 −2
1 0 −1 1
pA (z) = (z − 2)(z − 1)3
λ1 = 2, m1 = 1, d1 = 1
λ2 = 1 m2 = 3.
A no diagonaliza.
Ejercicio 4. Dos matrices son semejantes si tienen los mismos autovalores y con las mismas
multiplicidades, tanto algebraica como geométrica. Para A y B, basta ver que aI + A y aI + B
son semejantes. Para las dos, los autovalores con sus multiplicidades son
122
λ1 = 1, m1 = 2, d1 = 1
λ2 = 2 m2 = 1, d2 = 1.
Luego son semejantes. Por otro lado, si C y D fuesen semejantes, también lo serı́an 2I − C y
2I − D, pero
0 0 0 0 0 −3
2I − C = 0 0 0 , 2I − D = 0 0 1 ,
0 0 0 0 0 0
que nunca pueden ser semejantes.
Ejercicio 6.
0 −1 2
A= 1 0 3 . pA (z) = z(z 2 + 14).
−2 −3 0
Los autovalores con sus multiplicidades algebraicas son
λ1 = 0, m1 = 1
√
λ2 = i 14 m2 = 1
√
λ3 = −i 14 m3 = 1.
123
√ √
−3 16 − 2i √14 16 + 2i √14 0 √0 0
P = 2 −2 − 3i 14 −2 + 3i 14 , D = 0 i 14 0
√
.
1 13 13 0 0 −i 14
1 0 1
A= 0 1 −2 . pA (z) = (z − 2)(z − 1)2 .
0 0 2
Los autovalores con sus multiplicidades algebraicas son
λ1 = 1, m1 = 2
λ2 = 2, m2 = 1.
Ejercicio 7.
1 1 −2
A = −1 2 1 . pA (z) = (z − 1)(z + 1)(z − 2).
0 1 −1
A diagonaliza. Base de autovectores:
λ1 = 0, m1 = 2,
λ2 = 2 m2 = 1, d2 = 1.
−2 −1 0
E(A, 0) = Ker(−A) = Ker 0 0 −1 → d1 = 1,
0 0 0
A no diagonaliza.
124
3 −1 −1
A = 1 1 −1 . pA (z) = (z − 1)(z − 2)2 .
1 −1 1
λ1 = 2, m1 = 2,
λ2 = 1 m2 = 1, d2 = 1.
A diagonaliza.
1 1 −1 2 0 0
P = 0 1 −2 , D = 0 2 0.
1 0 1 0 0 1
4 1 0 1
2 3 0 1
A= . pA (z) = (z − 4)(z − 6)(z − 2)2 .
−2 1 2 −3
2 −1 0 5
λ1 = 2, m1 = 2
λ2 = 4 m2 = 1 = d2
λ3 = 6 m3 = 1 = d3 .
A diagonaliza.
0 −2 −2 2 2 0 0 0
0 1 −1 2 0 2 0 0
P =
1
, D= .
0 −1 −1 0 0 4 0
0 1 1 2 0 0 0 6
Ejercicio 8.
pA (z) = (z − 4)2 z.
λ1 = 4, m1 = 2
λ2 = 0 m2 = 1 = d2 .
√ √
E(A, 4) = Ker(4I3 − A) = span((−i 2/2, 1, 0)T , (−i 2/2, 0, 1)T ),
√
E(A, 0) = Ker(−A) = span((i 2, 1, 1)T ).
125
q √ q √
2
Base ortonormal de E(A, 4): ~e1 = 3 (−i2/2, 1, 0)T , ~e2 = 34 (−i 2/3, −1/3, 1)T .
√
Base ortonormal de E(A, 0): ~e3 = (i 2/2, 1/2, 1/2)T .
q √ q √ √
2 3
3 (−i
q
2/2) 4 (−i 2/3) i 2/2
q 4 0 0
U = 2
3
3
4 (−1/3) 1/2 , U −1 AU = 0 4 0.
q
3 0 0 0
0 4 1/2
Ejercicio 9.
3 −1 0
B = −1 3 0, pB (z) = (z − 2)2 (z − 4).
0 0 2
λ1 = 2, m1 = 2
λ2 = 4 m2 = 1.
Ejercicio 10.
2 1 0
A = 1 1 1, pB (z) = z(z − 2)(z − 3).
0 1 2
λ1 = 3, m1 = 1
λ2 = 2 m2 = 1
λ3 = 0 m3 = 1.
126
Tema 6
La distribución tras dos meses de curso, es ~v [8] = A8~v [0]. Nuestro problema ahora es que no
podemos aplicar los resultados de la lección anterior porque la matriz A no es digonalizable.
En el tema anterior establecimos condiciones para la diagonalización de una matriz cuadrada.
Cuando una de las condiciones de diagonalización fallaba, aún podı́amos triangularizar la matriz,
hacerla semejante a una matriz triangular superior. Ésta no es, sin embargo, la representación más
127
simple de la matriz en el caso de que ésta no diagonalice por no cumplir la segunda condición. Para
las aplicaciones que nos interesan, que serán las que aparecen en este tema y los dos siguientes,
buscaremos una representación a través de una base de los llamados autovectores generalizados.
Esta representación viene dada por el teorema de descomposición primaria. El primer bloque de
aplicaciones de estos resultados será tratado también en este tema y corresponde a las llamadas
recurrencias vectoriales; en particular las ecuaciones en diferencias.
entonces
estabiliza en alguna potencia de (λIn − A). Esto significa que hay un primer entero k(λ) para el
cual
y, por el apartado (c) del lema 1, todos los siguientes subespacios coinciden. El subespacio
128
También, si A es diagonalizable, Eg (A, λ) = E(A, λ).
129
16 −16 26 0 x
0 16 −8 −12 y
Ker(−3I3 − A)2 = {(x, y, z, t)T / = ~0}
0 0 16 16 z
0 0 0 0 t
= {(x, y, z, t)T /x = (15/8)t, y = t/4, z = −t}
= span((15, 2, −8, 8)T ).
Teorema 1. Sea A ∈ Mn,n (K) y supongamos que todos los autovalores de A, λ1 , . . . , λr , están
en K. Para cada j = 1, . . . , r pongamos d(λj ) = dimE(A, λj ) la multiplicidad geométrica, m(λj )
la multiplicidad algebraica y k(λj ) el primer entero donde se estabiliza la sucesión de núcleos
{Ker(λj In − A)k }k≥1 . Se cumple entonces que
P −1 AP = diag(T1 , . . . , Tr ),
Tj = λj Im(λj )×m(λj ) + Nj ,
con Nj ∈ Mm(λj )×m(λj ) (K) una matriz tal que para alguna potencia s, Njs = 0 es la matriz
nula.
Para las aplicaciones que ahora veremos y las de los temas siguientes, es más importante
obtener la base de autovectores generalizados que la forma diagonal por bloques semejante.
Ejemplos. Buscamos una base de autovectores generalizados para las siguientes matrices.
(1)
5 4 3
A = −1 0 −3 .
1 −2 1
130
El polinomio caracterı́stico es pA (z) = (z − 4)2 (z + 2), de modo que los autovalores con sus
multiplicidades algebraicas son
λ1 = 4, m(λ1 ) = 2
λ2 = −2, m(λ2 ) = 1.
Luego
0 −18 −18 x 0
2 T
Eg (A, λ1 ) = Ker(4I3 − A) = {(x, y, z) / 0 18 18
y = 0 }
0 18 18 z 0
= {(x, y, z)T /y = −z} = span((1, −1, 1)T , (1, 0, 0)T ).
Luego los vectores ~v1 = (1, −1, 1)T , ~v2 = (1, 0, 0)T , ~v3 = (−1, 1, 1)T forman una base de autovec-
tores generalizados, de los cuales son autovectores ~v1 y ~v3 . Si P es la matriz cuyas columnas son
~v1 , ~v2 , ~v3 , la forma reducida semejante a A tiene la forma
4 1 0
P −1 AP = 0 4 0 .
0 0 −2
donde las columnas de P −1 AP están formadas por las coordenadas de A~v1 , A~v2 y A~v3 en la base
nueva. Se tiene
A~v1 = 4~v1
A~v2 = (A − 4I3 )~v2 + 4~v2 = ~v1 + 4~v2
A~v3 = −2~v3
(2)
1 0 −1 0
−3 −2 −7 5
A=
0
.
0 1 0
−1 −1 −4 2
131
Calculamos los autovalores de A. Su polinomio caracterı́stico es, desarrollando por la tercera fila,
¯ ¯
¯z − 1 0 0 ¯¯
¯
pA (z) = det(zI4 − A) = (z − 1) ¯¯ 3 z + 2 −5 ¯¯ = (z − 1)2 (z 2 + 1).
¯ 1 1 z − 2¯
De modo que, los autovalores de A, con sus multiplicidades algebraicas, son:
Buscamos ahora una base de los autoespacios generalizados asociados a cada autovalor de A.
Para λ1 , tenemos,
0 0 1 0 x 0
3 3 7 −5 y 0
E(A, λ1 ) = Ker(I − A) = {(x, y, z, t)T :
0 = }
0 0 0 z 0
1 1 4 −1 t 0
= {(x, y, z, t)T : z = 0, 3x + 3y − 5t = 0, x + y − t = 0}
= {(x, y, z, t)T : z = t = 0, y = −x} = h(1, −1, 0, 0)T i.
~v1 = (1, −1, 0, 0)T , ~v2 = (−6, 0, 1, −2)T , ~v3 = (0, 2 − i, 0, 1)T , ~v4 = (0, 2 + i, 0, 1)T .
132
donde, recordemos que ~v1 , ~v3 y ~v4 son autovectores. Si P es la matriz cuyas columnas son
~v1 , ~v2 , ~v3 , ~v4 , la forma reducida semejante a A tiene la forma
1 −1 0 0
0 1 0 0
P −1 AP =
0
.
0 i 0
0 0 0 −i
donde las columnas de P −1 AP están formadas por las coordenadas de A~v1 , A~v2 , A~v3 y y A~v4 en
la base nueva. Se tiene
A~v1 = ~v1
A~v2 = (A − I4 )~v2 + ~v2 = −~v1 + ~v2
A~v3 = i~v3
A~v4 = −i~v4
pues al ser ~x ∈ Eg (A, λ) = Ker(λIn −A)k(λ) , entonces (λIn −A)k(λ) ~x = ~0 y por tanto (λIn −A)j ~x =
~0 para j ≥ k(λ). Hemos dado ası́ una expresión general para los modos normales. En particular,
si ~x es un autovector, el modo normal es simplemente
Am ~x = λm ~x.
133
El procedimiento para resolver (6.1) con una condición inicial ~x[0] arbitraria es entonces de la
siguiente forma:
(1) Obtener una base de C n formada por autovectores generalizados: {~x1 , . . . , ~xn }.
(2) Expresar la condición inicial como suma de autovectores generalizados, calculando las co-
ordenadas de ~x[0] en la base formada por autovectores generalizados:
Entonces
(3) Calcular cada modo normal Am ~xj , 1 ≤ j ≤ n según la fórmula (6.2) y sumar para obtener
(6.3).
En el caso de necesitar calcular Am , si llamamos P a una matriz cuyas columnas sean autovectores
generalizados de A y formen una base de C n . Por lo que hemos visto, sabemos expresar en forma
cerrada
Am P = S (m) ,
que es la matriz cuyas columnas son los modos normales asociados. De aquı́ podemos despejar
Am = S (m) P −1 .
Ejemplos
134
Para el segundo autovalor,
0 0 0 0 x 0
3 −3 0 0
E(A, λ2 ) = Ker(−4I − A) = {(x, y, z, t)T : = 0 }
y
3 −2 0 0 z 0
3 −3 −1 0 t 0
= {(x, y, z, t)T : x = y = z = 0} = span((0, 0, 0, 1)T ) ⇒ d(λ2 ) = 1.
0 0 0 0 x 0
−9 9 0 0 y 0
Ker(−4I − A)2 = {(x, y, z, t)T :
−6
= }
6 0 0z 0
−12 11 0 0 t 0
= {(x, y, z, t)T : x = y = 0} = span((0, 0, 0, 1)T , (0, 0, 1, 0)T ).
0 0 0 0 x 0
27 −27 0 0
Eg (A, λ2 ) = Ker(−4I − A)3 = {(x, y, z, t)T : 0
y
18 −18 0 0 z = 0 }
33 −33 0 0 t 0
= {(x, y, z, t)T : x = y} = span((0, 0, 0, 1)T , (0, 0, 1, 0)T , (1, 1, 0, 0)T ).
~v1 = (0, 9, 6, 11)T , ~v2 = (0, 0, 0, 1)T , ~v3 = (0, 0, 1, 0)T , ~v4 = (1, 1, 0, 0)T ,
135
(2) Para la matriz
1 0 −1 0
−3 −2 −7 5
A=
0
,
0 1 0
−1 −1 −4 2
Ya hemos encontrado, en el ejemplo (2) de la sección anterior, una base formada por autovectores
generalizados para esta matriz:
~v1 = (1, −1, 0, 0)T , ~v2 = (−6, 0, 1, −2)T , ~v3 = (0, 2 − i, 0, 1)T , ~v4 = (0, 2 + i, 0, 1)T ,
donde
A~v1 = ~v1
A~v2 = (A − I4 )~v2 + ~v2 = −~v1 + ~v2
A~v3 = i~v3
A~v4 = −i~v4
Tenemos que obtener las coordenadas de la condición inicial ~x[0] = ~x = (−2, 0, 1, 0)T en la nueva
base. Sabemos que éstas son P −1 ~x, donde P es la matriz cuyas columnas son ~v1 , ~v2 , ~v3 , ~v4 . No se
calcula P −1 , sino que se resuelve el sistema con matriz P y término independiente (−2, 0, 1, 0)T .
Si ~x[0] = α1~v1 + α2~v2 + α3~v3 + α4~v4 , entonces
α1 1 −6 0 0 α1 −2
α2 −1 0 2−i 2 + i α2 0
P
α3 = 0
= .
1 0 0 α3 1
α4 0 −2 1 1 α4 0
De donde α1 = 4, α2 = 1, α3 = 1, α4 = 1. Entonces ~x[0] = 4~v1 + ~v2 + ~v3 + ~v4 luego
Mj+2 = Mj+1 + Mj ,
136
es una ecuación en diferencias.
Las soluciones de (6.4) son sucesiones {yj }∞
j=0 que convierten (6.4) en una identidad cuando
cada xm se sustituye por ym , m ≥ 0.
No trataremos la resolución general de (6.4). Nos interesan el caso homogéneo, es decir
de modo que la ecuación posee solución única una vez que se especifican los n valores iniciales
de la sucesión x0 , x1 , . . . , xn−1 . De esta manera, las n soluciones correspondientes a los n datos
iniciales
x0 = 1, x1 = 0, x2 = 0, . . . , xn−1 = 0
x0 = 0, x1 = 1, x2 = 0, . . . , xn−1 = 0
···
x0 = 0, x1 = 0, x2 = 0, . . . , xn−1 = 1,
Entonces, {xj }∞
j=0 es solución de (6.5) si y sólo si
donde
0 1 0 0 ··· 0 0
0 0 1 0 ··· 0 0
A = ··· ··· ··· ··· ··· ··· ··· .
0 0 0 0 ··· 0 1
−a0 −a1 −a2 −a3 · · · −an−2 −an−1
Ası́, la resolución de (6.5) se reduce a la obtención de los modos normales de (6.6). Sin embargo,
en la práctica, puede darse la solución de (6.5) utilizando la formulación matricial sólo a efectos
teóricos.
137
El polinomio p(z) = z n + an−1 z n−1 + · · · + a1 z + a0 se llama polinomio caracterı́stico de (6.5).
Sus raı́ces se llaman raı́ces caracterı́sticas. No es difı́cil ver que
de modo que las raı́ces caracterı́sticas de (6.5) coinciden, junto con su multiplicidad, con los
autovalores de A.
Para la obtención de los soluciones de (6.5) consideremos la factorización de p(z):
según sus diferentes raı́ces λj con multiplicidades (algebraicas) m(λj ), con m(λ1 )+· · ·+m(λr ) = n.
Las soluciones de (6.5) son las primeras componentes de los vectores solución de (6.6)
y, como sabemos, toda solución de (6.6) es combinación de modos normales. De aquı́ se deduce
que toda solución de (6.5) es combinación lineal de las sucesiones obtenidas por las primeras
componentes de los modos normales. Cada modo normal genera una sucesión de vectores
{λjs }∞ j ∞
j=0 , {jλs }j=0 , . . . , {j
m(λs )−1 j ∞
λs }j=0 .
Recorriendo entonces todos los modos normales, tenemos que el espacio de soluciones S está con-
tenido en el espacio de sucesiones S ∗ formado por las combinaciones lineales de las n sucesiones
{j l λjs }∞
j=0 , 1 ≤ s ≤ r, 0 ≤ l ≤ ms − 1.
Por otro lado, al ser dim(S) = n, entonces necesariamente S = S ∗ y las n sucesiones anteriores
forman una base de S. De este modo, para obtener las soluciones de (6.5) se procede de la siguiente
manera:
(1) Obtener las raı́ces caracterı́sticas λ1 , . . . , λr y sus multiplicidades m1 , . . . , mr .
{λj1 }∞ j ∞
j=0 , {jλ1 }j=0 , . . . , {j
m1 −1 j ∞
λ1 }j=0
{λj2 }∞ j ∞
j=0 , {jλ2 }j=0 , . . . , {j
m2 −1 j ∞
λ2 }j=0
·········
{λjr }∞ j ∞
j=0 , {jλr }j=0 , . . . , {j
mr −1 j ∞
λr }j=0 .
138
(3) Escribir la solución {yj }∞
j=0 como combinación lineal de las sucesiones anteriores. Los coe-
ficientes de esta combinación quedan determinados al imponer las n condiciones iniciales.
Ejemplos.
λ1 = 3, m1 = 1
λ2 = −1, m2 = 1.
{λj1 }∞ j ∞
j=0 = {3 }j=0 ,
{λj2 }∞ j ∞
j=0 = {(−1) }j=0 .
yj = A3j + B(−1)j , j = 0, 1, 2, . . . ,
x0 = 0 ⇒ y0 = A + B = 0,
x1 = 1 ⇒ y1 = 3A − B = 1.
Se obtiene un sistema lineal para las constantes, de solución A = 1/4, B = −1/4. Luego la
solución del problema es {yj }∞
j=0 con
1 1
yj = 3j − (−1)j , j = 0, 1, 2, . . . .
4 4
(2) Vamos a obtener la solución general de la ecuación en diferencias
λ1 = 2, m1 = 1
λ2 = −1, m2 = 2.
{λj1 }∞ j ∞
j=0 = {2 }j=0 ,
{λj2 }∞ j ∞
j=0 = {(−1) }j=0
{jλj2 }∞ j ∞
j=0 = {j(−1) }j=0 .
139
de manera que la solución general {yj }∞
j=0 es de la forma
para constantes A, B y C.
(3) Vamos a obtener la solución de la ecuación en diferencias
λ1 = 1, m1 = 3.
{λj1 }∞ j ∞
j=0 = {1 }j=0 ,
{jλj1 }∞ ∞
j=0 = {j}j=0
{j 2 λj1 }∞ 2 ∞
j=0 = {j }j=0 .
yj = A + Bj + Cj 2 , j = 0, 1, 2, . . . ,
x0 = 1 ⇒ y0 = A = 1,
x1 = 0 ⇒ y1 = A + B + C = 0
x2 = 1 ⇒ y2 = A + 2B + 4C = 1.
yj = 1 − 2j + j 2 , j = 0, 1, 2, . . . .
λ1 = 1, m1 = 2
λ2 = 2, m2 = 1.
{λj1 }∞ j ∞
j=0 = {1 }j=0 ,
{jλj1 }∞ ∞
j=0 = {j}j=0
{λj2 }∞ j ∞
j=0 = {2 }j=0 .
140
de manera que la solución general {yj }∞
j=0 es de la forma
yj = A + Bj + C2j , j = 0, 1, 2, . . . ,
x0 = 0 ⇒ y0 = A + C = 0,
x1 = 1 ⇒ y1 = A + B + 2C = 1
x2 = 0 ⇒ y2 = A + 2B + 4C = 0.
yj = 2 + 3j − 2j+1 , j = 0, 1, 2, . . . .
xj+2 = −xj ,
λ1 = i, m1 = 1
λ2 = −i, m2 = 1.
{λj1 }∞ j ∞
j=0 = {i }j=0 ,
{λj2 }∞ j ∞
j=0 = {(−i) }j=0 .
yj = Aij + B(−i)j , j = 0, 1, 2, . . . ,
x0 = 1 ⇒ y0 = A + B = 1,
x1 = 1 ⇒ y1 = iA − iB = 1.
Se obtiene un sistema lineal para las constantes, de solución A = (1 − i)/2, B = (1 + i)/2. Luego
la solución del problema es {yj }∞
j=0 con
141
6.4.2. Ecuación no homogénea
Como ya hemos indicado anteriormente, no trataremos la resolución general de la ecuación
no homogénea (6.4). Sin embargo, es interesante explicar la estructura de las soluciones, pues se
utilizarán razonamientos parecidos posteriormente, en el contexto de las ecuaciones diferenciales.
Ası́mismo, discutiremos también la resolución para algunos casos particulares de términos no
homogéneos {fj }∞j=0 .
En lo que se refiere a la estructura de soluciones, conviene resaltar una primera propiedad,
que podrı́a llamarse principio de superposición.
[1]
(R1) Supongamos que el término no homogéneo {fj }∞
j=0 es suma de dos sucesiones fj = fj +
[2] [1] [2]
fj , j = 0, 1, . . . y sean {xj }∞ ∞
j=0 , {xj }j=0 soluciones de (6.4) con términos no homogéneos
[1] [2] [1] [2]
{fj }∞ ∞ ∞
j=0 y {fj }j=0 respectivamente. Entonces, la sucesión {xj }j=0 con xj = xj + xj es
solución de (6.4) con término no homogéneo fj .
El resultado parece razonable por la linealidad de la ecuación en diferencias. La primera conse-
cuencia es la siguiente:
(R2) Si {xj }∞ ∞ ∞
j=0 e {yj }j=0 son soluciones de (6.4), entonces la sucesión {zj }j=0 , con zj = xj − yj
es solución de la ecuación homogénea (6.5).
De este modo, la diferencia de dos soluciones de (6.4) es una solución de la ecuación homogénea
asociada. Esto permite la siguiente descripción:
(R3) La solución general de (6.4) se puede escribir como la suma de una solución particular más
la solución general de la ecuación homogénea asociada (6.5).
Hay entonces una reducción del problema en el siguiente sentido: para calcular todas las solu-
ciones de (6.4) es suficiente con obtener una sola, pues todas las demás se determinan añadiendo
a la obtenida soluciones de la ecuación homogénea asociada.
Vamos a utilizar esta reducción para resolver algunos casos particulares de ecuaciones no ho-
mogéneas que aparecen con frecuencia en diversas aplicaciones. Buscamos una solución particular
para ecuaciones en diferencias de la forma
q(j) = q0 + q1 j + · · · qm j m .
donde
142
es el polinomio caracterı́stico de la ecuación, mientras que
gj,0 = s(j),
gj,1 = s(j + 1) − s(j),
gj,2 = s(j + 2) − 2s(j + 1) + s(j),
.. .
. = µ .. ¶ µ ¶ µ ¶ µ ¶
k k k k
gj,k = s(j + k) − s(j + k − 1) + · · · + (−1)k−1 s(j + 1) + (−1)k s(j),
0 1 k−1 k
.. .
. = µ .. ¶ µ ¶ µ ¶ µ ¶
n n n n
gj,n = s(j + n) − s(j + n − 1) + · · · + (−1)n−1 s(j + 1) + (−1)n s(j).
0 1 n−1 n
La ecuación (6.7) permite el siguiente razonamiento. Supongamos que se ensaya una solución
particular de la forma xj = s(j)bj , con s un polinomio de un grado a determinar. Fijémonos
entonces que gj,0 es un polinomio con el mismo grado que s, gj,1 tiene un grado menos, gj,2 dos
grados menos, etc.
De este modo, si b no es raı́z del polinomio caracterı́stico, entonces p(b) 6= 0 y el polinomio en
j de mayor grado que aparece a la izquierda en (6.7) es gj,0 = s(j), el cual debe coincidir con el
grado m del polinomio de la derecha q(j). Por tanto, podemos ensayar como solución particular
una sucesión cuyo término general es producto de bj por un polinomio del mismo grado m del
polinomio del término no homogéneo.
Supongamos ahora que b es raı́z caracterı́stica simple. Entonces p(b) = 0 y el polinomio en
j de mayor grado que aparece a la izquierda en (6.7) es ahora gj,1 , el cual debe coincidir con el
grado m del polinomio de la derecha q(j). Como gj,1 tiene un grado menos que s(j), entonces
debemos ensayar s(j) con grado m + 1. Si b es raı́z doble, entonces p(b) = p0 (b) = 0 y s(j) debe
tener grado m + 2. Ası́, en general, si b es raı́z caracterı́stica de multiplicidad d, podemos ensayar
como s(j) un polinomio de grado menor o igual que m + d,
Aún se puede avanzar un poco más; teniendo en cuenta que b es raı́z con esa multiplicidad, la
parte de la solución correspondiente al polinomio de grado menor o igual que d−1 es una solución
de la ecuación homogénea. De este modo, podemos ensayar a partir del coeficiente de j d . Este
método, llamado de coeficientes indeterminados, puede resumirse entonces de la siguiente forma:
(B) Si p(z) = (z−b)d p0 (z) con p0 (b) 6= 0, entonces s(t) = s0 + · · · + sd−1 td−1 + sd td + · · · + sd+m td+m
y existe una solución particular de la forma
(C) En ambos casos, los coeficientes de s se obtienen imponiendo que xj sea solución del prob-
lema.
143
Ejemplos.
4B − 3A = 0
−3B = 1.
Ahora, b = −1 es raı́z simple del polinomio caracterı́stico. Buscamos entonces una solución
particular de la forma xj = j(A + Bj)(−1)j . Imponiendo la función como solución e igualando
coeficientes en j, se tiene
6B + 4A = 0
8B = 1.
Ejercicio 1. Halla una base de los autoespacios generalizados de las matrices siguientes
−2 0 3 0 −4 0 0 0
3 2 −2 −1 −3 −1 0 0
A=
0
, B= .
0 1 0 −3 2 −4 0
3 0 −2 −2 −3 3 1 −4
144
Ejercicio 3. Para la matriz
3 1 −2 −1
0 3 0 0
A=
0 −5
6 −3
0 2 3 0
halla A30 x donde x = [1, 2, −3, 5]T .
(ii) Se considera la matriz A = A(2). Determina una base de autovectores generalizados para la
matriz A.
~x[n + 1] = A~x[n], n = 2, 3, . . .
T
~x[2] = (3, 0, 1) .
145
ALGUNOS EJERCICIOS RESUELTOS DEL TEMA 6
Ejercicio 1.
−2 0 3 0
3 2 −2 −1
A=
0
, pA (z) = (z − 1)(z + 2)2 (z − 2).
0 1 0
3 0 −2 −2
λ1 = 1, m1 = 1
λ2 = −2 m2 = 2
λ3 = 2 m3 = 1.
Hemos elegido el primer vector de E(A, λ2 ) como autovector. Escribimos ~x = α1~v1 + α2~v2 +
α3~v3 + α4~v4 en la base de autovectores generalizados, resolviendo el sistema
3 0 4 0 α1 1
−2 1 0 1 α2 1
= ,
3 0 0 0 α3 0
1 4 9 0 α4 0
ası́
~x = −(9/16)~v2 + (1/4)~v3 + (25/16)~v4 ,
y por tanto
−4 0 0 0
−3 −1 0 0
B=
−3
.
2 −4 0
−3 3 1 −4
Los autovalores con sus multiplicidades algebraicas son
λ1 = −1, m1 = 1
λ2 = −4 m2 = 3.
146
Y los autoespacios generalizados son
Escribimos ~x = α1~v1 + α2~v2 + α3~v3 + α4~v4 en la base de autovectores generalizados; pero en este
caso ~x = ~v4 luego
B 10 ~x = B 10~v4 ,
= (−4)10~v24 + (−4)9 (B + 4I4 )~v4 + (−4)8 (B + 4I4 )2~v4
= (−4)10~v4 + (−4)9 (0, 0, −1, 0)T + (−4)8 (0, 0, 0, 1)T .
Ejercicio 2.
1 1 0 0
−1 −1 0 0
A=
2
, pA (z) = (z − 1)(z + 2)2 (z − 2).
−1 2 4
1 3 −1 2
Los autovalores con sus multiplicidades algebraicas son
λ1 = 0, m1 = 2
λ2 = 2 + 2i m2 = 1
λ3 = 2 − 2i m3 = 1.
Eg (A, λ1 ) = Ker(A2 ) = span(~v1 , ~v2 ), ~v1 = (0, 1, 5/4, −13/16)T , ~v2 = (1, 0, −1/2, −11/16)T
Eg (A, λ2 ) = Ker((2 + 2i)I4 − A) = span(~v3 ), ~v3 = (0, 0, −2i, 1)T ,
Eg (A, λ3 ) = Ker((2 − 2i)I4 − A) = span(~v4 ), ~v4 = (0, 0, 2i, 1)T ).
2 0 0 0
4 2 1 −5
B=
−3
, pB (z) = (z − 2)4 .
0 4 2
1 0 −2 0
Los autovalores con sus multiplicidades algebraicas son
λ1 = 2, m1 = 4.
Eg (A, λ1 ) = Ker(2I4 − A)4 = span((1, 0, 0, 0)T , (0, 1, 0, 0)T , (0, 0, 1, 0)T , (0, 0, 0, 1)T ).
147
Ejercicio 4.
1 0 −1 0
0 0 0 −1
A=
1 0
, pA (z) = (z 2 + 1)(z 2 − 2z + 2).
1 0
0 1 0 0
Los autovalores con sus multiplicidades algebraicas son
λ1 = i, m1 = 1
λ2 = −i m2 = 1
λ3 = 1 + i m3 = 1
λ4 = 1 − i m4 = 1.
Todos son autovectores, pues los autovalores tienen todos multiplicidad uno. Escribimos ~v =
α1~v1 + α2~v2 + α3~v3 + α4~v4 en la base de autovectores, resolviendo el sistema
0 0 i −i α1 1
i −i 0 0 α2 2
0 0 1 1 α3 = 3 ,
1 1 0 0 α4 4
ası́
3−i 3+i
~v = (2 − i)~v1 + (2 + i)~v2 + ~v3 + ~v4 ,
2 2
y por tanto
3−i n 3+i n
An~v = (2 − i)An~v1 + (2 + i)An~v2 + A ~v3 + A ~v4 ,
2 2
An~v1 = (i)n~v21 ,
An~v2 = (−i)n~v2 ,
An~v3 = (1 + i)n~v3 ,
An~v4 = (1 + i)n~v4 ,
An~v = 2Re((2 − i)in~v1 ) + 2Re((2 + i)(i + i)n~v3 ).
−1 1 −1 −1
2 −1 0 2
A=
0
, pA (z) = (z 2 + 1)(z 2 − 2z + 2).
−1 0 −1
2 −1 1 2
148
Los autovalores con sus multiplicidades algebraicas son
λ1 = −1, m1 = 1
λ2 = i m2 = 1
λ3 = −i m3 = 1
λ4 = 1 m4 = 1.
Todos son autovectores, pues los autovalores tienen todos multiplicidad uno. Escribimos ~v =
α1~v1 + α2~v2 + α3~v3 + α4~v4 en la base de autovectores, resolviendo el sistema
0 −1 −1 1 α1 1
1 0 0 1 α2 2
= ,
1 i −i −1 α3 3
0 1 1 0 α4 4
ası́
~v = −3~v1 + (2 + (11/2)i)~v2 + (2 + (11/2)i)~v3 + 5~v4 ,
y por tanto
Ejercicio 6.
a) uj = A + Bj + Cj 2 .
b) uj = A + Bj + Cj 2 − (1/4)j 3 + (1/24)j 4 .
c) uj = A(−1)j + B3j − (1/4)j.
d) uj = A + Bj − (1/12)j 2 − (1/6)j 3 + (1/12)j 4 .
e) uj = A(−3)j + B(−5)j .
f) uj = A(−3)j + B(−5)j + (1/35)2j .
g) uj = A(−3)j + B(−5)j − (1/6)j(−3)j .
h) uj = A(1 + i)j + B(1 − i)j .
149
Tema 7
150
Esta lección queda más o menos dividida en dos partes. En la primera, se explicarán nociones
elementales de la teorı́a de sistemas lineales de primer orden con coeficientes constantes, plante-
ando el problema de valores iniciales y estudiando la estructura del espacio de soluciones. La
segunda parte estará dedicada a la búsqueda de soluciones, tanto para ecuaciones homogéneas
como no homogéneas.
7.1. Presentación
Un sistema lineal de n ecuaciones diferenciales ordinarias y coeficientes constantes es una
expresión de la forma siguiente:
~x0 (t) = A~x(t) + ~b(t). (7.1)
En la expresión (7.1), A es una matriz cuadrada de orden n × n, ~b(t) es un vector conocido de
n componentes que son funciones que dependen de una variable muda t. Todas las componentes
están definidas en un intervalo real J y son continuas como funciones de t en ese intervalo. Por
su parte, el vector ~x(t) tiene también n componentes. Es el vector incógnita del sistema. La
expresión ~x0 (t) representa el vector de las derivadas con respecto a t de las componentes de ~x(t).
El problema que se plantea consiste en, dados A y ~b(t), encontrar el o los vectores ~x(t) que
verifiquen (7.1).
Escrito en forma de ecuaciones, (7.1) se suele expresar como
x01 (t) = a11 x1 (t) + a12 x2 (t) + · · · + a1n xn (t) + b1 (t)
x02 (t) = a21 x1 (t) + a22 x2 (t) + · · · + a2n xn (t) + b2 (t)
.. .
. = ..
x0n (t) = an1 x1 (t) + an2 x2 (t) + · · · + ann xn (t) + bn (t),
donde ~x(t) = (x1 (t), x2 (t), . . . , xn (t))T , ~b(t) = (b1 (t), b2 (t), . . . , bn (t))T y A = (aij )1≤i,j≤n . Se dice
que A es la matriz de coeficientes de (7.1) y ~b(t) el término no homogéneo o término fuente.
Cuando ~b(t) no aparece, el sistema (7.1) se llama homogéneo. En otro caso se dice que es no
homogéneo.
Se llama solución de (7.1) a cualquier aplicación diferenciable φ ~ : J → Kn definida en un
intervalo J de R y verificando (7.1) cuando ~x se sustituye por φ. ~
Dados un instante inicial t0 ∈ R y un valor inicial ~x0 ∈ Kn , se puede plantear el llamado
problema de valores iniciales (PVI)
~x0 (t) = A~x(t) + ~b(t). (7.2)
~x(t0 ) = ~x0 .
Se dice que t0 y ~x0 son las condiciones iniciales del problema. Una solución del mismo no es otra
cosa que una solución φ~ de (7.1) tal que t0 ∈ J y además φ(t
~ 0 ) = ~x0 .
Vamos a dividir nuestro estudio en el caso homogéneo (~b(t) = ~0) y el no homogéneo.
151
y del correspondiente PVI
Teorema 1. Dada una condición inicial cualquiera t0 ∈ R, ~x0 ∈ Kn se tiene que el correspondiente
PVI (7.4) posee una única solución definida en todo R.
El segundo punto a considerar es la estructura de las soluciones de (7.3). Esto será importante
para después analizar la resolución.
P P
Teorema 2. Denotemos por al conjunto de soluciones de (7.3). Entonces es un espacio
vectorial de dimensión n, el tamaño del sistema.
P
Ver que es un espacio vectorial no es difı́cil. En efecto, si ~x1 (t), ~x2 (t) son dos soluciones de
(7.3), entonces (~x1 + ~x2 )0 (t) = ~x01 (t) + ~x02 (t) = A~x1 (t) + A~x2 (t) = A(~x1 + ~x2 )(t), luego ~x1 (t) + ~x2 (t)
es solución de (7.3). Por otro lado, si ~x(t) es solución de (7.3) y λ ∈ K, entonces (λ~x)0 (t) =
λ~x0 (t) = λA~x(t) = A(λ~x)(t) y (λ~x)(t) es solución.
Veamos ahora la dimensión. Sea ~ej = (0, 0, . . . , 0, 1, 0, . . . , 0)T el j-ésimo vector de la base
canónica y consideremos, para t0 ∈ R cualquiera, el problema de valores iniciales
Sabemos que existe una única solución ~xj (t) de este problema. Veamos que las soluciones
y trivialmente α1 = · · · = αn = 0, de modo que {~x1 (t), ~x2 (t), . . . , ~xn (t)} constituye un sistema
libre de soluciones del sistema homogéneo. Además, cualquier otra solución ~x(t) depende de
~x1 (t), ~x2 (t), . . . , ~xn (t) , pues si ~x(t0 ) = (c1 , . . . , cn )T = c1~e1 + c2~e2 + · · · + cn~en entonces ,necesari-
P
amente ~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + · · · + cn ~xn (t). Ası́, {~x1 (t), ~x2 (t), . . . , ~xn (t)} es una base de y
P
por tanto dim = n.
Este resultado contiene dos afirmaciones importantes: en primer lugar, el llamado principio
P
de superposición de soluciones. El hecho de que sea un espacio vectorial significa que cualquier
P
combinación lineal de soluciones de (7.3) es una solución. En segundo lugar, dado que tiene
dimensión n, esto implica que el sistema (7.3) tiene exactamente n soluciones linealmente in-
dependientes. Constituyen lo que se llama un sistema fundamental de soluciones del sistema
homogéneo (7.3). cualquier solución es combinación lineal de n soluciones independientes, de un
sistema fundamental.
152
~ 1 (t), φ
Corolario. Sea {φ ~ n (t)} una base de P. La solución general de (7.3) es de la
~ 2 (t), . . . , φ
forma
~ = C1 φ
φ(t) ~ 1 (t) + C2 φ
~ 2 (t) + · · · + Cn φ
~ n (t),
λ1 = 2, m(λ1 ) = 2
λ2 = 5, m(λ2 ) = 1.
Buscamos una base de los autoespacios de cada valor propio. Para λ1 = 2 tenemos
153
Por otro lado
Luego ~x1 (t) es solución del sistema. Con el mismo razonamiento, se tiene que
son también soluciones. Como el sistema tiene tamaño tres, la dimensión del espacio de soluciones
es tres. Nuestras soluciones ~x1 (t), ~x2 (t), ~x3 (t) son candidatas a formar una base del espacio de
soluciones; bastará con ver que son independientes.
Ahora bien, si α1 ~x1 (t) + α2 ~x2 (t) + α3 ~x3 (t) = 0, en particular α1 ~x1 (0) + α2 ~x2 (0) + α3 ~x3 (0) = 0;
esto significa que
pero nosotros sabemos que los autovectores ~v1 , ~v2 , ~v3 forman una base de R3 , luego α1 = α2 =
α3 = 0 y las soluciones ~x1 (t), ~x2 (t), ~x3 (t) forman una base. Cualquier solución es combinación
lineal de esta tres,
y la matriz
−e2t −e2t e5t
Φ(t) = [~x1 (t), ~x2 (t), ~x3 (t)] = e2t 0 e5t
0 e2t e5t
es una matriz fundamental del sistema.
λ1 = 3, m(λ1 ) = 1
λ2 = 2, m(λ2 ) = 2.
154
Se puede comprobar que la matriz no es diagonalizable, pues d(λ2 ) = 1. Formamos una base de
autovectores generalizados. Se puede comprobar que
Eg (A, λ1 ) = E(A, λ1 ) = span(~v1 ), ~v1 = (1, 0, 1)T
Eg (A, λ1 ) = Ker(2I3 − A)2 = span(~v2 , ~v3 ), ~v2 = (1, 0, 0)T , ~v3 = (0, 1, −1)T ,
donde hemos elegido ~v2 ∈ E(A, λ2 ). Puesto que ~v1 , ~v2 son autovectores, como en el ejemplo
anterior, se generan dos soluciones
~x1 (t) = eλ1 t~v1 = (e3t , 0, e3t )T ,
~x2 (t) = eλ2 t~v2 = (e2t , 0, 0)T .
Necesitamos otra solución para formar una base. No puede ser eλ2 t~v3 pues ~v3 no es autovector y
por tanto no serı́a solución. La idea consiste en añadir una expresión
~x3 (t) = eλ2 t~v3 + teλ2 t w,
~
para cierto vector w.
~ ¿Quién tiene que ser w
~ para que ~x3 (t) ası́ expresado sea solución? Si
derivamos
~x03 (t) = λ2 eλ2 t~v3 + eλ2 t w
~ + teλ2 t λ2 w,
~
y, por otro lado
A~x3 (t) = eλ2 t A~v3 + teλ2 t Aw.
~
De aquı́ podemos deducir que
(A − λ2 I3 )~v3 = w~
(A − λ2 I3 )w ~ = ~0.
La primera ecuación nos indica ya que w
~ = (A − λ2 I3 )~v3 . A partir de ella se deduce la segunda,
puesto que ~v3 ∈ Ker(2I3 − A)2 . Entonces, la tercera solución es
~x3 (t) = eλ2 t~v3 + teλ2 t (A − λ2 I3 )~v3 .
Finalmente, ~x1 (t), ~x2 (t), ~x3 (t) forman una base del espacio de soluciones puesto que ~v1 , ~v2 , ~v3
forman una base de R3 .
155
es la solución del PVI
Observemos que todo vector es combinación lineal de autovectores generalizados, luego toda
solución es combinación lineal de modos normales. Las reglas prácticas para resolver un PVI del
sistema homogéneo como (7.4) son las siguientes.
1. Obtener una base {~v1 , ~v2 , . . . , ~vn } de autovectores generalizados asociados a la matriz A.
2. Expresar la condición inicial ~x0 como combinación lineal de los autovectores generalizados
3. Construir el modo normal ~xk (t) que corresponde a cada autovector generalizado ~vk que
aparece en la condición inicial.
4. Formar la superposición
Ejemplos.
y condición inicial ~x(0) = (1, −1, 2)T . El polinomio caracterı́stico de A es pA (z) = (z − 1)(z +
2)(z − 3). Los autovalores son
λ1 = 3, m(λ1 ) = 1
λ2 = 1, m(λ2 ) = 1
λ3 = −2, m(λ3 ) = 1.
156
12 9 0 x 0
Eg (A, λ2 ) = Ker(I3 − A) = {(x, y, z)T / −12 −9 0 y = 0
8 3 −2 z 0
= span(~v2 ), ~v2 = (1, −4/3, 2)T ,
9 9 0 x 0
T
Eg (A, λ3 ) = Ker(−2I3 − A) = {(x, y, z) / −12 −12 0 y = 0
8 3 −5 z 0
= span(~v3 ), ~v3 = (1, −1, 1)T .
Buscamos ahora las coordenadas de la condición inicial (1, −1, 2)T en la base de autovectores
generalizados, resolviendo el sistema
α1 0 1 1 α1 1
P α2 = 0 −4/3 −1 α2 = −1
α3 1 2 1 α3 2
Construimos ahora la expresión de los modos normales, siguiendo la fórmula dada en el teorema
3.
k(λ1 )−1 j
X t
~x1 (t) = eλ1 t (A − λ1 I3 )j ~v1 = e3t~v1 = (0, 0, e3t )T
j=0
j!
k(λ2 )−1 j
X t
~x2 (t) = eλ2 t (A − λ2 I3 )j ~v2 = et~v2 = (et , (−4/3)et , 2et )T
j=0
j!
k(λ3 )−1 j
X t
~x3 (t) = eλ3 t (A − λ3 I3 )j ~v3 = e−2t~v3 = (e−2t , −e−2t , e−2t )T .
j=0
j!
Finalmente, sea ~x(t) = ~x1 (t) + ~x3 (t) = (e−2t , −e−2t , e−2t + e3t )T . Como la condición inicial
está impuesta en t0 = 0, la solución es ~x(t).
y condición inicial ~x(2) = (2, −1, −5)T . El polinomio caracterı́stico de A es pA (z) = (z −1)2 (z −3).
Los autovalores son
λ1 = 3, m(λ1 ) = 1
λ2 = 1, m(λ2 ) = 2.
157
Buscamos una base de autovectores generalizados. Se tiene:
donde hemos elegido ~v2 ∈ E(A, λ2 ). Buscamos ahora las coordenadas de la condición inicial
(2, −1, −5)T en la base de autovectores generalizados, resolviendo el sistema
α1 1 1 0 α1 2
P α2 = −2 0 1 α2 = −1
α3 −3 −1 −1 α3 −5
Construimos ahora la expresión de los modos normales, siguiendo la fórmula dada en el teorema
3.
k(λ1 )−1 j
X t
~x1 (t) = eλ1 t (A − λ1 I3 )j ~v1 = e3t~v1 = (e3t , −2e3t , −3e3t )T
j=0
j!
k(λ2 )−1 j
X t
~x2 (t) = eλ2 t (A − λ2 I3 )j ~v2 = et~v2 = (et , 0, −et )T
j=0
j!
k(λ2 )−1 j
X t
~x3 (t) = eλ2 t (A − λ2 I3 )j ~v3 = et (~v3 + t(A − I3 )~v3 ) = (3tet , et , −et − 3tet )T .
j=0
j!
Finalmente, sea ~x(t) = ~x1 (t) + ~x2 (t) + ~x3 (t) = (e3t + (1 + 3t)et , −2e3t + et , −3e3t − (2 + 3t)et )T .
Como la condición inicial está impuesta en t0 = 2, la solución es ~y (t) = ~x(t − 2).
158
7.3. Sistemas no homogéneos
Tratamos ahora el caso no homogéneo (7.1)
donde {φ ~ 1 (t), φ
~ 2 (t), . . . , φ
~ n (t)} es una base de soluciones del sistema homogéneo asociado (7.3),
C1 , C2 , . . . , Cn son constantes arbitrarias y ~xp (t) denota una solución particular cualquiera de
(7.1).
Busquemos una expresión para la solución del problema de valores iniciales (7.2). Denotemos
por Φ(t) la matriz fundamental del sistema homogéneo (7.3) formada por los modos normales
que hemos obtenido en la sección anterior. Tenemos entonces la llamada fórmula de variación de
las constantes.
(1) La matriz Φ(0) no es más que la matriz de cambio a la base de autovectores generalizados.
De este modo, Φ(0)−1 ~x0 no es más que la expresión de la condición inicial ~x0 en la base
de autovectores generalizados. Por otro lado, Φ(0)−1~b(s) se puede obtener resolviendo el
sistema Φ(0)f~(s) = ~b(s).
(2) El primer sumando de la fórmula no es otra cosa que la solución del problema
159
mientras que el segundo sumando es solución del problema
De este modo, se tiene el resultado del teorema 5: la solución del problema es la suma de
una solución particular más la solución del problema homogéneo asociado.
Veamos cómo se aplica la fórmula en la práctica.
condición inicial ~x(0) = (1, −1, 2)T y término fuente ~b(t) = (sin t, 0, cos t)T . La primera parte de
la fórmula es la solución del sistema homogéneo con la condición inicial ~x(0) = (1, −1, 2)T . La
descomposición primaria de A es la siguiente. Los autovalores son
λ1 = 0, m(λ1 ) = 1
λ2 = i, m(λ2 ) = 1
λ3 = −i, m(λ3 ) = 1.
Buscamos ahora las coordenadas de la condición inicial (1, −1, 2)T en la base de autovectores
generalizados, resolviendo el sistema
α1 1 1 1 α1 1
P α2 = 0 i −i α2 = −1
α3 0 −1 −1 α3 2
que tiene por solución α1 = 3, α2 = (i − 2)/2, α3 = (−i − 2)/2, luego
(i − 2) (−i − 2)
(1, −1, 2)T = 3~v1 + ~v2 + ~v3 .
2 2
Construimos ahora la expresión de los modos normales, siguiendo la fórmula dada en el
teorema 3.
k(λ1 )−1 j
X t
~x1 (t) = eλ1 t (A − λ1 I3 )j ~v1 = e0t~v1 = (1, 0, 0)T
j=0
j!
k(λ2 )−1 j
X t
~x2 (t) = eλ2 t (A − λ2 I3 )j ~v2 = eit~v2 = (eit , ieit , −eit )T
j=0
j!
k(λ3 )−1 j
X t
~x3 (t) = eλ3 t (A − λ3 I3 )j ~v3 = e−it~v3 = (e−it , −ie−it , −e−it )T .
j=0
j!
160
³ ´
Finalmente, sea ~x(t) = 3~x1 (t) + (i−2)
2 ~x2 (t) + (−i−2)
2 ~x3 (t) = 3~x1 (t) + 2Re (i−2)
2 ~ x2 (t) . Como la
condición inicial está impuesta en t0 = 0, la solución del problema homogéneo es ~x(t). La matriz
fundamental es
1 eit e−it
Φ(t) = 0 ieit −ie−it .
0 −eit −e−it
Vamos con la segunda parte de la fórmula. El vector f~(s) es solución del sistema Φ(0)f~(s) = ~b(s),
que resolviendo queda
sin s + cos s
Φ(0)−1~b(s) = − cos2 s .
cos s
− 2
Entonces
1 ei(t−s) e−i(t−s) sin s + cos s sin s + cos s − cos s cos(t − s)
−1~
Φ(t − s)Φ(0) b(s) = 0 iei(t−s) −ie−i(t−s) − cos2 s = cos s sin(t − s) ,
cos s
0 −ei(t−s) −e −i(t−s) − 2 cos s cos(t − s)
y por tanto
Rt
Z t 0 (sin s +
Rt
cos s − cos s cos(t − s))ds
~xp (t) = Φ(t − s)Φ(0)−1~b(s)ds = R 0t
cos s sin(t − s)ds .
0
0 cos s cos(t − s)ds
Ejercicio 1. (a) Halla la solución general del sistema de ecuaciones diferenciales ordinarias
x0 = Ax donde A es la matriz
0 −1 −2
1 0 1 .
2 −1 0
161
x 0 1 0 x x(0) = 1
d
y = 0 0 1y , y(0) = −1
dt
z 0 −1 0 z z(0) = 2
x 1 1 4 x x(0) = 1
d
y = 0 2 0 y , y(0) = 3
dt
z 1 1 1 z z(0) = 0
Ejercicio 5. Consideremos dos especies que compiten entre sı́ en un mismo hábitat y sean x1 (t)
y x2 (t) las poblaciones de cada una de las especies que cohabitan en el instante de tiempo t.
Supongamos que las poblaciones iniciales son x1 (0) = 500 y x2 (0) = 200. Si el crecimiento de las
especies viene dado por el sistema diferencial
162
x 0 1 0 x sin t x(0) = 1
d
y = 0 0 1y + 0 , y(0) = −1
dt
z 0 −1 0 z cos t z(0) = 2
x 3 −2 4 x 1 x(0) = 1
d
y = 4 −3 8 y + 2t , y(0) = 1
dt
z 1 −1 3 z t z(0) = 1
x 3 1 0 x t2 x(1) = 2
d
y = 0 3 1y + t , y(1) = 1
dt
z 0 0 3 z 1 z(1) = −1
~x0 = A~x + ~g .
con ~g = (0, e−2t , 0)T y condiciones iniciales x(1) = −2, y(1) = 0, z(1) = 2.
(c) Halla la solución del problema de Cauchy dado por el sistema (∗) y la condición inicial
x(1) = −2, y(1) = 0, z(1) = 2.
(ii) Se considera la matriz A = A(2). Determina una base de autovectores generalizados para la
matriz A.
163
(i) Calcula la solución del problema de valores iniciales
(ii) Se considera la función vectorial f~(t) = (−2e2t , e2t , 2e2t )T . Determina quién debe ser el vector
~ para que la función ~x(t) = e2t w
w ~ sea solución del sistema no homogéneo
Solución general:
~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + c3 ~x3 (t).
Solución general:
~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + c3 ~x3 (t).
Segundo sistema: Modos normales:
164
Tercer sistema: Modos normales:
Solución general:
~x(t) = c1 ~x1 (t) + c2 ~x2 (t) + c3 ~x3 (t).
Solución: µ ¶
1−i
~x(t) = 2Re ~x2 (t) .
2
Segundo sistema. Modos normales:
Solución:
~x(t) = 3~x1 (t) + 2Re (1 − i/2~x2 (t)) .
Tercer sistema. Modos normales:
Solución:
~x(t) = (5/2)~x1 (t) − (1/2)~x2 (t) − ~x3 (t).
Solución:
~x(t) = Re ((1 + i)~x2 (t − 2)) .
165
Segundo sistema. Modos normales:
~x1 (t) = e2it~v1 = e2it (−i, 1, 0, 0)T ,
~x2 (t) = e(−2i)t~v2 = e(−2i)t (i, 1, 0, 0)T ,
~x3 (t) = e3it~v3 = e3it (0, 0, 1, −i)T ,
~x4 (t) = e(−3i)t~v4 = e(−3i)t (0, 0, 1, i)T .
Solución:
~x(t) = 2Re ((1 + i)~x1 (t)) + 2Re (~x3 (t)) .
Tercer sistema. Modos normales:
~x1 (t) = eit~v1 = eit (0, 2 − i, 0, 1)T ,
~x2 (t) = e(−i)t~v2 = e(−i)t (0, 2 + i, 0, 1)T ,
~x3 (t) = et~v3 = et (1, −1, 0, 0)T ,
~x4 (t) = et~v4 + tet (A − I)~v4 = et (0, −6, 1, −2)T + tet (−1, 1, 0, 0)T .
Solución:
~x(t) = 2Re (~x1 (t)) − 2~x3 (t) + ~x4 (t).
Cuarto sistema. Modos normales:
~x1 (t) = e−2t~v1 = e−2t (1, 0, 1, 1)T ,
~x2 (t) = e−2t~v2 + te−2t (A + 2I)~v2 == e−2t (0, 1, 0, 1)T + te−2t (2, 0, 2, 2)T ,
~x3 (t) = e2it~v3 = e2it (2i, 2, 1 + i, 0)T ,
~x4 (t) = e−2it~v4 = e−2it (−2i, 2, 1 − i, 0)T .
Solución: µ ¶
−1 − i
~x(t) = 3~x2 (t) + 2Re ~x3 (t) .
2
Ejercicio 5.
x1 (t) = 440 + 60e−5t , x2 (t) = 220 − 20e−5t .
166
Cuarto sistema: ~x(t) = ~xh (t) + ~xp (t).
(t − 1)2
~xh (t) = e3(t−1) (1 + t − , 2 − t, −1)T ,
2
ÃZ Z t Z t !T
t
( (t − s)2 3(t−s) 3(t−s)
~xp (t) = e 3t − s)((ts + )ds, e tds, e ds .
1 2 1 1
Ejercicio 7.
(a)
1 −2 1 0
A= 2 1 5 , ~g (t) = e−2t .
0 0 −2 0
(b) ~x(t) = ~xh (t) + ~xp (t).
³ ´
~xh (t) = e−2(t−1)) (−1, −1, 1)T + 2Re e(1+2i)(t−1) (i, 1, 0)T ,
µZ t Z t ¶T
~xp (t) = −e( t − 3s)(sin(2(t − s)))ds, e(t−3s) cos(2(t − s))ds, 0 .
1 1
167
Tema 8
Ejemplo introductorio. El estudio teórico del procesado de señales de tipo continuo se lleva a
cabo a través de la teorı́a de sistemas. Un sistema se puede definir como un dispositivo fı́sico o
lógico que realiza una operación sobre una señal.
f (t) x(t)
- SIST EM A -
P ROCESADO
ENTRADA SALIDA
Cuando una señal atraviesa un sistema se dice que se ha procesado. A la señal que introducimos
se denomina excitación y a la que obtenemos a la salida, respuesta.
El procesado de una señal puede consistir en una serie de operaciones básicas sobre ella. Se
puede amplificar una señal (multiplicarla por una constante mayor que uno) multiplicarla por
otra, integrarla, derivarla, etc, en función de las necesidades. Prácticamente, toda operación que
pueda realizarse sobre una función de variable continua, que represente a una señal, constituye
un sistema.
De todos los sistemas, los de mayor importancia son los llamados lineales. Estos verifican que la
respuesta a dos excitaciones de entrada es la suma de las respuestas a cada una de las excitaciones
por separado. La mayor parte de los sistemas contiene un número importante de componentes
lineales, o que al menos lo son aproximadamente, como para considerar el estudio de los sistemas
lineales de gran utilidad práctica.
168
En este sentido, una ecuación diferencial ordinaria lineal, en particular de coeficientes constantes,
puede interpretarse en términos de un sistema. El ejemplo clásico, que manejaremos a lo largo
de la lección, es el de un circuito eléctrico como el que aparece en la figura.
L
@
@
¡
¡
@
@ C
¡R
¡
@
@
¡
¡
L, C > 0, R ≥ 0
¾
E(t)
i(t)
Consta de una resistencia R, una inductancia L y una capacitancia C, ası́ como una baterı́a o
generador E(t) que suministra corriente al circuito. La intensidad de corriente i(t) que en cada
instante recorre el circuito puede entenderse como la respuesta a una excitación dada por el
generador a través de un sistema gobernado por la ecuación diferencial
d2 i di 1 dE
L +R + i=
dt2 dt C dt
Su deducción se basa en la segunda ley de Newton. El segundo sumando representa las fuerzas
de resistencia al movimiento.
Son también de interés algunas analogı́as del sistema eléctrico, como el sistema mecánico de
masa, resorte y amortiguamiento.
Esta lección trata de las ecuaciones diferenciales ordinarias lineales de coeficientes constantes
y orden superior a uno. Consiste en estudiar ecuaciones en las que aparecen derivadas de orden
mayor que uno. La correspondencia entre una EDO lineal de orden n > 1 y cierto sistema lineal de
EDOs de primer orden nos permite enfocar aspectos teóricos desde el punto de vista de la lección
anterior. Por tanto, aquı́ seguiremos esencialmente la misma estructura que aquélla. Discutiremos
entonces aspectos sobre la forma de las soluciones para más adelante centrarnos en la resolución
y su utilización en algunas aplicaciones.
169
que se dice de orden n por ser éste el orden de la derivada de mayor grado presente, viene
definida por sus coeficientes y su término fuente. Cuando éste es nulo, se dice que la ecuación es
homogénea, siendo no homogénea en otro caso.
La función x(t) que aparece en (8.1) es una variable muda, siendo opcional el empleo de otras
letras tanto para denominar a la variable dependiente x como a la independiente t. Por solución
de (8.1) se entiende toda aplicación ϕ : I ⊂ R → K n veces diferenciable y que satisface la
igualdad (8.1) para todo t ∈ I al sustituir x(t) por ϕ(t).
Nuestro estudio tiene un hilo conductor ya tratado, que es la teorı́a de sistemas diferenciales
lineales de primer orden y coeficientes constantes. Observemos que en términos de estas nuevas
variables
dx(t) dn−1 x(t)
x1 = x, x2 = , . . . , xn = , ~x = (x1 , x2 , . . . , xn )T ,
dt dtn−1
podemos escribir la ecuación (8.1) en forma de un sistema de primer orden
donde
0 1 0 ··· ··· 0 0 0
0 0 1 ··· ··· 0 0 0
. .. .. .. ..
.
A = .. . . ··· ··· . . , f~(t) = .. .
0 0 0 ··· ··· 0 1 0
−a0 −a1 −a2 ··· · · · −an−2 −an−1 f (t)
~ = (ϕ, ϕ0 , . . . , ϕn−1) )T ,
ϕ
formado por ella y sus derivadas hasta el orden n − 1. Recı́procamente, la forma del sistema
asegura que las componentes de toda solución φ~ = (φ1 , φ2 , . . . , φn )T de (8.2) van siendo las
derivadas de la primera componente,
dj−1 φ1 (t)
φj (t) = , j = 2, . . . , n,
dtj−1
y, de esta forma, teniendo en cuenta la última ecuación del sistema, la primera componente φ1 es
solución de (8.1). Ası́ pues, toda solución de (8.2) tiene como primera componente una solución
de (8.1).
El sistema equivalente nos permite entonces aprovechar el resultado de existencia y unicidad
para el problema de valores iniciales de un sistema diferencial de este tipo y aplicarlo a nuestro
caso. Ahora, un problema de valores iniciales para la ecuación de orden n se construye con la
ecuación (8.1) y n condiciones iniciales, para la función x(t) y sus derivadas hasta el orden n − 1
en un punto,
170
Esto equivale a imponer el siguiente PVI para el sistema,
Teorema 1. Si f : I → K es continua, existe una única solución del problema de valores iniciales
(8.3).
con A dada en (8.2). Sabemos que toda solución de (8.5) es la primera componente de una solución
P
de (8.6) y recı́procamente. De este modo, podemos identificar con el espacio de soluciones de
P
(8.6). Por el tema anterior, éste último tiene dimensión n, de manera que dim = n.
Por tanto, toda solución de (8.5) puede escribirse como una combinación de n soluciones
linealmente independientes.
171
Teorema 3. la solución general de (8.5) es de la forma
Ya sabemos entonces que para determinar la solución general de una ecuación homogénea
necesitamos n soluciones linealmente independientes. Surge entonces la cuestión de cómo com-
probar de forma sencilla la independencia de n soluciones dadas. Esta independencia puede venir
caracterizada por la independencia de sus datos iniciales en cualquier punto. En efecto, consid-
eremos n funciones ϕ1 (t), . . . , ϕn (t) derivables hasta el orden n − 1 y formemos la matriz
ϕ1 (t) ϕ2 (t) ··· ϕn (t)
ϕ01 (t) ϕ02 (t) ··· ϕ0n (t)
W [ϕ1 , . . . , ϕn ](t) = .. .. .. .
. . ··· .
n−1) n−1) n−1)
ϕ1 (t) ϕ2 (t) · · · ϕn (t)
A su determinante w[ϕ1 , . . . , ϕn ](t) = detW [ϕ1 , . . . , ϕn ](t) se le llama wronskiano de las n fun-
ciones ϕ1 (t), . . . , ϕn (t). La identificación con el sistema equivalente permite ver que si las n
funciones son soluciones de la ecuación, entonces las n columnas de la matriz W son soluciones
del sistema. Ahora, la independencia de las n funciones equivale a la de las columnas. Por último,
como ya se conoce del tema anterior, la independencia de éstas queda determinada por la de
sus valores en cualquier instante inicial (es la segunda condición de matriz fundamental). Esto
demuestra que para analizar la independencia de n soluciones de la ecuación homogénea de orden
n, basta con evaluar su wronskiano en un punto:
Sean t0 ∈ I, ϕ1 (t), . . . , ϕn (t) soluciones de (8.5). Entonces ϕ1 (t), . . . , ϕn (t) son linealmente
independientes si y sólo si w[ϕ1 , . . . , ϕn ](t0 ) 6= 0.
172
La solución general de (8.1) puede escribirse
donde
de modo que para que x(t) = eλt sea solución, el factor λ ha de ser una raı́z caracterı́stica
p(λ) = 0. La terminologı́a del polinomio y sus raı́ces no es casual, puesto que en el sistema
equivalente (8.6) p es precisamente el polinomio caracterı́stico de la matriz A y por tanto sus
raı́ces son los autovalores de ésta.
Ejemplo. Para n = 3,
0 1 0
A= 0 0 1 ,
−a0 −a1 −a2
y se tiene
¯ ¯
¯ z −1 0 ¯¯
¯
det(zI3 − A) = ¯¯ 0 z −1 ¯¯ = z 3 + a2 z 2 + a1 z + a0 = p(z).
¯a a1 z + a2 ¯
0
Las raı́ces caracterı́sticas determinan pues soluciones de la ecuación. Para el ejemplo del
clásico circuito RLC, el valor de las raı́ces depende de los parámetros de resistencia, inductancia
y capacitancia. Para valores fijos de L y C, en la figura representamos la evolución de cada una
173
de las raı́ces en función de la resistencia R, con R decreciendo en la dirección de las flechas. Son
destacables varias cosas: en los casos prácticos las raı́ces tienen parte real menor o igual que cero,
colapsan para un cierto valor de la resistencia y a medida que ésta se acerca a cero, las raı́ces se
aproximan al eje imaginario. Ya veremos que esto influye en el tipo de respuesta que proporciona
el circuito.
lambda1
lambda2
La identificación de los autovalores de la matriz del sistema equivalente (8.6) con las raı́ces
caracterı́sticas de la ecuación (8.5) habilita el cálculo de un conjunto fundamental de soluciones.
En efecto, sabemos que el sistema (8.6) admite una base de soluciones formada por modos nor-
males que son funciones del tipo
k(λ)−1) j
X t
~ (t) = eλt
ϕ (A − λIn )j ξ~ ,
j=0
j!
con k(λ) menor o igual que la multiplicidad algebraica del autovalor λ, ξ~ un autovector general-
izado asociado al autovalor. Lo que nos interesa de la fórmula es el hecho de que las componentes
de esta función vectorial,en particular la primera, son de la forma eλt q(t) con q(t) un polinomio
de grado a lo sumo la multiplicidad del autovalor menos uno. Factorizamos el polinomio carac-
terı́stico,
Dado que toda solución de la ecuación es la primera componente de una solución del sistema,
esto significa que, recorriendo la base de modos normales, las n funciones
ϕ0,1 (t) = eλ1 t , ϕ1,1 (t) = teλ1 t , · · · ϕm1 −1,1 (t) = tm1 −1 eλ1 t
ϕ0,2 (t) = eλ2 t , ϕ1,2 (t) = teλ2 t , · · · ϕm2 −1,1 (t) = tm2 −1 eλ2 t
······ (8.8)
λr t λr t mr −1 λr t
ϕ0,r (t) = e , ϕ1,r (t) = te , · · · ϕmr −1,1 (t) = t e ,
constituyen un sistema generador del espacio de soluciones de (8.5). Ahora, el espacio generado
por estas funciones tiene dimensión a lo sumo n (el número de generadores) y contiene al espacio
de soluciones de la ecuación (8.5), que sabemos que tiene dimensión n, luego necesariamente
coincide con él.
174
Teorema 4. Supongamos K = C. Dada la factorización (8.7) del polinomio caracterı́stico de la
ecuación (8.5), las n funciones dadas por (8.8) forman un sistema fundamental de soluciones de
la ecuación homogénea de orden n (8.5).
ϕ(0) = A + C + D = 0
ϕ0 (0) = A + B + iC − iD = 1
ϕ00 (0) = A + 2B − C − D = 0
ϕ000 (0) = A + 3B − iC + iD = 1,
x000 + x00 − x0 − x = 0
x(0) = 1, x0 (0) = 0, x00 (0) = −1.
ϕ(0) = A + C = 1
ϕ0 (0) = −A + B + C = 0
ϕ00 (0) = A − 2B + C = −1,
De este modo, hemos obtenido una base de soluciones de la ecuación homogénea, independi-
entemente del carácter real o complejo de sus autovalores. En el caso de que la ecuación tenga
coeficientes reales, puede obtenerse una base de soluciones formada por funciones reales.
175
Esto es debido a lo siguiente: supongamos que en (8.5) los coeficientes a0 , . . . , an−1 son números
reales. Observemos que si ϕ es solución de (8.5), el hecho de que los coeficientes sean reales,
implica que su función conjugada ϕ̄ es también solución. Puesto que
ϕ + ϕ̄ ϕ − ϕ̄
Re(ϕ) = , Im(ϕ) = ,
2 2i
y por el principio de superposición, tenemos que las partes real e imaginaria de toda solución de
(8.5) son también soluciones.
De esta manera, la base anterior (8.8) nos va a proporcionar una base real. Ahora, el polinomio
caracterı́stico puede factorizarse en la forma
donde
λ1 , . . . , λp ∈ R, µj = αj + iβj , 1 ≤ j ≤ q.
Esto se debe a que, al ser p de coeficientes reales, las raı́ces complejas aparecen en pares conjugados
µj , µ̄j con la misma multiplicidad nj . Lo único que tenemos que hacer es distinguir las raı́ces
caracterı́sticas reales de las complejas y considerar la parte real y la imaginaria de las funciones
de la base (8.8) asociadas a estas últimas.
tk etλs , 1 ≤ s ≤ p, 0 ≤ k ≤ ms − 1
tk etαs cos βs t, 1 ≤ s ≤ q, 0 ≤ k ≤ ns − 1
k tα
t e sin βs t,
s 1 ≤ s ≤ q, 0 ≤ k ≤ ns − 1
forman una base del espacio real de las soluciones reales de la ecuación (8.5).
También se puede obtener planteando la solución general real ϕ(t) = Aet + Btet + C cos t + D sin t
e imponiendo las condiciones iniciales para despejar los valores de A, B, C y D.
176
8.4. Respuesta natural. Movimiento armónico simple y amor-
tiguado
la interpretación de estas soluciones al considerar la ecuación como la ley que gobierna un
sistema de procesado de señales es la siguiente. Recordemos que un sistema de este tipo puede
recibir dos formas de excitación: en términos de una señal continua (término fuente) o en términos
de condiciones iniciales. Cuando la ecuación es homogénea, no hay excitación del primer tipo, de
modo que la solución de un PVI de la ecuación homogénea es la respuesta del sistema debida a
la excitación dada por las condiciones iniciales. Se dice entonces que es la respuesta natural.
d2 i di 1
L L 2
+R + i=0
@ dt dt C
¡
@ C
¡R i(0) = i0 , i0 (0) = i00
@
¡
L, R, C > 0
¾
i(t)
177
cada vez a menor amplitud y la velocidad a la que se amortigua la respuesta depende
directamente del valor de la resistencia, que actúa como atemperación del sistema. Este es
el llamado movimiento armónico amortiguado.
La siguiente figura ilustra los tres casos comentados, fijados valores a L y C, en función de una
resistencia presente en le circuito. En todos ellos la respuesta natural tiende a cero cuando t → ∞,
debido a que la parte real de las raı́ces caracterı́sticas es en todos los casos menor que cero, porque
todos los parámetros del circuito son positivos.
0.5
0.4
0.3
0.2
0.1
−0.1
0 5 10 15
R
iR (t) = Ae− 2L t cos(ω1 t − θ) → i(t) = A cos(ωt − θ)
R → 0
178
R = 0.1 R = 0.05
1 1
0.5 0.5
0 0
−0.5 −0.5
−1 −1
0 10 20 30 40 0 10 20 30 40
R = 0.025 R=0
1 1
0.5 0.5
0 0
−0.5 −0.5
−1 −1
0 10 20 30 40 0 10 20 30 40
LC -
cos(ωt − θ)
c.i.
Vamos a considerar el siguiente sistema. Este consta de una señal que actúa de mensaje y
otra, que actuará de portadora, que es una onda sinusoidal con una apropiada frecuencia ω, que
puede considerarse como respuesta natural de un circuito eléctrico LC sin resistencia. El sistema
procesa además ambas señales usando un multiplicador. La respuesta se muestra en la figura.
179
X(t)
20
10
0
−10
−20
0 5 10 15 20 25 30 35 40
RESPUESTA NATURAL DEL CIRCUITO
−1
0 5 10 15 20 25 30 35 40
Y(t)
20
10
0
−10
−20
0 5 10 15 20 25 30 35 40
Se trata de la señal portadora modulada en la que su envolvente sigue el perfil del mensaje.
donde
[1 ] ϕ0 satisface
n) n−1)
ϕ0 (t) + an−1 ϕ0 (t) + · · · + a1 ϕ00 (t) + a0 ϕ0 (t) = 0
n−1)
ϕ0 (t0 ) = α0 , ϕ00 (t0 ) = α1 , . . . , ϕ0 (t0 ) = αn−1
180
[2 ] h : R → R es la solución de
(Función de influencia)
La fórmula establece que la solución del PVI (8.3) para una ecuación de orden n y coefi-
cientes constantes con término fuente continuo, se puede escribir como suma de dos términos: el
primero es la solución de la ecuación homogénea asociada con el mismo dato inicial. El segundo
proporciona una solución particular con dato inicial nulo y representa la aportación del término
no homogéneo a través de un factor de influencia h. Éste puede obtenerse como la solución de la
ecuación homogénea con un conveniente dato inicial en cero.
Para la demostración, se considera el correspondiente problema de valores iniciales (8.4) para
el sistema equivalente y sea Φ(t) la matriz formada por modos normales a partir de la matriz A.
Por la fórmula de variación de las constantes para sistemas, la solución de (8.4) puede escribirse
Z t
~x(t) = Φ(t − t0 )Φ(0) −1
α
~+ Φ(t − s)Φ(0)−1 f~(s)ds.
t0
Por la equivalencia entre ecuación y sistema, la primera componente de este vector es la solución
que buscamos. pasamos entonces a analizar la fórmula. El primer sumando es la solución del
sistema homogéneo (8.6) con dato inicial ~x(t0 ) = α ~ , de manera que su primera componente es
en efecto la función ϕ0 , solución de la ecuación homogénea con dato inicial α
~ . por otro lado,
podemos escribir la integral como
0
Z t 0
−1 ..
Φ(t − s)Φ(0) . f (s)ds.
t0
0
1
Ahora, si consideramos el integrando salvo la función f (s), éste es el valor, en t − s del vector
0
0
~h(t) = Φ(t)Φ(0)−1 .
.. ,
0
1
que no es otra cosa que la solución del sistema homogéneo con dato inicial en t0 = 0 dado por
(0, 0, . . . , 0, 1)T . Por tanto, su primera componente es la función de influencia h descrita.
181
La solución del problema homogéneo
x00 − 2x0 − 3x = 0
x(0) = 1, x0 (0) = 1.
x00 − 2x0 − 3x = 0
x(0) = 0, x0 (0) = 1.
La fórmula de variación de las constantes tiene un interés añadido por su interpretación cuando
la ecuación diferencial gobierna un sistema de procesado de señales continuas. La fórmula muestra
que la respuesta del sistema es suma de la respuesta debida a la excitación de las condiciones
iniciales, es decir, la respuesta natural, más la respuesta a la excitación exclusivamente de la señal
de entrada.
Ya hemos hablado de la respuesta natural, por lo que ahora nos vamos a centrar en diversas
aplicaciones que tiene el segundo sumando de la fórmula. Para ilustrar éstas vamos a usar de
nuevo el circuito eléctrico RLC de segundo orden y por comodidad manejaremos condiciones
iniciales en t0 = 0.
Circuito RLC
d2 h dh 1
L L +R + h=0
@ dt2 dt C
¡
@ C
¡R h(0) = 0, h0 (0) = 1
@
¡
h(t)
182
√ µ ¶2
R R 1
λ1,2 =− ± ∆, ∆= −
2L 2L CL
Dependiendo del signo del discriminante de la ecuación caracterı́stica, la función de influencia
puede ser de las siguientes formas:
1
∆ > 0, h(t) = λ1 −λ 2
(eλ1 t − eλ2 t )
R
∆ = 0, h(t) = te− 2L t
R √
∆ < 0, h(t) = ω1 e− 2L t cos(ωt − π2 ), ω= −∆
+c.i. = 0
La fórmula de variación de las constantes determina que la solución tiene esta forma
Z t
x(t) = h(t − s) cos(ω0 s)ds
0
Imaginemos que el sistema es estable en el sentido de que toda solución de la ecuación ho-
mogénea tiende a cero cuando t → ∞. Dada la forma conocida ya de una base de soluciones,
tk eλt → 0, t → ∞ esto se consigue si nosotros imponemos que la parte real de toda raı́z carac-
terı́stica es menor que cero,
183
xT (t) → 0 si t → ∞ (resp. transitoria)
Z ³ ´
1 ∞
xP (t) = h(s) eiω0 (t−s) + e−iω0 (t−s) ds
2 0
= a cos(ω0 t − θ) (resp. permanente)
Z ∞
¯ 0 )), A(ω) =
a = |A(ω0 )|, θ = arg(A(ω h(s)e−iωs ds
0
Con las hipótesis impuestas, la segunda integral tiende a cero cuando t → ∞. De este modo,
cuando t es grande, la aportación de la segunda integral es cada vez menor y la respuesta tiende
a comportarse según la primera integral. Es por ello que a ésta se le llama respuesta permanente,
mientras que el segundo sumando se denomina respuesta transitoria.
Observemos además que la respuesta permanente puede también escribirse como un coseno de
la misma frecuencia que la señal de entrada. La conclusión es que para un sistema de este tipo,
la respuesta a una excitación sinusoidal es asintóticamente sinusoidal, con la misma frecuencia
(ω0 ), y magnitud y fase determinadas por
Z ∞
A(ω) = h(s)e−iωs ds
0
(respuesta en frecuencia)
La ilustración de este resultado puede venir dada a través de un circuito eléctrico de segundo
orden, donde una baterı́a suministra electricidad, en forma sinusoidal en tiempo, mostrada en
la figura. Elegimos los parámetros de la ecuación de modo que la función de influencia sea por
ejempo una oscilación amortiguada. La tercera figura muestra la respuesta del sistema. Aquı́ se
puede observar que la respuesta transitoria, visible para tiempos cortos, tiende a desaparecer,
quedando una oscilación de la misma frecuencia que la excitación pero amplificada.
EXCITACION f(t)
−1
0 10 20 30 40 50 60 70 80 90 100
F. DE INFLUENCIA h(t)
−1
0 10 20 30 40 50 60 70 80 90 100
RESPUESTA x(t)
10
−10
0 10 20 30 40 50 60 70 80 90 100
184
Ejemplo 2. Regularización de una señal.
Otro efecto de la fórmula de convolución es la regularización de una señal, es decir, la respuesta
del sistema es una función más regular que la función excitación de entrada. Esto puede ilustrarse
con el siguiente ejemplo. Imaginemos que la señal de entrada es un par de pulsos triangulares de
la forma del primer gráfico de la figura.
EXCITACION f(t)
−1
0 1 2 3 4 5 6 7 8
F. DE INFLUENCIA h(t)
0.01
−0.01
0 1 2 3 4 5 6 7 8
−3 RESPUESTA
x 10
1
0.5
−0.5
−1
0 1 2 3 4 5 6 7 8
Supongamos que el circuito de segundo orden tiene una función de influencia del tipo mostrado en
el segundo gráfico, correspondiente a un valor nulo del discriminante. El tercer dibujo muestra la
respuesta con condiciones iniciales nulas. Observamos ası́ que es una representación más regular
de la señal de entrada. Es más regular pero también pierde amplitud, debido especialmente a
que la excitación no está muy alejada y es preciso tomar la función de influencia h bastante baja
para representar de forma más o menos fiel la excitación. Esto puede arreglarse añadiendo al
sistema un amplificador de señal. Finalmente, podemos vernos también afectados de un desfase
con respecto a la señal de entrada, que puede corregirse introduciendo en el sistema un retardo.
185
EXCITACION f(t)
1
0.5
0
0 1 2 3 4 5 6 7 8 9 10
F. DE INFLUENCIA h(t)
0.01
0.005
−0.005
−0.01
0 1 2 3 4 5 6 7 8 9 10
−4 RESPUESTA
x 10
10
0
0 1 2 3 4 5 6 7 8 9 10
Uno puede estar interesado en la respuesta del sistema a este tipo de excitación. Naturalmente,
no puede proceder de una solución en el sentido clásico de la ecuación. Sin embargo, se puede hacer
el siguiente razonamiento: se integra la ecuación diferencial en el intervalo entre 0 y 2 con término
fuente nulo y condiciones iniciales nulas. A continuación se integra en el siguiente intervalo, entre
2 y 4, con término fuente idénticamente uno y condiciones iniciales dadas por la solución del
problema anterior. Repitiendo este procedimiento en cada intervalo de continuidad del término
fuente se obtiene una función continua en todo punto y que satisface la ecuación diferencial en
aquellos puntos donde el término fuente es continuo. En forma cerrada, esta función viene dada
por la convolución que aparece en la fórmula de variación de las constantes. Ası́, la fórmula
permite dar respuesta a señales más generales y proporciona un sentido más amplio a la idea
de solución de la ecuación diferencial, como la función continua que satisface la ecuación en los
puntos donde el término fuente es continuo.
Esto puede observarse en las figuras. Para un término fuente formado por dos pulsos rectangulares,
tomando la función de influencia correspondiente al circuito de segundo orden con discriminante
nulo, la respuesta del sistema es una regularización de la señal de entrada que además permite
identificar el mensaje de unos y ceros.
q(t) = q0 + q1 t + · · · + qm tm , α∈C
186
El método parte de la idea intuitiva de que cuando el término fuente de la ecuación es de esta
forma, uno espera una solución del mismo tipo. El procedimiento es como sigue. Cuando consid-
eramos un producto x(t) = s(t)eαt de una función s(t) por una exponencial de la misma forma
que el término fuente, la sustitución en el primer miembro de la ecuación diferencial da lugar a
Aquı́ podemos avanzar un poco más; teniendo en cuenta que α es raı́z con esa multiplicidad,
la parte de la solución correspondiente al polinomio de grado menor o igual que d − 1 es una
solución de la ecuación homogénea. De este modo, podemos ensayar a partir del coeficiente de
td . Tenemos entonces el criterio siguiente:
187
(C) En ambos casos, los coeficientes se obtienen imponiendo que ϕp (t) sea solución del problema.
Ejemplos.
Las raı́ces caracterı́sticas son λ1 = 3, λ2 = −1. Como α = 2, ensayamos como solución particular
x(t) = (A + Bt)e2t . Imponiendo esta función como solución e igualando en las potencias de t,
tenemos el sistema
2B − 3A = 0
−3B = 1.
Ahora, α = −1 es raı́z simple del polinomio caracterı́stico. Buscamos entonces una solución
particular de la forma x(t) = t(A + Bt)e−t . Imponiendo la función como solución e igualando
coeficientes en t, se tiene
2B − 4A = 0
−8B = 1.
De donde B = −1/8, A = −1/16. La ecuación tiene una solución particular de la forma x(t) =
t((−1/16) − (1/8)t)e−t . La solución general es de la forma c1 e3t + c2 e−t + t((−1/16) − (1/8)t)e−t ,
con c1 , c2 constantes arbitrarias.
Ejemplo 1. Resonancia.
La primera aplicación de esta técnica de coeficientes indeterminados se refiere al fenómeno de
resonancia. En sistemas como el del circuito eléctrico
d2 i di 1
L 2
+ R + i = E cos(ωf t)
dt dt C
y en general en sistemas lineales de señales aparecen funciones fuente de naturaleza sinusoidal. Es
interesante estudiar el comportamiento de la respuesta del circuito cuando el discriminate de la
ecuación caracterı́stica es negativo y la frecuencia de excitación ωf no coincide con la frecuencia
natural ω del sistema
√
∆ < 0, ω = −∆, ω 6= ωf
188
Ası́mismo, siguiendo el método de coeficientes indeterminados, hay una solución particular que
es una combinación lineal de seno y coseno de la misma frecuencia que el término fuente
ip (t) = B cos ωf t + C sin ωf t
E
= q cos(ωf t − θ)
R
(ω − ωf )2 + 4( 2L ωf )2
Imponiendo que la función sea una solución de la ecuación, se determinan las constantes B y C.
Ası́, la solución del problema es suma de esta solución particular más la de la homogénea
i(t) = i0 (t) + ip (t).
La imposición de las condiciones iniciales determinan las constantes A y θ0 .
Si la resistencia es no nula, la respuesta transitoria, dada por la solución de la ecuación
homogénea asociada, tiende a desaparecer con el tiempo, quedando el régimen permanente rep-
resentado por la solución particular, que es una oscilación libre de amplitud constante e igual
frecuencia que la del término fuente, la señal de entrada. Si R es nulo, la solución de la ecuación
homogénea no es transitoria y la respuesta es una superposición de dos señales sinusoidales de
distinta frecuencia. En cualquier caso, el sistema permanece estable con el tiempo.
RESPUESTA NO RESONANTE
8
−2
−4
−6
0 5 10 15 20 25 30 35 40
Notemos sin embargo que si la resistencia es pequeña y la frecuencia natural del sistema es cercana
a la de excitación, la amplitud de la respuesta permanente se puede hacer muy grande.
Esta observación nos lleva a investigar lo que ocurre cuando la resistencia es nula y las dos
frecuencias coinciden
d2 i 1
L 2 + i = E cos(ωt)
dt C
En este caso, el método de coeficientes indeterminados permite encontrar una solución particular
de la forma
ip (t) = Bt sin ωt + Ct cos ωt
E
= t sin(ωt − θ)
2ω
189
dado que iω y su conjugado, que aparecen en el término fuente, son raı́ces caracterı́sticas simples.
Añadiendo la solución de la ecuación homogénea
i0 (t) = A cos(ωt − θ0 )
i(t) = i0 (t) + ip (t),
la solución de nuestro problema será la suma de ambas. Ahora, la respuesta es inestable, pues
la solución particular va haciéndose, de manera oscilatoria, mayor en amplitud a medida que
transcurre el tiempo, debido al factor lineal t. Este es el fenómeno conocido como resonancia:
la frecuencia de la excitación es resonante con la de la respuesta natural, que es un movimiento
armónico simple.
RESPUESTA RESONANTE
40
30
20
10
−10
−20
−30
−40
0 5 10 15 20 25 30 35 40
d2 i di 1 d
L 2
+ R + i = f (t) = E(t), R>0
dt dt C dt
190
EXCITACION E(t)
5
−5
0 1 2 3 4 5 6 7 8 9 10
RESPUESTA ip(t)
5
−5
0 1 2 3 4 5 6 7 8 9 10
Observemos que la amplitud asociada a una de las frecuencias, digamos ωK , será máxima cuando
1
la frecuencia natural coincida con ella, ω = √CL = ωK . De este modo, ajustando los parámetros
del circuito C y L para que ası́ ocurra, podemos hacer que la amplitud de la respuesta para la señal
de entrada con frecuencia ωK sea mucho mayor que las restantes amplitudes. El sistema eléctrico
actúa ası́ como un filtro, respondiendo a aquellas entradas cuyas frecuencias estén cerca de ωK
e ignorando aquellas señales con frecuencias más lejanas. En nuestro ejemplo los parámetros
1
del circuito se ajustan para que ω = √CL esté cerca de la tercera frecuencia, y la respuesta
permanente de salida se muestra en la segunda figura del gráfico. Observemos que se ha filtrado
la señal de entrada, de manera que la amplitud de la tercera señal respuesta es mucho mayor que
la de las demás y ésta es la que se observa en la gráfica.
191
f) x000 − 6x00 + 12x0 − 8x = 0,
g) x0000 − 2x000 + 2x00 − 2x0 + x = 0,
h) x0000 + 2x00 + x = 0,
i) x000 − 2x00 − x0 + 2x = 0,
j) x0000 − 5x000 + 6x00 + 4x0 − 8x = 0,
Ejercicio 3. ¿Cuál es el menor orden de una ecuación diferencial lineal homogénea de coeficientes
constantes que tiene entre sus soluciones a las funciones sin (2t), 4t2 e2t y −e−t ? Halla una de tales
ecuaciones.
ax00 + bx0 + cx = 0
√
donde b > ± b2 − 4ac, a > 0. Demuestra que si x = x(t) es cualquier solución de esta ecuación,
entonces lı́mt→∞ x(t) = 0.
192
c) x00 − x = (1 + exp (−t))−2
d) x000 − 5x00 + 8x0 − 4x = 3 exp (2t)
e) x00 − 3x0 + 2x = 3 sin (2t)
f) x00 − 2x0 − 3x = t2 exp (2t)
g) x00000 − x000 = 2t2
Ejercicio 1.
a) x(t) = Aet + Be−2t + Ce−3t .
b) x(t) = A + Be−3t + Cte−3t .
c) x(t) = Aet cos t + Bet sin t.
d) x(t) = Aet + Btet + Ce−t + Dte−t .
e) x(t) = Ae4t + Be−3t .
f) x(t) = (A + Bt + Ct2 )e2t .
g) x(t) = Aet + Btet + C cos t + D sin t.
h) x(t) = (A + Bt) cos t + (C + Dt) sin t.
i) x(t) = Aet + Be2t + Ce−t .
193
j) x(t) = (A + Bt + Ct2 )e2t + De−t .
Ejercicio 2.√ √ √ √ √ √ √ √ √ √
a) x(t) = 1+√ 2 et/ 2 cos(t/ 2)− √
2 2
1 t/ 2
2 2
e sin(t/ 2)+ −1+
√ 2 e−t/ 2 cos(t/ 2)− √
2 2
1 −t/ 2
2 2
e sin(t/ 2).
b) x(t) = (1 + t)et .
c) x(t) = 0.
d) x(t) = −1+t t 1+t −t
4 e + 4 e .
Ejercicio 6.
a) x(t) = Ae3t + Be−3t − (1/3)t.
b) x(t) = A cos(2t) + B sin(2t) − (t/4) cos(2t).
c) x(t) = Ae2t + Be−2t + (−t/16 + t2 /8)e2t .
d) x(t) = A + B cos t + C sin t + (1/6) sin(2t).
e) x(t) = 12 − 6t + t2 − (t3 /6)e−t + (A + Bt + Ct2 )e−t .
f) x(t) = Aet + Be2t + (t − 3/2)e3t + (9/10) cos t + (3/10) sin t.
g) x(t) = A + (B + Ct) cos t + (D + Et) sin t + t2 + (t2 /8) cos t − (t2 /8) sin t.
h) x(t) = (A + Bt)e−2t + (t3 /2)e−2t .
Ejercicio 7.
(1) x(t) = e2t − e3t + te−t .
(2) x(t) = 4π cos(2t) + 1−2π
2 sin(2t) + t(sin(2t) − cos(2t)).
(3) x(t) = −2 + (3/2)e + (1/2)e−t + t2 .
t
Ejercicio 8. R
a) x(t) = Aet + Be3t + tt0 (− 12 et−s + 21 e3(t−s) ) 1+e1 −s ds.
b) x(t) = Aet + Be−t + R(−t/4 + (t2 /4))et .
c) x(t) = Aet + Be−t + tt0 (− 21 e−(t−s) + 12 e(t−s) ) (1+e1−s )2 ds.
d) x(t) = Aet + (B + Ct)e2t + 32 t2 e2t .
e) x(t) = Aet + Be−2t + (1/4) cos(2t) − (1/6) sin(2t).
f) x(t) = Ae−t + Be3t + (14/27 + 4t/9 + (t2 )/3)e2t .
g) x(t) = Aet + Be−t + C + Dt + Et2 − (2/3)t3 − (1/60)t5 .
194
Referencias
195