Documente Academic
Documente Profesional
Documente Cultură
ticas
Primer Curso
ALGEBRA LINEAL I
2 de diciembre de 2016
2
Indice general
1. Preliminares 1
1.1. Relaciones de Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. N
umeros Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Permutaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
2. Espacios Vectoriales 9
2.1. Espacios Vectoriales y Subespacios Vectoriales . . . . . . . . . . . . . . . . . . 9
2.2. Teora de la Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.3. Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3. Aplicaciones Lineales 17
3.1. Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
3.2. Teorema de Isomorfa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.3. Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
4. Geometra Eucldea 25
4.1. Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2. Espacios Vectoriales Eucldeos . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.3. Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
5. Endomorfismos 31
5.1. Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.2. Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.3. Diagonalizacion de Endomorfismos . . . . . . . . . . . . . . . . . . . . . . . . 33
3
4 INDICE GENERAL
Captulo 1
Preliminares
a b (m
od. n) cuando b a = cn para alg
un c Z .
a b (mod. n) a + c b + c y ac bc (mod. n) cZ
= [x] := {y X : x y} .
x
1
2 CAPITULO 1. PRELIMINARES
[x] = [y] x y ; x, y X .
[a] = a + nZ = {a + cn : c Z} ,
1.2. N
umeros Complejos
Definicion: Los numeros complejos son las parejas de n
umeros reales z = x + yi (donde
x R se llama parte real de z e y R se llama parte imaginaria) que se suman y
multiplican con las siguientes reglas (i2 = 1):
z + u = z + u
zu = zu z = z |z| = |
z|
|z| = 0 z = 0 |zu| = |z| |u| z + z 2|z| |z + u| |z| + |u|
1 z z x y
= 2 = = 2 2 i.
z |z| z z x + y2 x + y2
Exponencial Compleja
Definicion: Si t R, pondremos eti := cos t + i sen t, donde el seno y coseno se consideran
d
en radianes para que dt (eit ) = ieit . Tenemos la f
ormula de Euler (1707-1783)
e2i = 1
z = ei = (cos + i sen )
para algun numero real = arg z que llamamos argumento de z (bien definido salvo la
adicion de un m
ultiplo entero de 2).
Cuando z = x + yi; x, y R, tenemos que
Por otra parte, las formulas del seno y coseno de una suma expresan que
eti et i = e(t+t )i
eti et i = (cos t + i sen t)(cos t + i sen t ) =
( ) ( )
= (cos t)(cos t ) (sen t)(sen t ) + i (cos t)(sen t ) + (sen t)(cos t )
= cos(t + t ) + i sen(t + t ) = e(t+t )i ;
y la igualdad (ei )( e i ) = e(+ )i muestra que
+2k
)i =
e(
2k
n n n
e n ie n i
y vemos que las races n-esimas de un n umero complejo no nulo se obtienen multiplicando
una de ellas por las races n-esimas de la unidad.
4 CAPITULO 1. PRELIMINARES
ln z = ln + ( + 2k)i.
1.3. Permutaciones
Definici on: Sean X e Y dos conjuntos. Dar una aplicaci on f : X Y es asignar a cada
elemento x X un u nico elemento f (x) Y , llamado imagen de x por la aplicacion f .
Si g : Y Z es otra aplicacion, llamaremos composici on de g y f a la aplicacion
( )
g f : X Z, (g f )(x) := g f (x) .
es decir, cuando f (X) = Y o, lo que es igual, cuando, para cada y Y se tiene que f 1 (y)
tiene al menos un elemento.
Diremos que una aplicacion f : X Y es biyectiva cuando es inyectiva y epiyectiva;
es decir, cuando cada elemento y Y es imagen de un u nico elemento de X, de modo que
f 1 (y) tiene un u
nico elemento, y en tal caso f 1 : Y X s es una aplicacion, llamada
aplicacion inversa de f porque f 1 f = IdX y f f 1 = IdY .
Definici
on: Las permutaciones de n elementos son las aplicaciones biyectivas
: {1, . . . , n} {1, . . . , n} .
1.3. PERMUTACIONES 5
Por u
ltimo, cuando = (a1 . . . ad ) es un ciclo de longitud d, se sigue directamente de 1.1
que sgn() = (1)d1 , porque todas las trasposiciones tienen signo 1.
6 CAPITULO 1. PRELIMINARES
1.4. Matrices
En adelante pondremos K = Q, R o C, y llamemos escalares a los elementos de K.
Dada una matriz A = (aij ) de m filas y n columnas (donde el subndice i indica la fila
y el subndice j la columna), su matriz traspuesta es At = (aji ), que tiene n filas y m
columnas. Si B = (bjk ) es otra matriz de n filas y r columnas, su producto AB es una
matriz m r cuyo coeficiente cik de la fila i y columna k es
n
cik = aij bjk = ai1 b1k + ai2 b2k + . . . + ain bnk .
j=1
Determinantes
Definici
on: El determinante de una matriz cuadrada A = (aij ) de n filas y columnas es
|A| := (sgn )a1(1) . . . an(n)
Sn
y tiene las siguientes propiedades (que se probaran en el curso de Algebra Lineal II):
1. |A| = |At |.
2. Es lineal en cada columna (y por tanto en cada fila):
|A1 , . . . , Ai + Bi , . . . , An | = |A1 , . . . , Ai , . . . , An | + |A1 , . . . , Bi , . . . , An | ,
|A1 , . . . , Ai , . . . , An | = |A1 , . . . , Ai , . . . , An | .
3. |A(1) , . . . , A(n) | = (sgn )|A1 , . . . , An |.
a11 a12 . . . a1n
0 a22 . . . a2n
4. = a11 . . . ann , |In | = 1.
. . . . . . . . . . . .
0 . . . 0 ann
5. |AB| = |A| |B| , |A1 | = |A|1 .
Luego el determinante es 0 cuando dos columnas (o dos filas) son iguales y
|A1 , . . . , Ai , . . . , An | = |A1 , . . . , Ai + Aj , . . . , An | , i = j .
Definicion: El adjunto Aij de una matriz A es (1)i+j por el determinante de la matriz
que se obtiene eliminando la fila i y la columna j de la matriz A.
El determinante de A puede calcularse desarrollando por cualquier fila o columna:
|A| = ai1 Ai1 + . . . + ain Ain ,
|A| = a1j A1j + . . . + anj Anj .
Si el determinante de una matriz A no es nulo, entonces A es invertible, y su inversa es
A11 . . . An1
1
A1 = ... ... ...
|A|
A1n . . . Ann
1.4. MATRICES 7
(Notese que el coeficiente de la fila i y columna j es el adjunto Aji , no Aij ). Por tanto, una
matriz cuadrada A es invertible si y solo si su determinante no es nulo.
Teorema del Rango: El rango de una matriz es el orden del mayor menor no nulo.
Como los menores de A y At son los mismos, el rango por filas de cualquier matriz A
coincide con su rango por columnas.
|A1 , . . . , B, . . . , An |
xi =
|A1 , . . . , Ai , . . . , An |
porque la matriz (A1 , . . . , Aj , . . . , An ) tiene dos columnas iguales (las columnas i y j) cuando
i = j. Luego xi = |A1 , . . . , B, . . . , An |/|A1 , . . . , Ai , . . . , An | es la u
nica solucion del sistema.
Espacios Vectoriales
e + v = e + v e = e
e+v =v e=0
e + v = 0 v = e
0e=0 , 0=0 , 0 = 0
(e) = ()e = (e) , (e) = e , (1)e = e
(e v) = e v , ( )e = e e
e = 0 = 0 o e = 0
9
10 CAPITULO 2. ESPACIOS VECTORIALES
Ejemplos:
3. Fijados dos n
umeros naturales positivos m y n, la suma de matrices y el producto de
matrices por escalares definen una estructura de K-espacio vectorial en el conjunto
Mmn (K) de todas las matrices de m filas y n columnas con coeficientes en K.
5. Un espacio vectorial E nunca puede ser el conjunto vaco, porque el axioma 3 impo-
ne la existencia del vector nulo. El espacio vectorial que tiene un u
nico vector (que
necesariamente ha de ser el vector nulo) se denota 0.
Ke1 + . . . + Ken := {1 e1 + . . . + n en ; 1 , . . . , n K}
X = p + V := {p + v; v V } .
Veamos que estas definiciones no dependen de los vectores elegidos en las clases:
Con esta estructura de espacio vectorial que hemos de definido en E/V , el opuesto de
un vector e E/V es [e], y el vector nulo de E/V es precisamente la clase de 0 E,
de modo que e = 0 precisamente cuando e 0 (modulo V ):
[e] = 0 e V (2.1)
Ke1 + . . . + Ken = E .
1 e1 + . . . + n en = 0 1 = . . . = n = 0 ; donde 1 , . . . , n K.
e = x1 e1 + . . . + xn en ,
12 CAPITULO 2. ESPACIOS VECTORIALES
Ejemplos 2.2.1
3. Las matrices m n que tienen todos sus coeficientes nulos, excepto uno que es la
unidad, definen una base de Mmn (K), base que esta formada por mn matrices. Las
coordenadas de una matriz en tal base son precisamente los coeficientes de la matriz.
r v1 1 vr = r 1 e1 1 r e1 = 0 .
n
Si n > 1, reordenando los vectores e1 , . . . en si es preciso, tendremos vr = i=1 i ei con
0. Despejando, obtenemos que en Ke1 + . . . + Ken1 + Kvr , y por tanto
n =
0 = 1 v1 + . . . + r1 vr1 = [1 v1 + . . . + r1 vr1 ] .
r1 r1
Luego i=1 i vi Kvr seg un 2.1, y concluimos que i=1 i vi = r vr para alg
un escalar
r ; es decir, los vectores v1 , . . . , vr son linealmente dependientes.
Ejemplos 2.2.3
1. Seg
un los ejemplos 2.2.1, para todo vector no nulo e tenemos que dim K (Ke) = 1; y si
ademas v
/ Ke, entonces dim K (Ke + Kv) = 2.
Tambien, dimK K n = n y dimK Mmn (K) = mn .
muestran que las tres medianas (rectas que unen un vertice con el punto medio del
lado opuesto) se cortan en el punto g = a+b+c
3 , llamado baricentro, que divide a cada
mediana en la proporcion 2:1.
c
a+c
2 b+c
2
a b
a+b
2
on: Para ver que {e1 , . . . , en } contiene una base de E procedemos por induccion
Demostraci
sobre n.
Si n = 1, e1 = 0 porque Ke1 = E = 0; luego e1 es ya una base de E = Ke1 .
Si n > 1, y los vectores e1 , . . . , en son linealmente independientes,
n forman ya una base
de E. Si son linealmente dependientes, tendremos alguna relacion i=1 i ei = 0 con alg un
coeficiente i no nulo. Reordenando los vectores e1 , . . . , en podemos suponer que n = 0.
Despejando en tenemos que en Ke1 + . . . + Ken1 . Luego E = Ke1 + . . . + Ken1 , y por
hipotesis de induccion {e1 , . . . , en1 } contiene una base de E.
Por u
ltimo, si n = dim E, entonces los vectores e1 , . . . , en ya forman una base de E;
porque una base de E no puede tener menos de n vectores seg un 2.2.2.
Demostraci on: A nadimos vectores de E hasta obtener una familia linealmente independiente
e1 , . . . , er , e1 , . . . , es que ya no pueda ampliarse de modo que lo siga siendo (el proceso
termina porque, si n = dim E, en virtud el lema fundamental en E no puede haber mas de
n vectores linealmente independientes, as que siempre r + s n).
Ahora e1 , . . . , er , e1 , . . . , es ya es base de E por el lema anterior.
Por u
ltimo, si r = dim E, entonces los vectores e1 , . . . , er ya forman una base de E;
porque una base de E no puede tener mas de r vectores seg un 2.2.2.
1. dim V dim E y s
olo se da la igualdad cuando V = E.
s s s
Si 0 = i=1 i ei = [ i=1 i ei ], entonces i=1 i ei V de acuerdo con 2.1, as que
1 e1 + . . . + s ee = 1 v1 + . . . + r vr
s r
para ciertos escalares 1 , . . . , r . Luego i=1 i ei j=1 j vj = 0, y como los vectores
v1 , . . . , vr , e1 , . . . , es son linealmente independientes, concluimos que 1 = . . . = s = 0.
Ejemplos:
A1 , . . . , An = A1 , . . . , An , B dimA1 , . . . , An = dimA1 , . . . , An , B
s : V1 . . . Vr V1 + . . . + Vr , s(v1 , . . . , vr ) = v1 + . . . + vr ,
Teorema 2.3.1 La condici on necesaria y suficiente para que la suma de dos subespacios
vectoriales V y W de un espacio vectorial E sea directa es que V W = 0.
0 = 0 + 0 = e + (e) ,
e = v + w = v + w ; v, v V, w, w W
Definici
on: Diremos que dos subespacios vectoriales V y W de un espacio vectorial E son
suplementarios (o que W es un suplementario de V en E, o que V es un suplementario de
W en E) cuando E = V W ; i.e., cuando cada vector de E descompone, y de modo u nico,
en suma de un vector de V y otro de W ; es decir, cuando V + W = E y V W = 0.
Ejemplos:
1. Si e1 , . . . , en es una base de un espacio vectorial E, entonces cada vector e E des-
compone de modo u nico como combinacion lineal e = 1 e1 + . . . + n en ; luego
E = Ke1 . . . Ken
Aplicaciones Lineales
17
18 CAPITULO 3. APLICACIONES LINEALES
Ejemplos:
1. Una aplicacion lineal f : E E es epiyectiva si y solo si Im f = E .
2. Sea V un subespacio vectorial de un espacio vectorial E. La inclusion i : V E,
i(v) = v, es una aplicacion lineal inyectiva y su imagen es Im i = V .
on canonica : E E/V , (e) = [e], es una aplicacion lineal epiyectiva y
La proyecci
su n
ucleo es Ker = V de acuerdo con 2.1 (v. pagina 11).
3. Cada matriz A Mmn (K) define una aplicacion lineal f : K n K m , f (X) = AX,
cuyo n ucleo Ker f est
a formado por todas las soluciones de la ecuacion homogenea
AX = 0. Por otra parte, la condicion B Im f significa que el sistema de m ecuaciones
lineales con n inc
ognitas AX = B es compatible.
4. Cada familia {e1 , . . . , en } de vectores de un K-espacio vectorial E define una aplicacion
f : K n E , f (1 , . . . , n ) = 1 e1 + . . . + n en ,
X = AX (3.2)
dim (Im f ) = rg A
3.2. TEOREMA DE ISOMORFIA 19
Demostraci on: Sea e1 , . . . , en una base de E. Como f ( i i ei ) = i i f (ei ), la imagen de
f esta generada por los vectores f (e1 ), . . . , f (en ):
Im f = f (e1 ), . . . , f (en ) ,
Ejemplos:
s : V1 . . . Vn V1 + . . . + Vn , s(v1 , . . . , vn ) = v1 + . . . + vn ,
f : K n E , f (x1 , . . . , xn ) = x1 e1 + . . . + xn en ,
E/Ker f Im f
Demostraci on: Veamos primero que es una aplicacion bien definida, que ( e) no depende
del representante elegido, que si e = v, entonces f (e) = f (v). Ahora bien, si e = v, entonces
e v (modulo Ker f ); luego v e Ker f , 0 = f (v e) = f (v) f (e) y f (e) = f (v).
20 CAPITULO 3. APLICACIONES LINEALES
(
e + v) = ([e + v]) = f (e + v) = f (e) + f (v) = (
e) + (
v)
( e) = ([e]) = f (e) = f (e) = ( e) .
2.2.7
on: dim (Im f ) = dim (E/Ker f ) = dim E dim (Ker f ) .
Demostraci
on lineal f : E E , entonces
Corolario 3.2.2 Si A es la matriz de una aplicaci
3.2.1 3.1.4
on: dim (Ker f ) = dim E dim (Im f ) = dim E rg A.
Demostraci
Definicion: Fijada una base de un espacio vectorial de dimension finita E, dar ecuaciones
param etricas de un subespacio vectorial V de E es dar las coordenadas de un sistema de
generadores de V (mejor si forman una base de V ), y dar ecuaciones implcitas de V es dar
un sistema homogeneo de ecuaciones lineales (mejor si son independientes) cuyas soluciones
sean las coordenadas de los vectores de V .
Dar ecuaciones param etricas de una subvariedad lineal X de E es dar las coordenadas
de un punto de X y de un sistema de generadores de la direccion de X, y dar ecuacio-
nes implcitas de X es dar un sistema de ecuaciones lineales cuyas soluciones sean las
coordenadas de los puntos de X.
Ejemplo: Fijada una base (e1 , . . . , en ) de un espacio vectorial E, las ecuaciones parametricas
e implcitas del subespacio vectorial nulo son
x1 = 0 x1 = 0
...... , ......
xn = 0 xn = 0
3.2. TEOREMA DE ISOMORFIA 21
cuya direccion V admite como base los vectores de coordenadas (1, 2, 3, 4) y (4, 3, 2, 1), de
modo que dim V = 2. Hallemos primero ecuaciones implcitas de la direccion V .
Si (x1 , x2 , x3 , x4 ) son las coordenadas de un vector de V , entonces
1 4 x1
2 3 x2
2 = rg
3 2 x3
4 1 x4
1 4 x1
0 = 2 3 x2 = 5x1 + 10x2 5x3
3 2 x3
1 4 x1
0 = 2 3 x2 = 10x1 + 15x2 5x4
4 1 x4
Vemos as que las coordenadas de los vectores de V son soluciones del sistema de ecuaciones
lineales homogeneo }
x1 2x2 + x3 = 0
(3.3)
2x1 3x2 + x4 = 0
Como ambos subespacios vectoriales de K 4 tienen dimension 2, coinciden, de modo que unas
ecuaciones implcitas de V vienen dadas por 3.3. Ahora, como la subvariedad lineal X pasa
por el punto de coordenadas (2, 1, 1, 3), unas ecuaciones implcitas de X son
}
x1 2x2 + x3 = 1
2x1 3x2 + x4 = 4
Las columnas de la matriz de cambio de base B estan formadas por las coordenadas
de los vectores de la nueva base en la antigua. Es decir, B es la matriz de la identidad
Id : E E cuando en el espacio de salida se considera la nueva base v1 , . . . , vn y en el de
llegada la base antigua e1 , . . . , en .
Por tanto, de acuerdo con 3.2, si X son las coordenadas de un vector e E en la nueva
base, y X son las coordenadas de Id(e) = e en la base antigua, tendremos que X = B X.
Por otra parte, tambien tenemos una matriz de cambio de base C Mnn (K) cuando
se considera que v1 , . . . , vn es la base inicial de E y que e1 , . . . , en es la nueva base, de
modo que X = CX. Luego X = BCX y X = CB X,
y como estas igualdades son validas
para cualesquiera columnas X, X, se concluye que BC = CB = I. Es decir, la matriz B es
invertible, y su inversa es la matriz C. En resumen, la relacion entre las coordenadas X y
X de un mismo vector e E en las bases e1 , . . . , en y v1 , . . . , vn respectivamente es
X = BX , = B 1 X
X (3.5)
Aplicaciones Lineales
Sea f : E E una aplicacion lineal y sea A Mmn (K) la matriz de f en ciertas bases
e1 , . . . , en y e1 , . . . , em de E y E respectivamente.
Consideremos nuevas bases v1 , . . . , vn y v1 , . . . , vm
de E y E respectivamente, las co-
rrespondientes matrices de cambio de base B Mnn (K) y C Mmm (K), y sea A
Mmn (K) la matriz de f en estas nuevas bases de E y E . Vamos a determinar la nueva
matriz A de f en terminos de la matriz A y las matrices de cambio de base B y C
Sean X y X las coordenadas de un vector e E en las bases e1 , . . . , en y v1 , . . . , vn
respectivamente, y sean X e X las coordenadas de f (e) E en las bases e , . . . , em y
1
v1 , . . . , vm respectivamente. De acuerdo con 3.2 tendremos que
X = AX , = AX
X
3.3. CAMBIO DE BASE 23
= B 1 X , X = C X
y de acuerdo con 3.5 tendremos que X ; luego
AX = X = C X
= C AX 1 X .
= C AB
1
A = C AB , A = C 1 AB (3.6)
24 CAPITULO 3. APLICACIONES LINEALES
Captulo 4
Geometra Eucldea
Ejemplos:
1. En la geometra eucldea, los vectores con origen en un punto prefijado O forman un
espacio vectorial real de dimension 3. Fijada una unidad de longitud, el modulo de un
vector es la longitud del segmento, y el producto escalar de dos vectores no nulos es
el producto de sus modulos por el coseno del angulo que forman. Este es el ejemplo
paradigm atico de producto escalar, que motiva los nombres que introduciremos.
2. El producto escalar usual en Rn es
n
(x1 , . . . , xn ) (y1 , . . . , yn ) := xi yi = x1 y1 + . . . + xn yn .
i=1
25
26 CAPITULO 4. GEOMETRIA EUCLIDEA
e + v2 = (e + v) (e + v) = e e + v v + 2(e v) e e + v v + 2|e v|
e2 + v2 + 2e v = (e + v)2
(de modo que el angulo que forman e y v esta bien definido salvo un signo). El angulo que
forman 3 puntos distintos abc es el angulo que forman los vectores a b y c b. Diremos
que dos vectores e, v E son ortogonales cuando e v = 0; es decir, cuando cos = 0.
Cuando > 0, el angulo que forman e y v coincide con el que forman e y v, porque
(e) (v) (e v) ev
= =
e v || e v e v
Ejemplos:
1. Si en un triangulo abc consideramos los vectores e = b a y v = c a, de modo que
c b = v e, de la igualdad
v e2 = (v e) (v e) = v2 + e2 2(e v)
c
e v = 0 v e2 = e2 + v2
v ve
= /2 c a2 = b a2 + c b2
a e b
3. Si h es el punto de corte de las alturas de un triangulo abc (rectas que pasan por un
vertice y son perpendiculares al lado opuesto) trazadas por c y a, tenemos que
(b a) (h c) = 0 (4.1)
(c b) (h a) = 0 (4.2)
0 = 2(b a) (f a+b
2 ) = (b a) 2f + a a b b (4.3)
0 = 2(c b) (f b+c
2 ) = (c b) 2f + b b c c (4.4)
(b a) (h + 2f 3g) = 0
(c b) (h + 2f 3g) = 0
h 2f 2
g= + = h + (f h)
3 3 3
de modo que el baricentro esta en el segmento que determinan el ortocentro y el
circuncentro, y a doble distancia del primero que del segundo. La recta que pasa por
estos tres puntos recibe el nombre de recta de Euler (1707-1783).
6. Consideremos un cuadril atero (la figura formada por cuatro puntos ordenados abcd
en los que no hay 3 alineados) y pongamos e = ba, v = da. La condicion de que sea
un paralelogramo (los lados opuestos son paralelos) es que c d = e y c b = v
para ciertos escalares , ; luego c a = e + v = e + v.
d c
e
v v
e
a b
Como los vectores e, v son linealmente independientes, porque los puntos abd no estan
alineados, se sigue que = = 1, de modo que los lados opuestos son iguales, c d =
b a y c b = d a, y las dos diagonales se bisecan mutuamente:
Demostraci
on: Sea v1 , . . . , vd una base de V , y consideremos la aplicacion lineal
f : E Rd , f (e) = (e v1 , . . . , e vd ) .
Su n
ucleo es
e (1 v1 + . . . + d vd ) = 1 (e v1 ) + . . . + r (e vd ) = 0 ,
Endomorfismos
5.1. Polinomios
En este captulo, de nuevo los escalares seran K = Q, R o C.
31
32 CAPITULO 5. ENDOMORFISMOS
5.3. Diagonalizaci
on de Endomorfismos
Definici on: Diremos que un endomorfismo T de un K-espacio vectorial de dimension finita
E es diagonalizable si existe alguna base e1 , . . . , en de E formada por vectores propios de
T ; i.e., T (ej ) = j ej para ciertos escalares j K, lo que significa que la matriz de T en
tal base es diagonal (todos sus coeficientes son nulos, salvo quizas los de la diagonal):
1 0 . . . 0
0 2 . . . 0
D =
. . . . . . . . . . . .
0 0 . . . n
De acuerdo con 5.2, un endomorfismo T de matriz A es diagonalizable si existe alguna
matriz invertible B tal que D = B 1 AB es una matriz diagonal D. En tal caso A = BDB 1 ,
y es sencillo calcular las potencias Am (y por tanto, la solucion general Xm = Am X0 del
sistema de ecuaciones en diferencias finitas Xm+1 = AXm ), porque
Am = (BDB 1 )(BDB 1 ) . . . (BDB 1 ) = BDm B 1 .
Igualmente, la solucion general del sistema de ecuaciones diferenciales X = AX es X = B X,
donde X es la solucion general del sistema X = DX. En efecto:
X = BX
= BDX
= BDB 1 X = AX .
Ejemplos:
1. Para resolver la ecuacion diferencial x = ax + bx, a, b R, planteamos el siguiente
sistema de ecuaciones diferenciales con una nueva funcion incognita y(t):
{ ( ) ( )( ) ( )
x = y x 0 1 x 0 1
, = , A=
y = ay + bx y b a y b a
Si el polinomio caracterstico u2 aub tiene dos races reales y distintas (a2 +4b > 0)
a a2 + 4b
1 , 2 =
2
estas son los valores propios de tal endomorfismo. Para hallar vectores propios se han
de resolver los sistemas de ecuaciones lineales homogeneos
( )( ) ( ) ( )( ) ( )
1 1 x1 0 2 1 x1 0
= , =
b 1 a x2 0 b 2 a x2 0
1 x1 x2 = 0 , 2 x1 x2 = 0
Los vectores propios e1 = (1, 1 ) y e2 = (1, 2 ) forman una base de R2 ,y nos permiten
diagonalizar la matriz A:
( ) ( )
1 0 1 1
D= = B 1 AB , B=
0 2 1 2
= DX:
Ahora resolvemos el sistema de ecuaciones diferenciales X
( ) ( )( ) { {
x 1 0 x x = 1 x x = c1 e1 t
= , ,
y 0 2 y y = 2 y y = c2 e2 t
x(t) = c1 e1 t + c2 e2 t c1 , c2 R .
x(t) = c et cos(t + ) c, R .
DE ENDOMORFISMOS
5.3. DIAGONALIZACION 35
3. Para hallar las sucesiones (xn ) = (x0 , x1 , . . .) tales que xn+2 = axn+1 +bxn , planteamos
el siguiente sistema de ecuaciones con una nueva sucesion incognita (yn ):
{ ( ) ( )( )
xn+1 = yn xn+1 0 1 xn
, = , Xn+1 = AXn
yn+1 = ayn + bxn yn+1 b a yn
( ) ( )( ) ( ) ( )1 ( )
xn 1n 2n c1 c1 1 1 x0
= , = (5.3)
yn 1n+1 2n+1 c2 c2 1 2 y0
xn = c1 1n + c2 2n
xn = c1 n + c2 ()n . (5.4)
n ()n
xn = .
5
Demostraci on: Seg un la definicion de suma directa, hemos de probar que es inyectiva la
siguiente aplicacion lineal:
s : V1 . . . Vm V1 + . . . + Vm , s(v1 , . . . , vm ) = v1 + . . . + vm .
36 CAPITULO 5. ENDOMORFISMOS
altura, 27 ecuaciones
aplicacion, 4 implcitas, 20
biyectiva, 4 parametricas, 20
epiyectiva, 4 endomorfismo, 32
inversa, 4 diagonalizable, 33
inyectiva, 4 epiyectiva, aplicacion, 4
lineal, 17 equivalencia
argumento, 3 , clase de, 1
aurea, proporcion, 35 , relacion de, 1
escalar, 6
baricentro, 13 , producto, 25
base, 11 espacio vectorial, 9
, cambio de, 22 cociente, 11
ortonormal, 29 eucldeo, 28
biyectiva, aplicacion, 4 Euler
, formula de, 3
cambio de base, 22 , recta de, 27
caracterstico, polinomio, 32 exponencial compleja, 4
ciclo, 5
circuncentro, 27 generadores, sistema de, 11
clase de equivalencia, 1
cociente Hamilton-Cayley, teorema de, 33
, conjunto, 1
identidad, 4
, espacio vectorial, 11
imagen, 4, 17
complejos, n umeros, 2
imaginaria, parte, 2
composicion, 4
impar, permutacion, 5
congruencia, 1, 10 implcitas, ecuaciones, 20
conjugado, 2 independencia lineal, 11
conjunto cociente, 1 inversa
coordenadas, 12 , aplicacion, 4
coseno, 26 , matriz, 6
Cramer, regla de, 7 invertible, matriz, 6
cuadrilatero, 27 inyectiva, aplicacion, 4
isomorfa, teorema de, 19
DAlembert, teorema de, 31
isomorfismo, 19
dependencia lineal, 11
determinante, 6 lineal
diagonalizable, endomorfismo, 33 , aplicacion, 17
diagonalizacion, criterio de, 36 , dependencia, 11
dimension, 13 , independencia, 11
direccion, 10 , subvariedad, 10
directa, suma, 16 logaritmo neperiano, 4
disjuntos, ciclos, 5
distancia, 25, 29 modulo
37
38 INDICE ALFABETICO
paralelismo, 10
paralelogramo, 27
parametricas, ecuaciones, 20
permutaci on, 4
impar, 5
par, 5
perpendicularidad, 29
Pitagoras, teorema de, 26
plano, 13
polinomio caracterstico, 32
producto
de matrices, 6
de numeros complejos, 2
escalar, 25
propio
, valor, 32
, vector, 32
proyeccion
ortogonal, 29
punto, 9
raz simple, 31
rango, 7
, teorema del, 7
real, parte, 2
recta, 13
relacion, 1
de equivalencia, 1
Rouche-Frobenius, teorema de, 7, 15
Runi, regla de, 31