Sunteți pe pagina 1din 20

Capı́tu lo 7

A plic ac io n e s L in e ale s

Objetivos del capı́tulo

Estudiar y entender el concepto de aplicación lineal.

C onocer criterios para decidir si una aplicación lineal es inyectiva o suprayectiva.

Entender y utilizar la F órm ula de las D im ensiones para A plicaciones L ineales.

R elacionar las aplicaciones lineales y los cam bios de base con las m atrices.

Estudiar cóm o varı́a la m atriz coordenada de una aplicación al realizar cam bios de base.

C onocer y com prender las nociones de equivalencia y sem ejanza de m atrices.

7.1. Concepto y primeras propiedades


L as aplicaciones lineales son las correspondencias naturales que se establecen entre espacios vectori-
ales. Son im portantes desde el punto de vista teórico,porque conservan la linealidad de las estructuras
involucradas. A lo largo de este tem a, verem os cóm o en m uchas ocasiones nos interesa utilizar apli-
caciones lineales que transform en el espacio vectorial que estem os tratando y lo conviertan en una
estructura equivalente m ás sencilla de estudiar. P ero adem ás del interés teórico de las m ism as, re-
sultan especialm ente útiles en m uchas aplicaciones del m undo real y la tecnologı́a. A ntes de dar la
definición de aplicación lineal, vam os a ver algunos ejem plos del ((m undo real)) que m uestran el uso
potencial de las aplicaciones lineales en la tecnologı́a, ya sea en el m anejo de gráficos por ordenador
en la com unicación de m ensajes digitales.

E jem plo 7.1.1 ¿Q ué es lo que hace un ordenador cuando le dam os al botón de zoom para acercarnos
a un dibujo? L os puntos del dibujo están representados en la pantalla del ordenador m ediante dos

105
106 Capı́tulo 7. Aplicaciones Lineales

coordenadas (x, y). Cuando le damos al botón de zoom para ver el dibujo el doble de grande, estas
coordenadas se cambian por (2x, 2y). Esta transformación, que cambia las coordenadas (x, y) por
las coordenadas (2x, 2y), es una aplicación lineal entre los espacios vectoriales R2 (la pantalla de mi
ordenador antes de darle al zoom) y R2 (la pantalla del ordenador después de darle al botón de zoom).
Esta transformación se conoce como homotecia de razón 2.

Ejemplo 7.1.2 ¿Qué hace un programa como W ord cuando le doy a la tecla de ((fuentes en itálicas)) ?
Supongamos por ejemplo la letra ((b)). Para construir esta letra, los diseñadores de fuentes almacenan
unos cuantos puntos, llamados puntos de control, que más o menos indican la forma que tiene la
letra, dónde se curva, dónde contiene segmentos rectos, etc, junto con algún algoritmo para, a partir
de esos datos, ((dibujar)) la gráfica de ((b)). ¿Cómo actúa el botón de itálicas? Se cogen los puntos de
control, que tendrán coordenadas (x, y), y se cambian por los puntos (x + 12 y, y). (Prueba tú a coger
un rectángulo, fija las coordenadas de sus esquinas y calcula las nuevas coordenadas con la asignación
(x + 12 y, y). Dibuja ahora el polı́gono que tiene como esquinas los puntos que acabas de calcular, y
observa que lo que obtienes es, en cierta manera, el rectángulo original ((inclinado)) hacia un lado.)

Ejemplo 7.1.3 ¿Y si la foto digital que estamos viendo en la pantalla del ordenador está girada? Los
programas de visionado de fotos suelen traer la opción ((gira 90o hacia la izquierda)). ¿Qué es lo que
hace el ordenador para girar? T ransformar los puntos de coordenadas (x, y) en puntos de coordenadas
(y, −x). ¿Y si sólo la queremos girar 45o ? En ese caso habrá que cambiar los puntos de coordenadas
(x, y) por coordenadas (cos(45o )x + sin(45o )y, − sin(45o )x + cos(45o )y). Esta transformación se llama
trasquilamiento.

Ejemplo 7.1.4 Los ejemplos que se han descrito hasta ahora transforman el espacio vectorial R2 de
nuevo en el espacio vectorial R2 , es decir, antes de la trasformación y después de la transformación
los puntos tienen igual número de coordenadas. Pero... ¡¡las aplicaciones lineales pueden actuar entre
espacios vectoriales distintos!! Por ejemplo, en dibujo técnico suele ser habitual indicar una figura
por medio de sus proyecciones en los planos X Y , X Z e Y Z . Cada una de estas tres proyecciones
es una aplicación lineal que transforma un punto de coordenadas (x, y, z), bien en el punto (x, y),
bien en el punto (x, z) o bien el punto (y, z). Cada una de estas tres transformaciones me indica
una correspondencia entre el espacio vectorial R3 (tres coordenadas) y el espacio vectorial R2 (dos
coordenadas).

Ejemplo 7.1.5 O tro ejemplo de aplicación lineal son los códigos lineales: supongamos que tenemos
un mensaje escrito en binario como una cadena de bits (ceros y unos) y que queremos enviarlo. El
canal empleado para la transmisión puede tener ((ruido)), es decir, quizás el mensaje recibido no sea
exactamente el mensaje original. ¿T engo algún modo de avisar de que hay algún error? U na forma
puede ser enviar cada bit por duplicado, es decir, si el mensaje original es (x1 , x2 , ..., xk ), enviaremos
(x1 , x1 , x2 , x2 , ..., xk , xk ). Ası́, si el receptor recibe un mensaje del tipo (0, 0, 1, 0, 1, 1), al menos hay
un error en la transmisión puesto que el segundo bit del mensaje original puede haber sido un 1 o un
0. El código lineal que acabamos de describir es una transformación del espacio vectorial Zk2 (cadenas
de bits de longitud k) en el espacio vectorial Z2k
2 (cadenas de bits de longitud 2k).
7.1. Concepto y primeras propiedades 107

Todas las transformaciones descritas en este apartado tienen algo en común: no sólo transforman un
espacio vectorial V en otro espacio vectorial W , sino que además tienen un buen comportamiento con
respecto a la suma de vectores y al producto de un vector por un número. Este buen comportamiento
es la esencia de la definición de aplicación lineal que damos a continuación.

Definición 7.1.6 Dados dos espacios vectoriales V y W sobre el mismo cuerpo K (recordar que K
puede ser R, C, Z2 ...), una aplicación lineal es una transformación f : V −→ W que cumple

(1) f (v1 + v2 ) = f (v1 ) + f (v2 )

(2) f (αv) = αf (v)

para todo v, v1 , v2 ∈ V y para todo α ∈ K. N otemos que la comprobación de las propiedades (1) y (2)
es equivalente a comprobar

(1’) f (αv1 + β v2 ) = αf (v1 ) + β f (v2 ),

para todo v1 , v2 ∈ V y para todo α, β ∈ K. Si f es una aplicación lineal, la generalización de (1’) a


una suma finita, pongamos de n términos, serı́a:

f (α1 v1 + α2 v2 + ···+ αn vn ) = α1 f (v1 ) + α2 f (v2 ) + ···+ αn f (vn )

para todo v1 , v2 , . . . , vn ∈ V y para todo α1 , α2 , . . . , αn ∈ K.


Llamaremos a V espacio de partida y a W espacio de llegada.

Ahora vamos a dar nombres a las aplicaciones que tienen caracterı́sticas especiales que las hacen
especialmente útiles tanto desde el punto de vista teórico como desde el práctico.

Definición 7.1.7 Las aplicaciones lineales inyectivas se llaman monomorfismos. Recordar que inyec-
tiva significa que si f (v1 ) = f (v2 ) entonces v1 = v2 .

Por ejemplo, si utilizamos el código lineal que duplica cada bit, está claro que el mensaje

(x1 , x1 , x2 , x2 , . . . , xk , xk )

proviene del mensaje original (x1 , x2 , . . . , xk ) y de ningún otro. M ensajes distintos implican mensajes
duplicados distintos (dicho más en general, vectores distintos del espacio de partida van a parar a
vectores distintos en el espacio de llegada), po lo que cualquier código lineal debe ser un monomorfismo.

Definición 7.1.8 Las aplicaciones lineales suprayectivas se llaman epimorfismos. Recordar que una
aplicación es suprayectiva si para todo w ∈ W existe v ∈ V con f (v) = w.

Para dar un ejemplo de una aplicación que no es suprayectiva, volvamos al ejemplo del código
que duplica bits: recordemos que este código es una aplicación lineal entre Zk2 y Z2k , pero ¿a base de
duplicar bits podemos obtener todas las posibles palabras de longitud 2k? N o, sólo obtendremos las
de la forma (x1 , x1 , x2 , x2 , . . . ). Es decir, no todas las palabras de Z2k
2 provienen de alguna palabra de
Zk2 . ¡Esto ocurre porque la aplicación no es suprayectiva! Las aplicaciones suprayectivas nos permiten
saber de qué vector del espacio de partida proviene cada vector del espacio de llegada.
108 Capı́tulo 7. Aplicaciones Lineales

Definición 7.1.9 Las aplicaciones lineales biyectivas reciben el nombre de isomorfismos. Recordar que
una aplicación es biyectiva si es a la vez inyectiva y suprayectiva. La notación V ∼
= W significa que
los espacios V y W son espacios isomorfos, es decir, existe algún isomorfismo de V en W (y, por
consiguiente, algún isomorfismo de W en V ).

Por ejemplo, si giramos una foto en el ordenador 90o a la izquierda, podemos estar seguros de
que si giramos de nuevo 90o a la derecha volveremos a la foto original. Esto es porque existe una
correspondencia uno a uno entre los puntos transformados y los puntos originales. Esta correspondencia
uno a uno es lo que vamos a llamar isomorfismo.

Definición 7.1.10 Si el espacio de partida y el espacio de llegada coinciden (es decir si V = W ), la


aplicación lineal se llama endomorfismo. Los automorfismos son los endomorfismos biyectivos.

En los primeros ejemplos veı́amos transformaciones de los puntos de la pantalla del ordenador en
puntos de la pantalla del ordenador, es decir, de R2 en R2 . Estas aplicaciones lineales son endomorfismos
porque el espacio de partida y el espacio de llegada es el mismo. Como ejemplo de automorfismos
tenemos el giro de 90o de R2 en R2 ya que va de R2 a R2 ) y es biyectivo .

Ejemplo 7.1.11 Además de las aplicaciones lineales que se han descrito al principio de esta sección,
vamos a ver algún otro ejemplo sencillo. Se recomienda a los alumnos que vayan comprobando los
axiomas (1) y (2) de la definición de aplicación lineal, ası́ como el carácter inyectivo o suprayectivo de
las aplicaciones que se mencionan a continuación.

1. Dado un espacio vectorial V , la aplicación identidad I : V −→ V tal que I(v) = v para todo
v ∈ V es un isomorfismo.

2. Si S es un subespacio vectorial del espacio V , entonces la aplicación inclusión i : S ,→ V tal que


i(s) = s para todo s 3 S es un monomorfismo.

3. Si f : V −→ W es una aplicación lineal entre los espacios vectoriales V y W , y S es un subespacio


vectorial de V , entonces la restricción f |S de f a S también es lineal. Recordar que la restricción
f |S se define como f |S (v) = f (v) para todo v ∈ S.

4. Si V , W y U son espacios vectoriales sobre el mismo cuerpo K, y tenemos que las aplicaciones
f : V −→ W y g : W −→ U son lineales, entonces la composición g ◦ f : V −→ U definida com
g ◦ f (v) = g(f (v)) es también una aplicación lineal.

5. Dado el espacio vectorial Kn , la aplicación πj : Kn −→ K, llamada proyección en la componente


j-ésima y definida como πj ((v1 , . . . , vn )) = vj , es un epimorfismo.

Ejemplo 7.1.12 De la siguiente lista de aplicaciones, las tres primeras son aplicaciones lineales, mien-
tras que la cuarta no lo es porque no cumple los axiomas de la definición (ya que, por ejemplo,
f (1 + 2) = f (3) = (3, 9) 6= (1, 1) + (2, 4) = f (1) + f (2)):

(a) f : R2 −→ R2 dada por f (x, y) = (x + y, 0).


7.1. Concepto y primeras propiedades 109

(b) f : R2 [x] −→ R dada por f (ax2 + bx + c) = c.

(c) f : Z32 −→ Z32 dada por f (x, y, z) = (x + y + z, x, y).

(d) f : R −→ R2 dada por f (x) = (x, x2 ).

En el siguiente resultado veremos que todo espacio vectorial sobre K de dimensión n es isomorfo
al espacio vectorial Kn .

Lema 7.1.13 Dado un espacio vectorial V sobre K y fijada una base B = {v1 , . . . , vn } de V , la
aplicación f : V −→ Kn que a cada v ∈ V le hace corresponder sus coordenadas (α1 , . . . , αn ) en la
base B, está bien definida y es un isomorfismo.

D emostración:
Recordemos que las coordenadas de un vector v en la base fijada B son los únicos escalares (α1 , . . . , αn )
que cumplen v = α1 v1 + · · · + αn vn , ası́ que la aplicación f : V −→ Kn dada para cada v ∈ V por
f (v) = (α1 , . . . , αn ) está bien definida. Queda como ejercicio comprobar que la aplicación es lineal.
Además, f es

Inyectiva: puesto que si f (v) = f (w) = (α1 , . . . , αn ), es porque v = α1 v1 + · · · + αn vn = w, con


lo que la aplicación es inyectiva.

Suprayectiva: puesto que si tomamos un vector cualquiera (x1 , . . . , xn ) ∈ Kn , basta definir v =


x1 v1 + · · · + xn vn ∈ V que cumple f (v) = (x1 , . . . , xn ).

H emos visto que f es un isomorfismo entre V y Kn .



El resultado anterior es muy útil pues permite ((trabajar en coordenadas¿, es decir, siempre que
tengamos un espacio vectorial de dimensión finita n, podemos identificar sus elementos con vectores de
Kn . Por ejemplo, los polinomios de grado menor o igual que 2 sobre el cuerpo R se pueden identificar
con vectores de R de 3 coordenadas mediante el isomorfismo f : R2 [x] −→ R3 dado para cada
p(x) = a0 + a1 x + a2 x2 ∈ R2 [x] por

f (p(x)) = f (a0 + a1 x + a2 x2 ) = (a0 , a1 , a2 ).

A la hora de ((hacer cuentas)) podemos hacerlas con polinomios p(x) ∈ R2 [x], o bien hacerlas con
vectores de R3 .
De modo similar, si en el espacio vectorial de las matrices 2 × 2 sobre K consideramos la base
( ! ! ! !)
1 0 0 1 0 0 0 0
B= , , , ,
0 0 0 0 1 0 0 1
!
a b
cualquier matriz se puede identificar mediante el isomorfismo f del lema anterior con el
c d
vector (a, b, c, d) ∈ K4 .
V eamos ahora algunas propiedades básicas de las aplicaciones lineales:
110 Capı́tulo 7. Aplicaciones Lineales

Proposición 7.1.14 Sean V y W dos espacios vectoriales sobre un cuerpo K, y sea f : V −→ W una
aplicación lineal. E ntonces

(i) f (0V ) = 0W .

(ii) f (−v) = −f (v) para todo v ∈ V .

(iii) Si los vectores {f (v1 ), . . . , f (vr )} son linealmente independientes, entonces {v1 , . . . , vr } también
son linealmente independientes.

(iv) Si los vectores {v1 , . . . , vr } son linealmente dependientes, entonces {f (v1 ), . . . , f (vr )} también
son linealmente dependientes.

Demostración:
(i) f (0V ) = f (0V + 0V ) = f (0V ) + f (0V ) = 2f (0V ) (por el axioma (1) de la definición de aplicación
lineal), con lo que despejando obtenemos f (0V ) = 0W .
(ii) f (−v) = f ((−1)v) = (−1)f (v) = −f (v) (por el axioma (2) de la definición de aplicación lineal).
(iii) Supongamos que {f (v1 ), . . . , f (vr )} son linealmente independientes, y veamos que {v1 , . . . , vr }
también lo son: si x1 v1 + · · · + xn vn = 0V , entonces por (i) f (x1 v1 + · · · + xn vn ) = 0W , y usando la
linealidad de la aplicación f , x1 f (v1 ) + · · · + xn f (vn ) = 0W . B asta usar ahora que {f (v1 ), . . . , f (vr )}
son linealmente independientes para concluir que los escalares x1 = · · · = xn = 0.
(iv) No es más que la propiedad (iii) negada.

El siguiente resultado recibe el nombre de T eorema de Existencia y U nicidad de A plicaciones
Lineales, y nos permite definir aplicaciones lineales sin más que conocer una base del espacio de partida
y una familia de vectores cualquiera del espacio de llegada. Recordemos aquı́ que una base de un K-
espacio vectorial V es una familia de vectores BV = {v1 , . . . , vn } que sean linealmente independientes
sobre K y tales que sean sistema generador de V , es decir, tales que < v1 , . . . , vn >= V .

T eorema 7.1.15 Sean V y W dos espacios vectoriales sobre un cuerpo K, sea B = {v1 , . . . , vn } una base
de V , y {w1 , . . . , wn } una familia cualquiera de vectores de W . E ntonces existe una única aplicación
lineal f : V −→ W que cumple f (v1 ) = w1 , f (v2 ) = w2 , . . . , f (vn ) = wn

Demostración:
Notemos que debemos probar la existencia y unicidad de la aplicación f :

Existencia: Sea v ∈ V . B uscamos definir f (v) de modo que f sea lineal y que cumpla las
condiciones del enunciado. Como tenemos una base de V , podemos expresar v en coordenadas,
es decir, existirán α1 , . . . , αn ∈ K tales que v = α1 v1 + · · · + αn vn . Definimos f (v) = α1 w1 + · · · +
αn wn . La definición de f (v) es correcta porque las coordenadas de un vector en función de una
base son únicas. Además f (vi ) = wi , i = 1, . . . , n. Falta ver que f es lineal, ası́ que comprobamos
los axiomas (1) y (2) de la definición:
7.2. Imágenes y antiimágenes de una aplicación lineal 111

(1) Sean v, ṽ ∈ V de coordenadas (α1 , . . . , αn ) y (β1 , . . . , βn ) en B respectivamente. Como las


coordenadas de v + ṽ en B son (α1 + β1 , . . . , αn + βn ), se tiene que

f (v + ṽ) = (α1 + β1)w1 + · · · + (αn + βn )wn


= |. . {z
. . .}. = (α1 w1 + · · · + αn wn ) + (β1 w1 + · · · + βn wn ) = f (v) + f (ṽ).
op erando

(2) Si tomamos a ∈ K y v como en el apartado anterior, las coordenadas de av en B son


(aα1 , . . . , aαn ), ası́ que si operamos de modo similar a como lo hemos hecho en (1) llegaremos
a que f (av) = af (v).

Unicidad: Vamos a suponer que existe otra aplicación lineal g : V −→ W que también cumple
g(vi ) = wi , para todo i = 1, . . . , n. Si tomamos un vector cualquiera v ∈ V de coordenadas
(α1 , . . . , αn ) en B, tendremos que

g(v) = g(α1 v1 + · · · + αn vn ) = .|. . . . {z


. . . . . .}. = α1 g(v1 ) + · · · + αn g(vn )
p orque g es lineal

= α1 w1 + · · · + αn wn = f (v)

(por la definición que hemos dado de f ). Por tanto, como f y g son dos aplicaciones lineales que
coinciden sobre cualquier vector de V , se tiene que f = g, es decir, sólo hay una única aplicación
f en estas condiciones.

Con esto, hemos terminado de probar el teorema.




Ejemplo 7.1.16 Vamos a usar el teorema anterior para deducir la fórmula del endomorfismo de R2
((giro a la izquierda 90o )). Según el teorema anterior, basta que digamos cómo se giran 90o los vectores
de una base de R2 . Escojamos, por ejemplo, la base canónica de R2 , {(1, 0), (0, 1)}. El giro de 90o del
vector (1, 0) me da el vector (0, 1), es decir, f (1, 0) = (0, 1), mientras que el giro de 90o a la derecha del
vector (0, 1) me da (−1, 0), es decir, f (0, 1) = (−1, 0). Veamos que de aquı́ se puede deducir fácilmente
la fórmula de f :
f (x, y) = (−y, x).

Como un vector cualquiera de R2 se puede escribir como (x, y) = x(1, 0) + y(0, 1) y la f que estamos
construyendo es una aplicación lineal,

f (x, y) = f (x(1, 0) + y(0, 1)) = xf (1, 0) + yf (0, 1) = x(0, 1) + y(−1, 0) = (−y, x).

7.2. Imágenes y antiimágenes de una aplicación lineal


En esta sección estudiaremos imágenes de subespacios del espacio vectorial de partida de una
aplicación lineal, y antiimágenes de subespacios del espacio de llegada.
La imagen de un subespacio vectorial nos indica en qué se transforma dicho subespacio por la
aplicación lineal que estemos considerando. Por ejemplo, si consideramos el subespacio vectorial de R3
112 Capı́tulo 7. Aplicaciones Lineales

dado por el plano de ecuación x − y + z = 0 y consideramos la aplicación lineal dada por la ((proyección
en el plano XY)), obtendremos la recta de ecuación x−y = 0, es decir, la imagen del plano x−y +z = 0
por la aplicación lineal ((proyección sobre el plano XY)) es la recta de ecuación x − y = 0.
La antiimagen de un subespacio del espacio de llegada W no es más que decir de qué vectores
del espacio de partida vienen los vectores del subespacio considerado. Volviendo al ejemplo de la
((proyección sobre el plano XY)), la antiimagen de un vector v del plano XY no es más que indicar
todos los vectores de R3 que al proyectarlos dan v.
En esta sección veremos que cobrarán especial importancia la imagen de todo el espacio de partida,
también llamada imagen de la aplicación, cuya dimensión se conoce como rango de la aplicación, y la
antiimagen del subespacio {0} del espacio de llegada, llamada núcleo o K er de la aplicación. Asimismo,
daremos caracterizaciones de cuándo una aplicación lineal es un monomorfismo (¡inyectiva!) y de
cuándo es un isomorfismo (¡biyectiva!). La sección termina con la fórmula de las dimensiones, que
permite calcular la dimensión del espacio de partida en función de la dimensión de núcleo y del rango
de la aplicación lineal.

Proposición 7.2.1 Sean V y W dos espacios vectoriales sobre el cuerpo K y sea f : V −→ W una
aplicación lineal. Entonces:

(i) P ara todo subespacio S de V , f (S) = {f (v) | v ∈ S} es un subespacio de W .

(ii) P ara todo subespacio T de W , f −1 (T ) = {v ∈ V | f (v) ∈ T } es un subespacio de V .

Demostración:
Vamos a demostrar (i), meintras que el apartado (ii) queda como ejercicio.
(i) Sean f (v1 ), f (v2 ) con v1 , v2 ∈ S, y sean α, β ∈ K. Queremos ver que αf (v1 ) + βf (v2 ) ∈ f (S).
Pero αf (v1 ) + βf (v2 ) = f (αv1 + βv2 ) porque f es lineal, además αv1 + βv2 ∈ S porque S es un
subespacio de V , ası́ que αf (v1 ) + βf (v2 ) ∈ f (S).


Definición 7.2.2 Dados dos espacios vectoriales V y W sobre el mismo cuerpo K y una aplicación
lineal f : V −→ W , llamaremos

imagen de f a f (V ), y lo denotamos Imf ,

núcleo de f a f −1 ({0W }), y lo denotamos K er f

rango de f a la dimensión de la imagen de f , y lo denotamos rgf .

En los siguientes resultados vamos a dar caracterizaciones de cuando una aplicación lineal es un
epimorfismo, un monomorfismo o un isomorfismo.

Lema 7.2.3 Sean V y W dos espacios vectoriales sobre el cuerpo K y sea f : V −→ W una aplicación
lineal. Entonces son equivalentes:

(i) f es un epimorfismo,
7.2. Imágenes y antiimágenes de una aplicación lineal 113

(ii) f (V ) = W ,

(iii) rgf = dim V .

Demostración:
Claramente (i) y (ii) son equivalentes por definición de aplicación suprayectiva.
(ii)⇒(iii): si f (V ) = W entonces tomando dimensiones rgf = dim f (V ) = dim W .
(iii)⇒(ii): en general se tiene que si T es un subespacio de W y dim T = dim W entonces T = W . En
este caso, tomando T = f (V ), como dim f (V ) = rgf = dim W , f (V ) = W.

Más adelante veremos que calcular el rango de una aplicación lineal es sencillo (bastará calcular
el rango de cierta matriz), ası́ que podremos decir fácilmente si una aplicación lineal es suprayectiva
o no sin más que calcular su rango.

Lema 7.2.4 Sean V y W dos espacios vectoriales sobre el cuerpo K y sea f : V −→ W una aplicación
lineal. Entonces son equivalentes:

(i) f es un monomorfismo.

(ii) Ker f = {0V }.

(iii) Si los vectores {v1 , ..., vr } son linealm ente independientes, entonces {f (v1 ), ..., f (vr )} tam bién
son linealm ente independientes.

Demostración:
(i)⇒(ii): si v ∈ K erf entonces f (v) = 0W = f (0V ), ası́ que com o f es inyectiva, v = 0V , es decir,
K erf = {0V }.
(ii)⇒(iii): supongam os que los vectores {v1 , ..., vr } son linealm ente independientes, y veam os que
{f (v1 ), ..., f (vr )} tam bién lo son. P ara ellos, suponem os que α1 f (v1 ) + ···+ αr f (vr ) = 0W . U sando
la linealidad de f , 0W = α1 f (v1 ) + ···+ αr f (vr ) = f (α1 v1 + ···+ αr vr ), es decir tenem os que,

α1 v1 + ···+ αr vr ∈ K erf = {0V },

por hipótesis. A sı́, α1 v1 + ···+ αr vr = 0V y siusam os que {v1 , ..., vr } son linealm ente independientes,
llegarem os a que los escalares α1 = ···= αr = 0.
(iii)⇒(i):para ver que f es inyectiva, tom am os v1 , v2 ∈ V que cum plan f (v1 ) = f (v2 ). Sidespejam os,
0W = f (v1 ) − f (v2 ) = f (v1 − v2 ), ası́ que los vectores {f (v1 − v2 ), 0W } son linealm ente dependientes.
A sı́, com o 0W = f (0V ) y f es lineal, {v1 − v2 , 0V } tam bién son linealm ente dependientes, lo que
significa que v1 − v2 = 0V , es decir, v1 = v2 .

T am bién va a ser sencillo calcular el núcleo o K er de una aplicación. B astará resolver un sistem a
hom ogéneo de ecuaciones lineales. Si la única solución de este sistem a es la x = 0, y = 0, z = 0 ..., el
núcleo será {0V } y, equivalentem ente, la aplicación lineal estudiada será un m onom orfism o.
114 Capı́tulo 7. Aplicaciones Lineales

Lema 7.2.5 Sean V y W dos espacios vectoriales sobre el cuerpo K y sea f : V −→ W una aplicación
lineal. E ntonces son equivalentes:

(i) f es un isomorfismo.

(ii) P ara toda base B = {v1 , . . . , vn } de V se tiene que f (B) = {f (v1 ), . . . , f (vn )} es base de W .

(iii) E xiste una base B = {v1 , . . . , vn } de V para la que f (B) = {f (v1 ), . . . , f (vn )} es base de W .

Demostración:
(i)⇒(ii): Tomemos una base cualquiera B = {v1 , . . . , vn } de V . Y a hemos visto que {f (v1 ), . . . , f (vn )}
es un sistema generador de f (V ) = W . Además, por la caracterización (iii) de monomorfismo tenemos
que {f (v1 ), . . . , f (vn )} es linealmente independiente. C omo f (B) = {f (v1 ), . . . , f (vn )} está formado
por vectores linealmente independientes, y genera W , tenemos que es base de W .
(ii)⇒(iii): Inmediato.
(iii)⇒(i): Supongamos que existe una base B = {v1 , . . . , vn } de V para la que f (B) = {f (v1 ), . . . , f (vn )}
es base de W . V amos a probar que f es inyectiva y suprayectiva:

inyectiva: sea v ∈ Ker f , y sean (α1 , . . . , αn ) las coordeandas de v en la base B. Ası́ 0 = f (v) =
f (α1 v1 + · · · + αn vn ) = α1 f (v1 ) + · · · + αn f (vn ). Usando que los vectores {f (v1 ), . . . , f (vn )} son
linealmente independientes porque f (B) es base, α1 = · · · = αn = 0, es decir, v = 0V .

suprayectiva: sea w ∈ W . C omo f (B) es un sistema generador de W , existen escalares β1 , . . . ,


βn ∈ K tales que w = β1 f (v1 ) + · · · + βn f (vn ) = f (β1 v1 + · · · + βn vn ), ası́ que basta tomar
v = β1 v1 + · · · + βn vn ∈ V para tener que w = f (v).

C on esto se termina la demostración.



E n el siguiente resultado se verá que todos los espacios vectoriales de la misma dimensión (finita)
son isomorfos.

C orolario 7.2.6 Si V y W son dos espacios vectoriales de dimensión finita sobre el mismo cuerpo K,
entonces V y W son isomorfos si y sólo si dim V = dim W .

Demostración:
⇒: Sea f el isomorfismo entre V y W . C omo f lleva bases a bases por la caracterización anterior,
dim V = dim W .
⇐: Tomemos las bases {v1 , . . . , vn } de V y {w1 , . . . , wn } de W , y definamos la aplicación f tal que
f (vi ) = wi , i = 1, . . . , n. E sta aplicación está bien definida y es lineal por el Teorema de E xistencia
y Unicidad de Aplicaciones L ineales. Además, lleva una base de V a una base de W , ası́ que por la
caracterización de isomorfismos que acabamos de probar, f es un isomorfismo.

E ste corolario viene a decir que es lo mismo ((hacer cuentas)) con matrices reales de tamaño 2 × 3,
que con polinomios con coeficientes reales de grado menor o igual que 5, que con vectores de R6 , puesto
que como espacios vectoriales todos son espacios de dimensión 6 sobre el mismo cuerpo R.
7.2. Imágenes y antiimágenes de una aplicación lineal 115

El próximo resultado se conoce como Fórmula de las Dimensiones para Aplicaciones Lineales, y
permite expresar la dimensión del espacio de partida de una aplicación lineal en función del rango de
la aplicación y de la dimensión de su núcleo.

T eorema 7.2.7 Sean V y W dos espacios vectoriales sobre el cuerpo K y sea f : V −→ W una
aplicación lineal. Entonces dim V = dim Ker f + rgf .

Demostración:
Tomamos una base {v1 , . . . , vs } del núcleo de f , y una base {w1 , . . . , wr } de Imf . Como cada wi ∈
Imf = f (V ), existirá ui ∈ V tal que f (ui ) = wi , i = 1, . . . , r. El teorema quedará probado si
comprobamos que {v1 , . . . , vs , u1 , . . . , ur } es una base de V , ya que en ese caso la dimensión de V
será r + s:

Linealmente independientes: si α1 v1 + · · · + αs vs + β1 u1 + · · · + βr ur = 0V , entonces, usando


que los vi ∈ Ker f ,

0W = f (α1 v1 + · · · + αs vs + β1 u1 + · · · + βr ur ) = β1 f (u1 ) + · · · + βr f (ur )


= β1 w 1 + · · · + βr w r ,

y como {w1 , . . . , wr } son linealmente independientes, entonces

β1 = · · · = βr = 0.

Por tanto, α1 v1 +· · ·+αs vs = 0V y como {v1 , . . . , vs } son linealmente independientes, deducimos


que
α1 = · · · = αs = 0.

S istema generador: si v ∈ V , entonces f (v) ∈ Imf , por lo que existen x1 , . . . , xr ∈ K tales


que f (v) = x1 w1 + . . . xr wr = x1 f (u1 ) + · · · + xr f (ur ) = f (x1 u1 + · · · + xr ur ). D espejando,
f (v − (x1 u1 + · · · + xr ur )) = 0V , es decir, v − (x1 u1 + · · · + xr ur ) ∈ Ker f . Como {v1 , . . . , vs } es
una base de Ker f , existirán y1 , . . . , ys ∈ K tales que v − (x1 u1 + · · · + xr ur ) = y1 v1 + · · · + ys vs .
Esto significa que
v = y 1 v 1 + · · · + y s v s + x1 u 1 + · · · + x r u r .

Por tanto {v1 , . . . , vs , u1 , . . . , ur } es una base de V y ası́ la dimensión de V es r + s.




Corolario 7.2.8 Sean V y W dos espacios vectoriales sobre el cuerpo K con dim V = dim W , y sea
f : V −→ W una aplicación lineal. Entonces son equivalentes:

(i) f es un monomorfismo.

(ii) f es un epimorfismo.

(iii) f es un isomorfismo.
116 Capı́tulo 7. Aplicaciones Lineales

Demostración:
Basta usar la F órmula de las Dimensiones para Aplicaciones Lineales y las caracterizaciones de
monomorfismo y epimorfismo que hemos visto anteriormente.


7.3. Matrices y aplicaciones lineales

Las matrices nos ayudarán a expresar las aplicaciones lineales de un modo más compacto y a sistem-
atizar los cálculos. F ijadas bases en el espacio de partida y en el espacio de llegada de una determinada
aplicación, ésta queda completamente determinada en cuanto se conoce su matriz coordenada.

Definición 7.3.1 Sean V y W dos espacios vectoriales de dimensiones n y m sobre el cuerpo K y sea
f : V −→ W una aplicación lineal. F ijemos sendas bases BV = {v1 , . . . , vn } de V y BW = {w1 , . . . , wm }
de W . Por el Teorema de Existencia y Unicidad de Aplicaciones Lineales, f queda determinada en
cuanto se conocen {f (v1 ), . . . , f (vn )}. Además, cada f (vi ) tiene coordenadas únicas (α1i , α2i , . . . , αmi )
en la base BW :

f (v1 ) = α11 w1 + α21 w2 + · · · + αm1 wm


f (v2 ) = α12 w1 + α22 w2 + · · · + αm2 wm
..
.
f (vn ) = α1n w1 + α2n w2 + · · · + αmn wm

Si expresamos estas igualdades utilizando productos de matrices:

 
α11 α12 · · · α1n
 
 α21 α22 · · · α2n 
 
(f (v1 ) · · · f (vn )) = (w1 · · · wm )  . .. .. 
 .. . . 
 
αm1 · · · αmn
| {z }
A

La matriz A ∈ M atm×n (K) se llama matriz coordenada de f en las bases BV y BW . N otar que tiene
tantas filas como dim W y tantas columnas como dim V (las columnas de A son las coordenadas de
los f (vi ) en la base BW ). La matriz coordenada de f , una vez fijadas las bases BV y BW , es única.
Además, si conocemos A, podemos saber cuanto valen las coordenadas (y1 , . . . , ym ) de f (v) en la
base BW para cualquier v ∈ V . El vector v tendrá unas determinadas coordenadas (x1 , . . . , xn ) en la
7.3. Matrices y aplicaciones lineales 117

base BV de V , ası́ que

• f (v) = f (x1 v1 + · · · + xn vn ) = x1 f (v1 ) + · · · + xn f (vn )


   
x1 x1
 .   . 
= (f (v1 ) · · · f (vn ))  .   .
 .  = (w1 · · · wm ) A  .
.

xn xn
 
y1
 . 
• f (v) = (w1 · · · wm )  . 
 . .
ym

Igualando estas dos expresiones y notando que (w1 , . . . , wm ) es una base y que lo que aparece multi-
plicando por la derecha han de ser coordenadas y éstas son únicas, llegamos a que
   
y1 x1
 .   .. 
 ..  = A 
   .
. 
ym xn

Esta última expresión se conoce como ecuación matricial de f respecto de las bases BV y BW .

En el siguiente resultado veremos que la matriz A que cumple la ecuación matricial de f respecto
de dos bases fijadas de V y W es única.

Corolario 7.3.2 Si A es la matriz de la aplicación f en las bases BV y BW , entonces A es la única


matriz que cumple la ecuación matricial
   
y1 x1
 .   .. 
 ..  = A 
   .
. 
ym xn

Demostración:
Supongamos que B es otra matriz de tamaño m × n que cumple
   
y1 x1
 .   .. 
 ..  = B 
   .
. 
ym xn

Entonces          
y1 x1 x1 x1 0
 .   ..   ..   ..   .. 
 ..  = A  = B =⇒ (A − B) =
.  .
 .   .   . 
        
ym xn xn xn 0

Esta última igualdad se da para todo (x1 , . . . , xn ), ası́ que A − B es la matriz (0), de donde A = B.

118 Capı́tulo 7. Aplicaciones Lineales

Nota 7.3.3 Si expresamos los vectores en coordenadas y las aplicaciones lineales a través de su matriz
coordenada, calcular en qué se transforma un vector por una cierta aplicación lineal f no es más que
multiplicar la matriz A de f por las coordenadas del vector. Volvamos al ejemplo de los ordenadores:
¿qué significa que un ordenador tenga una buena tarjeta gráfica? ¡¡Ni más ni menos que sea rápido
haciendo multiplicaciones por matrices!!H emos visto en el primer ejemplo del tema que las principales
transformaciones que se hacen sobre la pantalla de un ordenador (giros, zooms, trasquilamientos...)
son aplicaciones lineales, y éstas vienen determinadas respecto a la base canónica de R2 por matrices
de tamaño 2 × 2, ası́ que si queremos
! que el ordenador ((vaya rápido)), deberemos multiplicar rápido
x
matrices 2 × 2 por vectores para ver dónde van a parar.
y
Para los ejemplos vistos al principio del capı́tulo (en la sección 7.1) las matrices coordenadas de
las aplicaciones ahı́ descritas, respecto a la base canónica de R2 son:

Matriz de una homotecia de razón 2:


!
2 0
A=
0 2

Matriz de un trasquilamiento: !
1
1 2
A=
0 1

Matriz de un giro a la izquierda de 90o :


!
0 1
A=
−1 0

Matriz de un giro a la izquierda de ángulo α:


!
cos(α) sen(α)
A=
− sen(α) cos(α)

Matriz de la proyección sobre el plano X Y:


!
1 0 0
A=
0 1 0

Nota 7.3.4 Toda matriz A ∈ M m,n (K) es matriz coordenada de una aplicación lineal. Por ejemplo,
si tomamos la aplicación fA : Kn −→ Km dada de forma que si fA (x1 . . . xn ) = (y1 . . . ym ) entonces
   
y1 x1
 .   .. 
 ..  = A 
   ,
. 
ym xn

se tiene que fA tiene matriz coordenada A en las bases canónicas de Kn y Km .


7.3. Matrices y aplicaciones lineales 119

Nota 7.3.5 Sean V y W dos espacios vectoriales sobre K, sean f, g : V −→ W dos aplicaciones lineales
y fijemos una base BV de V y otra base BW de W . Si A es la matriz coordenada de f en las bases BV
y BW y B es la matriz coordenada de g en las bases BV y BW , entonces

la matriz coordenada de f + g en las bases BV y BW es A + B,

si λ ∈ K, la matriz coordenada de λf en las bases BV y BW es λA.

Sean V , W y U espacios vectoriales sobre K, sean f : W −→ U y g : V −→ W dos aplicaciones


lineales, y sean BV base de V , BW base de W y BU base de U . Si A es la matriz coordenada de f en
las bases BW y BU , y B es la matriz coordenada de g en las bases BV y BW , entonces

la matriz coordenada de la composición f ◦ g : V −→ U en las bases BV y BU es AB. Por


ejemplo, si trabajamos en la pantalla del ordenador (R2 y usando siempre coordenadas respecto
de la base canónica {(1, 0), (0, 1)}) y queremos hacer primero un giro (con matriz A) y luego un
trasquilamiento (con matriz B) la matriz que utilizaremos será B · A (obs: ¡No me he equivocado
en el orden en que las matrices se multiplican! La composición que estoy realizando, si llamo f
al giro y g al trasquilamiento, es g ◦ f ).

Nota 7.3.6 Matriz de un cambio de base:


Si V es un K-espacio vectorial con bases BV = {v1 , . . . , vn } y B 0 V = {w1 , . . . , wn }, se puede definir
la aplicación identidad de V en V . La matriz A de esta aplicación respecto a la base BV del espacio de
partida, y la base B 0 V del espacio de llegada, vendrá dada por columnas por las coordenadas de cada
vector vi en la base B 0 V , y es la que hemos llamado en el tema anterior matriz de cambio de base de
BV a B 0 V .
Como la aplicación id es inversible y su inversa vuelve a ser la identidad, se ve facilmente que la
matriz del cambio de base de BV a B 0 V y la matriz del cambio de base de B 0 V a BV son una inversa
de la otra. Entre otras cosas, deducimos que la matriz de un cambio de base es una matriz cuadrada
inversible.

E jemplo 7.3.7 Vamos a ver en un caso sencillito para qué sirven las matrices de cambio de base:
Supongamos que estamos trabajando en R2 y que, además de la base canónica, tenemos otra base
B = {(1, 1), (2, −1)}. ¿Cuáles son las coordenadas de los vectores (1, 2), (2, 0), (0, 1), (4, 5) respecto de la
base B? Esta pregunta se puede resolver sin necesidad de las matrices de cambio de base. Simplemente
plantearı́amos, para cada uno de los vectores que me dan en el enunciado, las igualdades

a1 (1, 1) + b1 (2, −1) = (1, 2)


a2 (1, 1) + b2 (2, −1) = (2, 0)
a3 (1, 1) + b3 (2, −1) = (0, 1)
a4 (1, 1) + b4 (2, −1) = (4, 5)

y halları́amos las incógnitas a1 , b1 , a2 , b2 , a3 , . . . Las coordenadas que nos piden son (a1 , b1 ) para el
vector (1, 1), (a2 , b2 ) para el vector (2, 0), (a3 , b3 ) para el vector (0, 1), etc, y se halları́an resolviendo
120 Capı́tulo 7. Aplicaciones Lineales

en cada caso un sistema lineal de dos ecuaciones con dos incógnitas (al igualar primeras coordenadas
entre sı́ sale una ecuación y al igualar segundas coordenadas entre sı́, sale otra ecuación). Pero... ¿no te
das cuenta de que la matriz del sistema en cada uno de los cuatro casos es siempre la misma? ¡¡Q uizás
haya alguna forma de hacer todos estos cálculos de una sola vez!! Para esto es para lo que sirve la
matriz de cambio de base. ¿Cuál es la matriz del cambio de base de la base B = {(1, 1), (2, −1)} a la
base canónica B = {(1, 0), (0, 1)}? Es la matriz que por columnas está formada por los vectores de B
en función de la base canónica, es decir,
!
1 2
B=
1 −1
¿Y cómo me relaciona las coordenadas de los vectores? Nos dan vectores respecto de la base canónica
y queremos hallarlos respeto de la base B, ası́ que necesitarı́amos la matriz de cambio de base de la
base canónica a la base B, que sabemos que es la inversa de la que acabamos de calcular, es decir,
B −1 , y se cumple:
! ! ! ! ! !
a1 1 a2 2 a3 0
= B −1 , = B −1 , = B −1 , etc.
b1 2 b2 0 b3 1
Es decir, simplemente hallando la inversa de B y haciendo los productos que se indican en la fórmula
anterior, podremos hallar las coordenadas en la base B de cualquier vector que nos den.

7.4. Matrices coordenadas y cambios de base


Ahora vamos a estudiar cómo varı́a la matriz coordenada de una aplicación cuando hacemos un
cambio de base en el espacio de partida y otro en el espacio de llegada.

Proposición 7.4.1 Sean V y W dos espacios vectoriales sobre K y sea f : V → W una aplicación
lineal. En V consideramos las bases BV = {v1 , . . . , vn } y B̃V = {ṽ1 , . . . , ṽn }, y en W consideramos
las bases BW = {w1 , . . . , wm } y B̃W = {w̃1 , . . . , w̃m }. Supongamos que P ∈ Matn (K) es la matriz de
cambio de base de B̃V a BV , mientras que Q ∈ Matm (K) es la matriz de cambio de base de B̃W BW .
L lamemos A a la matriz coordenada de f en las bases BV y BW , y B a la matriz coordenada de f en
las bases B̃V y B̃W . Entonces A y B se relacionan del siguiente modo

B = Q−1 AP.

Demostración:
Tomamos un vector cualquiera v ∈ V . Sean
   
x1 x̃1
 .   . 
X= .  . 
 .  coordenadas de v en BV ,  .  coordenadas de v en B̃V .
X̃ = 
xn x̃n
   
y1 ỹ1
 . 
..  coordenadas de f (v) en BW , Ỹ =  ...  coordenadas de f (v) en B̃W .
 
Y =   
ym ỹm
7.4. Matrices coordenadas y cambios de base 121

Por las ecuaciones matriciales de f , sabemos que

Y = AX, Ỹ = B X̃, (1)

mientras que las ecuaciones de cambio de base nos dicen que

X = P X̃, Y = QỸ . (2)

Por (1) y (2) tenemos que


(
Y = AX = AP X̃
|=⇒
{z } AP = QB |⇐⇒
{z } B = Q−1 AP.
Y = QỸ = QB X̃
para todo X̃ Q inversible

Nota 7.4.2 Si quieres recordar fácilmente cómo cambian las matrices de aplicaciones y los cambios
de base, suele venir bien el siguiente esquema:
A
z}|{
f : VBV −→ WBW
P ↑ ↑Q
f : VB̃V −→ WB̃W
|{z}
B

Si partes de la esquina inferior izquierda y quieres llegar a la esquina superior derecha, puedes ir por
dos caminos, que te tienen que dar los dos lo mismo:

QB = AP

(fı́jate que primero actúa B y luego Q, ası́ que cuando escriba la matriz de la composición, deberé poner
QB; lo mismo para el otro camino). Como QB = AP , despejando se llega a que B = Q−1 AP .

Definición 7.4.3 Dos matrices A, B ∈ Matm×n (K) se dicen matrices equivalentes si existen matri-
ces P ∈ Matn (K) y Q ∈ Matm (K) inversibles tales que B = Q−1 AP .

Nota 7.4.4 El ser matrices equivalentes es una relación de equivalencia, es decir, cumple las propiedades
reflexiva, simétrica y transitiva.

Proposición 7.4.5 Dos matrices A, B ∈ Matm×n (K) son matrices coordenadas de una misma apli-
cación lineal si y sólo si son matrices equivalentes.

Demostración:
=⇒) Lo acabamos de ver en 7.4.1.
⇐=) Suponer A y B son equivalentes, es decir, existen P y Q inversibles tales que B = Q−1 AP . Sea
fA : K n → K m la aplicación lineal definida en 7.3.4, que en las bases canónicas BC K n y BC K m tiene
matriz coordenada A. Consideremos en K n una nueva base BK n de modo que P sea la matriz de
122 Capı́tulo 7. Aplicaciones Lineales

cambio de base de BK n a BC K n , y consideremos una nueva base BK m en K m tal que Q sea la matriz
de cambio de base de BK m a BC K m . Si aplicamos la proposición 7.4.1 llegamos a que la matriz de fA
en las nuevas bases es Q−1 AP = B, es decir, A y B son matrices coordenadas de fA (en distintas
bases).


7.5. Endomorfismos
A partir de ahora, y especialmente en el capı́tulo siguiente, estudiaremos aplicaciones lineales
donde el espacio de partida coincide con el espacio de llegada. Estas aplicaciones lineales son los
endomorfismos. En estos casos, en vez de tomar bases distintas en el espacio de partida y en el espacio
de llegada, se suele trabajar con la misma base en ambos espacios.

Definición 7.5.1 Sea f : V → V un endorfismo y fijemos una base BV = {v1 , . . . , vn }. La aplicación f


queda fijada en cuanto se conozcan f (v1 ), . . . , f (vn ) y estos vectores quedan totalmente determinados
por sus coordenadas en la base BV . Llamemos (α1i , . . . , αni ) a las coordenadas de f (vi ) en la base BV ,
i = 1, . . . , n. Entonces
 
α11 α12 · · · α1n
 
 α21 α22 · · · α2n 
 
(f (v1 ) · · · f (vn )) = (v1 · · · vn )  . .. .. 
 .. . . 
 
αn1 · · · αnn
| {z }
A

La matriz A ∈ Matn (K) se llama matriz coordenada del endomorfismo f en la base BV . Notar
que es una matriz cuadrada, y que es única una vez fijada la base BV . La ecuación matricial del
endomorfismo f respecto de esta base es
   
y1 x1
 .
 = A  ...  ,
  
 ..
   
yn xn

donde (x1 . . . xn ) son las coordenadas de un vector cualquiera v ∈ V en la base BV y (y1 . . . yn ) son
las coordenadas de f (v) en la base BV . Además A es la única matriz que cumple esta ecuación.

Si particularizamos la Proposición 7.4.1 al caso de endomorfismos, obtendremos

Corolario 7.5.2 Sea V un espacio vectorial sobre K y sea f : V → V un endomorfismo. En V


consideramos las bases BV = {v1 , . . . , vn } y B̃V = {ṽ1 , . . . , ṽn } y supongamos que P ∈ Matn (K) es la
matriz de cambio de base de B̃V a BV . Llamemos A a la matriz coordenada del endomorfismo f en la
base BV , y B a la matriz coordenada de f en la base B̃V . Entonces A y B se relacionan del siguiente
modo
B = P −1 AP.
7.5. Endomorfismos 123

Definición 7.5.3 Dos matrices A, B ∈ Matn (K) son matrices semejantes si existe una matriz P ∈
Matn (K) inversible tal que B = P −1 AP .

Si reescribimos la Proposición 7.4.5 para el caso particular de endomorfismos, obtendremos

Corolario 7.5.4 Dos matrices A, B ∈ Matn (K) son matrices coordenadas de un mismo endomorfismo
si y sólo si son matrices semejantes.

El capı́tulo siguiente se encarga de estudiar los endomorfismos que tienen una matriz coordenada
diagonal o, dicho con otras palabras, se encarga de decidir cuándo una matriz cuadrada es semejante
a una matriz diagonal.

B ibliografı́a y lecturas recomendadas


De cara a completar los conceptos vistos a lo largo del capı́tulo, se puede consultar el capı́tulo
de ((Aplicaciones Lineales)) (en ocasiones, también llamadas ((Funciones Lineales))) de prácticamente
cualquier libro de Álgebra Lineales, pero se recomiendan especialmente las siguientes referencias y
lecturas:

1. J. Arvesú ,R .A´ lva r ez,F .M a rcellá n , ((A´ lg e b r a L in e a l )), E ditorialSı́ntesis (1999):E lcapı́tu-
lo 4 (pag. 101-120) se dedica a las aplicaciones lineales e incluye num erosos ejem plos resueltos y
ejercicios propuestos.

2. R .C r ia d o , A .B u jo sa , C .V eg a y R .B a n er jee, ((F u n d a m e n to s m a te m a´ tic o s I: A´ lg e b r a y


e c u a c io n e s d ife r e n c ia le s c o n c o e fi c ie n te s c o n s ta n te s )). E ditorialC entro de E studios R am ón A re-
ces.

3. R .C r ia d o y A .G a llin a r i, ((A´ lg e b r a )) (2003), puede bajarse en la dirección w eb

h ttp :/ / w w w .e s c e t.u r jc .e s / ∼m a te m a ti/ a lg iti/ a lg 0 3 .p d f.

4. S .L a n g , ((L in e a r A lg e b r a )). E ditorial Springer

5. D .L ay , ((A´ lg e b r a L in e a l y s u s a p lic a c io n e s . E ditorial P rentice H all.

6. L .M er in o y E .S á n ch ez, ((A´ lg e b r a L in e a l c o n m e´ to d o s e le m e n ta le s )). E ditorial T hom son.


124 Capı́tulo 7. Aplicaciones Lineales

S-ar putea să vă placă și