Sunteți pe pagina 1din 102

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS

Fundada en 1551

FACULTAD DE CIENCIAS FISICAS

E.A INGENIERIA MECANICA DE FLUIDOS

ALGEBRA LINEAL

ESPACIOS VECTORIALES, SUBESPACIOS Y TRANSFORMACIONES


LINEALES

ASIGNATURA: MATEMATICA BASICA II

SEMESTRE ACADEMICO: 2018-0

PROFESOR: JOSE SIMEON QUIQUE BRONCANO

AUTOR:

HERRERA MORENO MIGUEL ANGEL

LIMA-PERÚ

2018
DEDICATORIA

Dedico este trabajo de investigación a quienes me han apoyado a lo largo del


tiempo de elaboración, y al docente del curso con mucho respeto, a la vez
incentivo a la comunidad universitaria, el cual formo parte, a la investigación de
temas de índole matemática como este.

2
INDICE

1. Introducción………………………………………………………………………… 1
2. Espacios vectoriales………………………………………………………………..2
3. Subespacios vectoriales…………………………………………………………...5
a. Intersección de subespacios vectoriales…………………………………8
b. Suma de subespacios vectoriales………………………………………...9
c. Independencia lineal……………………………………………………….11
d. Bases………………………………………………………………………..14
e. Dimensión……….………………………………………………………….16
f. Producto interno……………………………………………………………17
g. Ortogonalizacion,Metodo de otrogonalizaqcion de Gram Schmidt
………………………………………………………………………………..20
h. Ortonormalizacion………………………………………………................22
i. Espacio Cociente…………………………………………………………..23
j. Rango de un conjunto de vectores……………………………………….24
k. Sistema de generadores…………………………………………………..27
l. Ejercicios resueltos…………………………………………….................32
4. Transformaciones lineales………………………………………………………...54
a. Núcleo e Imagen de una Transformación lineal………………………...59
b. Composición de transformaciones lineales……………………………..63
c. Espacios vectoriales de Dimensión infinita………………………….….64
d. Teorema de la Dimensión……………………………………………..….65
e. Proyectores……………………………………………………………...….68
f. Representación Matricial…………………………………………………..70
g. Matriz de la composición. Cambios de bases…………………………..72
h. Rango de una Matriz…………………………………………………….…73
i. Equivalencia de Matrices……………………………………………….…77
j. Espacios Vectoriales de Transformaciones Lineales…………………..78
k. Teorema Fundamental de las Transformaciones Lineales……………81
l. Transpuesta de una Transformación Lineal………………………….…82
m. Ejercicios resueltos………………………………………………………..86
5. Referencias Bibliográficas………………………………………………………..99

3
INTRODUCCION

El siguiente trabajo de investigación abarcara los temas de Espacios Vectoriales,


Subespacios vectoriales y Transformaciones lineales el cual son temas
importantes de la Algebra Lineal, pero para ello deberíamos definir que es en si:
El álgebra lineal es una rama de las matemáticas relacionadas con el estudio de
vectores (familias de vectores o espacios lineales)

Ha cobrado mayor importancia con el uso de computadoras, porque se requiere


un numero grande de operaciones, además su importancia se
eleva súbitamente con el uso y presencia actual de las computadoras y de
manera generalizada todo el campo de la informática y la computación.

La gran mayoría de los algoritmos computacionales usados en


muchas áreas como la optimización, aproximaciones de funciones y/o
ecuaciones diferenciales, por citar algunos, requieren de soluciones directas o
indirectas de algún problema de álgebra lineal como mínimo.

Podemos catalogar el Álgebra Lineal como un tema demasiado extenso de


las matemáticas; su rango de acción se extiende desde la abstracción a
la aplicación, donde surgen gran cantidad de aplicaciones interesantes, las
cuales pueden enfocarse en la teoría, o en prácticas como lo
son áreas específicas de la arqueología, la demografía, la ingeniería eléctrica,
el análisis de tráfico, la criptografía, etc.

1
ESPACIOS
VECTORIALES

2
ESPACIOS VECTORIALES

Sea K un cuerpo. Denominaremos a los elementos de K escalares.


Definición Un espacio vectorial sobre K es un conjunto V cuyos elementos se
denominan vectores y en el cual hay definidas dos operaciones: una operación
interna o suma de vectores tal que

(V,+)es un grupo abeliano

El elemento neutro los denotamos como~0 (para distinguirlo del elemento neutro
del cuerpo K) , y lo llamaremos el vector cero.

Además hay definida una operación llamada el producto de un escalar por un


vector, es decir, una aplicación K × V → V , verificando para cualesquiera λ,λ1,λ2
∈ K y para cualesquiera u,v ∈ V que:

1. λ(u + v) = λu + λv
2. (λ1 + λ2)u = λ1u + λ2u
3. λ1(λ2u) = (λ1 · λ2)u
4. 1·u=u

Ejemplos

1. El conjunto V = R × R es un espacio vectorial sobre el cuerpo R con respecto


de la operaciones

El vector cero es 0 = (0,0).

2. Sea V = Q[x]3 = {a0 + a1x + a2x2 + a3x3 | ai ∈ Q} el conjunto de todos los


polinomios con coeficientes en Q y de grado menor o igual que tres.
Entonces V es un espacio vectorial sobre Q con respecto de las operaciones
suma de polinomios y el producto de un escalar por un polinomio:
λ · (a0 + a1x + a2x2 + a3x3) = (λa0) + (λa1)x + (λa2)x2 + (λa3)x3

3. Si V1,V2,...,Vn son espacios vectoriales sobre un mismo cuerpo K, entonces el


producto cartesiano V = V1 × V2 × ... × Vn es de nuevo un espacio vectorial sobre
K respecto de las operaciones
(u1,u2,...,un) + (v1,v2,...,vn) = (u1 + v1,u2 + v2,...,un + vn) λ · (u1,u2,...,un) = (λ · u1,λ ·
u2,...,λ · un)
El vector cero de
1
3
4. El conjunto V = {(x1,x2,x3) ∈ R3 | x1 − 4x2 − 5x3 = 0} es un espacio vectorial
sobre R. V también se puede describir como el conjunto

{λ1 · (4,1,0) + λ2 · (5,0,1) | λ1,λ2 ∈ R}


5. Más generalmente, el conjunto de las soluciones de un sistema homogéneo
de ecuaciones lineales sobre un cuerpo K, es un espacio vectorial sobre K.

6. Es inmediato comprobar que todo cuerpo K se puede considerar como un


espacio vectorial sobre si mismo. En este caso, las operaciones sobre vectores
coinciden con las correspondientes operaciones sobre escalares.

7. El conjunto Mm×n(K) es un espacio vectorial sobre K.


Las siguientes propiedades generales se deducen de la definición de espacio
vectorial:

Propiedad. Sea V un espacio vectorial sobre K. Entonces:


1. ∀u ∈ V, 0 · u = ~0
2. ∀λ ∈ K, λ ·~0 = ~0
3. Dados λ ∈ K,u ∈ V , si λ · u = ~0 entonces λ = 0 ´o u = ~0.
4. ∀λ ∈ K,∀u ∈ V , (−λ)u = −(λu) = λ(−u)
5. ∀λ ∈ K,∀u,v ∈ V , λ(u − v) = λu − λv
6. ∀λ1,λ2 ∈ K,∀u ∈ V , (λ1 − λ2)u = λ1u − λ2u
7. Dados entonces λ = µ.
8. Dados λ ∈ K,λ 6= 0, y u,v ∈ V , si λ · u = λ · v entonces u = v.

Definición Dados los vectores u1,u2,...,un ∈ V , y los escalares λ1,λ2,...,λn ∈ K, un


vector de la forma
λ1u1 + λ2u2 + ... + λnun
se denomina una combinación lineal de los vectores u1,u2,...,un con coeficientes
λ1,λ2,...,λn.

4
SUBESPACIOS
VECTORIALES

5
SUBESPACIOS VECTORIALES

Definición. Sea VV un espacio vectorial y WW un subconjunto no vacío de VV.


WW es un subespacio de VV si WW es en sí mismo un espacio vectorial con las
mismas operaciones (suma de vectores y producto por un escalar) definidas
en VV.

Ejemplo. W={(x1,x2)∈R2:x2=3x1}W={(x1,x2)∈R2:x2=3x1} ¿es un subespacio


de R2?

Primero analicemos el conjunto WW. Son todos vectores de R2 tales que la


segunda componente es el triple de la primera:

(x1,3x1)=x1(1,3)(x1,3x1)=x1(1,3)

W es la recta que pasa por el origen y tiene vector director (1,3), o sea la recta de
ecuación y = 3x.

Para decidir si WW es un subespacio de R2R2 habría que verificar que se


cumplen los axiomas del 1 al 10. El lector puede comprobar que todos se
cumplen en este caso.

Pero en general no es necesario verificar los axiomas porque existe un criterio


sencillo para determinar si un subconjunto WW de un espacio vectorial VV es un
subespacio, es el que sigue.

Condiciones para caracterizar subespacios

Sea W un subconjunto de un espacio vectorial V(W⊆V)(W⊆V)


W es subespacio de V si y solo si cumplen las siguientes condiciones:

1.0v esta en W

2.Si u y v están en W, entonces u+v esta en W.

3.Si u esta en W y k es un escalar, ku esta en W.

6
INTERSECCIÓN DE SUBESPACIOS VECTORIALES.

Proposición Sean S1 y S2 dos subespacios vectoriales de V , la intersección S1 ∩


S2 es un subespacio vectorial.

Prueba: En primer lugar tenemos en cuenta que S1∩S2 es no vacío, porque ¯0 ∈


S1 y ¯0 ∈ S2. Ahora comprobamos la condición de subespacio vectorial.
Sean ¯x,y¯ ∈ S1∩S2 y α,β ∈ IK.
Se tiene:

7
SUMA DE SUBESPACIOS VECTORIALES.

En primer lugar, observemos que la unión de subespacios vectoriales no tiene


por qué ser un subespacio vectorial. Por ejemplo, consideramos:

V = IR2;S1 = {(x,0) ∈ IR2, x ∈ IR};S2 = {(0,y) ∈ IR2, y ∈ IR}.

Si tomamos (1,0) ∈ S1∪S2 y (0,1) ∈ S1∪S2, se tiene (1,0) +(0,1) = (1,1)∉S1∪S2 y


por tanto la unión de S1 y S2 no es un subespacio vectorial.

Sin embargo, dados dos subespacios vectoriales si podremos definir el


subespacio suma, mayor que la unión.

Definición Sean S1 y S2 dos subespacios vectoriales de V , definimos la suma de


S1 y S2 como:
S1 + S2 = {x¯1 + ¯x2 con x¯1 ∈ S1 y x¯2 ∈ S2}

Proposición La suma de dos subespacios vectoriales es un subespacio


vectorial. Prueba: Sean S1,S2 ∈ V dos subespacios vectoriales de V . Tomemos
¯x,y¯ ∈ S1+S2
y α, β ∈ IK. Se tiene:

x¯ ∈ S1 + S2 ⇒ x¯ = ¯x1 + ¯x2, con ¯x1 ∈ S1, x¯2 ∈ S2


y¯ ∈ S1 + S2 ⇒ y¯ = ¯y1 + ¯y2, con ¯y1 ∈ S1, y¯2 ∈ S2

α·x¯+β ·y¯ = α·(¯x1 + ¯x2)+β ·(¯y1 + ¯y2) = α · x¯1 + β · y¯1 +α · x¯2 + β · y¯2 ∈ S1
+S2.

Proposición La suma de dos subespacios vectoriales es el menor subespacio


vectorial que contiene a unión.

Prueba: Sean S1,S2 ∈ V dos subespacios vectoriales de V . En primer lugar esta´


claro que S1 ∪ S2 ∈ S1 + S2. Ahora sea S un subespacio conteniendo a S1 ∪ S2 y
veamos que S1 + S2 ⊂ S.

x¯ ∈ S1+S2 ⇒ x¯ = ¯x1+¯x2 con

Este concepto de generaliza de manera natural para un número finito de


subespacios.

Definición Sean S1,S2,...,Sk subespacios vectoriales de V , definimos su suma


como:
S1 + S2 + ... + Sk = {x¯1 + ¯x2 + ... + ¯xk con x¯1 ∈ S1,x¯2 ∈ S2, ,...,x¯k ∈ Sk}
8
SUMA DIRECTA

Definición Sean S1,S2 dos subespacios vectoriales de U. Si S1 ∩ S2 = {¯0},


entonces al espacio suma S1 +S2 se le llama suma directa de S1 y S2 y se denota
por:
S1 ⊕ S2.

Proposición Sean S1,S2 dos subespacios vectoriales de U. La suma S1 + S2 es


una suma directa si y solo si todo elemento de S1 + S2 se descompone de
manera única como suma de un elemento de S1 y otro de S2.

Prueba: Supongamos en primer lugar que la suma es directa, es decir S 1∩S2 =


{¯0}. Veamos que entonces la descomposición es única. Sea ¯x ∈ S1 + S2. Si:

x¯ = ¯x1 + ¯x2 = ¯y1 + ¯y con ¯x1, y¯1 ∈ S1 y ¯x2, y¯2 ∈ S2


entonces

x¯1 − y¯1 = ¯y2 − x¯2 ∈ S1 ∩ S2 ⇒ x¯1 − y¯1 = ¯y2 − x¯2 = ¯0 ⇒ x¯1 =


¯y1, x¯2 = ¯y2.

Ahora supongamos que la descomposición es única y veamos que la suma es


directa. Hay que comprobar que S1∩S2 = {¯0}. Sea ¯x ∈ S1∩S2; puede
descomponerse como: x¯ = ¯x + ¯0 con ¯x ∈ S1,¯0 ∈ S2, y también x¯ = 0 + ¯x
con 0¯ ∈ S1,x¯ ∈ S2.

Por la unicidad de la descomposición deducimos que ¯x = ¯0.

Este concepto puede ser generalizado a más de dos subespacios.

Definición Sean S1,S2 ...,Sk subespacios vectoriales de U. Si (S1+...+Si)∩ Si+1 =


{0} para cualquier i, 1 ≤ i ≤ k−1 entonces al espacio suma S1+S2+...+Sk se le
llama suma directa de S1,S2,...,Sk y se denota por:
S1 ⊕ S2 ⊕ ... ⊕ Sk.

Proposición Sean S1,S2,...,Sk subespacios vectoriales de U. La suma S1 + S2


+...+Sk es una suma directa si y solo si todo elemento de S1 +S2 +...+Sk se
descompone de manera única como suma de elementos de S1,S2,...,Sk.

Prueba: Supongamos que la suma es directa. Sea ¯x ∈ S1 + ... + Sk y


supongamos que tenemos dos descomposiciones distintas de

¯x: x¯ = ¯x1 + ... + ¯xk = ¯y1 + ... + ¯yk, x¯i,y¯i ∈ Si, i = 1,2,...,k.

9
Entonces aplicando que (S1+...+Sk−1)+Sk es una suma directa vemos que xk = yk,
y:

x¯1 + ... + ¯xk−1 = ¯y1 + ... + ¯yk−1.

Utilizando ahora que (S1+...+Sk−2)+Sk−1 es una suma directa vemos que xk−1 =
1,
x¯1 + ... + ¯xk−2 = ¯y1 + ... + ¯yk−2.

Repitiendo el proceso deducimos que xi = yi para i = 1,2,...,k.

Recíprocamente supongamos que la descomposición es única. Veamos que


para cualquier i = 2,...,k, (S1 + ... + Si) + Si+1 es una suma directa.
Cualquier ¯x ∈ S1 +...+Si se escribe como suma de elementos de S1,...,Si. Por
hipótesis esta descomposición es única. Aplicando la Proposición 2.10
deducimos que la suma es directa, es decir, (S1 + ... + Si) ∩ Si+1 = {¯0}.

10
INDEPENDENCIA LINEAL

Los vectores v1,...,vn ∈ V son linealmente independientes (LI) si y solo si (sii) la


ecuación

α1v1 + ... + αnvn = 0

α1 = α2 = ... = αn = 0

implica

De lo contrario, los vectores son linealmente dependientes (LD).


Para n = 1, esta definición implica que v1 es LI sii es un vector no nulo (Prop.
básica d).

Si n > 1, los vectores son LD sii al menos uno de ellos puede escribirse como
combinación lineal de los restantes, es decir, si pertence al espacio generado por
los restantes. En efecto, si son LD existe al menos un αi, por ej., α1, que es no
nulo (α1 6= 0). En tal caso,

v1 = −(α2v2 + ... + αnvn)/α1

Análogamente, si v1 = α2v2+...+αnvn ⇒ v1−α2v2−...−αnvn = 0, siendo α1 = 1 ≠ 0, por


lo que son LD.

Para n = 2, esto implica que dos vectores no nulos son LI sii no son
proporcionales (es decir sii ∄ α ∈ K t.q. v2 = αv1). En V = R3, tres vectores no
nulos y no paralelos son LI sii ninguno de ellos pertenece al plano generado por
los otros dos.

Si uno de los vectores es nulo, los vectores v1,...,vn son LD: Por ejemplo, si v1 = 0
⇒ α1v1+0v2+...+0vn = 0 para α1 6= 0, lo que implica que son LD.

En general, si el conjunto {v1,...,vn} contiene un subconjunto de vectores LD


entonces el conjunto total es LD (Probar).

Teorema. Sean {b1,...,bn} n vectores LI. Entonces los n vectores

11
son LI si y sólo si la matriz S de coeficientes Sij (de n × n) es no singular (Det[S]
6= 0).

Demostración. Si

debe ser βi = 0 para i = 1,...,n por ser los bi LI. Es


decir,, o en forma matricial,

Esto constituye un sistema de n ecuaciones lineales homogéneas con n


incógnitas αj, j = 1,...,n. Si los vj son LI, la única solución de este sistema debe ser
αj = 0 ∀j y por lo tanto la matriz S debe ser no singular. Por otro lado, si S es no
singular, la única solución del sistema es αj = 0 para j = 1,...,n y por lo tanto los
vectores vj son LI.

Corolario: Si S es no singular, el subespacio generado por M = {b1,...,bn} y M′ =


{v1,...,vn} es

el mismo (M = M′).
Dem.: Si S es no singular, existe la matriz inversa S−1, t.q. SS−1 = S−1S = I, es
decir, δki. Esto implica que existe la transformación inversa
de (1), dada por

(2)
Ya que:

Por lo tanto, de (1) es obvio que M′ ⊂ M (pues,

12
con, )y de (2) es obvio que M ⊂ M′ (pues,
con ), por lo que M = M′.

Ejemplo: Si {e1,e2,e3} es un conj. LI en un cierto espacio, los vectores


v1 = e1, v2= e1 + e2 y v3 = e1 + e2 + e3 son LI ya que

Como ,

La transformación inversa está dada


por
, como es fácil comprobar. Los vectores {v1,v2,v3} generan pues el mismo
subespacio que {e1,e2,e3}.

13
BASES
Sea V un espacio vectorial, que supondremos distinto del subespacio trivial S =
{0}. Un conjunto finito B = {b1,...,bn} ⊂ V es una base de V si los vectores de B

1.Son LI

2.Generan V(B = V ).

La base no es única. Si B es una base de V , cualquier conjunto


vectores linealmente independientes es también una
base (ver teorema anterior y prop. 1) abajo).

Ejemplo

Si V = Rn, el conjunto B = {e1,e2,...,en}, con ei = (0,...,0,1(i),0,...,0), es una base,


denominada base canónica de Rn.

En efecto, son LI pues si 0 = α1e1 + ... + αnen = (α1,...,αn) ⇒ α1 = ... = αn = 0. Y


generan V pues (x1,...,xn) = x1e1 + ...xnen.

Pero también es base el conjunto {(1,0,...,0),(1,1,0,...,0),...,(1,1,...,1)}.

Ejemplo :

Si V es el subespacio de polinomios de grado ≤ 2, una base es {e 1,e2,e3}, donde


e1 = 1, e2 = x, e3 = x2, denominada también base canónica.

Si V es generado por un conjunto finito de vectores M = {v1 ...,vm} y V 6= {0} ⇒


existe una base B = {b1,...,bn} de V incluida en M.

Del teorema de la sección anterior se desprenden ahora las sigs. propiedades


fundamentales. Si B = {b1,...,bn} es una base de V , entonces:

Cualquier conjunto de n vectores LI {v1,...,vn} ⊂ V es también una base de V .

Demostración. Como B es base, los n vectores vj pueden ser escritos en la


forma (1), con S no singular dado que son LI. Pero en tal caso el espacio
generado es el mismo, por lo que forman también una base de V .

14
En particular, los n vectores , forman una base de V sii S
es no singular.

Todo conjunto de n + 1 vectores {v1,...,vn+1} ⊂ V es LD.

Demostración Supongamos que son LI. ⇒ los primeros n vectores son LI. Pero
en tal caso forman una base, por el corolario anterior, por lo que vn+1 pertenece al
espacio generado por ellos y el conjunto es entonces LD.

Todo conjunto con m > n vectores es por lo tanto también LD. Y un conjunto con
m < n vectores no podría ser base, pues en tal caso B no sería base.

15
DIMENSION

Como consecuencia, todas las bases de un espacio V tienen el mismo número


de elementos, n. A ese número se lo denomina dimensión del espacio V : n =
dimV .
Representa el máximo número de vectores LI. Un espacio en el que ∃ un No
arbitraria. grande de vectores LI se dice que tiene dimensión infinita. Ejemplo:

La dimensión de Rn es n, y la de Rm×n, m · n. La de RR es ∞.

La dimensión de Cn(C) es también n (una base es {e1,...,en}, con ej =


(0,...,1(j),...,0), j = 1,...,n), mientras que la dimensión de Cn(R) es 2n (una base es
{e1,...,en,e˜1,...e˜n}, con ˜ej = (0,...,i(j),...,0)).

16
PRODUCTO INTERNO

Algunas nociones geométricas en R2 y en R3 pueden definirse a partir del


producto escalar.
La definición que sigue es una generalización del producto escalar a otros
espacios vectoriales.

Definición Sea V un espacio vectorial sobre R (respectivamente C). Un producto


interno sobre V es una función Φ : V × V → R (respectivamente C) que cumple:

i) Para cada α ∈ R (respectivamente C), y v,w,z ∈ V

ii)

(Notar que esta condición implica que para cada v ∈ V , Φ(v,v) = Φ(v,v), es decir
que Φ(v,v) ∈ R.) iii) Φ(v,v) > 0 si v 6= 0.

Notación. Si Φ es un producto interno, escribiremos Φ(v,w) = hv,wi.

Definición A un espacio vectorial real (respectivamente complejo) provisto de un


producto interno se lo llama un espacio euclıdeo (respectivamente espacio
unitario).

Observación De las condiciones i) y ii) de la definición de producto interno se


deduce que si Φ : V × V → R (respectivamente C) es un producto interno, para
cada α ∈ R (respectivamente C), y v,w,z ∈ V vale:

Ejemplos. Se puede comprobar que las funciones Φ definidas a continuación


son productos internos sobre los espacios vectoriales correspondientes:

Producto interno canónico en Rn:


Φ((x1,...,xn),(y1,...,yn)) = x1y1 + ··· + xnyn.

17
Producto interno canónico en Cn:

Φ((x1,...,xn),(y1,...,yn)) = x1y1 + ··· + xnyn.

Dada B ∈ Cm×n, denotamos por B∗ ∈ Cn×m a la matriz transpuesta conjugada de B,


es decir, a la matriz definida por (B∗)ij = Bji. Se define Φ : Cm×n × Cm×n → C como
Φ(A,B) = tr(A.B∗).

Si a < b ∈ R y C[a,b] = {f : [a,b] → R / f continua}, se define Φ : C[a,b]×C[a,b] → R


como

Dado un espacio vectorial V es posible definir distintos productos internos sobre


V . En el ejemplo siguiente veremos una familia de productos internos en R2.

Ejemplo. Sea Φ : R2 × R2 → R definida por


Φ((x1,x2),(y1,y2)) = x1y1 − x1y2 − x2y1 + α.x2y2

Hallar todos los valores de α ∈ R para los cuales Φ es un producto interno.


Es inmediato verificar que, para cualquier α ∈ R se cumplen las condiciones
i) y ii) de la definición de producto interno. Veamos para que valores de α se
cumple la condición iii). Se tiene que

Φ((x1,x2),(x1,x2)) = x21 − 2x1x2 +


αx22
= x21 − 2x1x2 +
x22 + (α −
1)x22
= (x1 − x2)2 + (α
− 1)x22

De esta igualdad se deduce que Φ(v,v) > 0 ∀v 6= 0 ⇐⇒ α > 1.

En consecuencia, Φ es un producto interno si y s´olo si α > 1.


18
BASES ORTOGONALES Y MÉTODO DE
ORTOGONALIZACIÓN DE GRAM-SCHMIDT

ORTOGONALIZACION

Decimos que es una base ortogonal si los vectores que la forman son
perpendiculares entre si.

METODO DE ORTOGONALIZACIO NDE GRAM-SCHMIDT

El método de ortogonalización de Gram-Schmidt nos permite transformar una


base cualquiera {v1, . . . , vr} de un subespacio W de Rn o Cn una base ortogonal
del mismo.

Para comprender la idea fundamental de este método basta comprender el caso


especial en el que tenemos solamente dos vectores linealmente independientes,
v1 v2.

En este caso, para obtener un sistema ortogonal a partir de estos vectores basta
sustituir v2 por su componente transversal respecto a v1, de manera que
pasamos de la base {v1, v2} a la base ortogonal {u1, u2} definiendo:

Esta idea puede repetirse el número de veces que sea necesario para convertir
cualquier conjunto libre de vectores en un conjunto ortogonal.

En general, un sistema de r vectores independientes {v1, . . . , vr} se transforma


en un sistema ortogonal en r pasos en cada uno de los cuales (excepto en el
primero) se sustituye un vector vi+1 por su componente transversal respecto al
subespacio W i = Gen{v1, . . . , vi} = Gen{u1, . . . , ui} generado por los vectores
anteriores:

19
Por ejemplo, si partimos de tres vectores independientes v1, v2, v3, éstos
quedarían transformados en un conjunto ortogonal en tres pasos:

Cuando se realizan cálculos a mano conviene tener presente que los vectores ui
que se van obteniendo paso a paso pueden ser a su vez sustituidos por un
múltiplo escalar cualquiera, cui, con el fin de eliminar denominadores de las
fracciones que pudieran haberse obtenido y de esta forma facilitar los cálculos
del paso siguiente. Veamos esto con un ejemplo.

Ejemplo:

Aplicar el proceso de Gram-Schmidt al conjunto libre de vectores de R4 siguiente:

Solución: Tomando u1 = v1 calculamos

y eliminando

denominadores

Finalmente:

con lo cual hemos obtenido la base ortogonal:

20
ORTONORMALIZACIÓN

En algunos casos, puede ser necesario obtener una base ortonormal, es decir,
una base en la base ortonormal que no solo sean los vectores ortogonales dos a
dos, sino que además, cada vector de la base sea un vector unitario.

Una vez conseguida una base ortogonal, no hay más que “normalizar” cada uno
de los vectores hallados para convertirla en una basa ortonormal haciendo una
operación de reescalado con cada vector.

Por ejemplo, si después de obtener la base del ejemplo anterior deseamos


convertirla en un sistema ortonormal, calculamos la norma de cada vector:

y dividiendo cada vector por su norma obtenemos la base ortonormal:

21
ESPACIO COCIENTE

Teorema. Sea E espacio vectorial sobre el cuerpo KK y FF un subespacio


de E. Sea (E/F,+)(E/F,+) el correspondiente grupo cociente, cuya operación
suma sabemos que está definida mediante: (x+F)+(y+F)=(x+y)+F.

Se define la operación ley externa:

λ(x+F)=(λx)+F, ∀λ∈K ∀(x+F)∈E/F.

Entonces, E/F es espacio vectorial sobre K con las operaciones mencionadas.

Definición. Al espacio vectorial del teorema anterior, se le llama espacio


vectorial cociente determinado por el subespacio F.

Teorema. Sea E un espacio vectorial sobre el cuerpo K de dimensión n y


sea F⊂E un subespacio vectorial.

Supongamos que BF={u1,…,ur}BF={u1,…,ur} es base de F


que BE={u1,…,ur,ur+1,…,un}BE={u1,…,ur,ur+1,…,un} es base de E.

Entonces, una base de E/Fes

BE/F={ur+1+F,…,un+F}.BE/F={ur+1+F,…,un+F}.

Como consecuencia dimE/F=dimE−dimF, igualdad válida también para los


casos r=0 o r= n.

22
RANGO DE UN CONJUNTO DE VECTORES

Ejemplo.
Consideremos en ℜ2 el conjunto de vectores (2,0), (0,1), (4,3), (2,5); vamos a
aplicar la propiedad 6) anterior.

Este conjunto es linealmente dependiente puesto que observamos que algún


vector es combinación de los demás; concretamente

(4,3) = 2 (2,0) + 3 (0,1)

Suprimimos por tanto el vector (4,3) ; el conjunto restante (2,0), (0,1), (2,5) sigue
siendo ligado puesto que

(2,5) = 1 (2,0) + 5 (0,1)

Suprimimos el vector (2,5), el conjunto restante (2,0), (0,1) ya es independiente


(son dos vectores y uno no es múltiplo del otro).

También podríamos haber seguido otro camino, por ejemplo, viendo que (2,0) es
combinación lineal de los demás (compruébese) y suprimiéndolo. El conjunto
restante (0,1), (4,3), (2,5) sigue siendo ligado; vemos que (0,1) es combinación
lineal de los demás y lo suprimimos.

Llegamos entonces al conjunto (4,3), (2,5) que ya es independiente.

Por los dos caminos llegamos a distintos conjuntos independientes. Pero ambos
constan del mismo número de vectores (dos en este caso).

Teorema: Rango de un conjunto de vectores.

Dado un conjunto de vectores, si quitamos aquellos que sean combinación lineal


de los demás, queda finalmente un cierto número de vectores, que ya son
independientes.
Este número no depende del camino seguido, y se llama rango del conjunto de
vectores.
23
El rango es, por tanto, el número de vectores independientes que contiene el
conjunto.

Propiedades del rango.

1) En ℜn , el rango de un conjunto de vectores es igual al rango de la matriz que


forman colocándolos en filas o en columnas (habitualmente se hace por
columnas).

2) Dados m vectores, si su rango es m significa que son linealmente


independientes.

3) En particular, si tenemos n vectores en ℜn , la matriz que forman es cuadrada,


por lo que se puede calcular su determinante:
- Serán independientes si el rango de la matriz es n, es decir, si el determinante
es no nulo.
- Serán dependientes si el determinante es nulo.

4) Dado un conjunto de vectores, si al eliminar uno de ellos se conserva el rango


del conjunto, entonces dicho vector depende linealmente de los demás.
Si por el contrario al eliminarlo disminuye el rango, entonces es independiente de
los demás.

5) Dado un conjunto de vectores, si al añadir un nuevo vector se conserva el


rango del conjunto, entonces el nuevo vector depende linealmente de los
anteriores.
Si por el contrario al añadirlo aumenta el rango, entonces el nuevo vector es
independiente de los anteriores.

Ejemplos.
1. En ℜ4 determinar el rango de los vectores (1,2,3,4), (0,1,6,–1), (3,3,1,0) :

La matriz que forman por columnas es cuyo rango es 3

(Lo que puede comprobar escalonando la matriz)

Esto significa que los 3 vectores son linealmente independientes.


24
2. En ℜ2 determinar el rango de los vectores (1,3), (5,8). Como la matriz que
forman es

cuadrada se puede calcular su determinante. Como éste es no


nulo, los vectores

son linealmente independientes.

3. En ℜ3 determinar el rango de los vectores u=(1,0,0), v=(0,1,0), w=(1,1,0),


k=(0,0,1).

La matriz que forman por columnas es en la cual (ya está


escalonada)

Se aprecia que el rango es 3. Esto quiere decir que de los 4 vectores, sólo 3 son
independientes, y el otro es combinación lineal de los demás.

Observación.
En un caso como el 3 anterior, el cálculo del rango nos dice cuántos vectores son
independientes, pero no cuáles. Aunque el rango sea 3, no está garantizado que
3 vectores cualesquiera vayan a ser independientes. Por ejemplo en este caso,
u,v,w no lo son.

Para saber cuáles lo son, se pueden tomar los correspondientes a las columnas
pivotales después de escalonar la matriz (en este caso u, w, k).

También podemos verlo usando la propiedad 4) del rango, quitando el vector que
no haga disminuir el rango: en este caso podemos quitar v. Otra posibilidad es
quitar u, o también w.
Pero no podemos quitar k, pues entonces disminuiría el rango.

25
SISTEMAS GENERADORES

Subespacio generado y sistema generador.

Dado un conjunto de vectores v1, . . . , vr , el conjunto de todas las posibles


combinaciones lineales de ellos se llama subespacio generado (o engendrado)
por v1, . . . , vr .
Se dice también que dichos vectores son un sistema generador del subespacio
(o del espacio, en su caso).

Observación.

Notar que, dado un conjunto de vectores, el conjunto de todas sus


combinaciones lineales es efectivamente un subespacio:
- la suma de dos combinaciones lineales de v1, ... , vr es otra combinación lineal
de v1, ... , vr . - el producto de un escalar por una combinación lineal de v1, ... , vr
es otra combinación lineal de v1, ... , vr .

Ejemplos.

1) En ℜ2, un vector no nulo v genera una recta ( los vectores de la forma αv ).

2) En ℜ3: Dos vectores generan un plano.


Tres vectores que estén en el mismo plano, generan ese plano.
Tres vectores que no estén en el mismo plano, generan todo el espacio ℜ3.

3) Veamos qué subespacio generan en ℜ3 los vectores (1,0,0) y (0,1,0): las


combinaciones lineales de ellos serán de la forma α (1,0,0) + β (0,1,0)
es decir de la forma { (α, β, 0) : α, β ∈ ℜ } que es la expresión paramétrica del
plano XY.

4) Obtener un sistema generador del subespacio S={ (λ, µ, 2λ+µ) : λ,µ∈ ℜ } de


ℜ3.
Observemos que
(λ, µ, 2λ+µ) = λ (1,0,2) + µ (0,1,1) por tanto los vectores de S son exactamente
las combinaciones lineales de (1,0,2) y (0,1,1).

1
Así pues, estos dos vectores son un sistema generador de S.
Por supuesto pueden encontrarse otros sistemas generadores diferentes para
S (de hecho hay infinitas posibilidades).

5) Un sistema generador de ℜ2 es (1,0), (0,1). En efecto, todo vector (a,b)∈


ℜ2 se puede poner como combinación lineal de ellos: (a,b) puede expresarse
como a (1,0) + b (0,1)

6) Otro sistema generador de ℜ2 es (2,0), (1,3), (2,1). Veamos que todo


vector (a,b)∈ ℜ2 se puede poner como combinación lineal de ellos:

(a,b) = λ (2,0) + µ (1,3) + q (2,1) produce un sistema de ecuaciones

7) ¿Son los vectores (1,1) y (2,2) un sistema generador de ℜ ? 2


Las combinaciones lineales de estos vectores son de la forma α (1,1) + β (2,2),
es decir,
(α+ 2β, α+ 2β) .
Se observa pues, que sólo podemos generar vectores que tengan sus dos
componentes iguales. No podemos generar otros vectores como (3,4). (Si se
intenta poner (3,4) como combinación lineal de (1,1) y (2,2) se obtiene un
sistema incompatible). Por ello, (1,1) y (2,2) no forman un sistema generador
de ℜ2.

8) El espacio que generan (1,1) y (2,2) no es ℜ2. ¿Cuál es?

Se trata de la recta { (α,α) : α ∈ ℜ } , es decir la bisectriz del primer cuadrante.


De hecho para generar esta recta bastaría con uno de los dos vectores.

9) Hallar un sistema generador del subespacio { x = y } de ℜ3.


Para ello obtenemos primero la forma paramétrica, que es { (α, α, β) : α, β ∈ ℜ}.
Entonces, (α, α, β) = α (1, 1, 0) + β (0, 0, 1).
Así pues, (1,1,0) y (0,0,1) son un sistema generador del subespacio dado.

28
Observación

Dado un sistema v1, . . . ,vn, ¿cuándo un vector u pertenece al subespacio que


generan?

Esto ocurrirá si u es combinación lineal de v1, . . . ,vn. , por tanto podemos


plantear tal combinación lineal, lo que conducirá a un sistema de ecuaciones, y
ver si es compatible o incompatible.

Ejemplo

En ℜ3, ¿pertenece u=(1,2,3) al subespacio generado por v=(4,5,6), w=(7,8,9)


? Veamos si es posible poner u = α v + β w.

Este sistema es compatible, por tanto u pertenece al subespacio.

Además, observar que el sistema es compatible porque la matriz


ampliada

tiene el mismo rango (=2) que la matriz de coeficientes

Si los rangos fueran diferentes el sistema sería incompatible.


Notar que la matriz de coeficientes está formada por los vectores v, w en
columnas, y la matriz ampliada se forma añadiendo la columna u.
Esto nos lleva a formular el siguiente

Teorema
Un vector u pertenece al subespacio generado por un conjunto de vectores v1, .
. . ,vn si al añadirlo a éstos no aumenta el rango.

29
(En efecto, ya vimos que si al añadir u no aumenta el rango, significa que u
depende linealmente de v1, . . . ,vn , es decir, es combinación lineal de ellos).

Sistema generador del subespacio suma.

Hemos visto que puede no ser fácil determinar el subespacio suma U+V a
partir de la forma paramétrica de U y de V. Pero conociendo sistemas
generadores de U y de V, podemos usar el siguiente resultado:

Uniendo sistemas generadores de U y de V, se obtiene un sistema generador


de U+V.

Ejemplo.
Sean en ℜ3 los subespacios:

U=plano XY={ (α, β, 0) : α, β ∈ ℜ } , sistema generador (1,0,0), (0,1,0).

V= plano XZ={ (λ, 0, µ) : λ, µ ∈ ℜ } sistema generador (1,0,0), (0,0,1).

Por tanto un sistema generador de U+V es (1,0,0), (0,1,0), (1,0,0), (0,0,1).

El vector repetido (1,0,0) se puede eliminar: un sistema generador


más sencillo de U+V es

(1,0,0), (0,1,0), (0,0,1)

Por tanto los elementos de U+V son las combinaciones lineales de (1,0,0),
(0,1,0), (0,0,1), es decir:

a(1,0,0) + b(0,1,0) + c(0,0,1) = (a,b,c) por tanto son todos los vectores del
espacio.

Es decir, en este caso el subespacio suma es U+V=ℜ3.

Teorema: Reducción de los sistemas generadores.

Si de un sistema generador suprimimos los vectores que son combinación


lineal de los demás, los restantes siguen generando el mismo subespacio.

30
Por tanto, siempre será mejor reducir los sistemas generadores en lo posible,
suprimiendo todos aquellos vectores que dependan linealmente de los demás.
Esto llevará al concepto de base.

31
EJERCICIOS

1. Sean los tres vectores a=(2,0,1),b=(1,−1,2),(1,1,−1). Consideremos el


espacio vectorial E engendrado por los tres vectores.

Hallar la dimensión de E, obtener una base y calcular las componentes del


vector d=(5,3,−2) respecto de dicha base.

Que el espacio vectorial E esté engendrado por los vectores a, b y c significa


que se cumple:

∀x∈E,x=λa+μb+γc

Se dice entonces que [a,b,c] forman un sistema de generadores de E,

Vamos a ver si este sistema es libre; podemos escribir:

λ1(2,0,1)+λ2(1,−1,2)+λ3(1,1,−1)=(0,0,0)

Y haciendo operaciones tenemos:

(2λ1,0,λ1)+(λ2,−λ2,2λ2)+(λ3,λ3,−λ3)=(0,0,0)

Por lo tanto, se debe tener:

2λ1+λ2+λ3=0;−λ2+λ3=0;λ1+2λ2−λ3=0

La condición necesaria y suficiente para que este sistema tenga soluciones


distintas de cero es que el determinante de la matriz de los coeficientes valga
cero:

32
Por lo tanto, existen λ1,λ2,λ3 no todos nulos que verifican la relación anterior.
Para saber cuantos vectores tendrá un sistema libre, deberemos determinar el
rango de la matriz cuyo determinante no se anule.

Si tomamos, por ejemplo, los vectores a y b, se tiene:

Por lo tanto, a y b son linealmente independientes y forman una base de E, por


ser sistema de generadores. De ahí tenemos que Dim E = 2, por ser este el
número de vectores que forman una base

Las coordenadas del vector d=(5,3,−2) en dicha base serán:

(5,3,−2)=λ1a+λ2b=λ1(2,0,1)+λ2(1,−1,2)=

Y haciendo operaciones, el sistema que podemos formar es:

2λ1+λ2=5;−λ2=3;λ1+2λ2=−2

La matriz de los coeficientes y la matriz ampliada serán:

El rango de la matriz ampliada coincide con el rango de la matriz de los


coeficientes, por lo tanto, el sistema tiene solución única que viene dada por la
regla de Cramer: cada incógnita se obtiene dividiendo por el determinante del
sistema el determinante formado sustituyendo la columna que forman los
coeficientes de dicha incógnita por la columna de los términos independientes.
El sistema que podemos formar es:

33
34
2. Hallar la dimensión y una base del espacio vectorial V engendrado por los
vectores (1,0,1)y(0,1,1)

Considerar el espacio vectorial E del ejercicio anterior y determinar E∩V; hallar


la dimensión de este espacio y dar una base del mismo.

Por lo tanto, los vectores dados son linealmente independientes y forman una
base de V que tiene dimensión 2.

El espacio vectorial E∩V estará formado por los vectores que cumplen :

Y haciendo operaciones tenemos:

Por lo que se debe tener:

Y combinando las dos primeras ecuaciones:

35
Al haber más incógnitas que ecuaciones, debemos poner las n - h finales en
función de las h primeras:

Por lo tanto, cualquier vector x∈E∩V se puede ponerx=λ(5,−1,4); de ahí


que (5,−1,4) sea una base de E∩Vy se tenga DimE∩V=1

36
3.Sea E un espacio vectorial sobre un cuerpo K y E' y E" dos subespacios de E
de dimensión finita; demostrar que se tiene:

Dim(E′+E")+Dim(E′∩E")=DimE′+DimE"

Vamos a considerar las siguientes equivalencias:

DimE′=n′;DimE"=n";DimE′∩E"=i

Por lo tanto, se trata de probar que se cumple:

Dim(E′+E")=n′+n"−i

Para hacerlo, consideramos que se tiene:

E′∩E"⊂E′;E′∩E"⊂E"

Y sea {e1,⋅⋅⋅,ei} una base de E"⊂E", por el teorema de la base incompleta,


existen bases de E' y E", respectivamente, de la forma:

{e1,⋅⋅⋅,ei,e′1,⋅⋅⋅,e′n′−i}(∗) •{e1,⋅⋅⋅,ei,e"1,⋅⋅⋅,e"n"−i}(∗∗)

Consideremos entonces la familia:

{e1,⋅⋅⋅,ei,e′1,⋅⋅⋅,e′n′−i,e1,⋅⋅⋅,ei,e"1,⋅⋅⋅,e"n"−i}(∗∗∗)

Sea ahora x∈E′+E", tenemos :

x=x′+x" con x′∈E′;x"∈E"

Se tiene que x′ es combinación lineal de (∗) y x" es combinación lineal


de (∗∗) por lo tanto,x=x′+x" es combinación lineal de (∗∗∗) que, por tanto, es un
sistema de generadores. Vamos a probar que ese sistema es libre, es decir
que si se tiene:

λ1e1+⋅⋅⋅+λiei+λ′1e′1+⋅⋅⋅+ •+λ′n′−ie′n′−i+λ"1e"1+⋅⋅⋅+λ"n"−ie"n"−i=0

Se debe cumplir que todos escalares sean 0.

(n′−i)+(n"−i)+i=n′+n"−i

Dim(E′+E")=DimE′+DimE"−Dim(E′∩E")

37
4. Sea U un espacio vectorial de R3 solución de x3 = 0, hallar un sistema
generador de U y calcular su dimensión.

Los vectores de U son, en general, de la forma (x1,x2,x3)donde xi∈R, pero


teniendo en cuenta que se ha de cumplir la condición x3=0 serán de la forma:

x∈U→x=(x1.x2,0)

Si tenemos dos vectores (x1.x2,0),(x′1.x′2,0) podemos hacer:

λ(x1.x2,0)+μ(x′1.x′2,0)=(λx1+μx′1,λx2+μx′2,0)(∗)

Y siendo λ,μ∈R también pertenecerán a R las componentes de ∗; por lo tanto,


todo vector de U puede ser generado por [(1,0,0),(0,1,0)] y, en consecuencia, la
dimensión de U será 2.

En general, una relación de la forma:

a1x1+⋅⋅⋅+anxn

Es un espacio vectorial por ser núcleo de una aplicación lineal.

Si se tiene una expresión del tipo:

a11x1+⋅⋅⋅+a1nxna21x1+⋅⋅⋅+a2nxn⋅⋅⋅⋅⋅⋅⋅⋅⋅an1x1+⋅⋅⋅+annxn=0=0⋅⋅⋅=0

Supongamos que el rango de la matriz de los coeficientes vale:

Siempre se tiene que la dimensión del espacio que definen es igual al número
de incógnitas y a su vez es igual a la dimensión del espacio vectorial solución
más el rango de la matriz de los coeficientes. En el caso visto, tenemos que el

38
rango de la matriz de los coeficentes es 2 y el espacio solución es Ker (f) que
tienen dimensión 0, de ahí, que dimensión E = 2 en este caso.

39
5. Sea W el subespacio vectorial engrendrado
por [(0,1,1),(2,0,1),(2,1,2)] obtener un sistema de generadores de W.
Considerando el espacio vectorial, U, del ejercicio anterior, construir el espacio
vectorial U + W y calcular su dimensión.

Vamos a calcular la dimensión del espacio vectorial engendrado por los


vectores [(0,1,1),(2,0,1),(2,1,2)] . Estudiamos el rango de la matriz de los
coeficientes:

Extrayendo un menor de orden 2, tenemos:

Luego el rango de la matriz de los coeficientes vale 2 y, como en ejercicio


anterior, la dimensión del espacio vectorial considerado es 2.

Sea ahora un vector x∈U+W; este vector será de la forma:

x=u+w siendo u∈U;w∈W

Siendo [(1,0,0),(0,1,0)];[(0,1,1),(2,0,1)] dos bases respectivas de U y W,


podemos hacer:

40
Por lo tanto, [(1,0,0),(0,1,0),(0,1,1),(2,0,1)] es un sistema de generadores de U
+ W. Para obtener una base de dicho espacio vectorial hacemos:

Tomamos el determinante de una matriz cuadrada extraida de la anterior,


porejemplo:

Por lo tanto, Dim U + W = 3, con lo que una base de (U + W)


será [(1,0,0),(0,1,0),(0,1,1)

41
5. A partir de los resultados obtenidos en los dos ejercicios anteriores,
determinar la dimensión y obtener una base del espacio vectorial intersección
de U y W, esto es (U∩W).

Según hemos comprobado en un ejercicio anterior, se tiene:

Din(U+W)+Dim(U∩W)=DimU+DimW

3+Dim(U∩W)=2+2;Dim(U∩W)=1

Para obtener una base de este espacio vectorial hacemos:

Se debe tener:

(x1,x2,0)=(2x′2,x′1,x′1+x′2)

De donde podemos hacer:

Por lo tanto, para el vector más sencillo se tendrá:

x1=1 ; x2=−12 ; x′1=−12; x′2=12

Y resulta que el vector:

(1,−12,0)

Es una base del espacio vectorial intersección de los espacios vectoriales U y


W, (U∩W)

42
6. Calcular una base y la dimensión del subespacio vectorial W∈R4 generado
por cada uno de los conjuntos de vectores:

[(1,4,−1,3),(2,1,−3,−1),(0,2,1,−5)][(1,−4,−2,1),(1,−3,−1,2),(3,−8,−2,7)]

Primero veremos si los vectores dados son linealmente independientes.


Tenemos
para el primer caso las siguientes equivalencias:

O lo que es igual:

Hemos obtenido el sistema libre [u1,u2,u3] que es equivalente al


sistema [w1,w2,w3]; por lo tanto, al ser un sistema de generadores constituyen
una base de W que, en consecuencia, tiene dimensión 3.

Para el segundo caso tenemos:

Hemos obtenido así el sistema libre [u1,u2] que es equivalente al


sistema [w1,w2,w3]; por lo tanto, una base de W será en este
caso [(1,−4,−2,1),(1,−3,−1,2)] y se tendrá Din W = 2.

43
7. En Q3 demuéstrese que el subespacio engendrado por los
vectores [(1,2,1),(1,3,2)] es el mismo que el subespacio engendrado
por [(1,1,0),(3,8,5)].

Se ha de probar que todo vector x engendrado


por E1=[(1,2,1),(1,3,2)] pertenece al espacio vectorial engendrado
por E2=[(1,1,0),(3,8,5)] y viceversa.

Resulta sencillo comprobar que ambos espacios tienen la misma dimensión;


vamos a comprobar si cada uno de ellos está contenido en el otro.

[(1,2,1),(1,3,2)] es una base del primer espacio; vamos a ver si estos vectores
son combinación lineal de los vectores de la segunda base:

Comprobamos para el primero de los vectores:

E igualmente, para el segundo:

44
Hemos comprobado, por tanto, que los vectores de una base del primer
espacio vectorial están engendrados por los vectores de una base del segundo
espacio vectorial; de ahí se tiene:
E1⊂E2

Comprobamos ahora si ocurre igual en el caso contrario:

Comprobamos con el primer vector:

Y, de modo análogo, con el segundo:

Con lo que hemos comprobado, de igual modo, que los vectores de una base
del segundo espacio vectorial están engendrados por los vectores de una base
del primer espacio vectorial; en consecuencia, tendremos : E2⊂E1 y, por todo
ello, según la propiedad antisimétrica de la inclusión de conjuntos, ambos
espacios vectoriales son iguales.

45
8. Demostrar que los subconjuntos

U={a,b,c|a,b,c∈Rya=b=c}
y
W={(0,x,y)|x,y∈R} son subespacios de R3

Comprobamos que U es subespacio vectorial de R3. Siendo:

λ,μ∈R;(a,b,c),(a′,b′,c′)∈U

Se ha de cumplir:

λ(a,b,c)+μ(a′,b′,c)∈U

Y tenemos

λ(a,b,c)+μ(a′,b′,c)=(λa+μa′,λb+μb′,λc+μc′)∈U

Como nos dicen que


a=b=c;a′=b′=c′
entonces
λa=λb=λc;μa′=μb′=μc′
y, en consecuencia:
λa+μa′=λb+μb′=λc+μc′
Con lo que podemos hacer:

(λa+μa′,λb+μb′,λc+μc′)∈U

Y resulta que U es un subespacio vectorial de R3.

Una base de U será (1, 1, 1) pues todo vector de U se puede poner en la


forma x=λ(1,1,1). En consecuencia, la dimensión de U será 1.

Sean ahora:

λ,μ∈R;(0,x,y),(0,x′,y′)∈W

Se ha de cumplir:

λ(0,x,y)+μ(0,x′,y′)∈W

Y tenemos

λ(0,x,y)+μ(0,x′,y′)=
(0,λx+μx′,λy+μy′)=
(0,x",y")∈W

46
Puesto que

x"=(λx+μx′)∈R;y"=(λy+μy′)∈R

y, por lo tanto, W es un subespacio vectorial de R3.

Una base de W será [(0,1,0),(0,0,1)] y la dimensión de W es 2.

47
9. Demostrar que R3 es suma directa de los subespacios U y W estudiados en
el ejercicio anterior.

La suma de los espacios vectoriales U y W, denotada U + W, es el espacio


vectorial engendrado por los vectores de la forma:

x=x′+x" con x′∈U;x"∈W(∗)

La suma de U y W se dice directa y se representa por U⊕W si dado un vector


x perteneciente a R3 existe una única familia que cumple lo expresado en (*)
Para que ocurra lo anterior, se ha de cumplir x' + x" = 0 siendo unicamente x' =
0 y x" = 0. Es decir, se ha de tener:

x′=x′1(1,1,1)=0;x"=x"1(0,1,0)+x"2(0,0,1)=0

Y para la suma de ambos:

x′1(1,1,1)+x"1(0,1,0)+x"2(0,0,1)=(0,0,0)

Operando:

(x′1,x′1+x"1,x′1+x"2)=(0,0,0)
⇒x′1=x"1=x"2=0
⇒x′=x"=0

La condición anterior es suficiente pues se tiene:

La suma directa de espacios vectoriales también se define diciendo que U+W


es suma directa si se cumple que la intersección de ambos espacios
vectoriales
es el conjunto nulo

48
Condición necesaria.

Y al ser los vectores únicos, resultará x = 0.

Sean

Y de ahí se tiene:

Por lo que, finalmente:

Pero, al ser U∩W={0} , ambas componentes serán cero y


tendremos: x′1=x′2;x"1=x"2

49
10. Se considera el subespacio F de R4

(i) Hallar una base de FF.


(ii) Hallar una base de R4/FR4/F.
(iii) Hallar las coordenadas del vector (1,−3,2,6)+F(1,−3,2,6)+F en la base
hallada en el apartado anterior.

(i) Usando el conocido método para el cálculo de una base de un subespacio


dado por sus ecuaciones cartesianas, obtenemos fácilmente una base de F:

BF={(−1,2,1,0),(−4,2,0,1)}.

(ii) Ampliemos la base BFBF para obtener una base de R4 dado que

una base de R4/F es

B={(−1,2,1,0),(−4,2,0,1),(0,0,1,0),(0,0,0,1)},

por tanto una base de R4/F es

BR4/F={(0,0,1,0)+F,(0,0,0,1)+F}

(iii) Expresemos el vector dado como combinación lineal de la base hallada en


el apartado anterior. Tenemos

(1,−3,2,6)+F=λ1[(0,0,1,0)+F]+λ2[(0,0,0,1)+F]
⇔(1,−3,2,6)+F=(0,0,λ1,λ2)+F⇔(1,−3,2−λ1,6−λ2)∈F
⇔(1,−3,2−λ1,6−λ2)∈L[(−1,2,1,0),(−4,2,0,1)

50
La última condición equivale a que

y triangulando, equivale a que:

que a su vez equivale a 6λ1−22=0 y 6λ2−35=0.. Las coordenadas pedidas


son por tanto (λ1,λ2)=(11/3,35/6).

51
11. Sea E espacio vectorial sobre el cuerpo K y F un subespacio
de E. Sea (E/F,+) el correspondiente grupo cociente, cuya operación suma
sabemos que está definida mediante: (x+F)+(y+F)=(x+y)+FSe define la
operación ley externa:

λ(x+F)=(λx)+F,∀λ∈K∀(x+F)∈E/F.λ(x+F)=(λx)+F,∀λ∈K∀(x+F)∈E/F.

Demostrar que E/FE/F es espacio vectorial sobre KK con las operaciones


mencionadas (espacio vectorial cociente).

Veamos que la operación ley externa está bien definida, es decir que depende
de la clase en sí, y no de sus representantes. En efecto, si x+F=x′+F,
entonces x−x′∈F. Dado que F es subespacio de E, para todo λ∈K se
verifica λ(x−x′)=λx−λx′∈F, y por tanto:

λ(x+F)=(λx)+F= (λx′)+F=λ(x′+F).

Veamos ahora que se verifican los cuatro axiomas de ley externa. Para
todo λ,μ∈Kλ,μ∈K y para todo x+F,y+F∈E/F,x+F,y+F∈E/F, y usando
propiedades de la suma y ley externa correspondientes a E:E:

λ[(x+F)+(y+F)]=λ[(x+y)+F]=λ(x+y)+F=λx+λy+F=(λx+F)+(λx+F)=λ(x+F)+
μ(y+F).

(λ+μ)(x+F)=(λ+μ)x+F=λx+μx+F=(λx+F)+(μx+F)=λ(x+F)+μ(x+F).

(λμ)(x+F)=(λμ)x+F=λ(μx)+F=λ(μx+F)=λ(μ(x+F)).

1(x+F)=1x+F=x+F

Sea E un espacio vectorial sobre el cuerpo K de dimensión n y sea F⊂E un


subespacio vectorial. Supongamos que BF={u1,…,ur} es base de F y que

BE={u1,…,ur,ur+1,…,un}

es base de EE. Demostrar que una base de E/F es

BE/F={ur+1+F,…,un+F}.

52
Veamos que BE/FBE/F es sistema libre. Tenemos:

λr+1(ur+1+F)+…+λn(un+F)=0+F⇒(λr+1ur+1+…+λnun)+F=0+F⇒λr+1ur+1+…
+λnun∈F.

La última relación implica que existen λ1,…,λr∈Kλ1,…,λr∈K tales que:

λr+1ur+1+…+λnun=λ1u1+…+λrur,

o de forma equivalente , −λ1u1+…−λrur+λr+1ur+1+…+λnun=0.. Al ser BE


sistema libre, se concluye que todos los λi son nulos y en particular

λr+1=…=λn=0λr+1=…=λn=0.

Veamos que BE/F es sistema generador de E/F. Sea x+F∈E/F Como x∈E
y BE genera a E, existen escalares x1,…,xnx1,…,xn tales x=x1u1+…+xn.

Entonces,
x+F=(x1u1+…+xnun)+F
=[(x1u1+…+xrur)+F]+[(xr+1ur+1+…+xnun)+F]
=(pues x1u1+…+xrur∈F)[0+F]+[(xr+1ur+1+…+xnun)+F]
=(xr+1ur+1+…+xnun)+F=x+1(ur+1+F)+…+xn(un+F),

es decir, BE/F es sistema generador de E/F. Para el caso r=0 tenemos F={0}
y E/F=E. Para el caso r=n tenemos F=E y E/F={0},E/F={0}, y en cualquier
caso dimE/F=dimE−dimF.

53
TRANSFORMACIONES
LINEALES

54
TRANSFORMACIONES LINEALES

Definición Sean (V,+V ,·V ) y (W,+W,·W) dos K-espacios vectoriales. Una función
f : V → W se llama una transformación lineal (u homomorfismo, o simplemente
morfismo) de V en W si cumple:

i) f(v +V v0) = f(v) +W f(v0) ∀v,v0 ∈ V.

ii) f(λ ·V v) = λ ·W f(v) ∀λ ∈ K, ∀v ∈ V.

Observación Si f : V → W es una transformación lineal, entonces f(0V ) = 0W.

En efecto, puesto que f(0V ) = f(0V + 0V ) = f(0V ) + f(0V ), entonces


³ ´
0W = f(0V ) + (−f(0V )) = f(0V ) + f(0V ) + (−f(0V )) =
³ ´
= f(0V ) + f(0V ) + (−f(0V )) = f(0V ) + 0W = f(0V ).
Ejemplos.

1. Sean V y W dos K-espacios vectoriales. Entonces 0 : V → W, definida por


0(x) = 0W ∀x ∈ V , es una transformación lineal.

2. Si V es un K-espacio vectorial, id : V → V definida por id(x) = x es una


transformación lineal.

3. Sea A ∈ Km×n. Entonces fA : Kn → Km definida por fA(x) = (A.xt)t es una


transformación lineal.

4. f : K[X] → K[X], f(P) = P0 es una transformación lineal.


R1
5. F : C(R) → R, donde C(R) = {f : R → R | f es continua}, F(g) = g(x)dx
es una
transformación lineal.

Como hemos mencionado al comienzo, las transformaciones lineales


respetan la estructura de K-espacio vectorial. Esto hace que en algunos casos
se respete la estructura de subespacio, por ejemplo, en las imágenes y pre-
imágenes de subespacios por transformaciones lineales:

proposición Sea f : V → W una transformación lineal.


55
Entonces:

1. Si S es un subespacio de V , entonces f(S) es un subespacio de W.

2. Si T es un subespacio de W, entonces f−1(W) es un subespacio de V .

Demostración.

1. Sea S ⊆ V un subespacio y consideremos f(S) = {w ∈ W /∃s ∈ S,f(s) = w}.

I. 0W ∈ f(S), puesto que f(0V ) = 0W y 0V ∈ S.


II. Sean w,w0 ∈ f(S). Entonces existen s,s0 ∈ S tales que w = f(s) y w0 = f(s0).
Luego w + w0 = f(s) + f(s0) = f(s + s0) ∈ f(S), puesto que s + s0 ∈ S.
III. Sean λ ∈ K y w ∈ f(S). Existe s ∈ S tal que w = f(s). Entonces λ·w = λ·f(s) =
f(λ · s) ∈ f(S), puesto que λ · s ∈ S.

2. Sea T un subespacio de W y consideremos f−1(T) = {v ∈ V /f(v) ∈ T}.

I. 0V ∈ f−1(T), puesto que f(0V ) = 0W ∈ T.


II. Sean v,v0 ∈ f−1(T). Entonces f(v),f(v0) ∈ T y, por lo tanto, f(v + v0) = f(v) +
f(v0) ∈ T. Luego v + v0 ∈ f−1(T).
III. Sean λ ∈ K, v ∈ f−1(T). Entonces f(v) ∈ T y, en consecuencia, f(λ·v) = λ·f(v)
∈ vT. Luego λ · v ∈ f−1(T).

De la Definición anterior se deduce inmediatamente que una transformación


lineal preserva combinaciones lineales. Veremos que, debido a esto, una
transformación lineal queda unívocamente determinada por los valores que
toma en los elementos de una base cualquiera de su dominio. Comenzamos
con un ejemplo.

Ejemplo. Hallar, si es posible, una transformación lineal f : R2 → R2 que


verifique f(1,1) = (0,1) y f(1,0) = (2,3).

Dado (x1,x2) ∈ R2 se tiene que (x1,x2) = x2(1,1)+(x1−x2)(1,0). Entonces, si f


verifica lo pedido, debe ser f(x1,x2) = x2.f(1,1) + (x1 − x2).f(1,0) = x2.(0,1) + (x1 −
x2).(2,3) = (2x1 − 2x2,3x1 − 2x2).

56
Además, es fácil ver que esta función es una transformación lineal y que vale
f(1,1) = (0,1) y f(1,0) = (2,3).

Luego, f(x1,x2) = (2x1 − 2x2,3x1 − 2x2) es la única transformación lineal que


satisface lo pedido.

La construcción realizada en el ejemplo puede hacerse en general. Por


simplicidad, lo probaremos para el caso en que el dominio de la transformación
lineal es un K-espacio vectorial de dimensión finita.

Proposición Sean V y W dos K-espacios vectoriales, V de dimensión finita.


Sea B = {v1,...,vn} una base de V y sean w1,...,wn ∈ W vectores arbitrarios.
Entonces existe una única transformación lineal f : V → W tal que f(vi) = wi para
cada 1 ≤ i ≤ n.

Demostración.

(α1,...,αn) = (v)B es el vector de coordenadas de v en la base B. Definimos


Xn f(v) = αiwi.
i=1
(Observar que no hay ambigüedad en la definición de f por la unicidad de
α1,...,αn.) Veamos que f es una transformación lineal:

Sean v,v0 ∈ V . Supongamos que v = Pn α v y v0 = Pn αi0vi.

Entonces

y, en consecuencia,

De manera análoga se prueba que f(λv) = λf(v) ∀λ ∈ K, ∀v ∈ V .


Unicidad. Supongamos que f y g son dos transformaciones lineales de
tales que f(vi) = wi y g(vi) = wi para cada 1 ≤ i ≤ n. Entonces,
dado, por la linealidad de f y g se tiene que

57
.
Luego, f(v) = g(v) para todo v ∈ V , de donde f = g. ¤

Observación Con una demostración análoga a la de la proposición anterior se


prueba que, si V y W son dos K-espacios vectoriales (V no necesariamente de
dimensión finita), B = {vi : i ∈ I} una base de V y {wi : i ∈ I} ⊂ W, existe una única
transformación lineal f : V → W tal que f(vi) = wi ∀i ∈ I.

Teniendo en cuenta que las transformaciones lineales son funciones entre


conjuntos, tiene sentido estudiar la validez de las propiedades usuales de
funciones: inyectividad, suryectividad y biyectividad. Las transformaciones
lineales que verifican alguna de estas propiedades reciben nombres
particulares:

Definición Sean V y W dos K-espacios vectoriales, y sea f : V → W una


transformación lineal. Se dice que:

1. f es un monomorfismo si f es inyectiva.
2. f es un epimorfismo si f es suryectiva.
3. f es un isomorfismo si f es biyectiva.

En algunos casos, consideraremos transformaciones lineales de un K-espacio


vectorial en sí mismo:

Definición Sea V un K-espacio vectorial. Una transformación lineal f : V → V se


llama un endomorfismo de V . Si f es un endomorfismo que es además un
isomorfismo, entonces se dice que es un automorfismo

58
NÚCLEO E IMAGEN DE UNA TRANSFORMACIÓN
LINEAL

A una transformación lineal f : V → W podemos asociarle un subespacio de V ,


llamado su núcleo, que de alguna manera mide el tamaño de la pre-imagen por
f de un elemento de su imagen. En particular, conocer este subespacio nos
permitir ‘a determinar si f es inyectiva.

Definición Sean V y W dos K-espacios vectoriales, y sea f : V → W una


transformación lineal. Se llama núcleo de f al conjunto Nu(f) = {v ∈ V / f(v) = 0}
= f−1({0}).

Observamos que si f : V → W es una transformación lineal, Nu(f) es un


subespacio de V , puesto que es la pre-imagen por f del subespacio {0} ⊂ W

Ejemplo. Sea f : R3 → R2 la transformación lineal definida por f(x1,x2,x3) =


(x1,x2).

Entonces

Nu(f)={(x1,x2,x3) ∈ R3 : f(x1,x2,x3) = 0}
= {(x1,x2,x3) ∈ R3 : x1 = x2 = 0} =< (0,0,1) > .

La siguiente proposición nos da una manera de determinar si una


transformación lineal es un monomorfismo considerando simplemente su
núcleo.

Proposición Sea f : V → W una transformación lineal. Entonces


f es monomorfismo ⇐⇒ Nu(f) = {0}

Demostración.

Si f es un monomorfismo, entonces es una función inyectiva. En particular,


existe a lo sumo un elemento v ∈ V tal que f(v) = 0. Puesto que f(0) = 0, debe
ser v = 0. Luego, Nu(f) = {0}.

Sean v,v0 ∈ V . Supongamos que f(v) = f(v0). Entonces f(v − v0) = f(v) − f(v0) = 0,
con lo que v−v0 ∈ Nu(f) y por lo tanto, la hipótesis Nu(f) = {0} implica que v−v0 =
0, es decir, v = v0. Luego f es inyectiva. ¤

59
Otro conjunto importante asociado a una transformación lineal es su imagen.
Recordamos que si f : V → W, su imagen se define como Im(f) = {w ∈ W /∃v ∈
V,f(v) = w}. De la Proposición se desprende que la imagen de una
transformación lineal f : V → W resulta ser un subespacio de W.

Ejemplo. Hallar la imagen de la transformación lineal f : R3 → R3 definida como


f(x1,x2,x3) = (x1 − x2,−x1 + x2,2x1 − 2x2 + x3).

Por definición,

Im(f)={y ∈ R3 / ∃x ∈ R3, f(x) = y}


={y ∈ R3 / ∃(x1,x2,x3) ∈ R3, (x1 − x2,x1 − x2,2x1 − 2x2 + x3) = y}.

Entonces, un elemento de y pertenece a Im(f) si y solo si es de la forma

y = (x1 − x2,−x1 + x2,2x1 − 2x2 + x3) = (x1,−x1,2x1) + (−x2,x2,−2x2) + (0,0,x3) =


x1.(1,−1,2) + x2.(−1,1,−2) + x3.(0,0,1).

Luego, Im(f) = < (1,−1,2),(−1,1,−2),(0,0,1) > = < (1,−1,2),(0,0,1) >.

Otra manera de calcular la imagen de f, teniendo en cuenta que es una


transformación lineal, es la siguiente:

Consideremos un sistema de generadores de R3, por ejemplo la base canónica


{e1,e2,e3}. Para cada x ∈ R3 se tiene que x = x1.e1 + x2.e2 + x3.e3, de donde
resulta que

f(x) = x1.f(e1) + x2.f(e2) + x3.f(e3).


Luego,

Im(f) = {f(x) : x ∈ R3} = < f(e1),f(e2),f(e3) > =


= < (1,−1,2),(−1,1,−2),(0,0,1) > = < (1,−1,2),(0,0,1) >.

La proposición siguiente generaliza el segundo de los procedimientos utilizados


en el ejemplo anterior para el cálculo de la imagen de una transformación
lineal.

60
Proposición Sean V y W dos K-espacios vectoriales y sea f : V → W una
transformación lineal. Entonces, si {vi : i ∈ I} es un sistema de generadores de V
, {f(vi) : i ∈ I} es un sistema de generadores de Im(f).

Demostración. Por definición, Im(f) = {w ∈ W / ∃v ∈ V,f(v) = w} = {f(v) : v ∈ V }.

Si {vi : i ∈ I} es un sistema de generadores de V , para cada v ∈ V , existen


i1,...,in ∈ I Pn y elementos αij ∈ K tales que v = αijvij. Luego

Esto prueba que Im(f) ⊆ < {f(vi) : i ∈ I} >. Es claro que vale la otra inclusión, ya
que f(vi) ∈ Im(f) para cada i ∈ I.

Luego, Im(f) = < {f(vi) : i ∈ I} >.

Corolario Sean V y W dos K-espacios vectoriales y sea f : V → W una


transformación lineal. Si V es de dimensión finita, entonces Im(f) también lo es
y se tiene que dim(Im(f)) ≤ dimV .

Corolario Si f : V → W es un epimorfismo, y {vi : i ∈ I} es un sistema de


generadores de V , entonces {f(vi) : i ∈ I} es un sistema de generadores de W.

Ejemplo. Sean S y T los subespacios de R3 definidos por S = {x ∈ R3 /x1 − x2 =


0} y T = {x ∈ R3 /x3 = 0}. Hallar una transformación lineal f : R3 → R3 tal que f(S)
= T.

Sabemos que para definir una transformación lineal f : R3 → R3 basta con


especificar los valores que toma sobre los elementos de una base de R3.

Consideramos entonces una base de S, por ejemplo {(1,1,0),(0,0,1)}, y la


extendemos a una base de R3, por ejemplo {(1,1,0),(0,0,1),(1,0,0)}. Teniendo
en cuenta que T = < (1,0,0),(0,1,0) >, definimos:

f(1,1,0) = (1,0,0), f(0,0,1) = (0,1,0), f(1,0,0) = (0,0,1).

61
Entonces f(S) = < f(1,1,0),f(0,0,1) > = < (1,0,0),(0,1,0) > = T.

Observemos que si f : V → W es un epimorfismo y {vi : i ∈ I} es una base de V ,


entonces {f(vi) : i ∈ I} no es necesariamente una base de Im(f): Por el corolario
anterior, es un sistema de generadores, pero podría no ser un conjunto
linealmente independiente.

Esto es consecuencia de que una transformación lineal arbitraria no preserva


independencia lineal. En la proposición siguiente veremos que esto sí es válido
para el caso de monomorfismos. Sin embargo, si f : V → W no es un
monomorfismo, existe v ∈ V , v = 06 , tal que f(v) = 0, con lo cual {v} ⊂ V es un
conjunto linealmente independiente, pero {f(v)} = {0} ⊂ W no lo es.

Proposición Sean V y W dos K-espacios vectoriales y sea f : V → W un


monomorfismo. Entonces, si {vi : i ∈ I} ⊂ V es un conjunto linealmente
independiente, {f(vi) : i ∈ I} ⊂ W es un conjunto linealmente independiente.

Demostración.Supongamos que una combinación lineal de {f(vi) : i ∈ I}


satisface

) = 0. Como f es una transformación lineal, entonces = 0, y


como es un monomorfismo, debe ser = 0. La independencia lineal de
implica que αi = 0 ∀i ∈ I. ¤

Corolario Si f : V → W es un monomorfismo y B = {vi : i ∈ I} es una base de V ,


entonces {f(vi) : i ∈ I} es una base de Im(f). En particular, si V es un K-espacio
vectorial de dimensión finita, dim(Im(f)) = dimV .

Teniendo en cuenta que un isomorfismo es una transformación lineal que es


a la vez un epimorfismo y un monomorfismo, de los Corolarios 3.12 y 3.14 se
deduce:

Corolario Sean V y W dos K-espacios vectoriales y sea f : V → W un


isomorfismo. Entonces para toda base B de V , f(B) es una base de W. En
particular, si V es de dimensión finita, W también lo es y dimV = dimW.

62
COMPOSICIÓN DE TRANSFORMACIONES LINEALES

La composición de funciones usual puede realizarse, en particular, entre dos


transformaciones lineales. El resultado es, en este caso, una nueva
transformación lineal.
Proposición Sean V,W y Z K-espacios vectoriales. Sean f : V → W y g : W →
Z transformaciones lineales. Entonces g ◦ f : V → Z es una transformación
lineal.

Demostración. Sean v,v0 ∈ V . Entonces


g ◦ f(v + v0) = g f(v + v0) = g f(v) + f(v0) = g(f(v)) + g(f(v0)) = g ◦ f(v) + g ◦ f(v0).

Análogamente,

si λ ∈ K y v ∈ V ,

se tiene que

g ◦ f(λ · v) = g(f(λ · v)) = g(λ · f(v)) = λ · g(f(v)) = λ · (g ◦ f(v)).

Finalmente, analizamos las propiedades de la función inversa de una


transformación lineal biyectiva (es decir, un isomorfismo).

Proposición Sean V y W dos K-espacios vectoriales y sea f : V → W una


transformación lineal. Si f es un isomorfismo, entonces f −1 : W → V es una
transformación lineal (que resulta ser un isomorfismo).

Demostración. Sean w,w0 ∈ W. Como f es un isomorfismo, existen únicos v,v0


∈ V tales que w = f(v) y w0 = f(v0).

Entonces f−1(w + w0) = f−1(f(v) + f(v0)) = f−1(f(v + v0)) = v + v0 = f−1(w) + f−1(w0).

Dados w ∈ W y λ ∈ K, existe un único v ∈ V tal que w = f(v). Entonces

f−1(λ · w) = f−1(λ · f(v)) = f−1(f(λ · v)) = λ · v = λ · (f−1(w)).

Luego, f−1 es una transformación lineal. Es claro que es directiva.

63
ESPACIOS VECTORIALES DE DIMENSIÓN FINITA

Al estudiar espacios vectoriales de dimensión finita en los capítulos anteriores,


dijimos que podríamos trabajar en un K-espacio vectorial arbitrario de
dimensión n “como si fuese” Kn simplemente considerando vectores de
coordenadas. La noción de isomorfismo nos permite formalizar esta idea.

Proposición Sea V un K-espacio vectorial de dimensión n. Entonces existe un


isomorfismo f : V → Kn.

Demostración. Sea B = {v1,...,vn} una base de V .

Dado x ∈ V , existe u´nicos x1,...,xn ∈ K tales que x =xivi. Definimos

f : V → Kn, f(x) = (x1,...

64
TEOREMA DE LA DIMENSIÓN

Veamos que f es una transformación lineal:

Sean x,y ∈ V .
Si x = ey= entonces x + y =
Luego
.

En forma análoga se prueba que f(λ.x) = λ.f(x) para cada λ ∈ K y cada x ∈ V .


Es claro que si f(x) = 0, entonces x = 0, de donde f es un monomorfismo.

Finalmente, dado (x1,...,xn) ∈ K n, consideramos x = ∈ V . Se tiene que


f(x) =(x1,...,xn)

Luego, f es un epimorfismo.
En consecuencia, f es un isomorfismo. ¤

Ejemplo. Sea K3[X] = {P ∈ K[X] / P = 0 o gr(P) ≤ 3}, que es K-espacio vectorial de


dimensión 4.
Un isomorfismo f : K3[X] → K4 puede definirse como sigue:

Si P =, entonces f(P) = (a0,a1,a2,a3), lo que corresponde a considerar en

La demostración anterior la base B = {1,X,X2,X3} de K3[X].

Observar que, teniendo en cuenta que la aplicación f definida en la demostración de


la Proposición es tomar coordenadas en la base B, esto nos permite trabajar con
coordenadas en una base en el siguiente sentido:
i) {w1,...,ws} es linealmente independiente en V ⇐⇒ {f(w1),...,f(ws)} es linealmente
independiente en Kn.
ii) {w1,...,wr} es un sistema de generadores de V ⇐⇒ {f(w1),...,f(wr)} es un sistema
de generadores de Kn.
iii) {w1,...,wn} es una base de V ⇐⇒ {f(w1),...,f(wn)} es una base de Kn.

65
Por ejemplo, para decidir si {X2 − X + 1, X2 − 3.X + 5, 2.X2 + 2.X − 3} es una base de
R2[X], bastar ‘a ver si {(1,−1,1), (1,−3,5), (2,2,−3)} es una base de R3 para lo que se
puede usar el método de triangulación.

Teorema (Teorema de la dimensión para transformaciones lineales)

Sean V y W dos K-espacios vectoriales, V de dimensión finita, y sea f : V → W una


transformación lineal. Entonces dimV = dim(Nu(f)) + dim(Im(f)).

Sean n = dimV y r = dim(Nu(f)).


Si r = n, entonces f ≡ 0 y dim(Im(f)) = 0. Por lo tanto, el teorema vale.
Si r = 0, entonces f es un monomorfismo. En este caso, si B es una base de V ,
entonces f(B) es una base de Im(f). Luego dim(Im(f)) = dimV (ver Corolario 3.14), y
el teorema vale.

Supongamos ahora que 0 < r < n. Sea {v1,...,vr} una base de Nu(f). Sean vr+1,...,vn en
V tales que {v1,...,vr,vr+1,...,vn} es una base de V .

Veamos que entonces {f(vr+1),...,f(vn)} es una base de Im(f), de donde se deduce


inmediatamente el teorema:

Puesto que {v1,...,vr,vr+1,...,vn} es una base de V , se tiene que

Im(f) = < f(v1),...,f(vr),f(vr+1),...,f(vn) > = < f(vr+1),...,f(vn) >, pues f(vi) = 0 para 1 ≤ i ≤ r.

Sean αr+1,...,αn ∈ K tales =0 que. Entonces = 0,

Es decir . Como {v1,...,vr} es una base de Nu(f), existen


α1,...,αr

∈ K tales que

Como {v1,...,vn} es un conjunto linealmente independiente, αi = 0 para cada 1 ≤ i ≤ n.


En particular, αi = 0 para i = r + 1,...,n. Luego, {f(vr+1),...,f(vn)} es un conjunto
linealmente independiente.

Como consecuencia de este resultado se prueba que si una transformación lineal


entre dos espacios vectoriales de dimensión n es inyectiva (resp. suryectiva),
entonces también es suryectiva (resp. inyectiva):

66
Corolario Sean V y W dos K-espacios vectoriales de dimensión n y sea f : V → W
una transformación lineal. Son equivalentes:

1. f es un isomorfismo.
2. f es un monomorfismo.
3. f es un epimorfismo.

Demostración.

(1.⇒ 2.) Por definición.

(2. ⇒ 3.) Por el teorema de la dimensión, n = dimV = dim(Nu(f)) + dim(Im(f)), y como


f es un monomorfismo, dim(Nu(f)) = 0. Entonces dim(Im(f)) = n = dimW, de donde
Im(f) = W.
(3.⇒ 1.) Por el teorema de la dimensión, y teniendo en cuenta que f es un
epimorfismo, se tiene que n = dimV = dim(Nu(f)) + dim(Im(f)) = dim(Nu(f)) + n. Esto
implica que dim(Nu(f)) = 0, con lo cual, Nu(f) = {0} y f es un monomorfismo. Siendo
epimorfismo y monomorfismo, resulta que f es un isomorfismo. ¤

A diferencia de lo que sucede para muchos de los resultados que hemos


demostrado, en el corolario anterior la hipótesis de que los espacios vectoriales
sean de dimensión finita es esencial. El resultado no vale para transformaciones
lineales definidas en espacios de dimensión infinita:
Ejemplo. Sea V = K[X].

1. Sea f : K[X] → K[X], f(P) = P0, que es una transformación lineal.


• f es epimorfismo: Sea. Entonces.

• f no es monomorfismo: f(1) = 0, pero 1 ≠ 0.


2. Sea g : K[X] → K[X], g(P) = X.P.
• g es monomorfismo: Si f(P) = X.P = 0, entonces P = 0.
• g no es epimorfismo: 1∉Im(f).

67
PROYECTORES

Definición Sea V un K-espacio vectorial. Una transformación lineal f : V → V se


llama un proyector si f ◦ f = f.

Proposición Sea V un K-espacio vectorial, y sea f : V → V una transformación


lineal. Entonces f es un proyector si y s´olo si f(x) = x para cada x ∈ Im(f).

Demostración.

(⇒) Supongamos que f es un proyector. Sea x ∈ Im(f). Entonces existe v ∈ V tal que
x = f(v). Luego, f(x) = f(f(v)) = f ◦ f(v) = f(v) = x.
(⇐) Sea v ∈ V . Entonces f(v) ∈ Im(f) y, por hipótesis, f(f(v)) = f(v), es decir, f ◦f(v) =
f(v). Como esto vale para cada v ∈ V , resulta que f ◦ f = f.

Proposición Sea V un K-espacio vectorial y sea f : V → V un proyector. Entonces


Nu(f) ⊕ Im(f) = V .

En primer lugar, veamos que Nu(f) ∩ Im(f) = {0}: Sea x ∈ Nu(f) ∩ Im(f). Como x ∈
Im(f), por la proposición anterior, f(x) = x. Pero x ∈ Nu(f), de donde f(x) = 0. Luego, x
= 0.
Veamos ahora que Nu(f) + Im(f) = V : Sea x ∈ V . Entonces x = (x − f(x)) + f(x) y se
tiene que f(x − f(x)) = f(x) − f ◦ f(x) = f(x) − f(x) = 0, con lo que x − f(x) ∈ Nu(f) y f(x) ∈
Im(f). ¤

Proposición Sea V un K-espacio vectorial, y sean S y T subespacios de V tales que


S ⊕ T = V . Entonces existe un único proyector f : V → V tal que Nu(f) = S, Im(f) = T.

Demostración. Como V = S ⊕ T, para cada x ∈ V , existen únicos s ∈ S y t ∈ T tales


que x = s + t. Entonces, si f : V → V es un proyector tal que Nu(f) = S, Im(f) = T, se
tiene que f(x) = f(s + t) = f(s) + f(t) = 0 + t = t, donde la penúltima igualdad es
consecuencia de que f es un proyector y t ∈ Im(f)

Consideremos entonces la función f : V → V definida por

f(x) = t si x = s + t con s ∈ S, t ∈ T.
Observamos que f es una transformación lineal:

 Si x,x0 ∈ V tales que x = s + t, x0 = s0 + t0, con s,s0 ∈ S y t,t0 ∈ T, entonces x+x0 =


(s+s0)+(t+t0) con s+s0 ∈ S y t+t0 ∈ T (puesto que S y T son subespacios de V ) y, por
lo tanto, f(x + x0) = t + t0 = f(x) + f(x0).
 Si λ ∈ K y x ∈ V , x = s + t con s ∈ S, t ∈ T, entonces λ.x = (λ.s) + (λ.t) con λ.s ∈
S,λ.t ∈ T. Luego f(λ.x) = λ.t = λ.f(x).

68
Además, f es un proyector: Si x ∈ V y x = s + t con s ∈ S, t ∈ T, entonces f ◦ f(x) =
f(f(s + t)) = f(t) = f(0 + t) = f(x).
Es claro que Im(f) = T. Veamos que Nu(f) = S: Si x ∈ Nu(f) y x = s + t con s ∈ S, t ∈
T, entonces 0 = f(x) = t, con lo cual, x = s ∈ S. Por otro lado, si s ∈ S, entonces s = s
+ 0 con s ∈ S, 0 ∈ T y, por lo tanto, f(s) = 0.
Luego, la función f que hemos definido es el único proyector f : V → V con Nu(f)=S,
Im(f) = T.

69
REPRESENTACIÓN MATRICIAL

En esta sección todos los espacios vectoriales considerados serán de dimensión


finita.

Matriz de una transformación lineal


Si V y W son K-espacios vectoriales de dimensión n y m respectivamente, una
transformación lineal f : V → W queda unívocamente determinada por los n vectores
de W que son los valores de f en una base cualquiera de V . Además, fijada una
base de W, estos n vectores quedan determinados por medio de sus vectores de
coordenadas en Km. Se define entonces una matriz asociada a f que contiene toda
esta información.

Definición Sean V y W dos K-espacios vectoriales de dimensión finita. Sean B1 =


{v1,...,vn} una base de una base de W. Sea f : V → W
una
transformación lineal. Supongamos que

Se llama matriz de f
en las bases B1,B2, y se nota |f|B1B2, a la matriz en Km×n definida por (|f|B1B2)ij = αij para
cada 1 ≤ i ≤ m, 1 ≤ j ≤ n.

Notación. Si f : V → V y B1 = B2 = B, notaremos |f|B = |f|BB.

Ejemplo. Sea f : R3 → R2, f(x1,x2,x3) = (x1 + 2x2 −


x3,x1 + 3x2),

y sean B1 y B2 las bases canónicas de R3 y R2 respectivamente. Se tiene que

f(1,0,0) = (1,1), f(0,1,0) = (2,3), f(0,0,1) = (−1,0).

Entonces.

Observación Si consideramos la transformación lineal asociada a una matriz A ∈


Kn×m, fA : Km → Kn definida por fA(x) = A.x, entonces, a partir de la definición anterior,
la matriz de fA en las bases canónicas E y E0 de Km y Kn respectivamente resulta ser
|fA|EE0 = A.

Observación Sea V un K-espacio vectorial de dimensión n, y sean B1 y B2 bases de


V. Entonces |idV |B1B2 = C(B1,B2), la matriz de cambio de base de B1 a B2

70
Mediante el uso de las matrices y de vectores de coordenadas, toda transformación
lineal puede representarse como la multiplicación por una matriz fija.

Proposición Sean V y W dos K-espacios vectoriales de dimensión finita, y sea f : V


→ W una transformación lineal. Si B1 y B2 son bases de V y W respectivamente,
entonces para cada x ∈ V ,
|f|B1B2.(x)B1 = (f(x))B2.
Supongamos que B1 = {v1,...,vn}.
Sea x ∈ V y sea (x)B1 = (x1,...,xn), es decir,.

Para cada 1 ≤ i ≤ n, sea Ci la i-´esima columna de |f|B1B2. Por definición, Ci = (f(vi))B2.

Entonces

71
MATRIZ DE LA COMPOSICIÓN Y CAMBIOS DE BASES

La composición de dos transformaciones lineales “se traduce” como la multiplicación


de sus matrices.

Proposición Sean V , W y U tres K-espacios vectoriales de dimensión finita. Sean


B1, B2 y B3 bases de V , W y U respectivamente. Sean f : V → W y g : W → U
transformaciones lineales. Entonces
|g ◦ f|B B = |g|B B .|f|B B .
1 3 2 3 1 2

Demostración. Sean n = dimV , m = dimW y r = dimU. Entonces |g|B2B3 ∈ Kr×m y |f|B1B2


∈ Km×n, con lo que |g|B2B3.|f|B1B2 ∈ Kr×n. Adem´as |g ◦ f|B1B3 ∈ Kr×n. Para cada x ∈ V se
tiene que |g|B2B3.|f|B1B2.(x)B1 = |g|B2B3.(f(x))B2 = g(f(x))B3 = (g ◦ f(x))B3 = |g ◦ f|B1B3.(x)B1

Luego, |g|B2B3.|f|B1B2 = |g ◦ f|B1B3

Corolario Sean V y W dos K-espacios vectoriales de dimensión finita, y sean B1 y B2


bases de V y W respectivamente. Sea f : V → W un isomorfismo. Entonces |f −1|B2B1 =
(|f|B1B2)−1.

Demostración. Se deduce inmediatamente aplicando la proposición anterior a f−1 ◦ f


= idV y f ◦ f−1 = idW.

Concluimos esta sección estudiando cómo se puede obtener a partir de la matriz de


una transformación lineal f : V → W en un par de bases B1 y B2 de V y W
respectivamente, la matriz de la misma transformación lineal en cualquier otro par
de bases de dichos espacios.

Proposición Sean V y W dos K-espacios vectoriales de dimensión finita. Sean


bases de bases de W. Entonces
.

72
RANGO DE UNA MATRIZ

Demostración. Se tiene que f = idW ◦ f ◦ idV . Aplicando dos veces el resultado dado
en la Proposición anterior y el hecho que la matriz de la transformación lineal
identidad en un par de bases coincide con la matriz de cambio de base entre las
mismas, se obtiene

|f|B10B20 = |idW ◦ f ◦ idV |B10B20 = |idW ◦ f|B1B20 |idV |B10B1 =

= |idW|B2B 0 .|f|B B .|idV |B10B = C(B2,B20 ).|f|B B .C(B10 ,B1),


2 1 2 1 1 2

que es lo que se quería probar.

Rango columna y rango fila


Sean V y W dos K-espacios vectoriales tales que dimV = m y dimW = n, y sean B 1 y
B2 bases de V y W respectivamente. Sea f : V → W una transformación lineal.
Consideremos la matriz de f en las bases B1 y B2 dada por sus columnas:

|f|B1B2 = (C1 | ... | Cm) ∈ Kn×m.

Si B1 = {v1,...,vm}, entonces Im(f) = < f(v1),...,f(vm) >. Tomando coordenadas en la


base B2 se obtiene un subespacio T ⊆ Kn dado por T = < (f(v1))B2,...,(f(vm))B2 > = <
C1,...,Cm >. Como tomar coordenadas en una base es un isomorfismo, se tiene que

dim(Im(f)) = dim< C1,...,Cm >.


Esto motiva la siguiente definición:

Definición Sea A ∈ Kn×m. Se llama rango columna de A, y se nota rgC(A), a la


dimensión del subespacio de Kn generado por las columnas de A, es decir, si A =
(C1 | ··· | Cm), entonces rgC(A) = dim< C1,...,Cm >.

Mediante el cálculo del rango columna de una matriz A es posible obtener la


dimensión del subespacio de soluciones del sistema lineal homogéneo asociado a
A:

Observación Sea A ∈ Kn×m y sea S = {x ∈ Km /A.x = 0}. Entonces dimS = m − rgC(A).

En efecto, consideramos la transformación lineal asociada a A, fA : Km → Kn definida


por fA(x) = A.x. Entonces A = |fA|EE0 (donde E y E0 son las bases canónicas de Km y
Kn respectivamente) y S = Nu(fA). Entonces

dimS = dim(Nu(fA)) = m − dim(Im(fA)) = m − rgC(A).

73
Ejemplo. Sea, y sea S = {x ∈ R3 /A.x = 0}.
Entonces
dimS = 3 − rgC(A) = 3 − dim< (1,−1,1),(−2,2,−2),(3,1,4) > = 3 − 2 = 1.
Teniendo en cuenta el subespacio generado por las filas de una matriz en lugar del
generado por sus columnas puede darse la siguiente definición de rango fila
análoga a la de rango columna.

Definición Sea A ∈ Kn×m. Se define el rango fila de A, y se nota rgF(A), como la

dimensión del subespacio de Km generado por las filas de A. Es decir,

si, entonces rgF(A) = dim< F1,...,Fn >.

Observación Sea A ∈ Kn×m. Entonces rgF(A) = rgC(At).

Nuestro siguiente objetivo es mostrar que el rango fila y el rango columna de una
matriz coinciden. Para hacer esto nos basaremos en la observación anterior.
Primero mostraremos que el rango columna de una matriz A no cambia si se la
multiplica a izquierda o derecha por matrices inversibles.

Lema Sea A ∈ Kn×m. Sean C ∈ GL(n,K) y D ∈ GL(m,K). Entonces

rgC(A) = rgC(C.A.D).

Demostración. Sea fA : Km → Kn la transformación lineal inducida por la


multiplicación a izquierda por A. Si E y E0 son las bases canónicas de Km y Kn
respectivamente, se tiene que |fA|EE0 = A y por lo tanto, rgC(A) = dim(Im(fA)).
Por la Proposición, puesto que D ∈ GL(m,K), existe una base B1 de Km tal que D =
C(B1,E), y como C ∈ GL(n,K), existe una base B2 de Kn tal que C = C(E0,B2).

Entonces

C.A.D = C(E0,B2).|fA|EE0.C(B1,E) = |fA|B1B2,


de donde rgC(C.A.D) = dim(Im(fA)) = rgC(A). ¤

Ahora veremos que multiplicando a A por matrices inversibles convenientes se


puede obtener una matriz tal que su rango y el de su transpuesta son fáciles de
comparar.

Lema Sea A ∈ Kn×m − {0}. Entonces existen k ∈ N, 1 ≤ k ≤ min{n,m}, y matrices


C ∈ GL(n,K) y D ∈ GL(m,K) tales que

74
Demostración. Consideremos la transformación lineal fA : Km → Kn inducida por la
multiplicación a izquierda por A. Sea {v1,...,vs} una base de Nu(fA) y sean w1,...,wm−s
∈ Km tales que
B1 = {w1,...,wm−s,v1,...,vs}
es una base de Km (si Nu(fA) = {0}, s = 0 y se toma una base B1 cualquiera de Km).
Entonces {fA(w1),...,fA(wm−s)} es una base de Im(fA) y puede extenderse a una base
de Kn. Sean z1,...,zn−m+s ∈ Kn tales que

B2 = {fA(w1),...,fA(wm−s),z1,...,zn−m+s}
es una base de Kn.
Se tiene que

Observamos que
donde

Proposición Sea A ∈ Kn×m. Entonces rgC(A) = rgF(A).

Demostración. Es claro que el resultado vale si A = 0. Dada A ∈ Kn×m − {0}, por el


lema anterior, existen matrices C ∈ GL(n,K), D ∈ GL(m,K) y k ∈ N, tales que

Por el Lema se tiene que rgC(A) = rgC(C.A.D), y es claro que rgC(C.A.D) = k.


Por otro lado, trasponiendo se obtiene

75
En

En consecuencia

Definición Sea A ∈ Kn×m. Al número rgC(A) = rgF(A) lo llamaremos el rango de la


matriz A, y lo notaremos rg(A).

Proposición Sea A ∈ Kn×m y sea S = {x ∈ Km /A.x = 0}. Entonces dimS = m − rg(A).

Esto significa que la dimensión del espacio de soluciones de un sistema lineal


homogéneo es igual a la cantidad de incógnitas menos la cantidad de ecuaciones
independientes.

76
EQUIVALENCIA DE MATRICES

Definición Sean A,B ∈ Kn×m. Se dice que A es equivalente a B, y se nota A ≡ B, si


existen matrices C ∈ GL(n,K) y D ∈ GL(m,K) tales que A = C.B.D.

Es inmediato verificar que ≡ es una relación de equivalencia.

Como hemos visto en la sección anterior, si dos matrices son equivalentes entonces
tienen el mismo rango.

A continuación, veremos que la reciproca de esta propiedad también es cierta. En


consecuencia, el rango resulta ser un invariante que nos permite determinar
fácilmente si dos matrices son equivalentes.

Proposición Sean A,B ∈ Kn×m. Entonces A ≡ B ⇐⇒ rg(A) = rg(B).

demostración.

(⇒) Es consecuencia del Lema

(⇐) Supongamos que rg(A) = rg(B) = k. Entonces existen matrices C1,C2 ∈ GL(n,K) y
D1,D2 ∈ GL(m,K) tales que

En consecuencia, C1.A.D1 = C2.B.D2, de donde

con

Luego, A ≡ B.

Finalmente, la siguiente proposición caracteriza matrices equivalentes por medio de


transformaciones lineales: dos matrices son equivalentes si y solo si son las
matrices de una misma transformación lineal en distintas bases.

Proposición Sean A,B ∈ Kn×m. Entonces A ≡ B si y solo si existe una transformación


lineal f : Km → Kn y bases tales que |f|B1B2 = A y
|f|B10B20 = B.

77
ESPACIOS VECTORIALES DE TRANSFORMACIONES
LINEALES

Demostración. La validez de (⇐) se deduce de la proposición anterior, teniendo en


cuenta que rg(A) = dim(Im(f)) = rg(B).
Veamos que vale la otra implicación. Consideremos la transformación lineal f : Km →
Kn definida por f(x) = B.x. Entonces B = |f|EE0, donde E y E0 son las bases canónicas
de Km y Kn respectivamente.
Por definición, si A ≡ B, existen matrices inversibles C y D tales que A = C.B.D. Sea
B1 base de Km tal que D = C(B1,E) y sea B2 base de Kn tal que C = C(E0,B2). Entonces

A = C.B.D = C(E0,B2)|f|EE0C(B1,E) = |f|B1B2. ¤ 3.7 Espacios vectoriales de

transformaciones lineales

Fijados dos K-espacios vectoriales V y W, tiene sentido considerar el conjunto de


todas las transformaciones lineales de V en W. En esta sección, estudiaremos la
estructura de estos conjuntos de transformaciones lineales.

Definición Sean V y W dos K-espacios vectoriales. Definimos


HomK(V,W) = {f : V → W / f es una transformación lineal }.

Definimos ahora una operación en HomK(V,W) y una acción de K en HomK(V,W)


que lo convierten en un K-espacio vectorial:
Suma. Dadas f,g ∈ HomK(V,W) se define f + g como
(f + g)(x) = f(x) + g(x) ∀x ∈ V.
Veamos que f + g ∈ HomK(V,W), con lo cual + resulta un operación en HomK(V,W):
• Es claro que f + g : V → W.
• f + g es una transformación lineal:
Para cada x,y ∈ V , se tiene que
(f + g)(x + y) = f(x + y) + g(x + y) = f(x) + f(y) + g(x) + g(y) =
¡ ¢¡ ¢
= f(x) + g(x) + f(y) + g(y) = (f + g)(x) + (f + g)(y). Por otro lado, para
cada µ ∈ K y cada x ∈ V vale
(f + g)(µ · x) = f(µ · x) + g(µ · x) = µ · f(x) + µ · g(x) = = µ · (f(x) + g(x)) = µ ·
(f + g)(x).

Es f´acil verificar que (HomK(V,W),+) es un grupo abeliano.

78
Producto por escalares. Dados f ∈ HomK(V,W) y λ ∈ K se define (λ · f) : V → W como
(λ · f)(x) = λ · f(x) ∀x ∈ V.
Veamos que λ · f ∈ HomK(V,W), y por lo tanto, · es una acción de K en HomK(V,W):

• Por definición, λ · f : V → W.
• λ · f es una transformación lineal:

Para todo par de elementos x,y ∈ V :

(λ · f)(x + y) =λ · (f(x + y)) = λ · (f(x) + f(y)) = λ · f(x) + λ · f(y) = =(λ · f)(x) + (λ ·


f)(y).

Para todo µ ∈ K y todo x ∈ V :

(λ · f)(µ · x) = λ · (f(µ · x)) = λ · (µ · f(x)) = (λ · µ) · f(x) =


¡ ¢
= µ · (λ · f(x)) = µ · (λ · f)(x) .

Además se cumplen las siguientes propiedades: Si λ,µ ∈ K y f,g ∈ HomK(V,W),

i) λ · (f + g) = λ · f + λ · g
ii) (λ + µ) · f = λ · f + µ · f
iii) 1 · f = f iv) (λ · µ) · f = λ · (µ · f)

En consecuencia:

Proposición (HomK(V,W),+,·) es un K-espacio vectorial.

En el caso en que ambos V y W son K-espacios vectoriales de dimensión finita,


dimV = n y dimW = m, este K-espacio vectorial resulta ser isomorfo a Km×n.

Proposición Sean V y W dos K-espacios vectoriales de dimensión finita, con dimV =


n y dimW = m. Sean B y B0 bases de V y W respectivamente. Entonces la función T :
HomK(V,W) → Km×n definida por T(f) = |f|BB0 es un isomorfismo.

Demostración. Supongamos que B = {v1,...,vn} y B0 = {w1,...,wm}.

T es una transformación lineal:


Sean f,g ∈ HomK(V,W). Por definición, T(f + g) = |f + g|BB0. Observemos que la j-
´esima columna de esta matriz es

(f + g)(vj) B0 = f(vj) + g(vj) B0 = (f(vj))B0 + (g(vj))B0,

es decir, es la suma de las j-´esimas columnas de |f|BB0 y |g|BB0.


79
Luego, |f + g|BB0 = |f|BB0 + |g|BB0 o, equivalentemente, T(f + g) = T(f) + T(g). En forma
análoga se prueba que T(λ · f) = λ · T(f).

T es un isomorfismo:

T es monomorfismo: Sea f ∈ HomK(V,W) tal que T(f) = 0, es decir, |f|BB0 = 0.


Entonces, Im(f) = {0}, de donde f ≡ 0.

T es epimorfismo: Seat ¢t para cada xA∈∈VK. m×n. Consideramos fA : V → W definida

por fA(x) B0 = A.(x)B

Se tiene que fA ∈ HomK(V,W) y T(fA) = |fA|BB0 = A.

80
TEOREMA FUNDAMENTAL DE LAS TRANSFORMACIONES
LINEALES

No es más que aplicar 2 conceptos fundamentales para saber si una transformación


es lineal o no. El primero de ellos es comprobar que la transformación es cerrada
bajo la suma, es decir:

T(u+v)= T(u) + T(v)

Lo segundo es comprobar que la transformación es cerrada bajo el producto por un


escalar, es decir:

T(a*u)=a*T(u)

donde u es un vector o una matriz y a es un escalar

81
TRANSPUESTA DE UNA TRANSFORMACION LINEAL

Sean V y W dos K-espacios y sea una transformación lineal.


Entonces T induce una

función definida por

donde

Se puede probar muy fácilmente que T´ es una transformación lineal la cual se


conoce con el nombre de transpuesta de T . Algunas propiedades de la transpuesta
son las siguientes.

Proposición Sea una transformación lineal y sea la transpuesta de T. Entonces,

a)

b) Si V y W son de dimensión finita,


entonces Además,

Proposición Sean V y W dos K-espacios de dimensión n y m respectivamente, con


bases , . Sean X* y Y* sus bases duales
respectivas. Sea una transformación lineal y sea A la matriz de T en las
bases X,Y . Entonces la matriz de T´ en las bases Y*,X* es la transpuesta de la
matriz A.

Corolario Sean V y W dos K-espacios de dimensión n y m respectivamente,


sean y los respectivos espacios de transformaciones lineales.
Entonces

a) , para cualesquiera

b) , para cada y cada

c)

82
d) Sea U un espacio de dimensión finita y ,

transformaciones lineales, entonces

Ejemplo Sea el espacio de polinomios reales y elementos fijos de . Sea el


funcional

Si es el operador derivación, entonces

83
EJERCICIOS

1. Considere la transformación T que va de R2 a R3 tal que ¿Es T una


transformación lineal?

Verificamos si cumple las propiedades

a)

b)

Por lo tanto T es una transformación lineal

84
2. Sea V un espacio vectorial real y una transformación lineal tal que

y Demuestre que T es una

transformación lineal.

Solo basta demostrar que

Si, entonces y por tanto

Por otro lado,

Luego

85
3. Sea la transformación lineal cuya matriz asociada

respecto de las bases es

Hallar donde

Luego

Luego

86
Finalmente

87
4. Demuestre que para la transformación lineal

con

Por lo tanto, el conjunto es un aspirante a base

para Nuc(T) pues claramente lo genera. Falta mostrar que B es conjunto l.i.

Por lo tanto y B es l.i. además base. Así, dim (Nuc(T))=2

88
Usando el teorema de dimensiones

89
5. Pruebe que la transformación lineal que transforma cada punto

(x,y) en su simétrico respecto a la recta y=-x, es inyectiva.

La transformación lineal tal que

Por lo tanto, dado que Nuc(T)={(0.0)}, entonces T es inyectiva

90
6. Sea la transformación lineal donde 1 y -3 son

valores propios de f y cuyos propios correspondientes son y

Encuentre la definición de f

Veamos si es base.

por lo tanto, B es base.

Sea un vector cualquiera

91
92
7. Sea V un espacio vectorial tal que dim(V)=n. Si una transformación lineal
tiene n vectores propios l.i., entonces T es diagonalizable

Verifique si la transformación lineal

es diagonalizable

Sea la base canónica de

Determinemos la matriz A asociada a la transformación lineal T con respecto


a esta base.

Obtengamos los valores propios de A

93
Por lo tanto, los valores propios son

Calculemos los vectores propios asociados.

94
Por lo tanto, los valores y vectores propios son:

Verifiquemos si es l.i.

De lo anterior se concluye que P es l.i, y finalmente T es diagonalizable.

95
8. Demuestre que si es una transformación lineal tal

que ,con entonces dim(Nuc(T))=2

El conjunto

es base del nucleo de la transformación, por lo tanto, dim(Nuc(T))=2≠0

96
9. Pruebe que la transformación lineal
es inyectiva

f es inyectiva

97
10. Demuestre que una transformación lineal de, con n≠m puede ser
biyectiva.

Llamémosle T a una transformación lineal biyectiva. Es decir, T es inyectiva


(dim(Nuc(T))=0) y sobreyectiva (dim(Im(T))=m, pues Im(T)=

Usando el teorema de las dimensiones, tenemos:

Esto contradice la hipótesis de n≠m. Esto se origina por suponer que T es


biyectiva, por lo tanto, no lo es.

98
REFERENCIAS BIBLIOGRAFICAS

Bibliografias

 Chavez Vega Carlos (2005). Algebra Lineal

 Lázaro Moisés. (2006). Algebra Lineal

 Espinoza Ramos E.(2006) Algebra Lineal

Webgrafias

 Rafael López Camino. Algebra Lineal.


http://www.ugr.es/~rcamino/docencia/geo1-03/g1tema1.pdf

 Espacios y Subespacios Vectoriales


http://www.ugr.es/~rcamino/docencia/geo1-03/g1tema1.pdf

 Espacios Vectoriales
 http://mate.dm.uba.ar/~jeronimo/algebra_lineal/Capitulo1.pdf

 Neila G. Campos
 http://personales.unican.es/camposn/espacios_vectoriales1.pdf

 Capitulo1 Subespacios Vectoriales


 https://www.uam.es/personal_pdi/economicas/portega/web-
algebra/capitulo-1/teoria-1-3/1-3-subespacios.html

 Espacios y Subespacios vectoriales


http://www.ugr.es/~jurbano/aed/AED-Tema_4-Espacios_vectoriales.pdf

 Problemas resueltos de Subespacios vectoriales, bases y dimensión


 http://www.ugr.es/~jurbano/aed/AED-Tema_4-Espacios_vectoriales.pdf

 Espacios Vectoriales y Subespacios vectoriales.


http://caminos.udc.es/info/asignaturas/grado_tecic/101/AL1/pdfs/TEORIA
3-1.pdf

 Capitulo 3 Transformaciones Lineales


 http://mate.dm.uba.ar/~jeronimo/algebra_lineal/Capitulo3.pdf

99
 Algebra Lineal: Transformaciones Lineales
http://cb.mty.itesm.mx/ma3002/materiales/ma3002-transformacion-
lineal.pdf

 Definición y propiedades de transformaciones lineales


 https://aga.frba.utn.edu.ar/definicion-y-propiedades-de-las-
transformaciones-lineales/

 Transformaciones Lineales
http://fcm.ens.uabc.mx/~matematicas/algebralineal/V%20Transformacion
es%20Lineales/01%20transformaciones%20lineales.htm

 Transformaciones Lineales Definicion.Ejemplos.Propiedades


https://www.fing.edu.uy/~jana/clases/gal1_19.pdf

100

S-ar putea să vă placă și