Documente Academic
Documente Profesional
Documente Cultură
Algebra Lineal.
El espacio vectorial es una estructura algebraica que generaliza, hasta el mayor nivel de abstraccion,
la idea de los vectores geometricos del plano y el espacio eucldeos ordinarios, as como las magnitudes
vectoriales que aparecen en Fsica; esencialmente, son conjuntos cuyos elementos se pueden sumar
entre s, y multiplicar por n umeros. Son numerosmos y muy variados, como ya puede verse desde
los primeros ejemplos, los espacios vectoriales que aparecen de manera natural en distintas ramas de
las matematicas.
Todo espacio vectorial lleva siempre asociado un conjunto con estructura de cuerpo, cuyos ele-
mentos llamaremos escalares, que jugaran el papel de n umeros. Los elementos del espacio vectorial
seran los vectores.
Nota.- En la siguiente denicion, utilizamos el mismo smbolo +para denotar la suma del grupo
abeliano E (suma de vectores) y la suma del cuerpo K. Analogamente, empleamos el smbolo
tanto para denotar el producto en el cuerpo K (producto de escalares) como para denotar la
ley externa en E (producto de escalar por vector).
Recuerdense los axiomas constitutivos de grupo abeliano y de cuerpo conmutativo enunciados en
la construccion del cuerpo de los complejos, estudiada en el Tema 2.
Denicion.- Sean (E, +) un grupo abeliano y (K, +, ) un cuerpo conmutativo; sea
: KE E una ley externa, es decir,
K, u E, (, u) u E.
Se dice que la cuaterna (E, K, +, ) tiene estructura de espacio vectorial, o bien que E es un
espacio vectorial sobre K si se verican:
1. u E, , K, ( +) u = u + u.
2. u, v E, K, (u +v) = u + v.
3. u E, , K, () u = ( u).
4. u E, 1 u = u (1 representa la unidad del cuerpo K).
1
y u
1
, u
2
, . . . , u
k
E, una combi-
nacion lineal de dichos vectores es cualquier vector de la forma
1
u
1
+
2
u
2
+. . . +
k
u
k
,
siendo
1
,
2
, . . . ,
k
K, vector que, obviamente, pertenece a E.
Observacion.- El vector nulo es combinacion lineal de cualquier conjunto nito de vectores. Todo
vector es combinacion lineal de s mismo.
2.2. Subespacios.
Denicion.- Dado (E, K, +, ) espacio vectorial y H E, se dice que H es un subespacio vecto-
rial de E si (H, K, +, ) (donde +, estan restringidas a H y KH, respectivamente) es un espacio
vectorial.
Observacion.- Todo espacio vectorial es subespacio de s mismo; ademas, en todo espacio vectorial,
el conjunto {0} formado unicamente por el vector nulo, constituye un subespacio que llamaremos
subespacio nulo.
Los dos subespacios anteriores son los llamados subespacios triviales.
j=1
j
u
j
:
j
K, u
j
M, k N
_
.
jJ
H
j
no
es vaco porque el vector nulo es com un a todos los subespacios. Dados dos vectores cualesquiera
u, v
jJ
H
j
, y para cualesquiera escalares , K, la combinacion lineal u +v pertenece a cada
H
j
por ser combinacion lineal de vectores de H
j
y ser H
j
subespacio, de modo que u+v
jJ
H
j
.
Observacion.- La union de subespacios vectoriales no es, en general, subespacio vectorial. Con-
siderense, por ejemplo, dos rectas no coincidentes (y que pasen por el origen) en R
2
.
De hecho, dados dos subespacios L, M de un mismo espacio vectorial E, se tiene que
L M es subespacio (L M M L).
(Compruebese).
El papel dual de la interseccion lo va a jugar, para subespacios vectoriales, el subespacio suma:
la suma de varios subespacios va a ser el menor subespacio que contiene a la union de todos ellos, es
decir, la clausura lineal de la union.
Denicion.- Dado E espacio vectorial sobre K, y dos subespacios L y M, denimos su suma como
L +M := {u +v : u L , v M}.
En general, dados L
1
, L
2
, . . . , L
k
subespacios, la denicion anterior se extiende recursivamente a
L
1
+L
2
+. . . +L
k
=
_
k
j=1
u
j
: u
j
L
j
_
.
j=i
L
j
= {0} i = 1, 2, . . . , k.
Teorema.- (Caracterizacion de las sumas directas.)
Sean L
1
, L
2
, . . . , L
k
subespacios vectoriales de un mismo espacio vectorial E; la suma de los
subespacios L
j
es directa si y solo si u L
1
+L
2
+. . . +L
k
, existen unicos u
j
L
j
, j = 1, 2, . . . , k,
tales que u =
k
j=1
u
j
.
Denicion.- Dos subespacios L y M de un mismo espacio E se dicen suplementarios entre s (en
E) si L
M = E.
Observacion.- Dados dos subespacios L, M suplementarios en E, todo vector de E se descompone
de forma unica como suma de un vector de L y otro de M.
3. Dependencia e independencia lineal.
Denicion.- Se dice que los vectores u
1
, u
2
, . . . , u
k
de un espacio vectorial E son linealmente
independientes si la unica combinacion lineal de ellos que da el vector nulo es la que tiene todos
los coecientes nulos, es decir,
j
K,
1
u
1
+
2
u
2
+. . . +
k
u
k
= 0
1
=
2
= . . . =
k
= 0.
En caso contrario, se dice que los vectores anteriores son linealemente dependientes.
1
,
2
, . . . ,
k
K, con alg un
i
= 0, tales que
k
j=1
j
u
j
= 0.
Y lo anterior equivale a que se pueda despejar alguno de los vectores como combinacion lineal de los
restantes, es decir,
u
i
=
j=i
j
u
j
,
j
K.
(Basta considerar el u
i
cuyo
i
= 0 en la combinacion lineal que da el vector nulo).
Denicion.- Sea M = {u
1
, u
2
, . . . , u
k
} E, siendo E un espacio vectorial; se dice que M es un
sistema libre si u
1
, u
2
, . . . , u
k
son linealmente independientes; en caso contrario, se dice que M es
un sistema ligado.
Si M es un conjunto innito de vectores de E, se dice que M es un sistema libre si todo subconjunto
nito de M lo es; as pues, M sera un sistema ligado si alg un subconjunto nito de M es ligado.
Observacion.- Cualquier conjunto que contenga el vector nulo es un sistema ligado. Cualquier
conjunto que contenga dos vectores proporcionales es ligado. La union de un sistema ligado con
cualquier otro siempre da un sistema ligado.
Observacion.- Puesto que no tenemos denidas sumas innitas de vectores, toda combinacion
lineal tendra un n umero nito de sumandos; as pues, para cualquier conjunto M de vectores (nito
o innito), podemos decir que:
M es ligado si y solo si alg un vector de M es combinacion lineal de los restantes vectores de
M.
M es libre si y solo si ning un vector de M es combinacion lineal de los restantes vectores de
M.
Ejemplo: En el espacio K[x] de los polinomios con coecientes en un cuerpo K, la familia de
polinomios
{x
k
: k N} = {1, x, x
2
, x
3
, . . .}
es un sistema libre innito, pues una combinacion lineal arbitraria a
0
+a
1
x+. . .+a
k
x
k
(a
j
K, k N)
solo puede ser el polinomio nulo, obviamente, si todos los coecientes son nulos.
4. Bases.
4.1. Base y dimension.
Denicion.- Dados E espacio vectorial y M E, se dice que M es un sistema generador
(o sistema de generadores) de E si E = L(M), es decir, si todo vector de E puede ponerse como
combinacion lineal de los de M.
Algebra Lineal, de Garbayo, Sansigre y otros, bajo el ttulo de Teorema Auxiliar; un enunciado similar
aparece en
Algebra Lineal y Geometra, de Castellet y Llerena, pag. 74, bajo el ttulo de Teorema de
Steinitz. El alumno interesado puede consultar esas demostraciones que, aunque extensas, utilizan
solo argumentaciones elementales.
El teorema dice, esencialmente, que m vectores linealmente independientes no pueden estar ge-
nerados por un n umero de vectores inferior a m.
Teorema auxiliar.- Sea E un espacio vectorial, y {u
1
, . . . , u
n
}, {v
1
, . . . , v
m
} dos conjuntos de
vectores de E. Si todos los vectores v
j
son combinaciones lineales de los u
j
y ademas forman un
sistema libre, entonces m n.
Teorema.- (Equicardinalidad de las bases). Si E es un espacio vectorial de tipo nito, todas
las bases de E tienen el mismo n umero de vectores.
k+1
= 0, lo que implica, por la independencia lineal de los u
1
, . . . , u
k
, que
1
= . . . =
k
= 0.
Si k + 1 = n, ya tenemos una base de E, pues el conjunto {u
1
, u
2
, . . . , u
k
, u
k+1
} es un sistema
libre de n vectores; en caso contrario, volvemos a aplicarle el mismo razonamiento a dicho conjunto
(sea u
k+2
E \ L{{u
1
, u
2
, . . . , u
k
, u
k+1
}}; en n k pasos, habremos obtenido un sistema libre de n
vectores, es decir, una base de E.
4.2. Coordenadas respecto a una base.
Denicion.- Sea E espacio vectorial sobre K, de dimension nita n; sea B = (u
1
, . . . , u
n
) una base
ordenada de E. Si x E, x = x
1
u
1
+ . . . + x
n
u
n
con x
j
K, los escalares x
1
, . . . , x
n
se denominan
coordenadas del vector x respecto a la base B.
El vector (x
1
, . . . , x
n
) K
n
se denomina vector de coordenadas de x respecto a B, y se suele
denotar por [x]
B
.
Proposicion.- Las coordenadas de un vector respecto a una base son unicas.
Demostracion.- Si x = x
1
u
1
+. . . +x
n
u
n
= x
1
u
1
+. . . + x
n
u
n
, entonces
(x
1
x
1
)u
1
+. . . + (x
n
x
n
)u
n
= 0,
que, por ser u
1
, . . . , u
n
linealmente independientes implica que x
j
x
j
= 0, es decir, x
j
= x
j
para
j = 1, 2, . . . , n.
Observacion.- Si E es un espacio de tipo nito de dimension n sobre el cuerpo K, jada una base
B de E, podemos identicar cada vector x E con su vector de coordenadas [x]
B
K
n
(esta
identicacionse precisara mejor mediante el concepto de isomorsmo, que se estudia en el pr oximo
tema). Podemos, pues, a todos los efectos, tratar los vectores de E como si fueran vectores de K
n
.
En particular, todo subespacio vectorial de E lo podemos expresar mediante unas ecuaciones
implcitas homogeneas sobre las coordenadas respecto a la base B.
Ejemplo.- En el espacio de polinomios K
n
[x], se considera la base B = (1, x, x
2
, . . . , x
n
). Dado
un polinomio P(x) = a
0
+ a
1
x + . . . + a
n
x
n
, su vector de coordenadas respecto a B es [P]
B
=
(a
0
, a
1
, . . . , a
n
) K
n+1
.
j=1
j
u
j
+
lk
j=1
j
v
j
+
mk
j=1
j
w
j
= 0, (1)
es decir,
k
j=1
j
u
j
+
lk
j=1
j
v
j
=
mk
j=1
j
w
j
.
j=1
j
w
j
L M.
Consecuentemente, el sumatorio anterior es combinacion lineal de los vectores de la base
(u
1
, . . . , u
k
) de L M, esto es,
mk
j=1
j
w
j
=
k
j=1
j
u
j
para algunos escalares
j
K; pero como los vectores u
j
, w
j
son linealmente independientes
por constituir todos juntos una base de M, tenemos que todos los coecientes en la anterior
igualdad son nulos; en particular,
j
= 0, j = 1, 2, . . . , mk.
Pero esto, sustituyendo en (1), nos lleva a que
k
j=1
j
u
j
+
lk
j=1
j
v
j
= 0,
que, por la independencia lineal de los u
j
, v
j
(pues todos juntos constituyen una base de L), nos
permite concluir que todos los coecientes
j
,
j
son nulos. Con lo que concluimos que todos
los coecientes
j
,
j
,
j
de la combinacion lineal (1) de partida son nulos.
Recapitulando: hemos construido una base de L+M que tiene k +(l k) +(mk) = l +mk
elementos, luego dim(L +M) = l +mk, como queramos demostrar.
Corolario.- Para cualesquiera subespacios L, M de interseccion nula, dim(L M) = dimL +
dimM.
En particular, si E es un espacio vectorial de dimension nita, y L, M son dos subespacios
suplementarios en E, entonces dimE = dimL + dimM.
Ejercicios adicionales resueltos
1. En el espacio vectorial de polinomios R
3
[x], se considera la base
_
1, x 3, (x 3)
2
, (x 3)
3
_
.
Calcular las coordenadas en dicha base del polinomio 2x
3
3x
2
x + 2.
Solucion:
Llamando P al polinomio dado, lo podremos expresar como combinacion lineal de los de la
base, de la forma
P(x) = a
0
+a
1
(x 3) +a
2
(x 3)
2
+a
3
(x 3)
3
,
(x) = a
1
+ 2a
2
(x 3) + 3a
3
(x 3)
2
= 6x
2
6x 1,
igualdad que, al evaluarla en x = 3, nos da:
P
(3) = a
1
= 35.
Volviendo a derivar y a evaluar en x = 3,
P
(x) = 2a
2
+ 6a
3
(x 3) = 12x 6 P
(3) = 2a
2
= 30 a
2
= 15.
Y, nalmente, derivando una vez mas,
P
(x) = 6a
3
= 12 a
3
= 2.
Luego las coordenadas pedidas son (26, 35, 15, 2).
Otra forma de resolverlo:
Si desarrollamos
P(x) = a
0
+a
1
(x 3) +a
2
(x 3)
2
+a
3
(x 3)
3
=
= a
0
3a
1
+ 9a
2
27a
3
+ (a
1
6a
2
+ 27a
3
)x + (a
2
9a
3
)x
2
+a
3
x
3
y lo igualamos coeciente a coeciente a 2x
3
3x
2
x + 2, obtenemos el sistema lineal
a
3
= 2
a
2
9a
3
= 3
a
1
6a
2
+ 27a
3
= 1
a
0
3a
1
+ 9a
2
27a
3
= 2
en las incognitas a
0
, a
1
, a
2
, a
3
, sistema de matriz triangular cuya sencilla resolucion nos lleva al
mismo resultado antes calculado.
2. En el espacio vectorial R
4
, consideramos el subespacio L cuya base es ((1, 2, 3, 4), (4, 3, 2, 1)),
y el subespacio M denido por las ecuaciones x
1
= x
2
= x
3
. Calcular sendas bases de los
subespacios L M y L +M.
Solucion:
Vamos a escribir el vector generico de L y a imponerle la condicion de pertenecer tambien
a M. Para calcular las ecuaciones parametricas de L, antes vamos a sustituir la base dada
por otra cuyos vectores nos den ecuaciones mas sencillas: llamando u al primer vector y v al
segundo, los reemplazamos por
1
5
(u + v) = (1, 1, 1, 1) y u v = (3, 1, 1, 3). Observese que
las transformaciones anteriores conservan la independencia lineal de los vectores.
_
0 1
0 1
_
, por lo que ha sido
lcito suprimir dicha matriz).