Documente Academic
Documente Profesional
Documente Cultură
Departamento de
Algebra. http://www.departamento.us.es/da
Captulo 4
Espacios vectoriales
4.1. Estructuras algebraicas.
En temas anteriores hemos denido matrices y vectores, estudiando algunas de sus
propiedades. Tambi en hemos trabajado con cuerpos de escalares, suponiendo que se tra-
taba de Q, R o C, pero sin dar m as detalles. Ahora vamos a estudiar con rigor estos
conceptos. Deniremos algunas de las principales estructuras que se utilizan en algebra,
como son: grupos, anillos, cuerpos y espacios vectoriales. A continuaci on nos centrare-
mos en una de las estructuras que se estudian en esta asignatura: los espacios vectoriales.
Las estructuras algebraicas son conjuntos donde hay denidas ciertas operaciones,
que satisfacen unas determinadas propiedades. Las operaciones pueden ser de varios tipos.
Por ejemplo, una operaci on binaria interna, denida en un conjunto X, es una funci on
que a dos elementos de X (dados en orden), le hace corresponder otro elemento de X. Es
decir, una funci on
p : X X X.
Por ejemplo, p podra ser la suma, la diferencia o la multiplicaci on de n umeros reales.
Observemos que, en ocasiones (la diferencia de n umeros reales, por ejemplo) el orden en
que se den los dos elementos implicados inuye en el resultado.
Cuando se trabaja con una operaci on interna, se suele utilizar un smbolo, por ejemplo
, de manera que el resultado de aplicar la operaci on a dos elementos, a y b, se escribe
ab. Un ejemplo tpico es el smbolo + para la suma de n umeros. En ocasiones, ni siquiera
se utiliza smbolo alguno, como en el caso del producto de n umeros, donde ab representa
el producto de a y b.
La primera estructura algebraica que estudiaremos, una de las m as b asicas y utilizadas,
es la de grupo:
Grupo
Sea Gun conjunto no vaco, y sea una operaci on interna denida en G. Se dice
que (G, ) es un grupo, si se cumplen las siguientes propiedades:
1. Asociativa: (a b) c = a (b c), a, b, c G.
2. Elemento neutro: e G tal que a e = e a = a, a G.
3. Elemento opuesto: a G, a
G tal que a a
= a
a = e.
_
a (b +c) = a b +a c, a, b, c A,
(a +b) c = a c +b c, a, b, c A.
Si se verica alguna propiedad m as, tenemos tipos especiales de anillos:
Dado un anillo (A, +, ), se dice que es unitario, o que tiene elemento unidad,
si cumple la siguiente propiedad:
Elemento neutro para el producto: u A tal que a u = u a = a
a A.
Dado un anillo (A, +, ), se dice que es conmutativo si cumple la siguiente pro-
piedad:
Propiedad conmutativa del producto: a b = b a, a, b A.
Ejemplo 4.1.2. Algunos ejemplos de anillo son los siguientes:
(Z, +, ), (Q, +, ), (R, +, ) y (C, +, ) son anillos conmutativos.
Si Z[x] es el conjunto de los polinomios en la variable x, con coecientes en Z, y
denimos naturalmente la suma (+) y el producto () de dos polinomios, entonces
(Z[x], +, ) es un anillo conmutativo.
De igual modo, (Q[x], +, ), (R[x], +, ), y (C[x], +, ) son anillos conmutati-
vos.
El conjunto de matrices n n con entradas en un cuerpo K, con la suma y el
producto de matrices, es un anillo no conmutativo.
En resumen, si (A, +, ) es un anillo, entonces (A, +) es un grupo, y (A, ) es casi un
grupo: s olo le falta el elemento inverso, y puede que el elemento unidad.
Hay elementos, como el 0 en el caso de los n umeros, que no pueden tener inverso
multiplicativo. Pero si cualquier otro elemento puede invertirse, es decir, si (A0, )
fuera un grupo, y a un m as, un grupo abeliano, entonces estaramos ante un cuerpo.
70
1
v
1
+
2
v
2
+ +
r
v
r
V,
donde
1
, . . . ,
r
K.
Sea V un espacio vectorial. Diremos que un vector v depende linealmente de
un conjunto de vectores v
1
, . . . , v
r
si v se puede escribir como combinaci on
lineal de v
1
, . . . , v
r
.
Dependencia e independencia lineal
Sea V un espacio vectorial sobre K. Diremos que un sistema (o conjunto) de vec-
tores S = v
1
, . . . , v
r
V es linealmente dependiente, si existen r escalares
1
, . . . ,
r
K, no todos nulos, tales que
1
v
1
+
2
v
2
+ +
r
v
r
= 0.
En caso contrario, es decir, si la unica forma de escribir el vector 0 como com-
binaci on lineal de estos vectores es tomando
1
=
2
= =
r
= 0, diremos
que el sistema S es linealmente independiente o libre.
73
_
_
1 1 2
0 1 3
0 0 1
_
_
.
Sin embargo, el conjunto T = u
1
= (1, 1, 2), u
2
= (1, 0, 1), u
3
= (2, 1, 1)
es linealmente dependiente, pues
_
_
1 1 2
1 0 1
2 1 1
_
_
_
_
1 1 2
0 1 3
0 0 0
_
_
.
Lema 4.2.1. Sea V un espacio vectorial. Un sistema de vectores v
1
, . . . , v
r
V es
linealmente dependiente si y s olo si uno de ellos es combinaci on lineal de los dem as.
PRUEBA: Supongamos que v
1
, . . . , v
r
es linealmente dependiente. Entonces existen
escalares
1
, . . . ,
r
, no todos nulos, tales que
1
v
1
+
2
v
2
+ +
r
v
r
= 0. Sabemos
que existe al menos un
i
,= 0. Tendremos entonces:
i
v
i
=
1
v
1
i1
v
i1
i+1
v
i+1
r
v
r
,
y al ser
i
,= 0, podremos despejar
v
i
=
i
v
1
i1
i
v
i1
i+1
i
v
i+1
r
i
v
r
,
que es una expresi on de v
i
como combinaci on lineal de los dem as, por tanto v
i
depende
linealmente de los dem as.
Supongamos ahora que un vector v
i
depende linealmente de los dem as. Esto quiere
decir que existe una combinaci on lineal
v
i
=
1
v
1
+ +
i1
v
i1
+
i+1
v
i+1
+
r
v
r
.
74
1
v
1
+ +
i1
v
i1
v
i
+
i+1
v
i+1
+
r
v
r
= 0,
que es una expresi on del vector 0 como combinaci on lineal de los vectores v
1
, . . . , v
r
donde no todos los coecientes son nulos (el coeciente de v
i
es 1). Por tanto, el sistema
v
1
, . . . , v
r
es linealmente dependiente. 2
Lema 4.2.2. Si un vector u depende linealmente de los vectores v
1
, . . . , v
p
, y cada uno de
estos depende linealmente de los vectores w
1
, . . . , w
q
, entonces u depende linealmente
de w
1
, . . . , w
q
.
PRUEBA: Por hip otesis, podemos escribir u =
1
v
1
+
p
v
p
y adem as v
i
=
i,1
w
1
+
+
i,q
w
q
para i = 1, . . . , p. Sustituyendo cada v
i
por la combinaci on lineal anterior,
en la expresi on de u, se obtiene:
u =
1
(
1,1
w
1
+ +
1,q
w
q
) + +
p
(
p,1
w
1
+ +
p,q
w
q
).
reorganizando los t erminos queda:
u = (
1
1,1
+ +
p
p,1
)w
1
+ + (
1
1,q
+ +
p
p,q
)w
q
.
Si llamamos
i
=
1
1,i
+ +
p
p,i
para i = 1, . . . , q, la expresi on anterior se lee
u =
1
w
1
+ +
q
w
q
,
lo que implica que u depende linealmente de w
1
, . . . , w
q
. 2
Lema 4.2.3. Sea S V un sistema linealmente independiente. Si v es un vector que no
depende linealmente de los vectores de S, entonces S v es un sistema linealmente
independiente.
PRUEBA: Sea S = u
1
, . . . , u
r
. Por reducci on al absurdo, supongamos que S v es
linealmente dependiente. Esto quiere decir que se puede escribir
1
u
1
+
r
u
r
+v = 0,
donde no todos los coecientes son nulos. Si tuvi eramos = 0, la expresi on anterior sera
una expresi on de 0 como una combinaci on lineal de los elementos de S donde no todos
los coecientes seran nulos, lo cual no es posible porque S es un sistema linealmente
independiente. Por tanto, ,= 0. Podemos entonces despejar v en la expresi on anterior,
obteniendo:
v =
u
1
r
u
r
.
Por tanto v depende linealmente de S. Contradicci on. 2
75
n
)u
n
.
Pero como B es un sistema linealmente independiente, los coecientes de la expresi on
anterior deben ser todos nulos. Es decir,
i
i
= 0, o lo que es lo mismo,
i
=
i
para todo i = 1, . . . , n. Por tanto, la forma de expresar v como combinaci on lineal de los
elementos de B es unica.
Recprocamente, sea B = u
1
, . . . , u
n
es un sistema tal que todo vector v V se
puede expresar de forma unica como combinaci on lineal de los vectores de B. Por un
lado, B es sistema de generadores, puesto que todo vector de V se puede expresar como
combinaci on lineal de B. Por otra parte, consideremos el vector 0 V . Sabemos que
siempre se tiene la combinaci on lineal obvia:
0 = 0u
1
+ + 0u
n
.
Por la propiedad que le suponemos a B, esta es la unica forma de escribir 0 como combi-
naci on lineal de los vectores de B. Por tanto, B es un sistema linealmente independiente,
luego es una base. 2
77
_
_
_
I
n
1
.
.
.
n
_
_
_
.
Luego v =
1
u
1
+ +
n
u
n
.
Ejemplo 4.- En el espacio vectorial R
3
podemos escribir el vector u =
(1, 0, 2) como combinaci on lineal de la base B = u
1
= (1, 1, 2), u
2
=
(1, 0, 1), u
3
= (2, 1, 2):
_
_
1 1 2 1
1 0 1 0
2 1 2 2
_
_
_
_
1 0 0 1
0 1 0 2
0 0 1 1
_
_
,
de donde u = u
1
+ 2u
2
+u
3
.
Ahora veamos que un espacio vectorial de tipo nito, que no sea trivial, siempre tiene
una base. Adem as veremos c omo se construye, a partir de un sistema de generadores.
Teorema 4.3.2. [de existencia de base] Sea V ,= 0 un espacio vectorial de tipo nito.
Dado cualquier sistema nito de generadores G V , existe una base B de V formada
por vectores de G.
PRUEBA: Consideremos el sistema de generadores G = v
1
, . . . , v
p
. Si es libre, enton-
ces es una base, y hemos acabado. Si no, hay un elemento v
i
G que depende lineal-
mente de los dem as. Pero entonces G
1
= Gv
i
sigue siendo sistema de generadores.
Si es libre, G
1
es una base. Si no, existir a otro vector v
j
que depende linealmente de los
dem as vectores de G
1
, y tambi en lo podremos eliminar.
Continuamos este proceso mientras el sistema de generadores sea linealmente depen-
diente. Pero como mucho podremos eliminar p 1 vectores ya que, como V ,= 0,
al menos debe haber un vector en cualquier sistema de generadores. Por tanto, en alg un
momento debemos tener alg un G
i
que sea libre, luego ser a una base contenida en G. 2
78
_
_
1 1 2 0 2
0 1 3 1 3
0 0 0 0 1
_
_
.
Luego G es un sistema generador de R
3
y B = v
1
, v
2
, v
5
es una base.
4.4. Teorema de la base. Dimensi on.
En esta secci on deniremos un concepto esencial del algebra lineal: la dimensi on de
un espacio vectorial. Necesitamos primero el siguiente resultado:
Teorema 4.4.1. Sea V un espacio vectorial. Si G = u
1
, . . . , u
m
es un sistema de
generadores de V , y S = v
1
, . . . , v
n
es un sistema linealmente independiente, entonces
n m.
PRUEBA: Supongamos que n > m. Como G es un sistema de generadores, podemos
escribir cada v
i
como combinaci on lineal de los elementos de G:
v
i
= a
1i
u
1
+ +a
mi
u
m
.
Por otra parte, como S es linealmente independiente, la ecuaci on
x
1
v
1
+ +x
n
v
n
= 0
s olo puede admitir la soluci on trivial, x
1
= = x
n
= 0. Ahora bien, sustituyendo cada
v
i
, obtenemos la ecuaci on equivalente:
x
1
(a
11
u
1
+ +a
m1
u
m
) + +x
n
(a
1n
u
1
+ +a
mn
u
m
) = 0,
donde, sacando factor com un los u
i
, se tiene:
(a
11
x
1
+ +a
1n
x
n
)u
1
+ + (a
m1
x
1
+ +a
mn
x
n
)u
m
= 0.
79
_
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= 0
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= 0
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= 0.
Este sistema homog eneo tiene, como m aximo, rango m, ya que tiene m las. Ahora bien,
si n > m, el Teorema de Rouch e-Frobenius nos dice que es un sistema compatible in-
determinado, es decir, existe una soluci on para x
1
, . . . , x
n
donde no todos son cero. Esto
contradice que S sea un sistema libre. 2
Veamos entonces qu e es la dimensi on de un espacio vectorial:
Teorema 4.4.2 (Teorema de la base). Sea V un espacio vectorial de tipo nito. Todas las
bases de V tienen el mismo n umero de elementos. A este n umero se le llama dimensi on
de V .
PRUEBA: Sean B
1
y B
2
dos bases de V , de m y n vectores respectivamente. Como B
1
es
sistema de generadores, y B
2
es libre, entonces n m por el Teorema 4.4.1. Pero como
B
2
es sistema de generadores, B
1
es libre, se tiene m n. Por tanto, m = n. 2
Dimensi on
La dimensi on de un espacio vectorial V , que denotamos dim(V ), se dene como
sigue:
Si V = 0, entonces dim(V ) = 0.
Si V es de tipo nito, su dimensi on es el n umero de elementos de cualquier
base de V .
Si V no es de tipo nito, diremos que tiene dimensi on innita, y escribire-
mos dimV = .
Ejemplo 4.4.1. El espacio vectorial R
n
tiene dimensi on n. Una base, llamada la base
can onica, est a formada por los vectores e
1
, . . . , e
n
, donde
e
i
= (0, . . . , 0,
(i)
1, 0, . . . , 0).
Ejemplo 4.4.2. El conjunto de polinomios, R[x], es un espacio vectorial de dimensi on
innita. En efecto, supongamos que existe un sistema de generadores Gde R[x], formado
por un n umero nito de polinomios. Sea entonces m el mayor grado de todos los polino-
mios de G. Entonces, cualquier combinaci on lineal de los polinomios de G tiene como
m aximo grado m, luego no podramos obtener los polinomios de grado mayor que m, y
G no sera sistema de generadores. Por tanto, dim(R[x]) = .
80
es una base de K
n
que completa a S.
Ejemplo 6.- En el espacio vectorial R
4
consideramos el sistema libre S =
v
1
= (1, 1, 2, 1), v
2
= (2, 1, 2, 1). Completaremos S con vectores de la
base can onica hasta obtener una base de R
4
:
_
_
_
_
1 2 1 0 0 0
1 1 0 1 0 0
2 2 0 0 1 0
1 1 0 0 0 1
_
_
_
_
_
_
_
_
1 2 1 0 0 0
0 1 1 1 0 0
0 0 0 2 1 0
0 0 0 0 1/2 1
_
_
_
_
.
Luego una base de R
4
que completa a S es
v
1
= (1, 1, 2, 1), v
2
= (2, 1, 2, 1), e
2
= (0, 1, 0, 0), e
3
= (0, 0, 1, 0).
La principal ventaja de la existencia de bases, en los espacios vectoriales de tipo nito,
es que vamos a poder estudiarlos, sea cual sea el espacio vectorial, como si fuera K
n
. Esto
lo vamos a conseguir mediante el uso de coordenadas.
Primero necesitamos hacer una precisi on. Hasta ahora, cuando habl abamos de un sis-
tema de vectores, o de una base, no nos importaba el orden en que estuvieran los vectores.
Pero para denir las coordenadas de un vector, es necesario jar un orden. Por tanto, a
partir de ahora, escribiremos la bases de la siguiente forma: B = (u
1
, . . . , u
n
). El uso de
par entesis, en lugar de llaves, indica que los vectores est an ordenados, luego podremos
hablar del i- esimo vector de una base, de forma rigurosa.
82
1
.
.
.
n
_
_
_
.
Ejemplo 7.- En R
4
usamos la reducci on por las de matrices para obtener las
coordenadas del vector v = (1, 2, 3, 4) respecto de la base
B = u
1
= (1, 1, 1, 0), u
2
= (1, 1, 0, 1),
u
3
= (1, 0, 1, 1), u
4
= (0, 1, 1, 1).
Aplicando el m etodo de elminaci on de Gauss-Jordan tenemos
_
_
_
_
1 1 1 0 1
1 1 0 1 2
1 0 1 1 3
0 1 1 1 4
_
_
_
_
_
_
_
_
1 0 0 0 2/3
0 1 0 0 1/3
0 0 1 0 4/3
0 0 0 1 7/3
_
_
_
_
.
Luego
v
B
=
_
2
3
,
1
3
,
4
3
,
7
3
_
.
83
= (u
1
, . . . , u
n
). Como B es base, podremos escribir
cada vector de B
1
= a
11
u
1
+a
21
u
2
+ +a
n1
u
n
,
u
2
= a
12
u
1
+a
22
u
2
+ +a
n2
u
n
,
.
.
.
u
n
= a
1n
u
1
+a
2n
u
2
+ +a
nn
u
n
.
Con esta notaci on, se tiene lo siguiente:
Teorema 4.6.1. Si las coordenadas de v V respecto a B y B
son, respectivamente
v
B
= (x
1
, . . . , x
n
) y v
B
= (x
1
, . . . , x
n
), entonces se tiene la relaci on:
x
1
= a
11
x
1
+a
12
x
2
+ +a
1n
x
n
,
x
2
= a
21
x
1
+a
22
x
2
+ +a
2n
x
n
,
.
.
.
x
n
= a
n1
x
1
+a
n2
x
2
+ +a
nn
x
n
.
PRUEBA: Por un lado, tenemos v = x
1
u
1
+ + x
n
u
n
. Y por otro lado, v = x
1
u
1
+
+x
n
u
n
. Si sustituimos cada u
i
por a
1i
u
1
+a
2i
u
2
+ +a
ni
u
n
en la expresi on anterior,
y agrupamos coecientes, obtendremos:
v = (a
11
x
1
+ +a
1n
x
n
)u
1
+ + (a
n1
x
1
+ +a
nn
x
n
)u
1
.
84
,B
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn
_
_
_
_
_
la matriz del cambio de base. Es decir, las columna i de A
B
,B
contiene las coordenadas
del vector v
i
de B
1
, . . . , x
n
), respecto a B y B
1
x
2
.
.
.
x
n
_
_
_
_
_
.
Escrito de otra manera,
X = A
B
,B
X
,
donde X y X
,B
transforma las coordenadas respecto a B
de n vectores, sea A
B
,B
la matriz n n cuyas columnas contienen
las coordenadas de los vectores de B
respecto a B. Entonces B
,B
es no singular.
PRUEBA: B
,B
son linealmente independientes, lo que ocurre si y
s olo si rg(A
B
,B
) = n, es decir, si A
B
,B
es no singular. 2
Otra forma de demostrar que, dadas dos bases B y B
, la matriz A
B
,B
es invertible, es
la siguiente: consideremos la matriz A
B,B
. Esta matriz transforma coordenadas respecto
de B en coordenadas respecto de B
,B
X
, y
por otro X
= A
B,B
X. Uniendo estas dos igualdades, se tiene:
X = A
B
,B
X
= (A
B
,B
A
B,B
)X.
Como esta igualdad se tiene para cualquier vector X K
n
, deducimos que A
B
,B
A
B,B
=
I. An alogamente, se obtiene A
B,B
A
B
,B
= I. Por tanto:
Dadas dos bases B y B
,B
es invertible, y su inversa es A
B,B
.
85
,B
) .
Ejemplo 8.- En R
3
consideramos las bases
B = u
1
= (1, 1, 0), u
2
= (1, 0, 1), u
3
= (0, 1, 1) y
B
= v
1
= (1, 1, 0), v
2
= (1, 0, 1), v
3
= (1, 0, 0).
Entonces
_
_
1 1 0 1 1 1
1 0 1 1 0 0
0 1 1 0 1 0
_
_
_
_
1 0 0 0 1 1/2
0 1 0 1 0 1/2
0 0 1 1 1 1/2
_
_
.
Luego la matriz del cambio de base es
A
B
,B
=
_
_
0 1 1/2
1 0 1/2
1 1 1/2
_
_
.
4.7. Subespacios vectoriales
En los ejemplos que hemos dado en R
3
, vimos que un vector dene una recta, o que
dos vectores (no proporcionales) denen un plano. Son estas estructuras las que en reali-
dad nos interesan, y en las que se centra la mayor parte del algebra lineal. En esta secci on
veremos c omo estas estructuras, llamadas variedades lineales o subespacios vectoriales,
tambi en son espacios vectoriales, y estudiaremos sus propiedades. La denici on precisa
es la siguiente:
Subespacio vectorial
Sea V un espacio vectorial sobre un cuerpo K, y sea L un subconjunto de V .
Diremos que L es un subespacio vectorial, o una variedad lineal de V si, con
las mismas operaciones de suma y producto por escalar, L es un espacio vectorial
sobre K.
86
,B
, entonces se tiene:
A
S,B
= A
B
,B
A
S,B
.
Como sabemos que A
B
,B
es no singular, entonces rango(A
S,B
) = rango(A
S,B
).
4.8. Ecuaciones param etricas e implcitas.
Volviendo a nuestro ejemplo principal, R
3
, el rango de un sistema de vectores S R
3
,
nos dice si S es un punto, una recta, un plano o todo el espacio, seg un sea 0, 1, 2 o 3.
Y para ver cu al es ese rango, basta calcular el rango de la matriz cuyas columnas son los
vectores de S.
Hasta ahora s olo hemos visto una forma de determinar una variedad lineal: mediante
un sistema de generadores. Esta forma es equivalente a dar unas ecuaciones param etricas.
Ecuaciones param etricas de una variedad lineal
Sea L una variedad lineal de un espacio vectorial V de dimensi on n, y sea G =
v
1
, . . . , v
m
un sistema de generadores de L. Supongamos que las coordenadas
de v
i
respecto a una base B de V son: v
i
= (a
1i
, , a
ni
). Entonces, como todo
vector v L, con coordenadas (x
1
, . . . , x
n
) se escribe como combinaci on lineal
de G, existir an unos escalares
1
, . . . ,
m
tales que v =
1
v
1
+ +
m
v
m
. Es
decir:
_
_
x
1
= a
11
1
+ + a
1m
m
x
2
= a
21
1
+ + a
2m
m
.
.
.
.
.
.
.
.
.
x
n
= a
n1
1
+ + a
nm
m
Unas ecuaciones de este tipo, conde los escalares
i
son par ametros indetermi-
nados, se llaman unas ecuaciones param etricas de L.
En otras palabras, unas ecuaciones param etricas nos dicen c omo son las coordena-
das de un vector cualquiera de L, dependiendo de los coecientes que tomemos en la
combinaci on lineal de los generadores.
Ejemplo 4.8.1. Un plano en R
3
que pasa por el origen (es decir, una variedad lineal de R
3
de dimensi on 2), puede venir dado por las siguientes ecuaciones param etricas:
_
_
_
x
1
= 2
1
3
2
x
2
=
1
+ 5
2
x
3
=
1
2
En este caso se trata del plano generado por los vectores (2, 1, 1) y (3, 5, 1).
Las ecuaciones param etricas, en el fondo, equivalen a denir una variedad lineal dan-
do un sistema de generadores. Pero existe otra forma, m as interesante, de determinar una
variedad lineal: mediante unas ecuaciones implcitas. El resultado que necesitamos es el
siguiente:
89
_
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= 0
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= 0
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= 0.
Sea L el conjunto de vectores cuyas coordenadas (respecto de B) son una soluci on de
este sistema lineal. Entonces L es una variedad lineal.
PRUEBA: Si dos vectores v = (x
1
, . . . , x
n
) y v
= (x
1
, . . . , x
n
) pertenecen a L, entonces
satisfacen cada ecuaci on del sistema, es decir, a
i1
x
1
+ +a
in
x
n
= 0 y adem as a
i1
x
1
+
+a
in
x
n
= 0. Pero entonces,
(a
i1
x
1
+ +a
in
x
n
) + (a
i1
x
1
+ +a
in
x
n
) = a
i1
(x
1
+x
1
) + a
in
(x
n
+x
n
) = 0,
por tanto, el vector v + v
= (x
1
+ x
1
, . . . , x
n
+ x
n
) es soluci on del sistema, luego
pertenece a L.
Por otra parte, dado cualquier K, se tiene
(a
i1
x
1
+ +a
in
x
n
) = a
i1
(x
1
) + +a
in
(x
n
) = 0,
luego v = (x
1
, . . . , x
n
) L. Por tanto, L es una variedad lineal. 2
Ecuaciones implcitas de una variedad lineal
Sea V un espacio vectorial de dimensi on n, y sea B una base de V . Unas ecua-
ciones implcitas de una variedad lineal L es un sistema de ecuaciones
_
_
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= 0
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= 0
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= 0.
tal que los vectores de L sean exactamente aquellos cuyas coordenadas (respecto
a B) son una soluci on del sistema.
Nota 4.8.1. El teorema 4.9.3 prueba que toda variedad lineal L de un espacio vectorial V ,
jada una bae del espacio, tiene unas ecuaciones implcitas.
En otras palabras, si unas ecuaciones param etricas nos dicen c omo son las coorde-
nadas de los vectores de L, unas ecuaciones implcitas nos dicen qu e relaciones deben
vericar entre ellas. Podramos decir que en unas ecuaciones implcitas los vectores de L
est an m as escondidos, ya que a simple vista no podramos determinar ninguno de ellos:
hay que resolver el sistema.
Observemos que el teorema anterior nos ha dado una nueva motivaci on para estudiar
variedades lineales, ya que las soluciones de un sistema lineal homog eneo son variedades
lineales.
90
_
x
1
= a
11
1
+ +a
1m
m
x
2
= a
21
1
+ +a
2m
m
.
.
.
.
.
.
x
n
= a
n1
1
+ +a
nm
m
unas ecuaciones param etricas de una variedad lineal L, y sea
A =
_
_
_
_
_
a
11
a
12
a
1m
a
21
a
22
a
2m
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nm
_
_
_
_
_
la matriz de los coecientes. Entonces
dimL = rg(A).
PRUEBA: Esto es una consecuencia inmediata de los teoremas que conocemos sobre la
base de una variedad lineal, sabiendo que las columnas de A son generadores de L. 2
Proposici on 4.9.2. Sea V un espacio vectorial de dimensi on n, y sean
_
_
a
11
x
1
+ a
12
x
2
+ + a
1n
x
n
= 0
a
21
x
1
+ a
22
x
2
+ + a
2n
x
n
= 0
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
x
1
+ a
m2
x
2
+ + a
mn
x
n
= 0.
unas ecuaciones implcitas de una variedad lineal L, y sea Ala matriz de coecientes del
sistema homog eneo. Entonces:
dimL = n rg(A).
PRUEBA: Recordemos c omo se usa el m etodo de eliminaci on de Gauss-Jordan para re-
solver un sistema lineal. Si la matriz A tiene rango r, obtendremos r variables pivote. Por
simplicar, diremos que las variables pivote son x
1
, . . . , x
r
, aunque la demostraci on fun-
ciona igual si son otras. Despejando las variables pivote respecto a las dem as, se obtiene
que la soluci on general del sistema es de la forma:
x
1
= c
1r+1
x
r+1
+c
1r+2
x
r+2
+ +c
1n
x
n
,
x
2
= c
2r+1
x
r+1
+c
2r+2
x
r+2
+ +c
2n
x
n
,
.
.
.
x
r
= c
rr+1
x
r+1
+c
rr+2
x
r+2
+ +c
rn
x
n
,
91
_
x
1
= c
1r+1
1
+ c
1r+2
2
+ + c
1n
nr
x
2
= c
2r+1
1
+ c
2r+2
2
+ + c
2n
nr
.
.
.
.
.
.
.
.
.
x
r
= c
rr+1
1
+ c
rr+2
2
+ + c
rn
nr
x
r+1
=
1
x
r+2
=
2
.
.
.
.
.
.
x
n
=
nr
.
Pero estas resultan ser unas ecuaciones param etricas de la variedad L, donde la matriz de
coecientes tiene rango n r, ya que tiene n r columnas, y sus n r ultimas las son
claramente libres. Luego, por el resultado anterior, se sigue que dimL = n r. Es decir,
dimL = n rg(A). 2
En muchas ocasiones es importante saber, dada una variedad lineal L, transformar
unas ecuaciones implcitas en unas ecuaciones param etricas, y viceversa. El primer caso
es sencillo:
Observaci on: Si tenemos unas ecuaciones implcitas de una variedad lineal L, es
decir, un sistema homog eneo que determina los elementos de L, la forma de calcular unas
ecuaciones param etricas es simplemente resolviendo el sistema, como hemos visto en el
resultado anterior.
Observemos adem as que la soluci on obtenida despejando las variables pivote nos da
una base de L, formada por los vectores que son coecientes de los par ametros
1
,
2
,
etc.
Si por el contrario tenemos unas ecuaciones param etricas de L, es decir, un sistema
de generadores, veremos dos m etodos para calcular unas ecuaciones implcitas de la va-
riedad: uno se basa en el m etodo del orlado y otro utiliza transformaciones elementales
por las.
92
1 2 x
1
1 0 x
2
2 1 x
3
= 0 x
1
+ 3x
2
2x
3
= 0
1 2 x
1
1 0 x
2
1 1 x
4
= 0 x
1
3x
2
2x
4
= 0
.
Luego unas ecuaciones implcitas de L son:
L:
_
x
1
+ 3x
2
2x
3
= 0
x
1
3x
2
2x
4
= 0
.
93
_
a
11
x
1
+ a
1n
x
n
= 0
.
.
.
a
nr,1
x
1
+ a
nr,n
x
n
= 0
,
que son unas ecuaciones implcitas de L.
Ejemplo 4.9.2. En el espacio vectorial R
4
, siempre respecto de la base can onica B, sea L
la variedad lineal generada por el sistema S = (1, 1, 2, 1), (2, 0, 1, 1), (1, 1, 1, 2).
Mediante transformaciones lineales por las obtenemos
_
_
_
_
1 2 1 x
1
1 0 1 x
2
2 1 1 x
3
1 1 2 x
4
_
_
_
_
_
_
_
_
1 2 1 x
1
0 2 2 x
1
+x
2
0 0 0 (1/2)x
1
(3/2)x
2
+x
3
0 0 0 (1/2)x
1
+ (3/2)x
2
+x
4
_
_
_
_
.
Luego unas ecuaciones implcitas de L son
L:
_
(1/2)x
1
(3/2)x
2
+x
3
= 0
(1/2)x
1
+ (3/2)x
2
+x
4
= 0
.
94
i=1
L
i
= L
1
+L
2
+ +L
m
= L
1
L
2
L
m
.
De forma an aloga a la proposici on anterior, se demuestra lo siguiente:
Proposici on 4.11.4. Si L
1
, . . . , L
m
son variedades lineales de un espacio vectorial V ,
entonces
L
1
+ +L
m
= v
1
+ +v
m
; v
i
L
i
, i = 1, . . . , m.
Finalizamos esta secci on con uno de los teoremas m as importantes del algebra lineal,
que relaciona las dimensiones de dos variedades cualesquiera, su suma y su intersecci on.
Este teorema es muy util para calcular dimensiones de variedades lineales.
97
i=1
i
u
1
+
s
j=1
j
v
j
+
t
k=1
k
w
k
= 0.
Hay que demostrar que todos los coecientes deben ser nulos. Sea
v =
r
i=1
i
u
1
+
s
j=1
j
v
j
=
t
k=1
k
w
k
.
De la primera forma de escribir v se obtiene que v L
1
, y de la segunda, que v L
2
.
Por tanto, v L
1
L
2
, y as v se escribe de forma unica como combinaci on lineal de los
vectores de B
0
. Como tambi en se escribe de forma unica como combinaci on lineal de los
vectores de B
1
(la f ormula anterior), y B
0
B
1
, estas dos formas de escribirlo deben ser
la misma. Por tanto,
1
= =
s
= 0.
Despu es de esto, nos queda
r
i=1
i
u
1
+
t
k=1
k
w
k
= 0,
pero esta es una combinaci on lineal de los vectores de B
2
, que es una base, luego todos
los coecientes son nulos. 2
4.12. Suma directa. Propiedades.
como vimos en la secci on precedente, las variedades lineales se pueden intersecar o
sumar. En esta secci on veremos que, si L = L
1
+L
2
, hay ocasiones en que las propiedades
de la variedad L se pueden estudiar f acilmente a partir de las propiedades de L
1
y L
2
. Para
ver c omo esto es posible, deniremos la suma directa de variedades:
Suma directa
Diremos que dos variedades lineales L
1
, L
2
son independientes, o que su suma
L
1
+L
2
es suma directa, que escribiremos L
1
L
2
, si
L
1
L
2
= 0.
98
1
+ v
2
, donde v
1
, v
1
L
1
y v
2
, v
2
L
2
, entonces v
1
,= v
1
(si no, tendramos tambi en v
2
= v
2
, y la descomposici on sera la misma). Consideremos
u = v
1
v
1
,= 0. Entonces u L
1
, pero adem as
v = v
1
+v
2
= v
1
+ (u +v
2
) = v
1
+v
2
u = v
2
v
2
L
2
.
Por tanto, u L
1
L
2
, lo que contradice que la suma de L
1
y L
2
sea directa.
Supongamos ahora que cualquier vector se puede escribir de forma unica como suma
de vectores de L
1
y L
2
. Si existiera un vector v L
1
L
2
, entonces podramos escribir
v = v + 0 = 0 + v, que seran dos descomposiciones distintas. Esto es imposible, por
tanto L
1
L
2
= 0, y la suma de estas dos variedades es directa. 2
Corolario 4.12.2. Sean L
1
y L
2
dos variedades lineales de un espacio vectorial V . La
suma L
1
+ L
2
es directa si y s olo si, si se tiene v
1
+ v
2
= 0, con v
1
L
1
y v
2
L
2
,
entonces v
1
= v
2
= 0.
PRUEBA: Si L
1
L
2
, entonces 0 se puede escribir de una unica forma como suma de
vectores de L
1
y L
2
. Por tanto, si 0 = v
1
+v
2
, s olo hay una posiblidad: v
1
= v
2
= 0.
Por otra parte, supongamos que el vector 0 s olo se puede escribir 0+0 como suma de
vectores de L
1
y L
2
. Si la suma de L
1
y L
2
no fuera directa, existira un vector v L
1
+L
2
que se podra escribir de dos formas distintas como suma de vectores de L
1
y L
2
, digamos
v = v
1
+v
2
= v
1
+v
2
. Pero entonces
0 = v v = (v
1
v
1
) (v
2
v
2
),
donde v
1
v
1
L
1
y v
2
v
2
L
2
, por tanto v
1
v
1
= 0 y v
2
v
2
= 0, es decir, la
descomposici on es la misma. Por tanto, se tiene L
1
L
2
. 2
Estas dos caracterizaciones nos permiten extender la denici on de suma directa a m as
de dos variedades lineales.
Suma directa de m as de dos variedades lineales
Dadas m variedades lineales L
1
, . . . , L
m
de un espacio vectorial V , se dice que
son independientes, o que su suma L
1
+ +L
m
es suma directa, que escribi-
remos L
1
L
2
L
m
, si cualquier vector v de dicha suma se puede escribir,
de una unica forma, como
v = v
1
+ +v
m
,
donde v
i
L
i
para todo i = 1, . . . , m.
99
+L y adem as v+L = v
+v
, luego
uu
L. An alogamente vv
)+(vv
) = (u+v)(u
+v
)
L. Es decir, (u +v)
L
(u
+ v
), luego (u +v) +L = (u
+ v
) + L como queramos
demostrar.
Por otro lado, si u+L = u
+L y K, entonces (uu
) L, luego (uu
) =
u u
= v u
L
v, donde u
=
r+1
u
r+1
+ +
n
u
n
. Pero en ese caso
v + L = u
+ L =
r+1
(u
r+1
+ L) + +
n
(u
n
+ L). Es decir, cualquier clase de
equivalencia, v +L, puede escribirse como combinaci on lineal de los elementos de B
2
.
103
r+1
(u
r+1
+L) + +
n
(u
n
+L) = 0 +L.
Esto implica que
(
r+1
u
r+1
+ +
n
u
n
) +L = 0 +L,
es decir, (
r+1
u
r+1
+ +
n
u
n
) L. Pero la variedad lineal generada por los vectores
(u
r+1
, . . . , u
n
) es suplementaria a L (ya que B es una base), luego la unica posiblidad es
que (
r+1
u
r+1
+ +
n
u
n
) = 0, por lo que
r+1
= =
n
= 0. Esto nos dice que
los elementos de B
2
son linealmente independientes. 2
Ejemplo 4.13.3. Si L es un plano de V = R
3
, que pasa por el origen, los elementos del
espacio cociente son los planos paralelos a L. La suma de dos planos
1
y
2
, da como
resultado otro plano
3
: si se toma un vector u
1
cuyo punto nal est e en
1
, y un vector
u
2
, cuyo punto nal est e en
2
, el punto nal del vector u
1
+u
2
estar a en
3
. Del mismo
modo, el producto de por
1
es el plano que contiene al punto nal del vector u
1
.
Base de V/L y coordenadas
Sea V un espacio vectorial sobre K en el que hemos jado una base respec-
to de la que tomamos coordenadas. Para obtener una base del espacio cociente
se procede como en la prueba del teorema 4.13.5. Si tenemos una base de L,
pongamos B
1
= (u
1
, . . . , u
r
), completamos esta base siguiendo la prueba del
teorema 4.5.2. Pongamos que B = (u
1
, . . . , u
r
, u
r+1
, . . . , u
n
) es una base de V .
Entonces
B
2
= (u
r+1
+L, . . . , u
n
+L)
es una base de V/L.
Sea v V un vector cualquiera. Para dar las coordenadas de v + L respecto de
B
2
prcedemos de la siguiente manera:
1) Primero escribimos v como combinaci on lineal de los vectores de la base
B, pongamos
v =
1
u
1
+ +
r
u
r
+
r+1
u
r+1
+ +
n
u
n
.
2) Entonces
(v +L)
B
2
= (
r+1
, . . . ,
n
).
Ejemplo 4.13.4. Sea V = R
3
y sea la variedad lineal L de ecuaciones
L:
_
x
1
2x
2
= 0
x
3
= 0
.
Hallar una base de V/L y las coordenadas del vector v +L, siendo v = (1, 1, 1).
Una base de L es B
1
= u
1
= (2, 1, 0). Ampliamos a una base de V
_
_
2 1 0 0
1 0 1 0
0 0 0 1
_
_
_
_
2 1 0 0
0 1/2 1 0
0 0 0 1
_
_
.
104
_
_
1 0 0 1
0 1 0 1
0 0 1 1
_
_
.
Entonces v
B
= (1, 1, 1) y
(v +L)
B
2
= (1, 1).
105