Sunteți pe pagina 1din 14

Algebra Lineal: Espacios vectoriales

La idea de los espacios vectoriales es tratar de generalizar el comportamiento de las matrices y los vectores de
R2 y R3 , tanto en su estructura operacional (las operaciones de que estan dotados) como en las propiedades
que les hemos dado.

1. Definiciones Basicas
Definición 1.1. Un espacio vectorial real V es un conjunto de elementos llamados vectores, con dos opera-
ciones binarias, una suma y un producto por escalar. Estas operaciones, para u, v, w ∈ V y λ, γ ∈ R, deben
cumplir las siguientes condiciones
1. Para u, v ∈ V , u + v ∈ V
2. (u + v) + w = u + (v + w)

3. Existe un vector cero 0 ∈ V tal que u + 0 = 0 + u = u


4. Si u ∈ V , existe −u ∈ V tal que u + (−u) = 0
5. u + v = v + u

6. Para u ∈ V, λ ∈ R, λu ∈ V
7. λ(u + v) = λu + λv
8. (λ + γ)u = λu + γu
9. λ(γu) = (λγ)u

10. 1u = u
La gran mayoria de estas propiedades nos son conocidas: la asociatividad de la suma (2), la conmutatividad
(5), la distributividad del producto con la suma (7), son muy similares a las operaciones y propiedades que
tenemos con los vectores de R2 , o con las matrices. Dos propiedades son de especial interes, (1) y (6).
Estas son llamadas propiedades de clausura, y garantizan que no es posible salir del conjunto solo usando
esas operaciones, asi como no se puede salir de R2 solo con sumas y productos por escalar. Muchas de las
estructuras que conocemos son espacios vectoriales reales
Ejemplo 1.1. Las matrices Mm×n son un espacio vectorial real, con las operaciones usuales. Los vectores
de R2 y R3 tambien son espacios vectoriales con las operaciones usuales

Ejemplo 1.2. Los polinomios de grado menor o igual que n, Pn , tambien son un espacio vectorial real, con
la suma de polinomios de siempre y el producto por constantes.
Hay varias cosas que podriamos sacar de estas definiciones: por ejemplo, puede haber espacios muy
pequeños y espacios muy grandes
Ejemplo 1.3. El espacio V = {0} es un espacio vectorial, llamado el espacio vectorial trivial.

Ejemplo 1.4. El conjunto de todas las funciones continuas C es un espacio vectorial con la suma de funciones
usual y el producto por constante.
Notese que en todos los ejemplos la suma de dos elementos de cualquiera de estos conjuntos es otro
elemento del mismo conjunto: no salimos de V con las operaciones que tenemos disponibles. Que pasa si eso
no fuera asi? Pues no tenemos espacio vectorial. Si cualquiera de las diez condiciones arriba mencionadas falla,
ya no hay espacio vectorial. A veces, definimos algunos subconjuntos de un espacio conocido e intentamos
revisar si es o no un espacio vectorial.

1
Ejemplo 1.5. Sea V el conjunto de todos los vectores (a, b) ∈ R2 tales que ab = 0. En este conjunto estan
los vectores (1, 0), (0, 1), pero la suma de estos (1, 0) + (0, 1) = (1, 1) ya no cumple la condicion ab = 0: hemos
salido del conjunto al sumar dos elementos del mismo. Decimos entonces que el conjunto no es cerrado para
la suma.
En este ultimo caso, suponemos que operamos bajo las operaciones usuales de R2 . Si es asi, todas las
propiedades operacionales se pueden dar por sentadas. Sin embargo, es posible redefinir la suma y el producto
por escalar para generar nuevos espacios sobre conjuntos ya conocidos, aunque enla mayoria de las aplicaciones
se supone seguimos usando la suma y el producto por escalar usuales (componente a componente) De entre
todas las formas que podemos definir operaciones, siempre se deben cumplir las siguientes condiciones
Teorema 1.2. Si V es un espacio vectorial

1. λ~0 = ~0, donde ~0 depende de la operacion de que este dotado el espacio.


2. 0x = ~0, para x ∈ V . El cero de la izquierda es el cero de los numeros reales
3. Si λx = ~0, entonces λ = 0 o x = ~0
4. (−1)x = −x para todo x ∈ V

2. Subespacios Vectoriales
Si nos centramos en las operaciones conocidas,del monton de propiedades cobran mas importancia estas
dos
u, v ∈ V, λ ∈ R → u + v ∈ V, λu ∈ V
Estas dos, llamadas propiedades de clausura (o cerradura), garantizan que el espacio es cerrado bajo sus
operaciones. En particular, nos son bastante utiles para la siguiente definicion
Definición 2.1. Sea H un subconjunto no vacio de V , un espacio vectorial. Decimos que H es un subespacio
vectorial de V , si H es un espacio vectorial con las operaciones de V
Podemos pensar que H hereda las operaciones de V , y al ser este un espacio vectorial, casi todas las
propiedades quedan garantizadas en H (si una propiedad, por ejemplo, conmutatividad, se cumple para
todos los elementos de V , tambien debe cumplirse en H, que al fin son tambien elementos de V ). Las unicas
que no se garantizan de un envion, y que por lo tanto hay que revisar, son las propiedades de clausura.
Teorema 2.2. Un subconjunto no vacio H de un espacio vectorial V es un subespacio de V si
1. Si x, y ∈ H, entonces x + y ∈ H

2. Si x ∈ H, λ ∈ R, entonces λx ∈ H
Si estas dos condiciones se cumplen, el conjunto se dice cerrado para la suma y el producto por escalar.
Y al heredar las operaciones y propiedades del conjunto V , se convierte en un espacio vectorial. Un hecho
importante de esta condicion es el siguiente: si H debe ser cerrado para el producto por escalar, si x ∈ H,
0x = ~0 ∈ H. Esto es,

Todo subespacio H de un espacio vectorial V contiene al ~0


Esta es una condicion necesaria mas no suficiente para un subespacio vectorial. Por definicion, todo espacio
es un subespacio de si mismo. Un subespacio distinto de V se denomina subespacio propio.
Ejemplo 2.1. El subespacio H = {0} de un solo elemento es llamado subespacio trivial. Este siempre es un
subespacio de cualquier espacio vectorial.

2
  
a b
Ejemplo 2.2. Consideremos H = ∈ M2×2 , a = d = 0 , es un subconjunto de las matrices 2 × 2
c d
(que son un espacio vectorial), que consta de las matrices cuya diagonal es cero. Veamos que H es cerrado
para suma y producto por escalar
     
0 b 0 e 0 b+e
+ =
c 0 f 0 c+f 0
   
0 b 0 λb
λ =
c 0 λc 0
y asi resulta ser un subespacio de M2×2
  
a b
Ejemplo 2.3. Si consideramos ahora D = ∈ M2×2 , a = 1 , las matrices cuadradas cuya primera
c d
componente es 1, este no es un subespacio vectorial: no contiene a la matriz de ceros (Ademas que no va a
cumplir ninguna de las propiedades de cerradura)
n o
Ejemplo 2.4. Sea F = (x, y, z) ∈ R3 , x3 = y2 = −1
z
. Volvamos a comprobar las cerraduras, para (x, y, z), (a, b, c) ∈
F
x y z a b c x a y b z c
= = y = = → + = + = +
3 2 −1 3 2 −1 3 3 2 2 −1 −1
x+a y+b z+c
= =
3 2 −1
de donde el conjunto es cerrado para la suma. Si ahora consideramos el producto por escalar λ(x, y, z) =
(λx, λy, λz)
x y z λx λy λz
= = → = =
3 2 −1 3 2 −1
con lo que tambien es cerrado para el producto por escalar, y es un subespaci
A veces, los subespacios de ciertos espacios conocidos
n van a tener parecidosocon otras estructuras. Volvamos
un segundo al espacio del ultimo ejemplo F = (x, y, z) ∈ R3 , x3 = y2 = −1 z
. La condicion x3 = y2 = −1z
se
parece a las ecuaciones simetricas de una recta que pasa por el origen y tiene vector director (3, 2, −1). Esto
no es gratuito. Veremos que muchos subespacios se pueden parecer a estructuras ya existentes dentro del
espacio vectorial.
Ejemplo 2.5. Consideremos un subespacio H de R (vectores de una sola componente), que tenga un elemento
distinto de cero, a. Como el subespacio es cerrado para el producto por escalar, (1/a)a = 1 ∈ H. Pero si
1 ∈ H, automaticamente entran todos los reales, al hacer el producto por escalar con cada uno. Entonces,
H = R. Esto es, los reales no tienen subespacios vectoriales propios distintos del subespacio trivial.
Ejemplo 2.6. Consideremos el plano 3x + 2y − z = 0y cualquier par de puntos (a, b, c), (d, e, f ) del plano.
Si sumamos estos puntos (a, b, c) + (d, e, f ) = (a + d, b + e, c + f ) y evaluamos el resultado en la ecuacion del
plano
3x + 2y − z = 3(a + d) + 2(b + e) − (c + f ) = (3a + 2b − c) + (3d + 2e − f ) = 0 + 0 = 0
con lo que el plano es cerrado para la suma. Si multiplicamos por un escalar (λa, λb, λc) y reemplazamos
3x + 2y − z = 3(λa) + 2(λb) − (λc) = λ(3a + 2b − c) = λ0 = 0
con lo que tambien es cerrado para el producto por escalar. Asi, este plano es un subespacio de R3 .
Teorema 2.3. En R3 , los planos que pasan por el origen y las rectas que pasan por el origen son subespacios
vectoriales de R3
Mientras trabajemos en conjuntos conocidos, verificar si algo es o no un subespacio se limita a verificar
las leyes de clausura. A veces incluso es mejor verificar que el cero este antes que otra cosa. Las leyes de
clausura podrian interpretarse de la siguiente manera: cualquier cosa escrita con sumas finitas y productos
por escalar debe hacer parte del subespacio, si los elementos basicos con los que trabajamos son elementos
del subespacio. Esto permite construir otro concepto importante

3
3. Combinacion Lineal
Definición 3.1. Sean v1 , v2 , · · · vk ∈ V vectores de un espacio V . Entonces, cualquier otro vector de la forma

a1 v1 + a2 v2 + a3 v3 + · · · ak vk

donde ai ∈ R, se dice una combinacion lineal de {v1 , v2 , · · · vk }


Una combinacion lineal, entonces, es todo lo que podamos escribir a punta de sumas y productos por
escalar (como sea que esten definidos en el espacio V , aunque de ahora en mas trabajamos con operaciones
usuales en espacios conocidos)
Ejemplo 3.1. Una combinacion lineal de los vectores (2, 3), (4, −1) ∈ R2 puede ser

5(2, 3) − 3(4, −1) = (−2, 18)

asi como
2(2, 3) + 6(4, −1) = (28, 0)
es otra combinacion lineal. Que podemos hacer infinitas combinaciones lineales solo con un numero finito de
vectores, porque tenemos un conjunto infinito de escalares para elegir.
Ejemplo 3.2. Como vimos en clase, todo vector x ∈ R3 puede escribirse como

x = (a, b, c) = a~i + b~j + c~k

que es una combinacion lineal de ~i, ~j, ~k.


Ejemplo 3.3. Una combinacion lineal de las funciones sin x, cos x es cualquier expresion de la forma a sin x+
b cos x, en el espacio de las funciones continuas.
No podemos listar todas las posibles combinaciones de un conjunto de vectores, asi que las notamos por

h, v1 , v2 , · · · vk i = {a1 v1 + a2 v2 + a3 v3 + · · · ak vk , ai ∈ R}

Teorema 3.2. Si v1 , v2 , · · · vk son vectores de un espacio vectorial V , el conjunto h, v1 , v2 , · · · vk i de todas las


posibles combinaciones lineales de estos vectores es un subespacio vectorial de V , llamado espacio generado
por {v1 , v2 , · · · vk }
En efecto, este conjunto hereda las operaciones del espacio V , y es cerrado por suma y producto por
escalar (una suma de combinaciones lineales es otra combinacion lineal, un producto por escalar con una
combinacion lineal es otra combinacion lineal)

Ejemplo 3.4. El espacio generado por h~i, ~j, ~ki es R3 , pues todo vector de R3 se puede escribir como combi-
nacion lineal de esos tres vectores basicos
Algunos espacios generados tienen formas conocidas.
Ejemplo 3.5. En R3 , consideremos el espacio generado por los vectores (2, 3, −1), (0, 4, 1). Como se ve este
espacio? Supongamos que (x, y, z) ∈ h(2, 3, −1), (0, 4, 1)i

(x, y, z) = a(2, 3, −1) + b(0, 4, 1) = (2a, 3a + 4b, −a + b)

Reescribamos esta igualdad como un sistema de ecuaciones en las variables a, b (de una vez como matriz
extendida), y apliquemos Gauss-Jordan
2 0 x 1 0 x/2
3 4 y → 0 1 z+ x/2
-1 1 z 0 0 -7x+2y-8z

4
La ultima linea −7x + 2y − 8z = 0 es una condicion: Si (x, y, z) ∈ h(2, 3, −1), (0, 4, 1)i, entonces las compo-
nentes deben satisfacer la ecuacion −7x + 2y − 8z = 0. Dicho de otra forma
h(2, 3, −1), (0, 4, 1)i = (x, y, z) ∈ R3 , −7x + 2y − 8z = 0


pero esta ultima cuenta es la ecuacion de un plano que pasa por el origen y tiene vector normal (−7, 2, −8).
Asi, este plano es el espacio generado por los dos vectores.
La mas de las veces encontraremos una condicion que han de cumplir los elementos del espacio generado,
aunque no tengan una forma conocida
Ejemplo 3.6. Ahora veamos hx2 + 3x, 4x + 1, 2x2 + 2x − 1i, un subespacio del espacio de polinomios de orden
menor o igual que 2, P2 . Montemos una combinacion lineal de estos polinomios
c1 (x2 + 3x) + c2 (4x + 1) + c3 (2x2 + 2x − 1) = ax2 + bx + c
(c1 + 2c3 )x2 + (3c1 + 4c2 + 2c3 )x + (c2 − c3 ) = ax2 + bx + c

c1 + c3 = a

y sacamos un sistema de ecuaciones 3c1 + 4c2 + 2c3 = b que al reescribir y resolver

c2 − c3 = c

1 0 2 a 1 0 2 a
3 4 2 b → 0 1 -1 c
0 1 -2 c 0 0 0 b-3a-4c
y otra vez tenemos una condicion: b − 3a − 4c = 0. Por ejemplo, sera que el polinomio 4x2 − 3x + 1 pertenece
al espacio hx2 + 3x, 4x + 1, 2x2 + 2x − 1i? Saquemos a = 4, b = −3, c = 1 y revisemos la condicion
b − 3a − 4c = (−3) − 3(4) − 4(1) = −19 6= 0
y al no cumplir la condicion, pues el polinomio no pertence al espacio generado.
Ejemplo 3.7. Consideremos, en R2 , el espacio generado h(2, 3)(4, −1)i. Otra vezm hagamos una combinacion
lineal
a(2, 3) + b(4, −1) = (x, y)
y otra vez montamos la matriz
2 4 x 1 2 x/2

3 -1 y 0 1 -y/7 +3x/14
Aqui no hay condicion. Pero revisemos un segundo lo que sabemos de sistemas de ecuaciones: la matriz con
la que estamos trabajando es una matriz invertible, pues su forma escalonada tiene suficientes pivotes. Asi
que sin importar los valores de x, y podemos encontrar siempre una solucion. Lo que es lo mismo, todo vector
de R2 puede escribirse como combinacion lineal de (2, 3)(4, −1)
En este ultimo caso, decimos que {(2, 3)(4, −1)} es un conjunto generador para R2 .
Definición 3.3. Un conjunto de vectores v1 , v2 , · · · , vk de V tales que
hv1 , v2 , · · · , vk i = V
se dice un conjunto generador de V . Decimos que {v1 , v2 , · · · , vk } genera a V .
Sobre esta ultima definicion, podemos agregar un detallito
Ejemplo 3.8. Volvamos a h(2, 3)(4, −1)i, y agreguemos un par de vectores mas
h(2, 3)(4, −1), (5, 3), (−2, 1)i
. Ya sabemos que con los dos primeros generamos todo R2 , entonces que aportan los otros dos vectores? Nada,
a decir verdad. Ya hemos generado todo el espacio, asi que si agregamos otros dos (o tres, o veinte) vectores
mas no vamos a salir del espacio V , porque es cerrado bajo suma y producto por escalar.
Teorema 3.4. Si v1 , v2 , · · · vk generan a V , entonces v1 , v2 , · · · vk , vk+1 tambien genera a V . Agregar mas
vectores a un conjunto generador sigue dando un conjunto generador, y seguimos teniendo el mismo conunto
V

5
4. Independencia Lineal
Uno de los conceptos mas importantes del algebra lineal es la independencia lineal. Cual es la idea? Ya
dijimos que agregar mas vectores no da mas cosas. Vamos a volver un momento al ultimo ejemplo
Ejemplo 4.1. Ya sabemos h(2, 3)(4, −1), (5, 3), (−2, 1)i genera a todo R2 , porque los dos primeros vectores
ya eran un conjunto generador. Hagamos un segundo una matriz con estos vectores y usemos Gauss-Jordan
2 4 5 -2 1 0 17/14 1/7

3 -1 3 1 0 1 9/14 -4/7
Los dos primeros vectores eran suficientes para construir todo R3 , en particular pueden construir los otros
dos, y los terminos de la combinacion lineal estan en la matriz
17 9
(2, 3) + (4, −1) = (5, 3)
14 14
1 4
(2, 3) − (4, −1) = (−2, 1)
7 7
Esto es, en el conjunto {(2, 3)(4, −1), (5, 3), (−2, 1)} los vectores (5, 3), (−2, 1) dependen de los otros dos.
Como expresamos esta dependencia? Si un vector en un conjunto depende de los otros, es porque existe
una combinacion lineal que permite construirlo. Pero dicha combinacion lineal puede reescribirse de otra
forma
17 9
(2, 3) + (4, −1) − (5, 3) = 0
14 14
1 4
(2, 3) − (4, −1) − (−2, 1) = 0
7 7
19 1
(2, 3) + (4, −1) − (5, 3) − (2, 1) = 0
14 14
Si uno de los vectores puede escribirse en terminos de los demas, entonces hay una combinacion lineal de los
vectores que da como resultado 0. Claro, siempre hay una combinacion lineal que da cero: multiplicar todo
por cero. El lio es que haya mas.
Definición 4.1. Sean v1 , v2 , · · · vk vectores de V un espacio vectorial. Decimos que los vectores son LINEAL-
MENTE INDEPENDIENTES si la unica combinacion lineal entre ellos igual a cero

c1 v1 + c2 v2 + · · · ck vk = 0

es aquella donde todos los escalares ci son iguales a cero. Si existe una distinta (al menos un escalar distinto
de cero), decimos que son LINEALMENTE DEPENDIENTES.
Para el ejemplo anterior, los vectores entonces son linealmente dependientes. Como saber si un conjunto
de vectores es linealmente independiente o no? A traves de un sistema de ecuaciones. Empecemos por un
caso sencillo
Teorema 4.2. Dos vectores v1 , v2 ∈ V son linealmente dependientes si y solo si uno es multiplo del otro
Demostración. (→) Supongamos que son linealmente dependientes. Entonces existe una combinacion lineal
c1 v1 + c2 v2 = 0, donde al menos uno de los escalares es distinto de cero, digamos c1 . Si despejamos entonces
a v1 ,
c2 v2
v1 = −
c1
y entonces v1 es un multiplo de v2 .
(←) Si v1 = λv2 , Entonces la combinacion lineal se convierte en

c1 v1 + c2 v2 = c1 λv2 + c2 v2 = (c1 λ + c2 )v2 = 0

y esta ecuacion es valida si c1 = 1, c2 = −λ. Asi, hay una combinacion lineal, con escalares no todos cero,
igual a cero. Los vectores entonces son linealmente independientes.

6
Hay un pequeño detalle en esta ultima cuenta, y es que no tenemos en cuenta que alguno de los vectores
sea cero. Si ese es el caso, no hay mucho que hacer: cualquier conjunto que tenga al vector cero del espacio es
linealmente dependiente. Esto debido a que cualquier combinacion lineal que involucre a cero puede llevarlo
multiplicado por cualquier cosa, y no va a alterar las cuentas.
   
4 2 3 3
Ejemplo 4.2. Las matrices y son linealmente independientes, pues una no puede ser
−2 1 6 0
multiplo escalar de la otra.
Como sabemos si un conjunto de mas de dos vectores es linealmente independiente? Con Gauss-Jordan,
como no. Recuerden que este curso bien podria llamarse él mundo segun Gauss-Jordan.́ Una combinacion
lineal de vectores igualada a cero se puede reescribir como un sistema homogeneo. Hagamos un ejemplo en
R3
Ejemplo 4.3. Son linealmente independientes los vectores {(3, 2, 1), (−1, 5, 3), (4, 1, 0), (5, 2, 1)}? Considere-
mos una combinacion lineal de estos igualada a cero.

c1 (3, 2, 1) + c2 (−1, 5, 3) + c3 (4, 1, 0) + c4 (5, 2, 1) = 0

y reescribamos esto un poco

(3c1 − c2 + 4c3 + 5c4 , 2c1 + 5c2 + c3 + 2c4 , c1 + 3c2 + c4 ) = (0, 0, 0)



3c1 − c2 + 4c3 + 5c4 = 0

y cuadremos el sistema de ecuaciones 2c1 + 5c2 + c3 + 2c4 = 0 y solucionemos

c1 + 3c2 + c4 = 0

3 -1 4 5 0 1 0 0 2 0
2 5 1 2 0 → 0 1 0 -1/3 0
1 3 0 1 0 0 0 1 -1/3 0
que me dice que el sistema tiene infinitas soluciones. Pero el sistema era un sistema sobre las variables
c1 , c2 , c3 , c4 , que eran los escalares de la combinacion lineal. Pero entonces hay infinitas combinaciones lineales
que me permiten escribir a cero. Asi, los vectores son linealmente dependientes.
Pero hay algo de este argumento que nos hubieramos podido ahorrar, no? Cuando construimos el sistema
homogeneo de ecuaciones, que tenia mas variables que ecuaciones, ya sabiamos que ibamos a obtener infinitas
soluciones. Anotemos eso para no tener que volver a hacerlo

Teorema 4.3. Un conjunto de n vectores de Rm es linealmente dependiente si n > m


La combinacion lineal      
a11 a12 a1n
 a21   a22   a2n 
c1  .  + c2  .  + · · · + cn  .  = 0
     
 ..   ..   .. 
am1 am2 amn
es equivalente al sistema 
a11 c1 + a12 c2 + · · · + a1n cn = 0


a21 c1 + a22 c2 + · · · + a2n cn = 0

..


 .

am1 c1 + am2 c2 + · · · + amn cn = 0

y si n > m, este sistema tiene infinitas soluciones.

Ejemplo 4.4. Cinco vectores de R4 , los que sean, son linealmente dependientes. Al igual que ocho vectores
de R7 , quince de R10 , etc.

7
Teorema 4.4. Un conjunto linealmente independiente de Rn no puede tener mas de n vectores.
Si del sistema de ecuaciones

a11 c1 + a12 c2 + · · · + a1n cn = 0


a21 c1 + a22 c2 + · · · + a2n cn = 0

..


 .

am1 c1 + am2 c2 + · · · + amn cn = 0

 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
sacamos la matriz de coeficientes, obtenemos A =  . ..  Vemos que las columnas de
 
 .. . 
am1 am2 · · · amn
esta matriz son justamente los vectores con los que arrancamos la cuenta. Pero esta matriz esta asociada al
sistema Ac = 0, donde c = (c1 , c2 , · · · , cn ). Si este sistema tiene una unica solucion, entonces los vectores son
linealmente independientes. De otra forma, son linealmente dependientes. Pero las soluciones de este sistema
estan asociadas a la cantidad de pivotes que podamos obtener en la forma escalonada de A.
Teorema 4.5. Sea {v1 , v2 , · · · vk } un conjunto de vectores de Rn . Este conjunto es linealmente independiente
si y solo si la forma escalonada de la matriz A = [v1 v2 · · · vk ], que tiene a los vectores como columnas, tiene
exactamente k pivotes. De forma equivalente, los vectores son linealmente independientes si el sistema Ac = 0
tiene una unica solucion.
En particular, si k = n
Teorema 4.6. Sea {v1 , v2 , · · · vn } un conjunto de vectores de Rn . Este conjunto es linealmente independiente
si y solo si la matriz A = [v1 v2 · · · vn ], que tiene a los vectores como columnas, es una matriz invertible.
Este ultimo teorema tiene una cuenta extra: si pasamos a las matrices invertibles, pues podemos llamar
al teorema fundamental de matrices invertibles: Supongamos que la matriz A = [v1 v2 · · · vn ], cuyas columnas
son vectores de Rn (esto es, es una matriz cuadrada), es una matriz invertible. Por el teorema fundamental de
las matrices invertibles, para cualquier x ∈ Rn , existe una solucion para el sistema Ac = x. Pero esta solucion
es un conjunto de escalares para una combinacion lineal. Asi que x se puede escribir como combinacion lineal
de los v1 , v2 , · · · vn , para cualquier x ∈ Rn . Asi,
Teorema 4.7. Cualquier conjunto de n vectores linealmente independientes de Rn genera a Rn
Lo que es mas, cada vector es generado de forma unica (por la solucion unica de Ac = x cuando A es
invertible). Pero hagamos un par de ejemplos antes de seguir.
Ejemplo 4.5. Son linealmente independientes los vectores (2, 3, 1), (4, 6, 2), (1, −1, 2)(1, 4, −1)? Dado que
son cuatro vectores de R3 , no. Pero hagamos las cuentas de la matriz, de todas formas
   
2 4 1 1 1 2 1/2 1/2
 3 6 −1 4  →  0 0 1 -1 
1 2 2 −1 0 0 0 0

Las unicas columnas que tiene pivotes son la primera y la tercera. Esto significa que los vectores que co-
rrespondian a esas columnas son linealmente independientes. Los otros dos son linealmente dependientes con
respecto a v1 y v3 (el segundo es multiplo del primero). Respecto de quien son dependientes se decide por la
posicion de los pivotes en la matriz: una columna que no se puede pivotear representa un vector que depende
de los vectores de las columnas que lo anteceden.
Ejemplo 4.6. Hagamos un ejemplo en otra parte, polinomios por ejemplo. Sean {x2 − 4x + 1, 2x + 3, 2x2 − 4}
un conjunto de polinomios de P2 . Si queremos averiguar si son linealmente independientes, necesitamos una
combinacion lineal igualada a cero

c1 (x2 − 4x + 1) + c2 (2x + 3) + c3 (2x2 − 4) = 0

8
(c1 + 2c3 )x2 + (−4c1 + 2c2 )x + (c1 + c2 − 4c3 ) = 0

c1 + 2c3 = 0

Pero esto genera un sistema de ecuaciones −4c1 + 2c2 = 0 que podemos volver a resolver por Gauss-

c1 + c2 − 4c3 = 0

Jordan    
1 0 2 1 0 2
 −4 2 0  →  0 1 4 
1 1 −4 0 0 1
de donde obtenemos que el sistema homogeneo tiene una unica solucion, y por lo tanto los polinomios son
linealmente independientes. Tambien hubieramos podido calcular el determinante de la matriz para obtener
este mismo resultado.
Notese que la combinacion lineal de polinomios volvio a dar lugar a una matriz y un sistema homogeneo.
Notese, ademas, que en cada columna de la matriz estan los coeficientes de uno de los polinomios. En la
mas de los casos, vamos a poder pasar el problema de determinar si un conjunto de vectores es linealmente
independiente a traves de un problema matricial. Pero para justificarlo y establecer en que casos se puede
necesitamos, adivinen, otra definicion

5. Bases y Dimension
Definición 5.1. Un conjunto finito de vectores {v1 , v2 , · · · vk } es una base para el espacio vectorial V si
1. {v1 , v2 , · · · vk } es linealmente independiente
2. {v1 , v2 , · · · vk } genera a V

Una base se puede interpretar como un conjunto ḿinimoṕara generar a V , que ademas es linealmente
independiente. Ya conocemos bases para los espacios con que trabajamos mas
Ejemplo 5.1. 1. Para R2 , el conjunto {~i, ~j} es una base

2. Para R3 , el conjunto {~i, ~j, ~k} es una base


3. Para Rn , el conunto {e1 , e2 , · · · , en }, donde ei es un vector de n componentes, todas cero excepto por
la componente i-esima que es igual a uno, es una base. Esta es una generalizacion de los vectores ~i, ~j, ~k
4. Para Mm×n , las matrices de tamaño m × n, el conjunto {E11 , E12 , E13 , · · · , E1n , E21 , E22 , · · · Emn },
donde Eij es una matriz de tamaño m × n con todos sus componentes iguales a cero salvo uno, el de la
posicion ij, es una base. Esta es una generalizacion de los {ei } de Rn
5. Para P2 , los polinomios de grado menor o igual a 2, P2 = {ax2 + bx + c; a, b, c ∈ R}, el conjunto
{x2 , x, 1} es una base.
6. Para P3 , los polinomios de grado menor o igual a 3, P3 = {ax3 + bx2 + cx + d; a, b, c, d ∈ R}, el conjunto
{x3 , x2 , x, 1} es una base.
7. Para Pn , los polinomios de grado menor o igual a n, Pn = {an xn + an−1 xn−1 + · · · + a0 , ai ∈ R}, el
conjunto {xn , xn−1 , xn−2 , · · · , x, 1} es una base.
Las bases del ejemplo anterior son las bases usuales de estos espacios, tambien llamadas bases canonicas.
Son las que solemos usar de manera regular basandonos en los componentes de los vectores. Cada uno de
estos espacios va a tener infinito numero de bases
Ejemplo 5.2. En Rn , cualquier conjunto linealmente independiente de n vectores {v1 , v2 , · · · vn }, es una
base.

9
       
1 0 0 1 0 0 0 0
Ejemplo 5.3. En las matrices 2 × 2, aparte de la base canonica { , , , },
        0 0 0 0 1 0 0 1
1 −1 1 1 0 1 1 0
las matrices { , , , } tambien son una base. Vamos a revisar que sean
1 0 0 1 1 −1 −1 1
linealmente independientes y generen el espacio. Consideremos una combinacion lineal de estas, igualada a
cero, y reescribamoslas como un sistema homogeneo
       
1 −1 1 1 0 1 1 0
c1 + c2 + c3 + c4 =0
1 0 0 1 1 −1 −1 1
   
c1 + c2 + c4 −c1 + c2 + c3 0 0
=
c1 + c3 − c4 c2 − c3 + c4 0 0


 c1 + c2 + c4 = 0

−c + c + c = 0
1 2 3


 c1 + c3 − c4 = 0
c2 − c3 + c4 = 0

Y si usamos Gauss-Jordan
   
1 1 0 1 1 1 0 1
 −1 1 1 0   0 1 1/2 1/2 
 → 
 1 0 1 −1   0 0 1 -1 
0 1 −1 1 0 0 0 1

de donde obtenemos que la unica solucion al sistema Ac = 0 es la solucion trivial, asi las matrices son
linealmente independientes. Ademas, si en lugar de tener 0 hubieramos tenido Ac = b, donde b es cualquier
matriz de M2×2 , como la matriz A resulta ser invertible, existe una unica solucion para Ac = b, esto es, hay
una combinacion lineal de estas matrices que me permite escribir a b, esto es, el conjunto genera a M2×2 .
En este ultimo ejemplo, ese detalle de una unica combinacion lineal para generar cada elemento es un
detalle bastante importante de las bases
Teorema 5.2. Si {v1 , v2 , · · · vk } es una base de V , entonces para cada x ∈ V existe un unico conjunto de
escalares {c1 , c2 , · · · , ck } talque x = c1 v1 + c2 v2 + · · · + ck vk
Si supusieramos que existen dos conjuntos de escalares para el mismo vector x

x = c1 v1 + c2 v2 + · · · + ck vk

x = c01 v1 + c02 v2 + · · · + c0k vk


0 = x − x = (c1 v1 + c2 v2 + · · · + ck vk ) − (c01 v1 + c02 v2 + · · · + c0k vk )
0 = (c1 − c01 )v1 + (c2 − c02 )v2 + (ck − c0k )vk
pero, al ser linealmente independientes los vectores vi , la unica solucion a esta combinacion lineal es que todos
los escalares sean cero: ci − c0i = 0, o ci = c0i . Asi, hay una unica forma de obtener al vector x en cualquier
base. A esto lo llamamos coordenadas de x.
Definición 5.3. Si B = {v1 , v2 , · · · vk } es una base de V , y x ∈ V , el conjunto unico de escalares {c1 , c2 , · · · ck }
para el que x = c1 v1 + c2 v2 + · · · ck vk se le llama coordenadas de x en B, y se denota (x)B . Este, ademas,
resulta ser un vector de Rk  
c1
c2 
(x)B =  . 
 
 .. 
ck

10
3 ~~ ~
Ejemplo 5.4.  1. En R , las coordenadas del vector x = (a, b, c) en la base canonica C = {i, j, k} son
a
(x)c =  b .
c
         
3 −1 1 0 0 1 0 0 0 0
2. En M2×2 , las coordenadas de la matriz A = en la base canonica C = { , , , }
  2 2 0 0 0 0 1 0 0 1
3
−1
son (A)C =  

2
2

Ejemplo 5.5. En R3 , el conjunto D = {(2, 3, −1), (1, 0, −1), (2, 1, 0)} es una base (por ser tres vectores
linealmente independientes de R3 ). Si queremos calcular coordenadas de, digamos x = (4, 8, −2), necesitamos
encontrar los escalares c1 , c2 , c3 tales que

c1 (2, 3, −1) + c2 (1, 0, −1) + c3 (2, 1, 0) = (4, 8, −2)

Pero esto es un sistema de ecuaciones en las variables c1 , c2 , c3


   
2 1 2 4 1 0 0 14/5
 3 0 1 8 → 0 1 0 -4/5 
-1 -1 0 -2 0 0 1 -2/5

De donde obtenemos que  


14/5
(4, 8, −2)D = −4/5
−2/5
En terminos de coordenadas, estamos acostumbrados a que un vector tenga un numero fijo de coordenadas.
Esto no debe cambiar si cambiaramos la base

Teorema 5.4. Si B = {v1 , v2 , · · · , vm } y C = {u1 , u2 , · · · un } son bases para el mismo espacio V , entonces
m = n. Esto es, dos bases de un mismo espacio siempre tienen la misma cantidad de elementos.
De esta forma, la cantidad de elementos o coordenadas de un vector es siempre la misma (infinitas
representaciones de un mismo elemento, todas con la misma cantidad de informacion). Esta constante es tan
importante que hay que darle un nombre

Definición 5.5. Si el espacio V tiene una base finita (con un finito numero de elementos), definimos la
dimension del espacio V como el numero de vectores en cualquiera de sus bases (que va a ser siempre el
mismo), y lo notamos como dim V . Si no hay una base finita, decimos que el espacio es de dimension
infinita. El espacio trivial {0} es un caso extra: decimos que la dimension del espacio trivial es cero.
Ejemplo 5.6. A partir de las bases canonicas

1. dimR2 = 2
2. dimR3 = 3
3. dimRn = n

4. dim Mm×n = mn
5. dim P2 = 3
6. dim P3 = 4
7. dim Pn = n + 1

11
Por otro lado, el espacio de todos los polinomios es un espacio de dimension infinita, pues no tiene una base
finita.
La dimension, ademas, es una t́opeṕara la independencia lineal
Teorema 5.6. Si dim V = n, cualquier conjunto de mas de n vectores de V es linealmente dependiente.
Como interpretamos la dimension, despues de todo esto? La dimension es una medida del tamaño de un
espacio vectorial, del mismo modo en que al tener tres dimensiones fisicas (largo,ancho,alto) decimos que
vivimos en un espacio tridimensional. Al igual que en este, un espacio no puede contener algo mas grande
que si mismo
Teorema 5.7. Si dim V = n, y H es un subespacio de V , entonces dim H ≤ n
Ejemplo 5.7. En R3 , que es un espacio de dimension tres, los unicos subespacios posibles deben tener
dimension 0 (el espacio trivial), dimension 1 (rectas que pasan por el origen), dimension 2 (planos que pasan
por el origen) o dimension 3(el mismo R3 )
Y cualquier espacio que ya contenga algo de dimension infinita tambien tiene dimension infinita.
Ejemplo 5.8. Los polinomios, que estan contenidos dentro del espacio de funciones continuas, tienen di-
mension inifnita. Entonces el espacio de funciones continuas tambien tiene dimension infinita.
Del mismo modo que en Rn , la dimension me da una condicion para la obtencion de bases
Teorema 5.8. Si dim V = n, cualquier conjunto de n vectores linealmente independientes de V , forman
una base para V
Tiene una ventaja trabajar con las bases: sus representaciones son vectores de Rn . Y lo que se puede
hacer con las representaciones es valido para los vectores que representan.
Teorema 5.9. Si B es una base finita para V ,

(x)B + (y)B = (x + y)B ; λ(x)B = (λx)B

esto es, las representaciones de coordenadas son compatibles con las operaciones del espacio vectorial.
Ejemplo 5.9. Vamos a P2 , con la base C = {x2 , x, 1}, y consideremos los polinomios p = 4x2 + 3x − 1, q =
5x − 2, r = 3x2 − 2x + 8. Las coordenadas de estos en la base canonica son
     
4 0 3
(p)C =  3  , (q)C =  5  , (r)C = −2
−1 −2 8

Y si quiero realizar la operacion 2p + 4q − 3r, uso las representaciones


       
4 0 3 −1
(2p + 4q − 3r)C = 2(p)C + 4(q)C − 3(r)C = 2  3  + 4  5  − 3 −2 =  32 
−1 −2 8 −34

que corresponde al polinomio −x2 + 32x − 34


Esto me permitiria trabajar con espacios vectoriales reales de una manera muy general, y ademas me
permite hacer una correlacion entre espacios de dimension finita y Rn . Tambien tiene otro efecto practico
Teorema 5.10. Si dim V = n y B es una base de V , entonces el conjunto de vectores {v1 , v2 , · · · vk } es
linealmente independiente si y solo si {(v1 )B , (v2 )B , · · · (vk )B } es un conjunto linealmente independiente.
Esto es, podemos evaluar la independencia lineal a partir de las coordenadas de los vectores en cualquier
base, y eso se reduce a evaluar independencia lineal en vectores de Rn , que depende de una eliminacion
gaussiana.

12
     
2 3 2 −3 4 8 −2 1 3
Ejemplo 5.10. Son linealmente independientes las matrices , ,
−1 2 1 2 0 −1 5 5 2
de M2×3 ? Usemos sus representaciones en la base canonica
     
2 −3 −2
3 4 1
           
2 3 2 2 −3 4 8 8 −2 1 3 3
=  ,
  = , = 
−1 2 1 C −1 2 0 −1 C   2  5 5 2 C 5

2 0 5
1 −1 2

y entonces    
2 −3 −2 1 -3/2 -1

 3 4 1 


 0 1 8/17 


 2 8 3  
→ 0 0 1 


 −1 2 5 


 0 0 0 

 2 0 5   0 0 0 
1 −1 2 0 0 0
La forma escalonada reducida tiene 3 pivotes, por lo que las tres columnas son linealmente independientes.
Pero entonces las tres matrices de que provenian tambien son linealmente independientes.
Por comodidad, a la hora de usar estos resultados tomamos como base la canonica del espacio en que
estemos. Pero si no tuvieramos esa base, o las representaciones estuvieran en terminos de una base distinta,
las cuentas seguirian siendo validas. Aunque estamos mas acostumbrados a reconocer un vector en terminos
de la canonica, asi que seria conveniente poder pasar a esa base.

6. Ejercicios
1. Muestre, para los conjuntos dados, que se cumplen las clausura (la suma de cualquier par de elementos
sigue siendo un elemento del conjunto, lo mismo que el producto por escalar.)
a) El conjunto de los vectores de R2 de la forma (x, x), con la suma y el producto por escalar usual.
b) El conjunto de los vectores de R2 , (x, y), que cumplen xy ≥ 0, con la suma y el producto por
escalar usual.
c) El conjunto de vectores de R3 de la forma {(x, y, |x|)}
  
a b
d ) El conjunto de matrices ; ad ≥ bc , con las operaciones usuales
c d
e) El conjunto de matrices diagonales de tamaño n, con las operaciones usuales
f ) El conjunto de matrices idempotentes (A2 = A) de tamaño n, con las operaciones usuales TAREA
g) El conjunto de funciones pares (f (x) = f (−x)), con las operaciones usuales.
h) El conjunto de las polinomios ax2 + bx + c, tales que abc = 0, con las operaciones usuales.
i ) El conjunto de funciones f (x), tales que f 00 (x) ≥ 0, con las operaciones usuales.
j ) El conjunto de vectores de Rn , que son ortogonales a un vector fijo a ∈ Rn , (Esto es, los x ∈ Rn
tales que a • x = 0, el producto punto de x con a es cero, donde el producto punto se generaliza a
Rn como se hizo de R2 a R3 ), con las operaciones usuales.
k ) V = R2 , H = {(x, y); y ≥ 0}
l ) V = R3 , H = El plano xy
 
a b
m) V = M2×2 , H = { ; a, b, c ∈ R}
−b c
n) V = Pn , H = {p ∈ Pn ; p(0) = 0}

13
2. Determine si los siguientes vectores son un conjunto generador (linealmente independiente y de la misma
dimension) para el espacio dado
a) (0, 1), (3, 4), (−1, −2) para R2
b) (1, 2, 3), (−1, 2, 3), (5, 2, 3) para R3
c) (2, 0, 1), (3, 1, 2), (1, 1, 1), (7, 3, 5) para R3
       
2 1 0 0 3 −1 0 0
d) , , , para M2×2
0 0 2 1 0 0 3 1
3. Determine si los siguientes conjuntos de vectores son linealmente independientes. Si lo son, determine
si son una base para el espacio correspondiente.
a) (−1, 4), (−5, 20)
b) (−2, 3), (4, 7)
c) (−3, 4, 2), (7, −1, 3), (1, 2, 8)
d ) (−2, 4, 0), (3, 0, 5), (0, 6, −1), (−1, 5, −2)
e) En P2 , 1 − x, x
f ) En P3 , 2x, x3 − 3, 1 + x − 4x3 , x3 + 18x − 9
     
2 −1 0 −3 4 1
g) En M2×2 , , , TAREA
4 0 1 5 7 −5
       
1 −1 −1 0 1 1 0 1
h) En M2×2 , , , ,
0 6 3 1 −1 2 1 0

14

S-ar putea să vă placă și