Sunteți pe pagina 1din 21

INTRODUCCIÓN al

ALGEBRA LINEAL

Kepler Ck Ikastegia

2005
Introducción al álgebra lineal

2 Kepler Ck Ikastegia
Índice general

1. Espacios vectoriales 5
1.1. Definición y propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3. Base y dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4. Subespacios y espacios vectoriales cocientes . . . . . . . . . . . . . . . . . . . . . 9
1.5. Intersección y suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.6. Homomorfismos o aplicaciones lineales entre espacios vectoriales . . . . . . . . . 11
1.7. Matriz asociada a una aplicación lineal . . . . . . . . . . . . . . . . . . . . . . . . 12

2. Matrices. Determinantes 13
2.1. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.3. Resolución de sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . 21
2.4. Funciones multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5. Función determinante. Propiedades de los determinantes . . . . . . . . . . . . . . 21
2.6. Desarrollo de un determinante por los elementos de una lı́nea. Regla de Cramer . 21

3
Introducción al álgebra lineal

4 Kepler Ck Ikastegia
Capı́tulo 1

Espacios vectoriales

1.1. Definición y propiedades


Definición 1.1 Dado un cuerpo K, se llama espacio vectorial sobre K a todo grupo abeliano
(V, +) en el que hay definida una Ley de Composición Externa
K × V −→ V
(λ, v) −→ λv
que cumple las siguientes propiedades:
1. (λ + µ)v = λv + µv
2. (λµ)v = λ(µv)
3. λ(v + w) = λv + λw
4. 1v = v
∀ λ, µ ∈ K ∀ v, w ∈ V
Observación 1.1 Dado un cuerpo K, un espacio vectorial sobre K es un par formado por un
grupo abeliano (V, +) y un homomorfismo de anillos ϕ : K −→ End(V )
Los elementos de K se denominan escalares y los de V vectores. La operación externa definida
en V se suele llamar también multiplicación escalar.
Se verifican las siguientes propiedades:
1. 0v = 0 ∀v ∈ V
2. λ0 = 0 ∀λ ∈ K
3. (−1)v = −v ∀v ∈ V
donde 0 designa, según el contexto, el elemento neutro aditivo de K o el vector nulo de V , y 1
es el elemento identidad de K; en efecto,
1. 0v = (0 + 0)v = 0v + 0v =⇒ 0v = 0
2. λ0 = λ(0 + 0) = λ0 + λ0 =⇒ λ0 = 0
3. v + (−v) = 1v + (−1)v = [1 + (−1)]v = 0v =⇒ (−1)v = −v

5
Introducción al álgebra lineal

1.2. Dependencia e independencia lineal


Definición 1.2 Sean {v1 , . . . , vm } ⊂ V y {λ1 , . . . , λm } ⊂ K; un elemento de V de la forma
λ1 v1 + · · · + λm vm se denomina combinación lineal en V de los elementos v1 , . . . , vm ; se dice que
los λi son los coeficientes de dicha combinación lineal.

Definición 1.3 Sea S = {v1 , . . . , vm } ⊂ V un subconjunto finito no vacı́o de vectores no nulos


y distintos de V . Se dice que S es libre o que los vectores de S son linealmente independientes si
el vector nulo no puede escribirse como combinación lineal de dichos vectores salvo trivialmente,
es decir, si
λ1 v1 + · · · λm vm = 0 =⇒ λi = 0 ∀ i = 1, . . . , m
Esto equivale a que ningún vector de S puede escribirse como combinación lineal de los restantes.
En caso contrario se dice que S es ligado o que los vectores de S son linealmete dependientes.

Definición 1.4 Sea Ø 6= T ⊂ V un subconjunto no vacı́o de vectores de V ; se dice que T es


libre si cualquier subconjunto finito no vacı́o S ⊂ T es libre. Si T no es libre se dice que T es
ligado.

Definición 1.5 Sea Ø 6= S ⊂ V un subconjunto no vacı́o de vectores de V ; se llama clausura


lineal de S o subespacio engendrado por S al subconjunto de V formado por todas las combi-
naciones lineales de vectores de S, es decir,
( p )
X
L(S) =< S >= [S] = λi vi | p ∈ IN, λi ∈ K, vi ∈ S
i=1

Si S = {v1 , . . . , vp } ⊂ V entonces se utiliza también la notación

L({v1 , . . . , vp }) =< {v1 , . . . , vp } >= Kv1 + · · · + Kvp

Si L(S) = V se dice que S es un sistema generador de V o que V está engendrado por S; en


este caso cada vector de V puede expresarse como combinación lineal de vectores de S, es decir,
∀ v ∈ V ∃ λi ∈ K, y
p
P
∃ vi ∈ S, i = 1, . . . , p | v = λi vi para algún p ∈ IN.
i=1
Si S es finito y es un sistema generador de V entonces diremos que V es un espacio vectorial
sobre K finitamente generado.

1.3. Base y dimensión


Definición 1.6 Sea S un sistema generador de V ; se dice que S es minimal si no existe ningún
subconjunto propio T ⊂ S que sea sistema generador de V .

Definición 1.7 Sea S un subconjunto libre de V ; se dice que S es libre maximal si no es


subconjunto propio de ningún T ⊂ V que sea libre.

Definición 1.8 Sea V un espacio vectorial no nulo y Ø 6= S ⊂ V ; diremos que S es una base
de V si S es un sitema generador minimal.

6 Kepler Ck Ikastegia
Introducción al álgebra lineal

Lema 1.1 Sea V un espacio vectorial sobre K y S un sistema generador de V ; si w ∈ S puede


expresarse como combinación lineal de vectores de S − {w} entonces S − {w} es un sistema
generador de V .
Demostración:
p
P
Sea v ∈ V ; por hipótesis ∃ λ, µi ∈ K i = 1, . . . , p y ∃ vi ∈ S − {w} tales que v = λw + µi vi ;
i=1
P
m
ahora bien, ∃ αj ∈ K, j = 1, . . . , m y ∃ uj ∈ S − {w} tales que w = αj uj ; en definitiva,
j=1
v ∈< S − {w} >

Teorema 1.1 Sea V un espacio vectorial no nulo y Ø 6= S ⊂ V un subconjunto. Son equiva-


lentes:

i) S es una base de V .

ii) S es libre maximal.

iii) S es un sistema generador de V y libre.

Demostración:
i)=⇒ii)
Veamos que S es libre. Sea T = {v1 , . . . , vp } ⊂ S; veamos que T es libre. Si existe una combi-
1
nación lineal λ1 v1 + · · · + λp vp = 0 con algún λi 6= 0 entonces vi = − (λ1 v1 + · · · + λi−1 vi−1 +
λi
λi+1 vi+1 + · · · + λp vp ) y de esta forma vi es combinación lineal de vectores de S − {vi }. Por el
lema 1.1 S − {vi } es un sistema generador de V y esto contradice que S es sistema generador
minimal. Por otra parte, si ∃ Ø 6= S 0 ⊂ V tal que S 0 es libre y S es un subconjunto propio de
S 0 , entonces podemos tomar v ∈ S 0 − S. Como S es sistema generador existen w1 , . . . , wn ∈ S
y λ1 , . . . , λn ∈ K tales que v = λ1 w1 + · · · λn wn . Ası́, {v, w1 , . . . , wn } ⊂ S 0 es ligado, lo cual es
una contradicción. En definitiva, S es libre maximal.
ii)=⇒iii)
Si S no es un sistema generador ∃ v ∈ V que S no puede expresarse como combinación lineal de
vectores de S. Por tanto, S la unión disjunta S · {v} es libre; en efecto, si T es un subconjunto
finito y no vacı́o de S · {v} caben dos casos:

1. T ⊂ S, luego T es libre por serlo S.

2. v ∈ T ; supongamos T = {v, u1 , . . . , up } y sea λv + λ1 u1 + · · · + λp up = 0 una combinación


lineal nula; entonces, si λ = 0 necesariamente
λi = 0, i = 1, . . . , p por ser S libre. Si es λ = 0 entonces
1
v = − (λ1 u1 + · · · + λp up ) ∈< S > que es absurdo.
λ
S
En definitiva, S · {v} es libre y esto contradice que S es libre maximal, con lo cual S es un
sistema generador de V .
iii)=⇒i)
Supongamos que existe un subconjunto propio Ø 6= T ⊂ S tal que T es un sistema generador
de V ; sea v ∈ S − T ; existen λ1 , . . . , λp ∈ K y existen u1 , . . . , up ∈ T tales que v = λ1 u1 + · · · +
λp up =⇒ {v, u1 , . . . , up } ⊂ S es ligado lo cual es una contradicción.

7 Kepler Ck Ikastegia
Introducción al álgebra lineal

Observación 1.2 Si B es una base del espacio vectorial V entonces ∀ v ∈ V se puede expresar
de forma única como combinación lineal de vectores de B; en efecto, supongamos que v =
λ1 u1 + · · · + λp up y
v = µ1 u1 + · · · + µp up , para algún subconjunto {u1 , . . . , up } ⊂ B, son dos formas diferentes
de expresar el vector v como combinación lineal de vectores de B; añadiendo los coeficientes
nulos necesarios podemos asegurar que aparecen el mismo número de sumandos y el mismo
subconjunto
{u1 , . . . , up } ⊂ B de vectores. Entonces se sigue que
(λ1 − µ1 )u1 + · · · + (λp − µp )up = 0 y como {u1 , . . . , up } es libre se deduce que λi = µi ∀ i =
1, . . . , p.

Teorema 1.2 Si S es un sistema generador finito de V entonces existe B ⊂ S tal que B es una
base de V .
Demostración:
Si S es libre entonces basta tomar B = S; si S no es libre existe v ∈ S que se puede expresar
como combinación lineal de vectores de S − {v}, luego por el lema 1.1 S − {v} es un sistema
generador de V . Si resulta ser S − {v} libre tomamos B = S − {v}, en caso contrario, se vuelve
a eliminar un vector de S − {v}. Como la cardinalidad de S es finita el proceso termina con la
obtención de un subconjunto B ⊂ S tal que B es libre y sistema generador de V , luego base de
V.

Teorema 1.3 Sea V un espacio vectorial sobre K finitamente generado y no nulo. Entonces V
posee al menos una base finita.
Demostración:
Sea S un sistema generador de V finito. Por el teorema1.2 existe B ⊂ S base de V ; además es
B finito.

Proposición 1.1 Si {w1 , . . . , wn } es un sistema de vectores linealmente dependientes con w1 6=


0, entonces ∃ i ∈ {1, . . . , n} | wi es combinación lineal de los que le preceden, es decir, de
{w1 , . . . , wi−1 }.
Demostración:
Como {w1 , . . . , wn } es ligado existen escalares λj ∈ K no todos nulos tales que λ1 w1 + · · · +
λn wn = 0; sea i ∈ {1, . . . , n} el mayor subı́ndice tal que λi 6= 0. Por tanto, λi+1 = · · · = λn = 0
1
y wi = − (λ1 w1 + · · · + λi−1 wi−1 ). (Nótese que i > 1)
λi

Teorema 1.4 (de Steinitz o del reemplazamiento) Supongamos que


{u1 , . . . , un } ⊂ V es un sistema generador de V y que {v1 , . . . , vp } ⊂ V es libre, entoncesS p≤n
y existe un subconjunto T ⊂ {u1 , . . . , un } tal que Card(T ) = n − p y {v1 , . . . , vp } T es un
sistema generador de V .
Demostración:
v1 es combinación lineal de {u1 , . . . , un } luego {v1 , u1 , . . . , un } es ligado. Por la proposición
1.1 existe i1 ∈ {1, . . . , n} tal que ui1 es combinación lineal de {v1 , u1 , . . . , ui1 −1 }; (nótese que
v1 6= 0 pues es un vector de un sistema libre). Por el lema 1.1 {v1 , u1 , . . . , un } − {ui1 } es
un sistema generador de V . Ahora v2 es combinación lineal de {v1 , u1 , . . . , un } − {ui1 } luego
{v2 , v1 , u1 , . . . , un } − {ui1 } es ligado. Como v2 6= 0 y v1 no es combinación lineal de v2 se sigue
por el lema 1.1 que existe i2 ∈ {1, . . . , n}−{i1 } tal que ui2 ∈ {u1 , . . . , un }−{ui1 } es combinación

8 Kepler Ck Ikastegia
Introducción al álgebra lineal

lineal de {v2 , v1 , u1 , . . . , ui2 −1 }. De nuevo suprimimos el vector ui2 y consideramos el sistema gen-
erador de V , {v2 , v1 , u1 , . . . , un } − {ui1 , ui2 }. Argumentando de esta forma se concluye que p ≤ n
y que existen subı́ndices i1 , . . . , ip tales que
{vp , . . . , v1 , u1 , . . . , un } − {ui1 , . . . , uip } es un sistema generador de V . Bastarı́a tomar entonces
T = {u1 , . . . , un } − {ui1 , . . . , uip }.
(Obsérvese que si p > n entonces se llegarı́a a que existen i1 , . . . , in tales que {vn , . . . , v1 , u1 , . . . , un }−
{ui1 , . . . , uin } = {vn , . . . , v1 } es un sistema generador de V y vn+1 serı́a combinación lineal de
los vectores v1 , . . . , vn lo cual es absurdo pues {v1 , . . . , vn , vn+1 , . . . , vp } es libre.)
Teorema 1.5 Sea V un espacio vectorial sobre K no nulo y finitamente generado. Entonces to-
das las bases de V tienen la misma cardinalidad finita. Dicho cardinal se denomina la dimensión
de V y se denota por dimK V .
Demostración:
Se ha probado ya la existencia de una base finita de V digamos B. Sea B 0 otra base de V ; nece-
sariamente Card(B 0 ) ≤ Card(B); en efecto, en caso contrario, podemos tomar un subconjunto
finito T ⊂ B 0 tal que
Card(B) < Card(T ) < ∞ y como B es un sistema generador y T es libre se contradice el
teorema del reemplazamiento 1.4. Por la misma razón, al ser B 0 un sistema generador de V y B
libre se deduce que Card(B) ≤ Card(B 0 ), y en definitiva Card(B) = Card(B 0 ).
Nota:
Si V = {0}, por convenio, supondremos que V es un espacio vectorial sobre K de base vacı́a y
con cardinalidad 0, es decir, dimK {0}= 0. Con este convenio, las fórmulas que se prueban son
válidas para espacios vectoriales sobre K no necesariamente no nulos.

1.4. Subespacios y espacios vectoriales cocientes


Definición 1.9 Sea V un espacio vectorial sobre K y (W, +) un subgrupo de (V, +); se dice
que W es un subespacio de V si ∀ λ ∈ K y ∀ w ∈ W es λw ∈ W , es decir, si la restricción a
K × W de la Ley de Composición Externa K × V −→ V dota a W de una estructura de espacio
vectorial sobre K.
Nota:
{0} y V son subespacios de V denominados subespacios triviales.
Si v ∈ V − {0} entonces Kv = [v] =< v >= {λv | λ ∈ K} es un subespacio de V de dimensión
1 pues {v} es una base del mismo; se trata del subespacio engendrado por v. En general, dado
un conjunto de vectores {v1 , . . . , vn } ⊂ V , el conjunto Kv1 + · · · + Kvn =< {v1 , . . . , vn } >=
[v1 , . . . , vn ] =
P
n
{ λi vi | λi ∈ K} es un subespacio de V denominado subespacio engendrado o generado por
i=1
los vectores vi , i = 1, . . . , n.
Proposición 1.2 W ⊂ V es un subespacio ⇐⇒ ∀ α, β ∈ K y ∀ v, w ∈ W es αv + βw ∈ W .
Demostración:
=⇒ Evidente
⇐= Sean v, w ∈ W Tomemos α = 1 y β = −1; por hipótesis es
v + (−1)w ∈ W ⇐⇒ v − w ∈ W luego (W, +) es subgrupo de (V, +). Por otra parte ∀ λ ∈ IK y
∀ w ∈ W es λw ∈ W y ası́, W es subespacio de V .

9 Kepler Ck Ikastegia
Introducción al álgebra lineal

Teorema 1.6 Sea V un espacio vectorial finitamente generado y sea W ⊂ V un subespacio,


entonces se tiene:

1. W es un espacio vectorial finitamente generado, es decir, dimK W < ∞

2. dimK W ≤ dimK V

3. Cada base de W puede completarse hasta obtener una base de V .

4. dimK W = dimK V ⇐⇒ W = V

Demostración:
Sea B una base de V . Entonces Card(B) < ∞ pues V es finitamente generado. Sea T ⊂ W
libre en W entonces T es libre en V y ası́ por el teorema del reemplazamiento 1.4 se tiene
Card(T ) ≤ Card(B) < ∞. Por tanto, todos los subconjuntos libres de W tienen cardinalidad
finita menor o igual que la de B.
Elegimos en A = {T ⊂ W | T es libre en W } ⊂ P(W ) un subconjunto B0 de cardinalidad
máxima. Entonces B0 es libre maximal en W luego es una base de W . Además Card(B0 ) ≤
Card(B) lo cual implica dimK W ≤ dimK V .
Sea B0 una base de W ; si Card(B0 ) = Card(B) entonces B0 es libre maximal en V ; en efecto,
B0 es libre en V y además, como en V todas las bases poseen el mismo cardinal, resulta que no
existe T ⊂ V libre en V tal que Card(T ) > Card(B) = Card(B0 ); ası́, B0 es base de V .
Si Card(B0 ) < Card(B) entonces B0 no es libre maximal en V , pues si lo fuera, serı́a base de
V y entonces Card(B0 ) S= Card(B). Por tanto,
∃ v ∈ V − B0 tal que B0 {v} es libre en V . Realizando este proceso Card(B) − Card(B0 ) veces
se puede encontrar una base de V , digamos B 0 tal que B0 ⊂ B 0 .
Finalmente, si dimK W = dimK V entonces Card(B0 ) = Card(B) luego B0 es base de V y
ası́ W =< B0 >= V .

Ejemplo 1.1 Sea V un espacio vectorial sobre K con dimK V =3 y sea {v1 , v2 , v3 } una base de
V . Consideremos el subespacio generado por los vectores
u1 = v1 − v2
u2 = v1 + v2
u3 = v1 + v2 + v3
es decir, W =< {u1 , u2 , u3 } > ¿Cuál es la dimensión de W ? ¿Es W = V ?
Es claro que dimK W ≤ dimK V = 3. Por otra parte, {u1 } es libre; si ∃ λ ∈ K tal que u2 =
λu1 ⇐⇒ v1 + v2 = λ(v1 − v2 ) entonces (1 − λ)v1 + (1 + λ)v2 = 0 y como {v1 , v2 } es libre se tiene
que −1 = λ = 1 =⇒ car K = 2 y u1 = u2 luego una base de W es {u1 , u3 } y dimK W =2.
Si es car K 6= 2 entonces {u1 , u2 } es libre. Supongamos que existen escalares λ, µ ∈ K tales que
u3 = λu1 +µu2 ⇐⇒ v1 +v2 +v3 = λ(v1 −v2 )+µ(v1 +v2 ), entonces (1−λ−µ)v1 +(1+λ−µ)v2 +v3 =
0 y como {v1 , v2 , v3 } es libre se tiene

 1−λ−µ = 0
1+λ−µ = 0

1 = 0

que es absurdo. En definitiva, {u1 , u2 , u3 } es libre y al constar de 3 vectores es libre maximal


luego base de V y dimK W =3= dimK V ⇐⇒ W = V

10 Kepler Ck Ikastegia
Introducción al álgebra lineal

1.5. Intersección y suma de subespacios


Proposición 1.3 Si U y W son subespacios de V entonces
U ∩ W = {v ∈ V | v ∈ U y v ∈ W } y
U + W = {u + w | u ∈ U, w ∈ W }
son subespacios de V denominados subespacios intersección y suma de U y W respectivamente.
Demostración:
Si v1 , v2 ∈ U ∩W entonces v1 ∈ U y v2 ∈ W =⇒ v1 −v2 ∈ U y v1 −v2 ∈ W y ası́ v1 −v2 ∈ U ∩W ,
es decir, (U ∩ W, +) es un subgrupo de (V, +); además, ∀ ∈ K ∀ v ∈ U ∩ W es λv ∈ U ∩ W .
Por otro lado, si u1 + w1 ∈ U + W y u2 + w2 ∈ U + W entonces
u1 + w1 − (u2 + w2 ) = u1 − u2 + (w1 − w2 ) ∈ U + W y ∀ λ ∈ K, ∀ u ∈ U, ∀ w ∈ W es
λ(u + w) = λu + λw ∈ U + W .

Observación 1.3 En general U ∪W no es un subespacio de V ; se tiene que < U ∪W >= U +W .


Ejemplo: Sea V = IR2 = {(x, y) | x, y ∈ IR}, y sean U =< (1, 0) > y W =< (0, 1) >

El siguiente teorema relaciona las dimensiones de U ∩ W, U + W, U y W . El método de de-


mostración sirve para determinar una base de U + W conocidas bases de U ∩ W, U y W .

Teorema 1.7 (Fórmula de Grassman) Sea V un espacio vectorial finitamente generado y


sean U y W dos subespacios de V . Entonces se verifica

dim(U + W ) = dim U + dim W − dim(U ∩ W ) (1.1)

1.6. Homomorfismos o aplicaciones lineales entre espacios vec-


toriales
Veremos en esta sección los distintos teoremas de isomorfı́a ası́ como una clasificación de los
espacios vectoriales finitamente generados salvo isomorfismos.

Definición 1.10 Sean U, V dos espacios vectoriales y f : U −→ V una aplicación. Se dice que
f es un homomorfismo o una aplicación lineal de U en V si verifica las siguientes condiciones:

1. f (u + v) = f (u) + f (v) u ∈ U, v ∈ V

2. f (λu) = λf (u) ∀ λ ∈ K, ∀ u ∈ U

Naturalmente todo homomorfismo entre U y V lo es entre los grupos (U, +) y (V, +); por tanto,
f (0) = 0 y f (−u) = −f (u).

Proposición 1.4 Sea f : U −→ V una aplicación lineal. Se verifica:

1. ∀ W subespacio de U , es f (W ) un subespacio de V . En particular f (U ) es un subespacio


de V denominado imagen de f y que se denota también por Im(f ).

2. ∀ W subespacio de V es f −1 (W ) un subespacio de U . En particular, f −1 (0) es un subespacio


de U llamado núcleo de f y que se denota por ker(f ).

Demostración

11 Kepler Ck Ikastegia
Introducción al álgebra lineal

1. Sean u, w ∈ W entonces u − w ∈ W luego


f (u) − f (w) = f (u − w) ∈ f (W ). Además, si λ ∈ K entonces λf (u) = f (λu) ∈ f (W ) ya
que λu ∈ W .

2. Sean u, w ∈ f −1 (W ) entonces f (u), f (w) ∈ W luego f (u) − f (w) = f (u − w) ∈ W y


ası́ u − w ∈ f −1 (W ). Además ∀ λ ∈ K, ∀ u ∈ f −1 (W ) es λf (u) = f (λu) ∈ W luego
λu ∈ f −1 (W ).

Proposición 1.5 f es inyectiva si y sólo si ker(f ) = {0}


Demostración:
Si f es inyectiva y tomamos u ∈ ker(f ) entonces f (u) = 0 = f (0) luego por la inyectividad
es u = 0. Recı́procamente si es ker(f ) = {0} entonces dados u, v ∈ U tales que f (u) = f (v)
cumplen f (u) − f (v) = f (u − v) = 0 =⇒ u − v ∈ ker(f ) = {0} =⇒ u = v y ası́ es f inyectiva.

Definición 1.11 Sea f : U −→ V un homomorfismo de espacios vectoriales.


Si f es suprayectiva, inyectiva, o biyectiva se dice que f es respectivamente epimorfismo, monomor-
fismo o isomorfismo. En este último caso se utiliza la notación U ' V . Si U = V se dice que f es
un endomorfismo y si f es endomorfismo biyectivo se habla de automorfismo. Lógicamente dos
espacios vectoriales isomorfos son dos estructuras esencialmente idénticas y únicamente difieren
en la forma de escribir sus vectores.

1.7. Matriz asociada a una aplicación lineal

12 Kepler Ck Ikastegia
Capı́tulo 2

Matrices. Determinantes

2.1. Sistemas de ecuaciones lineales

2.2. Rango de una matriz


Definición 2.1 Sea V un espacio vectorial sobre el cuerpo K y
{v1 , . . . , vn } ⊂ V un subconjunto finito de vectores de V . Se llama rango de los vectores vi , i =
1, . . . , n a la dimensión del subespacio vectorial engendrado por ellos, es decir,
Pn
rang ({v1 , . . . , vn }) = dimK Kvi .
i=1
Recordamos la equivalencia de las tres siguientes notaciones:

Kv1 + · · · + Kvn =< {v1 , . . . , vn } >= L(v1 , . . . , vn )

Definición 2.2 Sea A = (aij ) ∈ Mm×n (K) una matriz de orden m ×n con coeficientes en K; A
tiene, por tanto, m filas y n columnas. Consideremos los vectores fila Ai = (ai1 · · · ain ) ∈ K n =
M1×n (K), i = 1, . . . , m.
Se llama rango de filas de A al rango del conjunto {A1 , . . . , Am }.
Análogamente,
  si consideramos los vectores columna
a1j
 
Aj =  ...  ∈ K m = Mm×1 (K), j = 1, . . . , n, se llama rango de columnas de A al rango
amj
del conjunto {A1 , . . . , An }.

Definición 2.3 Si f : V −→ W es un homomorfismo o aplicación lineal entre espacios vectori-


ales sobre el cuerpo K, se define el rango de f como la dimensión del espacio imagen, es decir,
rang (f ) = dimK f (V ) = dimK Im(f ).

Sea f : V −→ W una aplicación lineal, con V, W espacios vectoriales sobre el cuerpo K y sean
dimK V = n y dimK W = m. Supongamos que la matriz coordenada de f respecto de sendas
bases {v1 , . . . , vn } de V y {w1 , . . . , wn } de W es A = (aij ) ∈ Mm×n (K), es decir, ∀ j = 1, . . . , n
P
m
es f (vj ) = aij wi . Entonces rang (f ) = dimK f (V ) = dimK Kf (v1 ) + · · · + Kf (vn )
i=1

13
Introducción al álgebra lineal

Por otra parte, si consideramos el isomorfismo

Ψ:W −→ K m  
à ! b1
P
m P
m
 
bj wj 7−→ Ψ bj wj =  ... 
j=1 j=1
bm

se tiene Ψ(f (V )) = KΨ(f (v1 )) + · · · + KΨ(f (vn )) = KA1 + · · · + KAn y ası́ f (V ) y KA1 + · · · +
KAn son espacios vectoriales isomorfos y, por tanto, de igual dimensión, es decir, rang (f ) = rango
de columnas de A. Se ha probado pues el siguiente

Teorema 2.1 Sea f : V −→ W un homomorfismo de espacios vectoriales sobre K; entonces


rang (f ) = rango de columnas de A, donde A es una cualquiera de las matrices coordenadas de
f . Como el conjunto de matrices coordenadas de f es

{Q−1 AP | P ∈ Gl(n, K), Q ∈ Gl(m, K)}

se sigue que todas las matrices del mismo tienen el mismo rango de columnas que A.

Teorema 2.2 Sea h : V −→ W una aplicación lineal entre espacios vectoriales sobre K con
dimK V =n y dimK W =m tal que rang (h) = r. Sea A ∈ Mm×n (K) una matriz µ coordenada

−1 Ir 0
de h. Entonces existen P ∈ Gl(n, K) y Q ∈ Gl(m, K) tales que Q AP = = H
0 0
denominada matriz canónica de Hermite o forma normal de la matriz A.
Demostración:
Tenemos que
V
' Im(h), luego
ker(h)
V
r = rang (h) = dimK Im(h) = dimK = dimK V - dimK ker(h).
ker(h)
0
Sea {vr+1 , . . . , vn0 } una base de ker(h) y completémosla a una base
B = {v10 , . . . , vr0 , vr+1
0 , . . . , vn0 } de V . Entonces {h(v10 ), . . . , h(vr0 )} es libre en W ; en efecto, si
n
M
Pr P r
λi h(vi0 ) = 0 =⇒ λi vi0 ∈ ker(h) = Kvj0 , de donde se deduce que λi = 0 ∀ i =
i=1 i=1 j=r+1
1, . . . , r, por ser B una base de V . Comppletemos este sistema libre a una base de B 0 =
{h(v10 ), . . . , h(vr0 ), wr+1
0 0 } de W . La matriz coordenada de h respecto de las bases B de V
, . . . , wm
µ ¶
0 Ir 0
y B de W es precisamente H = pues h(vj0 ) = 0 ∀ j = r + 1, . . . , n. Ası́ pues, existen
0 0
matrices regulares P ∈ Gl(n, K) y Q ∈ Gl(m, K) tales que Q−1 AP = H.

Definición 2.4 Sean {v1 , . . . , vn } una base de V y {w1 , . . . , wm } una base de W y h : V −→ W


un homomorfismo definido por
Pm
h(vj ) = aij wi ∀ j = 1, . . . , n; es decir,
 i=1 
a11 · · · a1n
 ..  ∈ M
A =  ... .  m×n (K) es la matriz coordenada de h referida a dichas bases. Se
am1 · · · amn

14 Kepler Ck Ikastegia
Introducción al álgebra lineal

define el homomorfismo traspuesto ht : W −→ V mediante la fórmula:


n
X
t
h (wi ) = aij vj ∀ i = 1, . . . , m
j=1

La matriz asociada a ht con respecto a dichas bases es


 
a11 · · · am1
 ..  ∈ M
At =  ... .  n×m (K),
a1n · · · amn
se denomina matriz traspuesta de A, y tiene por filas las columnas de A.

Si A, B ∈ Mm×n (K), y C ∈ Mn×p (K), entonces se verifican:


1. (A + B)t = At + B t
2. (AC)t = C t At
Finalmente, si Q ∈ Gl(m, K) entonces Qt ∈ Gl(m, K); en efecto, si existe Q1 ∈ Gl(m, K) tal
que QQ1 = Im = Q1 Q entonces Qt Qt1 = (Q1 Q)t = Im t = I = I t = (QQ )t = Qt Qt luego Qt
m m 1 1
t −1 −1
es inversible, y se cumple (Q ) = (Q ) . t

El uso de matrices traspuestas nos permite probar los siguientes resultados:


Teorema 2.3 Sea h : V −→ W un homomorfismo entre espacios vectoriales sobre K. Entonces
rang (h) = rango de filas de A, donde A es una cualquiera de las matrices coordenadas de h.
Demostración:
Consideremos el isomorfismo
Ψ : K n −→ M1×n (K)
(α1 , . . . , αn ) 7−→ Ψ((α1 , . . . , αn )) = (α1 · · · αn )
Se tiene:
rango de filas de A = dimK KA1 + · · · + KAm =
dimK (KΨ((a11 , . . . , a1n )) + · · · + KΨ((am1 , . . . , amn )))=
dimK Ψ(K(a11 , . . . , a1n ) + · · · + K(am1 , . . . , amn )) =
dimK K(a
 11, . . . , a
1n ) + · · · + K(a
 m1 , . .. ,
amn )=
a11 am1
     ¡ ¢
dimK K  ...  + · · · + K  ...  = rango de columnas de At = rang At .
a1n amn
Supongamos que s =rango de columnas µ de¶ At . Entonces existen matrices P ∈ Gl(m, K) y
Is 0
Q ∈ Gl(n, K) tales que Q−1 At P = ; consecuentemente
0 0
µ µ ¶ ¶t µ ¶t µ ¶
t t Is 0 −1 −1 t Is 0 t t −1 Is 0
A = (A ) = Q P = (P ) Q = (P ) Qt
0 0 0 0 0 0
µ ¶
t −1 t Is 0
donde (P ) ∈ Gl(m, K) y Q ∈ Gl(n, K); ası́, es una matriz coordenada de h y
0 0
µ ¶
Is 0
por tanto rang (h) = rango de columnas de = s = rango de columnas de At = rango
0 0
de filas de A.

15 Kepler Ck Ikastegia
Introducción al álgebra lineal

Vemos, pues, que dada una matriz A ∈ Mm×n (K) el rango de filas de A y el rango de columnas
de A coinciden y se denota por rang (A) . Este número permite determinar cuándo una matriz
es inversible.
Teorema 2.4 Sea A ∈ Mn (K) una matriz cuadrada de orden n con coeficientes en K. Entonces
A ∈ Gl(n, K) ⇐⇒ rang (A) = n
Demostración:
=⇒
Si A ∈ Gl(n, K), es decir, si A es inversible entonces existe una única matriz A−1 ∈ Gl(n, K)
tal que AA−1 = A−1 A = In lo cual implica (A−1 )−1 = A luego A = (A−1 )−1 In In con A−1 , In ∈
Gl(n, K), y ası́ In es una matriz coordenada del homomorfismo definido por A; por tanto,
rang (A) = rang (In ) =n.
⇐=
Si rang (A) = n entonces existen matrices P, Q ∈ Gl(n, K) tales que
Q−1 AP = In ⇐⇒ A = QP −1 luego A es inversible y su matriz inversa es A−1 = P Q−1 ; en
efecto, AA−1 = QP −1 P Q−1 = In y A−1 A = P Q−1 QP −1 = In .

Ejemplos 2.1 Estudiemos el rango de algunas matrices:


 
0 1 0 0
 2 0 1 0 
1. Consideremos la matriz A =  
 20 0 0 1  ∈ M4 (I Q).
14 1 0 0
Es 
claro que
 las cuatro
  columnas
 deA son  linealmente
 independientes
  en Q I pues si
0 1 0 0 0 
 λ 2 = 0
 2   0   1   0   0  
2λ1 + λ3 = 0
λ1          
 20  + λ2  0  + λ3  0  + λ4  1  =  0  =⇒  20λ1 + λ4 = 0 =⇒


14 1 0 0 0 14λ1 + λ2 = 0
λ1 = λ2 = λ3 = λ4 = 0; consecuentemente
rang (A) = rango de columnas de A =4 y A es inversible.
 
0 1 0 0
 0 4 0 0 
2. Sea la matriz A =  1 −1 0
 ∈ M4 (I Q);
0 
0 0 1 −1
tenemos que A2 = 4A1 y {A1 , A3 , A4 } es libre en Q
I luego rang (A) =3.
3. Consideremos
 la matriz
triangular superior
a11 · · · a1n
 ..  ∈ M (K)
A =  ... ..
. .  n con aii 6= 0 ∀ i = 1, . . . , n, entonces {A1 , . . . , An }
0 · · · ann
es libre y por tanto, A es regular.

Definición 2.5 Sea A ∈ Mm×n (K); si {i1 , . . . , ir } ⊂ {1, . . . , m} y


{j1 , . . . , js } ⊂ {1, . . . , n} entonces la matriz
 
ai1 j1 · · · ai1 js
 ..  ∈ M (K)
M =  ... ..
. .  r×s
air j1 · · · air js

16 Kepler Ck Ikastegia
Introducción al álgebra lineal

se dice que es una submatriz deA, y se obtiene, naturalmente, suprimiendo las filas y columnas
de A cuyos ı́ndices son distintos de los mencionados.

Teorema 2.5 Sea A ∈ Mn (K), entonces


rang (A) = máx{s ∈ IN | existe una submatriz regular de A de orden s × s}
Demostración:
Sea rang (A) = r; entonces existen r vectores fila, digamos, Ai1 , . . . , Air , tales que {Ai1 , . . . , Air }
es libre. Consideremos la submatriz B de tamaño r × n formada por estas filas. Como B tiene
rango r, se sigue que posee r columnas, digamos, B j1 , . . . , B jr , tales que {B j1 , . . . , B jr } es libre.
Sea C la submatriz de B formada por estas r columnas. Entonces C es una matriz de tamaño r×r
de rango r, luego es una matriz regular de A de orden r × r. Por tanto, si t es el máximo tamaño
de las submatrices regulares de A se tiene que r ≤ t; por otra parte, existe una submatriz regular
D de A de tamaño t; sean m1 , . . . , mt los ı́ndices de sus filas y n1 , . . . , nt los de sus columnas.
Se tiene que las filas Am1 , . . . , Amt de la matriz A son linealmente independientes; en efecto,
λ1 Am1 + · · · + λt Amt = (0, . n. ., 0) ⇐⇒
λ1 (am1 1 , . . . , am1 n ) + · · · + λt (amt 1 , . . . , amt n ) = (0, . n. ., 0) =⇒
λ1 (am1 n1 , . . . , am1 nt ) + · · · + λt (amt n1 , . . . , amt nt ) = (0, . t. ., 0) ⇐⇒
λ1 D1 + · · · + λt Dt = (0, . t. ., 0)
=⇒ λ1 = · · · = λt = 0; ası́ pues, r =rang (A) = dimK (KA1 + · · · + KAn )≥ dimK (KAm1 +
· · · + KAmt )= t. En definitiva r = t.

Ejemplo 2.1 Consideremos la matriz


 
0 1 0 −1
 2 1 0 1 
A=
 2
 ∈ M4 (I
Q)
2 0 0 
0 0 0 1

Como A3 = A1 + A2 es dimK (I QA1 +QA


I 2 +QAI 3 +QAI 4 )=3 y rang (A) =3. El teorema anterior
asegura la existencia de una submatriz regular 3 × 3; un ejemplo es
 
0 1 0 −1  
 2 0 1 −1
1 0 1 
B=
 2
 = 2 1 1 
2 0 0 
0 0 1
0 0 0 1

Definición 2.6 Sea A ∈ Mm×n (K); una submatriz de A cuyos ı́ndices de filas ası́ como los de
sus columnas sean consecutivos se denomina bloque o celda de la matriz A. Una descomposición
de A en bloques o celdas es una partición de A del tipo siguiente:
 
B11 · · · B1s
 .. 
A =  ... ..
. . 
Br1 · · · Brs

donde B11 ∈ Mm1 ×n1 , . . . , B1s ∈ Mm1 ×ns , . . . , Br1 ∈ Mmr ×n1 , . . . ,
Brs ∈ Mmr ×ns y se cumple m1 + · · · + mr = m y n1 + · · · + ns = n.

17 Kepler Ck Ikastegia
Introducción al álgebra lineal

 
0 1 4 0 5
 2 3 1 4 6 
Ejemplo 2.2 Si consideramos la matriz A =  
 3 5 6 7 1  y trazamos el par de rectas
0 0 0 0 1
perpendiculares siguientes:
 
0 1 4 0 5
 2 3 1 4 6 
A=  3 5 6 7 1 

0 0 0 0 1
µ ¶
B11 B12
obtenemos A = .
B21 B22
Si ahora trazamos estas otras:  
0 1 4 0 5
 2 3 1 4 6 
A=  3 5 6 7 1 

0 0 0 0 1
 
C11 C12 C13
obtenemos la partición en bloques siguiente: A =  C21 C22 C23 
C31 C32 C33

La conveniencia de la partición en bloques resulta de que las operaciones con matrices por bloques
se pueden realizar efectuando los cálculos con los bloques, como si éstos fueran los componentes
de las matrices.
   
A11 · · · A1n kA11 · · · kA1n
 .. . . ..  entonces kA =  .. . . ..  y si
Proposición 2.1 Sea A =  . . .   . . . 
Am1 · · · Amn kAm1 · · · kAmn
 
B11 · · · B1n
 .. . . .. 
B = . . .  es otra matriz tal que el tamaño u orden de cada Bij es el mismo
Bm1 · · · Bmn
que el de 
Aij entonces 
A11 + B11 ··· A1n + B1n
 .. .. .. .
A+B = . . . 
Am1 + Bm1 · · · Amn + Bmn
Para  la multiplicación dematricesse tiene un resultado  análogo; sean
A11 · · · A1p B11 · · · B1n
 .
. . . .
.   .. . . ..  de tal modo que el número de columnas
A= . . . yB= . . . 
Am1 · · · Amp Bp1 · · · Apn
de cada Aik sea igual que el número de filas de su correspondiente Bkj , ∀ i = 1, . . . , m, ∀ j =
1, . . . , n 
entonces 
C11 · · · C1n p
A·B =
 .. . . ..  donde C = P A · B .
. . .  ij ik kj
k=1
Cm1 · · · Cmn
Demostración:

18 Kepler Ck Ikastegia
Introducción al álgebra lineal

Los dos primeros resultados son evidentes; probemos entonces el que hace referencia a la multi-
plicación.
 Supongamos A ∈ Mm×p y B ∈ Mp×n 
A11 ··· A1p
 .
.. .
.. .. 
 . 
 
 j1
a11 · · · j1
a1n1
jp
a11 · · · ajp 
 1np 
 .. . . .. .. . . .. 
A=  . . . · · · . . .  →Fila de los

 j1 j1 jp jp 
 amj 1 · · · amj n1 amj 1 · · · amj np 
 
 .. .. .. 
 . . . 
As1 ··· Asp

Ajk ∈ Mmj ×nk k = 1, . . . , p y


 
b1l
11 · · · b1l
1tl
 .. . . .. 
 B11 · · · . . . · · · B1r 
 
 b1l · · · b1l 
 n1 1 n1 tl 
 . .. .. .. .. 
B= . . 
 . . . . 
 
 bpl
11 · · · bpl
1tl 
 .. . . .. 
 Bp1 · · · . · · · Bpr 
 . . 
pl pl
bnp 1 · · · bnp tl


Columna de los Bkl ∈ Mnk ×tl k = 1, . . . , p
cumpliéndose
n1 + · · · + np 
= p, m1 + · · · + ms = m, t1 + · · · + tr = n, y sea
C11 · · · C1l · · · C1r
 .. .. .. .. .. 
 . . . . . 
 
A·B =C = 
 Cj1 · · · Cjl · · · Cjr  ∈ Mm×n (K),
 .. .. .. .. .. 
 . . . . . 
Cs1 · · · Csl · · · Csr
p
P
veamos que Cjl = Ajk · Bkl ; en efecto,
k=1
P
n1 np
P P
n1 np
P
( aj1 1l
1k bk1 + · · · + ajp pl
1k bk1 ) ··· ( aj1 1l
1k bktl + · · · + ajp pl
1k bktl )
k=1 k=1 k=1 k=1
Cjl = .. .. ..
. . .
P
n1 np
P P
n1 np
P
( aj1 1l
mj k bk1 + · · · + ajp pl
mj k bk1 ) · · · ( aj1 1l
mj k bktl + · · · + ajp pl
mj k bktl )
k=1 k=1 k=1 k=1
pertenece a Mmj ×tl (K),

19 Kepler Ck Ikastegia
Introducción al álgebra lineal

y por otra parte


   np np 
P
n1 P
n1 P P
 aj1
··· 1l
1k bk1 aj1 1l
1k bktl   ··· ajp pl
1k bk1 ajp pl
1k bktl 
p
P  k=1 k=1   k=1 k=1 
 .. .. ..   .. .. .. 
Ajk · Bkl =  . . .  + ··· +  . 
k=1    np . . 
 P1 j1 1l
n P
n1   P jp pl np
P 
amj k bk1 · · · aj1 1l
mj k bktl amj k bk1 · · · ajp pl
mj k bktl
k=1 k=1 k=1 k=1
pertenece a Mmj ×tl (K)
luego queda probado el resultado.

Definición 2.7 Una matriz A se dice suma diagonal de las matrices Bii
i = 1, . . . , t si A admite una partición en bloques del tipo
 
B11 0
 .. 
A= . 
0 Btt

 
0 1 0 0 0 µ ¶ µ ¶
 1 0 0 0 0  B11 0 0 1
Ejemplo 2.3 A = 
 0
 luego A = donde B11 =
0 1 0 0  0 B22 1 0
0 0 0 −1 0
µ ¶
1 0 0
y B22 = .
0 −1 0

Proposición 2.2 Si A es una matriz suma diagonal de las matrices B11 , . . . , Btt entonces
rang (A) =rang (B11 ) + · · · +rang (Btt )
Demostración:
   
B11 0 µ ¶ B11 0
 ..  C 0  .. 
A= . = donde C =  . , luego basta pro-
0 Btt
0 Btt 0 Bt−1t−1
µ ¶
B11 0
bar el resultado para t = 2 y luego proceder por iducción sobre t. Sea A = ; si
0 B22
{v1 , . . . , vr } son los vectoresT fila de la matriz (B11 0) y {w1 , . . . , ws } son los de (0 B22 ); es claro
que (Kv1 + · · · + Kvr ) (Kw1 + · · · + Kws ) = {0}; en efecto, supongamos que B11 ∈ Mr×p (K)
y B22 ∈ Ms×q (K) y sea T
u ∈ (Kv1 +· · ·+Kvr ) (Kw1 +· · ·+Kws ) =⇒ ∃ λi ∈ K, i = 1, . . . , p y ∃ µj ∈ K, j = 1, . . . , q
tales que
u = (λ1 , . . . , λp , 0, . q. ., 0) = (0, . p. ., 0, µ1 , . . . , µq ) =⇒ λi = µj = 0 ∀ i = 1, . . . , p
∀ j = 1, . . . , q à !
Pr Ps
luego rang (A) = dimK Kvi + Kwj =
i=1 j=1
µ r ¶ Ã s ! µ r ¶ Ã !
P P P P
s
dimK Kvi ⊕ Kwj = dimK Kvi + dimK Kwj =
i=1 j=1 i=1 j=1
rang (B11 ) +rang (B22 ) .

20 Kepler Ck Ikastegia
Introducción al álgebra lineal

Proposición
  2.3 Sea A = (aij ) ∈ Mm×n (K) y sea la matriz columna
b1
 
B =  ...  ∈ Mm×1 (K).
bm
 
a11 · · · a1n b1
 .. . . .. ..  ∈ M
Consideremos la matriz A|B =  . . . .  m×(n+1) (K) entonces
am1 · · · amn bm
P
n
rang (A|B) =rang (A) ⇐⇒ B ∈ KAj , es decir, si y sólo si B es combinación lineal de los
j=1
vectores columna Ajde A.
Demostración:
Es claro que W1 = KA1 + · · · + KAn es un subespacio vectorial de W2 = KA1 + · · · + KAn +
KB =⇒rang (A) =rang (A) =rang (A|B) ⇐⇒ dimK W1 = dimK W2 ⇐⇒ W1 = W2 ⇐⇒
B ∈ W1

2.3. Resolución de sistemas de ecuaciones lineales

2.4. Funciones multilineales

2.5. Función determinante. Propiedades de los determinantes

2.6. Desarrollo de un determinante por los elementos de una


lı́nea. Regla de Cramer

21 Kepler Ck Ikastegia

S-ar putea să vă placă și