Sunteți pe pagina 1din 401

EMME

A R M A N D O 0. ROJ O

IIUIIII
EL ATENEO
lgebra II
Armando O. Rojo

Dcima tercera edicin

f in fii LIBRERIA-EDITORIAL
IMI*m E L ATENEO
512 (075) Rojo, Armando O.
ROJ Algebra II. - 13a. ed. - Buenos Aires: El Ateneo,
1995.
XII, 396 p.; 23 x 16 cm.

ISBN 950-02-5205-8

I, Ttulo - 1 . Matemtica - Enseanza Secundarla

Advertencia im portante:

Et derecho de propiedad de esta obra comprende para su autor (a


facultad de disponer de e)ia, publicarla, traducirla, adaptarla o autorizar
su traduccin y reproducirla en cualquier forma, total o parcialmente, por
medios electrnicos o mecnicos, incluyendo fotocopias, grabacin
magnetofnica y cualquier sistema de almacenamiento de informacin.

Por consiguiente, nadie tiene facultad a ejercitar los derechos precitados


sin permiso del autor y del editor, por escrito.

Los infractores sern reprimidos con las penas del artculo 172 y
concordantes del Cdigo Penal (arts. 2, 9 ,1 0 , 71, 72 ley 11.723).

Q u e d a hecho el depsito q u e establece la ley N 9 11.7 2 3 .


1 9 7 3 , 1975 , 1 9 7 6 (3 a y 4a edicin), 1978 , 1980 ,
1 981 , 1983, 1 985 , 1987, 1 9 9 1 ,1 9 9 3 , 1995 , "EL A T E N E O " Pedro Garc a S. A.
Librera, Editorial e Inmobiliaria, Florida 3 4 0 , B uenos Aires.
Fun dada en 1912 p o r don Pedro G arca.

Im p reso en T. G. C O L O R E F E ,
Paso 192, A v ellaned a, Bs. As.,
el 6 d e m arzo de 1995.
Tirada: 2 .0 0 0 ejem plares.

IM P R E S O E N LA A R G E N T IN A
Este libro responde a los contenidos de la asignatura A L G E B R A L IN E A L , que
figura en los pians de estudios dei ciclo bsico de M a tema tica de las facultades e
institutos de profesorado. Se supone adquirido el conocimiento de los temas
relativos al lgebra de conjuntos, relaciones, y funciones, y de las estructuras de
grupo, anillo y cuerpo. Esencialmente se desarrolla a q u la estructura de espacio
vectorial y se estudian los modelos particulares indispensables en Ja formacin actual
de profesionales y en las aplicaciones a disciplinas de uso cotidiano, entre las que
citamos, p o r ejemplo, la Estadstica y la Investigacin operativa.
E l esquema seguido es anlogo a! expuesto en Algebra I, editado por EL
A T E N E O en 1972. La teora es ilustrada con el desarrollo de ejemplos en (os que el
alumno puede apoyarse. En cada captulo se propone un trabajo prctico cuyas
respuestas se sugieren en el texto.
Agradezco a la editorial EL A T E N E O y a su personal la colaboracin que me
han brindado en todo lo concerniente a esta publicacin.

A R M A N D O O . RO JO

Buenos Aires, m ayo de 1973.


apitulo 1. ESTRUCTURA DE ESPACIO VECTORIAL. SUBESPACIO 1
' 1 . 2 . Concepto de espacio vectorial 1
1 . 3 . Propiedades de los espacios vectoriales 6
1 . 4 . Espacio vectorial de funciones 7
1 . 5 . Espacio vectorial de n-uplas 10
( 1. 6. Espacio vectorial de matrices 11
1. 7. Espacio vectorial de sucesiones 13
1. 8. Subespacios 15
1. 9. Operaciones entre subespacios 20
Trabajo Prctico I 27
ptulo 2. DEPENDENCIA E INDEPENDENCIA LINEAL. BASE Y DIMENSION 30
2. 2. Combinaciones lineales 30
2. 3. Subespacio generado 34
2. 4. Dependencia e independencia lineal 42
2. 5. Sistema de generadores 51
2. 6. Base de un espacio vectorial 53
2. 7. Dimensin de un espacio vectorial 57
2 . 8 . Dimensin de la suma 60
i Trabajo Prctico II 63
itulo 3. TRASFORMACIONES LINEALES 66
3. 2. Trasformacin lineal entre dos espacios vectoriales 66
! 3. 3. Ncleo e imagen de una trasformacin lineal 72
3. 4. Dimensiones del ncleo y de la imagen 80
3 . 5 . Teorema fundamental de las trasformaciones lineales 83
3 . 6 . Producto de matrices 85
3. 7, Matriz asociada a una trasformacin lineal 86
3. 8. Composicin de trasformaciones lineales 92
3. 9. Trasformacin lineal no singular 93
3.10. Composicin de trasformaciones lineales y producto de matrices 96
3.11. Espacio vectorial de trasformaciones lineales 98
3.12. Espacio dual de un espacio vectorial 101
Trabajo Prctico II1 102
Captulo 4. MATRICES 106

4. 2. Producto de matrices 106


4. 3. Anillo de matrices cuadradas 109
4. 4. Trasposicin de matrices 110
4. 5. Matrices simtricas y antisimtricas 112
4. 6. Matrices triangulares 114
4. 7. Matrices diagonales 114
4. 8. Matrices idempotentes e involutivas 115
4. 9. Inversa de una matriz no singular 116
4.10. Matrices ortogonales 117
4 .11. Matrices hermitianas 118
4.12. Matrices particionadas 121
4.13. Espacios fila y columna de una matriz 123
4.14. Operaciones y matrices elementales 130
4.15. Equivalencia de matrices 133
4.16. Mtodo de Gauss Jordn para determinar el rango 135
4.17. Inversin de matrices por Gauss Jordn 138
4.18. Inversin de matrices por particin 141
4.19. Cambio de base y semejanza de matrices 144
Trabajo prctico IV 149

Captulo 5. DETERMINANTES 155

5. 2. Determinantes 155
5. 3. Propiedades de la funcin determinante 157
5. 4. Existencia de D 161
5. 5. Unicidad del determinante 163
5. 6. Determinante de la traspuesta 166
5. 7. Determinante del producto de dos matrices 169
5. 8 . Adjunta de una matriz cuadrada 170
5. 9. Inversin de matrices no singulares 172
5.10. Regla de Cilio 174
Trabajo Prctico V 177

Captulo 6. SISTEMAS LINEALES 181

6. 2. Sistemas lineales 181


6. 3. Teorema de Cramer 187
6. 4. Compatibilidad de sistemas lineales 188
6. 5. Resolucin de sistemas lineales 190
6. 6. Sistemas homogneos 196
6. 7. Conjunto solucin de un sistema lineal 198
6. 8. Resolucin de sistemas simtricos 202
6. 9. Mtodo del orlado 205
Trabajo Prctico VI 210
Captulo 7. PRODUCTO INTERIOR. GEOMETRIA VECTORIAL 214

7. 2. Espacio vectorial euclidiano 214


7. 3. Ortogonalidad 219
7. 4. Desigualdad de Schwarz 222
7. 5. Desigualdad triangula! 223
7. 6. Angulo de dos vectores 223
7. 7. Conjunto ortogonal de vectores 225
7. 8. Base ortonorraal 225
7. 9. Complemento ortogonal 229
7.10. Proyeccin de un vector sobre otro 232
7.11. Espacio afn Rn 233
7.12. Ecuaciones vectorial y cartesianas de la recta 236
7.13. Ecuacin normal vectorial del plano 239
7.14. Curvas en el espacio 246
7.15. Superficie cilindrica 249
7.16. Superficie cnica 251
7.17. Proyeccin de una curva sobre un plano 253
Trabajo Prctico VII 257

Captulo 8. VALORES Y VECTORES PROPIOS. DIAGONALIZACION 263

8 . 2. Valores y vectores propios 263


8. 3. Polinomio caracterstico de una matriz 270
8. 4. Diagonalizacin de matrices 276
8. 5. Triangulacin de endomorfismos y de matrices 279
8. 6 . Teorema de Hamilton-Cayley 282
Trabajo Prctico VIII 285

Captulo 9. FORMAS BILINEALES Y CUADRATICAS 289

9. 2 . Formas bilineales 289


9. 3. Formas hermitianas 293
9. 4. Formas cuadrticas 294
9. 5. Operadores adjuntos y traspuestos 296
9. 6. Operadores hermitianos y simtricos 299
9. 7. Operadores unitarios y ortogonales 300
9. 8. Teorema de Sylvester 303
9. 9. Diagonalizacin de operadores simtricos 307
9.10. Matrices simtricas reales y valores propios 310
9.11. Descomposicin espectral de una matriz 311
9.12. Congruencia de formas cuadrticas 314
9.13. Signo de una forma cuadrtica 318
Trabajo Prctico IX 321
10.2. Conjuntos de puntos en Rn 325
10.3= Segmentos, hiperplanos y semiespacios 330
10.4. Convexidad en Rn 336
10.5. Convexidad y trasformadones lineales 339
10.6. Hiperplanos soportantes 342
10.7. Puntos extremos 344
10.8. Introduccin a la Programacin Lineal 346
Trabajo Prctico X 356
BIBLIOGRAFIA 359

RESPUESTAS A LOS TRABAJOS PRACTICOS 361

INDICE 393
Captulo 1

ESTRUCTURA DE ESPACIO VECTORIAL


SUBESPACIOS

1.1. INTRODUCCION

La estructura de espacio vectorial, que tratamos en este captulo, es el concepto bsico


del Algebra Lineal. Confiere unidad y precisin a temas esenciales de la matemtica que
tienen vastas aplicaciones en la ciencia y en la tecnologa actuales. Despus de introducir el
sistema axiomtico y de dar las propiedades fundamentales, proponemos los espacios
vectoriales de funciones,de los que se derivan los modelos de los espacios de matrices,
-uplas y sucesiones de elementos de un cuerpo. Se da, finalmente, el concepto de
sub espacio.

1.2. CONCEPTO DE ESPACIO VECTORIAL

Sean: V un conjunto no vaco, K un cuerpo, + y . dos funciones, que llamaremos suma y


producto, respectivamente.
Definicin
El objeto (V, +, K , . ) es un espacio vectorial si y slo si se verifican los siguientes:

Aj . La suma es una ley de composicin interna en V.


+ ; V2 -> V
O sea
x e V A y e V ^ x + yeV
Esto significa que la suma de dos elementos cualesquiera de V es un nico elemento de
V.
A2 La suma es asociativa en V.
(x + y) + z = x 4- (y + z)
cualesquiera que sean x, y, z en V.
A3 . Existe un neutro para la suma en V.
El elemento neutro se denota con 0.
30eV /V xeV :x+0=0+x=x
A4 . Todo elemento de V admite inverso aditivo u opuesto en V.
VxeV, 3 y e V / x + y = y + x = 0
Al opuesto de x lo denotamos con x, o sea, y = x.
A5 . La suma es conmutativa en V.
x+y=y+x

cualesquiera que sean x, y en V.


A6 . El producto es una ley de composicin externa en V con escalares u operadores
en K.
,:KXV-V
De acuerdo con 5.6, Algebra/, del mismo autor, la imagen del par (a, x), donde a eK y
x e V, se escribe a x y se llama producto del escalar a por x.
O sea
a eK a x e V =*o: x e V
A7 . El producto satisface la asociatividad mixta.
V a e K, V 0 e K , V x e V : a ( 0 x ) - ( a 0 ) x
Observamos aqu que los dos productos que figuran en el primer miembro
corresponden a la ley de composicin externa. Pero el producto a fi del segundo
miembro se efecta en K.
A8 . El producto es distributivo respecto de la suma en K.
V a e K y V 0 e K , V x e V : (a + (J)x = a x+ 0 x
La suma ce + 0 se efecta en K, pero la suma que figura en el segundo miembro
corresponde a la ley de composicin interna en V.
Ag . El producto es distributivo respecto de la suma en V.
V a e K , V x e V , V y e V : a.(x + y) - a x + a y
Las dos sumas se realizan en V.
A lo - La unidad del cuerpo es neutro para el producto.
V x e V : lx =x
donde 1 denota la identidad en K.
Los axiomas A( , A2, A3, A4 y As caracterizan a (V ,+ ) como grupo abeliano. Los
ltimos cinco axiomas son relativos a la ley de composicin externa.
Los elementos de V se llaman vectores; en particular, el elemento neutro para la suma
recibe el nombre de vector nulo. A menudo hablaremos del espacio vectorial V,
sobrentendiendo que nos referimos a la cuaterna (V, + , K , .). La simplificacin de las
notaciones hace conveniente el uso de los mismos smbolos para nombrar las leyes de
composicin interna en K, la suma en V y el producto de escalares por vectores. Osea, al
decir K nos estamos refiriendo al cuerpo (K, + ,.), donde los signos + y denotan las
dos leyes de composicin interna en K, que no tienen el mismo significado que las que
figuran en (V, +, K , .). Distinguiendo adecuadamente los elementos de K y los de V, no hay
lugar a confusin.
As

<x + pe$ una suma en K x + y es una suma en V


ot P es un producto en K a x es el producto de un escalar por un vector

Ejemplo 1-1.
Sean: V = R2, K = R, la adicin definida en R2 por

(a , b) + (c , d) = (a + c , b + d) ( 1)

y el producto de nmeros reales por elementos de R2 definido mediante


a ( a , b) = ( a a , a b) (2)
Resulta (R2 , +, R ,.) el espacio vectorial de los pares ordenados de nmeros reales
sobre el cuerpo de los nmeros reales.
En efecto, de acuerdo con los ejemplos 5-2 y 5-5 iv) del texto nombrado, es (R2 , +)
un grupo abeliano.
Por otra parte se verifican:
A6 . Por la definicin (2).

A7 . a (<*,&)) = a ( 0 , 0&) = a ( 0 &) ) = ( ( a 0) . (a $ ) b ) =


= (a /3) (a , b)

Hemos aplicado la definicin (2), la asociatividad del producto en R y la definicin


( 2).
A8 . ( + 0) (<*, b) = ( (ot + P)a, (a+/3)Z>J = ( c t a + @ a , a b + ( i b ) =
~(aa,0b) + (fia,pb) =a ( a ,b ) + p (a,b)
De acuerdo con (2), la distributividad del producto respecto de la suma en R, y las
definiciones ( 1) y (2).

A 9 . o ^ ( a , b ) + ( c , d ) ^ = a(a + c , b +-d)~ (a + c) , ot (b + d) j =
= (cta + 0 i c , o t b + a d ) ~ (ota, a b) + (ote, a d) = a ( a , t) + ct(c ,d )
Segn (1), (2), distributividad de la multiplicacin respecto de la adicin en R, y las
definiciones ( 1) y (2).

AJ0. 1 (a , Z>) = (1<7, 16) = {a , b)


El significado geomtrico de las operaciones de este espacio vectorial es el siguiente:
la suma de dos vectores no colineales del plano queda representada por la diagonal del
paralelogramo que forman. El producto de un nmero real a por un vector no nulo
\ = (a, b), es el vector a x que tiene la misma direccin que x; el mismo sentido si
a > 0, y sentido opuesto si a < 0. Corresponde a una dilatacin si Ia I > 1 y a una
contraccin si I a I < 1. Si a - 0, entonces se obtiene el vector nulo.

Ejemplo h2.

En R2 se definen: la suma, como en el ejemplo anterior, y la ley de composicin


externa mediante

a (a , b) = (a , a) (2)

Se verifica, como antes, que (R2 , + ) es un grupo abeliano.


En cuanto a (2), satisface A6. Su significado geomtrico es el siguiente: todos los
pares ordenados que tienen la misma absisa, al ser multiplicadospor cualquier nmero
real, se proyectan sobre la primera bisectriz paralelamente al eje de ordenadas.
Tambin se satisface A7, pues

a | /3 (a , >)J = a (a , a) = (a , a) = (a j3) (a , b)

No se verifica A8, ya que

(a + j3) (a , b) - (a , a)

pero
a (a , b) -f |3 (a , b) = (a , a) + (a , a) = (2a , 2a)

Este hecho es suficiente para afirmar que no se trata de un espacio vectorial.


El lector puede comprobar que esta interpretacin cumple A9 pero no Ai0 .
Observamos aqu que la estructura de espacio vectorial no es inherente exclusivamente
al conjunto V, sino que, adems, depende de K y de las leyes de composicin que se
definan. Aclaramos que toda vez que se mencione al espacio vectorial (R2, +, R, .) se
sobrentender que la suma y el producto son los definidos en ( 1) y en (2) del ejemplo
1- 1.

Ejemplo 1-3.
La estructura de espacio vectorial no es un sistema axiomtico independiente, pues A5
puede deducirse sobre la base de los restantes axiomas.
En efecto
x + x + y + y = lx + lx + ly + ly =(1 + l)x + (1 + l)y ~ (1 + 1) (x

= 1 (x + y) + 1 (x + y) = lx + ly + lx + ly = x + y + x + y

en virtud de A ,, A8 , A9, Ag, A9 y A10 .

O sea
X + x + y +y. ~ X + y + x + y
Por ley cancelativa en el grupo (V , + ) resulta
x + y =y + x

1.3. PROPIEDADES DE LOS ESPACIOS VECTORIALES

Sea (V, +, K , .) un espacio vectorial.

1.3.1. El producto del escalar 0 por cualquier vector es ei vector nulo.

En efecto, por neutro para la suma en K y Ag es


a x = (a + 0)x = x + Ox
Por A 3 se tiene
MHC + 0 -JO H C + 0 X

Y por ley cancelativa resulta


0 x = 0

1.3.2. El producto de cualquier escalar por el vector nulo es el vector nulo.

Por A 3 y A9 es
a x = a ( x + 0) = a x + a 0
Entonces
a x + a 0 =a x
Por A3
jO&C+ a 0 =JQrtC+ 0

Y por regularidad en (V, +), resulta


1.3.3. Si el producto de un escalar por un vector es el vector nulo, entonces el escalar es 0 o
el vector es nulo.

x = 0 ^ ft= 0 v x " 0
Se presentan dos posibilidades: a = 0, o bien, a ^ 0
En el primer caso es verdadera la primera proposicin de la disyuncin que figura en la
tesis, y por consiguiente sta es verdadera.
En el segundo caso es necesario probar que x - 0.
En efecto, siendo a^ 0, existe el inverso multiplicativo en K, a -1. Partiendo de la
hiptesis, premultiplicando por a 1, usando A7, 1.3.2., el producto de inversos en K y A(0
se tiene
a x - 0 =>a -1 ( a x ) = a1 0 => (a~l c)x - 0^> lx 0 >x - 0

1.3.4. El opuesto de cualquier escalar por un vector es igual al opuesto de su producto.

(--a) x = (a x)
Teniendo en cuenta A4, 1 . 3 . 1 la suma de opuestos en K y A8, es
- ( a x ) + a x = 0 = 0 x = ( - a + a) x = ( - a ) x + a x
De
( a) x +J3tjxr= (a x) +_a-x
despus de cancelar, resulta
(a ) x = - ( a x )
En particular se tiene
(1) x = (1 x) = - x

1.4. ESPACIO VECTORIAL DE FUNCIONES

El smbolo Kx denota el conjunto de todas las funciones con dominio un conjunto X # 0


y codominio un cuerpo K, o sea
Kx = { f / f : X->K}
En Kx definimos la suma de funciones y el producto de escalares por funciones mediante
i ) Si f y g son dos elementos cualesquiera de Kx , entonces f + g : X K es tal que

(f + g) (x) = f (x) + g (x) Vx e X


ii) Si a es cualquier elemento de K y f es cualquier elemento de Kx , entonces
a f : X K es tal que
(a f) (x) = a f (x) VxeX
Tanto la suma de funciones con dominio X =0 y codominio K, como el producto de
escalares por funciones, se llaman leyes de composicin punto a punto.
Resulta (KX, + , K , . ) un espacio vectorial. Para ello, veamos que se verifican los
axiomas.

Aj . f e K x a g e K x =>f + g e K x por la definicin i)

A2 .Sean f, g y h en Kx . Cualquiera que sea ^ e X se verifica, teniendo en cuenta la


definicin i) y la asociatividad de la suma en K:
( ( f + g) + h ) W = ( f + g ) W + h W = ( f W + sW ) + h(x) =

= f ( x ) + ( g ( * ) + h ( x ) J = f ( x ) + (g + h) (x) = ( f + (g + h ) ( x )

Y por definicin de funciones iguales resulta


(f + g) + h = f + (g + h)
A3 . El vector nulo es la funcin nula
e: X K definida por e (x) - 0 cualquiera que sea x e X.
Sea f e Kx . Teniendo en cuenta i), la definicin de e y la suma en K, es
(f + e) (x) = f (x) + e (x) = f (x) + 0 = f (x) -
Luego
f + e=f
Anlogamente se verifica que e + f = f.
A4 . Inverso aditivo de f e Kx es la funcin f : X -* K definida por ( ~f) (x) = - f (x)
En efecto, para todo x e X se verifica
( - f 4- f) (x) = ( -f) (x) 4 f (x) = - f (x) + f (x) = 0 = e (x)
O sea
(-f) + f = e
Anlogamente se prueba que
f + (-f) = e
A5 . La suma en Kx es conmutativa, ya que
( f + g) ( * ) = f (* ) + g ( * ) = g ( * ) + f ( * ) = (S + 0
Luego
f 4- g = g 4 f cualesquiera que sean f y g en Kx .

A6 . a e K a f e K x ^ a f e K x por la definicin ii).

A7 . Sean a e K , j 8 e K y f e K x .
Entonces

| a (0 f ) j (x:) = a | ( 0 f ) ( x ) ) -a . ( p f ( x ) j ~ ( a 0) f ( x ) = ( ( a 0) f ) (x)

Luego
a(0f) = (a0)f

A8 . Considerando
a e K , 0 e K y f e Kx es

( (a + 0) f ] (x) = ( o + p) f (x) = a f (x) + P f (x) ~

= (a f) (x) + (P f) (x) - (a f + P f) (x)

lo que se justifica teniendo en cuenta ii), la distributividad y la asociatividad del producto


en K, ii) e i).
Entonces es

(a + 0 ) f = a f + 0 f

A9 . Sean a e K, f e Kx y g e Kx .
Por ii), i), distributividad del producto respecto de la suma en K y por las definiciones ii)
y i) se tiene

( cu (f + g) j (*) = a ( (f + g) (x) ) = o ( f (x) + g (x) ) =


= a f (x) + ct g (x) = (a f) (x) + (a g) (x) = (a f + a g) (*)

O sea
a ( f + g) = a f + a g

A10 . Cualquiera que sea f en Kx se verifica


(lf)(x)= 1 f(x) = f(x)

Luego
1f= f

La cuaterna (Kx , + , K , .) es el espacio vectorial de las funciones definidas en el conjunto


no vaco X y con valores en K, con las leyes de composicin punto a punto. Los vectores de
este espacio son funciones.
La figura siguiente explica la situacin en el caso particular en que K = R y X = [0,1 ]
1.5. ESPACIO VECTORIAL DE / -UPLAS DE ELEMENTOS DE K

Con relacin al espacio vectorial de funciones (Kx , +, K , .) consideremos el caso


particular en que X es el intervalo natural inicial In. Toda funcin f: - K. es una n-upla de
elementos de K, y escribiendo K^1 = K" es (K", 4-, K , .) el espacio vectorial de las n-uplas de
elementos de K.
Las definiciones i) y ii) dadas en 1.4. se traducen aqu de la siguiente manera:
i ) Si f y g denotan elementos de K, entonces f + g es la funcin de l en K definida
por
(f + g) {/) = f (/') + g (/) cualquiera que sea i e 1
Es decir
Ci = (f + g) (0 = f (0 + g (0 = i + bi
donde au b y son las imgenes de i dadas por f, g y f + g, respectivamente.
En consecuencia, dos n-uplas de elementos de K se suman componente a componente.
ii) Si a e K y f e Kn, entonces a f es la funcin de en K definida por
(a f) (/) =a f (/) cualquiera que sea / e In .
Denotando mediante c, la imagen de i dada por a f es
c = ( a f ) (0 = a f ( ) = 0 a
Es decir, el producto de un elemento de K por una n-upla se realiza multiplicando en K a
dicho elemento por cada componente de la n-upla.
En particular (K, +, K , .) es el espacio vectorial donde los vectores se identifican con los
elementos del cuerpo K. En este caso, la ley de composicin externa es interna.
En consecuencia, (R, +, R ,.) es el espacio vectorial de los nmeros reales sobre el cuerpo
de los reales. Este es un caso particular del espacio vectorial de las n-uplas de nmeros reales
sobre el cuerpo de los reales, que denotamos mediante (Rn, + ,R , )
(C , +, C ,.) es el espacio vectorial de las n-uplas de nmeros complejos sobre el cuerpo de
los complejos.

1.6. ESPACIO VECTORIAL DE MATRICES n x m

Particularizando nuevamente con relacin al espacio vectorial tratado en 1.4., considere


mos X = In X Im> o sea, el producto cartesiano de los dos intervalos naturales iniciales: 1 e
V
Llamamos matriz n x m con elementos en K a toda funcin
f : I n XIm - K

La imagen del elemento (/, f) perteneciente al dominio se denota por aj.

La matriz f queda caracterizada por el conjunto de las imgenes

a 11 a \2 d\m
d2l d 22 - d2m

dfi\ dn2 , . . dnm


y suele escribirse como un cuadro de n.m elementos de K dispuestos en n filas y m columnas.
En cadafila o renglnse escriben las imgenes de todos los pares ordenados que tienen l
mismaprimera componente, y en cada columna se anotan las imgenes de todos los pares
ordenados que tienen la misma segunda componente. El elemento de la matriz que figura en
la fila i y en la columna j se denota por aj, y es la imagen dada por f, del par (i, /). Llamando
A a la matriz cuyo elemento genrico es ai}, escribiremos

au an ^lm '
a2\ 022 @23 2m

I * @nm

Tanto las filas como las columnas de A se llaman lneas de la matriz.


Abreviando, puede escribirse

A = (tfy) donde i= 1, 2, . . n y / = 1, 2, . . m

El conjunto de todas las matrices n x m con elementos en K es KI/lX Im y se denota


mediante KnX m.
Las definiciones i) y ii) dadas en 1.4. se traducen aqu de la siguiente manera: si A y B son
dos matrices de K "x m , su suma es C e K "x m, tal que
C = (f + g) (i,}) = f 07) + g (/, /) = au + bu
y el producto del escalara e K por la matriz A es la matriz de KnXmcuyoelemento genrico
Cfj es tal que
cu = (a f) ( i , /) = a f ( i , j ) = a au
O sea, dos matrices del tipo n x m se suman elemento a elemento; y para multiplicar un
escalar por una matriz n x m se multiplica dicho escalar por todos los elementos de la matriz.
La cuaterna (KttXm, + , K , .) denota el espacio vectorial de las matrices nxm con
elementos en K. En este espacio, los vectores son matrices.

En particular (K "x ", + ,K , .) es el espacio vectorial de las matrices cuadradas, es decir,


de n filas y n columnas.

El vector nulo del espacio K "x m se llama matriz nula; la denotaremos mediante N, y est
definida por = 0 V i V /.

La matriz inversa aditiva u opuesta de A = (aj) es B, cuyo elemento genrico satisface la


relacin bj - ai; . Escribiremos B = A.

Por definicin de funciones iguales resulta A = B si y slo si a; = bj Vi V / .


Ejemplo 1-4.

En R2X 3 se consideran las matrices A y B cuyos elementos genricos son a a = 2/ - j y

bi} =1 i2. Obtenemos C = A 2B.


La expresin de C es C = A 4- (-2)B , y como

B=

resulta

1 0 - 1\
c=l +
3 2 1 I

1.7. ESPACIO VECTORIAL DE SUCESIONES

Sean: X = N y KN el conjunto de todas las funciones de N en K. Los elementos de KN


son todas las sucesiones de elementos de K, y retomando lo expuesto en 1.4. resulta
(KN, +, K, .) un espacio vectorial.
Las definiciones i) y ii) de 1.4. se interpretan ahora de la siguiente manera:
Ci = (f + g) (0 = f (0 + g (0 = / + bi V/ e N
c = (a f) (/) = a f (/) = a a V/ e N
O sea

(au a2, . . . , a n , . . .) + (*. b2 . . . . .) = (i + f t i- a 2 + b 2, . . an + b n, . . .)


a (ai, a2, (tvflj, cca2, . . aa, . . .)

El vector nulo es la sucesin


0 = (0 ,

Ejemplo 1-5
Sea R [X] el conjunto de los polinomios reales en la indeterminada X. La suma en
R [X] se define como en 12.2.2., Algebra 1, del mismo autor. El producto de escalares
reales por polinomios es el habitual, o sea si e K y P eR [X ], entonces a P es la
funcin de N0 en R definida por (a P) (i) = a P (z), cualquiera que sea / e N0.
Resida (R [X] , +, R , .) el espacio vectorial de los polinomios reales en la indetermina
da X sobre el cuerpo de los nmeros reales.
El conjunto de los polinomios reales de grado 2 no es un espacio vectorial sobre el
cuerpo de los reales, porque la suma no es una ley de composicin interna en dicho
conjunto. Pero el conjunto de los polinomios reales de grado menor o igual que 2 y el
polinomio nulo constituye un espacio vectorial sobre R.

Ejemplo 1-6
Sea S el conjunto de las funciones reales definidas en [0,1 ] tales que f (0) = 0, es decir
S = { f : [0,1] -> R / f (0) = 0 }

Como todo elemento de S pertenece a R^011, es S C R^0,11.


Considerando las leyes de composicin definidas en 1.4., se verifican
Aj . f e SAg eS => f (0) = 0 a g(0)= 0 =* f (0) + g '0 ) = 0 ^ (f + g) (0) = 0 => f + g e S
A2 Como la suma de funciones es asociativa en R j0,1^, tambin lo es en S.
A3 . La funcin nula es el vector nulo de S.
A* . Todo elemento de S admite un opuesto en S.
Si f e S, entonces f e S, pues ( - f ) (0) - - f (0) = 0.

A5 . Cualesquiera que sean f y g en S, se tiene


f+ g = g + f
pues S C R[<m j
A6 a e R a f e S ^ a e R a f ( 0) = 0 = > a f ( 0) = 0 = > (a f)(0 ) = 0 = > a f e S

Los restantes axiomas, lo mismo que A2 y ASl por ser identidades en R>11 se
cumplen en S ya que S C R0*1\
En consecuencia, (S, + , R , .) es un espacio vectorial.

1.8. SUBESPACIOS

1.8.1. Concepto
Dados el espacio vectorial (V, + }K , .) y el conjunto novaco S C V, si S es un espacio
vectorial sobre el mismo cuerpo K y con las mismas leyes decomposicinque en V, diremos
que (S, + , K , .) es un subespacio de (V, +, K , .), o simplemente, que S es un subespacio de
V.
Definicin
S es un subespacio de (V, +, K , .) s y slo si (S, +, K, .) es un espacio vectorial.
Cualquiera que sea (V, +, K , .), tanto V como j 0} son subespacios de V, llamados
triviales.

Ejemplo 1-7
Consideremos el espacio vectorial (R 2, +, R , .) y los subconjuntos
T ~ j ( x , x ) e R 2 y = x + *} S = {(*,>) e R2 />> = 2 x }

T no es un subespacio, pues el vector nulo (0,0) i T.


En cambio, S es un subespacio de R2, ya que
1 (S, +) es un subgrupo de (R2, +). En efecto, de acuerdo con la condicin suficiente
demostrada en 8.4.2., Algebra /, del mismo autor,se verifica
(x ,.y ) e S A Qc>y') = 2x a y' = 2 x ,=^ y - y = 2 ( x ~ x r)*>

=> (x - x , y - y*) e S => (x, y ) + -y^eS


2o Respecto de la ley de composicin externa consideramos
A6 . a e R a (*, / ) e S =* a e R A iy = 2x=a:>, = 2 a x = > ( a x , a .y) e S => a (jc, y ) e S
Los axiomas A?, A8 , A9 y Aj0 > por ser igualdades en R2, se cumplen en S ya que
SCR2

De la definicin se deduce que (S, +, K ,.) es un subespacio de (V, +, K , .) si y slo si


(S, +) es un subgrupo de (V, +) y S es cerrado para el producto por escalares.

1.8.2. Condicin suficiente

Si el conjunto no vaco S C V es cerrado para la suma y para el producto por escalares,


entonces (S, +, K , .) es un subespacio de (V, +, K , .).

Hiptesis) (V, +, K , .) es un espacio vectorial


0 =SCV
1 . x e S a y eS=>x 4*y e S
2. oteKAxeS=>axeS
Tesis) (S, +, K , .) es un subespacio de (V, +, K , .)

Demostracin)
Io Consideremos dos vectores cualesquiera x e y en S. De acuerdo con la condicin 2. de
la hiptesis, por 1.3.4. y por la condicin 1. de la hiptesis,se tiene
xeSAyeS^ x e S A ( - l ) y eS=> x e S A - y e S => x + (-.y )e S

En consecuencia,(S, +) es un subgrupo de (V, +).


2 S es cerrado para el producto por escalares, de acuerdo con la condicin 2. de la
hiptesis.
La aplicacin del teorema demostrado es esencial para determinar si un conjunto S es un
subespacio de (V, +, K , .). Para que lo sea, deben verificarse las condiciones que figuran en la
hiptesis del mismo, a saber:
1. S
2. SCV
3. x eS a y eS=>x + y eS
4. aeKAxeS^axeS
Estas condiciones son, adems, necesarias. Es decir, sabiendo que S es un subespacio, son
proposiciones verdaderas.

Ejemplo 1-8
Sean: el espacio vectorial (R3, +, R , .), y el conjunto S de las ternas ordenadas de R
tales que la tercera componente es igual a la suma de las dos primeras.
O sea

S = { (*!, X 2l X3) e R 3 / X3 = X y + x 2

Afirmamos que S es un subespacio de R3, pues


1. (1> 2, 3) e S =* S ^ 0
2. S C R3 por la definicin de S.
3. ( xif x 2, x 3) e s a O i ) ^ 2j ^ 3) e S =>X3 = X 1 + x 2 Ay 3 =y^ + y 2 =*
^ * 3 + ^ 3 =(*1 + V i ) + (*a + ^ 2 ) ^ ( ^ 1 +y 1 , * 2 +yi,X3 + .y3 ) e S = *
=>(xi,*2, x 3) + O i . ^ a . ^ e S
Hemos aplicado sucesivamente: la definicin de S, la adicin en R, la definicin de S y
la definicin de suma de ternas.
4. a e R a ( x it x 2, x 3) e S ^ a e R a x 3 ~ x i + x 2 =>
^ q :a :3 = a :x 1 + a x 2 => ( a * ! , ocx2, a * 3) e S =*a (jCj, x 2, x 3) e S
Por definicin de S, multiplicacin en R, definicin de S y la definicin de producto
de escalares por ternas.
Al subespacio S pertenecen las ternas ( x \ , x 2, jc3) e R3 que satisfacen la condicin

* i + x 2 ~ X3 = 0

Esta ecuacin define un plano que pasa por el origen.


Ejemplo 1-9

Considerando el espacio vectorial de las funciones reales definidas en [0,1], que


denotamos mediante(R1, + , R , .), sean los subconjuntos
1. S = ( f e RI//(0) = 0 }
2. S = | f e =1}
En el caso 1. se tiene un subespacio de R1, como fue tratado en detalle en el ejemplo
1-6. Independientemente del anlisis realizado en el ejemplo citado, se llega a la
misma conclusin aplicando el teorema demostrado, pero en forma ms simple.
En cuanto al caso 2., S no es un subespacio, pues no es cerrado para la suma. En
efecto, las funciones f y g de I en R definidas por
f(jc) = x + 1 g(x) - x 2 + 1
satisfacen las condiciones
f(0 )-l g(0) = 1

o sea, son elementos de S. Pero la suma f + g est definida por


( f + g) (jc) = f(x) + g(x) = x 2 x + 2
y no pertenece a S, ya que
( f + g)(0) = 2

Ejemplo 1-10
Dado el espacio vectorial (R4, +, R , .) consideramos

S = { (*i,X 2 ,A'3f Jt4 ) e R 4 /X! + X2 + X3 + X4 = 1 }

Se verifica que
1. S # 0 , pues (1, 0, 0, 0) 6 S
2. S C R4 por la definicin de S
3. S no es cerrado para la suma ya que
(l,l,-l,0)eS a (1, 1 , - 1, 0) e S pero

( 1, 1, - 1, 0) + ( 1, 1, - 1, 0) = (2, 2, - 2 , 0 ) S
En consecuencia, S no es un subespacio. Por otra parte, el vector nulo no pertenece a
S, y esto basta para que no sea un subespacio.

Ejemplo 1-11.
Sea (Rxn, +, R , .) el espacio vectorial de las matrices cuadradas reales de n filas y n
columnas.
Si A R"*" escribimos
/ 11 12 . i n \
21 22 2 n
A=

\ n 1 n2 un /
Por definicin, traza .de una matriz cuadrada es la suma de los elementos de su
diagonal. La notacin es

ti-A = au + a 2 I + . . . + a n n = X a u

El conjunto
S = { A e R " xn / tr A = 0

es el conjunto de las matrices de traza nula de R "xn, y constituye un subespacio, pues


se verifica:
1. S^<), pues la matriz nula N es de traza nula, y en consecuencia es un elemento
de S.
2. S e R " Xfl por definicin de S.
3. S es cerrado para la adicin.
Sean A y B dos matrices cualesquiera de S. Entonces
n n
A e S a B e S => tr A = 0 a tr B ~ 0 =* 2 a a = 0 a 2 b u ~ 0 =*
i=l =i

=* S au + 2 bu = 0 => 2 (au + bu) = 0 =


i= l i=l i=l
=> tr (A 4- B) = 0 = A + B e S
4. S es cerrado para el producto por escalares. En efecto
n
aeR a A e S ^ a e R A f A = 0 ^ a e R A 2 ,, = 0 =*
i~l
ra n
= a 2 aa = 0 =* 2 a au = 0 ^ tr (a A) = 0 = a A e S
1 i=l

Ejemplo 1-12.

Consideremos S = {(xj, x 2) e R2/* i ^ * 2 ) e investiguemos si S es un subespacio de


(R2, +, R , .).
Se ve de inmediato que no se verifica A4, pues no todo elemento de S admite
opuesto en S. As
(0, - 1 ) eSpe r o (0 , 1) S
Analizando la situacin en trminos de la condicin suficiente demostrada, se verifica:
1. S =0
2. S C R 2
3. S es cerrado para la suma.

(xi, X 2 ) e S A ( f i , y 2) S = > x { > x 2\ y x > y 2 =>


=>Xi + y t > x 2 + 7 2 + y i,* 2 + 7 2 ) e S = > ( x 1)x 2) + (>1)iy 2) e S

Pero S no es cerrado para el producto por escalares, como lo demuestra el siguiente


ejemplo:
( 2 ,l) e S A ( - 2 ) ( 2 ,l) = ( - 4 , - 2 ) * S
En consecuencia, S no es un subespacio de R2.

1.9. OPERACIONES CON SUBESPACIOS

1.9.1. Interseccin de subespacios

Sea I S/ f con i e l una familia de subespacios de (V, +, K , .). Denotaremos con S la


interseccin de dicha familia, o sea, S = f l S.. Resulta S un subespacio de V.
ie I
Teorema. La interseccin de toda familia de subespacios de V, es un subespacio de V.
Hiptesis) (V, +, K, .) es un espacio vectorial
{S,) con / e I es una familia de subespacios de V
Tesis) S = fQj S; es un subespacio de V.

Demostracin) De acuerdo con la condicin suficiente 1.8.2. se verifica


1. S no es vaco, pues

0 e S i , V/ e I =>0 e 0 s =>
ie I

H eS, -l
i el

Por ser cada S, un subespacio y por definicin de interseccin.


2. S est incluido en V, ya que
S C V , Vi e I = ^ S, C V => S C V
; i e I

j Por ser cada S, un subespacio de V y porque la interseccin de toda familia de


subconjuntos de V es una parte de ste.
3. S es cerrado para la suma. En efecto
i

i xeSA yeS^xefiSjA yefiSi^


j e l ie
=>x eS, a y eS, V e I =>x + y eS ;, Vi'el=>

^ x + y e H s ^ x + yeS
ie

Por definicin de interseccin, y porque todo S es un subespacio.


4. S es cerrado para el producto por escalares.
Consideremos f t e K y x e S . Ahora bien
aeKAxeS^aeKAxeHsi^
/e l

=>a e K a x e S , Vi e I => a x e S,, Vi e I =>

=>otxe H s . ^ a x e S
el

Ejemplo 1-13
En (R3, +, R , .) consideramos los subespacios
Si x i, *3 ) eR3/x3- 0 ) s2 = (x1(xi,x3) eR3/*i =0
La interseccin de estos es
S = S, n s 2 = \ ( x x,X' , X s ) e K ? x x = 0 a x 3 = 0 (
Esto significa que un vector genrico de S es una terna del tipo (0 }Ar2, 0) que puede
expresarse mediante (0, a, 0) para algn a en R.
Entonces
S = ((0, a, 0) e R3 /a e R )
O sea, S es el eje x 2

Si O S2

Subespacios de R3 son: R3 , {0 }, todas las rectas que pasan por el origen y todos los
planos que pasan por dicho punto. Dos rectas distintas que pasan por el origen son
subespacios cuya interseccin es el vector nulo, y se llaman disjuntos.

1.9.2. Unin de subespacios

Si Sj y S2 son dos subespacios de (V, + , K , .), entonces S t U S2> no es necesariamente un


subespacio de V, como lo prueba el siguiente ejemplo:
Consideremos en (RJ , + , R , .) los subespacios Sj y S2 de la figura
La unin de ambos es el par de rectas, y eligiendo x e St , y e S2, distintos del vector nulo,
se tiene
x e S j =>xSi U S 2
y e S 2 =>y eS i u s 2
pero
x + y / S j U S2

1.9.3. Suma de subespacios

Sean S, y S2 dos subespacios de (V, +, K , .). Definimos el conjunto


S = | x e v / x = xi + x 2 a x i e S i a x 2 e S2 }
O sea
S = ( x e V / 3 x i e S i a 3 x2 e S 2 a x = x : + x 2 )
El conjunto S se llama suma de los subespacios Si y S2 y se indica
| S=S!+S2
j T eo rem a. La suma de dos subespacios de V es un subespacio de V,
! Hiptesis) Si y S2 son dos subespacios de (V, +, K , .)
I S= S!+S2
Tesis) (S, +, K , .) es un subespacio de (V, +, K , .)
Demostracin) Se verifican las condiciones expuestas en 1.8.2., a saber
1. S es no vaco, pues
O e S i A 0 e S 2 =>0 + 0 = 0 e S i + S 2 ^ 0 e S =*S ^ 0

2. S es una parte de V, por la definicin de S.


3. S es cerrado para la suma, ya que
x e Sa y e s = x =Xi + x2 a y =y ! + y 2 a X i, y i e Si a x2, y 2 e S2 ^
=>x + y = ( x i + y j ) + (x2 + y 2) Ax t + y t e S i A x 2 + y 2 e S 2 =*
= x + y e S
4. S es cerrado para el producto por escalares, porque
a e K A x e S = * a e K A x = xi + x2 aX e Si a x 2 e S 2 =*
=>ax = a x i + O f x 2A a x 1 eSiAcix2 e S 2 ::>Q!xeS
Por consiguiente, la suma de subespacios es un subespacio.
Un caso particular importante se presenta cuando los subespacios Si y S2 son disjuntos,
es decir, si Sx n S2 = {0} . En esta situacin, el subespacio S - Si + S2 recibe el nombre de
suma directa de Si y S2 , y se utiliza la notacin
s =s,s2
Sintetizamos esto en la siguiente definicin

S = Sj Sa-*S = Si +S2 a Si OS2 = (0

Ejemplo 1-14
Consideremos primero los subespacios de R 3

S, = {(a, 0', 0)/a e R A0' e R } Sj = ((0, |3 , 7 )/? e R A-y e R )

El subespacio suma S = Sj + S2 est formado por todas las temas del tipo

(* ,F + 0 ",7 ) = ( , 0 , 7 )

y es R3. Ambos subespacios son los planos indicados en la figura, y como su


interseccin es el eje x 2, la suma S = S! + S2 " R3 no es directa.

En cambio, si

Si H ( a , 0 , 0 ) / a R j y S2 = ( 0 , / 3 , 0 ) / j 3 e R |
se tiene
S = S, + S 2 = ( a J , 0 ) / a e R A ( 3 e R l

O sea, la suma es directa y se identifica con el plano horizontal


OPERACIONES ENTRE SUBESPACIOS 25

Extendemos la definicin de suma de subespacios al caso en que n > 2.

Definicin
Suma de los subespacios S j , S2,. . Sn de (V, +, K , .) es el conjunto

S = 1=
21 s / = {1x e V/x =i^l
2 X/AXf eS, * v/ = l ,72 ?........b|
j j

Resulta S = 2 S un subespacio de (V, +, K ,.).

Adems, si tales subespacios son disjuntos dos a dos, o sea

i : j ^ s i n s j = {o}

entonces diremos que S es la suma directa de ellos, y escribiremos

S = Si S2 . . . S

Ejemplo 1-15
Sean S, T y U subespacios de (V, +, K , .), tales que T C S . Entonces se verifica que

sn(T + u) =T + (snu)
Io. x e S n ( T + U ) = > x e S A x e T + U=>
=!>,x e S A x = x i + x2 axi c T a x 2 e U= >
^ (xi + x2 eS axj eS) a x2 eU a Xi e T =*
^ X ! T a x 2 e S a x 2 e U =>
=> x l c Ta x 2 e s n u ^ x j + x 2 e T + ( S n U ) =
=* x e T + (S n U)

O sea
sn(T + u )cT + (snu ) (i)

2o. x e T + ( S n u ) ^ x = x 1 + x2a x i c T ax2 e S H U ^

=*Xi T a x 2 c S a x 2 e U =>
' x t e T A x ! e S A x 2 6 S ax2 eU=>
= Xj + x 2 e S A X j + x 2 e T + U =>
=>x, + x 2 e S n ( T + U ) = s - x e S n ( T + U)
Luego
T + (S O U) C S n (T + U) (2)
De (1) y (2) resulta la igualdad.
f
I

TRABAJO PRACTICO I

1-16. Determinar si las cuaternas que se indican denotan espacios vectoriales con las
operaciones que se indican

i ) (R, +, Q ,.) i) (Q} + , R , .)


i i ) (Q, +, Q, ) iv) (R, 4-, Z , .)

1-17. Sea (V, +, K , .) un espacio vectorial. Demostrar


i ) x + y = 0=s>y = - x iii) x 4'fy = x + a z yf=?t 0 =>y = z
i i ) x 4 - y = x=*y = 0 iv) ax = bx y x ^ Q ^ a - b

1-18. Determinar a. sabiendo que y ^ 0 y que


(1 - a ) x + a ( x - y ) ~ x - y
1-19. Considerando V = Rr , o sea, el conjunto de las funciones reales con una variable real,
y K = R, investigar si son espacios vectoriales sobre R:
i ) El conjunto de las funciones continuas.
i i ) El conjunto de las funciones derivables.
iii) El conjunto de las funciones pares, o sea, las funciones f e R R tales que
fW =f ( - 4
iv) El conjunto de las funciones impares, es decir, las aplicaciones f e R r que
verifican f (je) = ~ f (-x ).
v ) El conjunto de las funciones constantes,
vi) El conjunto de las funciones no negativas.
1-20. Sean V = R2 y K - R. Determinar si las siguientes operaciones definen sobre V una
estructura de espacio vectorial.
(a, b) + ( a \ b') = ( l a + l a , ~ b + - b )
2 2 2 2 7
oc ( a , b) = (ota, ab)

1-21. Determinar si (C2, +, C ,.) es un espacio vectorial, definiendo


(z,, z 2) + ( z \ , z 2) = ( z + z \ , Z2 + z 2)
z ( z u z 2) = ( z z Xtz z 2)
1-22. Considerando el espacio vectorial (R3 , +, R , .), investigar si los siguientes conjuntos
son subespacios de R3
i ) S = ( ( x 1, x 2, x 3) e R 3/xi + x 3 = 0 }
i i ) S ~ ( ( xp x 2f x 3) e R 3/ i * i N l x a l)
iii) S = j( x 1( x 2, x 3) e R 3/x3 ~ x i + 2 I
1-23. Sea el espacio vectorial (R ", +, R, ) Determinar si los siguientes conjuntos son
subespacios de R"
i ) S*=((xl f x 2, . . R "An e Z l
" I
ii) S = j ( x i , x a, - ^ e R " ^ ai Xi ^OAdi e R )

1-24. Demostrar que S = ( (z , w) e C2/z = iw ( es un subespacio de (C2, +, C ,.).


1-25. Sean C2 y S - {(z , w) e C2/z - T + w = 0 }. Determinar sison subespacios (S, +, C ,.)
y (S, +, R , .).
1-26. Sean S y T subespacios de (V, + , K , .). En el producto cartesiano S X T se definen
(x , y) + (x*, y ) = (x + x \ y + y )
a (x , y) = (ox , ay)
Demostrar que (S X T, +, K , .) es un espacio vectorial. El espacio S X T se llama
producto directo de S por T.
1-27. (Rnxn, +, R , .) denota el espacio vectorial de las matrices reales n x n.
Por definicin, la matriz A e R xn se llama triangular superior si y slo si
i > } => = 0
Demostrar que ( S ,+, R , .) es un subespacio de Rnxn, siendo S el conjunto de las
matrices triangulares superiores.
1-28. Dado (R2 , + , R , .), determinar si los siguientes subconjuntos son subespacios
i ) S = {(x , y ) l (x - y ) 2 = (x + y ? )

ii) T = |( x , y ) ^ x + y = x - ^ y )

1'29. Considerando (C2 , +, R , .) el espacio vectorial de los pares ordenados de nmeros


complejos sobre el cuerpo de los reales, investigar si los siguientes conjuntos son
subespacios del mismo.
i ) S = {(z , u) e C2/z 2 + u 2 = 0 1
ii) S = | (z , u) e C2/z + 2u e R |
iii) S = j (z , u) e Q2Re (z) = R e ())
iv) S = I (z , u) e C 2 j Im (z) = 0 a R e (z - u ) = Im (z) j
v ) S = | ( z , u) e C 2/z = u I
vi) S = | (z , u) e C2 / Im (z) - Im () = 0 f

130. Sean S, T y U subespacios de (V, +, K , .). Demostrar


i ) S + T = T + S.
ii) S + ( T + U) = (S + T) + U.
iii) S c s + T.
1-31. Demostrar que si el subespacio S de (V, +> K , .) es la sumadirecta de los subespacios
Sj y S2, entonces todo vector de S puede expresarse demodonico como la suma de
un vector de y uno de S2.
1-32. Sean (Rrtxn, +, R, .) y los subconjuntos

S = ( A e R n*n a u ^ a j i V/ V/

T = ( A e R n*n / a ii = - a Ji V/ V/ )

Por definicin, los elementos de S se llaman matrices simtricas, y los de T se llaman


matrices antisimtricas.
Demostrar
Io. S y T son subespacios de R "x "
2, R "x = S T
Captulo 2

DEPENDENCIA E INDEPENDENCIA LINEAL ,


BASE Y DIMENSION

2.1. INTRODUCCION

En esta unidad introducimos las definiciones de combinacin lineal de un conjunto no


vaco de un espacio vectorial y de subespacio generado por el mismo. Se estudian la
dependencia e independencia lineal y los sistemas de generadores, a fin de caracterizar los
conceptos de base y de dimensin en el caso finito.

2.2. COMBINACIONES LINEALES

2.2.1. Concepto

Sea A = | v r> v2, . . v } una familia o conjunto de vectores del espacio (V, +, K ,.).
Entenderemos por combinacin lineal de la familia A toda suma de productos de escalares
arbitrarios de K, por los vectores de A.

Definicin
Combinacin lineal de la familia A C V es todo vector del tipo
n
2 ctf vf = a , vi + <x2 v2 + . . - + vn / oc e K av e A

En particular, si todos los escalares son nulos, la combinacin lineal se llama trivial y se
obtiene el vector nulo.

Definicin
El vector v e V es combinacin lineal de la familia A C V, si y slo si existen escalares
, <*2> -A i tales que
n
v = 2 o{ v,
Ejemplo 2-1.
S e a n l o s v e c t o r e s v t = ( - 1 , 0 , 2 ) y v 2 = ( - 1 , 2 , 4 ) e n R 3 . D e t e r m i n a m o s si lo s v e c t o r e s

v = ( 1, 1, 3 ) y u = ( 1 , 2 , 2 ) s o n c o m b i n a c i n lin e a l d e V j y v 2 .

1. P a r a q u e v s e a c o m b i n a c i n l i n e a l d e V j y v 2 d e b e n e x i s t i r e s c a l a r e s o j y a 2 t a l e s
que

i v i + a 2 v2 = v

O sea

i ( - 1 , 0, 2) + a 2 ( - 1 , 2 ,4 ) = ( - 1 ,1 , 3)

P o r d e fin ic i n d e le y e x te r n a es

(-*!, 0, 2 a j ) + ( - a 2>22>42) = ( - 1, 1,3 )

P o r s u m a d e te rn a s

( - Oii - a 2 ) 202 , 2 o ! + 4 o t 2 ) = ( - l , 1 , 3 )

P o r ig u a ld a d d e te m a s re s u lta

0j 02 = 1
2 o2 = 1
2 o t i + 4 o2 - 3

E n to n ce s

oi + o2 = 1

VC
Ikli + 2d2 =
2

S u s t i t u y e n d o a 2 = e n la p r i m e r a e c u a c i n , se tie n e

, 1 1
Oi + = 1 =
2 2

C o m o a m b o s v a l o r e s ocj = y ct2 = s a t i s f a c e n l a t e r c e r a r e l a c i n e s v = v . + v 2 .
2 2 2 2
O s e a , v p u e d e e x p r e s a r s e c o m o c o m b i n a c i n lin e a l n ic a d e Vj y v 2 .

2 . Si u = ( 1 , 2 , 2 ) , e n to n c e s p r o c e d i e n d o a n lo g a m e n te s e lle g a a
' a i a 2 = 1 / ot| + a 2 = 1
2 o2 ~ 2 o bien / a2 = 1
2cti + 4oc2 = 2 ( ot| + 2a2 = 1
De donde
ot2 - 1 =*, + 1 = -1 ^ c t i = 2
Al sustituir en la tercera ecuacin
- 2 + 2 . 1= 0^1
Entonces u no es combinacin lineal de vt y v2.

Ejemplo 2-2.
En el espacio vectorial de las funciones reales de una variable real (Rr , +, R , ,) sean las
funciones f y g definidas por
= y 8 () = 3t

Determinar todas las combinaciones lineales, es decir, los escalares a y b, tales que

ai +

donde 0 denota la funcin nula, definida por 0 (f) - 0 , V t e R.


Por definicin de funciones iguales, suma de funciones y producto de escalares por
funciones (vase 1.4.) se tiene
a f (f) + b g (f) = 0 cualquiera que sea / e R
O sea
aet + b e * t = Q ( 1)
El propsito es obtener los escalares a y b que satisfagan a ( 1) para todo / e R.
Derivando (1) se tiene
aet+ lbe**^ 0 ( 2)
Restando (2) y (1) es
2b e3t = 0
Y como e3 * nunca es cero, resulta b - 0, que sustituido en (1) nos da

a e* = 0

En consecuencia es a = 0.
Luego, la nica combinacin lineal de f y g que da la funcin nula es la trivial. Toda vez
que esto ocurra, diremos que los vectores, en este caso f y g, son linealmente
independientes.
Decidimos si el vector v = (1, 2 ,3 ) es combinacin lineal de la familia cuyos elementos
son los vectores de R3
Vj - ( 1, 0 , - 1) \ 2 = ( 0, 1, - 1) v3 = ( 1, 1, - 2)
Investigamos si existen escalares reales a, b ye , tales que
av j + v 2 + c v 3 =v
Entonces, debe ser
a (1, 0, - 1) + b (0 , 1, - 1) + c ( 1, 1, - 2) = ( 1, 2,3 )
Efectuando operaciones
(a, 0, - a) + (0, b, - b) + (c, c, -2 c ) = (1 ,2 , 3)
(a + c, b + c, - a - b '-2 c ) - ( 1 , 2 , 3)
Por igualdad de ternas es
a + c~ 1
b +c=2
a b - 2 c = 3
Sumando las tres relaciones se tiene
0=6
lo que es imposible.
En consecuencia, v no es combinacin lineal de Vj, v3, y v3.

Ejemplo 2-3-2.
En el espacio vectorial (R2X2, +, R , .) se consideran las matrices

Determinar todas las combinaciones lineales de A, B y C que den la matriz nula N.


Hay que obtener a, |3 y y en R, tales que
t t A + ^ B + 7 C=N
Por producto de escalares por matrices es

0 + / ' ) + / L 0 0
0 aI (0 \7 yI \0 0

Por suma en R2*2 se tiene

'* + 0 0 \ 0 0
0 + y <x + y ) \0 0

Por igualdad de matrices resulta


a + 0 = 0
/5 + 7 = 0
a + y - 0
De las dos primeras se deduce
a = -0 y 7 = -(3
Sustituyendo en la tercera es
-2 0 = 0
O sea
0 = 0
Luego cx = j3 = 7 = 0 y l a nica combinacin lineal que satisface la relacin propuesta es
la trivial.

2.3. SUBESPACIO GENERADO

2.3.1. Conjunto de combinaciones lineales

Sea A un conjunto no vaco de vectores del espacio (V, +, K ,.). A expensas de A


podemos formar el subconjunto de V cuyos elementos sean todas las combinaciones lineales
de los vectores de A. A este conjunto lo denotaremos con el smbolo A, que se lee A raya.
Si A = { Vj, v2, . . ., v } , entonces escribiremos

A = | S <x v I o K a ^ e A j

Ejemplo 2-4.
El conjunto de todas las combinaciones lineales de los vectores
vi = ( 1 ,0 ,1 ) y v2 = (0, 1, 1) de R3
es
A = { i ( 1 , 0 , 1) + a 2 ( 0 , 1 , 1 ) / i c R a o j e R )

= {( 1 , 0 2 , + a 2) / i e R a a 2 e R )
En consecuencia, a A pertenecen todas las ternas cuya tercera componente es la suma
de las dos primeras.
Podemos escribir
A - j (Xj, x 2, x 3) R3 / x 3 - x x + x 2 )

2.3.2. Subespacio generado por una familia de vectores

Teorema. El conjunto de las combinaciones lineales de toda familia no vaca de un


espacio vectorial es un subespacio del mismo.
Hiptesis) (V, +, K , .) es un espacio vectorial

A - ( vi, v2, .. .,v | C V

Tesis) (A, +, K , .) es un subespacio de V


Demostracin)
1. Siendo vt = 1 Vi + O v2 + . . . + O v se deduce que Vi e A, o sea, A <>
2. Por definicin, se tiene
_ n
v A => 3 a t , oc2, - > K / v - 2 a v A v,- A =>
=l
n
v= ov a aeK a ve V, pues A C V

Luego
ve A ^ v e V

O sea
ACV

3. A es cerrado para la suma.


Sean v y u en A.

_ __ n n n n
v eA a u e A =*v = 2 a v , a u = S v + u = 2 a, v + 2 0t v =>
f=l =1 J=1 1=1
n n n
=>v + ni = 2^ (a* Vi + Vf) =* v + u = 2^ (a, + ft) v =>v + u =^2^ y Vi => v + u e A
4. A es cerrado para el producto por escalares.
Sean a e K y v e A .
__ n
aeK AveA=>aeK av= S a; v, =>
=i 1
n n n n _
** a v - a ^ a, v = .2 a (a* v,) ~ (a a f) v, = 2 0 \ = a v e A

Como se cumplen las hiptesis del teorema 1.8.2., resulta (, +, K ,.), un subespacio de
(V, +, K , .).

Definicin
El subespacio de las combinaciones lineales de la familia no vaca A C V se llama
subespacio generado por A.

Ejemplo 2-5.
Determinar el subespacio de (R3, +, R ,.) generado por la familia A cuyos elementos
son los vectores
v, = ( 2, 1, 2) y v2 = ( 1, 2, 1)
Por definicin, el subespacio A es el conjunto de las temas (xi, x 2, * 3) e R 3 tales que

C xi,*2,*3) = ai (2, 1, 2) + o* ( 1, 2, l)
= (2 ft1, J l 2 i ) + (a2, 2c2, o2)
= (2 atj + a2 , a t + 2a 2, 2t + a 2)
Por igualdad de ternas es

j 2 j + a 2 = x ,
o ti + 2a t ~ x 2

2 <*! + a 2 = x 3

De la primera y tercera relacin se deduce


x = x 3

y x 2es cualquier nmero real.


En consecuencia
A = { (xi, x 2, x i ) I Xi e R ax2 eR }
A es el plano de ecuacin
SUBESPACIO GENERADO

Ejemplo 2-6.
Obtener el subespacio de (R2 x2, +, R , .) generado por las matrices

1 0\ /0 1 0 o
V l= l0 -1 H o o 1 o

A = { 2 a V / oi e K a V,- e A }

Todo vector de A es una matriz tal que

1 0' 0 1 0 0 a b

>0 0 + 3 \ 1 0 , c d

Realizando operaciones en R2*2 es


En consecuencia
i - a , oc2 = b , a3 = c , - a j - d
Luego
d ~ -a y b y c
son nmeros reales cualesquiera.
Los vectores de A son matrices del tipo

(; - * .)

Es decir, es el subespacio de matrices de traza nula.

2.3.3. Propiedad

El subespacio generado por una familia no vaca de un espacio vectorial es la interseccin


de todos los subespacios que incluyen dicha familia.

Hiptesis) (V, +, K , ,) es un espacio vectorial.

( v i , v 2,. .,v) C V

( S,} con i e I es la familia de todos los subespacios que incluyen A.

Tesis) A = 0 S.
el 1
Demostracin)
Probaremos lasaos inclusiones que conducen a la igualdad.
1 . C 0 St
iel

En efecto
_ n
x e A ^ x = 2 <Xj Vj a aj e K a v/ e A =>
n
=>x - . 2 ctj v a ay e K a v e S , VieI=>

=>x e S i , Vi e I =* x e O S,
ie I

2. n s,c
iel 1

Como todo Vj de A es combinacin lineal de los elementos de A, pues


V, = 0 Vi + 0 v2 + . . . + lVf + .. . + 0 v,
se tiene que.
AC
Y siendo A un subespacio que incluye a A, se identifica con algn S d e n r . existe i en
I tal que S;- = .
Por otra parte, como la interseccin est incluida en cualquiera de los conjuntos que se
intersecan, es
O s, C S/ V> e l

En consecuencia
n S C
iel 1
Por lo tanto
= n s,
iel 1

En virtud del teorema demostrado, observamos que el subespacio generado por una
familia no vaca de vectores de V zi el mnimo subespacio, en el sentido de inclusin, que
incluye a A .

Ejemplo 2-7.
Demostrar que los siguientes conjuntos de vectores generan el mismo subespacio de
R3.
A = | (1, 1 , 1 ) ,( 3 ,0 , 1 ) ) B = ((-2 , - 1 ,0 ) ,( 5 ,- 2 ,3 ) }
Determinaremos A y B.
1. A A pertenecen las ternas (x, y, z), tales que

(x ,^ z ) = ( l , - l , l ) + u ( 3 , G , 1)

Entonces
(x, y , z ) = (t, ~t, t) + (3u, 0, u)
(x, y , z) = ( + 3 , - / , t + u)
Luego
x = t + 3u
<y - - t
,z-t +u
Como t - - y , se tiene
* = y + 3u
z - ~y + u
O sea
| x = - y + 3u
i 3 z = ~3y + 3u
Restando
x 3z ~ 2y
Resulta
A = I (x,y,z)eR3 / x - 2 y ~ 3 z = 0

2. Procediendo anlogamente para obtener B es


(x, y , z ) - t ( - 2 , 1 , 0 ) + (5, - 2 , 3)
(x, y, z) = ( 2f, t, 0) + (5, 2u, 3u)
(x, y, z ) = ( - 2 1 + Su, - t -2 u , 3)
O sea
x 2t + Su
y ~ - t -2u
z = 3u

Como u = z , se tiene
3
x =-2 t + 2
3

y ~ t z
3

O bien

-2 t + z
3

2y = - 2 ----- z
3
Restando
jt 2jy = 3z
Luego
B = ( (*. y, z ) e R 3 x - 2y - 3z = 0
Resulta
A= B
La ecuacin x 2y 3z = 0 corresponde a un plano que pasa por el origen.
Ejemplo 2-8.
El subespacio de (V, +, K , .) generado por un vector v es, en particular, el conjunto de
todos los mltiplos escalares de v, o sea
\ k v / k e K
Determinamos el subespacio de R2 generado por v = (1,2).
Llamando S a tal subespacio, se tiene
S - I (xi, x 2) l k ( 1, 2) |
En consecuencia
( x , x 2) ~ ( K 2k)
O sea
Xi = k y x 2 = 2k
Eliminando el parmetro k entre ambas relaciones, resulta
x 2 = 2x
O lo que es lo mismo
2jc - x2 - 0
Entonces
S = | (^, x 2) e R 2 / 2 x x ~ x 2 = 0}
S es la recta que pasa por el origen representada en la figura
2.4. DEPENDENCIA E INDEPENDENCIA LINEAL

2.4.1. Conjunto linealmente independiente

En el ejemplo 2-2 hemos demostrado que la nica combinacin lineal de los vectores f y
g, cuyo resultado es el vector nulo, es la trivial. O sea

a i + b g = 0=>at=b = 0

En este caso, los vectores son las funciones de R en R definidas por


f(t) = et y g () = e3
y la funcin que asigna a todo nmero real t, el valor 0, es el vector nulo. Este hecho se
traduce diciendo que los vectores f y g son linealmente independientes, o bien que el
conjunto {f, g } es linealmente independiente.

Sea A {Vj, v2 , . . vr J una familia de vectores del espacio (V, +, K ,.).

Definicin

La familia A C V es linealmente independiente si y slo si la nica combinacin


lineal de dicha familia, cuyo resultado sea el vector nulo, es la trivial.
En smbolos
r
A es linealmente independiente o V /: .2 v, = 0 = a, = 0.

La independencia lineal de un conjunto finito y no vaco de vectores significa que no


puede darse una combinacin lineal de dicho conjunto que d el vector nulo, con algn
escalar distinto de cero.
Para investigar la independencia lineal de un conjunto de vectores, se propone una
combinacin lineal de stos, con escalares a determinar, que sea igual al vector nulo. Si los
escalares son necesariamente nulos, entonces el conjunto es linealmente independiente.
Convenimos en que el conjunto vaco es linealmente independiente.

Definicin
El conjunto A C V es linealmente independiente si y slo si todo subconjunto finito de
A es linealmente independiente.
Esta definicin extiende el concepto de independencia lineal a toda familia de vectores de
un espacio V.
Ejemplo 2-9.
Dado el espacio vectorial (R 3, +, R ,.) determinar si los siguientes conjuntos de
vectores son linealmente independientes.
i) A = |( 1 , 0 , 0 ) , ( 0 , 1,0),(0,0,1))

ii) B = i ( 1 . - 1 . 0 ) , (1, 1, 2) , (1,0 , 1))


i ) Sea
, ( 1 , 0 , 0 ) + o , (0, 1,0) + o 3 ( 0 , 0 , 1 ) = (0,0, 0)
( a , , 0,0) + (0, a , , 0) + (0,0, a 3) = (0 ,0 ,0 )
( a i, a. 3) = (0 , 0 , 0)
Por igualdad de ternas resulta
=C2 = 03 = 0
Luego
A es linealmente independiente
ii) Procediendo anlogamente

i ( 1 ,- 1 , 0) + oc2 (1, 1, 2) + a 3 (1, 0, 1) = (0, 0, 0)


( a , , -<*!, 0) + (o2, o2, 2o2 ) + (0f3,0 , o3) = (0 ,0 ,0 )
(aj + a 2 + a 3, -ft! + 3, 2a 2 + a 3) - (0, 0 , 0)
Entonces

a j + a 2 + o3 ~ 0
- a , + a2 =0=>at =a2
2<x 2 + a 3 = 0 => 0f3 = - 2a^
Las infinitas soluciones de este sistema de ecuaciones son
Oix~k
=k
a 3 = 2 k con k e R
En consecuencia, B no es linealmente independiente, ya que los escalares no son
necesariamente nulos. Ms an, existen infinitas combinaciones lineales no triviales
cuyos resultados son el vector nulo.

Ejemplo 2-10.
En (R!,+ , R , .), donde I = [0 , 1], los vectores Vi =sen y \ 2 =cos son linealmente
independientes.
Sea
a, sen + a 2 eos = 0
V t e [0 ,1] es
(! sen + a 2 eos) (f) = O ()
Por definicin de suma de funciones y de funcin nula

(a! sen) (f) + (a2 eos) () = 0


Por definicin de producto de escalares por funciones
t*! sen t + a2 eos t ~ 0 (1) V t e I

Derivando
a! eos t - a2 sen t = 0 (2)
Resolvemos el sistema respecto de a , y a 2 :

sen t eos t
~ = ~ sen t - eos t = ..1
eos t - sen t

0 eos t sen t 0
a

Att] = ^0 0
u
o*

0 - sen t eos t 0

Y la nica solucin es
oj = c2 = 0
O sea
v i , v 2 I es linealmente independiente

Ejemplo 2-11.
Sabiendo que dos vectores Vj y v2 son linealmente independientes en (V, +, K , .)
demostrar que Vi + v2 y v2 son linealmente independientes.

Consideremos una combinacin lineal de la familia ( v t + v2 , v2 } que sea igual al


vector nulo, con escalares a y 6 , que determinaremos:
o (v i + v2) + b v2 = 0
Por distributividad respecto de la suma en V
a v i + a v2 + b v2 = 0
Por distributividad respecto de la suma en K
a Vj + (a + b) v2 - 0
Como, por hiptesis, Vj y v2 son linealmente independientes, se deduce
<z = 0 y a + >= 0
En consecuencia
a=b- 0
Por consiguiente, Vj + v 2 y v 2 son linealmente independientes.

2,4.2. Propiedad.

Si un vector es combinacin lineal de una familia linealmente independiente, entonces


dicha combinacin lineal es nica.
Sea v e V combinacin lineal de la familia ( v t , v2 , . . vr } , y sta linealmente
independiente. Entonces existen escalares tales que
r
v - X oc\
i- 1 '

Suponemos que existen escalares j3f tales que

v = e i v,
i=l
Entonces

2 o t i V i - X ftv,
=i 1 =i ri '
O sea

2 otiVi-2: vf = 0
i=l 1=1
Luego

2 (tt(-ft)v= 0
i=l
Y como la familia es linealmente independiente, se deduce que
ce, - j3f = 0 = ol = 13/ Vi = 1, 2, . . ., r
En consecuencia, la combinacin lineal es nica.

2.4.3. Conjunto linealmente dependiente


En el ejemplo 2*9 ii) hemos probado que existen escalares no simultneamente nulos ,
a2, a 3 tales que
a , ( 1 . - 1 , 0 ) + 0 , ( 1, 1, 2 ) + o 3 ( 1 , 0 . 1 ) = ( 0 , 0 , 0 )
Diremos que los vectores ( 1, 1, 0 ), ( 1, 1, 2) y ( 1, 0 , 1) son linealmente dependientes.

Definicin
La familia A C V es linealmente dependiente si y slo si no es linealmente
independiente.

La familia A = {Vi, v2, .. .,v r [ es un conjunto linealmente dependiente de vectores


de V si y slo si existe una combinacin lineal no trivial de dicha familia cuyo
resultado sea el vector nulo.

Negando las dos proposiciones que figuran en la definicin de independencia lineal, se


tiene

A es linealmente dependiente o 3 i / . o vf = 0 a oc = 0.

La dependencia lineal de un conjunto finito de vectores significa que tiene que existir, al j
menos, una combinacin lineal de stos que d el vector nulo y que no sea trivial.
Para investigar la dependencia lineal de una familia de vectores, se propone una |
combinacin lineal de dicha familia, con escalares a determinar, que sea igual al vector nulo.
Si algn escalar es distinto de 0, entonces la familia es linealmente dependiente. j
i
Ejemplo 2-12,
I
Los vectores (2,4) y (1, - 2) son linealmente dependientes en (R2, +, R ,.).
En efecto, sea
i ( - 2,4 ) + o* ( 1, - 2) = (0, 0)
Por definicin de producto de escalares por pares y por suma de pares es

( - 2 i + a2,4 c*! - 2 a 2) = (0, 0) 1


Por igualdad de pares resulta
-2 O + a 2 = 0
4 i 2 a 2 = 0
Dividiendo la segunda relacinpor 2, el sistema sereduce a la nica ecuacin '
2 O! + o 2 ~ 0
Esta admite infinitas soluciones, dadas por
(ai =k
\ct2 = 2 k y ke R
Ejemplo 213.
Las matrices

/1 o\ / 0 1\ / 0 0\ /0 0
En = E ,a = E2l = { E22 =
'0 0/ VO 0/ \i o/ \o 1

son vectores linealmente independientes del espacio vectorial (K2x2,+ , K ,.), pues
cualquiera que sea la combinacin lineal de los mismos con escalares en K, cuyo
resultado sea la matriz nula, es la trivial. En efecto

ccj E n + ot2 E + a 3 E2i + a 4 E22 = N =>

/ i 0\ / 0 0(2 \ /0 0\ /0 0\ /0 0

* \0 0 /r \0 0 Ir \ a3 0 1M ' 0 Ct4 l
H \ 0 0

al a2 \ / 0 0

3 <*4 / \ 0 0
fr

Luego
En cambio, las matrices

1 0\ -1 0
A= y B=
1 0 -1 0

son linealmente dependientes, pues

i -0(2 0

1-02 O

O sea
ai - = O => a 1 ~ot2 =: k \f k e K
Por consiguiente, existen escalares no simultneamente nulos que satisfacen la relacin
anterior, lo que prueba la dependencia lineal.

2.4.3. Propiedades

i )T odo vector no nulo de un espacio vectorial constituye un conjunto linealmente


independiente.
Sea v = O en (V, +, K , .). Consideremos

De acuerdo con 1.3.3., como v =0, se deduce que a = O, y en consecuencia { v | es


linealmente independiente.

ii) El vector nulo de cualquier espacio vectorial constituye un conjunto linealmente


dependiente.
En efecto, cualquier escalar, nulo o no, satisface la relacin a O = O, segn lo demostrado
en 1.3.2.
iii) Todo conjunto al que pertenezca el vector nulo es linealmente dependiente.
Sea A = { , v2, . . vr } con = 0. Se verifica que
OVi + 0v2 + .. . + Oy Vj + . .. + Ovr = O
O sea
o] Vj = otj O = O
con ct no necesariamente nulo.
iv) Un conjunto finito y no vaco de vectores es linealmente dependiente si y slo si algn
vector es combinacin lineal de los dems.
Sea A = {vji , v2, . . vr ) una familia de vectores de (V, +, K , .), Demostramos las dos
condiciones en que se desdobla el enunciado: necesaria y suficiente.
n
Io. A es linealmente dependiente => 3 / / Vy = fi{ v,
i^i
Por definicin de dependencia lineal
A es linealmente dependiente =>
r
=*2 v( = 0 a / ^ 0 ^
I-l
n
= (Xj Vy + 2 . OCi v = 0 A 0[ j ^ 0 =>
l*i
n
=> a, V ; = - 2 a, yi a a, ^ 0
i 4

Premultiplicando por a / 1, inverso multiplicativo en K, de ^ 0, se tiene

n
ttf1 (otj vy) = (- o tf1) 7 g ' o( v

Por A7 y propiedad de la sumatoria

(a,fl ay) vy = .(- y '1) (a, vf)

Por inversos en K y A7 es

Teniendo en cuenta Ai0, y llamando0f a - a ,'1 a, se deduce

Vy ~ X. V/

En consecuencia, existe vy e A, que es combinacin lineal de los restantes vectores de A.


rt
2o. y, = 2 a, Vf => A es linealmente dependiente.

Por hiptesis y trasposicin de trminos se tiene


n tt
y, 2 a. vf =>2 a. v,- v, = 0 con a.- = 1
; i*J 1 i* ; 11 1 1
Como ay = 0, el conjunto A es linealmente dependiente.

v ) Un conjunto finito y no vaco de vectores es linealmente independiente si y slo si


ningn vector escombinacin lineal de los dems.
Nada hay que demostrar, pues basta negar las dos proposiciones de la condicin necesaria
y suficiente anterior.
En smbolos
n
A es linealmente independiente V, : v; # ^2 J3, v,
En lo sucesivo, y en algunas ocasiones, abreviaremos las expresiones: linealmente
independiente y linealmente dependiente mediante L.I. y L.D. , respectivamente.

vi) Un conjunto finito y ordenado de vectores al que no pertenece el vector nulo es


linealmente dependiente si y slo si algn vector es combinacin lineal de los
precedentes.

fe-l
I o. A = j v1? v2) . . vr } es LD a 0 / A => 3 k f 2 < a vk = 2 a f v*

Demostracin) Sea k el primer entero positivo tal que


|
v2, . . vft ) esL.D.
V i,

k existe por el principio de buena ordenacin.


Por definicin se tiene
fe
. 2 f} v = 0 y algn

Si |3fe = 0, entonces { Vi, v2 ,. . V/-i } sera LD, contra lo supuesto.

Luego /3fe ^ 0, y procediendo como en iv) 1? se deduce que


fe-l
Vfe = .2 at v
i=l
O sea, Vjj es combinacin lineal de los precedentes, y k es tal que 2 < k < r.
2?. El recproco es obvio y puede ser demostrado como ejercicio.

De acuerdo con los conceptos anteriores podemos afirmar que las siguientes proposiciones
son equivalentes:
a) A es L.I.
b) Toda combinacin lineal de la familia A, cuyo resultado sea el vector nulo, es la trivial.
c) Ningn vector de A es combinacin lineal de los dems.
Anlogamente son equivalentes:
a) A es L.D.
b ) Existe una combinacin lineal de la familia A con escalares no todos nulos, cuyo
resultado es el vector nulo.
c) Algn vector de A es combinacin lineal de los dems.
En el espacio vectorial de los polinomios reales sobre el cuerpo de los reales, P y Q
definidos por
P (x) = x 2 + x Q ( x ) = -2 x
son linealmente independientes.
Sea
aP + bQ = 0 donde 0 denota el polinomio nulo
Cualquiera que sea x e R se verifica
(aP 4 bQ) (x) = 0 (x)
Por definicin de suma de funciones y de polinomio nulo es
(aP) (x) + (bQ) (x) = 0 Vx eR
Por definicin de producto de escalares por polinomios, se tiene
aP (x) + bQ (x) = 0
O sea
a (x2 + x ) + b ( - 2x) = 0
Luego
ax2 + (a - 2b) x ~ 0 Vx e R
Si x = - 1 , se verifica a - a + 2b = 0, y en consecuencia b = 0.
Entonces es ax2 + ax = 0, y haciendo x - 1, resulta 2a = 0, o sea, a = 0.

2.5. SISTEMA DE GENERADORES

2.5.1. Concepto

Si un conjunto no vaco de vectores de un espacio (V, 4-, K , .) es tal que todo vector de V
puede expresarse como combinacin lineal de dicho conjunto, entonces se dice que ste es
un sistema de generadores de V. Esto equivale a decir que el subespacio de V generado por
tal conjunto es el mismo V. El concepto de sistemaide generadores de un espacio vectorial es
independiente de la dependencia o independencia lineal del sistema. O sea, un sistema de
generadores puede ser linealmente independiente o no.

Definicin
La familia A = | v 1, v2, . . vr } es un sistema de generadores de V si y slo si todo
vector de V puede expresarse como combinacin lineal de los vectores de A. O bien, A
es un sistema de generadores de V si y slo si el subespacio generado por A es V.
Las notaciones S.G. y C.L. son abreviaturas de sistema de generadores y
combinacin lineal , respectivamente.
La traduccin simblica de la definicin anterior es
r
A es un S.G. de V <* v e V =>v = 2 a, v
f=l 1 1
O bien
A es un S.G. de V o A = V

Ejemplo 2-15.
El conjunt A = | (1, 0) , (0 ,1 ) , (1, 1) } es un sistema de generadores de R2.
En efecto, s (a , b) es cualquier vector de R2, deben existir escalares a, 0 y 7 tales que
a ( 1, 0) + 0 (0, 1) + 7 ( 1, 1) = (/, b)
O sea
(a + 7 ,0 + 7 ) = (a , b)
Luego
ct + y - a A /3 + 7 ~ b
En consecuencia
a =a - k , $ ~ b -k , 7-k V keR
Este resultado nos dice que, efectivamente, A es un S.G. de R2 , y adems, que
cualquier vector del espacio puede expresarse de infinitas maneras como C.L. de los
vectores de A. Por otra parte, es fcil verificar que A constituye una familia L.D.
En el ejemplo 2-6 est demostrado que las matrices V j, V2 y V3 constituyen un
sistema de generadores del espacio vectorial de las matrices reales de traza nula del tipo
2 X 2 . Adems, tales matrices son linealmente independientes.

2.5.2. Propiedad

Si la familia A = { Vi, v2, . . . , vr } es un S.G. L.D. de V, entonces existe e A, tal que


A - {V/ | es un S.G. de V.
Demostracin) Por ser A un sistema de generadores de V, se verifica
r
v e V => v = a Vj (1)

Como A es linealmente dependiente, por 2.4.3. iv), algn vector de A, digamos v, es


combinacin lineal de los restantes, o sea

3 v; tal que vy = 2 (3, v, (2)


i* i

Teniendo en cuenta (1) y (2) podemos escribir


r r r

r r
= -S ta, ft, + <,), = 2 y, v,

En consecuencia, A - . { ) es un sistema de generadores de V.

Ejemplo 2J 7.
Determinamos si los vectores Vj = ( 1 , 1 , 1 ) , v2 = ( 1 , 1 , 0 ) y v3 = ( 1 ,0 ,0 ) de
(R3, +, R , .) constituyen un sistema de generadores de R3.
El problema se reduce a investigar si existen escalares reales a, 0 y 7, tales que
cualquiera que sea {a, b , c) e R3 se verifique
<*(1,1, 1) + 0(1,1, 0) + y(l, 0,0) = (a , , c)
(a + 0 + y , a. +18 , a) = (a , b , c)
Luego

De donde resulta
a = c , (i = b c , y ~ a b
En consecuencia, todo vector de R3 puede expresarse como C.L. de los vectores
propuestos. Observamos, adems, que tal C.L. es nica para cada v e R3.
En el caso en que (a , b , c) sea el vector nulo, los escalares son nulos, y en
consecuencia los vectores v x, v2 y v3, adems de constituir un S.G., son L.I.
Por este motivo se dice que tales vectores son una base de (R3, +, R , .).

2.6. BASE DE UN ESPACIO VECTORIAL

2.6.1. Concepto de base

Sea A = {Vj, v2 ,. . v } una familia de vectores de (V, +, K , .).

Definicin
La familia A C V es una base de (V, +, K,.) si y slo si es un. conjunto linealmcnte
independiente y sistema de generadores de V.
A C V es una base de V o A es L.I. y A = V
Ejemplo 2-18.
Una base de (K", +, K , .) es el conjunto de vectores

e J ~ ( 1, 0, 0,. . . , 0)
e2 = (0, 1, 0 , . . . , 0)

ert = (0, 0 , . . . , 0, 1)

El lector puede comprobar que la familia { e t , e 2 , . . e } es linealmente


independiente y un sistema de generadores de Kn. Tal familia recibe el nombre de base
cannica.

Ejemplo 2-19.
En el ejemplo 2-13 se demostr que las matrices E n , E 12 , E21 y E22 constituyen
una familia linealmente independiente del espacio (K2x2, + } K ,.).
Adems, tal conjunto es un sistema de generadores de dicho espacio, y en consecuencia
es una base del mismo. La llamaremos tambin base cannica de K2 x2.

Ejemplo 2-20.
Determinar una base del subespacio de (R 3, + , R , .) estudiado en el ejemplo 1-8.
Tal subespacio es
S ~ { (xl f x 2- * 3 ) e R 3 f x 3 + * 2)
Si (a , b , c) es un vector genrico de S, entonces se tiene c =a + b, y en consecuencia
podemos escribir, en virtud de las leyes de composicin en S :
(a, b, c) = (a, b ,a + b) = (a, 0, ) + (0, b, b ) ^ a ( 1, 0,1 ) + b (0,1, 1)
Este resultado nos dice que los vectores de R 3
Vi = ( 1, 0, l ) y v2 = ( 0 , 1, 1)
constituyen un sistema de generadores de S. Adems, son linealmente independientes,
pues
a ( 1, 0, 1) + Z>(0, 1, 1) = (0, 0, 0) =* a = = 0
Por consiguiente, Vi y v2 constituyen una base de S.

2.6.2. Coordenadas o componentes de un vector

En este texto consideraremos nicamente espacios vectoriales de bases finitas. En


algunas ocasiones, para indicar que { v i , v 2, . . . , v } es una base del espacio vectorial
(V, +, K, .), utilizaremos el smbolo [v] para hacer referencia a ella.
Si { Vi, v2 , .. ., v f es una base de (V, +, K , .), entonces cada vector de V puede
expresarse de modo nico como combinacin lineal de la base, ya que los vectores de sta
son linealmente independientes y sistema de generadores, de acuerdo con 2.4.2.
O sea, si x e V, entonces existen y son nicos los escalares x l5 x 2, . . x, tales que
n
x = *1 v, + x 2 v2 + . . . + x n v = 2 Xi v
=1
Respecto de la base dada, el vector x e V queda caracterizado por los coeficientes de la
combinacin lineal, o sea, por la -upla de elementos de K.: (x ,, x 2 ,. . x). Los escalares
Xj se llaman coordenadas o componentes del vector x e V, respecto de la base dada. Si se
elige otra base en el espacio V, entonces el mismo vector x admite otras coordenadas o
componentes: (x j, x 2, . . x').
Demostraremos ms adelante que dos bases cualesquiera de un mismo espacio vectorial
son coordinables, es decir, tienen el mismo nmero de vectores.
Dada la base M = |v , , v2, . . v J del espacio (V, +, K , .),podemos expresar a cada
vector x e V como una matriz columna, cuyos elementos sean las coordenadas de x respecto
de [v]; en tal caso escribiremos

Ejemplo 2-21.
Determinar las coordenadas de x = (2, 3) perteneciente a (R2 , +, R , .), respecto de
las bases:
i ) (v]= {(1, 1) , ( 1, 0) |
i) [w] = | ( - 2 , 3 ) , ( 1, 2 ) |
iii) cannica
En el primer caso, planteamos la relacin lineal
(1 ,1 )+ 6 (1,0 ) = ( - 2 , 3)
Efectuando las operaciones, y resolviendo respecto de a y b, se tiene
(a + b,a) = ( -2, 3) =* a + b = - 2 y a = 3 =>
>a = 3 y b = - 5
En consecuencia, las coordenadas de x, respecto de la base [v], son: 3 y -5
Y puede escribirse
En el segundo caso, procediendo anlogamente, se llega a que las coordenadas de x son
1 y 0 , y por lo tanto

Finalmente, respecto de la base cannica, es


(2, 3) = ( - 2 ,0 ) + (0 ,3 ) = - 2 (1, 0) + 3 (0, 1)
O sea, las coordenadas de x son precisamente los elementos del par ordenado, y
escribiremos simplemente

2.6.3. Teorema de extensin a una base

Si [v] = { v l5 v 2 , . . v } es u na base del espacio vectorial V, y


[w] = | Wi, w2,. . wm } es un conjunto linealmente independiente, pero no de generado
res de V, en t on c e s exi s t en vectores wf + i , wfn+2> > wm+p> tales que
| w , , w2 , . . ., wm, wm+1, . . wm+p ) es una base de V.
Si [w] n [v] = 0 , consideramos el conjunto

A ='[w] U [v] = j w , , w2 ,. . wm, v j , v2, .. ., v )


Como cada w, es combinacin lineal de los vectores de la base [v], A es un conjunto
linealmente dependiente por 2.4.3. iv). De acuerdo con 2.4.3. vi), siendo A un conjunto
finito y linealmente dependiente al que no pertenece el vector nulo, algn vector es
combinacin lineal de los precedentes. Tal vector es un elemento de [v], ya que [w] es
linealmente independiente. Por otra parte, como A es un sistema de generadores linealmente
dependiente de V, y v, es combinacin lineal de los precedentes, resulta
A, = A - {v, | = j W! , w 2 , . . . , wm, v , ,. . .,vM , V4i, . ., v )
un sistema de generadores de V, segn 2.5.2.
Si A, es linealmente independiente, el teorema est demostrado. Si A es linealmente
dependiente, se reitera el proceso, y a lo sumo, al cabo de (1) etapas se obtiene un
conjunto linealmente independiente que es sistema de generadores de V, o sea, una base.

2.6.4. Coordinabilidad de las bases

Dos bases cualesquiera de un mismo espacio vectorial son coordinables.


Hiptesis) (V, + , K , .) es un espacio vectorial.
[v]= I v , , v 2, . . . v | y [w] = ( w j , w 2, . . . , wm ) son bases de V.
Tesis) [v] ~ [ w] , o sea, n = m.
Demostracin) Consideremos
A = i Wm,V!,V2 , .. .,vn )
Este conjunto, al que no pertenece el vector nulo, es un sistema de generadores (pues [ v ]
es una base), y linealmente dependiente (ya que wOT es C.L. de la familia [v]). La propiedad
2.4.3. nos dice que algn vf es C.L. de los precedentes, y, de acuerdo con 2.5.2., es
A - { v } un sistema de generadores de V.
Sea
Ai = wm.1, w m, v 1, .. v,'.|, Yf+i, . . .,vn }
Este conjunto es un sistema de generadores linealmente dependiente, y en consecuencia,
algn v; es combinacin lineal de los precedentes. Lo mismo que en la etapa anterior, se lo
extrae y se agrega wm,2, obtenindose
A2 = ( wm.2, Wm.j, W ^ V i , . . .,vM ) v+1, . . . , V y . i , V ;-+ 1 , . . . , v|
que es un sistema de generadores y linealmente dependiente.
Reiterando el procedimiento, afirmamos que no es posible que los v/( se "agoten untes
que los w/j, ya que en este caso los wfe sobrantes seran combinacin lineal de los
considerados. En consecuencia es
m<n ( 1)
Anlogamente, a partir de
B " j Vn.Wi.W*,. . . , Wm )
se prueba que
n< m (2)
De (1) y (2), por la antisimetra de la relacin de menor o igual, resulta
n-m

2.7. DIMENSION DE UN ESPACIO VECTORIAL

2.7.1. Concepto

En 2.6.4. hemos demostrado que si [v] es una base finita del espacio vectorial (V, +, K ,.),
entonces toda otra base de V es coordinable a [v]. Esto significa que dos bases cualesquiera
de un mismo espacio vectorial tienen el mismo nmero de vectores. Tal nmero se llama la
dimensin del espacio.

Definicin
Dimensin de un espacio vectorial V es el nmero cardinal de cualquiera de sus bases.
Si V consiste nicamente en el vector nulo, diremos que su dimensin es 0.
En ambos casos, V es un espacio de dimensin finita.
Si [v] = { Vi, v2, . . vn } es una base de (V, +, K , .), escribiremos
dimK V = n

Ejemplo 2-22.
Analizando ejemplos propuestos anteriormente se tiene que
dimKKn = n dimKK2*2 = 4
dimRRn = n dim^S - 2 siendo S el subespacio del ejemplo 2-20

El lector puede verificar que { 1, X, X2 | constituye una base del espacio vectorial de
los polinomios reales en la indeterminada X, de grado menor o igual que 2 y el
polinomio nulo, sobre el cuerpo de los reales. En consecuencia, su dimensin es 3.

2.7.2. Propiedad

Un conjunto de n vectores de un espacio vectorial -dimensional es una base si y slo si es


linealmente independiente o sistema de generadores.
1 . Si [v] = { Vi >v2 ,. . vn | es una base de V y dimKV = n, entonces [v] es linealmente
independiente y sistema de generadores.
2o Si dimKV = n y [v] - { Vjl , v2 , . . v } es L.I., entonces [v] es S.G.
En efecto, si [v] no fuera un sistema de generadores, por el teorema de extensin, podr
completarse hasta formar una base de V, en cuyo caso sera dimKV > , lo que es absurdo.
Si dimKV = n y [v] = Vi, v2, . . vn } es S.G., entonces [v] es L.I.
Si [v ], que es S.G., fuera L.D., entonces existira v tal que [v] { v; ) es S.G. de V,
segn 2.5.2. Si este conjunto de n1 vectores fuera L.I. constituira una base de V. S:
[v] - { \j ) no fuera L.I. se reitera el procedimiento, y en todo caso se llega a una base de \
cuyo cardinal es menor que , lo que tambin es absurdo.
En consecuencia afirmamos que:
1 . n vectores linealmente independientes de un espacio vectorial -dimensional constitu
yen una base del mismo.
2. Todo sistema de generadores de n vectores de un espacio vectorial -dimensional e
una base del mismo.
3 . Todo conjunto de ms de n vectores de un espacio vectorial -dimensional e
linealmente dependiente.
La dimensin de un espacio vectorial (V, +, K , .) depende no slo de V, sino tambin de
cuerpo K. Seguidamente aclaramos esta observacin.
Ejemplo 2-23.
Sean (V, +, R, .) y (V, +, C ,.) dos espacios vectoriales, donde el conjunto de vectores
es el mismo en ambos casos y C es el cuerpo de los complejos.
Supongamos que dimc V = n. Entonces es dimRV = 2n.
En efecto, si [v] = j v1} v2 , .. v} es una base de ( V ,+ ,C ,.), entonces
[w] * v i , v2, . . ., v, /v ,, /'v2,. . ivn I es una base de (V, +, R, .).
Para ello probaremos que
1 . [w] es L.I.
Sea

a Vf + 2^ (3j i v j = 0 => 2 i (ocj + i f y ) v j = 0 = ctj + ify = 0 , V/ =*

=> o tj = fy -- 0 , V/

2 . [w] es S.G.
Por ser [v] una base de (V, +, C, .), para todo v e V, existen escalares< q+ fyeC tales
que

v = jli + 1 & v ^ v = ^ aJ yJ + jS ( * v/)

Luego [w] es una base de (V, +, R , .), y en consecuencia


dimRV - 2 dimc V
En particular, es
dimRC" - 2 dimc C = 2 n
y
dimRC = 2 dimc C = 2

2.7.3. Propiedad

Sea S un subespacio de V. Se verifica que:


dim S = dim V ^ S = V

1. Si el subespacio S es el mismo V, entonces es obvio que dim S = dim V.


2. Supongamos ahora que S es un subespacio de V que verifica dim S = dim V.
gj I Si la dimensin comn es 0, entonces tanto S como V tienen como nico elemento al
vector nulo y son idnticos.
Sea dim S = dim V = n > 0. Consideremos una base de S:
[w]= { Wi,W2}. . w}
Los n vectores de [w] son L.I. en V, y de acuerdo con 2.6.3. constituyen una base de V.
Entonces son un S.G. de V, lo que nos dice que todo vector de V pertenece a S, o sea, V C S,
y, como por definicin de subespacio es S C V, resulta S = V.
2.8. DIMENSION DE LA SUMA

2.8.1. Propiedad
Si Si y S2 son dos subespacios de (V, +, K ,.) y la dimensin de V es finita, entonces se
verifica que
dim (Si + S 2) - d i m S i + dim S2 - dim (S n s 2)
Sean:
dim V = n . dim Si = n ' dim S2 = n

d im (s 1 n s 2) = p y dim S! + S2 = q
Se trata de probar que
q ) i + n - p
Consideremos S jO S 2 j 0 | y fx] = f x t , x2, . . Xp ) una base de St O S2.
Teniendo en cuenta que Sx n S2 es un subespacio de Sj y de S2, completamos la base [x]
a una base en cada uno de stos.
Sean
j x i , x 2 ) . . . . X p . y u y * , . . - , yn-~p} y
( x i . x a , .*xp,zi*z2 , . . zn" - p ) bases en
Si y en S2, respectivamente.
El conjunto
A - | X t) x 2j ., x)( yj j - > yn p , Zj, . . . , p j
es una base de Si + S2 , pues:
Io. AesS.G. d eS , + S2 .
En efecto, sea v e Si + S2 . Por definicin de subespacio suma es
v=x + y a xeSi a yeS2
Entonces
p n -P P P
v - 2^ af x t + .2 Pi y + a*t x + .2 0, z, =

= 2 (a, + a j) x, + 2 fa y + 2 / 3 z
(=1 1 /=1
2o. A es L.I.
Consideremos
p n -P n-p
2 a, x + 2 0 y + 2 y z = 0 ( 1)
=1 1=1 /=1
Entonces
n -p p n -p

t.5
1 y i l = - .2~ ,l a x<-
~ i l ft y i
y n"-P
^ 2,5 ^ ue Pertenece a tambin pertence a S j, o sea

n"-p
S 7; Zj e S! n S2
i=l
En consecuencia es
-P p
S y Z i= S i a Xi
O sea
p n -p
2^ a , x, - ^2 y i ~ 0, y por ja independencia lineal de la base de S2, se tiene:

a f = 0 , 7, = 0
Teniendo en cuenta (1) es
p n -p
t, a, X} + p y i ~ 0
/= 1 1 1 i= 1

Luego
<*1 = 0 , /5 = 0
Siendo A una base de Si + , resulta
+ (n - p ) = Q
Es decir
q =n + n~ p
Lo que se traduce en

dim (Sj + S 2) - d m S i + dim S2 dim (Sltn S2)

2.8.2. Dimensin de la suma directa

Si Si y S2 son dos subespacios disjuntos de (V, +, K , .), entonces la dimensin de la suma


directa es igual a la suma de las dimensiones de S i y S2.
En este caso es Si O S2 = {0} , y en consecuencia, dim (Si n S2) = 0.
El teorema anterior es vlido tambin en esta situacin, y por consiguiente resulta
dim (Si S2) = dim Si + dim S2

Ejemplo 2-24.
Determinar la dimensin de la suma de los siguientes subespacios de (R3, +, R , .).

51 = | ( x j , z ) e R 3 / x + ; - 2 = 0
52 = i (x, y, z) e R3 / x - z = 0 )
Si y S2 son planos y la dimensin de cada uno de ellos es 2.
Si n s 2 = {(x, y, z ) e R 3 / x ~ z a y ~0
Todo vector de Si n S2 es del tipo
(a, 0, ) ~ a ( 1, 0, 1) Va e R
Luego
dim S t n S2 = 1
En consecuencia
dim (Si + S 2) = 2 + 2 - 1 = 3
O sea
S, + S2 = R3
2-25. Expresar en cada caso, si es posible, al vector v como combinacin lineal de vt y v2. El
espacio vectorial es (R2, +, R, .).
i ) v=(V2", - 1 ) , v, = (> /3 ,2 ) , v2 - ( >/6 , 2)
ii) v = (2 ,4 ) , Vj = ( - 1 , 3 ) , v2 = ( 2, - 6)

2-26. Comprobar que los vectores de R3


vi = ( - 1 , 3 , 1) v2 = (3 , - 1, 1) y v3 = (4 ,0 , 2)
son linealmente dependientes, y expresar a v3 como combinacin lineal de Vi y v2.
2-27. En (R2*3 , +, R , .) se consideran las matrices

Probar que son linealmente independientes,


2-2S. l-\ilidiar la dependencia o independencia lin\il de los vectores

en cada uno de los espacios vectoriales (R, +, R, .) y (R, +, Q ,.).


2-29. Dados los vectores (1, - 4 , 6) , (1 ,4 ,4 ) y (0, - 4 ,x ) , del espacio R3 sobre el cuerpo de
los reales, determinar* para que sean linealmente dependientes.
2-30. Demostrar que si a, b y c son tres nmeros reales distintos, entonces los vectores
(1, a, a2 ) , (1, b, b 2 ) y (1, c, c2) de (R 3, +, R , .) son linealmente independientes.
2-31. En el espacio vectorial de las funciones reales definidas en R, se consideran las
funciones f, g y h, definidas por
f ( t) = t2 + 2t - 1 , g (t) = t2 + 1 , h () = t2 + t
Demostrar que son linealmente dependientes.
2-32. En el espacio vectorial (Rr+, +,R, .) se dan las funciones f y g definidas por
H 0 = t , g ( 0 = j-
Probar que son linealmente independientes.
2-33. En (R2, +, R , .), los vectores ( a , b) y ( c , d ) verifican la condicin a d - b c 4 0.
Demostrar que son linealmente independientes.
2-34, Determinar si los vectores (1,1 , I), (1 ,1, 0) y (0, 1, - 1 ) son linealmente independien
tes en (R 3, +, R , .) y en (C3, C ,.).
2-35. Sabiendo que , v2 y v3 son vectores linealmente independientes del espacio
(V, +, K , .), investigar la dependencia o independencia lineal de los siguientes
conjuntos de vectores:
i ) { vj + av2 + v3 , v2 + cv3 , v3 )
ii) { v j , v2 + av3 , v3 + >v2 }
donde a, b y c son elementos de K.
2-36. Sean: { x t , x2, .. x } un conjunto L.I. de (V, +, K ,.) y k e K.
Demostrar
{k x x, x2, .. x | es L.I. o k = 0

2-37. Demostrar que si el conjunto A ( Xi, x2 ,. . x } es L.I. y | x x, x2, . . x, u }


es L.D., entonces u es combinacin lineal de la familia A.
2-38. Sabiendo que el conjunto A, a que se refiere el ejercicio anterior, es L.I. en (V, +, K ,.),
y que x no es combinacin lineal de dicho conjunto, entonces A U {x } es L.I.
2-39. Demostrar que si el conjunto A = j x t , x2 , - - x } es L.I. en (V, 4-, K ,.), entonces
n
se verifica que el vector 2 ix; 0.
i=l
2-40. Demostrar la independencia lineal de los vectores f ,, f2, y f 3 del espacio (R1, +, R , .),
donde I es el intervalo cerrado de extremos 0 y 1, sabiendo que

2 s i0 < x < ~ 2 si * e [0,2 ]


3 3

1 2
0 si - < x < 1 0 six e [ ,1 ]
3 l 3

f 3 ( x ) ~ 2 - x s i x [0, 1]

2-41. Proponer una base en cada uno de los siguientes espacios vectoriales:

i ) (R, +, R , .) i) (R2X3, + , R , .) v ) (C, +, R , .)


ii) (R4, + , R , .) iv) (C .+ .C ,.)

2-42. Determinar el subespacio de (R3,+ ,R > .) generado por los vectores Vj =(1, -1 , 2),
v2 = (o, - 1 , 1) y v3 = (1 ,1 ,0 ). Obtener una base de dicho subespacio.
2-43. Demostrar que los siguientes conjuntos de vectores de (R3, +, R , .) generan el mismo
subespacio
A = { (1 ,0 ,-1 ) , (0 ,-2 ,1 )] B = { (1 ,-2 ,0 ),(2 ,-2 ,-1 )1

2-44. Determinar una base y la dimensin del subespacio de matrices de traza nula de
(R2X2,+ , R ,.).
2-45. En ( C \ + , R , .) se considera el subespacio S = { (z, u) e C2 / z - 2u = 0 }
Obtener una base y la dimensin de S.
2-46. En (R2 x2, +, R , .) se considera S = {A R2x2 / l2 (tfn + a 22) = 0}
Investigar si S es un subespacio, y en caso afirmativo obtener una base del mismo.
2-47, Investigar si S = | ( z , u) e C2 / z -~z + u = 0} es un subespacio en (C2 , + , C ,.) y
(C2 , +, R, .) Si lo es, determinar una base y la dimensin.
2-48. Determinar el subespacio S de (R3,+ , R , .) generado por los vectores (2 ,0 ,1 ) y
(1 ,0 ,1 ). Hallar una base de S y su dimensin. Proponer un subespacio T que no
contenga a los vectores dados.
2-49. Dados los subespacios de (R4 , +, R , .)
51 = { ( X l,* a * 3 ,* 4 )/* 1 + * 2 - * 3 + *4 = 0}

52 = j (x l , X2, *3, X4) / Xl - *2 - *3 - *4 = 0 )


Obtener la dimensin de Sj + S2 .
2-50. Sea ( v*, v2, . . ., vn } una familia de vectores de (V, +, K , .) y r < n. Por definicin, el
conjunto { v j , v2, . . vr } es un subconjunto maximal de vectores L.l. si y slo si
> r= > | V, ,v 2, . .., vr, v ) esL.D.
Demostrar que si { v j , v2 , . . v } es un S.G. de V y { Vi, v 2 ,. . v r } es un sub-
conjunto maximal de vectores L.I., entonces ste es una base de V.
2-51. Demostrar que si V es un espacio de dimensin finita y V = S! S2> entonces se
verifica que dim V = dim Si + dim S2 .
Captulo 3

TRA SFORMACIONES LINEALES

3.1. INTRODUCCION

Exponemos en este captulo el concepto de trasformacin lineal entre dos espacios


vectoriales sobre un mismo cuerpo, las propiedades generales y los tipos especiales de
trasformaciones lineales. Se introducen las estructuras de ncleo y de imagen de una
trasformacin lineal y se da la relacin entre sus dimensiones. Fijada una base en cada
espacio, siempre en el caso finito, se determina la matriz asociada a una trasformacin lineal.
Despus del estudio de la composicin de trasformaciones lineales, se conecta este concepto
con el producto de matrices. Finalmente, se mencionan los espacios vectoriales de
trasformaciones lineales y el espacio dual de un espacio vectorial.

3.2. TRASFORMACION LINEAL ENTRE DOS ESPACIOS VECTORIALES


SOBRE UN MISMO CUERPO

Sean (V, +, K, .) y (W, +, K , .) dos espacios vectoriales sobre un mismo cuerpo K.

3.2.1. Concepto

La funcin / : V-* W es una trasformacin lineal u homomorfismo si y slo si


i ) la imagen de la suma de dos vectores cualesquiera de V es igual a la suma de sus
imgenes en W

/(x + y )= /(x ) + /(y )

ii) la imagen del producto de cualquier escalar por todo vector de V es igual al producto
del escalar por la imagen de dicho vector.

f (ox) = a f (x)
Las condiciones i) y ii) se pueden reducir a la nica siguiente:
/ : V W es una trasformacin lineal si y slo si
/ ( a x + 0 y) = a / ( x ) + 0 / ( y )
cualesquiera que sean a y 0 en K, y x e y en V.
El lector puede demostrar por induccin completa que si / : V -> W es una trasformacin
lineal, entonces se verifica que

/( iS- l oc - i=l
J a,/(x)
cualquiera que sea n e N.
Esto nos permite afirmar que las tras formaciones lineales preservan las combinaciones
lineales.

Ejemplo 3-1
Sean los espacios vectoriales (R3, +, R , .) y (R2 , +, R , .).
La funcin / : R3 R2 definida por
/ (* 1, * 2 , * 3 ) = (*1 - * 3 , * 2 - * s )
es una trasformacin lineal, ya que se verifican las condiciones:

i ) f [ ( x \ , x - i , x 3 ) + ( y i , y 2 , y 3 ) ] = f ( x i + y i , * 2 + y 2 , * 3 + ^ 3) =
= (*1 +yi -x* -yi.xt +^2 -y*) O)

por suma en R 3 y definicin d e /. Por otra parte, teniendo en cuenta la definicin de/
y la suma en R2 , es
/ 7 * 1, * 2 , * 3 ) +f(yi,y2>y3) =(xt - * 3 , * 2 - * 3) + ( v i -y^y* -y*)=
= (*1 *3 + Vi - ^ 3 , X 2 - * 3 + ^ 2 73) (2)

De (1) y (2) se deduce que la imagen de la suma es igual a la suma de las imgenes.
ii) Por definicin de producto de escalares por ternas, definicin de /, propiedad
distributiva del producto en R, producto de escalares por pares, y por definicin de
f, es
f[oc(x 1, x 2, X3) ] =f ( t t Xi , UX2, a x 3) = (<**1 - 01X3, a x 2 - a x 3) =
~ Oi (x i X3, X 2 ~ X 3 ) {-^li ^ 3)

0 sea, la imagen del producto de cualquier escalar por todo vector es igual al producto
del escalar por la imagen del vector.

Ejemplo 3-2.
La funcin / : R 3 R2 tal que f ( X \ , x 2, * 3) (*1 * 3,*2 - x 3 + 1) no es una
trasformacin lineal, pues
/[(*1, * 3 ) + (y i , 7 2 >^ 3 ) ] = / ( * i + y i , x 2 + y 2 , x 3 + 7 3 ) =

= (xi + y \ - x 3 y 3*X2 + ^ 2 - X 3 y 3 + 1)
pero
f ( x i , * 2 , * 3) + f ( y u y i , y z ) - ( x \ - x * , x 2 - x * + 1) + ( v i - y ^ y i - + 1) =

= ( xi x 3 + y 1 - y * , x 2 - X 3 + ^ 2 ~ y 3 + 2 )

Ejemplo 3-3.
Supongamos que / : R2 -R 3 es una trasformacin lineal que verifica
/ ( 1, 0) = (1 ,2 ,3 ) y / ( 0, 1) - (0 , - 1, 2)
Podemos obtener la imagen de (2, - 3 ) de la siguiente manera
/ ( 2 , - 3 ) = / [(2, 0) + (0, -3 )] = / [ 2 (1, 0) + ( - 3 ) (0, 1)] =
= 2 / ( 1 , 0) + (3 ) / ( 0 , 1) = 2 (1, 2, 3) + ( 3) ( 0 , - 1 , 2 ) =
= (2,4, 6) + ( 0 , 3 , - 6) = (2, 7,0)

3.2.2. Propiedades y clasificacin de las trasformaciones lineales

Sea / : V ->W una trasformacin lineal. Denotaremos mediante 0 V y 0W a los vectores


nulos en V y en W, respectivamente.
1 . La imagen del vector nulo del primer espacio por toda trasformacin lineal es el vector
nulo del segundo espacio.

Teniendo en cuenta que el producto del escalar 0 por cualquier vector es el vector nulo, y
la condicin ii) de la definicin de trasformacin lineal, se tiene
/ ( 0v ) = / ( 0x) = 0/ ( x ) = 0w

II. La imagen del opuesto de todo vector del primer espacio es igual al opuesto de su
imagen.
Considerando la propiedad 1.3.4., y la definicin de trasformacin lineal, es
/ ( - x ) = /[ ( - i)x] = ( - 0 / ( x ) = -/(x )
De acuerdo con la definicin, una funcin / : V W es una trasformacin lineal si y slo
si satisface las condiciones i) y ii), pero nada se exige a /, salvo que sea una aplicacin. En
particular diremos que
/ es un monomorfismo ^ / e s inyectiva
/ es un epimorfismo o / es sobreyectiva
/ e s un isomorfismo *>/e s biyectiva
Si W = V, entonces la trasformacin lineal / se llama un endomorfismo, y si ste es
biyectivo recibe el nombre de automorfismo. O sea, un automorfismo es toda trasformacin
lineal biyectiva de un espacio vectorial en s mismo.

Ejemplo 3-4.
La aplicacin / : R 3 R 3 definida por
f& u x i.x * ) = (*2, - X \ , * 3)
es un automorfismo en R3.
Debemos probar que / e s una trasformacin lineal biyectiva.
1. / e s una trasformacin lineal, ya que verifica:
i ) La imagen de la suma es igual a la suma de las imgenes
f[ { x \, x 2 , x z ) + { y u y 2 , y * ) \ = f ( x \ + 'i ,*2 + j 2. * 3 + y 3) =

= (*2 + y 2, -~*i ~ y i , x 3 + y 3) = (x 2 1 - x i , x 3 ) + (y 2 , - y \ , y * ) =
= f { x \ , x > x * ) + f ( y \ > y i > y * )

ii) La imagen del producto de cualquier escalar por todo vector es igual al producto
del escalar por la imagen del vector.

/ [ oc ( * t , * 2, * 3) ] - ( o X i , ox 2 , a x 3) = ( a x 2, - a x lt a x 3 ) =

= a ( x 2, - X i , X 3 ) = 0t f ( x u x 7, x 3)
2 . / e s inyectiva.
Sean ( x u x 2 x 3) y (y lf y 2, y 3) en el dominio, tales que
/ ( * 1 , *2. * 3) = / 0 , l , J' 2, . J ' 3)
O sea
(*2. ~ x i , x 3 ) = ( y 2 , - y i , y 3 )
Por lo tanto es
*2 =y 2 ,X\ = v, . .r3 = ^ 3
Luego
(*i, X2.x3) = ( y i , y i ' y * )
3. / e s sobreyectiva.
Cualquiera que sea (a, b, c) en el codominio, existe ( - b, a, c) en el dominio, tal que
/ (-b , a, c) = (a, b, c)

Queda probado asi que / es un automorfismo en R3. La trasformacin lineal /puede


interpretarse como una trasformacin del espacio en s mismo que corresponde a una
rotacin de 90 alrededor del eje x 3.

Ejemplo 3-5.
1. La funcin / : V -> W que asigna a todo vector de V el vector nulo en W es una
trasformacin lineal, pues

/ ( i + y ) = 0w = 0w + 0 w = / ( x ) + / ( y )
/ ( * ) = 0 = aO>n=af(it)
f se llama trasformacin lineal nula.
2. La funcin/ : V -> V tal que / ( x ) = ax cualquiera que sea x e V, y a un escalar dado
en K, es una trasformacin lineal.
En efecto:
f ( x + y) = a ( x + y ) = a x + a y = / ( x ) + / ( y )
/ ( a x) = a (a x) ~ a (a x) = a / ( x )

La trasformacin lineal / as definida se llama homotecia de razn a.

Ejemplo 3-6.

Sea / : R2 -+ R2 x2 definida por

a+b 0
/(* .* )= ,
' 0 a +b

/ es una trasformacin lineal, pues

a +c +b +d 0
/ [(a , b) + ( c , d )J / (a + b + d) =
0 a + b +c + d

a+b 0 \ c + d 0
+ ) ~ f(a,b)+ f{c,)
0 a + bi \ 0 c+d

oca + ot b 0
/ [ a ( a , b))-f(pLa, a b ) -
0 a a + ctb

a + b 0 \
=a | I -af(a,b)
' 0 a+b i

/ n o es inyectiva ni sobreyectiva.

Ejemplo 3-7.
Si (V, +, R, .) denota el espacio vectorial de los polinomios reales en la indeterminada
X, entonces la funcin
que asigna a cada elemento de V el correspondiente polinomio derivado, es una
trasformacin lineal, pues

/ ( P+ Q) = (P + Q) - P + Q =/( P) +/(Q)
f ( a ? ) = (a?y=a?'=af{Y>)
El endoinorfismo / no es nyectivo.

3.3. NUCLEO E IMAGEN DE UNA TRASFORMACION LINEAL

Consideremos una trasformacin lineal / : V -> W.

3.3.1. Concepto de ncleo

Ncleo de una trasformacin lineal / , entre dos espacios vectoriales sobre un mismo
cuerpo, es el conjunto de los vectores del dominio cuyas imgenes por / son el vector nulo
del codominio.

El smbolo N (f) se lee ncleo de f Por definicin es

N ( /) = | x e V / / ( x ) = Ow |

El ncleo de toda trasformacin lineal es la preimagen del vector nulo del segundo
espacio. O sea

n o )= r ' ( ow ] )

Por definicin, un vector perteneciente a V es un elemento del ncleo si y slo si su


imagen es el vector nulo de W.

x e N (f)<> / ( x ) = 0w
Ejemplo 3-8.
Determinamos el ncleo de la trasformacin lineal definida en el ejemplo 3-1.
N(0= ( (Xi,X2,*3)eR3 f ( x \ , x % > x z ) ~ ( 0 ,0)}
Se tiene
( X i > ^ , X 3 ) e N ( / ) o / ( x i , x 2, x 3) = (0 , 0 ) o
- ^ j 2 - ^ ) = (0,0)jc1- ^ = 0 a ^ " ^ = 0 #
<>xl ~x<2 = x 3 =a
Luego
N (/) = ( ( a , a , a ) I a e R )
Por definicin de ley de composicin extema en R3 se tiene
N (0= {(l,l,l)/eR |
Esto nos dice que el ncleo de / es el conjunto de todos los mltiplos escalares del
vector (1, 1, 1). La representacin del N (f) est dada en el grfico siguiente

Volviendo a la definicin de ncleo de una trasformacin lineal/V -+W, observamos que

N(0<= V
Por otra parte, de acuerdo con 3 .2.2.1., es
/(O v ) = Ow
En consecuencia
Ov e N (f)
Luego, el ncleo de toda trasformacin lineal / es no vaco.
3.3.2. Propiedad del ncleo

El ncleo de toda trasformacin lineal entre dos espacios vectoriales es un subespacio del
primero.
Hiptesis) / : V -* W es una trasformacin lineal.

Tesis) ( N (/),+ , K ,.) es un subespacio de (V, +, K, .).


Demostracin) Ya hemos visto que el ncleo de toda trasformacin lineal entre dos
espacios vectoriales es una parte no vaca del dominio. De acuerdo con la condicin
suficiente, demostrada en 1.8.2., falta demostrar:

1. N (/) es cerrado para la suma.


Sean x e y dos vectores cualesquiera de N (/).

x eN (/) a y eN (J)=*f(x) = 0 W A /'(y) = Ow =>


=>/ ( x ) + / ( y ) = Ow =*/(x + y) = Ow =
=>x + y eN (f)

Por definicin de ncleo, suma en W, definicin de trasformacin lineal y definicin de


ncleo.
2. N (/) es cerrado para el producto por escalares.

Sean e K y x e V

a e K A x e V = > a e K a / ( x ) = O w =>a / ( x ) = a ) 0 W =

=*/ (a x) = 0W = >f t xe N( / )

Por definicin de ncleo, producto de escalares por elementos de W, definicin de tras-


formacin lineal, propiedad 1.3.2. y definicin de ncleo.

3.3.3. Concepto de imagen

Imagen de una trasformacin lin e a l/: V -> W es el conjunto imagen del dominio, o sea, es
la totalidad de las imgenes de los vectores del primer espacio.
El smbolo I (f) se lee: imagen def.
i (/)= { / ( * ) / x<= v |

Tambin
1(0=) y e W/ 3 xeV a /(x ) = y j
W

Sabemos que f (0V) ~ 0W. En consecuencia, 0W e I (f), lo que significa que

I<f ) * t

Adems, de acuerdo con la definicin, es

l(f)C W

3.3.4. Propiedad de la imagen

La imagen de toda trasformacin lineal entre dos espacios vectoriales es un subespacio del
codominio.
Hiptesis) / : V W es una trasformacin lineal.
Tesis) ( i C / ) , + , K , .) es un subespacio de (W, +, K, .),
Demostracin) Sabemos que la imagen de toda trasformacin lineal entre dos espacios
vectoriales es una parte no vaca del segundo. Teniendo en cuenta la condicin suficiente
para la existencia de subespacio, probaremos:
1. 1 (/) es cerrado para la suma.
Sean u y v dos vectores de I (/).
u e 1 (f) a v e ( / ) ^ 3 x 3 y e n V / / ( x ) = u a /( y ) = v =>
=>/(x) + / (y) = u + v a xeV a y e V =>
=>/ (x + y) = u + v a x + y e V = > u + v e (/)
Hemos aplicado la definicin de imagen, de trasformacin lineal y de imagen.
2. 1 (f) es cerrado para el producto por escalares.
Consideremos cee K y u e I (f)
a eK a ueI(0^aeK a / (x) = u a xeV=>
= > a/(x ) = a:u a x e V =>/(a x ) u AaxeV=>
=>a u e 1 (f)
De acuerdo con la definicin de imagen, producto en W, definicin de trasformacin
lineal y definicin de imagen.
Ejemplo 3-9.
Determinamos el ncleo y la imagen de la trasformacin lineal/: R2 -+ R2x2 definida
en el ejemplo 3-6.
1.
N ( / ) = { ( x x, x 2 ) e R 2 / / ( x , , x 2) = N}

i 0 Ov
( xl , x 2) e N ( / ) ^ / ( x i , x 2) = U
' 0 0 /

Xi + x 2 0 \ /0 0\
) * X i + x 2 = Q*>
0 x x + x 2 / \0 0 /

- - x2
Luego
N (/)= { ( - a , a ) / a e R \
O sea, el ncleo de / es el conjunto de los pares ordenados de componentes opuestas.

I (/)= A e R 2x2 / / ( x i , x 2) ~ A}

a b
A=( \ e \ ( f ) o '3(xu x 2) R 2 f f ( x i , x 2) = A<*
c d
x. -fx2 0 \ (o b
o xi + x 2 ~a = d a b~ c - 0
0 Xi + X i I \ c d

Luego a I (f) pertenecen las matrices del tipo

a 0
A=
\ 0 a

Ejemplo 3-10.
Dada la trasformacin lineal del ejemplo 3-9, determinamos las dimensiones de N (f) e
ICO-
1. Hemos visto que

N ( 0 = I (- , a) / a e R i
Teniendo en cuenta la definicin de ley de composicin externa en R2, es
N (/) = { oc (- 1 , 1) / a e R }
Esto significa que N (f) est generado por el vector (- 1 , 1), es decir, este vector
constituye un sistema de generadores del ncleo. Adems es linealmente independiente
segn 2.4.3. i). Por consiguiente, { ( - 1 , 1) } es una base del ncleo.
Entonces
dim N (/) = 1
2. Como

i(0 =

podemos escribir, por definicin de producto de escalares por matrices:

I(/)^tf[ J/aeR

O sea, la matriz

1 0

0 1

es un sistema de generadores de I (/)> y adems linealmente independiente. En


consecuencia, constituye una base.
Luego
dim I (f) = 1

3.3.5. Ncleo de un monomorfismo

Una trasformacin lineal / : V W es inyectiva si y slo si el nico elemento del ncleo es


el vector nulo del dominio.
1. Sea / : V -> W un monomorfismo. Debemos probar que N (/) { 0 V } *
0v e N ( 0 = | 0 V| C N (/) (1)
Sea x e N (f). Se tiene
x e N ( / ) ^ / ( x ) = Ow = / ( 0 v ) ^ x = 0v ^ x e 0 V|
Por definicin de ncleo, 3.2.2. 1. y por ser/ inyectiva.
Entonces
N (/)C |O v | (2)
De (1) y (2) resulta
N (/)= 10V}

2. Sean / : V -> W una trasformacn lineal y N (f) = ( 0V )


Para demostrar q u e /e s inyectiva consideremos dos vectores cualesquiera x e y en V, tales
q u e /(x ) = / (y).
Ahora bien, por suma en W, definiciones de trasformacin lineal y de ncleo, por
hiptesis y suma en V, se tiene
/ ( x ) = / ( y ) ^ / ( x ) - 1/ ( y ) ::"Ow =* / ( x y) = o w =
^x-yeN C O ^x-y-O y^x^y
O sea, basta que el ncleo tenga un nico elemento para que la trasformacin sea
inyectiva.

Ejemplo 3-11.
La imagen de cualquier conjunto linealmente dependiente, por toda trasformacin
lineal, es linealmente dependiente.

Sea / ': V W una trasformacin linealy { Vj, v2 , . . vr } un conjunto linealmente


dependiente en V. Debemos probar que { / ( v 2) ,. . .,/ ( v r) } es linealmente
dependiente en W.

En efecto, por definicin de dependencia lineal se verifica que


r
3 / / .Sa, \ ~ a ol=0

Aplicando / e s

/ ( .2 <*; v , ) = / ( 0 V ) a a , 0

Por ser / una trasformacin lineal y por imagen del vector nulo se tiene

.2 a I / ( v ) = O w a =0
i=l
En consecuencia
f / ( V i ) , / ( V 2) , .. . , / ( v r) |
es linealmente dependiente.
Si / : V -* W es una trasformacin lineal y Vj, v2, . . vr son vectores de V tales que
sus imgenes constituyen un conjunto linealmente independiente en W, entonces
V |, v2 , - -, vr son linealmente independientes.

En efecto., consideremos una combinacin lineal, con escalares a determinar, de los


vectores Vj , v2 ,. . vr, que sea el vector nulo de V
r
2 aiVf = 0 V
i=l
Entonces, por definicin de funcin, es

/ ( . 2 i V / ) = / ( 0 v )

Por ser / una trasformacin lineal y por imagen del vector nulo, se tiene

1.?
= 11 0/ / ( vi) = Ow
Como los vectores / (v,), / = 1 , 2 , . . ., rson linealmente independientes en W, resulta
ol = 0 V/ = 1, 2, . . r
Luego
Vj , v2}. .., vr
son linealmente independientes en V.

Ejemplo 3-13.
La imagen de todo conjunto linealmente independiente, dada por cualquier trasforma
cin lineal inyectiva, es un conjunto linealmente independiente.
Hiptesis) / : V -* W es una trasformacin lineal 1-1.
I Vi , v2, . . . , vr I es L.L en V.
Tesis) { / ( v i ) , / ( v 2) , . . ., f (vr) | es L.I. en W.
Demostracin) Sea

i/(v O = 0W

Por ser / una trasformacin lineal es

/ ( 1=1
<*V) = 0w

Por definicin de ncleo se tiene


Y como / e s inyectiva, el ncleo se reduce al vector nulo de V, o sea
r

i=l V; = 0V

Aplicando la definicin de independencia lineal a los vectores de la hiptesis es


at = 0 V = 1, 2, . . r
En consecuencia

es un conjunto linealmente independiente.

3.4. DIMENSIONES DEL NUCLEO Y DE LA IMAGEN

La trasformacin lineal / : R2 -> R2 *2, estudiada en los ejemplos 3-9 y 3-10, verifica
dim N (/) = 1 y dim I (f) = 1
O sea
dim N (f) + dim 1 (/) = 2 = dim R2
Este hecho se verifica cualquiera que sea la trasformacin lineal definida en un espacio
vectorial de dimensin finita.

Propiedad
Si (V, +> K , .) es un espacio vectorial de dimensin finita y / : V-> W es una
trasformacin lineal, entonces la suma de las dimensiones del ncleo y de la imagen es igual a
la dimensin del primer espacio.
Hiptesis) / : V -+ W es una trasformacin lineal

dim V = n
Tesis) dim N (f) + dim I (/) ~ dim V
Demostracin)
1. I (f) tiene dimensin finita
Sabiendo que cualquier base de V es finita, se deduce que I (f) tiene dimensin finita. En
efecto, si I w , w2, . . wr ) es un conjunto L.I. en I (/), entonces existe un conjunto L.I.
en V: ( Vj , v2>. . ., vr ) tal que
/( v ,) = w, /=1,2, . ..,r
de acuerdo con el ejemplo 3-12. Esto significa que si 1 (f) no tuviera dimensin finita,
entonces V no tendra dimensin finita.
2. Sea { X j, x7 , . . xp } una base de N (/).
S in = p , entonces N (/) = V y dim I (J) ~ 0, pues en este caso es I (f)= 10W } .
Si p < n, entonces, por el teorema de extensin, existen y j , y2, . . yg en V, tales que
A = ( x , , x 2 , . . . . X p . y ^ y j , .. . , y , )
es una base de V.

Se tiene p + i = , y e l teorema se reduce a probar que dim I (/) = s.


Consideremos las imgenes de los vectores y i , y2 ,. . ys. Sean stas

z/= /(y ) c o n z - 1, 2,. . s (1)

Demostraremos que { Z i, z2 , . . zg } es una base de I (/). En efecto:


i) ( z , , z 2, . . . , zs es L.I.
Sea

i=i tt| z = ^
Por (1)

.2 / ( y ) = Ow ^ / ( . g at y,) = 0W => .2 y, e N (f) =*

=>,2 otj y f = 2 j3y Xj =*2 J8y x; - . 2 a, y = Ov =0y = OAa j = O V/ V/

ii) ( z i , z 2, .. .,z , ) esS.G. d e l ( 0


Sea z cualquier vector de I (f). Por definicin de conjunto imagen se verifica

z e I ( / ) = * 3 x e V / / ( x ) = z => z = / ( x ) a x = 2 a, x; + .2 ft y,- =
p s P s

= z = 2 ay 0W+ 2 f3 z => z = 2 z
]~1 =l 1-1
En i) hemos tenido en cuenta que f es una trasformacin lineal, la definicin de ncleo, la
base de ste, suma en V, y el hecho de que A es una base de V.
En ii) hemos expresado a x como combinacin lineal de la base de V, se ha tenido en
cuenta que f es una trasformacin lineal, que todo x; es un elemento del ncleo, y que el
producto de cualquier escalar por el vector nulo es el vector nulo.
Queda demostrado entonces que
dim N (f) + dim I (f) ~ dim V

Ejemplo 3-14.
Consideremos la trasformacin lineal /: R4 - R2 definida por
/( X 1 , * 2 , * 3 , * 4 ) = (*1 - * 3 + *4,0)
Determinamos:
1. El N (/), una base del mismo y su dimensin
(Xi, X 2 , X 3 , X 4 ) e N ( f ) o f ( x l x 2, x3,x 4) = (0, 0)0
*(X| - *2 -X 3 + *4 >0)= (> 0 ) ^ * 1 - x2 - X3 +^4 ="0^
o -YJ ~ x 2 + X 3 X4
En consecuencia, los vectores del ncleo .son del tipo (a + b - c, a, b, c), y por
definicin de suma en R4 y producto de escalares por cuaternas, se tiene
(a + b - c, a, b, c) ~ (a, a, 0 ,0 ) + (b, 0, b, 0) + ( - c, 0, 0, c) =
= a ( 1, 1,0, 0 ) + f t ( l , 0 , 1, 0) + c ( - I , 0, 0 ,1 )
O sea, los vectores
v1 - ( 1 , 1 , 0 , 0 ) y2 = ( 1 , 0 , 1,0) v3 - ( - 1 , 0 , 0 , 1)
son un sistema de generadores de N (f). Adems, son linealmente independientes y por
lo tanto constituyen una base del mismo. Luego
dim N (f) = 3
2. Una base de I (f).
De acuerdo con el teorema anterior es

dim N (J) + dim I (/) = 4


O sea
dim 1 (J) = 1
Entonces, toda base de 1 (J) tiene un nico vector.
Como
I ( f ) = { (a - b - .c + d , 0) / a f b , c y d R }
se verifica que
0 ;i , 7 2 ) e l ( y ) o 0 i , 7 2) = (a - b - c + d , 0)<*
^ O i . y 2 ) = (a , 0) + ( - b, 0) + ( - c , 0) + ( d , 0 ) o
* ( y i , y 2 ) = a ( l ,0) - b ( l , 0 ) ~ c ( \ , 0 ) + d ( l , 0 ) o

0 (y i> .Vi ) - ( - * - c +<0 0 , 0) ^ 0 1 , j>2) = a (1,0)

Luego
(1, 0) es una base de I (/).
En consecuencia
dim I (f) = 1

3.5. TEOREMA FUNDAMENTAL DE LAS TRASFORMACIONES LINEALES

Sean (V, +, K , .) y (W, +, K, .) dos espacios vectoriales y [v]= { Vi, v2, . . v una
base de V. Si Wi, w2>. .., w son n vectores cualesquiera de W, entonces existe una nica
trasformacin lineal / : V -> W tal que / (v,-) = w V/ = 1, 2 , . . n.
Hiptesis) (V, 4-, K, .) y (W, +, K , .) son espacios vectoriales
[ v ] = ( V, , v a , . . v | es una base de V

( w 1(w2 ) . CW

Tesis) Existe / : V - W trasformacin lineal nica, tal que/(v) = V/ = 1, 2 , . . ., n


Demostracin) Sea cualquier vector x e V. Entonces existen y son nicos losescalares ,
a2 ,. . a, tales que
n
x = a vf
i=l
ya que todo vector del espacio puede expresarse de modo nico como combinacin lineal de
los vectores de la base, segn 2.4.2.
Definimos
n
/ : V - W mediante / (x) ~ 2^ a wf

La asignacin (1) caracteriza a / como una funcin de V en W.


Necesitamos probarlas siguientes afirmaciones:
1. / e s una trasformacin lineal
Si x e y son dos vectores cualesquiera de V, y a e K, entonces
n n
x=S i v< A y = 2
= ,2 Ui W , + .2 0, W, = / ( x ) + / ( y )

ii) / (a X) = / (a 2 a, v,) = / ( .2 (a a,) v, j =


n n
2 (aa^W i-aS a^ ^ /^ )

2. / = 1 , 2 , . . . ^ ^ / ( v ^ w ,
En efecto

V; = 0 Vi + . . . + 0 Vj_i + 1 v, 4- . .. + 0 v
Luego

/ (v/) " 0 w ( + . .. -I* 0 wM + 1 w, + . .. + 0 w =


= 1 wf = w

3. Bajo la condicin / (v,) = w,, / es nica.


Si g : V - W es una trasformacin lineal tal que g (v,) = w,, V/ = 1, 2 , , . n, entonces
n n n
g(x)^g (2 a, v;) = 2 ag (Vj) ~ 2 oc w, =
i-l i=l i=l

= .2 a f (vt) ^ f ( 2 a, v( )= /( x )

cualquiera que sea x e V,


Luego
g=f
El teorema demostrado asegura que toda trasformacin lineal entre dos espacios
vectoriales queda unvocamente determinada por los valores que toma sobre cualquier base
del primero.

Ejemplo 3-15.
Definimos la trasformacin lineal / : R3 -+ R2 que asigna a los vectores de la base
(1, 1, 1), (1, 1,0) , ( 1 , 0 , 0 ) en R3, los vectores ( 1 , 2 ) , ( 1 , 2 ) y ( - 1 , 1 ) en R3,
respectivamente.
Necesitamos determinar la imagen de un vector genrico (a , b , c) e R 3. Expresamos a
ste como combinacin lineal de la base dada
(a, b , c ) = i (1, 1, 1) + ot2 (1, 1,0) + o3 ( 1 , 0 , 0 ) =
= (a, + a2 + a3 , ai + a2 <*i) ^
^aj- c , a 2 = b c , a 3 = tf ' ^
Entonces

( a t b , c ) = c ( l , 1, 1) + (>-c)(1, 1 , 0 ) + (a - 6 ) ( 1 , 0,0)

f (a , b , c ) = c (1, 2) + (6 - c) (1, 2) + (a - h) ( - 1 , 1 ) -
= ( c, 2c) + (b - c, 2b - 2c) + ( - a + b, a - b) =
= (2 b - a , b +a)

3.6. PRODUCTO DE MATRICES

Sean las m atrices A e K mxp y B e K p x n . L la m a re m o s p ro d u c to de las matrices A y B, en


ese o rd en , a la m a triz C c u y o e le m e n to g en rico c ; es la suma de los productos de los
elementos de la fila i de A , p o r los c orre s p on die nte s elem entos de la c o lu m n a j de B.
Escribiremos

C -A B

donde

cj h b\j + 2 b 2j + . . . + dtp bPj


O sea
p
Ci

cualesquiera que sean i ~ 1, 2, . . m y /= 1, 2, . . ti.


De acuerdo con la d e fin ic i n , para q ue dos m atrices se puedan m u ltip lic a r, el nm ero de
columnas de la p rim e ra debe ser igual al n m e r o de filas de la segunda.
Por e je m p lo , si

I -2 - 3 - 4
1 O -1
1 0 1 -2
1 2 - 2 / \ 0 -1 -1 1

entonces
/-2
Si A es la misma que en el caso anterior y B = 2
\ 3
entonces

- c ::;i (i) - c:
En ninguno de los dos casos existe BA
En particular, si w = , los elementos de K Xfl se llaman matrices cuadradas y se verifica
que (K"*n, + , . ) es un anillo no conmutativo, con divisores de cero y con identidad. El tema
est tratado en el captulo 9 del texto Algebra I ya citado, y se estudiar en detalle en el
captulo siguiente.
El elemento unidad o identidad en Knx" es la matriz I definida por
aj = 1 si ; = / y si i^j
y verifica
Al = IA cualquiera que sea A e K " x",

3.7. MATRIZ ASOCIADA A UNA TRASFORMACION LINEAL

Consideremos una trasformacin lineal / : V - W, entre los espacios V y W de


dimensiones finitas n y m, respectivamente. Probaremos que si se fija una base en cada
espacio, entonces la trasformacin lineal / queda caracterizada por una matriz del tipo mx n,
que llamaremos matriz de la trasformacin lineal respecto del par de bases dado.
Sean entonces
[v] = | v ,, v2 , . . .,v } una base de V
y
[w] = ( Wi, w2, . . wm ) una base de W
Si x es cualquier vector de V, por ser [v] una base, existen escalares
nicos, tales que

x-Z ajV j (1)

Tales escalares caracterizan a x respecto de la base de V, y segn vimos en 2.6.2. se llaman


las coordenadas de x respecto de dicha base. Podemos escribir
Si la imagen de x e V es y W, se tiene
y =/00
Como y es un vector de W, puede expresarse de modo nico como combinacin lineal de
la base [w], o sea
m
y = ,? 1 <w< <2>
donde a \ , a 2 ) .. a'm son las coordenadas de la imagen de x, respecto de la base [w]. En
consecuencia

Y lw l =

Por el teorema fundamental de las trasformaciones lineales, / queda caracterizada


unvocamente por los valores que toma sobre cualquier base de V. O sea, es suficiente
obtener las imgenes, por / , de cada vector de la base [v]. Ahora bien, para cada
/ = 1 , 2 , . . . , , / (v) e W, y por consiguiente puede expresarse como combinacin lineal de la
base [w].
O sea

Asignamos a cada escalar ay un doble subndice; el primero, asociado a cada vector de la


base { w t , w2, .. wm | , y el segundo, en correspondencia con el vector de la base [v].
As
/ ( v i ) = n Wj + a n w2 + . .. + a ml wm
/ ( v 2) = fi2 Wi + o 22 w2 + . . . + a m wm

/ ( v n) = i n Wi + a 2n w2 +. . . + a mn wm
Los n.m escalares a, que figuran en las combinaciones de los vectores que son imgenes
de los elementos de la base de V, constituyen una matriz cuya traspuesta, que denotamos
con A, recibe el nombre de matriz de la trasformacin lineal /respecto de las bases [v] y [w].
O sea
/ a \\ a Yi . d i n \
/ a2l a22 . a2n \
La matriz de la trasformacin lineal es del tipo m x n , donde m es la dimensin del
segundo espacio y n la del primero.
Por consiguiente, para hallar la matriz de una trasformacin lineal / respecto de una base
en cada espacio, se determinan las imgenes dadas por / d e los vectores de la base del primer
espacio. Se expresan estas imgenes en trminos de la base del segundo espacio, o sea, como
combinaciones lineales de los vectores de la segunda base. La traspuesta de la matriz de
coeficientes es la matriz de la trasformacin lineal respecto de las bases dadas en ambos
espacios.
Probaremos ahora si A es la matriz de la trasformacin lineal/, respecto de las bases [v] y
[w], y si X[v] denota la matriz columna correspondiente al vector x e V , cuyos elementos
son las coordenadas de ste respecto de la base de V, entonces la imagen de x, expresada en
trminos de la base de W, se obtiene premultiplicando por A al vector columna X[v], o sea

/ ( x ) = A X [vJ = Y[w]
En efecto, dado x e V, es
n . m
x = aJ vj 0) y f (x) = y = 2 a'i wi (2)

En consecuencia, teniendo en cuenta (1) y la definicin de trasformacin lineal, es

m = f ( X i /Y/) = 2 Oijf(Vj)

Por (3) resulta


n m
/ 0 0 = i=l
2 sj=iai} w

Introduciendo (Xj en la segunda sumatoria, por ser constante respecto del ndice i, y
permutando las dos sumatorias, se tiene

n m m n
f (x) = 01 ay w i = ,2 (.2 aa w (4)

De (2) y (4), por la unicidad de la combinacin lineal que expresa a / ( x ) en trminos de


la base [w], es

n
c?i = .2 au ocj

Se deduce de esto que la -sima fila o componente de Y[w), o sea oCu es igual a la suma de
los productos de los elementos de la fila i de A por los correspondienteselementos de la
nica columna de X[vj, y por la definicin de producto de matrices resulta
t.

an ai 2 . . . air

lm I um2

O bien

Reiterando lo enunciado, afirmamos que la imagen de cualquier vector del primer espacio
es igual al producto de la matriz de la trasformacin lineal por la matriz de coordenadas de
dicho vector, respecto de la base [v]. Tal imagen resulta expresada en trminos de la base del
segundo espacio.

Ejemplo 3-16.
Consideremos la trasformacin l in e a l/: R3 R2 tal que

f ( X u X 2 >Xz ) - ( Xi + x 3 >X2 - x 3) (0
1. Determinamos la matriz de / respecto de las bases
[v] = | ( 1, 1, 1) , ( 1, 1, 0) , ( 1, 0 0 ) | en R 3
[w]= | ( 2 , 0 ) , ( 0, 1) | enR2
Mediante (1) obtenemos las imgenes de los vectores de la base [v], y expresamos
dichas imgenes como combinaciones lineales de los vectores de la segunda base
/ ( 1 > 1, 1) = (2, 0) = 1 (2, 0) + 0 (0 , 1)

/ ( 1, 1, 0) = ( 1, 1) = | ( 2, 0) + 1 (0 , 1)

/ ( 1, 0 , 0) = ( 1, 0) =-7 (2, 0) + 0 (0 , 1)

Se tiene

- C t j )

A es la matriz de la trasformacin lineal /, respecto de las bases [v] y [w].


2. Utilizando la matriz A, obtenemos la imagen de x = (1, 2, 3).
Para ello es necesario determinar las coordenadas de x respecto de la base en R3, o sea,
a ,,(*2 y 3 tales que
(1, 2 ,3 ) = a , ( 1 , 1 , 1 ) + a , (1,1, 0) + (1,0, 0) =
= (*! + a 2 + a 3,<*i
Resulta
1 = 3 , oc2 = 1 , 3 = - 1
Entonces

Su imagen es

\-l / \ -1

Los escalares 2 y 1 son las componentes d e /( x ) respecto de la base [w].

Si aplicamos directam ente/a la tema (1, 2,3), se tiene


/(1,2,3)=(4,-1)
Expresando esta imagen como combinacin lineal de la base [wj es
( 4 , l ) = 2 ( 2 , 0 ) + ( - l ) ( 0 . 1)

Ejemplo 3-17.
Obtenemos la matriz de la trasformacin lineal / : R 2 x 2 ->R definida por
X\ x i \

/ ] ~ (*i + x 4 , x 2 - * 3 )
\ *3 Xa !
respecto de la base cannica en ambos espacios.
Las imgenes de los vectores de la base cannica de R2*2 son

f [ ) = ( U 0 ) - 1 (1, 0) + 0(0, 1)
\0 0/

/ ( ) = (< U ) = 0 ( 1 , 0 ) + 1 ( 0 , 1 )
/ ( ) = (0, 1) = 0 (1, 0) + (1) (0, 1)
\ 1 0/
o o,
/ = ( 1 , 0 ) = 1 (1 ,0 ) + 0 (0, 1)
\0 1>

Resulta

/1 0 0 1\

A= '0 1 -1 o/

Ntese que, en el caso de la base cannica, los coeficientes de la combinacin lineal


son los elementos de la matriz, o las componentes del par.
As, la matriz

es un vector de R2*2 cuyas coordenadas, respecto de la base cannica


[v] - ( E n , E w , E2i , E 25 ( , son 2, - 3 , 1 y - I . De modo tal que la matriz puede
expresarse as

Su imagen p o r/, utilizando A, es

/ ( P ) = A P (vj

Tal imagen resulta expresada en la base cannica de R2 y se identifica con la que se


obtiene al aplicar directamente la definicin d e /. As
TRAS FORMACIONES LINEALES

3.8.COMPOSICION DE TRASFORMACIONES LINEALES

Sean / : V - U y g : U W dos tras formaciones o aplicaciones lineales. La funcin


compuesta
g / : V - W
se define como en 4.6., Algebra I, o sea
te/)(x) = S[/(x)]
Demostramos que la composicin de dos trasformaciones lineales en las condiciones
dadas, es una trasformacin lineal.
En efecto:
1. t e m x + y ) = m x + y)]-s[/(x)+/(y)J =
=s 1/ (x)l + g\f(y)] = (sf) (x) + (s f) (y)
2. (g 0 f) (Ot x) = g [f(ot X)] = g[ ot f (X)] = Oig (/ (x)] =
= a(g/)(x)
Hemos aplicado sucesivamente la definicin de composicin, las hiptesis ( f y g son
trasformaciones lineales) y la definicin de composicin.

Ejemplo 3-18.
Consideremos las trasformaciones lineales
/ : R3 R y g : R->R2
definidas por
f{xi,x2,x3)=xi-x2+xz y g(y) ~ (y>0)
Determinamos el ncleo de g f . Para ello caracterizamos primero la ley de asignacin,
utilizando la definicin de composicin
0/) ( * ! , X 2 , X i ) ^ g \ f ( X l , X 2 , X * ) \ ^ g ( X l ~X2 + *a) =
= (*! - x 2 + X 3 ,0)
Por definicin de ncleo, se tiene
( X i , X 2 , X 3 ) e N ( g f ) o ( g o j ) ( x l>x 2t x 3) = (Ot 0 ) *
o (X i ~ X2 + *3> 0) = (0,0)<^Xi - *2 +*3 = 0 **
* x x=x2 - x 3
Entonces
N ( f / ) = ( ( & ~ c , 6 , ? ) / / ) R A c e R l
Como

(b - c , b , c)= (b, b, 0) + (- c , 0, c) = b (1, 1,0) + c (- 1 , 0, 1)


es
{(1,1,0),(-1,0,1))
un S.G. del ncleo de g o / . Como adems es L.I., tal conjunto es una base del ncleo,
y por consiguiente su dimensin es 2.

3.9. TRASFORMACION LINEAL NO SINGULAR

3.9.1. Concepto

La trasformacin lineal / : V -+ W es no singular, regular o inversible si y slo si es


biyectiva.
En smbolos
/ : V - W es no singular o / e s un isomorfismo.
O bien
/ : V -* W es trasformacin lineal no singular o / e s biyectiva.
Sabemos que una funcin / : V W es biyectiva si y slo si admite inversa. En
consecuencia, podemos escribir
Una trasformacin lineal / : V -+ W es no singular o Existe .

3.9.2. Propiedad

La inversa de una trasformacin lineal no singular es una trasformacin lineal.


Sea / : V -* W una trasformacin lineal no singular, es decir, un isomorfismo de V en W.
Probaremos que / 1 : W V es una trasformacin lineal.
Consideremos y* y y 2 en W. Por ser/biyectiva, existen y son nicos los vectores x t y x2
en V, tales que
/(xi) = yi y /(x2) = y2
Se verifica que

i-/"1 (yi +y2)= /'1 [/(xi) +/(x2)]=/_1 |/(xi + x2)] = CT1/)(xi+x2) =


=/v (xi +x2) =xi +x2 ~/ 1 (yi ) + f l (y2)
2. Sean a e K y y j eW
Entonces

/'* ( a y i ) = / 1 [a / ( Xi ) 3 = / 1 1/ (a x i )] =
^ ( f 1/)(axi)= y (axO^axi ^ a / '1 (yi)

/ y r 1 se llaman trasformaciones lineales inversas, y se verifica que


/"1 f = h y / .T1= *w
donde iv e iw denotan las identidades en V y en W, respectivamente.

Ejemplo 3-19.
La trasformacin l i n e a l/: R2 -* R2 definida por
f ( a , b) = ( a , - b )
es no singular, por ser biyectiva.
En efecto
1. Sean ( a , b) y (a , b*) en el dominio, tales que f ( a , b) = f ( a \ b ).
Entonces es
(a, - b ) = ( a \ - b 1)
En consecuencia
a = a y b=b
O sea,/es inyectiva.

2. Sea ( a , b) cualquier vector del codominio.


Existe (a , - b) en el dominio, tal que

/ (a , - b ) = ( a , b)

Y, por consiguiente,/es sobreyectiva.


El significado geomtrico de esta trasformacin lineal es una simetra respecto del eje
de abscisas
1. Hiptesis) / : V - V es una trasformacin lineal inyectiva
dim V = n
Tesis) / es sobreyectiva.
Demostracin) Por hiptesis, / e s inyectiva. En consecuencia, por 3.3.5., es
N</)={0V|
y
dim N (J) = 0
Como
dim N (/) + dim I ( / ) - dim V
resulta
dim I (f) = n = dim V
En consecuencia, I (/) - V, o sea, / es sobreyectiva.
2. Hiptesis) / : V -> V es una trasformacin lineal sobreyectiva

dim V = n

Tesis) / e s inyectiva.
Demostracin) Sea { Wj, w2 ,. . w ) una base del codominio V. Por ser /
sobreyectiva, existen Vi, v2 , . . . , v en V, tales que
/(Vi) = w{ >^1=1,2,.
Los n vectores Vi, v2, . . v son linealmente independientes en V, y de acuerdo con
2.7.2. constituyen una base de V.
Consideremos ahora un vector x cualquiera perteneciente al ncleo de /. Se verifica que

x e N ( / ) ^ x = S a,vf a / (x) = 0 = / (x) = 2 <*,-/(,-) = 0 = a,w, = 0 =>


=l /1 i1
=>a, = 0 , V /= 1, 2 , . .

Siendo N (/) = Oy, resulta /inyectiva.

3.10. COMPOSICION DE TRASFORMACIONES LINEALES


Y PRODUCTO DE MATRICES

Consideremos las trasformaciones lineales


/ : V -> U y :U^W
y sean
[v] = ( Vi,v2 ) . . . , v n } ,[u] = j u ! , u 2, . . . , u p ) y [w]= j w , , w 2, . . . .,wm }
bases de U, V y W, respectivamente.
Las trasformaciones lineales f y g quedan caracterizadas por las matrices
A e K p x n y B e K mxp
respecto de las bases dadas en cada espacio.
Se verifica que la trasformacin lineal compuesta
go f:V ^ W
est asociada a la matriz
C = B A e K mxn
respecto de las bases [v] y [w].
En efecto, sabemos que para determinar C se necesita obtener las imgenes de los vectores
de la base [v] y expresarlas en funcin de los vectores de [w], o sea
m
fe / ) (*/)*= , 2 CijWi (1)

Por otra parte, teniendo en cuenta la definicin de composicin de funciones, que f y g


son trasformaciones lineales de matrices A y B, respectivamente, y propiedades de la
sumatoria, se deduce

( g f ) ( v j ) = g \ f (y,-)] = g ( 2 ahj ufe) = 2 aHj g ( u k ) =


hi n i
p m p m m p
= J2 1 akj ;2 bik w, = .2 akJ bik w, = . 2 ( bih akj) w (2)

De (1) y (2), por unicidad de la imagen, se deduce que


p
cij ~ (2 i b ik akj

En consecuencia, por definicin de producto de matrices, resulta


C = BA

Ejemplo 3-20.
Sean / : R 3 ~ > R y ^ : R - > R 2 trasformaciones lineales definidas por
f ( pcl , x i , x 3) = x i + *a
s (y ) = (y, 2y)
Se consideran las bases
[v] = { (1 ,0 ,0 ) , (0, 1 ,0 ) , (0 ,0 ,1 )1 enR 3
[u] = I 1) en R
[w]= j ( 2 ,0 ) , ( 0 ,2 ) | enR2
Determinamos las matrices asociadas a f g y g < > f , y verificamos el teorema anterior
/(1,0,0)= 1 = 1.1 j
/( 0 ,1 ,0 )= 1 = 1 .1 U a = (1 1 -l)
/ ( 0 , 0 , 1) = 1 = ( 1) l)
/1
g ( l ) = ( l , 2 ) = - j ( 2 >0 ) + 1 ( 0 , 2 ) = B = ( 2

Resulta

C = B A = ( 2 ) (1 , _ 1 )= (2 2 j )

Definimos ahora
g f : R3 ^ R 2
(g 0 f ) ( x i , x*, X 3 ) = g f ( x lt x 2, x 3)] =
= g ( x 1 + * 2 - * 3 ) = (*i +X2 - x 3 i 2 x + 2 x 2 - 2 x 3)
Luego

f e / ) ( l , 0 , 0 ) = ( 1, 2) = -i- ( 2 , 0 ) + 1 ( 0 , 2)

( ? < ./ ) ( 0 , l ,0 ) = ( 1, 2) = j (2 ,0 ) + 1 ( 0 , 2)

fe /) (0, 0, 1) = (-1 , -2 ) = - 1 (2, 0) + (-1 ) (0, 2)


O sea

I I I
C=I 2 2 2
1 1 -1

3.11. ESPACIO VECTORIAL DE TRASFORMACIONES LINEALES

3.11.1. Concepto
Con el smbolo L (V, W) denotaremos el conjunto de todas las trasformaciones lineales
entre los espacios vectoriales V y W, sobre el cuerpo K, o sea
L ( V , W)= | / : V -> W I f e s rasformacin lineal}
En L (V, W) definimos la suma de funciones y el producto de escalares por funciones
mediante las asignaciones
</+)(x) = /(x ) + ( x ) (1)
(ot/)(x) = a / ( x ) (2)

Demostraremos las siguientes afirmaciones:


1. La suma de dos trasformaciones lineales de V en W es una trasformacin lineal de V en
W.
En efecto:
j) (f+ *)( x + y)=/(x + y)+s(x + y) =
=/(x) +/(y) +g&) +g(y) = (f+g) (x) + (f+g) (y)
) ( f + g ) (a x) = / ( x ) + s ( < * x ) -
= a / ( x ) + ocg (x) = a [ / ( x ) + g (x)] =
= 01 ( f + g)(x)

2. El producto de cualquier escalar por cualquier trasformacin lineal de V en W es una


trasformacin lineal de V en W.
Utilizando la definicin (2), y con procedimiento anlogo al utilizado en 1., el lector
puede probar que
( a f ) (x + y) = ( a f ) (x) + ( a f ) (y)
(af ) (0x) ^0(<*/) (x)
Adems, las definiciones (1) y (2) permiten comprobar que el conjunto L (V, W) tiene
estructura de espacio vectorial sobre el cuerpo K.
La cuaterna [,L (V, W), + K , . ) denota el espacio vectorial de las trasformaciones
lineales de V en W, sobre el cuerpo K.
El vector nulo de este espacio es la trasformacin lineal nula
e : V -* W definida por e (x) = Ow VxeV

3.11.2. Isomorfismo de L (V, W) en Km x"

Sean (V, +, K ,.) y (W, +, K , .) dos espacios vectoriales de dimensiones finitas n y m,


respectivamente, y las bases

[ v ] = I V,,v2, .. .,v I enV


[w]= j w l t w2 , . . .,w m | enW

Entonces, L (V, W) es isomorfo a Km x


En efecto, definimos
F : L (V, W) -> Km xn
mediante
F( T) = A
donde A es la matriz de/respecto de las bases [v] y [w].
De acuerdo con el teorema fundamental de las trasformaciones lineales, A queda
unvocamente determinada para cada f e L (V, W), respecto de las bases [v] y [w], O sea, la
definicin dada satisface las condiciones de existencia y unicidad de toda funcin. Adems,
se verifica que :
1. F es inyectiva, pues s i / y g son dos vectores de i (V, W) que satisfacen

F(/)-F(sO
entonces sus matrices respecto de las bases [v] y [w] son iguales, lo que significa
/ ( v) = .? (v) Vf = 1 , 2 , . . . ,
En consecuencia

/ (x) = / ( 2 a, V,) = .2 a, / (v,) - 2 g (v) g ( 2 a, v,) = g (x)


1=1 1=1 i1 1=1

O sea
f= g
2. F es sobreyectiva, ya que, cualquiera que sea A eK " *, existe / : V -> W definida por
m
/ (V;) = .2 ii W

tal que
F ( /)= A

3. F es una trasformacin lineal.


En efecto:
F ( / + ^) = A + B = F ( 0 + F U )
F (<xf) = ot A = a F (/)
donde A y B son las matrices d e / y g respecto de las bases [v] y [w].
En consecuencia
F : L (V, W) -*Kmx"
es un isomorfismo para cada eleccin de una base en V y una en W.
Resulta entonces que
di ni L (V , W) = dim Kmxn= mn
Llamaremos espacio dual de un espacio vectorial (V, +, K, .), al espacio vectorial de las
trasformaciones lineales de V en K.
V* denota al espacio dual de (V, +, K, .)> o sea
V* = L (V, K) = { / : V K / / es trasformacin lineal }
Los espacios dominio y codominio son, respectivamente
(V, +, K , .) y (K,+,K,.)
Los elementos de V*, es decir, las trasformaciones lineales de V en K, se llaman formas
lineales o funcionales.
De acuerdo con el teorema fundamental de las trasformaciones lineales, toda forma lineal
queda unvocamente determinada por los valores que toma sobre cualquierbasedeV.Es
decir, si [v]= { Vi,v2, . . v } es una base de V, y x it x 2, . . . , x nsonnelementos
cualesquiera de K, entonces la funcin
f : V -> K d e f i n i d a p o r

f (x) = / ( f5 l v) = 2 ai x i

es un elemento de V* =L (V, K), donde a lt a, . . an son las coordenadas de x respecto de


la base [v].
3-21. Determinar cules de las siguientes aplicaciones de R3 en R3 son trasformaciones
lineales, donde K = R.
1. / ( * 1, * 2* 3) (*2. X u * 3)
2. g ( x x, x 2, x 3) = ( x i + l , x 2 + 2, 0)
3. T f c j , x 2, x 3) = (0 ,* i + x2 ,0)
4. T ( x 1, x 2, x 3) = (x1 x 2, x 3 ^ i )
J-22. Investigar cules de las siguientes aplicaciones/son lineales.
1. / : R3- R2 definida por f ( x , y, z) = (y,
2. / : R2->-R3 definida p o r / ( * i , x 2) = (xi, X 2 , 0) + (- 1 , 0, 0)
3. / : R2- R3 definida p o Y f ( x t x 2) = (2 x i - x 2>X \)
4. / :R2-> R definida por f ( x is x 2) = x i x 2

3-23. Sea / : V - W una trasformacin lineal y sean x e y en V tales q u e /(x ) = z. Sabiendo


que / (y) = 0W, demostrar que / (x + y) = z,
3-24. Sea la funcin / : Ra ->R2 definida por f ( x u * 2) = ( - * 1, -* a ) Demostrar que es
lineal, clasificarla e interpretarla geomtricamente.
3-25. La funcin / : R2 R 3 es lineal, y verifica

/ ( 1 , 2 ) = ( - 1 ,0 , 2) / ( 2 , 1 ) = (0, 2, 1)

Determinar las imgenes de los vectores (3, 3) y (0, 1).


3-26. Consideremos un espacio vectorial V sobre un cuerpo K, y dos trasformaciones lineales
/:V-> K y g:V-*K
Sea F : V - K2 tal que F (v ) = ( / ( v ), g (v ))
Demostrar que F es una trasformacin lineal.
3-27. Sea T una aplicacin lineal de R2 en s mismo, tal que
T ( 1 , 0 ) ( 1 , 1) y T (0, 1) = ( 1, 2)
Determinar la imagen del cuadrado de vrtices ( 0 , 0 ) , (1, 0 ) , (1, 1) y (0, 1).
3-28. Investigar si existe una trasformacin iin e a l/: R2 - R tal que
/ ( 1 , 2 ) = 3 , / ( 2 , 2 ) = 1 y /(2 ,5 ) =
2

3-29. Sean / : R2 -+ R 3 y g: R3 - R2 definidas por


/ ( a , b) s ( a , a + b , b) y g ( a , b , c)= (a+ b , c)
1. Probar que f y g son trasformaciones lineales.
2. Clasificar/y g.
3. Definir g o f y f o g.
3-30. Demostrar que si / ' V -> W es un epimorfismo, entonces / trasforma sistemas de
generadores de V, en sistemas de generadores de W.
3-31. Consideremos (C, + , R , .) y / : C -+ C definida p o r /( z ) = z + Im (z).
Determinar s i/e s una trasformacin lineal, y en caso afirmativo clasificarla.
3.32. S e a / : R2 R3x3 definida por

/ X t Xl 0 v
f(x\,X2)- -JC l *1 *2 )
\ 0 X 2 X l ~ X2 I

Probar que / es lineal y determinar el conjunto de los vectores de R2 cuyas imgenes


p o r/s o n la matriz nula.
3-33. Demostrar que si / : V - W es una trasformacin lineal y S es un subespacio de I (/),
entonces / _1 (S) es un subespacio de V.
3-34. Determinar el ncleo, la imagen y las dimensiones de ambos en las siguientes
trasformaciones lineales.
1. / : R3 R2 definida p o r/(^ i , x 2 *fx2+ * 3. * 2 + * 3)
2. / : R 2 -R definida p o r/(je J( x 2) = ;ci - 2x 2

3-35. Definir una trasformacin lineal / : R4 -+ R para un n conveniente, de modo que


N C0 = { (Xi, x 2, x $ , *4>eR4 ! X\ +*2 = 0 f*i - x4 =0,jc2 + * 3 +jc4 =0
Obtener despus una base y la dimensin del ncleo.
3-36. Una trasformacin lineal / : R3 -* R2 est definida por
f ( X i , X 2 , X 3 ) s l (Xi - 2 x 3 , x 2 + x 3 )
1. Hallar la matriz A de / , respecto de las bases
1(1, 1 , 1 ) , ( 2 , 2 , 0 ) , ( 3 , 0 , 0 ) ) e n R 3
1 ( 2 ,0 ) ,( 0 ,2 ) | e n R 2
2. Mediante A, obtener la imagen de ( - 2 , 2, - 2 ) R3 .
3. Determinar la matriz B d e /, respecto de las bases cannicas en ambos espacios.
4. Obtener la matriz C de la misma trasformacin lineal, respecto de la base cannica
en R3 y la base del punto 1. en R2 .

3-37. Sea la trasformacin lineal/ : R2 -> R3 definida por


/( * 1 ,* 2 ) = (*1 + * 2 . * 1 +2X2)
1. Determinar N (f) , I (/), una base en cada uno y sus dimensiones.
2. Hallar la matriz de / respecto de las bases
((1,2),(2,0)| enR2
j (1, 0 , 0 ) , ( 0 , 2 , 0 ) , ( 0 , 0 , 3 ) | e n R 3

3-38. La trasformacin lineal / : R3 -* R 3 est caracterizada por la matriz

respecto de la base cannica. Determinar N (/), I (f) y sus dimensiones.


3-39, Determinar la matriz de la trasformacin lineal del ejercicio 3-32, respecto de las bases
cannicas en R2 y en R3*3
3-40. Dada la trasformacin lineal / : R2x2 R3 definida por

1. Obtener la matriz de /respecto de las bases

| ( 0 , 2 , 1 ) , ( 2 , 0 , 1 ) , (0, 1, l)}en R3

2. Utilizando la matriz hallada, obtener la imagen de

3-4J. Definir la trasformacin lineal / : R3 -> R2, tal que respecto de las bases
1(0, 1, 1) , (1, 0, 1), (1, 1,0)1 e n R 3
1(1, 2 ) , (2, 1)) en R2
/l 0 0
\ 1 1 1

3-42. Hallar la matriz de la trasfomiacin lineal g f del ejercicio 3-29, respecto de las bases
{ (1 ,1 ) , (0, 1)} en el dominio
( ( 2 , 0 ) , ( 2 , 2)) en el codominio

3-43. Determinar la matriz de la rotacin del plano de ngulo 0, respecto de la base cannica,
con centro en el origen.
3-44. Sea la trasformacin lineal : R2 -> R2 representada por la matriz
eos 0 - sen 0
sen 6 eos 6
respecto de la base cannica.
Demostrar que si 9 y 6' son nmeros reales cualesquiera, entonces

/ 0 0 fe ~ f e +$'
f o - f--e

3-45. Demostrar que si [v]= ( v lt v2 l .. v | es una base de (V, +, K ,.), y si f t con


i = 1, 2 , . . . , n son las formas lineales definidas mediante
f i (v; ) ~ ^ij

entonces { f lf f 2, . . f n es una base de L (V, K), o sea, del espacio dual de V.

3-46. En (V, +, K , .) sean los subespacios y S2 tales que V = S! S2. Se considera la


funcin
Pi : V-> V
definida por
Pi (x) = xi
Siendo x = x : + x2 y xI e S 1}x2 e S 2.
La funcin Pj se llama proyeccin sobre St , segn S2.
Demostrar:
1. Pi es una trasformacin lineal.
2. P! es idempotente, o sea P2 = Pi 0 Pj = Pj
3. Si P2 es la proyeccin sobre S2, entonces Pi + P2 = I
Captulo 4

MATRICES

4.1. INTRODUCCION

Hemos credo oportuno dedicar un captulo al estudio de las matrices con elementos en
un cuerpo K, dado el rol fundamental que este tema desempea en todos los campos de la
Matemtica y en las aplicaciones. Conocido el espacio vectorial (Kmxn, + , K, .), se trata
ahora el producto de matrices, anticipado en el captulo anterior, y el anillo de matrices
cuadradas. Sin pretender agotar el tema, se estudian la trasposicin y algunos tipos de
matrices especiales: simtricas, antisimtricas, triangulares, diagonales, idempotentes, involu-
tivas, hermitianas, etctera. Se trata, adems, la inversin de matrices, el concepto de
matrices particionadas, el rango de una matriz y su invarianza frente a operaciones
elementales. Despus de dar mtodos para la determinacin de la inversa de una matriz se
estudian la equivalencia de matrices y los cambios de bases en espacios vectoriales.

4.2. PRODUCTO DE MATRICES

4.2.1. Concepto

Recordemos la definicin de producto de matrices dada en 3.6. y su conexin con la


composicin de trasformaciones lineales estudiada en 3.10. Si V, U y W son tres
espacios vectoriales sobre un mismo cuerpo K, de dimensiones finitas, con bases
M = {VJ.V2 ,. . .,v } , [u]= j U i , u 2, . . .,Up } y [w]= I Wj, w2, . . , , wm } respecti
vamente, y B e K pxfly A e Kmxp son las matrices asociadas a las trasformaciones lineales
/:V-U :U-+W
entonces la trasformacin lineal compuesta
g o f : V->W
est caracterizada por la matriz producto C = AB e Kmx" cuyo elemento genrico es
Observamos que para que exista el producto de dos matrices, el nmero de columnas de la
primera debe ser igual al nmero de filas de la segunda.
Si A e Kmx" y B e K nxm, entonces coexisten los productos AB e Kmxm y BA e Knxn,
pero son distintos si m =n.
En el caso en que m = n, tanto AB como BA son matrices del tipo n x n, es decir,
cuadradas y pertenecientes a Knx", pero en general se verifica que
AB =BA
O sea, el producto de matrices no es conmutativo.

Ejemplo 4-1.
Verificamos la no conmutatividad del producto de matrices en el siguiente caso:

Este hecho es coherente con lo que sabemos: la composicin de tras formaciones


lineales, que son funciones, no es conmutativa.
Si AB = BA entonces diremos que A y B son matrices permutables.

4.2.2. Asociatividad del producto de matrices

Sean V, U, S y W espacios vectoriales de dimensiones n, p, q, m respectivamente, y una


base en cada uno. Si
/ : V -H J g : U- ^ S y /i:S-W
son trasformaciones lineales, C e K px", B e K qxp y A e K mx< son las correspondientes
matrices,
entonces, teniendo en cuenta la asociatividad de la composicin de funciones es
h og f = ( h g ) f = h ( g f )

Denotando con D a la matriz m x n, asociada a la composicin, es


D = (AB) C = A (BC)
Escribiremos entonces D = ABC

Ejemplo 4-2.
Calculamos ABC, siendo

2 x3 3X4 4X1

2 X4 4 X1 2X1

4.2.3. Matriz identidad

En Kx la matriz I cuyo elemento genrico es 8j, o sea, es 1 si i =j y es 0 si i =/, es


neutro para el producto.
I se llama matriz identidad n x n , y verifica
AI = IA = A
cualquiera que sea A K "x.
En efecto, el elemento genrico de la matriz producto AI es
n
C ij &ik & k j &ij &jj a ii

En consecuencia, por definicin de producto, es


AI = A
Anlogamente se prueba que IA = A.
Si A e Kmxn, entonces la identidad mx m verifica
IA = A
y la identidad n x n satisface
AI = A

Ejemplo 4-3.
Calculamos AB - I, siendo
10
0 1
0 0

fio
AB = 0 1
\0 0
Luego
AB- I = N

donde N denota la matriz nula de R3x3.


4.2.4. Distributividades del producto

Si A y B son elementos de KX) y C e Kpxm, entonces es


(A + B) C = AC + BC
Esto significa que el producto de matrices es distributivo a derecha, respecto de la suma.
Para demostrar esta afirmacin, consideremos el elemento genrico de la matriz
(A + B) C. Por las definiciones de suma y producto y propiedades de la sumatoria es
p p P
~ + fr/ft) c k j ~ a k c k i ck

O sea
(A + B)C = AC + BC
Si C e Kmxn y A y B son las matrices anteriores, entonces se verifica la distributividad a
izquierda.
C (A + B) = CA + CB

4.3. ANILLO DE MATRICES CUADRADAS

En K"x el producto es una ley de composicin interna, asociativa, con elemento neutro
igual a la identidad nx n.
Por otra parte, sabemos que (K "xn, +) es grupo abeliano, y de acuerdo con 4.2.4. el
producto es doblemente distributivo respecto de la suma.
En consecuencia (KrtX' \ +, .) es el anillo no conmutativo, con unidad, de las matrices
cuadradas nx n con elementos en K.
Este anillo tiene divisores de cero; es decir, existen matrices no nulas cuyo producto es la
matriz nula.
Por ejemplo:

pero

Considerando en el espacio vectorial (R2, +, R , .) la base cannica, la matriz B representa


una trasformacin del plano en s mismo que asigna a cada vector (x, ;>) la imagen (0,* + y ),
y A caracteriza la aplicacin lineal que trasforma cada vector (x , ;>) en (x , x)> ya que

L trasformacin lineal compuesta, asigna a todo vector el vector nulo. Es decir, es la


trasformacin lineal nula.

4.4. TRASPOSICION DE MATRICES

4.4.1. Concepto

Sean los espacios vectoriales (K "xm, +, K , .) y (Kmxn, 4-, K ,.). Por definicin, la matriz
B e Kmxn es la traspuesta de A e Knxm si y slo si bj = % , y se escribe B = A*.
El smbolo A* se lee: A traspuesta .
Si

En consecuencia, para hallar la traspuesta de una matriz, se cambian filas por columnas.
Observamos, adems, que toda matriz 1 X 1 es igual a su traspuesta.
4.4.2. Traspuesta de ia suma y del producto por escalares

La funcin f : K"xm -> Kmx" que asigna a cada matriz del dominio su traspuesta en el
codominio, es decir, definida por
f (A) = A*

/ ( A + B) = (A + B)* = A 1 + B* - f ( A ) + / ( B)

2. La traspuesta del producto de un escalar por cualquier matriz es igual al producto del
escalar por la traspuesta de la matriz.
Teniendo en cuenta que si C = (a A)* entonces c# = a a;,, resulta
/(c t A) = (a A / = a A( = a / ( A )

Ejemplo 4-4.

Dadas las matrices A =

calculamos (B A)*.

Como B* A = (# b c) ( - a c b), resulta

4.4.3. Traspuesta del producto

La traspuesta de un producto de matrices es igual al producto de las traspuestas en orden


permutado.
Sean A e Knxp y B e Kpxm. Demostraremos que
(AB)' = B* A*
Si C = AB, entonces
p
Cjj <z,7j bfrj di b \j + a2 b 2 + . .. + ap bp

es el elemento de la fila / y de la columna i de C* = (AB).


Los elementos i y, b^ 2/.
2j, . . . , bpj de la columna j-sima de B, son los de la fila; de B*.
Anlogamente, an> ai2, . . ap son los elementos de la columna i-sima de A*.
Entonces, el elemento de la fila/ y de la columna i de BfA* es
p

En consecuencia.
(AB)* = BfA t

Ejemplo 4-5.
La trasposicin verifica (A) = A. Teniendo en cuenta este resultado y el teorema
anterior, calculamos (B^A)*, en el caso del ejemplo 4-4.

(BA) = A (B*)* ^ A ' B -

4.5. MATRICES SIMETRICAS Y ANTTSIMETRICAS

4.5.1. Matriz simtrica

Una matriz cuadrada es simtrica si y slo si es igual a su traspuesta.


A e K ' lx es simtrica A ~ A * o a y - j Vi \/j
En R3*3, la matriz

es simtrica

4.5.2. Matriz antisimtrica

Una matriz cuadrada es antisimtrica si y slo si es igual a la opuesta de su traspuesta.


A K xn es antisimtrica <>A = -A ^ o Uij = -ay Vi V
Los elementos de la diagonal de toda matriz antisimtrica son nulos, pues
A es antisimtrica =>o,, = - a u , V/ = 2aa = O , Vz =* ai = O V/
La matriz
O 1 -2
A = ( 1 O 3
2 3 O / es antisimtrica

Ejemplo 4-5.
Demostraremos las siguientes propiedades:
i ) El producto de toda matriz por su traspuesta es una matriz simtrica.
En efecto:

A* = AA*
Luego, por ser igual a su traspuesta,
A A* es simtrica
Observamos que no es necesario que A sea cuadrada para que existan AA* y A*A, las
que son, en todos los casos, matrices cuadradas.
i i ) La suma de toda matriz cuadrada y de su traspuesta es simtrica.
Sea A e K nx", Se verifica que
(A + A y - A* + (A*)* = A* + A = A + A*
Es decir, A + A* es simtrica.
iii) La diferencia de toda matriz cuadrada con su traspuesta es antisimtrica.
Si A e Knx , entonces, aplicando propiedades anteriores, se verifica
(A - A) = A t - ( A t) t = A t - A = -(A - A*)
En consecuencia, A A* es antisimtrica.
iv) Toda matriz cuadrada es la suma de una matriz simtrica y de una matriz
antisimtrica.
A e Knxn = A + A* es simtrica y A - A es antisimtrica =* (A + A*) es
2

simtrica y- ~ (A Af) es antisimtrica => A =-~ (A + A*) +~- (A - A*) es la suma

de una matriz simtrica y de una antisimtrica.

Ejemplo 4-6.
Sean A e K wx una matriz simtrica, X e K xl y Y e K " x l . Desarrollaremos el
producto (X - Y) A (X - Y).
Teniendo en cuenta que la trasposicin es una trasformacin lineal, la distributividad
del producto respecto de la suma y que X*AY es del tipo 1 X 1, o sea, simtrica,
tenemos
(X - Y)f A (X - Y) = ( X t - Y') (AX - AY) = XfAX - XfAY - YfAX + Y*\Y -
- X*AX (X*AY)* - Y*AX i- Y ' AY =
= X'AX - YA(X)f ~ Y*AX + YfAY =
= XfAX - YfAX - Y*AX + Y'AY =
- XfAX - 2Y*AX + Y*AY

4.6. MATRICES TRIANGULARES

La matriz A e K " x n es triangular superior si y slo si i > / =*a; = 0.


En R3X3
1 -2 3\
0 0 2 es una matriz triangular superior.
0 0 5
Anlogamente
A e K"x es triangular inferior si y slo si i <j=> a ,; = 0.
El lector puede demostrar que el conjunto S de las matrices triangulares superiores
inferiores de (Kxn>+ , K , .) es un subespacio de KMXn.

Ejemplo 4-7.
Efectuamos el producto de las matrices triangulares A y B pertenecientes a R3x3, tales
que aj = 0 si i> j, a y = i + j si / < /, bj = 0 si / > /,6 y - i - 2 / si i < /

/ 2 3 4\ /-1 -3 -5 \ - 2 -12 34 \
AB= 0 4 5 0 -2 -4 =1 0 - 8 -3 1 )
\ 0 0 6j ^ 0 0-3 I \ 0 0-18/

Observamos que el producto de matrices triangulares es una matriz triangular.

4.7. MATRICES DIAGONALES

4.7.1. Concepto

La matriz A e Knxn es diagonal si y slo si i =j =>aj = 0.


Toda matriz diagonal tiene nulos los elementos que no figuran en la diagonal.
Para denotar que A es una matriz diagonal, escribiremos
'tfi O . . . O
O a2 . . . O

(
A= ~ diag (al t a2, .

O O . . . an

En particular, en Knx", I y N son matrices diagonales.


Si todos los elementos de la diagonal son iguales, o sea, si a = a, V7, entonces la matriz
diagonal se llama escalar. Siendo A una matriz escalar, se verifica
A = al

4.7.2. Propiedad

El conjunto S de las matrices diagonales de (K"xn, +, K , .) es un subespacio de K"xn, y


su dimensin es n.
La demostracin se propone como ejercicio.

4.7.3. Propiedad
El conjunto S de las matrices diagonales de Knx" es un subanillo de (Knxn, + ,.).
Para demostrar esta afirmacin es suficiente probar que el producto de matrices
diagonales es una ley de composicin interna en S.

4.8. MATRICES IDEMPOTENTES E BMVOLUTIVAS

4.8.1. Concepto

Una matriz cuadrada es idempotente si y slo si es igual a su cuadrado.


A e K nxn es idempotente =A

verifica A2 = A, es decir, es idempotente.

Una matriz cuadrada es involutiva si y slo si su cuadrado es la identidad.


A e Kx es involutiva o A2 = I

La matriz A = es involutiva, pues A2 =


4.10.3. Propiedad
El producto de dos matrices ortogonales es ortogonal.
A y B son ortogonales => AB es ortogonal
En efecto:
(AB) (AB)* = ABB'A* = AI A* - AA* - 1
por traspuesta del producto y 4.10.2.
Anlogamente es
(AB)'(AB) = I
En consecuencia, por 4.10.2. resulta AB ortogonal.

Ejemplo 4-10.
Toda matriz
eos a sen a 0

( sen a

0
cosa 0 |

0 1
donde a e R

es ortogonal.
En efecto:
cos a -sen a 0 eos a sen a 0 0
A A l = | sena eos a 0 - sen a eos a
\
0 =
1
1 0

0 0 1 0 0
\ 0 1

4.11. MATRICES HERMITIANAS

4.11.1. Matrices complejas

(C"xm, + , R , . ) y ( C BXfl} +, C, .) denotan los espacios cuyos elementos son las matrices
complejas del tipo wx m, sobre el cuerpo de los reales y de los complejos, respectivamente.

-i 1+ i 2 \
I es una matriz compleja del tipo 2 X 3 .
/ -2 3 - 2 i)

Matriz compleja conjugada de A e CMX,M es la matriz B e C"xm tal que bi=aj


O sea, dada una matriz, su conjugada se obtiene sustituyendo cada elemento por el
complejo conjugado.
Para denotar la matriz conjugada de A, escribiremos A.
Si A es la matriz anterior, entonces

\ -/ -2 !)
3 + 2 /

Diremos que A y A son matrices conjugadas, una de la otra, pues ~ A.


Dado el espacio vectorial (C'ixm, +, R , .), la funcin / : CMXm -* c xm definida por
/ (A) = A es una trasformacin lineal, puesto que se verifica
i ) la conjugada de la suma es igual a la suma de las conjugadas,
ii) la conjugada del producto de un escalar por una matriz es igual al producto del escalar
por la conjugada de la matriz.
El lector puede demostrar que / e s un automorfismo.
Se verifica que la traspuesta de la conjugada de cualquier matriz es igual a la conjugada de
su traspuesta, o sea

Para designar esta matriz, escribiremos A*.


En el caso ya tratado es

A* = \ - i -2 \
\ 2 3 + 2i j

El operador * satisface las siguientes propiedades:


1 (A*) *=A
2. (A + B)* = A + B * ~ ( + B)* = ' + B* = A* + B*
3. (A B)* = B* A*

Para demostrar esta afirmacin es necesario probar que la matriz conjugada de un


producto es igual al producto de las conjugadas.
Sean A e Cnxp y B e C1554"1. Si C = AB, entonces el elemento gentico de C es
p
ik bk>
y teniendo en cuenta que el conjugado de una suma es la suma de los conjugados y que el
conjugado de un producto es el producto de los conjugados, se tiene
P
c ij = a ik b h j

O sea
B = A B
Retomando nuestro propsito
(AB)* = B* = (A B)f = W A* = B* A*

4.U .2. Matriz hermitiana


La matriz A e Cnxn es hermitiana si y slo si es igual a la traspuesta de su conjugada.

A es hermitiana o A = A* A = A* o a = a

Los elementos de la diagonal de toda matriz hermitiana son nmeros reales, pues
A es hermitiana =>a a = ai =>af e R.
La matriz
/ l 2+i
A= [ i 2- 3 2/ | es hermitiana
\ 2 / 3 + 2/ 3

Toda matriz simtrica y real es hermitiana, ya que verifica aj = a = a7

Ejemplo 4-11.
S i a e C y A e C " xm, entonces (a A)* = o A*.
En efecto:

(a A*) - A = (cE) : = a A t = aA*

Ejemplo 4'12.

Dadas las matrices X = | * ) y A = ^ * I , calculamos


\ + i) \l-i 2 J

i ) X*X = (1 1 - i) ^ ^ j = 1 + (1 - 0 (1 + 0 - 1 + 1 - i2 = 3

ii) X*AX = (1 1 - 0 1 , 3 - ) ( 1 | , ) = 5

Ejemplo 4-13.
Si H = { A e C 3X3/ A es hermitiana} , entonces H no es un subespacio de
(C3x3, +, C, .)> ya que H no es cerrado para el producto por escalares.
En efecto:
El lector puede comprobar que H es un subespacio de (C3x3, +, R , .),

4.12. MATRICES PARTICIONADAS

4.12.1. Submatrices de A e K"xr

Eliminando r filas y s columnas de la matriz A e K " xm se obtiene una submatriz de A,


que denotaremos as:
A (ii, 2, - ir | \> h> . /*)
donde / } es el nmero de la primera fila eliminada, j\ es el nmero de la primera columna
eliminada, etctera.
Si eliminamos las filas indicadas en

011 a :2 #13 0)4 a 1S

entonces
t - -i i zf (l, 3-

Si se mencionan las filas y columnas que se conservan, la notacin es

4.12.2. Particin de una matriz

Sean A e K"xm, n ~ v l + >2 y m = Mi + f c , y consideremos las submatrices


A u = A [1, 2 , . . .,v 1 1 , 2 , . . . , Mi ]
A = A [1, 2 , . . ., vx Imi + 1, Mi + 2 , . . m]
A = A [ ^ + l , v t + 2, . .I 1, 2, . . .,Mi]
A22 = A \vx + 1, vx+ 2,. . ., n I Mi + 1, Mi + 2,. . , m]

Escribiremos A= / ^ 12 \ y diremosque A est particionada en cuatro submatrices


\ A21 A22 f
o bloques. Las descomposiciones n = v x + y m = Mi + M2 se denominan esquemas de la
particin para filas y columnas, respectivamente.
Por ejemplo, la particin de A que se indica a continuacin

1 1 -1 0 3 0 ~4\
1 2 3 3 2 1 0
~ 2 2 1 1 1 1 3
_-3 0 0 3 1 2 4 .
-1 0 1 0 2 -2 3 /
V
corresponde al esquema
n = Vi + ^2 = 2 + 3
m = Mi + M2 -Ms = 2 + 3 + 2
y se obtiene
_ / Ah A12 A13
\ A2i A22 A23
donde cada bloque Ay es un elemento de la matriz particionada.
En general, si A e Klxm, n ~ + u2 + .. . + vr y m = Mi + M2 + , + M5, entonces
las submatrices AfJ- con i = 1, 2 ,. . r, j = 1, 2,. ., s son los elementos de A particionada en
bloques, y se escribe
A A t2
A2i a 22
A=

Ari vr2

4.12.2. Operaciones con matrices particionadas

I. Adicin
Sean A y B matrices en KMXm y los esquemas de particin n = v t + v2 + . . . + vr,
m ~ Mi + M2 + + Ms Si A = (Aj) y B = (By) son las notaciones de A y B particionadas,
entonces es
A + B = (Af/ + Bf/)
co n / = 1, 2 , . . r y / = 1, 2 , . . s .
II. Producto por escalares
Se define de la siguiente manera:
a A = (a Ay)

III. Multiplicacin
Sean las matrices A e Knxp , B e Kpx,n y los esquemas de particin
n - vx -- v2 + . . . + vrt p = 7TJ + 7r2 + . .. + irf , m = Mi + h + +
o sea, A = (Aife) y B = (Bw) donde i = 1,2, .. r, j = 1, 2, . . 5 y k = 1, 2, . . t.
El producto en forma particionada es

A B = ( fe i A,* B/gjJ

Ejemplo 4-14.
Consideremos las matrices A y B particionadas como se indica
0 0 1 2 ^
/ 1 An Aj2
0 1 1 2 1
A2i A 22
-1 2 3 2 /

/1 1 0 l\
' 0 2 1 2 Bu B12
-1 -2 1 2
2
3 -1 B2i B22
1
Vo 0 1 0/
El producto en forma particionada es
An A12 \ /B u Bi2\ / A|j Bu + A12 B2i Ajj B12 + A!2 B22

21 r t 22 B21 B22, 1 U11 22 U21 A^i B12 + A22 B221

1 0 1 0 \ /0 12 -1 1
Cn An Bu + A 12 B2i - 1 2
0 1 0 1 ) \ 1 2 1 0 1

c ;m : n :
Anlogamente se calculan Cj2 , C22 y C2i , que son los restantes bloques del producto.

4.13. ESPACIOS FILA Y COLUMNA DE UNA MATRIZ

Sea A e Kx,n y sean los esquemas de particin = y l , m = l + l + . . . + l.


Entonces A queda particionada en matrices columnas y se escribe
A (A h Aj2 . . . Alff, ) = (Ai A2 . . . A m)
donde e K" y j = 1, 2, . ., m.
Definicin
Espacio columna de la matriz A e K " xm es el subespacio de K" generado por las m
columnas de A.
Denotamos el espacio columna de la matriz A mediante SC(A). Los elementos de SC(A)
son todas las combinaciones lineales de las m columnas de A.
O sea
m
! .2 ocj Aj j oij e K

Definicin
Rango columna de una matriz es la dimensin del espacio columna de dicha matriz.
pc (A) se lee: rango columna de A, y es
pc {A) = dim SC(A)
Si A es una matriz nula, el espacio columna es un vector nulo y el rango columna es 0. Si
A , entonces el rango columna de A es el mximo nmero de vectores columnas
linealmente independientes.
Anlogamente se definen el espacio fila y el rango fila de una matriz A, y se indican
mediante Sp(A) y P f (A), respectivamente.
Sp(A) es el subespacio de Km generado por las n filas de A y dimSp(A) es el mximo
nmero de vectores filas linealmente independientes de A.
La particin de A Knxm en vectores filas se indica as:

Si es necesario, para referirnos a la submatriz columna de lugar r escribiremos A r, y para


indicar la submatriz fila de lugar k , pondremos A/ . El punto en A r significa que el primer
ndice vara desde 1 hasta n. En el segundo caso, el punto indica que el segundo ndice es
variable desde 1 hasta m.

Ejemplo 4-15.
Determinamos los rangos fila y columna de la matriz
2 0 -1 4
A= ( 0 4 1 -2
12 0 1
Observamos que las dos primeras filas son linealmente independientes y que la tercera
es combinacin lineal de aqullas: A3> = *~Aj. + ^-A 2.. En consecuencia, el rango fila

de A es 2. El lector puede comprobar que el mximo nmero de vectores columnas


linealmente independientes de A tambin es 2.
Ambos rangos, fila y columna, coinciden.

4.13.2. Propiedad

Los rangos fila y columna de toda matriz son iguales


Hiptesis) A e K fIxm
Tesis) Pc (A) = P f (A)
Demostracin)
Si A = N, entonces Pc(A) = 0 = Pf (A).
Sea A ^ N y pc (A) = r. Probaremos que p F(A) = r.
Podemos suponer, sin prdida de generalidad, que las r primeras columnas de A son L.I.
n d l2 . . . d \ r i.'+i . . - ,r + fe ^lrn

A j 2 . . . 8r 1 . . . ff,r+

a n\ rfl &nr n,r+l ffe *

Particionando A en vectores columnas es


A (A_i '2 . . A >r .. . A'f+k . A<m)
Por lo supuesto, las r primeras columnas de A constituyen una base de SC(A). En
consecuencia
A.r+k iife A1 + a2k A.2 + . . . + ark A <r =

= yJi aJk A J O ) Vfr= 1, 2 , . . . m'Y

Sea { e i , e2, . . em } la base cannica de Km. Como las filas de A son vectores de
Km, se verifica que
m
Aj, ~&ii l + &2 * + &ir + &i,r+ 1 j "K ~2
j/j (2)
h I
V i = 1, 2 , . . . ,
De (1) y (2) resulta
A. - /i ej + a 2 e2 + . . . + a ir er +
+ (<*11 #i + 02i </2 + ^ir) r+1
+ ( a 12 n + 0 c22 ai2 + . . . + oir2 dir) er+2 +
+ . . . +

+ (l ,m*r a2 ,m-r ^2 + ^/r ) em ~


= il (el + 11 er+ 1 +12 *r + 2 + + 1m-rm) +
+ ^2 (2 + 21 r+ 1 + 22 r + 2 + * + ^2,m-r m)

+ ir (er + (xri er + 1 + <xr2 Qr 2 + . + o r em)


~ ai\ e i ai2 e 2 + . . . + z,> eV
En consecuencia { ej , e2) . . ., er } es un sistemade generadores de las filas de A.
Si Pf (A) - r \ entonces es
r '< r (3)
ya que el mximo nmero de filas L.I. de A es menor o igual que el cardinal de todo
sistema de generadores de las filas de A.
Anlogamente, razonando a partir del rango fila de A, se prueba que
r < r (4)
De (3) y (4) resulta
r = r
O sea
P e (A ) ~ P f (A)

4.13.3. Rango de una matriz

Hemos demostrado que los rangos fila y columna de toda matriz son iguales. Este
nmero se llama rango de la matriz. Para denotar el rango de una matriz A, escribiremos
P (A )

Definicin
Rango de una matriz es su rango fila o su rango columna.
P ( A ) = p c ( A ) = p F(A )
Dos matrices traspuestas tienen igual rango, pues

P (A ) = p c ( A ) = p F( A f) = p (A ')
Si I e K rXM, entonces es p(I ) =, ya que los n vectores columna de I son linealmente
independientes.
4.13.4. Rango del producto

Propiedad
El rango del producto de dos matrices es menor o igual que el mnimo de los rangos.
Hiptesis) A e K " xp, B e K pxm
Tesis) p (AB) < mn j p (A) , p (B) }
Para probar esta afirmacin, demostraremos que el rango del producto es menor o igual
que los rangos de cada una de las dos matrices, es decir
p(AB)<p(A) y p(AB)<p(B)
Consideremos B particionada en los p vectores illas, y efectuemos el producto en forma
particionada

Este resultado nos indica que las filas de AB son combinaciones lineales de las filas de B
con coeficientes en A. En consecuencia, todo vector del espacio fila de AB pertenece al
espacio fila de B, y por consiguiente

SF(AB) C Sf (B)
Entonces, resulta
dim Sp(AB) < dim Sp(B)
Luego
P (AB) < p (B) (1)
Esta relacin nos dice que el rango del producto de dos matrices es menor o igual.que el
rango de la segunda matriz.
Adems, teniendo en cuenta que la trasposicin no modifica el rango y (1), es
p (AB) = p (AB)* = p (B* A*) < p (A*) = p (A)
Luego
p (AB) < p (A) (2)
Es decir, el rango del producto de dos matrices; es menor o igual que el rango de la
primera matriz.
De (1) y (2) resulta
p (A B )< mn p ( A ) , p ( B ) )

4.13.4. Invarianza del rango

Propiedad
S en un producto de dos matrices una de ellas es no singular, entonces el rango del
producto es igual al rango de la otra matriz.
Hiptesis) A e K nxm
B e K nxn es no singular

Tesis) p (B A) = p (A)
Demostracin) Sabemos que
p(B A ) < p (A) (1)
pues el rango del producto es menor o igual que el rango de cada factor.
Como B es no singular, existe B"1 tal que BB' 1 = B"1B = I
Ahora bien
A = IA = (B-1 B)A = B_1(BA)
Por consiguiente
p ( A ) = p[B"1 (BA)]
Y por rango del producto, es
p (A )< p(B A ) (2)
De (1) y (2) se deduce que
p(B A ) - p ( A )
Anlogamente se demuestra que si B e Kmxm es no singular, entonces
p (A B) = p (A)
Una consecuencia inmediata del teorema anterior es la siguiente: s i A e K nxm, P e K nxfly
Q e Kmxm son dos matrices no singulares, entonces
p(PA Q ) = p (P A )-p (A )

4.13.5. Propiedad

Una matriz A e K nx" es no singular si y slo si su rango es n.


A e K"xn es no singular o p (A) = n
Io. A e Knx" es no singular =>3 A' 1 / A A"1 = I =>
=>p (A A"1) = p (I) =>p (A) = n
Hemos utilizado la propiedad 4.13.4., teniendo en cuenta que A"1 es no singular, y
P ( 0 =
2o. Sea A e K " Xfl tal que p(A ) = . Entones las n columnas de A son linealmente
independientes, y constituyen una base del espacio columna de A.
Sea la trasformacin lineal / : K" -+Kn, definida por la matriz A respecto de la base
cannica en K .
Si x e K", entonces e s /( x ) - Ax.
Como el espacio columna de A es el subespacio de K generado por las n columnas de A,
y stas son linealmente independientes, se verifica que
dim Sc (A) = h

Por otra parte, I (f) = SC(A), es decir, la imagen de la trasformacin lineal es igual al
espacio columna de A. Luego
dim I (f) = n
y, en consecuencia,/es sobreyectiva.
De acuerdo con 3 .9 .4 ./es biyectiva, y por lo tanto A es no singular.

4.14. OPERACIONES Y MATRICES ELEMENTALES

4.14.1. Operaciones elementales

Operaciones elementales sobre una matriz A e K "xm son las siguientes:


1. Permutacin de dos filas entre s, o de dos columnas entre s.
2. Adicin de una fila a otra, o adicin de una columna a otra.
3. Multiplicacin de una fila o de una columna por un escalar no nulo.
Si se efectan operaciones elementales sobre las filas o columnas de una matriz, se obtiene
otra matriz; pero demostraremos que su rango novara.

4.14.2. Propiedad

Toda operacin elemental sobre las filas de una matriz A e K nxm puede realizarse
premultiplicando A por una matriz no singular del tipo nxn.
Antes de probar esta afirmacin definimos Ehfe e K"x" mediante
1 s i i h A j = k
0 si i i^h v j ^ k
Por ejemplo, en K4 x4 es
1. La permutacin de las filas i y / puede obtenerse premultiplicando A por la matriz no
singular
P# = I ~ E,-j - Ejj + Ey + Eji e n r
En K4x4 es
10 0 0
0 0 10
0 10 0
0 0 0 1
Pj se deduce de la matriz identidad permutando las filas o columnas i y /.
Particionando A en vectores filas, se tiene

i
A2

PA =

En consecuencia, la premultiplicacin de A por Py permuta las filas i y /.


Adems, como en Py se tienen exactamente n vectores columna linealmente indepen
dientes, es p (Py) = , y en consecuencia
Py es no singular
2. La adicin de la fila i a la fila / puede obtenerse premultiplicando A por la matriz no
singular
Ay = I + Eji
En K4 x4 es

A -

Ay se deduce de la matriz identidad al sustituir 0 por 1 en el lugar (y, /).


Se verifica
Ai
A2
/1 O
O 1 o \
A,
0^0_1 .0
I
.0 0 0 A; A, + Ay
I
o o 1 /

O sea, la premultiplicacin de A por A; suma a la fila } la fila i.


Se sabe que las filas de la matriz identidad-.ej, ea , . . e}. . . , e constituyen un
conjunto linealmente independiente. En consecuencia
{ 1 >2 > * > * >
es un conjunto linealmente independiente, o sea
P( Ay) =r t
Luego
A es no singular
3. El producto de la fila i de A por el escalar a ^ O puede obtenerse premultiplicando A
por la matriz no singular
M, (a) = I + (a 1) Ef
EnK4 *4 es
1 0 0 0
0 10 0
M3 () =
0 0 a 0
0 0 0 1
M(a) se obtiene multiplicando por a el elemento de lugar (/,;') de la matriz identidad.
Se verifica

1 0 / A,
M /M
I A2
0 1

_0_0_a_0 A, a A,

0 0
A/
Como p (Mf (a)) = n, es M, (a) no singular.
Anlogamente, se demuestra que toda operacin elemental sobre las columnas de una
matriz A e Knxm puede obtenerse posmultiplicando A por una matriz no singular del tipo
mx m.

Definicin
Las matrices que realizan las operaciones elementales sobre las lneas de una matriz se
llaman elementales.
Como las matrices elementales son no singulares, de acuerdo con 4.13.4., se deduce que el
rango de una matriz no vara frente a las operaciones elementales.

Ejemplo 4-16.
Mediante operaciones elementales determinamos el rango de A, siendo
/1 2 1 -1

A
A= lo 11 2 - 1 2
\2 2 -1 2
Efectuamos, sucesivamente, las operaciones elementales que trasforman las primeras
filas y columnas de A en vectores cannicos:
0 0 A la segunda columna de A se le sum la primera multiplicada
\

1
-1 - 1 por - 2 .
3
1 2 -i A la tercera columna de A se le sum la primera multiplicada
- 2 -3 4/ p o r 1. .
A la cuarta columna se le sum la primera.

1 0 0 A la segunda fila de la matriz anterior se le sum la primera


\
0 -1 -1 3 1 multiplicada por -~1.
0 1 2 A la cuarta fila se le sum la primera multiplicada por -2 .
-1
0 - 2 -3 4/
1 0 0
\
0 1 1 -A Se multiplic la segunda fila de la matriz anterior por -1 .
0 1 2
- 1
0 -2 -3 4/
1 0 0 A la tercera columna se le rest la segunda, o sea, se le sum la
\
0 1 0 segunda multiplicando por - 1.
0 1 A la cuarta columna se le sum el triplo de la segunda.
0 1 1
2/
0 - 2 ~1 - 2 /

1 0 0 A la tercera fila se le rest la segunda.


\
0 1 0 A la cuarta fila se le sum el duplo de la segunda.
0 )
0 0 1 2 /
0 0 - 1 2 /
1 0 0 0 A la cuarta columna se le rest el duplo de la tercera.
0 1 0 0
0 0 1 0
0 0 -1 0

1 0 0 0 A la cuarta fila se le sum la tercera.


0 1 0 0
0 0 1 0
0 0 0 0

Esta matriz tiene tres columnas linealmente independientes, o sea, su rango es 3, y


como es igual al de A, resulta
P (A) = 3

4.15. EQUIVALENCIA DE MATRICES

4.15.1. Concepto

Sean A y B dos matrices pertenecientes a Kflxm. Diremos que B es equivalente a A si y


slo si B puede obtenerse efectuando un nmero finito de operaciones elementales sobre A.
El smbolo B ~ A se lee: B es equivalente a A .
La equivalencia de matrices es reflexiva, simtrica y transitiva, o sea, es una relacin de
equivalencia en KttXm.
La matriz
10 0 0
0 10 0
B=
0 0 10
0 0 0 0
obtenida a partir de A, en el ejemplo 4-16, mediante un nmero finito de operaciones
elementales, es equivalente a A y recibe el nombre de forma cannica de A. La forma
cannica de la matriz nula en Knxm es dicha matriz.

4.15.2. Propiedad

Toda matriz no nula A e Knxm de rango r es equivalente a la matriz


Ir N rx(n-r)
B=
N(m-r)xr
donde B es la forma cannica de A.
La demostracin es sencilla, y el lector puede hacerla basndose en la definicin de
matrices equivalentes y teniendo en cuenta lo realizado en el ejemplo 4-16.
Si A es una matriz no singular en K"x", entonces su forma cannica es la matriz
identidad.
A e K"x" es no singular F.C.(A) = I
El smbolo F.C.(A) se lee: forma cannica de A.

4.15.3. Propiedad

Las siguientes proposiciones son equivalentes:


i ) A~B
) P (A) = p (B)
iii) F.C.(A) = F.C.(B)

1. A ~ B =* p (A) = p (B)
Si A~ B, entonces B puede obtenerse efectuando un nmero finito de operaciones
elementales sobre A, y de acuerdo con lo afirmado en 4.14.2. el rango se conserva. En
consecuencia es p (A) = p (B).

2. p (A) = p (B) => F.C.(A) = F.C.(B)


Es inmediato por la propiedad 4,15.2.

3. F.C.(A) = F.C.(B) =* A ~ B
Por la propiedad 4.15.2. es F.C.(A) ~ A y F.C.(B) ~ B. Como A y B son equivalentes a
una misma matriz, resulta A ~ B.

4.15.4. Propiedad

Si A e K ' ,xm, entonces existen matrices no singulares P e K nXf y Q e K mxm tales que
F.C.(A) = PAQ.
En efecto, la forma cannica de A se obtiene premultiplicando A por un nmero finito de
matrices elementales del tipo x n y posmultiplicndola por un nmero finito de matrices
elementales pertenecientes a Kmxm. Como tales matrices elementales son no singulares, sus
productos P y Q, respectivamente, tambin lo son, ya que las matrices no singulares forman
grupo multiplicativo.

4.15.5. Propiedad

Toda matriz no singular es un producto de matrices elementales.


En efecto, si A e K " x" es no singular, entonces su forma cannica es la identidad, y de
acuerdo con 4.15.4. existen P y Q no singulares (ambas son productos de matrices
elementales) tales que

P AQ = I
En consecuencia
P"1PAQQ"1 = P"1Q~ 1
Luego
A = P"1Q"1
El segundo miembro es un producto de matrices elementales, ya que la inversa de toda
matriz elemental es una matriz elemental o un producto de stas.

4.15.6. Propiedad

Las matrices A y B pertenecientes a Knxm son equivalentes si y slo si existen matrices


no singulares P e K nx" y Q e Km xm tales que B = PAQ.
1. A ~ B =>F.C.(A) = F.C.(B) => 3 K, L, M, R no singulares / KAL = MBR =*
= B = WT1K A L R "1 => B = P A Q donde P = M"1K y Q - L R"1
Hemos aplicado 4.15.3,, 4.15.4., premultplicado por M"1 y posmultiplicado por R"1.

2. Supongamos que A y B son matrices n xm , y que existen P y Q no singulares tales que


B = P A Q. Por 4.15.5., P y Q son productos de matrices elementales, lo que significa que B
se obtiene efectuando un nmero finito de operaciones elementales sobre A. En
consecuencia, A ~ B.

4.16, METODO DE GAUSS JORDAN PARA DETERMINAR EL RANGO

El mtodo que exponemos a continuacin nos permite determinar el rango de una matriz
mediante un nmero finito de operaciones elementales del tipo: multiplicacin de una fila
por un escalar no nulo y adicin de una fila a otra. Sealamos que se opera exclusivamente
sobre las filas de la matriz, y que adems el mtodo se hace extensivo a la determinacin de
la inversa de una matriz no singular y a la resolucin de sistemas lineales.
Esencialmente, mediante las operaciones elementales indicadas, se trata de formar el
mximo nmero posible de vectores cannicos linealmente independientes. Tal nmero es,
precisamente, el rango de la matriz.
Sea A una matriz no nula. Se elige cualquier elemento distinto de cero, al cual se lo llama
pivote. Para fijar ideas, sin prdida de generalidad, supongamos que el pivote es an =a, y sea
la matriz

(a) b c
d ef --------

de la que se han indicado slo algunos elementos.


Dividiendo la primera fila por a * 0, o sea, multiplicndola por el recproco del pivote, se
obtiene

b c
1
a a
d e f ....

En la etapa siguiente, se reducen a cero los restantes elementos que figuran en la columna
del pivote. Entonces, a la segunda fila se le suma la primera multiplicada por - . De este
a
db de
modo, d se trasforma en 0 , e se trasforma en e - , y / se trasforma e n / - .Se obtiene
a a

a
Si 31 8 , en la misma etapa, al sumarle a la tercera fila la primera multiplicada por
a
g- b
se trasforma en 0. Y sifl32 = h , entonces h se trasforma en h --------
a
En las dos etapas descritas se ha obtenido un vector cannico en la columna del pivote.
Observamos en la matriz dada que todo elemento que no figure en la fila, ni en la
columna del pivote, forma con ste una diagonal de un rectngulo . Los otros dos vrtices
determinan lo que llamaremos la contradiagonal . Por ejemplo, asociado al elemento e se
tiene

d
Como el trasformado de e es e - , operaremos as: el trasformado de cada elemento
a
que no figure en la fila y columna del pivote es igual a la diferencia entre dicho elemento y el
producto contradiagonal dividido por el pivote.
En las etapas siguientes se reitera el procedimiento eligiendo un pivote que no figure ni en
las filas ni en las columnas de los pivotes anteriores. De este modo las operaciones
elementales indicadas preservan los vectores cannicos.
l procedimiento se termina cuando no es posible obtener ningn pivote (distinto de
cero) en las condiciones ya sealadas.

Ejemplo 4-17.
Mediante el mtodo de Gauss Jordn, obtener el rango de

El pivote puede ser cualquier elemento no nulo. Si algn elemento es la unidad, se lo


elegir como pivote para evitar clculos.
Procedemos de acuerdo con el siguiente esquema:

ffl 2 - - 1 1 - 1 El trasformado de a23 - 0 es


1- 1- - 0 2 1 .1
0 1 2 -1 0
1
2 2 -1 2

1 2 1 -1 El trasformado de a43 = 3 es
0 -1 -1 3
0 2 -1 _ 3 _ 32)L 2 = i
1
0 - 2- - 3 4

1 0 3 1 El trasformado de a # = 2 es
0 0
0 1 r j 2 - ^ = 0
0 0 1- 2

1 0 0 7
0 0 1 2
0 1 0 -5
0 0 0 0

El procedimiento ha terminado, ya que no es posible elegir un nuevo pivote.


El rango de A es el nmero de vectores cannicos, o sea, 3. El cuarto vector columna
es combinacin lineal de los tres primeros, pues es la suma de los productos de ellos
por 7, - 5 y 2, respectivamente.
Si en alguna etapa intermedia se eligiera como pivote un elemento no nulo que figure
en la la de algn pivote ya seleccionado, la columna que entonces se trasform en un
vector cannico dejara de serlo.
Resumimos la mecnica del procedimiento:
1. Se elige como pivote cualquier elemento no nulo de la matriz dada, y se divide por l
la fila correspondiente.
2. Los restantes elementos de la columna del pivote se trasforman en ceros.
3. El trasformado de todo elemento que no figure en la fila ni en la columna del pivote se
determina siguiendo la regla del rectngulo , es decir, es igual a su diferencia con el
producto contradiagonal dividido por el pivote,
4. Se reitera el mecanismo eligiendo como pivote un elemento no nulo que no pertenezca
ni a las filas ni a las columnas de los pivotes anteriores.
5. El nmero de vectores cannicos linealmente independientes es el rango de la matriz.

4.17. INVERSION DE MATRICES POR GAUSS JORDAN

El mtodo explicado en 4.16. permite determinar la inversa de una matriz no singular. Sea
A e Knxn no singular; a su derecha se escribe la identidad en Knx".

A I

La matriz as indicada es del tipo nx2n, y a ella se le aplica el mtodo de Gauss Jordn
hasta lograr que A se trasforme en la identidad. La identidad que figura en el esquema
anterior queda trasformada en una matriz B e K xn.

A I
I B

La trasformacin de A en la identidad siempre es posible, ya que, siendo A no singular, su


rango es n, y en consecuencia es posible obtener n vectores cannicos linealmente
independientes mediante las operaciones elementales indicadas en 4.16. Si los vectores
cannicos obtenidos no resultan ordenados de modo que constituyan una matriz diagonal, la
identidad se logra mediante una adecuada permutacin de filas de la matriz completa. La
matriz resultante a la derecha es la inversa pedida.
Las operaciones elementales realizadas sobre las filas de A, que la convierten en la
identidad, son las mismas que las efectuadas sobre las filas de I y que la trasforman en B. Si E
es el producto de las matrices elementales correspondientes a las sucesivas operaciones
elementales, entonces se verifica que
E A = 1 ( 1) y E I = B (2)
De (2) resulta E = B, y considerando (1) es
BA = I
Luego
B = A"1
Como en general no se sabe a priori si A es inversible, igualmente el mtodo puede ser
utilizado. En el caso en que A no tenga inversa no ser posible formar la identidad, por ser su
rango menor que n. Es decir, con el mtodo de Gauss Jordn se determina la existencia de la
inversa o no, y en caso afirmativo se la obtiene.

Ejemplo 4-18.
Utilizando el mtodo de Gauss Jordn, obtenemos la inversa de
/1 0 -1
A ( 1 2 - 2
\ 2 1 1
Aplicamos el procedimiento mencionado a la matriz del tipo 3 X 6 que se forma
escribiendo la identidad 3 X 3 a la derecha de A, y convertimos a sta en la identidad

Los pivotes han sido sealados en


cada etapa.
El tras formado de 3 es:
3 (~1X-1)_ 3 _ = L
2 2 2

El trasformado de a2S = es:


2

2
3_
m a t r ic e s

La matriz inversa de A es

1 2
y T
0 3 1
-1
5 5
1 2
~1
5 5

Ejemplo 4-19.
Determinamos la inversa de

ffl -1 1 1 0 0
0 0 1 0 1 0
1 - 2 1 0 0 1

1 -1 1 1 0 0
0 0 (1) 0 1 0
0 3 0 -1 0 1
1 -1 0 1 1 0
0 0 1 0 1 0
0 0 -1 0 1
2 1
1 0 0 -1
3 3
0 0 1 0 1 0
-1 1
0 1 0 0
3 3

Para trasformar A en la identidad, es necesario an permutar las dos ltimas filas de


toda la matriz. Resulta
/ - -1 - I
3 3

3 3
0 0

4.18. INVERSION DE MATRICES POR PARTICION

Consideremos una matriz no singular M e K " . La particionamos en cuatro bloques


segn la descomposicin
n ~ p + q para filas y para columnas

En consecuencia A e K pxp, D eK*9 , B e Kpxq[ y C e K a w .


Supongamos que D sea no singular. Proponemos el mismo esquema de particin para la
inversa de M:

donde X, Y, Z y U son matrices a determinar y del mismo tipo que A, B, C y D,


respectivamente.
La matriz D, que hemos supuesto no es singular, se elegir de modo tal que su inversa
pueda obtenerse con facilidad.
Siendo M-1 la inversa de M, debe verificarse que

O sea
A X + B Z = lp (1) A Y + B U = N (3)
CX + D Z = N (2) C Y + D U = I* (4)
De (2) se deduce
DZ- - CX
Y premultiplicando por D_1
Sustituyendo (5) en (1)
A X - B D"1 C X = \p
Por distributividad
(A - B D' 1 C) X = lp
Luego
X = (A - B D' 1 C)~l (6)
De (4)
D U = Ig C Y
En consecuencia
U = D"1 D"1 C Y (7)
Sustituyendo en (3)
A Y + B D "1 - B D "1 C Y = N
Por distributividad y trasposicin
(A - B D_1 C) Y - B D' 1
Premultiplicando por (A B D-1 C)1 = X, resulta
Y = - X B D"1 ( 8)
Las relaciones (6), (5), (7) y (8) permiten la determinacin de X, Z, U e Y,
respectivamente, en funcin de los datos y de la inversa de D.
Ejemplo 4-20.
Utilizando el mtodo de particiones, invertir la matriz

/1 -1 0 0
1 1 1 0
M~ 2 1 1 0
\l -2 0 1

Particionamos en cuatro bloques del tipo 2 X 2, y consideramos

\0 1I
Resulta

- o -g h ; :
Calculamos

Obtenemos la inversa de sta por Gauss Jordan

1 0
-1 0 0 1

1 0
00
1 -1
1 1

1 0 0 -1
0 1 -1 -1
Con los cuatro bloques obtenidos formamos la matriz inversa

0 -1 1 0
-1 - 1 1 0
1 3 -2 0
- 2 -1 1 1

4.19. CAMBIO DE BASE Y SEMEJANZA DE MATRICES

4.19.1. Matrices de pasaje

En el espacio vectorial (V, + , K , .), de dimensin finita, consideramos las bases


[v]= | v 1(v2,. . .,v } y [v]= { v V v V - . .,V }
Definimos dos endomorfismos:
1 .g : V V tal que g (v;) V/ = 1, 2 , . . n
Expresando cada imagen como combinacin lineal de la base [v], se tiene

v ' = li Pi>vi W
La matriz P de esta trasformacin lineal respecto de la base [v] en cada espacio es
P = (p*/)f
P recibe el nombre de matriz de pasaje de la base [v] a la base [v].
2. h : V - V tal que h (v;) = v;- V/= 1, 2, , . n
Procediendo como en el caso anterior es

v i = i 1 P i j y ' i ( 2)

- (P/) es la matriz de h respecto de la base [vJ en cada espacio, y diremos que es la


matriz de pasaje de la base [V] a la base [v].

4.19.2. Propiedad

Las matrices de pasaje P y P son inversas entre s.


Demostraremos que P P = P P = I.
Teniendo en cuenta ( 1) y (2) escribimos

Vj =feti P kj V'kP li p v=
Como
\j = 0 v, 4 0 v2 + . .. + 1 Vy + . .. + 0 v
resulta que el nico trmino no nulo de la suinatoria anterior se obtiene para i =/, y vale 1.
Luego
n

H1 P i h P kj ^ij

Por definicin de producto de matrices y de matriz identidad resulta


P P =1
Anlogamente se deduce que
P P = I
En consecuencia, ambas matrices de pasaje son inversibles, y cada una es la inversa de la
otra.

4.19.3. Trasformacin de coordenadas

Sea P la matriz de pasaje de la base [v] a la base [vj, y sea x e V.


Demostraremos que
X[V] =PX[v>]
donde X[v] y X[vj son las matrices de las coordenadas de x e V en las bases [v] y [vJ
respectivamente.
En efecto, expresando a x como combinacin lineal de cada base y teniendo en cuenta (1)
de 4.19.1., escribimos

= ? 1 (5 1 > v< = | ( 1 p v a v)v,


Pero
n
x = 2 a f v,
i=l
Por la unicidad de la C.L. es
n
a i y jj PiJ a V = 1 2, . . .,

Por definicin de producto de matrices, de las relaciones anteriores se deduce


Xlvp P X (v.j (3)
Y como P es no singular, premultiplicando por P"1 resulta
X[V. , = F X[v, (4)
(3) y (4) se llaman frmulas de trasformacin de coordenadas.

4.19.4. Matrices de una trasformacin lineal y cambio de bases.

Sea / : V -> W una trasformacin lineal de matriz A e K flx respecto de las bases
[v]= | v b v2,. . ,,v } e n V y [ w ] = { w 1>w1........wm } enW.
Si se efecta un cambio de base en cada espacio, entonces la misma trasformacin lineal/
est caracterizada por una matriz B e Kmxn respecto del nuevo par de bases [vj y [wJ.
Sean P e Knxn y Q e Km xm las matrices de pasaje de [v] a [v] y de [w] a [w].
Demostraremos que las matrices A y B de la trasformacin lineal /respecto de los dos
pares de bases verifican
B = Q' 1 A P
es decir, son equivalentes.
Para ello consideremos el diagrama

V, [v] W, [w]

P Q

V, [v] w ,K ]

Se verifica que
1. X |v] = P X[v>] por 4.19.4. (3)
2 . Y [W] = Q Y [W.) p o r4.19.4. (3)
3. Y[w} = AX[ V] por ser / trasformacin lineal de matriz A respecto de las bases [v] y
[w].
4 Y[wj
K ].
= X[v*l
B Pues / es trasformacin lineal de matriz B respecto de las bases [vj y

De 2., 3. y 1. se deduce
Y[w*J = Q' 1 Ylw] = Q 1 A X(vj = Q' 1 A P X{v,j
De esta relacin y de 4 resulta
B = Q"1 A P
O sea, B ~ A.
Recprocamente, si A y B son matrices equivalentes en Kmxn, y V y W son espacios
vectoriales sobre K, de dimensiones n y m, respectivamente, entonces A y B caracterizan a
una misma trasformacin lin e a l/: V W respecto de dos pares de bases.

4.19.5. Matrices semejantes

Consideremos el caso particular del endomorfismo

/ : V ->V
siendo dim V = n y A la matriz de/respecto de la base [v] = [w] en cada espacio.
Si se efecta un cambio a la nueva base [v] = [w] con matriz de pasaje P = Q, entonces se
tiene
B = P"1 A P
donde B es la matriz de/respecto de la nueva base [v].
Las matrices A y B de K x", que representan el mismo endomorfismo respecto de las
bases [v] y [w], se llaman semejantes.
Diremos que
A es semejante a B 3 P no singular / B = PM A P
La semejanza de matrices es una relacin de equivalencia.

Ejemplo 4-21.
Sea la trasformacin lineal / : R3 >R3 definida por
/ (a , b , c} = (a + b , a - b + c , a - c)
i ) Determinamos la matriz A de f, respecto de la base cannica [v] en cada espacio
/ ( 1, 0, 0) = ( 1, 1, 1) = 1 e, + 1 e2 + 1 e3

/ ( 0, 1, 0) = ( 1, 1, 0) = 1 ei - 1 e2 + 0 e 3

/ ( 0 , 0 , 1) = (0, l , - l ) = 0 ei + l e 4 - l e 3
Entonces

ii ) Obtenemos la matriz P de pasaje de la base cannica [v] a la base


[V] = f ( i , 1 , 1 ) , ( 1 , 1 , 0 ) , ( 1 , 0 , 0 ) )
( 1, 1, 1)=1 e, + 1 e , + 1 e3
( 1, 1, 0)= 1 ei + 1 ea + Oe3

(1, 0 ,0 ) = 1 e t + 0 e2 4* 0 e 3

Luego
/1 1 l\
P= 1 1 o
\l 0 0/

iii) Utilizando los resultados anteriores calculamos la matriz B de /, respecto de la base


[v] en cada espacio.
Se sabe que
B = P1 A P
Empleando Gauss Jordn resulta
/0 0 1 \
P '1 = 0 1 -1
\ 1 -1 0/
Luego

/o 0 1 \ /1 1 o \ /1 1 1 \
B= 0 1 - 1 1 - 1 1 1 1 0 =
\ l -1 0/ \ 1 0 -1 / \ l 0 0 /

El lector puede verificar este resultado obteniendo directamente B, como en i).


TRABAJO PRACTICO IV

4-22. Calcular la matriz A 2 B, sabiendo que

2 - 1 0
y b , i
4

0 -1
4-23. Determinar la matriz X = ( X ^ ) sabiendo que X + ( \ ==I
\.z u I l 2 -2 I
4-24. Sean las matrices

1 1\ / 1 1 -3
1 B= f 0 0
0
1 2/ l 2 2 -3

Obtener: A2 , A B C y B^A*.
4-25. Desarrollar
i ) (A + I) (A - I)
ii) (A + B) (A - B)
Sabiendo que A, I y B son matrices cuadradas n x n.
4-26. Siendo

PQ q2

rP 1 -P 4

Calcular A2.
4-28. Dada la matriz

1 1
A=
1 0
calcular A2, A3, A4 , etctera, y vincular los elementos resultantes con los trminos de
la sucesin de Fibonacci: 1, 1, 2 ,3 , 5, 8, 13, . . . donde, a partir del tercero, cada uno
es igual a la suma de los dos anteriores.
4-29. Demostrar que A(B C) = (A B) C, sabiendo que los productos indicados existen.
4-30. Demostrar por induccin completa que

4-31. Sabiendo que

demostrar

4-32. Resolver la ecuacin A2 + X2 = I, donde A, X, I 'son matrices 2 X 2 y

4-33. Siendo B e K "xn, C e Knxn, C2 = N y B C = C B, demostrar


A = B + C ^ A fe+1 = B* ( B + (fc + 1) C )

4-34. Sabiendo que en KnXM se verifica XA = I y A Y = I, demostrar que X = Y.


4-35. Determinar las matrices X e R2x2 tales que X2 - N.
4-36. Demostrar que si A y B son matrices diagonales en K"x", entonces AB es diagonal y
AB = BA.
A A f =N=> A = N

4-38. Demostrar que si A y B son matrices idempotentes y permutables en K"x , entonces


A B es idempotente.
4-39, Demostrar que si una matriz es simtrica, idempotente y con algn elemento nulo en la
diagonal, entonces la fila y la columna de dicho elemento son el vector nulo.
440. Demostrar que si A es idempotente y B es ortogonal, entonces B* A B es idempotente.
4-41. Demostrar
A2 = A a A + B = I=>B2 = B a AB = BA = N

B e K " x".
4-45. Sean A y B dos matrices simtricas en K "X1. Demostrar
A B es simtrica ^ A y B son permutables

4-46. Demostrar que la matriz A e Knx" es involutiva si y slo si (I - A) (I + A) = N.


4-47. Demostrar que A y B son permutables si y slo si A al y B - al son permutables,
cualquiera que sea el escalar a,
4-48. En K3 x3 se consideran una matriz cualquiera B y A tal que =1 Vz V/
Analizar las filas de AB y las columnas de BA.
4-49. Demostrar que si A y B son no singulares y permutables, entonces sus inversas son
permutables y sus traspuestas tambin lo son.
4-50. Demostrar que si A es una matriz diagonal y todos los elementos de la diagonal son no
nulos, entonces A es no singular y su inversa es la matriz diagonal formada por los
inversos de tales elementos no nulos en la diagonal.
4-51. Demostrar que si A es no singular e idempotente, entonces A = I.
4-52. Verificar que las siguientes matrices forman grupo multiplicativo.

( ) - ( M I )V,
4-53. Mediante una particin adecuada efectuar el producto

4-54. Determinar una base del espacio fila de

4-55. Demostrar que si A es no singular y B A = N, entonces B = N.


4-56. Siendo A e K "xn no singular y X e Y matrices en K"x 1 tales que A X = Y, entonces e
X = A1 Y.
4-57. Demostrar que si A y B son matrices de K "x tales que AB = N, entonces A = N <
B = N o A y B son singulares.
4-58. Determinarlos rangos de

4-59. Obtener, si existen, las inversas de

4-60. Sea

Verificar que p (A) = p (A A*)


4-61. Demostrar que el rango de la suma de dos matrices es menor o igual que la suma de su
rangos.
4-62. Demostrar las siguientes propiedades relativas a la traza de matrices en Kx :
i ) tr (AB) = tr (BA).
ii) tr (ABC) = tr (CAB) = tr (BCA), o sea, la traza no vara frente a permutaci
cclicas.
iii) Si C es ortogonal, entonces tr (CAC) = tr A.
4-63. Sea A una matriz idempotente en R "x", y sea X un vector no nulo de R" que verifica
AX *=aX, con a e R. Demostrar que a = 0 o a = 1.
444. Si A e Rx" es involutiva y X e R " es no nulo y verifica AX = aX, entonces a - 1 o
1.
4-65. Sea X e R "x 1. Se define el escalar X (X raya) mediante
1 n
X = Z Xt
n /=1
Determinar las matrices A e R " x" que verifican
i ) X( A X = X2
ii)Xf AX = X 2

iii)X* A X = J (Xi-X)a

4-66. Sea T e estrictamente triangular superior. Demostrar que


(I T )~ = I + T + T 2 + . . . + T " '1

4-67, Sean

0 0 1
\
0 0 0 i \
A= yy B =
1 0 0
0 /
0 1 0 0/

donde C y D son matrices 2 X 4 . Verificar que A B - ^ j

468. Sea / u n a trasformacin lineal de V en V caracterizada por la matriz A.


Sabiendo que A verifica la relacin A3 + A2 - A + I = N, demostrar que / es no
singular.
4-69, Determinar la inversa de
1 -p 0 0
0 1 -p 0
A=
0 0 1 -p
0 0 0 1

4-70. Sean A = ( ) y B e R2 x2. Demostrar: A y B son permutables o B = a A + jS I


0 3,
4-71. Las matrices A y B de Kmxm son tales que A y (A B - B A) son permutables.
Demostrar que
A" B - B A = n A " '1 (A B - B A) \fn eN

4-72. Sea / : R3 - R2 una trasformacin lineal definida por


f ( a , b , c) ~ (a + b - c , a - b)

i ) Hallar la matriz de / respecto de las bases cannicas en R3 y en R2.


ii ) Obtener las matrices de pasaje de las bases anteriores a las bases
[v] = | ( 0, 1, 1) , ( 1, - 1, - 2) , ( 1, - 1, - 1))

[w] = | ( l , 3 ) , ( 0 , - 2) |

iii) Calcular la matriz B de/ , respecto del nuevo par de bases.


Captulo 5

DETERMINANTES

5.1, INTRODUCCION

En esta seccin se define axiomticamente la funcin determinante de orden n y se


demuestran las propiedades que se derivan de tales axiomas. Se encara despus el problema
de la existencia del determinante y se llega al desarrollo por los elementos de una fila. A
continuacin, y sobre la base del concepto de inversiones de una permutacin, se da el
desarrollo del determinante en funcin de los elementos de la matriz, y se demuestra la
igualdad de los determinantes de dos matrices cuadradas y traspuestas. Se encara el
desarrollo de los determinantes por los elementos de una lnea cualquiera, y se demuestra el
teorema relativo al determinante del producto de dos matrices. Despus de exponer el
concepto de matriz adjunta de una matriz cuadrada, se da un mtodo para invertir matrices
no singulares.

5.2. DETERMINANTES

En lo que sigue, supondremos que K es tal que 1 + 1 ^ 0 , y si A e K XM, escribiremos


A = (A! 2 . . . A), donde A- con 1 denota la columna de lugar i de la matriz
cuadrada.

Definicin
Determinante de orden n es toda funcin
D : Knxn - K
que verifica
1. D( A, . . . A j + A] . . . A n) = D ( A 1 . . . Aj . . . A) + D ( A X. . . Aj *. .. A)
cualquiera que s e a / = 1, 2 , . . . , n.

2. D (A, .. . a A ; .. . An) = a D (At . . . A,. . . An)


para todo / = 1, 2, . . . , .
3. A/ = A/+1 =>D (Ai .. . Aj Aj+y .. . A) - O
cualquiera que sea / = 1, 2 , . . n - 1.

4. D (I) = .

Haremos algunas aclaraciones acerca de la notacin usada y de los axiomas propuestos en


la definicin. La funcin D asigna a cada matriz nx n un escalar llamado determinante de la
matriz. As, el smbolo D (A) se lee determinante de A , y es un elemento de K.
Los axiomas 1. y 2. caracterizan a D como una funcin lineal respecto de cada columna
de la matriz.
El axioma 3. establece que si dos columnas consecutivas de una matriz son idnticas,
entonces su determinante es nulo.
El axioma 4. expresa que el determinante de la identidad vale 1.
Si

#11 #12 #i
#21 a 22 #2 n
A=

escribiremos
<*11 #12 * #1 n
#21 a22 a2n
D (A) =

#n 1 #2 nn

Ejemplo 5-1.
La funcin D : K2*2 ->K definida por
a b
D (A) = = ad - be
c d
es un determinante.
En efecto:

a b + b
1. = a (d + d ) - ( b + b ) c = ( a d ' - b c) + ( a d - b c) =
c d' + d
a Z> a b
+
c d' c d
aa b a b
2. a a d - b a c ~ a ( a d - b c ) = a.
ac d c d
r

C C

4. D ( l ) = 1 = 1.1 - 0 . 0 = 1
0 1

OS en Anlogamente lo es la funcin D : K l x 1 K definida por


de la D(A)=lal = a

imna
5.3. PROPIEDADES DE LA FUNCION DETERMINANTE
ticas,

5.3.1. Teorema

Si se permutan dos columnas de una matriz, entonces los correspondientes determinantes


son opuestos.
Razonamos inductivamente:
i ) Las columnas que se permutan son consecutivas.
Sea A = (Ai . . . Ay Ay+ x . . . Art)
Por 3. es
D (Ai . . . Ay 4 Ay+i Ay+i 4* Ay . .. An) - 0
Aplicando 2. se tiene
D (A , . . . Ay Ay+1 . . . A ) + D iA +- ^ A r A r^rA O -4-

+ DXA1^ A j r r - 7 ^ T 7 ^ r + D ( A t . . . A m Ay . .. A ) = 0
Los dos trminos centrales son nulos por 3.
Luego
D (Ai . . . Ay Ay+i . . . An) D (Al . . . Ay+j Ay. .. Art)

ii) Suponemos vlida la propiedad para h - / = k y la demostramos para h - j k 4- 1


D (A i . . . Ay Aj+1 . Ah . . . A n)

= - D (A! . . . Ay+i Ay. .. A h . . . An) Por i)

- D (Ai . . . Ay+i A h . . . A j . . . A) Por hiptesis

= D (Aj . . . Aj, Ay+j . . . Ay . . . A) Por i)

5.3.2. Teorema

El determinante de toda matriz que tenga dos columnas idnticas es nulo.


/#/ A Aj = Ay =>D (Aj A2 -. A,. . . Ay . .. A) = 0
En efecto, permutando tales columnas idnticas por 5.3.1. es
D (A t .. . A , . . . A; . . . A n) = - D (A i . .. A , . .. A, . . . A)
O sea
D (A) = D (A) pues A, = A
Luego
1 D ( A ) + 1 D(A ) = 0
En consecuencia
(1 + 1) D(A) = 0
Y como 1 + 1 ^ 0 , resulta
D (A) = 0

5.3.3. Teorema

Si una columna de una matriz es el vector nulo, entonces su determinante es nulo.


Sean A e Knx y A = 0. Entonces
D (A) = D (Aj 2 . .. 0 .. . A) = D (Ai A2 . . . OAj . . . An) =
~ 0 D(A i A* . . . Aj . . . An) = 0
Hemos aplicado 1.3.1. y el axioma 2. de la funcin determinante.

5.3.4. Teorema

El determinante de una matriz no vara si a una columna se le suma una combinacin


lineal de otras.
D (Aj . . . A,. . . A* . . . An) = D (At . . . Ay. . . Afe + a A. . . An)
Aplicando los axiomas 1. y 2., y teniendo en cuenta 5.3.2., resulta
D (Ai . . . Aj . .. Afe + a A j . . . A n) =

= D(A, . . . Aj .. . Afe . .. A)+ aD(Ai .. . Aj. . . Aj. .. A) =


D (At . . . Aj .. . Afe . .. A) + a .0=

= D (Ai . . . Aj .. . Afe . . . A)

Ejemplo 5-2.
Sea

010 J e R 3x3

1 1/
Calculamos D (A) de la siguiente manera:
i ) A la tercera columna le sumamos la primera multiplicada por 1

1 0 1 1 0 0
D (A) = -1 1 0 = -1 1 1
2 1 -1 2 1 -3

ii ) A la primera columna le sumamos la segunda.

1 0 0
D (A ) = 0 1 1
3 1 -3

iii) A la tercera columna le sumamos la segunda multiplicada por 1

1 0 0
D (A) = 0 1 0
3 1 -4

iv) De la tercera columna extraemos el factor 4.


1 0 0
D (A) = (4) 0 1 0
3 1 1

v ) A la primera columna le restamos el triplo de la tercera.


1 0 0
D (A) = ( - 4 ) 0 1 0
0 1 1

vi) A la segunda columna le restamos la tercera.


1 0 0
D (A )= (-4 )' 0 1 0
0 0 1
Por 4. resulta
D (A) = ( 4) . 1 = 4

Ejemplo 5-3.

Si a K y A e Kxn, entonces
D (a A ) ~ a " D (A )
En efecto:
D (a A )= D [a (A t A2 . . . A)] =

= D ( a A i a A 2 , . . a A n) =

= a" D (A)

Ejemplo 5-4.
Si A j , A2, . . A n son vectores columnas de K" tales que D (Ai A2 . . . A) #= 0, y
B e K xl es combinacin lineal de aqullos, o sea
n
B = .*, A, con x e K , / = 1, 2 , . . n,

entonces
D (Aj .. . B .. . A)
Xj =
D(A)
donde B es la columna de lugar /
En efecto:

D (A i .. . B .. , Art) = D( Ai . . . 2 x t A .. . A) =
=1
= x x D (Ai . . . Ai . . . A) + x 2 D (Ai A2 .. . A2 . .. A) +
+ Xj D (A| . . . Ay . . . A) + . .. + * D(Ai .. . An . .. A) =
~ x D (A)

Luego
_ D( At . . . B . . . A )
D(A)

5.3.5. Teorema

Si A i , A2 , . . A son l i neal ment e dependientes en K", entonces es


D( A| A2 . . . A ) = 0.
Siendo por hiptesis | At , A2, .. A j un conjunto linealmente dependiente, algn
vector, digamos Ay, es combinacin lineal de los restantes, o sea

A.- - 2 <*/ A,
1 t*i
En consecuencia resulta
El teorema contrarrecproco expresa
D (A) 0 =*A i, A2 , . . A son L.I.
Por consiguiente
D (A) # 0 => { A i, A2 , . . . , A } es una base de K

5.4. EXISTENCIA DE D

Definiremos ios determinantes por induccin sobre . Sea A e K x". Para cada
(/, /) e X I consideramos la matriz A (/1 f) del tipo ( n - 1) X (n - 1), que se deduce de
A al suprimir la fila i y la columna

an ... a ln \

ann I

Denotaremos con A0 al producto de por el determinante de A (i Iy), o sea


Atf = ( - 1 ) W D {A (/ i/)}
El determinante Ay recibe el nombre de cofactor del elemento (/, /) de la matriz A.

/-1 2 3\
Por ejemplo, si A = i 1 0 2 1
V 2 1 - 3 /

entonces los cofactores de los nueve elementos de A, son


0 -2 1 -2
'X
7

= 2 , A 12 = (l )3 = - 1, etctera.
II

1 -3 2 -3
Probaremos la existencia de D procediendo inductivamente.
i ) Sean n = l y A = ( a ) e K l x l . Definiendo
D : Klxl K mediante
D (A) = a
se satisfacen los axiomas propuestos en 5.2.
ii) Supongamos definido D : K(n 1)x*n 1* K.
Esto significa que se satisfacen los axiomas 1 2 . , 3. y 4.
Daremos ahora una expresin para la funcin determinante de orden n a expensas del
determinante de orden n - 1. Para ello definimos, para cada fila i = 1, 2, . . n,
D : Knx ->K
mediante la asignacin

D (A ) = / a i, A i, (1)

donde Aw = ( - l ) w D ( A ( i \ ) ) .
O sea
D (A) ai Aj -f q2 A|2 "i. . . 4* Ajn V / 6 1 *
Probaremos que la definicin ( 1) satisface los axiomas nombrados.
1. D (Ai A2 . . . A \ + Afe . . . An) =
n n
~ Ay ~ &k A,^ + 2 ay A,/

= (tf^ + a fe) A,-fe + 2 ay Ay =

= D (A, Aj . . . A \ . . . A) + D (A, A , . . . Aft . . . A)

Despus de distribuir en el primer trmino y considerando que cada determinante de


or4en (n - 1), para j ^ k , es la suma de dos determinantes cuyas columnas de lugar k son
A* y A*.
n n
2. D (Ai j . . . o; Afc . .. A) = 2 tfy- Ay o Aj& + 2 Ay.
JX J r f

En cada determinante Ay, con figura en la columna de lugar k el factor a, que


puede extraerse en virtud de la hiptesis inductiva, y resulta
D (Ai A2 .. . ct Aft .. . A) = a D (Ai A-2 . . . Aft . . . An)

3. Aft = A* + 1 = D (Ai . . . Afe Aj, + j . . . An) =


n
= y l ' j a ti A ij ~ a i k A te + | , H 1 A |; h i =

= ( - ! ) " ' D (A (f I* )) + ( - l ) i" " 1 a, ,k + i D ( a ( / I * + 1)) =


= ( - i y * * , D ( A < l * ) ) + ( - 1 ) ' ^ ' a.h D ( A ( / 1&) ) = 0

4. D(I) = (-1)** w D ( l ( / l / ) ) =

= ( - i r s D (1 ( I /)) = 1

Entonces, V e N , V/ e I, la funcin
D : Knxn -+ K
definida por
n
D ( ) = . |s , 'A i;

es un determinante de orden n.
La frmula anterior corresponde al desarrollo del determinante por la i-sima fila y expresa
que todo determinante es la suma de los productos de los elementos de la fila i por sus
correspondientes cofactores.

5.5. UNICIDAD DEL DETERMINANTE

Expondremos primero algunos conceptos relativos a permutaciones e inversiones de una


permutacin, sin entrar en detalles de demostraciones. Despus hallaremos una expresin del
determinante en trminos de los elementos de la matriz, de modo tal que se satisfagan los
cuatro axiomas de la definicin.

5.5.1. Permutaciones

Sea el intervalo natural inicial 1 = { 1 , 2 , . . . , ) .

Definicin
Permutaciones de In son todas las funciones biyectivas de rt en s mismo.
Si o : I l n es una permutacin, entonces o queda caracterizada por el conjunto
ordenado de las imgenes
o ~ ( o ( l ) <7(2) . . . a ())
Como o es biyectiva, existe la permutacin inversa de a, a"1 : I I definida por

a"1 (/')= / si o (j)~ i


Como la composicin de funciones biyectivas de I en In es tambin una funcin
biyectiva, resulta que la composicin de dos permutaciones de I es una permutacin de In.
Permutacin idntica es la funcin identidad en In.

5.5.2. Trasposiciones
Sea j e \ n - r Trasposicin /-sima de la permutacin o es la permutacin
Ja :1 1
definida por
0 ^ ( 2 1 3 4 5)
entonces es
2ff= (2 3 1 4 5)
Toda trasposicin de una permutacin intercambia dos imgenes consecutivas y deja fijas
a las restantes.
Se verifica que la permutacin inversa de una trasposicin es una trasposicin. Por
ejemplo, la permutacin inversa de la trasposicin
2a = (2 3 1 4 5)
es la trasposicin
2'* = (3 1 2 4 5)
Se demuestra que si O es una permutacin de IMy n > 1, entonces existe un nmero finito
de trasposiciones cuya composicin es la identidad.
Por ejemplo, si
ff = (2 3 1 4 5)
entonces
2CT= (2 1 3 4 5)
y
l a CT= (1 0 2 )a = (1 2 3 4 5) = I

5.5.3. Signo de una permutacin

Sea a una permutacin de n . El smbolo e (a ) denota el mnimo nmero de


trasposiciones que trasforman a a en la identidad. Convenimos en que e (I) = 0.
Diremos que a es par si e (a) es par. Si e (o) es impar, entonces o es impar.
A cada permutacin o de I se le puede asignar el signo + si a es par, y el signo menos si
es impar. Tal signo queda caracterizado por ( - l) eo)
Se verifica que dos permutaciones inversas tienen la misma paridad. O sea

( - l ) e <> = ( - i ) e ( a 1)

5.5.4. Teorema
Los determinantes estn unvocamente determinados por los axiomas 1., 2., 3. y 4. El
determinante satisface la expresin
D (A) = 2 ( - l )6 0O(i ),i a(2>,2 - 0<7(m).m

donde la suma se realiza sobre todas las permutaciones de I.


Consideremos A = (Aj A2 . . . A n) e K " x". Si E t , E2, . . E son los vectores columnas
de la base cannica de K", entonces

A> =Ja E<


n
= .2 a2 Ef
1=1

A an E,
=i
O sea

u n M
D (A) = D (Ai 2 . . . A) - D (.2 an , .2 ai2 E , . . . .2 ain E()

Mediante 1. podemos expresarlo como una suma de trminos del tipo

D(cr(l),l Ea ( i) a <2),2 E0(2 ). - tf<7(n),n Ea(n))

donde o( 1), o(2),. . o(rt) denota una eleccin de n enteros entre 1 y n.


Por 2. se tienen trminos de la forma

(1), 1 a(2),2 * ao{n)tn D ( E a(i) (*(2) ECT(rt))

Si algn o asigna el mismo entero a valores distintos i y /, el determinante es nulo en


virtud de 5.3.2. Esto significa que debemos considerar slo las permutaciones de I.
Luego
D (A) 2 )(1 &a *^a{n),n ^ (E(j( 1) E ) E<7(n))

Los vectores cannicos Ea(1), Eff(2 E0(j constituyen en cada trmino una
permutacin de E j, E2 , . . E. Si e (a ) denota el nmero mnimo de trasposiciones
necesarias para obtener la permutacin identidad es
D (E (1) E(2). . . Eff(,)- = ( - l) * > D (E , E2 . . . E)
donde (l)eo> es el signo de la permutacin.
Por 4. resulta
D ( E , E(2 >. . . Ec(n)) = ( - 1 ) ' D (1) = ( - l ) e>
Por consiguiente es
(A ) 2 (-1 ) ( ^ a a (i &a ( 2),2 a a ( n ) , n

Este desarrollo del determinante no es til para el clculo, pero s lo es desde el punto de
vista terico.
DETERMINANTES

5.6. DETERMINANTE DE LA TRASPUESTA

Demostraremos que dos matrices traspuestas en Knx" tienen igual determinante.


O sea, si A e Knx", entonces D (A) = D (A*).
Sabemos que
D (A) = X (- !) " > aa{ 1) ,2 aa(n),w

Sea una permutacin de In. Si a (f) = k, entonces <fl (k)= /.


Luego

(fe)
En todo producto del tipo
a { i ) , i ao{ 2 ) , 2

cada entero k e l n figura una sola vez entre los enteros o(i). Por consiguiente, tal producto
puede escribirse as:

,tr1( l ) (2) a n,a~l (n)


y la suma es

2 (l )e(t7 ) ^ . o "1(2) n.a1(n)

ya que

En esta suma, cada trmino est asociado a una permutacin de I, digamos a, y cuando o
recorre todas las permutaciones de I, lo mismo ocurre respecto de <fl , ya que cada
permutacin caracteriza unvocamente a su inversa.
Por consiguiente, la suma es igual a
2(-l)CT01,ff(l)tf2,cr(2)>an,o(n) =D(Af)
Ejemplo 5-5.
Calculamos, segn 5.5.4., el determinante de C = (A B)* siendo

Efectuamos primero

AB=
- h
\ 0
" 2) / U o : D =(-n
\-4
i)
0 -2 /
r
167

Entonces
3 -3 -4
C = ( AB) f = | - 2 2 0
5 -5 -2
Para obtener los seis trminos del desarrollo 5.5.4. podemos aplicar la conocida regla
de Sarros, repitiendo debajo del determinante las dos primeras filas de la matriz, y
efectuando los productos indicados

D(C)=- = 3 . 2 . ( - 2) + ( - 2 ) . ( - 5 ) . (4) + 5 . ( - 3 ) . 0 -
- 5 . 2 . ( - 4 ) - 3 . ( - 5 ) . 0 - ( - 2 ) . ( - 3 ) . (-2 )
= - 1 2 - 4 0 + 4 0 + 12 = 0

En el caso de un determinante de orden 4, esta regla no es aplicable, y la obtencin de


los 24 trminos del desarrollo es muy penosa. En todos los casos de clculo es
preferible el desarrollo del determinante por los elementos de una fila o columna,
como se indica en 5.3.5.
En este sentido, primero extraemos el factor 2 de la segunda fila, y despus sumamos a
la segunda columna la primera:

3 -3 4 3 0 -4
D (C) = 2 -1 1 0 =2 -1 0 0 = 0 por tener una columna de ceros.
5 -5 -2 5 0 -2

El lector puede verificar que


D (C) = D (A B)

Ejemplo 5-6.
Calculamos el siguiente determinante:

D (A) =

A la primera fila le sumamos las dos ltimas y extraemos el factor 9


9 9 9 1 1 1
D(A) = 3 5 1 =9 3 5 1
5 1 3 5 1 3
A la segunda y tercera columnas les restamos la primera
, 1 0 0
2 2
-4 -2
Desarrollamos por la primera fila, segn 5.3.5.
2 -2
D (A) = 9 . 1 . = 9 ( - 4 - 8) = -1 0 8
-4 -2
Teniendo en cuenta que los determinantes de dos matrices traspuestas son iguales,
axiomas y propiedades relativos a las columnas son vlidos para las filas.
En consecuencia, el desarrollo de un determinante por los elementos de una fila,
propuesto en 5.3.5., se hace extensivo a los elementos de una columna. Podemos decir,
entonces, que todo determinante es igual a la suma de los productos de los elementos de una
lnea (fila o columna) por sus respectivos cofactores.

Ejemplo 5-7.
Desarrollamos por los elementos de la primera columna.
1 1 1 1
D (A) =
b2 d2
b3 d3
Antes de efectuar el desarrollo pedido reduciremos a 0 los tres ltimos elementos de la
primera columna, para lo cual restaremos a cada fila la anterior multiplicada pora.

1 1 1 1
0 b -a c -a d -a
D(A) =
0 b2 -ab c2 ac d 2-a d
0 b * -a b 2 c3-a c 2 d 3 - ad2
Desarrollando por la primera columna y factoreando
b -a c-a d -a
D (A) = b (b-a) c(c-a) d(d-a)
b2( b a ) c2(c -a ) d2 (d-a)
Extrayendo factores en cada columna
1 1 1
D (A) = {b - a ) {c-a) (d -a ) b c d
b2 c2 d2
El determinante de orden 3 que resulta es del mismo tipo que el primero. Ahora
restamos a cada fila la anterior por b
1 1 1
D (A) = (b-a) (c-a ) (d -a ) 0 c-b d -b
0 c2- b c d 2-b d
Desarrollando por la primera columna y extrayendo factores se obtiene

D (A) = (b -a ) (c-a ) (d a) (c -b ) (d -b ) 1 1
D (A) = (b - ) (c - ) (id - d) (c - b) (d b )(d - c)
El determinante propuesto recibe el nombre de determinante de Vandermonde, y
considerando la fila de elementos a, b, c y d, su desarrollo es igual al producto de los
binomios que se obtienen restando cada elemento de la misma de todos los que le
siguen.

5.7. DETERMINANTE DEL PRODUCTO DE DOS MATRICES

Demostraremos que si A y B son matrices n , entonces se verifica que


D (A B) = D (A) D (B)

0 sea, el determinante del producto de dos matrices es igual al producto de sus


determinantes.
Considerando la matriz A particionada en vectores columnas, se tiene

b 11 >12 b 1
21 22 < b2n
C ~ AB = (Ai Aa . . . A)

&nl b n2 b nn

- ( | i bn AJ .2 bj2 Aj . . . .2 bJn Aj)

Luego

D (A B) = D ( 2 6 ; , A, , 2 bn A , .. . .S b Aj) =

= ^ D (>o(i ),i Aff(i ) ba(n )n Aa^) ) =

^ a(l ),1 tr(2),2 o(n),n D ( A a ( 1 ) Aa(2) ' Aff(rl) ) :

2 ( b a( \ a(2),2 a(n), ^ (A! A2 . . . An)

= D (A) 2 (l ) e(ff) ba(\ )ti 0(2 ),2 a(),n

= D (A) D (B)
5.8.1. Definicin

Adjunta de una matriz cuadrada es la traspuesta de la matriz que resulta de sustituir


cada elemento por su cofactor.
Si
<*11 fl12 01n
a-i | a-zi .. . a^n
A=

&n 1 an1 nn,

entonces la matriz adjunta de A se denota mediante el smbolo Adj A, y es

Au A21 . .. Ai
Aja A22 An2
Adj A =

Por ejemplo, la matriz adjunta de


- 1 0 2
A=| 2 1 3
1 - 2 -3
es
3 9 -5 Y / 3 - 4 - 2
Adj A -4 1 -2 ) = 9 1 7
2 7 -1 / 15 - 2 - 1
5.8.2. Propiedad

La suma de los productos de los elementos de una fila de una matriz cuadrada por los
cofactores de los elementos correspondientes de otra fila es cero.
Sea

an i2 .. . a ln

A=

f c l a h2 &hn

\ <*n 1 &n &nn


Sumando a la fila h la fila i>el determ inante de esta m atriz no vara, es decir
u 0j2 . . din

il 2
D(A) =

ah l+ Q i\ h 2 + i2 #hn+ai

ni n2
Desarrollando el segundo m iem bro p or los elem entos de la fila h, se tiene

D (A) = .2 (fc; + ,v) A hJ

Entonces

D (A) = ^2 ah A hj 4-.2 ai} A hj

La primera sumatoria es D (A), y en consecuencia

D (A) = D (A) + aj

Luego
rt
)~1 i/ Ai; 0

Esta propiedad tambin es vlida para columnas. A continuacin demostraremos que el


producto de toda matriz cuadrada a izquierda y a derecha por su adjunta es igual al
determinante de dicha matriz por la identidad.

5.8.3. Teorema

Cualquiera que sea A e K " xn se verifica que


A . Adj A = Adj A . A = D (A) . I
En efecto, aplicando la definicin de adjunta de una matriz cuadrada, el producto de
matrices, 5.4. y 5.8.2. se tiene
11 12 ln ^ | a u A^i Anl
21 22 2 n A12 A22 . A2
A Adj A =

! >11 n2 ann , Ai,, A2tt * A,m (


I ti n n \
a U A-ij ^ a ij A 2; ... ^ i/ A ;
n n n
* aV A i/ ^ a 2j A 2/ ... ^ a 2y A y

Ai; .^.^ny A2;- y?! a n/ Anj


\ ;= i 7-1

D(A) O ... O
O D (A ) . . . O

( O O ... D(A)

1 o ... o
o 1 ... o
= D(A) = D (A) . I

0 O ... 1
En forma anloga se prueba que
Adj A . A = D (A) I

5.9. INVERSION DE MATRICES NO SINGULARES

Demostraremos que una matriz cuadrada es inversible si y slo si su determinante es


distinto de cero.
Sea A Knxn.
1. Supongamos que A es inversible. Entonces existe B e KMxn tal que
A B= BA= I
Luego
D (A B) = D (B A) = D (1)
Por determinante del producto y de la identidad es
D (A) D (B) = D (B) D (A) = 1
Resulta D (A) = 0, pues en caso contrario su producto por D (B) sera 0, y no 1.
2. Sea A e KnXM tal que D (A) # 0. Demostraremos que A es inversible.
Por 5.8.3. sabemos que el producto de toda matriz cuadrada por su adjunta es igual al
determinante de dicha matriz por la identidad, o sea
A . Adj A = Adj A . A = D (A) .1
Por hiptesis, el escalar D (A) es distinto de cero, y dividiendo por l resulta

a AdJ A - Ad A a i
'D(A) D (A)
Entonces, por definicin, existe A1 y es
A- i _ A d j A
D (A)
Se obtiene de este modo otro mtodo efectivo para el clculo de la inversa de una matriz
no singular.

Ejemplo 5-8.
Obtenemos la inversa de la matriz del ejemplo 5-6.
1 3 5
A=

Como D (A) = 108, existe A-1.


Primero obtenemos la adjunta de A.
14 - 4 - 2 2 - 4 -2 2
/ 14
Adj A = - 4 22 14 = -22 14
1 ~4
-22 14 - 4 / \ -22 14 - 4
Luego
1 / 14 - 4 - 2 2
A"1 = - -22 14
108 \ 22 14 - 4
O sea

2 11
54 54 54
2_ 11 7
A' 1 =
54 54 " 54
11 7 2
~54 54 54

Ejemplo 5*9.
Demostramos que los determinantes de dos matrices inversas son escalares recprocos.
Sea A e Knx" no singular, es decir, tal que existe A"1.
Entonces se tiene
D (A A '1) = D (I)
Por determinante del producto y de la identidad es
D (A) D (A-1) = 1
O sea
D(A"! ) - [ D (A )rf

Ejemplo 5-10.
Demostramos que dos matrices semejantes tienen determinantes iguales.
Si\i A e K ',x ,,.Si B e K " xn es semejante a A, entonces existe P no singular tal que

B =P' 1 AP
Entonces
D (B) = D (P~*) D (A) D (P)
Como K es conmutativo
D (B ) = D (P"1)D (P )D (A )
Por determinante del producto
D (B ) = D (P 1 P )D (A )
O sea
D (B) = D (I) D (A)
Y resulta
D (B) = D (A)

5.10. REGLA DE CfflO


Deduciremos un mtodo conocido bajo el nombre de regla de Chio, para reducir un
determinante de orden n a otro de orden 1, a los efectos de facilitar el clculo del mismo.
El procedimiento puede reiterarse hasta lograr un determinante de orden 2 o 1. El
mecanismo es similar al que proporciona el mtodo de Gauss Jordn para la determinacin
del rango de una matriz.
Sea
ii i2 .. . i/ . . . a ln
21 22 a2j * 2n

D (A ) =
tf.l i2 (tf

ni ani Qnj * nn
Elegimos como pivote un elemento no nulo, digamos ay. Despus de extraerlo como
factor de la fila i>reduciremos a cero los dems elementos de la columna del pivote.
ii a 12 . &l j # 1 n
fl21 022 . @2i * ^2 n

D (A ) = a t ai 1 ai2 . 1
aij ai}

<*nl &n2 &n * ^ nn


A cada fila h, con h = /, le restamos la fila i multiplicada por y resulta

an a \n ~
a

*n g2 <*in
D (A ) = fltf ... 1 ...
<*U y

&n\
ani ai 1 '
&rtj &i2 a n j &in

Al desarrollar por los elementos de la columna / resulta un determinante de orden n - 1


multiplicado por ( ~ 1) '+Ji ay.
Es indistinto dividir la fila o la columna del pivote por l. En el segundo caso se reducen a
cero los dems elementos de la fila del pivote. En ambas situaciones el procedimiento
mecnico consiste en aplicar el mtodo de Gauss Jordn teniendo en cuenta, adems, el
factor (~ l )i+i ay.

Ejemplo 5-11.
Calcular, usando la regla de Chio.
2 0 - 1 2
3 2 - 2 - 3
D (A) =
0 -2 2
2 3 0 1
Consideramos como pivote a a 33 = 2 y dividimos la tercera fila por 2, con lo que el
determinante queda multiplicado por este valor. Los restantes elementos de la columna
del pivote se anulan, y a los elementos del determinante que no figuran ni en la fila ni
en la columna del pivote se los trasforma de acuerdo con la regla del rectngulo
Se tiene

2 1 0 1
3 4 0 -5
D (A) = (2)
0 1 1 -1
2 3 0 -1

Desarrollando por la tercera columna resulta

2 1
D (A) = (2) 3 4 -5
2 3 -1

Tomando como pivote a I2 = 1, y reiterando el procedimiento se obtiene


2 1 1
D(A) = ( - 2 ) 5 0 -9
-4 0 -4
Desarrollando por la tercera columna resulta
5 -9
D (A) = 2 = 2 (20 36)= 32
5-72. Calcular los siguientes determinantes desarrollando por los elementos de una lnea,
reduciendo a ceros todos los elementos de la misma, salvo uno:
2 1 2 2 4 3
D(A) = 0 3 -1 D(B) = -1 3 1
4 1 1 4 1 2

1 1 -2 4 -1 1 2 1
0 1 1 3 0 3 2 -1
D (E) =
2-1 1 0 1 4 2 1
3 4 2 -1 3 1 3 2
5-13. Demostrar que el determinante de toda matriz triangular es igual al producto de los
elementos de su diagonal.
5-14. Demostrar que si un determinante tiene dos lneas proporcionales, entonces es nulo.
5-/5. Resolver las siguientes ecuaciones:
i -X o -2 ) 2 x 3 6
4
O

0 =0 1 -2
s

-2 0 4-X 2 -1 2

5.16. Sea la matriz

Resolver la ecuacin D (A ~
X1) = 0
5-/7. Resolver la ecuacin D (AX I) = 0 siendo
5-18. Demostrar que el determinante de toda matriz ortogonal vale 1 o - 1 .
5-19, Sea A e K"xn. Demostrar que
D(Adj A) = [ D ( A ) r i

5-20. Demostrar que

1 1 . . 1
x1 X2 ..

x] x\ X2 = < /* ' ~ Xi)

T-n- 1 vn~l
x\ 2 A n

5-21. S e a n /y g funciones reales de una variable real con derivadas primeras y segundas.
Demostrar que si

f g
r
entonces
f g
r g
5-22. Demostrar que si n vectores columnas de Krt son linealmente independientes, entonces
el determinante de la matriz cuyas columnas son tales vectores es no nulo.
5-23. Determinar los signos de las permutaciones de I3, y la inversa de cada una.
5-24. Sean a\ , a2 , . . an escalares distintos. Demostrar que las funciones / \ , f 2, . . .,/
definidas por
/ i ( 0 = ea,t
son linealmente independientes sobre el cuerpo de los complejos.
5-25. Obtener las matrices inversas de
/i 0 \ a 0 \
A= y B= (a y b son no nulos)
U 1/ lo bf

5-26. Determinar, si existen, las inversas de

l-i 1 2 0
0 3 2 1
B= 4 1 2
0
3 1 5 7
$.27. Sean las matrices

3 2 4\
2 -1 i yb
1 2 3/
Hallar X sabiendo que AX = B,
$.28. Verificar las siguientes identidades en K
i ) 1 1 1
x y z = (x - 7) O -* ) (* .-* )
y z xz x y

ii) x y z t
y z t x
(x + y + z + )(x + z - y - 0 (x + t - y - z) (x + y - z - f)
z t x y
t x y z

iii) 1 x y z +1
1 y z x +t
= 0
1 z t x +y
1 t x y +z

iv) x - y - z 2x 2x
2y y -x 2y
2z 2z x -y

$29. Efectuar, mediante el determinante del producto de dos matrices,

1 -1 1 -1
0 2
2 -1 2 0

5-30. Calcular
0 1 1 1 1
1 0 1 1 1
1 1 0 1 1
1 1 1 0 1
1 1 1 1 0

5-31. Dadas las frmulas de trasformacin de coordenadas esfricas a cartesianas


( X = p eos ip eos d
j y = p sen <pcos 6
( z = p sen 6
obtener el jacobiano de la trasformacin, es decir, el determinante cuyas filas son las
derivadas parciales de x, y y z, respecto de f), y?y 6, respectivamente.
5-32. Obtener el jacobiano de la trasformacin
U= X + Y

V= donde X > 0 , Y > 0 .


Y

5-33, Demostrar que el determinante de toda matriz antisimtrica de orden impar es nulo.
5-34. Demostrar que

= lA I ID B A"1 CI
D D
donde A y D son cuadradas y A es no singular,
5-35. Si A y D son simtricas e inversibles, entonces
A B \ ! /A' 1 + F E ' 1 Ff -F E '1
D/ l - E 1 Ff E"1

donde E = D B* A"1 B y F = A"1 B.


5-36. Sean A e Knx" no singular. U y V en K" XI. Demostrar

( a + u v *)"1 - a -1 - --u-y* A 1
1 + V* A U
Captulo 6

SISTEMAS LINEALES

6.1. INTRODUCCION

En este captulo se estudian los sistemas de ecuaciones lineales sobre la base de su


estrecha relacin con las trasformaciones lineales, y se analizan los espacios soluciones de los
sistemas lineales y homogneos. Despus de la demostracin del teorema de Cramer, se trata
la compatibilidad de los sistemas lineales generales. Se dan, finalmente, los siguientes
mtodos directos de resolucin: de Gauss Jordn, de la raz cuadrada y del orlado.

6.2. SISTEMAS LINEALES

6.2.1. Concepto

Consideremos A e KrtXl y la funcin

/ : Km

definida por

/(X ) = AX (1)

donde X denota cualquier vector columna de Kw .


Afirmamos que la asignacin ( 1) caracteriza a / como una trasformacin lineal de Km en
K". En efecto:
1. /(X + Y ) = A (X + Y ) = A X + A Y = /(X )+ /(Y ).
2. f(etX) = A (aX ) = a A X = <*/(X).
Por consiguiente, toda matriz A e K nxm determina una trasformacin lin e a l/: Km ->K'1
definida por f(X ) = A X.
K~

Sea B e K . La igualdad
f{X) = B
o lo que es lo mismo
AX= B
recibe el nombre de sistema de ecuaciones lineales.
La traduccin de tal igualdad es

\
ffn 12 . . . (l\m X\ 1 bx
0-21 #22 a 2 m X2 b2

&n 1 n2 @nm [xm i bn j

Efectuando el producto y aplicando la definicin de matrices iguales se obtiene la forma


escalar del sistema de n ecuaciones lineales con m variables:

11*1 +<*12*2 + . . . + a lmx m =b 1

2 1*1 +&2 2x 2 + +02 mXm ~^2


i

V ^ n l-^ l ^n2x 2 ^ &nmx m !

La matriz A, cuyos elementos son los coeficientes de las variables del sistema, recibe el j
nombre de matriz del sistema. Los escalares que figuran en el segundo miembro se llaman
trminos independientes. La matriz de coeficientes ampliada con los trminos independien
tes se denota mediante !
I

y es un elemento de +*\
SISTEMAS LINEALES

C o n ju n to solucin del sistema lineal es la preim agen p o r / , de {B } C K".

0 sea, cada m-upla de elementos de K que satisface a todas las ecuaciones del sistema es
una solucin del mismo.
Entonces

a = ( a , , ot2, . . . , a m) es una solucin o a. e f 1 ( | B | )

Si la preimagen de B e Kn es el conjunto vaco diremos que el sistema lineal

A X = B (1)

es incompatible. Si el conjunto solucin es no vaco, entonces se dice que el sistema es


compatible.
Afirmamos que

A X = B tiene solucin B e l(f)


y
A X = B es incompatible o h l i f )
En particular, si B es el vector nulo de K , entonces

A X=0 (II)

recibe el nombre de sistema lineal y homogneo. En la forma escalar, los trminos


independientes son nulos.
Como 0 e Km satisface a (II), todo sistema lineal y homogneo es compatible. El vector
nulo de Km se llama solucin trivial del sistema lineal y homogneo.
Denotaremos con S al conjunto solucin de (II). S es la preimagen por / de OeK", En
consecuencia, el conjunto solucin del sistema homogneo es el ncleo de f. Resolver el
sistema (II) es determinar el N(f). Por lo tanto, S es un subespacio de Km, llamado espacio
solucin del sistema lineal y homogneo.
K' K

6.2.2. Rango de la matriz de coeficientes

Sea A e K nxm la matriz de coeficientes de un sistema lineal. Consideremos la


trasformacin lineal
/ : Km ->K n
definida por
/(X)=AX

Afirmamos que el rango de A es igual a la dimensin de la imagen de f. En efecto: la


imagen de fe s el espacio columna de A> pues
1(0 =|/X )/X eK ml = |A X / XeKm } -

( \ \
J
= | (Aj
\
2 . . . Am) | / x e K con / = 1 , 2 , , . . , m ; =
x mi
I m \
= ( .X* , A , / x ( K } = SC(A)

Por consiguiente es
dim I(f) = dim SC(A) = p (A)
6.2.3. Dimensin del espacio solucin de un sistema homogneo

Consideremos el sistema lineal y homogneo


AX = 0

Luego, la dimensin del espacio solucin de todo sistema lineal y homogneo es igual al
nmero de variables menos el rango de la matriz de coeficientes.
En particular, si p (A) = m, entonces es dim S - dim N(/) = 0. En consecuencia

Es decir, si el rango de la matriz de coeficientes de un sistema lineal y homogneo es igual


al nmero de variables, entonces dicho sistema admite como nica solucin la trivial.

Ejemplo 6-1
Interpretamos el siguiente sistema lineal en trminos de una trasformacin lineal y
determinamos la dimensin de su imagen

i 2xi - x 2 + x 3 + x 4 = 1
*1 - *2 - *3 + 2*4 = 0
( 3*1 7x 2 + 3x4 = 1
La matriz del sistema lineal es

El vector de los trminos independientes es


/ : R4 ->R 3
mediante
f(X ) = A X
el sistema lineal propuesto nos conduce a la determinacin de la preimagen de B

Para hallar dim 1(f) obtenemos el p (A) por el mtodo de Gauss Jordn

2 -1 1 1
-1 -1 2
3 -2 0 3

0 3 -3
1 - 1 - 1 2
0 1 3 -3

0 1 3 -3
1 0 2 - 1
0 0 0 0

Resulta dim I(f) = p (A) = 2


Ejemplo 6-2
Si consideramos el sistema homogneo
2xi x 2 + x3 + *4=0

Xl

3xt
-

2 x
X l

2
*3 + 2*4

+ 3x4 = 0
= 0
entonces la trasformacin lineal asociada es la misma del ejemplo anterior. Resolver el
sistema homogneo signica determinar el ncleo de / , cuya dimensin es
dim S - m f) (A) = 3 2 = 1

6.3. TEOREMA DE CRAMER

Si A K"*" es no singular y B e K , entonces el sistema lineal A X = B admite solucin


nica, y el valor de cada variable es el cociente entre el determinante que se obtiene al
sustituir, en el determinante del sistema, la columna de coeficientes de la variable por la
columna de los trminos independientes, y el determinante del sistema.
Sea el sistema lineal
AX=B
i Como A es no singular, premultiplicamos por su inversa
A"1 (A X) = A1 B
| Asociando
I (A"1 A )X = A"1 B
I Luego
! I X= A 1B
En consecuencia
X = A"1 B
es la nica solucin del sistema.
De acuerdo con 5.3.5., como D(A)^=0, las n columnas de A son linealmente
independientes y constituyen una base de K". Por consiguiente, cualquiera que sea B e K n,
existen escalares x j , x 2, ., ., ;c, nicos, tales que

B= S jc.
t= l
y por lo demostrado en el ejemplo 5-4 resulta
.. _ D(A, A , . . . B . . . A)
Xf ,
D(A)
para todo / = 1 , 2 , . . . , , donde B es la columna de lugar /.
Los sistemas de n ecuaciones con n variables se llaman cuadrados, y si el determinante de
la matriz de coeficientes es distinto de cero, entonces reciben el nombre de cramerianos.
Ejemplo 6*3
Resolvemos mediante el teorema de Cramer el siguiente sistema:
j X1 - *3 = - 1
< + 2x 2 2x 3 = 1
I 2xj - x2 + x3 = 3
La matriz de coeficientes es

A= 1

y su inversa, determinada en el ejemplo 4-18, es

Como la solucin es X = A B, se tiene

0 i\
5 M
- 1 _ 1 = - 1
~5

- 1 31 0
T

6.4. COMPATIBILIDAD DE SISTEMAS LINEALES

6.4.1. Teorema de Rouche Frobenus o de Kronecker

Un sistema de ecuaciones lineales es compatible si y slo si la matriz de coeficientes y la


matriz ampliada con los trminos independientes tienen igual rango.
Sea el sistema lineal A X = B, donde A e K rtxm) X e K mxl y B e K n x l , y sea A la matriz
de coeficientes ampliada con la columna de los trminos independientes.
El teorema afirma que

A X = B es compatible o p (A) = p (A)


En efecto:

A X = B es compatible o 3 oc e Kmx 1 / A oc= B o


ioti

o 3 a x , a 2) ,m K / ( Aj A 2 . .. A m) =B^

m
o 3 a 1, a 2) . . . , a m e K / B = 2
i= 1
B es combinacin lineal de las m columnas de A o
# B e SC(A) ^ p (A) = p (A)
Por definicin de sistema compatible, producto de matrices en forma particionada,
definicin de combinacin lineal, definicin de espacio columna de una matriz y de rango de
una matriz.
Denotando con T el conjunto solucin del sistema lineal A X = B, el teorema demostrado
puede expresarse as:
T = <p o p (A) = p (A*)
En consecuencia
T = 0 p ( A ) * p ( A )
0 sea, un sistema de ecuaciones lineales es incompatible si y slo si los rangos de la matriz
de coeficientes, y de la matriz ampliada con la columna de los trminos independientes, son
distintos.

6.4.2. Conjunto solucin de un sistema lineal compatible

Sea A X = B un sistema lineal compatible, es decir, tal que p ( A ) = p (A ), donde


A e K " xm, X e Kmxl y B e K"x l , Se presentan las siguientes situaciones:
1. El rango de ambas matrices es igual al nmero de variables.
Si p (A) = p (A*) = m, entonces las m columnas de A son linealmente independientes y, en
consecuencia, B es combinacin lineal nica de tales columnas. Esto significa que existen
escalares , a 2 , . . . , e K, nicos, tales que

m
B = 2 a. Ai
1 /= i
0C2
es la nica solucin del sistema.

O,

2. El rango de ambas matrices es menor que el nmero de variables.


Supongamos que p (A) = p (A) = r < m . Podemos suponer, sin prdida de generalidad
que las filas y columnas linealmente independientes de A son las r primeras. Las r variables
asociadas a las columnas linealmente independientes se llaman principales, y las m-r restantes
se llaman secundarias. Las m-r ecuaciones no principales son combinaciones lineales de las
primeras, y el sistema es equivalente a un sistema lineal de r ecuaciones con m variable?,
Trasponiendo al segundo miembro de cada ecuacin las m-r incgnitas secundarias, para cada
sistema de valores asignados a stas, se tiene un sistema lineal crameriano de r ecuaciones con
r variables con solucin nica, ya que la matriz de coeficientes es no singular.
En este caso se dice que el sistema es indeterminado.

6.5. RESOLUCION DE SISTEMAS LINEALES

El mtodo de Gauss Jordn permite no slo la discusin del sistema en el sentido de


decidir si es compatible o no, sino tambin la resolucin efectiva de l en el caso de
compatibilidad. Esto significa determinar el conjunto solucin.
Esencialmente se basa en la determinacin de los rangos de A y de A, para lo cual se
escribe a la derecha de la matriz A la columna formada con los trminos independientes, y se
opera de acuerdo con lo expuesto oportunamente.

Ejemplo 6-4
Discutimos y resolvemos por el mtodo de Gauss Jordn el siguiente sistema:
*1 + *2 + * 3 = 2
2Xi - *2 - *3 = 1
X j + 2x2 ~ *3 - -3

1 1 2
2 - 1 - 1 1
1 2 _ 1 - 3
1 1 i 2
0 -3 3 - 3 P (A) = p (A) = 3
0 -2 - 5 La solucin es
1 0 3 7 Xt = - 1
0 0 - 18 *2 = - 1
0 x3= 2
0 1 -2 - 5
O sea, el vector
1 0 0 1
0 0 1 2
0 1 0 - 1
Desde el punto de vista geomtrico, cada ecuacin es la representacin analtica de un
plano, y la solucin nica caracteriza al vrtice del triedro que forman dichos planos.

Ejemplo 6-5
Verificamos que el siguiente sistema es incompatible:
Xi + %2 - *3 = 1

*i

xx
+3x3 = - 3

+ *3 = 1
Investigamos para ello, los rangos de A y de A:

1 -1 1
1 -1 3 -3
1 0 1 1
1 1 - 1 1 El nico elemento que puede ser tomado
como pivote es - 4 . Esto significa que el
0 -2 4 -4
rango de A* es 3, pero el rango de A es 2, y
0 2 0 en consecuencia el sistema es incompatible.
0
1 0 1 1 La ltima etapa es innecesaria y ha sido
0 0 0 realizada para poner en evidencia los vecto
( r 4) res cannicos.
0 1 -2 0
1 0 1 0
0 0 0 1
0 1 -2 0

Ejemplo 6*6
Determinamos una base del espacio solucin del sistema lineal y homogneo
(A - XI) X = o
para cada X tal que
D (A XI) = 0
siendo

y X e R3 xi .
Resolvemos primero la ecuacin D (A - XI) = 0, o sea
1 -X 1 1

0 2- X 1 = 0

0 0 1 -X

Como la matriz es triangular, el determinante de la misma es el producto de los


elementos de su diagonal
(1 - X)2 (2 X) = 0
Las races son

\ ~ ^2 - 1 y X3 _2
1. Para Xj = X = 1 se obtiene el sistema homogneo

Es decir
O*! 4- x 2 + x 3 = 0
Ox 1 + x 2 + X3 0
Qx! + 0*2 + OX3 = 0

V Xj e R se verifica
x2 + x 3 = 0
O sea
x2 = - x 3
Las infinitas soluciones son las ternas del tipo
RESOLUCION DE SISTEMAS

Una base del espacio solucin est formada por los vectores

Al mismo resultado se llega utilizando el mtodo de Gauss Jordn

0
0
1 1
1
0
0
0 0 0 0
0 1 1 0
0 0 0 0
0 0 0 0

Como p (A) = p (A) = 1 y este valor es menor que el nmero de variables, el sistema
tiene infinitas soluciones. La dimensin del espacio solucin es
3 p (A) = 2
Las dos primeras ecuaciones caracterizan un plano que pasa por el origen y que
contiene al eje x i . La tercera ecuacin se satisface para todo (xj, x 2, x$) e R 3, o sea,
representa a R3. La interseccin de estos dos subespacios es el plano de ecuacin
*2 +*3 = 0 .

Ejemplo 6-7
Considerando las matrices

1
i 2 01 I*'} 1

A=
1 _1 1
__
-y
1= 1
, X= *2 *r
2~
1 1 1 V-
i3 i x 3 i i
3 3

resolvemos el sistema lineal


X* A = Xf
X =1
Efectuamos primero las operaciones matriciales

_1_
2
_1_
1. ( x t *2 x 3) = (x^ x 2 x 3)
4 2
1
\ T j I

1Xj X 1 ,1 . 1 1 , 1
i ---1x 2 ~r~~X$
x 1 X\ + X 2 +~*3 ~ X2 + ~ X 3 = (xt x 2 * 3)
2 4 3 2 4 3 2 3
Por igualdad de matrices

1 ,1 ,1
Xi + X2 + ~ X 3 = Xi
2 4 3

*1 + x 2 + - * 3 =*2
2 4 3

1 ^ 1
+ JX 3 =x3

Eliminamos los denominadores


6#! + 3x2 + 4*3 ~ I2xi
+ 3x 2 + 4 x 3 = 12x 2
3x 2 + 2x 3 = 6x 3
Reduciendo trminos
6xy 3x 2 - 4 x 3 = 0

6 x j - 9 x 2 + 4x3 = 0
3x 2 - 4 x 3 = 0

2. 1* X = 1 =>(1 1 1) f x 2 I = 1 =>Xj + x 2 + x 3 = 1.

Teniendo en cuenta 1. y 2., el sistema a resolver es

6 X1 - 3 x 2 4jc3 = 0
6x 1 - 9x 2 + 4 x 3 = 0
3x2 4 x 3 = 0
Xj + x2 + * 3 = 1
Aplicamos Gauss Jordan

6 - 3 - 4 0
6 - 9 4 0
0 3 - 4 0
1 1 1
0 - 9 - 10 - 6
0 - 15 - 2 - 6
0 - 4 0
1 1 1 1
0 0 U22) - 6
0 0 -li - 6
4 0
0 1
~3

1 0 7 1
3
1 3
0 0
U
0 0 0 0
0 4
0 1
11
0 4_
1 0
11

Se tiene: p (A) = p (A) - 3 y la nica solucin es

4
*i =
11
4

La matriz A de este ejemplo es tal que sus elementos son no negativos y la suma de los
elementos de cada fila vae 1. Esto significa que los vectores filas caracterizan una
distribucin discreta de probabilidades, y por tal motivo la matriz se llama estocstica.
El vector solucin define tambin una distribucin de probabilidades, llamada
estacionaria. Este tipo de distribuciones se estudia en las cadenas finitas de Markov.

6.6. SISTEMAS HOMOGENEOS

6.6.1. Espacio solucin de un sistema lineal y homogneo

Dado el sistema lineal y homogneo


AX = 0
donde A e K xm, X e K mxI y 0 e Kn x l , como p (A ) = p (A 5) = r, ocurre que tal sistema
siempre es compatible, de acuerdo con 6.4 .1.
En cuanto al espacio solucin del mismo, son vlidas las conclusiones obtenidas en 6.4.2.,
o sea
1. r ~ m =* existe solucin nica => S = { 0 }
En este caso la nica solucin del sistema es la trivial.
2. r < m ^ el sistema es indeterminado.

6.6.2. Sistemas homogneos cuadrados

Sea el sistema lineal y homogneo


AX-0
donde A e K " x", X e Knxl y O e K " x l .
Propiedad
Un sistema lineal y homogneo de n ecuaciones con n variables tiene solucin nica si
y slo si el determinante de la matriz de coeficientes es no nulo.
1. Si A X = 0, con A e Kx" , tiene solucin nica, entonces es p (A) = n. En consecuen
cia, las n columnas de A son linealmente independientes, y de acuerdo con el ejercicio
5-22 resulta D(A) # 0.
2. Supongamos que D (A) = 0. Segn 5.3,5., las n columnas de A constituyen una base de
K". Por lo tanto, 0 es combinacin lineal nica y trivial de tales vectores columnas.
Los teoremas contrarrecprocos de 1. y 2. nos permiten afirmar que un sistema lineal y
homogneo de n ecuaciones con n variables es indeterminado si y slo si el determinante de
los coeficientes es nulo.

Ejemplo 6-8
Determinamos los espacios soluciones de los siguientes sistemas homogneos y
cuadrados:
SISTEMAS HOMOGENEOS

i ) JCj 2x 2 + * 3 = 0
- + X3 = O
x ! - 2x 2 2x 3 = O

1 -2 1 1 -2 1
D(A) = 0 - 1 1 = 0 - 1 1
1 -2 -2 0 0 - 3

Luego la nica solucin es


Xy ~ x 2 = x 3 ~ 0

S=M 0 J
Los tres planos forman un triedro cuyo vrtice es el origen.
ii ) ( Xy - x2 + 3x 3 = 0
I Xy + X 2 - *3 =0
( + X3 = 0

Como

1 - 1 3 1 - 1 3
D(A) = 1 1 _ 1 2 0 2
1 0 1 1 0 1

= 1 0, el sistema es indeterminado.

Lo resolvemos segn Gauss Jordan

- 1 3 0
1 1 - 1 0
1 0 1 0
1 -1 3 0
0 2 -4 0
0 -2 0
1 0 1 0
0 0 . 0 0
0 1 o 0
Se tiene:
*1 + x 3 =0
x 2 2X3 = 0
Despejando las variables principales
X = - X 3
x2 ~ 2x3
Las infinitas soluciones estn dadas por
I X i O
| x 2 = 2a
l x3 = a Vae R

El espacio solucin es la recta de ecuaciones


* 1 _ *2 _ *3
-1 2 1
O sea
S = {( - a, 2a, a) / a e R }
Geomtricamente, este sistema admite la siguiente interpretacin: las ecuaciones
corresponden a tres planos que pasan por el origen y forman un haz cuyo eje es el
espacio solucin, o sea, la recta mencionada.

6.7. CONJUNTO SOLUCION DE UN SISTEMA LINEAL

Sea T el conjunto solucin del sistema lineal A X = B, y sea S el espacio solucin del
sistema lineal y homogneo asociado. Si t es una solucin particular del sistema A X = B, y
t + S denota la suma de esa solucin particular y todas las soluciones del sistema homogneo
asociado, entonces se verifica que
T= + S
En efecto:
1. Consideremos cualquier solucin u de A X = B, y sea t una solucin particular de este
sistema.
eT a eT=>A(m t) = Au - A f = B - B= 0 =>
=>u - t eS=>u - t = s A s e S = > = + s A s e S ^ e / + S
O sea
T C f + S (1)
2. Sean: f, una solucin particular de AX = B, y s cualquier solucin de A X = 0.
M= f + s e + S=>AM = A(t +s ) = A + As = B + 0 = B ^ w e T .
Luego

f + SCT (2)
De (1) y (2) resulta
T =e+ S
En consecuencia, toda solucin de un sistema lineal es igual a una solucin particular de
dicho sistema, ms una solucin del sistema homogneo asociado. En otras palabras, el
conjunto solucin de un sistema lineal es igual a la suma de una solucin particular con todas
las soluciones del sistema lineal y homogneo correspondiente.

Ejemplo 6-9
Interpretamos geomtricamente el significado del teorema anterior considerando el
sistema lineal de una ecuacin con dos variables
2*i =1
En este caso es A = (2 - 1 ) y A = (2 ~1 1). Ambas matrices tienen rango 1 y el
sistema tiene infinitas soluciones.

El sistema homogneo asociado es


2xj - x 2 = 0
y corresponde a una recta que pasa por el origen. Una solucin particular del sistema
dado es (1 ,1 ) = t. Sumando a t los vectores correspondientes a todos los puntos de la
recta de ecuacin 2xj - x 2 - 0, se obtiene la recta T, paralela a S.
Ejemplo 6-10
Dado el sistema lineal
/ Xy + X 2 + X3 + ^4 + X5 = - 7
j + 2 x 2 + x3 + X 4 3 xs =- 2
j x 2 + 2x3 + 2x4 + 6 x 5 = 23
\ S xx + 4 x2 + 3x 3 + 3x 4 - x 5 = 12
determinamos: el espacio solucin del sistema homogneo correspondiente, una base
la dimensin de ste, una solucin particular y el conjunto solucin de aqul.

1 1 1 1 0 7
3 2 1 1 -3 0 .... 2
0 1 2 2 6 0 23
5 4 3 3 ... 1 0 12
1 1 1 1 1 0 7
0 - 1 -2 -2 -6 0 -2 3
0 (D 2 2 6 0 23
0 - 1 2 -2 -6 0 -2 3
1 0 - 1 - 1 - 5 0 - 16
0 0 0 0 0 0 0
0 1 2 2 6 0 23
0 0 0 0 0 0 0

p (A) = p (A) = 2 => el sistema dado tiene infinitas soluciones.


Resolvemos el sistema homogneo, cuyo espacio solucin tiene dimensin 3.

5 p (A) = 5 2 = 3
] Xi - *3 - X 4 ~ 5xs = 0
1 x 2 + 2x 3 + 2x 4 + 6x 5 = 0

Trasponiendo las variables secundarias

J Xi = X3 + x 4 + 5xs
| x2 = - 2x 3 2 x 4 6x s

El espacio solucin est dado por


cualesquiera que sean a, i y y e R.
Luego

f Xi / M 5
1 1
x2 -2 -2 -6
x3 =a 1 +0 0 f y 0
X4 0 1 0
i X5 0 0 i

Una base de S est formada por

1 1 5
- 2 -2
1 1 6
1 3 0 y 0
0 1 0
1 0 0 1/
Obtenemos una solucin particular del sistema dado haciendo x 2 - x$ - *4 = 0

16
23
f= 0
0
0

Luego, la solucin general es

/ 16 \ / > 1 1 1 / 5 '
23 _o _ 2 - 6
0 + O 1 + /3 0 + 7 0
0 0 1 0
0 0 0/ 1 /
O sea
' = ~ 16 + a + 0 + 5^
x 2 - 23 2a 20 6y
< x 3 ^0i
x A =3
*5=7

6.8. RESOLUCION DE SISTEMAS SIMETRICOS POR EL METODO DE


LA RAIZ CUADRADA

No expondremos en este texto los mtodos iterativos para la resolucin de sistemas


lineales o la inversin de matrices. Estos mtodos requieren el anlisis de cuestiones de
convergencia, y mediante iteraciones sucesivas se obtienen soluciones con la aproximacin
que se desee. A diferencia de stos, los mtodos directos o exactos se realizan mediante un
nmero finito de operaciones aritmticas elementales. Tal es el caso del mtodo de Gauss
Jordn.
Analizaremos aqu el mtodo directo de la raz cuadrada para la resolucin de sistemas
lineales cuadrados con matriz de coeficientes simtrica y primer elemento no nulo.
Sea entonces
A X = B (1)

tal que A = A* en K "Xrt, X e K n x l , B e Knxl y a u * 0 .


Probaremos que existe una matriz triangular T tal que
AT*T (2)
Proponiendo la forma escalar de (2), debe ser

111 0 0 ... 0 ' 1t u ?12 h n <*11 a\2 a n 1


?12 122 0 . 0 0 *22 h n #2 1 a22 2n

^1 n hrt 3 n * * nn 1 o o .. nn j an i an2 '

Por igualdad de matrices, despus de efectuar el producto indicado, resulta:


1. Considerando la primera fila:

i = ati =V ^7
Si / > 1, entonces

t\ i h j - a \
Luego

'i/=-
v sr.
O sea, la primera fila de T se deduce de la de A de la siguiente manera: el primer elemento
es la raz cuadrada del primero de A, y los restantes se obtienen dividindolos por esta raz
cuadrada.
2. Considerando cualquier fila distinta de la primera, es decir, tal que / > 1, se tiene:

n i ** M
/ = = 2 t2
hi= 2 <*,=< + 2 - 2 t)
ft - 1 h~ i h -1 h~ 1
i-1
/>i n1
2 tfti tfrj 2 thi thj
n -l
tj +2fhi^hj
ft-j

*11

La determinacin de los elementos de la matriz triangular se realiza en una sola etapa y


por filas sucesivas.
La traduccin de las frmulas obtenidas es la siguiente: todo elemento diagonal, a partir
de la segunda fila, es igual a la raz cuadrada de la diferencia entre el elemento a,,
correspondiente y la suma de los cuadrados de los elementos de la misma columna de la
matriz triangular. Todo elemento no diagonal fy es igual a la diferencia entre a y la suma de
los productos, fila por fila, de los elementos de las columnas correspondientes, dividida por
el elemento t u de la diagonal.
Retomando el propsito original, de (1) y (2) se deduce
T* T X - B
Haciendo
T K = B (3)
se determina el vector K, y considerando
T X = K (4)
conocido K, se obtiene X.
La determinacin de las componentes del vector K se efecta de la misma manera que las
columnas de la matriz T. En efecto, considerando (3), es
/,1 0 ... 0 ' /*1
l b' \
12 22 0 k2 = b2

n2n tnn j i M
M
de donde resulta, por producto e igualdad de matrices:
1 h i ki = b \ , o sea

t\ i
n i
2. th i k h = X th i kh =
/1= I h -1
i-1
i -1 ? ^-i
= t Hk i + 2 t h i k h ^ k i = - -1 - -
h=i rf.

Finalmente, obtenidos T y K en una nica etapa, se resuelve fcilmente el sistema


triangular
TX = K

Ejemplo 6-11
Resolvemos el siguiente sistema simtrico por el mtodo de la raz cuadrada:
i Xi + 2x 2 + 2x 3 ~ 0
I 2xi + 5x2 - x} ~ 8
( 2x 3 ~ x2 + 33x 3 = 4
Trasfonnamos, de acuerdo con el esquema propuesto, las filas de la matriz de
coeficientes ampliada con la columna de los trminos independientes:

1 2 2 0
#23 ~ h i 113 _ - 1 2 . 2 _
2 5 - 1 - 8
4
hi ~ 1
2 - 1 33
, bz~ t i 3ki - t 23 k 2
1 2 2 0 = ------------------------- =
0 1 - 5 -8 i 33
0 0 2 - 18 _ 4 -2 .0 -(-5 )(-8 )_ S
2

En consecuencia:

Xi + 2 x 2 + 2x3 = 0
x 2 - 5 x 3 = 8
2x3 = - 18

Luego
x 3 = - 9 x 2 = - 5 3 jcj = 124
La solucin es

/ 124
X= ( - 53
\- 9
Las condiciones para que el mtodo sea aplicable son: t u =0, Vi = 1, 2 ,. . . , n.

Ejemplo 6-2
Resolvemos por el mismo mtodo
| - Xj + x 2 - 2x 3 = 2
j xl + 3x3 - 5
[ 2xx + 3x2 x 2 3- - 1

No es necesario multiplicar la primera ecuacin por - 1 para obtener elementos reales


en T.

_ i 1 - 2 2
1 0 3 -5
- 2 3 _2 - 1
i - i 2i -2 i
0 1 1 -3
0 0 1 -2

Entonces
x3=- 2 x 2 = 1 Xj = 1

6.9. METODO DEL ORLADO

Este mtodo, que es directo, permite obtener la inversa de una matriz no singular
M e K nx". Particionamos M de acuerdo con el esquema
n = (n - 1) + i
para filas y para columnas, y se tiene

M== ' A B
\ A
C an n l)

donde A e \ B e K (rl' 1) xl , C e K l x ( n l ) y (tfnn) e K l x l .


Suponemos conocida la inversa A"1 del primer bloque y proponemos, para la inversa de
M, el mismo esquema de particin.
X Y
M"1 =
z JL
d-n
donde an e K {0 )
Considerando que
M M' 1 =1
se t i e n e

I N

N 1

O sea
A X + BZ = I ( 1)
AY + =N (2)

C X + a nn Z = N (3)

C Y + 5 = i (4)
Cf
De (2)

y (5)

Sustituimos (5) en (4):

- ] =>- CA 1 B -f ann = otn


oc Oin

Luego
n ~^nn ~ C A"1 B (6)
De ( 1)
A X = I - B Z = * X = A' 1 - A1 B Z (7)
Teniendo en cuenta esta relacin, (6) y (3), es
C (A-1 - A 1 BZ) + M Z = N
C A' 1 - C A-1 B Z + ann Z = N
CA (nn ttn) Z + ann Z -- N
C A 1 - ann Z + a Z + ann Z = N
n Z ~ - C A-1
r
Z = _ >r _A"1
2 _ (8)

De (7) y (8)

X = A 1 + A 1 BC A 1 (9)

Entonces

A-, , A"1 B C A' 1 AM B


A H--------- --------

M1 -

Oir,

Se trata de un caso particular de la inversin por particin estudiada en 4.18.


Este mtodo se utiliza para invertir matrices por orlados sucesivos, construyendo las
inversas de

etctera

Conociendo la inversa de A e xm-i\ se calcula M' 1 e Knxn, para lo cual es


preciso obtener:

1. bm
- A -1 B

Jn-1 ,n

2. C A (Cfii Cn2 C71, n-l)

i . . \ lb, 1
^2 n b%n
3 - C A1 B =ann 4- C Q-tin + (&n l 0 2 n-1)

,n
b n ~ \,n

n-1
^ Oiyi nn + X &nj bjti
J- I
T a m b i n :

In
2 n

n-1 ,n

R-l
^ 0n nn
^ in ^ni
i~ i
A"1 g
4. Los elementos xj de la submatriz A"1 + - ------- son, llamando x\ a los

correspondientes elementos de A-1 :

x i} = x u + ^ n}- si / < - 1, / < n 1


a
Adems

'te si i < - 1

si / < n ~ 1

El siguiente esquema denota una etapa del proceso;

Ejemplo 6-12
Calculamos la inversa de A por el mtodo del orlado, siendo
METODO DEL ORLADO

Siguiendo el esquema anterior, y aplicando las frmulas desarrolladas, resulta:

1 2 - 1
2 - 1 1 M
- 1 1 2

1 2 -2
2 - 1
2 5

-> - A

- 1

11
5

3 5 1
14 14 14
5 1 3
M'
14 14 14
1 3 5
14 14 14

Conocida M"1 es posible resolver sistemas del tipo


MX=K
donde M es no singular.
respecto de la base cannica en cada espacio. Determinar la

preimagen p o r / d e l vector ( - 1, 1).


6.14. Resolver, por el mtodo de Gauss reducido, los siguientes sistemas:

El mtodo de Gauss reducido consiste en trasformar en ceros los elementos ay tales


que i > j, y en unos los elementos a a..
6-15. Determinar la dimensin sobre R del espacio solucin de cada uno de los siguientes
sistemas homogneos:
1. x x + x <2 - x 3 = 0

2. i 2x + x2 - x 3 = 0
X-2 + * 3 = 0 5. 2xj 3jc2 + * 3 = 0
*1 + x<i x 3 = 0

6'6. Obtener una base del espacio solucin en cada uno de los casos del ejercicio
anterior, en los casos de dimensin positiva.
6*/7. Hallar la dimensin y una base del espacio solucin sobre C en cada uno de los
siguientes casos:
1. | i x + y - z = 0
I I > + Z = 0
6-18. En el anillo de las clases de restos mdulo 3, determinar una base del espacio solucin
del sistema
x t + x2 +x3 =0
x { + 2X2 0

6-19. Discutir y hallar el conjunto solucin de


Xi + 2x 2 = 5
3*1 + x 2 = 5
2x t + 3x 2 = 8

6-20. Resolver porel mtodo de Cramer el sistema del ejercicio 6-14. 1.


6-21. Resolver elsistema homogneo X* (A I) = 0, donde X Rzxl y

1 1
2 2
A=
1 2
3 3 ,

6-22. Obtener el conjunto solucin de] sistema


3x j + 2x 2
Xi +2x2+ x3 =1

5jci 4- 6x 2 + 2x 3 + jc4 = 2

6-23. Determinar si existe X e R3x3 tal que X A = B, siendo

A=

6*24. Discutiry hallar los conjuntos soluciones de los siguientes sistemas:


\. ( xi 2x2+ X 3 * 4 - xs=2
2x x + x 2 - x 3 - xs= 4
4xi - 3x 2 + jc 3 2x 4 3xs =1

2. Xi + x 2-- 3 x 3= 1
2x\ + x% - 2*3- 1
xt + x2 + x 3= 3
x t + 2 x 2 3 x 3 = 1
*1 + * 2 - 3*3 - x5 - O
xx- x 2 + x3- x 4 =0
2x 1 + 2*3 - Xa, - X5 = O
2xt x A x 5 ~ O

6-25. En el caso de compatibilidad, obtener el conjunto solucin del sistema


JC! + x 2 + 2 x 3 = 1
2jCj - x 2 + 2 x3 = 4
4x i + x 2 + 6x 3 = -* 6
en trminos de una solucin particular y del espacio solucin del sistema homogneo
asociado.
6-26. Siendo
-3 0 4

A= 4 1 4

2 0 3
obtener X tal que D(A - XI) 0. Despus resolver el sistema (A XI) X = 0 para cada
valor de X.
6-27 Determinar para qu valores de k el siguiente sistema tiene soluciones distintas de la
trivial:
x + (k 4- l)j> + z=0
x +y + {k+ \ ) z - 0
(&+l)x+ y + z~ 0
En cada caso, estudiar el espacio solucin, e interpretar geomtricamente.
6-28. Determinar la inversa de M por el mtodo del orlado, siendo
1 1 -1

M= 1 - 1

1 1
6-29. Resolver el sistema X*A = X*, siendo
1 1\
ai x + b x y + c x z - 0
a2 x + b2 y + c2 z = 0
sabiendo que
bi ci
0
b2 C2

6-31. Discutir el siguiente sistema segn los valores de a:


clx - y + 2z = 1 + a

x + ay - z~ 1
3x + y 4- 2 = a

6-32. Estudiar el sistema


2x - a y + z ~ ~ 2 a + 5

x + y - olz = 1
4x 4- y - az - &

para los distintos valores de a


6-33. Discutir la compatibilidad de
+ bx2 + ~a + b

bxl + ax2 + + x 4 = a - b

*2 + bx 3 + cx 4 = a + 1

+ 0X3 + 6^4 =fl - 1

6- ^ . Determinar el sistema lineal cuyo espacio solucin


admita la base
{ ( 3 , - 2 , 8) , (4,-11,7)}

6-35. Probar que el sistema


bx + ay ~c
ex +az = b
cy + bz = a
tiene solucin nica si abe i= 0. Hallar la solucin.
6-36. Resolver por el mtodo de la raz cuadrada
x x + x 2 + 2x 3 = 7
X J 2 jc 3 = 5

2x 1 2 x 2 + X 3 1
Captulo 7

PRODUCTO INTERIOR EN ESPACIOS VECTORIALES


GEOMETRIA VECTORIAL.

7.1. INTRODUCCION

En este captulo introducimos, sobre la base de un producto interior, el concepto de


mtrica en un espacio vectorial real. Se estudian temas relativos a distancias, longitudes, 1
ortogonalidad y ngulos entre vectores. Se desarrolla el procedimiento de Gram-Schmidt
para la construccin de bases ortonormales en espacios de dimensin finita. Despus de dar
una idea del espacio afn Rtt, se tratan algunos temas bsicos de geometra: rectas, planos, ;
superficies y curvas elementales. i

7.2. ESPACIO VECTORIAL EUCLIDIANO

Sea (V, +, R, .) un espacio vectorial sobre el cuerpo de los nmeros reales.

7.2.1. Producto interior

El smbolo <x , y ) se lee: producto interior entre los vectores x e y .

Definicin
Producto interior en V, es toda funcin
<, > : V2 R
que satisface las condiciones de simetra, de linealidad respecto del primer argumento
y de definida positiva:
i ) < x , y > = ( y >x> cualesquiera que sean x e y en V.
i i ) < x + y >z ) = ( x , z > + < y , z ) cualesquiera que sean x, y y z en V. j
(
iii) <ax,y> = a < x , y > V x e V , V y e V , V a e R . |
iv)< x,x0 VxeV i
I
(x,x>=0^x = 0
T odo p roducto interior en u n espacio vectorial real asigna a cada par de vectores un nico
escalar real.
Espacio euclidiano es to d o espacio vectorial real con p ro d u cto interior.
La adjuncin de u n p ro d u cto interio r a u n espacio vectorial perm ite establecer una
m trica en l; o sea, los conceptos de distancia en tre pares de vectores, m dulo de un vector,
ortogonalidad y ngulo en tre dos vectores. Estas nociones no son intrnsecas al espacio
vectorial, sino que dependen del p ro d u cto interio r que en l se considere. O sea, dos vectores
de un espacio,ortogonales con un p ro d u cto interior, pueden perder este carcter si se define
otro p roducto interior.

Ejemplo 7-1
En (R , + , R , .), la funcin
<, >: R " X R " -+ R

definida por
< X , Y > = Xf Y (1)

y\
x2 y2
X" Y=
#

| yn,
es un producto interior. Para probar esta afirmacin verificamos los axiomas de la
definicin.
i ) < X , Y ) = X Y = (Xf Y) = Y X = ( Y , X )
Por (1), por ser X*Y un escalar, por traspuesta de un producto y por (1).
) < X + Y , Z > = (X + Y ) Z = (X + Y ' ) Z = X Z + Y Z = <X, Z> + <Y, Z>
Por (1), traspuesta de la suma, distributividad y (1).
iii) <a X , Y >= (a X)* Y = a X* Y = a <X , Y >
Por ( 1), traspuesta de un escalar por una matriz y (1).
iv)(X , X ) = X X = X x f > 0
=l
Por (1), producto de matrices y suma de nmeros reales no negativos.
Adems

<X, X> = 0 < * x j = 0 ^ = 0 , V / * X - 0


il
La definicin (1) caracteriza un producto interior en R , llamado tambin producto
interior usual. Efectuando la operacin indicada en (1) es
< X , Y > = Z \ Xi y t
i=l
0 sea, el producto interior de dos n-uplas de nmeros reales es igual a la suma de los
productos de las componentes correspondientes.
En el caso n - 2 esta definicin se traduce en
<X , y x +x ^ y 2

Ejemplo 7-2.

Consideremos (R2 , +, R , ,) y la matriz A =

La funcin
( , >: R 2 X R2 -* R
tal que
( X , Y > = X A Y (1)
es un producto interior. En efecto
1 ) < X , Y > = X AY = (Xf A Y)* = Y A X = Y A X - < Y , X >
Por (1), por ser Xf A Y un escalar, por traspuesta de un producto, por ser A* = A y por
)
) < X + Y , Z > = (X + Y)t A Z ^ O C ' + Y ^ A Z ^ X * A Z + Y* A Z = < X , Z > + <Y, Z>
iii) <a X , Y >= (a X)* A Y = a X A Y = a <X , Y >

i v ) < X , X > = X A X = (x, * 2) | * | = ( xx - 2 x 2 - 2 x i + 5x2)

= ( x x - 2x2) ^ ! + (2*1 + 5x2) x 2 = x \ - 4 x x x 2 + Sx\ =


=*1 - 4 x xx 2 + 4 ^ 2 + x l ~ (x i 2k2)2 + x l > 0

Adems
<X , X > = 0 ^ ( x 1 - 2x*2)2 + x \ =0
<>x x - 2 x 2 = 0 a x 2 = 0 *
*>x x x 2 = 0-X = 0

Ejemplo 7-3.
Sea C [ -1 , 1 ] el conjunto de las funciones reales continuas definidas en el intervalo
cerrado de extremos 1 y 1.
El lector puede verificar, considerando el espacio vectorial
( C [ - l , 1 ] , + , R , .)
<f , g >= / ] f 0 0 g (x) dx

caracteriza un producto interior en dicho espacio. Para ello es suficiente probar que se
cumplen los axiomas de la definicin teniendo en cuenta propiedades elementales de la
integral definida.

7.2.2. Producto interior de dos combinaciones lineales

Sea (V, +, R , .) un espacio con producto interior, y sean las combinaciones lineales
ti m
x = Z ctiXt y = 2 f t y ,
i=l j~l
donde
d i, K y x,yyeV
De acuerdo con los axiomas de la definicin, se tiene
n m
<x , y >= (.2 a f Xj ,.2 pj yy >=
rt m n m

n m n m
= .2 a <. 2 fy y , X i) = .2 oe^S |3y <yy , x >=
n m
= ft <x >y/ >
Hemos aplicado sucesivamente:ii), iii), i), ii), iii), propiedades dela sumatoria e i).
En particular es
< a x + y , a x + y ) = 2 <x , x ) + a { x , y ) + a < y , x ) +
+ <y , y >= a 2 < x , x > + 2 a < x , y > + < y , y >

7.2.3. Propiedad

En todo espacio con producto interior, el producto interior de cualquier vector y el


vector nulo es cero.
En efecto, por ser 0 neutro para la suma en R, por el axioma A3 de espacio vectorial y
por el axioma de linealidad del producto interior, se tiene
0 + <0 ,x> = <0 ,x> = <0 + 0 ,x> =
= <0 , x > + <0 , x >
Por ley cancelativa en (R, +) resulta
Luego
< x , 0 >= <0 ,x > = 0

7.2.4. Mdulo o longitud de un vector

Definicin
Mdulo de un vector en un espacio con producto interior es la raz cuadrada no
negativa del producto interior de dicho vector por s mismo.
El smbolo llxll se lee: mdulo o longitud de x.
De acuerdo con la definicin es
II xil = V < x >x )
En R2, con la definicin dada en el ejemplo 7-1, si x = (3,4), entonces
11x 11= 7 3 ^ ^ = 5

Al mdulo de x se lo llama tambin norma de x.


Se verifica que el cuadrado del mdulo de todo vector es igual al producto interior de
dicho vector consigo mismo, es decir
11x II2 = <x , x >

Definicin
Distancia entre dos vectores x e y, en un espacio con producto interior, es el mdulo
de su diferencia.
MODULO

El lector puede comprobar que esta definicin satisface los axiomas de la funcin
distancia.
7.2.5. Mdulo del producto entre un escalar y un vector

En todo espacio con producto interior, el mdulo del producto entre un escalar y un
vector es igual al valor absoluto del escalar por el mdulo del vector.
il axll = Ial II xll
En efecto:
II a x i l 2 = ( a x , a x > = a 2 < x , x > =

= l a l 2 l l x i i 2 = ( l a l I! x I I ) 2

O sea
l l a x ! l 2 = ( l a l II xl l ) 2

Y como las bases son no negativas resulta


II a x i l = l a l I I xl l

El producto de un vector no nulo por el recproco de su mdulo, o lo que es lomismo, el


cociente entre un vector no nulo y su mdulo, es un vector de mdulo 1.
X
En efecto, sea x = 0. Considerando se verifica
II xl l

X

1
- x
= 1
x = llxlt=l
llxll llxll llxll ti xll
Si x - (1, 1, y/2 ), entonces es, con el producto interior usual,

I x l - V ^ + C - O + (n /2)2 = 2
y resulta
x J l _ 1 y/2

llx ll \2 V 2

un vector de mdulo 1, llamado vector unitario

IX ORTOGONALIDAD
Sea (V, +, R , .) un espacio vectorial con producto interior.

Definicin
Dos vectores son ortogonales si y slo si su producto interior es nulo.
El smbolo x 1 y se lee: x es ortogonal a y.
Entonces
Ejemplo 7-4.
1. En R2, con el producto interior usual, los vectores
x = ( - 2 ,3 ) e y = (3 , 2)
son ortogonales, pues
< x , y ) = ( - 2 ) ( 3) + 3 (2) = 0

2. Determinamos a e R para que los vectores


\ = (~ 3 a ,~ 4 ,1 ) e y = (-a ,a , 1)
sean ortogonales, con el producto interior habitual.
De acuerdo con la condicin de ortogonalidad, hay que determinar a de modo que
<x,y ) = 0
O sea
(3 a) (a) + (4) z + 1. 10

3 a1 - 4 a + 1 = 0
Las races son:

Los pares de vectores de R3 que satisfacen la condicin son


* = ( - 3 , - 4 , 1) e y ' = ( 1, 1,1)

y
* = ( - 1 , - 4 , 1) e y = ( - 1 ,1 ,1 )

Ejemplo 7-5
Demostramos el teorema de Pitgoras: si x e y son dos vectores ortogonales, entonces
II x + y II2 = Ibd2 + llyll2

En efecto:

l l x+y l 2 = < x + y ( x + y > = < x , x ) + <x , y > +


+ ( y , x > + ( y , y > = llxll2 + 0 + 0 + II y II2 =
= llxll2 + llyll2

Ejemplo 7-6.
En el espacio vectorial de los polinomios reales de grado menor o igual que 2 y el
polinomio nulo, donde el producto interior se define como en el ejemplo 7-3, los
polinomios
\/2 \f$
- - y
2 \/2
son ortogonales, pues
= xdx. ^ \ l =0
2J-i 2 2 J -i

7.4. DESIGUALDAD DE SCHWARZ


En todo espacio vectorial euclidiano, el valor absoluto del producto interior de dos
vectores cualesquiera es menor o igual que el producto de los mdulos de dichos vectores.
Demostraremos que
l( x ,y > l < llxll IIyII
cualesquiera que sean x e y en V, donde est definido un producto interior.
Se presentan dos situaciones:
1.y = 0.
En este caso, de acuerdo con 7.2.3., se verifica que
( x , y >= 0 y II y II = 0
Luego
K x ,y > 1= llxl (lyll
En consecuencia
I(x , y ) K II xll IIyII

2. y ^ 0 .
Cualesquiera que sean t y u en R, por el axioma iv) de la definicin de producto interior,
es
< x + w y , x + w y ) > 0
Desarrollando el primer miembro
2 < x I x ) + 2 / M < x , y > + 2 < y , y > > 0
Haciendo
-<y,y> y w= - < x , y >
se tiene
(<y,y>)2 < x , x > - 2 < y , y ) ( < x , y > ) 2 + ( < x , y > ) 2 < y , y >>0
Por definicin de mdulo y reduccin de trminos
llyll4 llxll2 - IIyl l 2 ( <x, y >)2 > 0
Dividiendo por II y II2, que es no nulo, resulta
llyll2 llxll2 ( <x , y >)2 > 0
Teniendo en cuenta que el cuadrado de un nmero real es igual al cuadrado de su valor
absoluto, y trasponiendo trminos
K x , y > I2 < ( llxll IIyII)2
Y, como las bases son no negativas, resulta
K x ,y > llxll IIyII

7.5. DESIGUALDAD TRIANGULAR

En todo espacio con producto interior, el mdulo de la suma de dos vectores cualesquiera
es menor o igual que la suma de sus mdulos.
Probaremos que
Hx + y l K 11x 11+ llyll
En efecto, por definicin de mdulo y de producto interior es
IIx + y lt2 = ( x + y , x + y>=: ( x , x > + 2 < x , y > + < y , y > ( 1)
Teniendo en cuenta la desigualdad de Schwarz y propiedades del valor absoluto en R, se
verifica
- II xll II y l K (x , y X llxll llyll
Luego

2 < x , y > < 2 llxll llyll (2)


De (1) y (2) resulta
Hx+yl l 2 < llxll2 + 2 llxll llyll+llyll2
O sea
II x + y II2 < ( II xll + II yII)2
En consecuencia
IIx + yll< llxll + llyll

7.6. ANGULO DE DOS VECTORES

Sean x e y dos vectores no nulos en un espacio con producto interior. De la desigualdad


de Schwarz
K x , y > K IIxll IIyII
se deduce que
- llxll l l y l l < < x , y X llxll llyll
Dividiendo por el producto de los mdulos de x e y, que es positivo, se tiene
<x,y>
Definicin
Angulo de dos vectores no nulos x e y es el nmero real <>que satisface:
1. 0 < (p < 7 T

2. cos,p= '-y>-
llxll II y II
De la relacin 2. se deduce la siguiente expresin del producto interior en funcin del
ngulo de los vectores y de los mdulos de stos:
<x ,y> = llxll lly!icos<>

Ejemplo 7-7,
Los vectores x e y forman un ngulo de 60 y el mdulo de x es 3. Determinamos el
mdulo de y para que y x sea ortogonal a x.

Hay que determinar II y II de modo que


y-xlx
O sea
<y x , x ) = 0
Luego
<y , x> - <x , x > - 0
En consecuencia
II y il il x II cos </?- Il xll2 = 0
Por ley cancelativa del producto
y II cos <>= llxll
Resulta

Il y II . = 3
2
De donde
7.7.1. Definicin
Un conjunto de vectores { x l7 x2>. . . , xr } en un espacio con producto interior es
ortogonal si y slo si dos vectores cualesquiera y distintos son ortogonales.
{Xi , x 2,. . xr } es un conjunto ortogonal o i =/' =>( x , x; >= 0

7.7.2. Propiedad

Todo conjunto ortogonal de vectores, al que no pertenece el vector nulo, es linealmente


independiente.
Sea i x , x 2, . , xr | un conjunto ortogonal tal que x = 0 , V? = 1, 2 ,. . r, y sea la
combinacin lineal
r
2 x = 0
j i } 3

Para cada / = 1, 2 ,. . ., r consideramos


r
( S otj X j , x >- <0 , x) - 0

Entonces
r
^ 0L ( Xj , X >= 0

Como i f =* (xj , x >= 0, la sumatoria se reduce a un nico trmino que se obtiene si


/= o sea
<x j , x >= 0
Siendo x, = 0 resulta <x f , x >i=- 0, y en consecuencia
<*, = 0 Vi = 1, 2 ,. . .,r
Luego
{ x i . x , ; X r 1 esL.I.

7.8. BASE ORTONORMAL

7.8.1. Concepto

Sea (V, +, R , .) un espacio con producto interior y sea A = { Xj, x2, . , } una base
del mismo.

Definicin
Diremos que A es una base ortonormal si y slo si A es un conjunto ortogonal de
vectores de mdulo 1.
A es ortonormal o A es ortogonal y II x ( II= 1 , Vz = 1, 2 ,. .., n
Una base ortonormal es tal que
, xj >= 0
i e I = <Xj, x, >= 1
En consecuencia, integrando estas dos expresiones en una sola, se tiene
A es una base ortonormal <X j, Xj >= 5^

Ejemplo 7-8.
En R", con el producto interior usual, la base cannica { e 1, e 2, . . .,eM} es
ortonormal.
En R2, con el mismo producto interior, la base formada por*

es ortonormal, pues
<xt ,X i >= <x2 ,X2 >= 1
( \ i , x 2 >= 0

7.8.2. Ortonormalizacin de una base

Todo espacio euclidiano de dimensin finita admite una base ortonormal.


Nos proponemos obtener, a partir de una base cualquiera { Xi,Xa, <>x I una base
ortonormal. En efecto:
1. Xi =0 por ser un vector de la base dada. En consecuencia
II x j II ^ 0
El vector

de acuerdo con 7.2.5.}es unitario.


2. Supongamos que ( y j , y 2, .. . , yfe ) es un conjunto ortonormal. Se trata de obtener
yfc+ i tal que
{ y i, y a, ..y*+i|
sea ortonormal.
Consideramos el vector
k
Se verifica que + i es ortogonal a y; , V / - 1, 2, . . k.
En efecto fc
<2^+1 ,y/> = <Xfc+i - Sj <x/e+i >y>y>y/> =
ft
= <Xfc+i ,y;> -.s <Xfe+i >y><yf ,y;> =
k

<xft+i ,y/>-<Xfe+i ,y,). i =o


Definiendo
+1
yfe + i

Se deduce que II yft + x H= 1, y en consecuencia


(yi , y * . . .,yfc+i)
es un conjunto ortonormal.
Este proceso, llamado de Gram-Schmidt, nos permite construir una base ortonormal a
partir de una base dada.

Ejemplo 7-9
En (R2, +, R , .) se considera la base formada por
Xi=(l,D xa = ( - 1 ,2 )
Construimos una base ortonormal siguiendo el procedimiento desarrollado en el
teorema anterior.

1. It Xi 11= n/2*
y /2 y/2
y2 =
2 2

La base j y j , y2 } es ortonormal.

Ejemplo 7-10
Sea V el conjunto de los polinomios reales de menor grado o igual que 2 y el
polinomio nulo. En (V, -f, R,.) se define un producto interior mediante
< P , Q> = V(x)Q(x)dx

Dada la base j 1, x, x 2 , construimos una base ortonormal mediante el proceso de


Gram-Schmidt.
1. IIxj I2 = II1II2 = <1,1 ) =jf* l . l d x ^ x
=> II1 II = \2
_ Xi _ __1 _ -y/2~
Vl ~ Il Xj II y/2 2

z2 ~ x 2 ~ < x a , y i ) y i
\2
Como <x 2 , y i >= <x , >=
2

/: 2 4

resulta

Adems
II z2 ^ = <z2 ^2 . x >= f * x 2 d x ~

2_
-i 3
Entonces
Luego
*2 \/3
y2= - - ~ x
II z2 ti V2
2
z 3 = X3 - (^ < X3 y i >y =*

=>z3 ^x3 - <x3 . yi >yi - <^3 ,y2 >y2 0 )


i - y/? 2 j V^T -
<x3 >yi>= t - 2X dx = 3-x'
-1 3

i x/ 3
<X y 2 >~ - , y / 2 X3

De (1) resulta
z - x2 V2 \ / 2 _^2 j_
3 3 2 3
Como

l l z 3 )l2 = < z3 ,z 3 > ^ J 1 2 1 ' 2 dxr =

= f/1 x( 4x 2 x 2 _+l
^ )\ d x = 2 A'3 -I, 1A-I 1 =
3 9 5 9 9 J X

s 2 l + 2 = 2._ A = JL
5 ' 9 9 5 9 45

resulta
2V2
Z3 II =
3 y/5~

Y en consecuencia
- 3V!~ / 2 1 \_3VI0
x2 - l
Il z-> It 2V i l 3/ 4
La base
VI 3 vio / 2 1
2 V2" 4 l 3
es ortonormal.

7.9. COMPLEMENTO ORTOGONAL

7.9.1. Complemento ortogonal de un subespacio

Sea (V, +, R , .) un espacio con producto interior, y sea S un subespacio de V.


Definicin
Complemento ortogonal del subespacio S de V, es el conjunto de los vectores de V que
son ortogonales a todos los vectores de S.
El smbolo S1 se lee: complemento ortogonal de S.

S1 - { x e V / x l y , V y e S j

Ejemplo 7-11
En R 3, con el producto interior ordinario, si
S = { (0, 0 , x 3) / x 3 e R |
entonces el complemento ortogonal de S es
S1 ~ { (X1)X2, X 3) e R 3 / x 3 =0'

*2

7.9.2. Propiedad

El complemento ortogonal del subespacio S de (V, +, R , .) es un subespacio de V.


Debemos probar que S1 es un subconjunto no vaco de V, cerrado para la suma y para el
producto por escalares.
1. S1 C V por definicin de S1.
2. y e s = > < 0 , y> = 0 =*0 e s 1 :::;>s i : $
3. x e S1 a y e S 1 ^ < x ) z > 0 A { y ) z> = 0 , V z e S =>
=*<x , z >+ ( y , z > = 0 , Vz e S = *
=><x + y ) z> = 0 , V z e S ^ x + y e S i
4 , a e R A x e S 1: * a e R A < x , y > = 0 , V y e S = *
=>{ax,y) = 0, V y e S ^ a x e S 1

Por consiguiente
(S1, +, R , .) es un subespacio de V.

9.7.3. Propiedad

Si V es un espacio euclidiano de dimensin finita y si S es un subespacio de dimensin r,


entonces la dimensin del complemento ortogonal de S es n -r .
Se trata de probar que
dim S + dim S1 = dim V
En efecto:
Si S = {0 } o S = V, la propiedad es obvia. Consideremos, pues, el caso en que S = {0} y
S = V, y sea
\ X!,X2, . . . , xr )
una base ortonormal de S.
Entonces existen vectores xr+ 1 , xr+ 2, .. x, tales que
I X,, X2-----, x r, x r + l ) . . xn i
es una base ortonormal de V.
Afirmamos que
( Xf + i >Xr + 2> > X
es una base ortonormal de S1.
Para ello es suficiente probar que este conjunto es un sistema de generadores de S1. Sea
entonces un vector cualquiera u e S1.
n
u e S1 =* u e V =* 3 i , a 2, . . an e R / u = 2 a x

Como u es ortogonal a todos los vectores de S, considerando el producto interior entre


u y x,, / = !, 2, . . resulta
n n
0 " < U , X > = . 2 ^ ( OCjXj , X, > = . 2 ^ 0y 5 y = OC f

O sea

u^. 2 ctfXi
1=^+1
Esto prueba que
{X r + 1 > x r + 2 > X l

es un sistema de generadores de S1.


Como estos vectores son ortogonales y de mdulo 1, constituyen una base ortonormal de
S1, y se tiene
dim S1 = n - r
O sea
dim S + dim S1 = dim V
El lector puede comprobar, como consecuencia de esta propiedad, que V es la suma
directa de S y de su complemento ortogonal.

7.10. PROYECCION DE UN VECTOR SOBRE OTRO

Sean x e y dos vectores de un espacio con producto interior, e y =0. Entonces existe un
escalar a, tal que
x- ay 1y
En efecto
ay = a (y,y>~0=>
<x . y >
-> a - ---------

<y , y >

El vector

< y ,y > llyll IIyII


se llama proyeccin ortogonal de x sobre y.
Identificaremos la proyeccin ortogonal de x sobre y con el nmero real
<*,y>
llyll
y escribiremos
O sea, la proyeccin de un vector x sobre un vector y es igual al producto interior de
ambos, dividido por el mdulo del vector sobre el cual se proyecta.
En particular, si y es un vector de mdulo 1, se tiene
Py x = <x , y >
Por lo tanto, la proyeccin de un vector sobre un vector de mdulo 1 es igual al producto
interior de ambos.

Ejemplo 7-12
Comprobamos que las proyecciones de un vector de R3, con el producto interior
usual, sobre los vectores de una base ortonormal, son las componentes de dicho vector
respecto de la base.

3 3

A=fi e^PejA=<fSai e-e;>=


3 3
~ . 2 tf/ <e<,ey>= E a t g - a j

7.11. ESPACIO AFIN R"


7.11.1. Concepto

Sea (R , -f, R , .) el espacio real n-dimensional.


Para cada A e R definimos una suma en R n y un producto de escalares por elementos de
R " , mediante
X Y = X + Y - A
a X = a ( X - A ) + A
Estas definiciones hacen de la cuaterna ( R " , , R, o) un espacio vectorial con origen A.
El vector nulo de este espacio es A.
La suma y el producto de este espacio pueden obtenerse llevando las flechas AX y AY
al origen 0, operando en (R n , + , R , .), y desplazando el resultado al origen A. En R 2 esta
situacin queda indicada por las figuras siguientes:

Definicin
Espacio afn R es el conjunto de todas las n-uplas de nmeros reales, y una estructura
de espacio vectorial para cada A e RM, con las operaciones definidas.

7.11.2. V ectores fijos

Consideremos V = R ", X e R" e Y e R". El par de puntos (X, Y) se llama vector fijo de
origen X y extremo Y. Se lo denota mediante XY*.
Sean los elementos de R :
A = (flf a2, .. .,a n) X = ( x u x 2, . . Y ^ O i , ^ , .. . , y n)
Entonces la suma de X e Y, en el espacio de origen A, es
X Y = AX + Y = X f Y - A
Siendo
X + Y - A = (x, + y x - a u x 2 + y 2 - a7, . . + y n - an )
Si ot e R, entonces
D0X = ft X = ft(X - A) + A = X - (a - 1) A
donde
a A - ( a - 1) A = (a ^ ! - (a - l ) a , , . - (a - 1) an)

7.11.3. Espacio de los vectores libres

Consideremos el espacio afn RM, es decir, el conjunto de todas las n-uplas de nmeros
reales y las estructuras de espacios de los vectores aplicados en cada punto de R".
En el espacio afn R" definimos la siguiente relacin de equivalencia:

X ~ B Y > Y = XB = l B
Escribiremos
XB=X+B

Cada clase de equivalencia se llama un vector libre, y el conjunto cociente es el conjunto


de los vectores libres de R .
Un vector X e R" se denota:
A X si se lo considera como vector del espacio de origen A.
O X si pertenece al espacio de origen 0.
En el ltimo caso se escribe directamente X.
Para operar en el espacio de los vectores libres se considera como conjunto de ndices una
estructura de espacio vectorial fija, con origen 0. Entonces el vector fijo XY es equivalente al
vector Y X, con origen 0, y se escribe
XY=Y-X

Y -X

Se demuestra que la relacin deequivalenciaes compatible conla suma y el producto por i


escalares, o sea j

~ | > A >t + A X ~ B Y iIV?' i


AX ^ B Y I |
AX ~ b V a a ( R => a X ~ a Ty

En consecuencia,existen en el conjunto cociente, de los vectores libres, dos leyes de


composicin inducidas que lo caracterizan como espacio vectorial.
Resulta as el espacio vectorial de los vectores libres de R".

7.12. ECUACIONES VECTORIAL Y CARTESIANAS DE LA RECTA

En lo que sigue nos referiremos a vectores libres del espacio euclidiano tridimensional.
Consideraremos una estructura de espacio vectorial, con origen en 0, yla base ortonormal

I = ( 1, 0. 0) J = (0, 1,0) K = (0 ,0 , 1)

Los subespacios correspondientes a los ejes coordenados sern denotados por x, y, z.


Sea A un vector no nulo de componentes l, m y , es decir

A=/ I + m J + K

Si P0 es un punto de coordenadas (x0, y 0, z 0)> entonces existe una nica recta que pasa
por P0 y tiene la direccin de A.
El vector O P0, de origen 0, ser denotado por P0 . Sea X un punto genrico de la recta, de
coordenadas (x, y, z ).
Se verifica que
X - P 0 + P X
-----
Y como P0X es equivalente a t A, para algn t e R, resulta
X = P0 + A (1)
Para cada t e R se tiene un punto perteneciente a la recta. La igualdad (1) es la ecuacin
vectorial param trica de la recta que pasa por P0 y es paralela al vector A. La variable X
depende de , que es el parmetro.
Expresando (1) en trminos de coordenadas es
(x, y, 2 ) = (x 0, y o, z Q) 4- 1 (l, m, n )
Efectuando el producto por t , sumando e igualando las componentes, resulta
f x~Xo+lt
(2)
l z ~ z Q + nt
Las ecuaciones (2) reciben el nombre de ecuaciones cartesianas paramtricas de la recta,
Las componentes l , m y n del vector A suelen llamarse coeficientes directores de la recta.
Si son distintos de cero, eliminando t, se obtiene
x - x o = y - y o _ z - zQ ^
l m n
Las ecuaciones (3) reciben el nombre de ecuaciones cartesianas de la recta.
Considerando la recta en un plano, la forma de la ecuacin vectorial no se modifica, pero
las ecuaciones cartesianas quedan simplificadas, ya que la tercera componente no figura.
Ejemplo 7-13
Determinamos las ecuaciones vectorial y cartesianas de la recta que pasa por
P0 (1, 0 , 2) y es paralela al vector A, siendo A = 3 I J + 2K .
La ecuacin vectorial es
X = P0 + t A
O sea
x I + y + z K - + 2 K + t (3 l - J + 2 K)
Efectuando las operaciones
x I + ^ J + z K = ( - l + 3 0 I - J + (2 + 2 f ) K
Igualando componentes
i x = -1 + 3 t
\y =-t
\ z =2 + 2t
Las relaciones anteriores constituyen el sistema de ecuaciones cartesianas paramtricas
de la recta, y eliminando el parmetro t resulta
x 4- 1 __ y z 2
3 - 1 2
Observamos que los sustraendos de los numeradores son las coordenadas del punto
dado, y los denominadores son las componentes del vector A.

Ejemplo 7-14
Obtenemos las ecuaciones cartesianas de la recta r que pasa por P0 ( l y 2, 3) y es
paralela al vector A = 2 1 + K.
Como
X = P0 + t A
se tiene
x l + y i + z K = l + 2 3 + 3 K + t ( 2 l + K)
O sea
x = 1+ 2 t
y =2
2= 3+ t
Eliminando el parmetro entre la primera y la tercera ecuacin, resulta
x 1 _ z 3
2 1
Efectuando operaciones en la primera de estas ecuaciones se tiene
j jc - 2z = 5
i y =2
Este es el sistema de ecuaciones cartesianas no paramtricas de la recta, y se interpreta
de la siguiente manera: r es la interseccin de los planos cuyas ecuaciones son
x - 2z = - 5 (paralelo al eje>>) e y = 2 (paralelo al plano jcz, por el punto (0, 2, 0)).

7.13. ECUACION NORMAL VECTORIAL DEL PLANO

Consideremos un vector unitario N ^ r t t l + HsJ + ^ IC


Sus proyecciones sobre los ejes son
i = <N , I >= II Nll IIIII eos a = 1 . 1 eos a = cosa
Anlogamente
n 2 = eos j3 n 3 ~ eos y
Los nmeros eos a, eos (3, eos y se llaman cosenos directores del vector N, y se identifican
con sus coordenadas, o sea
N = eos a I + eos 0 J + eos y K
Como el mdulo de N es 1, se verifica que
eos2 a + eos2 0 + eos2 7 = 1
Esta propiedad es vlida para todo vector del espacio. Es decir, la suma de los cuadrados
de los cosenos directores de un vector es igual a 1.
Dados un vector unitario N y un nmero p e R , estamos interesados en determinar la
ecuacin del plano perpendicular a la direccin de N y tal que la distancia del origen al plano
sea p.
El vector N y el nmero p se llaman parmetros normales del plano.

Sea 7Tel plano en cuestin. Cualquiera que sea X e tt se verifica que


PNx = p ( 1)
Es decir
<X >N >- p = 0
Para denotar el producto interior o escalar <X , N > escribiremos X . N.
X . N p - 0 (2)
Tanto (1) como (2) son la ecuacin normal vectorial del plano.
En trminos de coordenadas se tiene
( ^ I + j / J + z K ) (eos a I + eos jS J + eos y K - p) = 0
Efectuando el producto interior resulta
x eos a + y eos P + z eos y ~ p = 0 (3)
La relacin (3) recibe el nombre de ecuacin normal cartesiana del plano. Los coeficientes
de las variables son los cosenos directores del vector normal al plano, y el trmino
independiente cambiado de signo es la distancia del origen al plano.
Multiplicando la ecuacin (3) por k ^ 0, resulta
ax + by + cz + d ~ 0
Esta relacin recibe el nombre de ecuacin general del plano.
Desarrollamos a continuacin el mtodo que nos permite pasar de la ecuacin general del
plano a la ecuacin normal cartesiana.
Sea el plano 7Tde ecuacin
ax + by + cz + d = 0 (4)
El plano ir admite la ecuacin normal
x eos + y eos /3 + z eos y p = 0 (3)
cuyos coeficientes hay que determinar.
Como ambas ecuaciones corresponden al mismo plano, para algn k e R se verifica que

a = k eos a
b = k eos P
(5) c ~ k eos y
d = k(-p)

Sea d 9^ 0; como p es positivo, ~ p es negativo y, en consecuencia, el signo de k es distinto


del de d.
Elevando al cuadrado las tres primeras relaciones y sumndolas, se tiene
a2 + b %+ c2 = k 2 (eos2 a + eos2 /3 + eos2 y)
O sea

En consecuencia
donde el signo de k, por lo observado anteriormente, debe tomarse distinto del de d.
De (5) resulta
a a b c d
eos a = eos (S~ eos y ~ p - -
k k k k
Sustituyendo en (3), la ecuacin normal vectorial es
ax + by
------ s + cz + d =o
---------
\a2 + b 2 + c2

Luego, para trasformar la ecuacin general del plano a la forma normal, se divide el
primer miembro de aquella por la raz cuadrada de la suma de los cuadrados de los
coeficientes de las variables, la que se toma con signo distinto al del trmino independiente.

Ejemplo 7-16
Determinamos la ecuacin normal cartesiana del plano cuya ecuacin general es
x - y + z 1 = 0

De acuerdo con la frmula de pasaje, la ecuacin normal cartesiana es

X -y + z - 1
n /i2 + ( - l )2 + 1
O sea
x - y +z - 1
VT =

O bien

. VLo
3 3 3 3

Los tres cosenos directores son y la distancia del origen al plano es


r~ 3 3 3

3
Observamos que el vector cuyas componentes son los coeficientes de las variables de la
ecuacin general del plano es normal al mismo, ya que se deduce del vector normal
unitario multiplicndolo por k.

Ejemplo 7-17
Obtenemos la ecuacin del plano que pasa por P0 (1, 2, 2), sabiendo que es
perpendicular al vector A = 3 I + J + K.
Cualquiera que sea X perteneciente al plano pedido es

P X 1 A
En consecuencia
FVC. A = 0
es la ecuacin vectorial del plano.
En trminos de coordenadas se tiene

P^X - (x - 1) I + (y - 2) J + (z

Efectuando el producto interior


3 (je - 1) + iy 2) + (z - 2)
O sea
3 x + > + 2 7 = 0

Ejemplo 7-18
Determinamos la distancia entre el plano de ecuacin
2 x - y - 22 + 3 - 0
y el punto P0(l, 2, 3)
Sea tt el plano cuya ecuacin normal es

PN X - p = 0

y sea P0(.*0, y<, z 0) un punto dado.


La distancia entre el plano 7ry el punto P0 es
d = I P NP - p l
O sea, la distancia entre un plano y un punto es el valor absoluto del primer miembro
de la ecuacin normal del plano, cuando se sustituye la variable por el punto cuya
distancia al plano se busca.
Determinamos primero la ecuacin normal del plano dado
2 x ~ y - 2z + 3
=0
V 22 + ( - l )2 + ( - 2)2
O sea
2 1 2
=-x + - v + - 2 - 1 = 0
3 3' 3
Sustituyendo x, y, z por las coordenadas de Pn es

-.3-1
3 3

Ejemplo 7-19
Dados los puntos A ( - 1 ,3 , 2) y B ( - 1, 1, 0) determinamos la distancia del origen al
plano perpendicular a la recta AB, sabiendo que dicho plano pasa por el punto medio
del segmento AB.
Las coordenadas del punto medio de un segmento son las semisumas de las
coordenadas de los extremos de dicho segmento
En efecto:
M = A + AM
B = M + MB
Restando
M B = A M pues AM y MB son equivalentes
Entonces
2M = A + B
0 sea

M = (A + B)
2
En nuestro caso, las coordenadas de M son ( - 1 , 2, 1), y un vector normal al plano es
B = B - A = - 2 J - 2 K
La ecuacin vectorial del plano es
MX . A B= 0
Donde
M X = (x + 1) I + (y 2) J + (z 1) K
Efectuando el producto
0 . (x + 1) 2 (y 2) 2 (z 1) = 0
O sea
2 .y + 2 z - 6 = 0
es la ecuacin del plano pedido. Este plano es ortogonal al vector 2J - 2K, es decir,
al plano y z; en consecuencia, es paralelo al eje x.
Observamos que si el coeficiente de una variable de la ecuacin de un plano es cero,
entonces diclio plano es paralelo al eje correspondiente a esa variable.
La ecuacin normal del plano hallado es
2y + 2 z - 6
=0
2 s2
O sea
s/2 \/2
y + z -
2 2 2
Y la distancia pedida es
3 y T _ 3 y/2
d= 0 -

2 2 2

7.14. CURVAS EN EL ESPACIO

Sea I un intervalo real. Toda funcin


X :I R3
se llama curva paramtrica en el espacio.
Cualquiera que sea e l , X ( ) es un vector cuyas coordenadas dependen de t. O sea,
existen funciones x, y, z de I en R, tales que
X ( ) = (x (t) ,y (t),z (i))
La ecuacin vectorial paramtrica de la curva C es
X =x (f) I + y ( t ) J + z (t) K
Las ecuaciones cartesianas paramtricas de C son
x ~ x ()
y=y( 0

z =z(t)
La curva cuya ecuacin paramtrica es
X (f) = eos 11 + sen t J + K
es tal que sus ecuaciones cartesianas paramtricas son
/ X eos t
| y ~ sen t
\z- 1
cualquiera que sea t e R.
Elevando al cuadrado las dos primeras y sumando eliminamos el parmetro
f x2 + y 2 = 1
C
[ z ~ 1
La representacin de C est caracterizada por la interseccin de dos superficies: la
superficie cilindrica cuya directriz es la circunferencia de radio 1 centrada en el origen e
incluida en el plano horizontal y cuyas generatrices son paralelas al eje z, y el plano de
ecuacin z = 1.
Se trata de la circunferencia indicada en el grfico siguiente:
La representacin de una curva como interseccin de dos superficies se llama implcita, y
en general se denota mediante
c I F (x , y z) = 0
( G(x, j > , z ) = 0

Donde el sistema anterior es tal que se cumplen las condiciones de regularidad dadas por
el teorema de Cauchy Dini, relativo a la existencia de funciones definidas por sistemas de
ecuaciones.
Ejemplo 7-20
Deducimos la ecuacin vectorial de la hlice circular, definida como la trayectoria de
un punto que gira alrededor de un eje y adems se traslada paralelamente a l, siendo
ambos movimientos uniformes.
Suponemos que en el instante t = 0 el punto mvil est en A (a, 0, 0), y que al cabo del
tiempo t est en X (x , y , z).
Se verifica que

ip~ w t y z = vt

Siendo w la velocidad angular del movimiento circular uniforme, y r la velocidad (en


mdulo) del movimiento rectilneo y uniforme.
Las ecuaciones paramtricas en coordenadas cilindricas de la hlice circular son

Se tiene as el sistema de ecuaciones horarias de la curva.


Haciendo

ip=w t ~ u

Resulta

z =v t w t = bu
w
Las ecuaciones cartesianas paramtricas son

La ecuacin vectorial paramtrica de la hlice es


X = a eos u I + b senw J + b u K

7.15. SUPERFICIE CILINDRICA

Sean: una curva C y una direccin del espacio caracterizada por un vector no nulo
A = /I + m J + nK .

Definicin
Superficie cilindrica de directriz C y direccin A, es el conjunto de puntos de las
paralelas a A, que pasan por todos los puntos de C.
r

Las paralelas a A se llaman generatrices.


Para obtener la ecuacin vectorial de la superficie cilindrica 'consideramos un p
cualquiera de la misma; tal punto pertenece a una generatriz, que corta a la directriz t
punto I
La ecuacin vectorial es, entonces
X = 2+AA

Ejemplo 7-21
Determinamos la ecuacin de la superficie cilindrica de directriz
x - eos t

y cuyas generatrices son paralelas


y = sen t
z =0

1. Al eje z, o sea, al vector A = KL


X = 2+ A A ( 1)
Como i (eos t, sen t, 0), de (1) resulta
x I + y J + z K = eos 1 1 + sen t J + AK
Luego
jc = eos t
y = sen t
,z = A
r

es el sistema de ecuaciones paramtricas de la superficie, siendo t y Xlos parmetros.


De las dos primeras ecuaciones resulta
x2 + y2 = 1
siendo z cualquier nmero real.
2. Al vector A = I + J + K
De (1)
x I + y J + z K = eos 11 + sen t J + \ ( l + J + K)
Luego
x = X + eos t
y ~ X + sen t
z=X
Eliminamos los parmetros
x z ~ eos t
y - z = sen t
Y resulta

(x - z f + (y - z f = 1

7.16. SUPERFICIE CONICA

Consideremos una curva C, llamada directriz, y un punto V no perteneciente a C, llamado


vrtice.

Definicin
Superficie cnica de directriz C y vrtice V es el conjunto de puntos de las rectas
determinadas por V y todos los puntos de la directriz.

K
Las rectas consideradas se llaman generatrices.
Sea X un punto genrico de la superficie cnica; X pertenece a una generatriz, la c
corta a la directriz en un punto
Entonces la ecuacin vectorial de la superficie cnica es
x = v + x v n
O bien

X = 2 + AV 2

Ejemplo 7-22
Obtenemos la ecuacin de la superficie cnica de directriz
c x 1 + y* - 1 = 0

y vrtice V ( 0 ,0 ,0 )

Como
(ot - 0 ) I + (0 - 0) J = a l + 0 J
y __ y
X = V 4- X V 2 ,
resulta
X I + y S + z K= \ ( a l 4-/3 J + K)
r

Luego
x = Xa
y = A0
z=X
De donde

a - a 0 =^-

Sustituyendo en (1)
X 2 + y 2 - z 2= 0,
se obtiene la ecuacin cartesiana implcita de la superficie cnica.

7.17. PROYECCION DE UNA CURVA SOBRE UN PLANO COORDENADO

En el clculo de integrales mltiples suelen utilizarse a menudo las ecuaciones de la


proyeccin de una curva sobre uno de los planos coordenados.

Sea la curva C, definida por el sistema de ecuaciones

F (*,>>, 2) = 0 (1)
GCx.j'.z^O (2)
La superficie cilindrica de generatrices paralelas al eje z, y de directriz C, se llama cilin^
proyectante de C sobre el plano horizontal. Su ecuacin es del tipo
f(x,y )=o
y se obtiene eliminando z entre ( 1) y (2).
La interseccin del cilindro proyectante con el plano de ecuacin z ~ 0, es la proyeccin!
de Csobre el plano horizontal.
O sea-
/ ( * ,y ) = o
C'=Pz=oC n
( 2=0
Para obtener la proyeccin de C sobreel plano y z hay que eliminar x entre ( 1) y (2) yj
cortar el cilindro proyectante con el plano de ecuacin x = 0.

Ejemplo 7-23
Determinamos las proyecciones, sobre los planos * y y x z, de la curva
x2 + y2 +22 - 1 (1)

x 2 + y2 - z (2)
1. Eliminamos z entre (1) y (2)
x 2 4-y 2 + ( x 2 + y 2)2 = 1
Pasando a coordenadas polares
p2 + p4 ~ 1
Entonces
p4 + p2 - 1 = 0
Resolviendo respecto de p2

La nica solucin es

O sea

2
La proyeccin sobre el plano horizontal es la circunferencia de ecuaciones

I x 2 + y 2 =-
r PROYECCION

Su radio es ____

2. Si p r o y e c t a m o s sobre el plano y z, se elimina x entre (1) y (2) restndolas


z2 = 1 - z
Se obtiene
z2 +z 1=0
O sea
-\s/5
z ------ -

Y como z > 0 , se tiene


VT-1
z = --------

Resulta
y/5 1
z~
P ^ o C{ 2
x - 0

Ejemplo 7-24
Obtenemos la proyeccin de C sobre los planos x y y x z , siendo
f x 2 + y 2 + z 2= 1 ( 1)
1x 2 + y 2 - x = 0 (2)
1. La ecuacin del cilindro proyectante de C sobre el plano horizontal es
x2 +y2 - x ~0 ( 2)
ya que z no figura.
Luego

p I X2 + y 2 - x = 0
r z =0 c
( z=0

/
es la circunferencia de radio y centro ( ,0 I del plano horizontal.
2 \2
2. Restando (1) y (2)
Luego
( z2 = + 1
P ,= C
1^ = 0
es la parbola de vrtice ( 1, 0) y eje - x del plano x z.
r

TRABAJO PRACTICO VII

7-25. Sea A = ^ ^ ^ J . Verificar que la funcin ( , ) : R2 X R 2 R definida por <X , Y ) =

= X* A Y no es un producto interior en (R 2, +, R , .).


/0 3
7-26. Considerar la misma cuestin siendo A =
\l 0
7-27. En (V, +, R , .) se sabe que v es ortogonal a Vi, v2 y v3. Demostrar que v es ortogonal
al subespacio generado por ellos.
7-28. En un espacio con producto interior el ngulo de los vectores y y z es a. Sabiendo que
y = x + z, demostrar que
y x ||2 = || y ||2 + || z ||2 _ 2 II y II. II z It eos a

7-29. Demostrar
I <x , y > I= II x IIII y II ^ x e y son L.D.

7-30. En Rn se considera el producto interior definido por


<X , Y >= X* Y
Demostrar

(2/,7)2
1=1 <( 1=1
s i=l y f )

7-31. En un espacio euclidiano n-dimensional los vectores v i , v 2, . . . , v n son tales que


( v, ,Vj}= dij. Demostrar que tales vectores forman una base.
7-32. En un espacio euclidiano se considera la funcin
d : V2 R
definida por d ( x , y ) ~ II x y II. Demostrar que (V, d) es un espacio mtrico.
7-33. Sea (V, +, R, .) un espacio vectorial con producto interior, y sea y e V. Demostrar que
la funcin
IF

definida por

/(x)=<x,y>
es una forma lineal.
7-34. Sea < , > un producto interior en (V, +, R , .), y sea / : V -* V una T. L. Demostrar que
tp : V 2 ->R
tal que <p(x , y) = </(x), / (y)> es un producto interior en V, si / es 1 - 1.
7-35. Sea (V, + , R , .) un espacio euclidiano. Demostrar que la funcin

1 . N ( a x ) = a 2 N (x)
2. N (x + y) - N (x) - N (y) = 2 <x , y >

3. N (x + y) - N (x - y) = { x , y )
4 4

7-36. Demostrar que en todo espacio euclidiano las diagonales de un rombo son
perpendiculares.
7-57. Sea (V, +, R , .) un espacio vectorial con producto interior.
Demostrar

2. Ilxll2 + IIyII2 = IIx + y il2 ^ x l y


3. II x - y I! > I lx ll- II y II
4. x 1 y ^ II x + oc y il > II xl!, V a e R

7-38. Sean: V un espacio vectorial euclidiano y A C V. Por definicin, x e V e s ortogonal a A


si y solo si

Demostrar que si x es ortogonal a A, entonces x es ortogonal a A.


7-39. Demostrar que si V es un espacio euclidiano n-dimensional y S es un subespacio de
dimensin m, tal que m < n t entonces existe un vector x e V y x / S tal que x es
ortogonal a S.
7-40. Sean V y S como en el ejercicio anterior. Demostrar que existe un nico subespacio T
tal que
l.xeT=>xlS
r
2 . dim T ~ n - m
3. V = S T

7-41. En (R3, +, R , .) se considera el producto interior habitual.


1. Obtener un vector unitario ortogonal a
Vi = (1 , - 1 , 3 ) y v2 = ( 2 , 4 , 3)
2. Obtener dos vectores unitarios ortogonales entre s y ortogonales a
v= ( 1, 1,3 )
3. Sea la base
[v]= {(1, 1, 1) , ( 1, 1, 0) , ( 1, 0 , 0)}
Construir una base ortonormal a partir de [v] mediante el proceso de Gram Schmidt
7-42.. Sea {v j , v2, . . v n } un conjunto ortogonal en (V, +, R ,.) y sea

a v
i=1 1
Demostrar que

II vf II2

7-43. Sean (V, +, R , .) un espacio euclidiano y ( Vi, v2 , . . vn ) una base de V tal que
n
x e V A y e V = * < x , y ) = xyi
i=1
n n
donde x = 2 x v y y = . y vf
i1 '^1
Demostrar que la base { v3, v2 , . . ., v } es ortonormal.
7'44. Sean: V un espacio euclidiano y A C V, Si 2(A) denota el conjunto de todos los
vectores ortogonales a A, entonces
fi(2 (A )) = A
7-45. Demostrar que si ( Vi, v2 , . . vn } es una base ortonormal de (V, +, R , .), entonces
n
< x , y >= 1 ^ ^ ,

7*46. En (V, + , C ,.), la funcin


<, >: V2 -> C
y! es un producto interior o hermitiano si y slo si

i ) < x , y > = <y ,x>


ii)<x+y,z> = <x,y>+<x,z>
iii) < a x , y > = a ( x , y >
iv) <x , x >> 0
( x , x >= 0 x- 0
Un espacio vectorial sobre C, con producto interior, se llama unitario.
Definiendo
llxil=:V < x ? x > ?
demostrar que
l<x , y ) 1 llxll IIyII

7-47. Sean Pi ( l , 1 , 1 ) y P2(1, 1 ,0). Obtener:


1. Las ecuaciones vectorial y cartesiana del plano perpendicular a la recta Pi P en P,.
2. Las ecuaciones vectorial y cartesianas de la recta perpendicular al plano anterior,
sabiendo que dicha recta pasa por Po(0, 2, -3 ).

7-48. Determinar el conjunto de los puntos del espacio que equidistan del plano
x +y = 1
y del punto F (2, 2,1).
7-49. Obtener las ecuaciones vectorial y cartesiana del plano paralelo al plano
ax +y - a = 0
que pasa por P0(ff, a, 3).
7-50. Hallar la distancia entre el plano que contiene a las rectas
x = y =z
x 1 =y + 2 ~ z
y el punto P0(1>0, 1).
7-57. Obtener las ecuaciones de la recta determinada por los planos
2 x - y + z 2 = 0
y
x+2y-z+=0

7-52, Hallar las ecuaciones de la recta que pasa por el origen y es paralela a la interseccin de
los planos
2x+y-z~0
y
x - 2 y +z = 5

7-53. Obtener la ecuacin de la superficie cilindrica de directriz


x i2 +
Z2 = 1
2
y =2
y cuyas generatrices son paralelas al vector A = I + J + K.
7-54. Determinar la ecuacin de la superficie cnica cuya directriz es la curva del ejercicio
7-53, y cuyo vrtice es V (0, - 1 ,1 ) .
7-55. Obtener las proyecciones de la curva
x 2 +y 2 - z2 = 0
x 2 +y 2 + z2 - 1 = 0
sobre los tres planos coordenados.
7-56. Por cada punto de la recta
x +z=2
y =Q
Se considera la perpendicular a la recta

P'
u= o
Obtener la ecuacin del conjunto de puntos de tales perpendiculares.
7-57. Hallar las ecuaciones vectorial y cartesiana del helicoide recto, que se define como el
conjunto de puntos de las rectas que pasan por todos los puntos de una hlice circular
y que son perpendiculares al eje de sta.
7-58. Sea (V, +, C ,.) un espacio unitario, y sea { Vj}v2>.. v } una base ortonormal del
mismo.
Demostrar que
< X , Y >= X* Y
" n
siendo X = x vt y Y S y v,
,~1 i=l
7-59. Sea P e RrtX" una matriz ortogonal. Demostrar que las lneas de P constituyen una base
ortonormal de RM, considerando el producto interior habitual.
1
7-60. Sea P e R"*rt una matriz ortogonal tal que p n = Vj = 1, 2 , . . n. Demostrar que

i < / =>2 p u = 0

7*6/. Sea dimK V = n > l y sea <, >un producto interior en V.


Demostrar que si / e V * , entonces existe un nico vector x e V, tal que / (y) =
= <x , y >, Vy 6 V.
7-62. Sean: un espacio unitario V de dimensin finita y [v]= { Vi, v2, . . ., v una base
ortonormal del mismo.
Demostrar que
/1
x e V =>x = 2 <x , v{)
i=l '
Captulo 8

VALORES Y VECTORES PROPIOS.


DIAGONALIZACION

8.1. INTRODUCCION

Desarrollamos en este captulo los conceptos de valores y vectores propios de un


endomorfismo en un espacio vectorial y de la matriz asociada en el caso de dimensin finita.
Demostramos las propiedades fundamentales de los mismos y su determinacin a partir del
polinomio caracterstico. Encaramos despus el problema de la diagorializacin de
tras formaciones lineales y matrices, as como tambin el de la triangulacin. Por ltimo,
demostramos el teorema de Hamilton-Cayley.

8.2. VALORES Y VECTORES PROPIOS

8.2.1. Concepto

Consideremos un espacio vectorial (V, +, K , .) y un endomorfismo


/ : V -> V

Definicin
El escalar X eK es un valor propio de / si y slo si existe un vector no nulo x e V, tal
que f ( x ) ~ \ x .
Todo vector no nulo que satisfaga la condicin anterior se llama vector propio de /,
asociado al valor propio X.
En consecuencia, un vector propio de un endomorfismo es un vector no nulo cuya imagen
es un mltiplo escalar del mismo.
Las expresiones valor propio , valor caracterstico y autovalor son sinnimas.
Tambin lo son vector propio, vector caracterstico y autovector .

Ejemplo 8-1
Considerando (R2, +, R , .) y la trasformacin lineal
/ : R2 R2
definida por
/ ( * i * 2) = (2xi - 2x 2) ,
el escalar X = 2 es un valor propio de f, ya que el vector no nulo (2, 1) es tal que
/( 2 , 1)= (4, 2) = 2 (2 ,1 )
(2, 1) es un vector propio asociado al valor propio 2 .

8.2.2. Propiedad

Si Xes un valor propio de una trasformacin lineal / : V}y si S \ es el conjunto de los


vectores propios asociados a X, entonces = S \ U {0 } es un subespacio de V.
En efecto:
1. 0 e => # 0.
2. S \ C V por definicin de S \.
3. Sean x e y pertenecientes a S\.
Si x = 0 v y = 0, entonces x + y Sx.
Supongamos que x ^ O e y ^ O

x 0 A y ^ O ^ x e S x A y e S \ = >
=> f ( x ) ~ Xx A/ ( y ) = Xy =*/(x) + / ( y ) = Ax + Xy =*
=>/ (x + y) = X (x + y) => x + y e S \ => x + y e SA

4. Sean a e K y x eS^.
Si x = 0 o a - 0, entonces a x e S \.
Consideremos el caso en que x ^ O y ^ 0 :

aeK/\ x ^ O ^ a e K a x e S \ =>a e K a/ ( x) = Xx =>


=>a / ( x ) = a (X x ) =>/(a x) = X(ox) = > a x e S \ =
=*ax eS^

En consecuencia, (S^, +, K ,.) es un subespacio de (V, +, K , .).


De acuerdo con lo demostrado en 4., afirmamos que si x es un vector propio de /asociado
a X, y a 0, entonces a x es un vector propio asociado al mismo valor propio.
Observamos tambin que la restriccin d e / a S^ es una homotecia de razn X

8.2.3. Valores y vectores propios de una matriz

Definicin
El escalar Xes un valor propio de la matriz A e K " x" s y solo si existe un vector no
nulo X e K ',xl tal cjue AX = a X
Un vector no nulo que satisfaga la relacin AX - XX se llama vector propio de A asociado
al valor propio X
Afirmamos entonces que. un vector propio de una matriz A K"xn es un vector propio de
la trasformacin lineal de KMen K representada por A en la base cannica.

Ejemplo 8-2.
Si V es el espacio vectorial sobre el cuerpo de los nmeros reales, de las funciones
f : R -* R infinitamente derivables y
D : V - V
es el endomorfismo definido por

D(f)=yt ,
dx
entonces la funcin f e V, tal que f (x) = e * x es un vector propio de la trasformacin
lineal D, pues

D( f ) = - X<?x* V e R
dx
Ejemplo 8-3
Si A e K nxn es una matriz diagonal, entonces cualquier vector cannico E , e K MX1,
donde / = 1, 2 , es un vector propio de A.
En efecto, sea
I dx 0 . . . 0 '
0 d2 . . . 0
A=

0 0
"
Entonces
dx 0 ... 0 ^ \
... 0 I o\ .
. o

. ^

A Ef = 1 = di dE
:i
.0* ...
lo/ lo /
Los valores propios de A son los elementos de la diagonal.

8.2.4. Propiedad
Los vectores propios asociados a valtres propios distintos son linealmente independientes.
Sean
una trasformacin lineal y Xj, x2, . . xn vectores propios asociados a Xj, A ^ . . tales
que
i => A* =
Demostraremos que X j, x2, .. x son linealmente independientes.
1 .n ~ l=>xx = 0 ^ x 1 esL.I.
2. ( x , , x 2, . . . , x h } es L.I. => j x , , x 2, .. .,x h, x h + 1 | esL J.
En efecto, consideremos
/J+ 1
,?x a Xi = (0
Multiplicamos por \ + x
al Xl + + ah \ +1 xAt + ai+ 1 \i+ 1 xh+ 1 = 0
A plicando/a (1)
a i Ai Xi + . , . + a f)X/1Xfl + a h + i \ + i x ft + i = 0

Restamos estas dos igualdades


i (\i + i - M * i + + ah ( h + i - h t ) xh = 0
Por la hiptesis inductiva resulta
<H(h +1 \ ) = 0 Vr = 1 , 2 , . . . , /i
Y como A, +1 A, O, resulta
af= 0 Vi = 1 , 2 , . . . , h
Sustituyendo en (1), se tiene
ah + l x h + l = O

O sea a h+ i = O, ya que x h + x ^ O
En consecuencia
c*i = a 2 = . .. = <xh = a /t + 1 = 0

Y por lo tanto
j x l5x2 j . . . , x n ( esL.I.

8.2 .5. P ropiedad

Si / es una trasformacin lineal del espacio vectorial V, de dimensin finita, en s mismo,


entonces A e K es un valor propio de / s i y slo si / - A/' es singular.
i denota la trasformacin identidad en V.
1. Sea Aun valor propio d e /. Entonces existe x = 0 en V, tal q u e /(x ) ~ Ax
Ahora bien
/( x ) = Xx =>/(x) - X i (x) = 0 =>f(x) - (A/) (x) = 0 => ( f - A/) (x) - 0.

En consecuencia, N ( f - A/) {0 }, o s e a , / - A/ es singular.


2. Supongamos ahora que / - A / es singular, o sea, no inversible. Esto significa que
/ - Az : V V es tal que N ( f - A/) 10} . En consecuencia, existe x e V, x =0 tal
que ( f - A/) (x) - 0. De acuerdo con el lgebra de las trasformacioneslineales, setiene
/ ( x ) - (A 0 (x) = 0
Es decir
/ ( x ) = A / (x) = Ax
y por consiguiente A es un valor propio de /.
En trminos de matrices esta propiedad se traduce de la siguiente manera:
Si A e K"x", entonces A e K es un valor propio de A si y slo si A - A1 es singular.
Equivalentemente
Aes un valor propio de A e KMxn D (A - AI) = 0

Ejemplo 8*4
El lector podr demostrar, al realizar el trabajo prctico, q u e todo endomorfismo en V,
donde V es un espacio vectorial d e dimensin finita y mayor o igual que 1 sobre el
cuerpo de los complejos, admite un vector propio.
Pero si el cuerpo no es C, entonces pueden no existir vectores propios. En efecto, sea
(R2,+ ,R , .)y sea

/ : R2 -> R2
tal que
f ( x i , x 2) = (xi eos 6 - x2 sen d, Xi sen Q + x 2 e o s 6)
Si existiera (x i , x 2 ) e R2 , (x i , x 2 ) = (0, 0), tal que para algn X e R
f ( X l , X 2) = X (* l,* 2 ) ,
entonces

eos 6 - x 2 sen 6 = X xi
Xj sen 6 + x 2 eos 6 = \ x 2
O sea

(X - eos 6) x i + x 2 sen 6 = 0
- x i sen 0 + (X - eos 6) x 2 = 0
1

Si el sistema admite soluciones no triviales debe ser

A. eos 6 sen 9
= 0
sen 6 X - eos 0

Luego

(X - eos 0)2 + sen2 0 = 0


X2 - 2 Xcos 6 + 1 - 0
X= eos 6 Veos2 0 - 1
Si 6 = 60, entonces

X =1 A r
2 4
Slo existen vectores propios si 0 = n ir.
C onsiderando (R 2 , + , C ,.) existen valores y vectores propios. El endom orfism o /
representa u n a ro taci n del p lano de ngulo 0 alrededor'del origen.

8.2.6. Propiedad

Si / : V V es una trasformacin lineal, y si adems existe una base


[v] = Vj, v2, . . . , vn } formada por los vectores propios de / correspondientes a los valores
propios Xi, X,. X n entonces la matriz de / respecto de esta base es la matriz diagonal
1 x, o ... o
0 Xa . . . 0
D=

0 0 ... \
En efecto, la matriz de / respecto de [v] se obtiene determinando las imgenes de los
vectores de dicha base, y teniendo en cuenta la definicin de vector propio es
/(V l) = Xi V! = Xj Vi + 0 v 2 + . . . + 0 v
/(V 2) = Xj v2 = 0 V! + X2 v2 + . . . + 0 v

/(v) = \, V = o V , + 0 V 2 + . . . + X V

En consecuencia, resulta
Xi 0
0 X2
D=

0 0 ... X j
En este caso diremos que la trasformacin lineal / es diagonalizable.
Una consecuencia del teorema demostrado es la siguiente:
Si dim V = n y / : V -> V es un endomorfismo que admite n valores propios distintos,
entonces / e s diagonalizable.
Esta afirmacin es obvia en virtud del teorema anterior y de 8.2.4.
En trminos de matrices diremos que si A e K nX1 admite rt valores propios distintos,
entonces existe P e K x" no singular, tal que
P '1 A P es diagonal

Ejemplo 8-5
Determinamos los valores y vectores propios de A, siendo
3 2
-1
De acuerdo con 8.2.5., consideremos
D (A XI) = 0
0 sea
ise 3- X - 2
=0
;es - 1 2 -X
lal
Resolvemos respecto de X
(3 - X) (2 - X) - 2 = 0
X2 ~ 5 X + 4 = 0
5 V 25 - T _ 53
X-
2 2
os
Las races son:
Xi ~ 1 > X2 ~ 4
Para cada X resolvemos el sistema
(A - XI) X = 0

2 x t - 2x2 - 0

i)C; - x t + j2 = 0

El sistema es equivalente a
Xi - x 2 = 0
De donde
Luego

H I
X, es un vector propio asociado a \ = 1.
1 -2 \ x A 0
2. \ 2 = 4 => | I, l , I, , = I . 1 => - Xi - 2 x 2 = 0- =*xx
- i + 2 x 2 =0
= n=!>
- 1 2 / \ x 2f \ 0
-2
=*Xi = - 2 x 2 ^ X a = I

X2 es un vector propio asociado a \ 2


Los vectores Xj y X2 son L.I. y forman una base de R2.
A es diagonalizable, y su forma diagonal es
1 0
D=
' 0 4
Si P es la matriz cuyas columnas son los vectores propios, entonces es
P1 A P = D

8.3. POLINOMIO CARACTERISTICO DE UNA MATRIZ

8.3.1. Nota sobre polinomios

Sea K [X] el anillo de polinomios del cuerpo K (vase captulo 12 de Algebra /, del
autor).
Si P e K [X], escribimos

P(X)=* 2 ^X *
y ' =o
donde a e K y an =0, o sea g P = n.
Dada la matriz cuadrada A, definimos

P (A )= ai A1
v ' iO
Haciendo A = I, se tiene
P(A)=* An + a n-i A"1 + . . . + a t A + a 0 I
La matriz P (A) es la especializacin de X por A.

Ejemplo 8-6
En R [X] consideremos
1 1
A=
0 2
Entonces
P (A) = 2 A2 - A - I
1 1 \ /-1 l\ /-1 1\ /1 0
=2 , , , , , , ,
0 2/ \ 0 2/ \ 0 2/ \0 1

- 2,1 'U 1 - U 0
0 4/ \ 0 -2 / V 0 1

2 2 + / = 1
0 8/ \ 0 -3 / 0 5
Se verifica que
1.(P + Q )(A )= P (A ) + Q(A)
2. (P . Q) (A) = P (A) , Q (A)
3. (a P)(A ) = a P (A )
Si <*!, a2, . . son elementos de K y

P (X) = (X <*i) (X - c*j) . . . (X <*),


entonces es
P (A ) (A a l I)(A -ota I ) - . . ( A - a n I)

Ejemplo 8-7
Si A e Kxrt, entonces existe un polinomio no nulo P K [X] tal que P (A) = N, donde
N denota la matriz nula del tipo n x n.
En efecto, la dimensin de (K"xn, +, K ,.) es n2. Esto significa que las matrices
I, A, A2 , . . . , A m
son linealmente dependientes si m > n2.
En consecuencia, existen escalares ai, a2, . . am, no todos nulos, tales que
am Am + a m.i Am l + . . . + a x A + a0 I = N
O sea, existe
P ( X ) = a m Xm + a m-i Xm_1 + . . . + 1 X + 0
en K [X], que satisface
P(A)=N
8.3.2. Polinomio caracterstico

Definicin
Polinomio caracterstico de una matriz A e K " x* es el determinante de la matriz
XI A.
O sea
X ~ a n ~ a 12 a ln
21 X- 2a "
P (X) = D (XI A) =

&n l @n2 X &nn


Desarrollando por loselementos de la primera columna yreiterando el procedimiento en
los sucesivos cofactores, se obtiene una suma del tipo
(X n ) . . . (X tffj/i) >*
donde los trminos, a partir del primero, son de grado menor que n.
Resulta
P (X) = Xn + c - 1 XM 1 + . .. + Ci X + c<>

Ejemplo 8-8
Determinamos el polinomio caracterstico de A, siendo
/ -1 2 2
A= 2 2
\ -3 -6

X+ 1 -2 -2
P (X) = D (XI A) = -2 X 2 2
3 6 X+ 6

X- 2 -2 -2 -2 -2 -2
= ( X + 1) + 2 + 3
6 X+ 6 6 X+ 6 X -2 -2

= ( X + 1) (X2 + 4 X) + 2 ( - 2 X ) + 3 . 2 X
= X3 + 5 X2 + 4 X - 4 X + 6 X = X3 + 5 Xa + 6 X
Una raz es Xj = 0. Las otras dos lo son de
X2 + 5 X + 6

O sea
Resulta
X2= ' 3 X3=-2

8.3.3. Propiedad

El escalar X es un valor propio de A e K " xn si y slo si X es raz del polinomio


caracterstico de A.
1. Sea Xun valor propio de A. Entonces, de acuerdo con 8.2.5., A XI es singular, y por
consiguiente tambin lo es XI A, o sea, D (XI - A) = 0.
En consecuencia, Xes una raz del polinomio caracterstico.
2. Supongamos que Xsea una raz del polinomio caracterstico de A. Entonces es
D (XI A) = 0
O sea, X l - A y A XI son singulares. Esto significa que X es un valor propio de A,
por 8.2.5.
Usualmente, la determinacin de los valores propios de una matriz, es decir, de las races
de su polinomio caracterstico, no es simple. Los mtodos adecuados a este fin son temas de
Clculo Numrico, que no trataremos en este texto.

Ejemplo 8-9
Determinamos los valores y vectores propios de A e C2 , siendo

El polinomio caracterstico es

P ( \ ) = D (XI A) = X 2 2 = ( \ - 2 ) 2 +4
2 A 2
Por distributividad es
(XI - A ) X =0

l. = 2 + 2i=*l
2i -2 \ xA 0\ 2iXl-2Xi=Q ===^bci- x
\ 2 2ij \ x 2/ \ 0 1 2 X l +2X2 =0

>x2 = ix |
' 1
Un vector propio es X* =
1f

2. X, = 2 - 2/ - ( " * ) ( ** ) = ( | 2*. - 2 * , = 0

Un vector propio asociado a X2 es


' i
X = ' i
1 i
Si P = ( I , entonces es
i 1

/ 2 + 2i 0
P"1 A P =
\ 0 2 - 2 i

La matriz A ha sido diagonalizada.

Ejemplo 8-10
Probaremos ahora que los valores propios de toda matriz involutiva son 1 o 1.
Sea A e K nxn, tal que A2 ~ I.
Si X e K "xl es un vector propio asociado al valor propio X, entonces
A X = XX (1)
Premultiplicando por A
A2 X = X A X
Como A2 - l , se tiene
I X = XAX
O sea

X = XAX (2)
De (O y (2) se deduce
X = XXX
Es decir
(1 - X 2) X = 0
Como X =0, resulta 1 - X2 = 0, y en consecuencia X= 1.
Con procedimiento anlogo el lector podr comprobar que los valores propios de toda
matriz idempotente son 0 o 1, es decir

8.3.4. Propiedad

Dos matrices semejantes tienen el mismo polinomio caracterstico, y en consecuencia los


mismos valores propios.
Hiptesis) A ~ B en Knxrl
Tesis) D (XI - A) = D (XI B)
Demostracin)

A B =>3 P no singular / B = P 1 A P Por 4.19.5.

Entonces es

D (XI B) = D (X P1 I P P"1 A P) =
= D [P"1 (XI A) P] ~ D (P"1) D (XI - A) D (P) =
= D (P_1) D (P) D (XI A) = D (P"1 P ) D ( X l - A ) =
= D (I) D (X1 - A) = 1 . D (XI - A) = D (XI - A)

La recproca no es cierta, ya que dos matrices pueden tener los mismos valores propios y
no ser semejantes.
Un contraejemplo se presenta considerando las matrices

8.3.5. Polinomio caracterstico de una tras formacin lineal

Sea / : V -> V una trasformacin lineal y sea [v] = j Vi, v2, . . ., v } una base de V.
Entonces/est caracterizada por una matriz A e KMXM respecto de [v].
Si [vl = { vi , v2. . . . , v \ } es otra base de V, entonces existe una matriz no singular
P e KMXn tal que la matriz de respecto de la base [v], verifica

Las matrices A y B admiten el mismo polinomio caracterstico, de acuerdo con 8,3.4. El


polinomio caracterstico de cualquiera de las matrices que caracterizan a / se llama
polinomio caracterstico de la trasformacin lineal.
8.4. DIAGONALIZACION DE MATRICES

8.4.1. Definicin

Una matriz A e K "x" es diagonalizable si y slo si es semejante a una matriz diagonal


O sea
A e K nxn es diagonalizable o 3 P no singular / P '1 A P ~ D
donde D es diagonal.

8.4.2. Propiedad

Si A e Knxn es diagonalizable, entonces su forma diagonal es D ^(X, Sy), donde \ cot


/ = 1 , 2 , . . . , son los valores propios de A.
En efecto:
X - di 0 ... 0
0 \ - d 2 ... 0
A es diagonalizable = > A ~ D= >D( XI D) =

0 0 \-d r

El polinomio caracterstico de A es
P (X) = ( X - ( X - 2) (X - d)
En consecuencia, los elementos de la matriz diagonal son los valores propios de A.

8.4.2. Propiedad
ele
Una matriz A e K nx" es diagonalizable si y slo si A admite n vectores propic
nd
linealmente independientes.
1. Sea A diagonalizable.
da
A es diagonalizable = > A ~ D = > 3 P n o singular / P~l A P = D => A P = P D (1) lo <
hoi
Particionando P en vectores columna, o sea
P ( X , X2 . .. X),
es

/ X1 o . . . o
o Xa . . . 0
P D ~ ( X i X 2 . . . X n) (Xi X t X2 X 2 - - - X X) (2)

o o ...
Adems
A P = A(X, X2 . . . X ) = (AX , A X 2 . . . A X J (3)
De (1). (2), y (3) resulta
A X j-^X , 1,2,...,
Luego las columnas de P son n vectores propios de A, y como P es no singular, tales
columnas son L.I.
En consecuencia, A admite n vectores propios L.L
2. A admite n vectores propios L.L
Sean tales vectores propios: X j , X2, . . Xn.
Por definicin es
A X, = A, X, V i 1 , 2 , . . . ,
Sean
P = (X t X2 . . . X J y D = ( \ 6 tf)
Se tiene
A P = (A Xj A X2 . . . A Xn) = (Ai Xi A2 X2 Afj Xn) =
= (X, X2 . . . X ) ( \ 8 , , ) = P D
Como P es no singular resulta
P"1 A P - D
O sea, A es diagonalizable.

8.4.3. Races del polinom io caracterstico y diagonalizacn

De acuerdo con 8.2.4., si los valores propios del polinomio caracterstico de A e K nxn son
elementos distintos de K, entonces los vectores propios asociados son linealmente
independientes, y, por 8.4.2.2., A es diagonalizable.
En general, si el polinomio caracterstico de A tiene races mltiples, la matriz no es
diagonalizable. Para que lo sea, debe cumplirse la condicin suficiente demostrada en 8.4.2.,
lo que significa que a toda raz mltiple de orden p debe correspondere un sistema lineal y
homogneo cuyo espacio solucin tenga dimensin p.

Ejemplo 8-11
La matriz

no es diagonalizable.
Determinamos los valores propios
X 1 1 0
P (X) = D ( X 1 A) = 0 X -l -1
0 0 X -l
~ (X l ) 3 =* Xi = X2 ~ X3 = 1.
Los vectores propios asociados a esta raz triple satisfacen a
( X I - A) X = 0
O sea

Luego
- x 2 + 0jc3 = 0
O*) + 0 x 2 - x 3 ~ 0
El rango de la matriz de coeficiente es 2, y en consecuencia es
dim S = 3 2
'1
O sea, liay un solo vector propio linealmente independiente de la matriz A.
Por consiguiente, A no es dagonalizabie.

Ejemplo 8-12
La matriz

es diagonaJizable y sus valores propios no son todos distintos.


En efecto:

X+3 0 4
P (X) = D (XI A) = -4 X -l -4
-2 0 X- 3

X+3 4
-2 X- 3
4 0 4\ Xl\ 0
L i
La matriz del sistema tiene rango i , o sea
dim S = 3 - 1 = 2
A A3 = - 1 le corresponde un vector propio linealmente independiente. Luego A es
diagonalizable y su forma diagonal es
/1 o o'
D=i 0 1 0
\ 0 0 -1

8.5. TRIANGULACION DE ENDOMORFISMOS Y DE MATRICES

Hemos visto que no siempre es posible diagonalizar una trasformacin lineal o una matriz
cuadrada. Cabe preguntarse si es posible determinar una base tal que, respecto de ella, la
matriz de una trasformacin lineal de un espacio de dimensin finita en s mismo sea
triangular. La respuesta es afirmativa si el cuerpo es el de los nmeros complejos.
Consideremos un endomorfsmo
/ : V-> V
donde dimx V = > 1.
En lo que sigue, introduciremos el vocablo fan, cuya traduccin es abanico, para denotar
una familia de subespacios de V que satisface ciertas condiciones.

8.5.1. Concepto

Un fan d e / e n V es una n-upla de subespacios de V: St , S2, . . S}tales que


i ) Son crecientes en el sentido de inclusin:
S, C S 2 C S 3 C . . . C S
i i ) dim S, ~ / , V = 1,2, .. n
iii) Son invariantes, o sea
x e Si =*/(x) e S Vi - 1 , 2 , . . ,,n
Esta condicin equivale a
/(S/)CS, Vz = 1 , 2 , . . . ,
Es obvio que S = V.
Definicin
Si ( S i , S2, .. ., S ) es un fan de / en V, entonces la familia [v] = { V|, v2, . . v }
es una base fan de V si y slo si ( Vj, v2, . .., v, } es una base de Sf para todo
= 1 , 2 , . . . , .
El teorema de extensin 2.6 .3. nos permite afirmar que existe una base fan.

8.5.2 . Propiedad

Si [v] es una base fan de V, entonces la matriz asociada a todo endom orfism o/: V -> V es
triangular superior.
Sabemos ue para obtener la matriz d e/resp ecto de una base, hay que determinar las
imgenes de los vectores de la misma y expresarlos como combinaciones lineales de tales
vectores. Teniendo en cuenta adems la definicin de subespacio invariante, resulta
Vi eS! ^/(Vj)e Sx =>/(,) = !! v t
v2 e S 2 =*/(v2) e S2 =>f(v3) = a n vt + a22 v2

v eS =>f(\n) e S n =>/(v) = a ln Vi + ff2n v2 + . . . + a nn v


Por consiguiente, la matriz de/respecto de la base fan es
^ a il a2 * * a\n
0 22 . . . &2n
A=

0 0
Si / : V - V es una trasfonnacin lineal y si existe una base respecto de la cual la matri
de / es triangular, entonces diremos que / es triangulable. I
En trminos de matrices, diremos que A e K nXfl es triangulable si y slo si exisi
P e KrtX" no singular, tal que P '1 A P es triangular. Demostraremos que toda matriz pued
ser triangulada sobre el cuerpo C.

8 .5.3. P ropiedad

Si V es un espacio vectorial de dimensin finita mayor o igual que 1, sobre el cuerpo d


los complejos, y s i / : V -* V es una trasformacin lineal, entonces existe un fan d e / e n V.
Demostramos esta afirmacin inductivamente.
1. Si dim V = 1, entonces nada hay que probar.
2. Supongamos que la propiedad es vlida si dim V = 1. Demostraremos que lo es
dim V = n.
Sea Vj un vector propio de / , el cual existe de acuerdo con el ejercicio 8-46, y sea Si
subespacio generado por Vt. Resulta dim S t = 1.
Siendo Si un subespacio de V, existe un subespacio W cuya suma directa con Si es
(ejercicio 7-40), o sea

l
f
Consideremos las proyeccionesp j y p 2 de V sobre St y W, respectivamente.
La composicin p 2 / e s una trasformacin lineal de V en V tal que si x eW, entonces
/(x ) e W. Restringiendo el dominio a W, podemos considerar a p 2 f como una
trasformacin lineal de W en W. De acuerdo con la hiptesis inductiva, existe un fan de
p2 o f e n W. Sea ste
| w , , w 2...... w_, |
Consideremos ahora los subespacios

Sf = S! + W M

parar = 2 , 3 , . .
Se verifica que dim S, = i, ya que si { wl5 w2, .. wj ) es una base de W, entonces
{Vj, Wi ,. . . , w,-_i } es una base de S,, i ~ 2 , 3 , . . n.
Adems, S C S +1 para todo / = 1 , 2 , . . . , ,
Para demostrar que { S l9 S2, . . S } es un fan de / en V, es suficiente probar que
/ ( V f)CV, .
Observamos que
f = iv f= ( P i +P2 )f= P i f + P i f (1)
pues/?i + p 2 = iy (ver 3 4 6 )
Sea x un vector cualquiera de S :
x e S => x = avi + w,, donde a e C y wf e W
Teniendo en cuenta (1) es
/ ( x ) = (Pi f + P 2 / ) ( x ) = (Pi / ) ( x ) +(Pa / ) ( x ) (2)
Ahora bien
(P i f ) (x) = P i l f (x)] S!, y en consecuencia
P\ f ) ( x ) e S i (3)
Por otra parte
(Pi /)(x) = (P 2 /)(Vi) +(Pz f)(w) = ap 2 (/(vi) ) +(p2 /)(w1) =
= a p 2 (Xi v O + (p2 <>f) (w,) = a p 2 ( v j) + (p2 f) (Wf) = 0 + (p2 f ) (w) =
= (P2 f) (w)
de acuerdo con la descomposicin de x, la definicin de trasformacin lineal, y considerando
que Vi es un vector propio de / . Por la hiptesis inductiva se sabe que (p2 f ) (W,) C Wf, y
por consiguiente
(P 2 f ) (x) = (Pi f ) (w,) W,
T

Considerando (2), (3) y (4) resulta


/ ( x ) e Sf
Es decir
x e S , =>/(x) eS,
Luego { S i , S2, .. S j es un fan de/ en V.
Son consecuencias inmediatas de este teorema de existencia y de 8.5.2., las siguientes:
1. Si dimc V - n > 1 y / : V -> V es una trasformacin lineal, entonces existe una base de
V tal que la matriz de / respecto de dicha base es triangular superior.
II. Si A e C nx", entonces existe P e C nx", no singular, tal que P '1 A P es triangular
superior.

8.6. TEOREMA DE HAMILTONCAYLEY

El teorema de Hamilton-Cayley, fundamental en la teora de la resolucin de ecuaciones


matriciales, afirma que toda matriz cuadrada es raz de su polinomio caracterstico, esto es,
si P (X) es el polinomio caracterstico de A e K/1* ", entonces P (A) = N.
Desarrollaremos primero una demostracin en el caso particular que se presenta si la
matriz A, del tipo n x n y admite n vectores propios.
Para esto utilizaremos la siguiente propiedad que se propone como ejercicio del trabajo
prctico: si X, es un vector propio de la matriz A, asociado al valor propio X,, entonces X es
un vector propio de la matriz A", correspondiente al valor propio X.
Consideremos el polinomio caracterstico de A
P(X) = X + c n_i X""1 + . . . + c t X + c0
Entonces
P (A) = A" + A' 1 + . .. + c t A + c0 I
Multiplicando a derecha por el vector propio Xf asociado al valor propio Xj, y teniendo en
cuenta la propiedad mencionada, es
P(A)X,- = A X, + cn-t A"-1 X: + . .. + c t A X i + Co X =
= X? X, + c.i A,"1 Xj + . . . + ci X( X( + Co X| =
= ( ? + < v , x r > + . . . + < , X f + c ) ^
= 0X, = 0 V / = l , 2 , (1)
Sea P *=(Xi X2 . . XM) la matriz cuyas columnas son los vectores propios de A.
Considerando (}), se tiene
P ( A ) . P = ( P ( A ) X , P (A )X 2 . . . P (A) X ) =N
Y como P es no singular, resulta


P (A) = N

Ejemplo 8-13
Utilizando el teorema de Hamilton-Cayley, determinamos la inversa de la matriz A del
ejemplo 8-5.
3 -2
A=
, 1 2
El polinomio caracterstico de A, es
P (X) = X2 - 5 X + 4
Entonces es
P (A ) = A2 - 5 A + 4 I = N
O sea i
I = (A2 - 5 A)
4
En consecuencia, multiplicando por A"1;

A '1 = (A 5 I)

Como
A- 5I

Resulta

i i
2 2

J_ 2
4 4

Demostraremos ahora que toda matriz A e Cnx" satisface a su polinomio caracterstico, o


sea

A e Cnxn => P (A) = N


En efecto, sea el polinomio caracterstico de A:
P (X )= D (X I-A ) (1)
Sabemos que el producto de toda matriz cuadrada por su adjunta es igual al determinante
de aquella por la matriz identidad (5,8.3.). Entonces
Teniendo en cuenta (1) es
(XI - A) Adj (XI - A) = P (X) . I (2)
Loselementos de Adj (XI A), por ser los cofactores de (XI A), son polinomios de
grado menor o igual que n 1, y en consecuencia
Adj (XI - A) = A_, X* '1 + A_2 Xn' 2 + . . . + Aj X + A0 (3)
De (2) y (3) resulta
An - 1 X" + (A-, - A A .,) X"-' + (A_3 - A A J ) X"2 + . . . +
+ (A0 A A^) X. A Afl = X 1 + cn^i Xn 1 I + . .. + Ci XI + c0 I
O sea
A-, ~ I
Ajx- 2 ~ A An_i ~ Cfi-i I
3 A An2 = Cn - 2 I

A0 A Ai = Ci I
A A0 = Cq I
Luego de premultiplicar por A , A"-1,. . A e I, respectivamente, se tiene
A " A .1 = A n
A""1 A_2 - A " A ^ - c ^ A"-1
A"2 A^g - A"1 A_i = cn_ An"2

A A0 - A2 A i = Cj A
A Aq = Cq I
Sumando, despus de reducir, es
N = A" + c n -i A "" 1 + . . , + < ? ! A + c 0 I
O sea
P (A) = N
1. / : R2 ->R2 definida p o r / ( x j , x 2) = (4.x: j + 3jc2 i 3xi - 4x2)
2. f : R3 -+ R3 tal que f ( x , y , z) = (2y - z , 2 x - z , 2x ~ y )

8-15. Obtener los valores y vectores propios, si existen, de las matrices siguientes con
elementos en R:

8-16. Demostrar que si X es un valor propio de A e K"x" y sta es no singular, entonces X es


no nulo.
8-17, Demostrar que si Xes un valor propio de la matriz no singular A, entonces X1 es un
valor propio de A"1.
8-18. Demostrar que si X, es un vector propio de la matriz A asociado al valor propio X,
entonces X es un vector propio de k n correspondiente al valor propio X?
8-19. Demostrar que si X t es un vector propio de la matriz A, correspondiente al valor
propio Xj, entonces Y = S"1 Xj es un vector propio de la matriz S"1 AS, asociado a
Xi.
8-20. Determinar el polinomio caracterstico, los valores y vectores propios de cada una de
las siguientes matrices complejas:

8-21. Demostrar que si P (X) es el polinomio caracterstico de la matriz A eC niin entonces


cn-i es el opuesto de la suma de los valores propios y el trmino independiente es igual
al producto de (1) y el producto de los valores propios.
8-22. Demostrar que si A e Cnx'*, entonces la traza de A es igual a la sumade los valores !
propios y el determinante de A es igual al producto de los valores propios. .
8-23. Demostrar que los valores propios de toda matriz idempotente son 0 1. j
8'24. Demostrar que dos matrices traspuestas tienen el mismo polinomio caracterstico.
8-25. Investigar si la siguiente matriz es diagonalizable

8-26. Sea una matriz A e CrtX'1 tal que Afc = I. Demostrar que si X es un valorpropio de A,
!
entonces Xfe = 1. j

8-27. Demostrar que los valores propios de una matriz triangular son los elementos de la j
diagonal.
8-28, Por definicin, una matriz cuadrada A es nilpotente si y slo siexiste un entero ;
positivo k, tal que A k = N. Demostrar que los valores propios de toda matriz ;
nilpotente son nulos. !

8-29. Demostrar las siguientes propiedades:
1. Dos matrices semejantes tienen sus trazas iguales. j
2. Si k es un entero positivo, entonces tr Ah = X X^.
3. La traza de toda matriz idempotente es igual a su rango.
4. La traza de una suma es igual a la suma de las trazas.
5. Las trazas de dos matrices traspuestas son iguales. ;
6. Las matrices A B y B A tienen trazas iguales.
7. tr (ABC) = tr (BCA) = tr (CB)
8. Si P es ortogonal, entonces tr (Pf A P) = tr A.

8-30. Considerando el producto interior habitual en R2, determinar una base ortonormal de !
vectores propios de A, siendo

8-3J. Demostrar que si todos los valores propios de una matriz son no nulos, entonces dicha
matriz es no singular.
8-32. Calcular P (A), siendo P (X) = X3 ~ X + 1 y
8-33. Demostrar que si A es una matriz simtrica y P e R [X], entonces P (A) es una matriz
simtrica.
8-34. Demostrar que si A es hermitiana y P e R [X], entonces P (A) es hermitiana.
8-35. Sean A y P elementos de K "xn, tales que P es no singular. Demostrar que
(P_1 A P)ft = P"1 Afe P

8-36. Considerando dos matrices A y B como en el ejercicio anterior, demostrar que si


P e K [XJ,entonces
P (B 1 A B) = B 1 P (A) B

8-37. Verificar que la matriz

' eos ip sen


A=
sen i/? eos <p

admite un vector propio en R2, cualquiera que sea </?e R. Probar que existe un vector
X tal que A X = X.
8-38. Con relacin al ejercicio anterior, demostrar que si Y es un vector de R2 ortogonal a X,
entonces A Y = Y. Interpretar geomtricamente.
8-39. Demostrar que si P es una matriz ortogonal del tipo 2 X 2 y D (P)= 1, entonces
existe un nmero real tal que

/1 0 \ / eos ifi sen


P= \ 0 -1 / \ sen tp eos

8-40. Sean X un valor propio de A e K nxn y / u n polinomio de K [X]. Demostrar que/(X) es


un valor propio d e/(A ).
8-41. Obtener una base fan de los endomorfismos de C2 caracterizados por las matrices

1
1 1' )/ - (\ i " /
8-42. Demostrar que si X es un valor propio de A e K"xn, entonces a + Xes un valor propio
de a + A >V a K.
8-43. Demostrar que una matriz A e CMXn es singular si y slo si admite algn valor propio
igual a cero.
8-44. Diagonalizar, si es posible, las matrices
1 l+ i
A= [ ) e C2x2
o i
0
I
1 1
A - e R 3x3
2 2
1
2 0
-.2
8-45, Sean A = y P (X) = X2 - 1.
2
Diagonalizar P (A), si es posible.
8-46, Sabiendo que dimc V > 1 y que / : V V es un endomorfismo, demostrar que existe
un vector propio de /.
Captulo 9

FORMAS BILINEALES Y CUADRATICAS

9.1. INTRODUCCION

Presentamos en este captulo los conceptos de forma bilineal sobre un espacio vectorial,
de forma cuadrtica asociada, y sus conexiones con la matriz de cada una respecto de una
base en el caso de dimensin finita. Se estudian los operadores adjuntos, traspuestos,
hermitianos y simtricos, as como tambin algunas propiedades de sus valores propios. Esta
situacin se reitera en el caso de operadores unitarios y ortogonales. Despus de la
demostracin del teorema de Sylvester, se trata el tema de la diagonalizacin de operadores
simtricos y de las matrices correspondientes. Adems de la descomposicin espectral de una
matriz diagonalizable, se estudia la congruencia de formas cuadrticas reales, la reduccin a
la forma cannica y el signo de una forma cuadrtica.

9.2. FORMAS BILINEALES

9.2.1. Concepto

Sean: (V, +, K , .) un espacio vectorial y / una funcin de V2 en K.

Definicin
La funcin / : V2 -> K es una forma bilineal sobre V si y slo si es lineal respecto de los
dos argumentos.
O sea
/ : V2 - K es una forma bilineal sobre V si y slo si satisface:
1. Linealidad respecto del primer argumento
f ( a x + b x \ y ) = a f ( x , y) + b f ( x \ y)
2. Linealidad respecto del segundo argumento
/(x , c y + d y) = c f ( x t y) + d / ( x , y )
cualesquiera que sean x, x \ y, y en V y a, b, c, d, en K.
Si / e s una forma bilineal sobre V, entonces se verifica que
/ ( a x , y ) = a / ( x , y ) = / ( x , ay)
El lector puede demostrar que el conjunto de las formas bilineales sobre V es un espacio
vectorial sobre e! cuerpo K, comprobando que s i / y g son dos formas bilineales cualesquiera
y si a e K, e n to n c e s /+ g y a f son formas bilineales.
Ejemplo 9-1
Considerando (K", + , K , .), la funcin
/:K "X K "-K
definida por

/(* > y )~ x iy

es una forma bilineal sobre Kn, ya que verifica las condiciones 1. y 2. de la definicin.

Ejemplo 9-2
Asociada a la matriz A e K " x", la funcin
/ : K X K " - > K
definida por
/( X ,Y ) = X ' A Y (1)
es una forma bilineal en K", donde la im agen/(X , Y) e K1x 1 se identifica con un
escalar en virtud del isomorfismo entre K 1x 1 y K.
En efecto:
f ( a X + b Y i Z) = (a X + b Y)* A Z = ( a X t + b Y) A Z =
= X f A Z + 6Y* A Z = fl/(X ,Z ) + 6 /(Y ,Z )
Anlogamente se prueba la linealidad de/respecto del segundo argumento.
La expresin escalar de (1), efectuando el producto de matrices, es
011 012 ath y1
021 022 02n y2
/(X, Y) = X'AY = (x,x2...x)
01 02 0n i y*
y i
y2
= ( .E x , a , .2 x a n . . . .2 x , )
=1 1=1 1=1

yn
9.2.2. Matriz de una forma bilineal

Sea V un espacio de dimensin n > 1. Consideremos una base [v] = j vt , v2, . . v } de


V, y la forma bilineal / : V2 K.
Entonces /e s t caracterizada por los valores
,V/)
que sonlos elementos de la matriz A e Knx , llamada matriz de/respecto de la base [v].
Enefecto, si x e y son dos vectores cualesquiera de V, expresndolos en trminos de la
base [v], es

/( * , y) = /(.2 X t v < , . g 7 y V/ ) = 2 S J C ^ / / ( V , , Vy) =

= S Zh Xj^, = Xf A Y
;
donde X e Y son las matrices columnas cuyos elementos son las coordenadas de x e y
respecto de la base [v].

9.2.3. Forma bilineal simtrica

Sea / : V2 C una forma bilineal.

Definicin
La forma bilineal / es simtrica si y slo si
/(x .y )= /(y ,x )
cualesquiera que sean x e y en V.
Si K = R, y <, >es un producto interior en V, entonces / : V2 R definida por
/(x ,y ) = (x,y> (1) \
es una forma bilineal simtrica.
Si [v] = { v, , v2, . . vn J es una base ortogonal de V, o sea
(y*, v; ) = a = 0
entonces la matriz A de la forma bilineal (1) es diagonal
/a , 0 ... 0
0 2 . . . 0
A=

y la forma se dice diagonalizada.


Resulta
Si [v] es ortonormal resulta

/(x>y)= .4 * ;^

9.2.4. Propiedad

La matriz A e K"x representa una forma bilineal simtrica si y slo si A es simtrica.


1. S e a /la forma bilineal simtrica asociada a A.
/ e s simtrica <*/(X, Y) = /( Y , X ) =>X A Y = Yf A X
Como
Yt A X = ( Y f A X) f = Xt A* Y
por ser Y* A X un escalar y por traspuesta de un producto, resulta
Xf A Y = X, Ai Y V X , Y e K"
O sea
Xf ( A - A ) Y = 0 V X , Y e K"
En consecuencia
A - A* = N
Y por lo tanto
A A1
2, Sea A simtrica. Entonces
/(X ,Y ) = X* A Y = (Xf A Y / = Yf A ' X ^ Y * A X = / ( Y , X)
Luego/es simtrica.

Ejemplo 9-3.
Desarrollamos la forma bilineal simtrica asociada a la matriz A, siendo

1 -1 2
A -1 3 1
2 1 -2
Resulta
/
/ 1 -1 y 1
1
3 y 21 =
\ 2 1 73

.= (Xi ~ x% + 2x3 - X\ + 3 x2 +x3 2xi + X 2 - 2 x 3) jl yi


y2 | -
\
= Xt y , - x 2 y 1 + 2 x 3 y ~ x l y 2 + 3xa y 2 4- * 3 y 2 + 2 x x y 3 + x 2 y 3 - 2x3 y 3
9.3. FORMAS HERMITIANAS

9.3.1. Concepto

Sea V un espacio vectorial sobre el cuerpo de los complejos.

Definicin
La funcin / : V2 C es una forma hermitiana sobre V si y slo si / satisface las
condiciones de linealidad respecto del primer argumento y de simetra conjugada.
0 sea

i ) f ( a \ + b x \ y) = a f { \ , y) + b f (x \ y)
) / ( x > y ) = / ( y , x )

Ejemplo 9-4
En (Cn, +, C, ,)la funcin

f : Cn X Cn -> C
definida por

/ ( x . Y ) = x Y = i * ,7 ,

es una forma hermitiana definida positiva, ya que satisface los axiomas del producto
interior usual en un espacio unitario (vase el ejercicio 7-46).

9.3.2. Matriz de una forma hermitiana

Sea (V, +, C , .) un espacio unitario, es decir, un espacio vectorial sobre el cuerpo C,


donde est definido un producto interior como en el ejercicio 7-46.
La funcin
/ : V2 ^ C
tal que
/ ( x , y ) <x,y >
es una forma hermitiana. Si V es de dimensin n > 1, y [v] = { Vj, v2, . . v J es una
base, entonces

Z(x, y) ~ <x, y >= < x t Vj, 2 yj vj >= 2 x j j <vf , V; >=


i-l jzz\ i-l /

n n
i'S1 av x i y j :=xt a y
Respecto de la base elegida, la forma hermitiana est caracterizada por la matriz A,
cuyo elemento genrico

aj = <v,, V;)
es tal que
(tij = <V , Vy >= <V; , V; >= dji

En consecuencia, la matriz A verifica


A = f =-A*
o sea, A es hermitiana.

9.4. FORMAS CUADRATICAS

9.4.1. Concepto

Sean: (V, +, K , .) un espacio vectorial de dimensin finita y g : V2 K una forma


bilineal simtrica sobre V.

Definicin
Forma cuadrtica asociada a la forma bilineal simtrica# es la funcin
/ : V->K
definida por
/ ( x ) =g (x, x)
Como la forma bilineal simtrica# verifica los axiomas i), ii) y iii) del producto interior
definido en 7.2.1., es usual escribir
g (x, x) = <x, x >
Si V = K" y si A e Kx" es la matriz simtrica de la forma bilineal g, entonces la forma
cuadrtica asociada est definida por

/ (X) = X A X = . f 2 au xXj

Observamos que el desarrollo de una forma cuadrtica, en trminos de las variables


x {, x 2 i . . . , x n, corresponde a un polinomio homogneo de grado 2, donde los coeficientes
de los trminos cuadrticos son los elementos de la diagonal de la matriz simtrica
correspondiente, y cada coeficiente de un trmino rectangular xXj es el duplo del elemento
ay de la misma.

Definicin
Una forma cuadrtica X* A X es no degenerada si y slo si A es no singular.
Ejemplo 9-5
La matriz correspondiente a la forma cuadrtica
/ : R 3 -> R
definida por
f (x )~ x j + 2 x \ +2x1 - 2xi x 2 + 4 x ^ 3
es

A=

Como
1 -1 2 -1 2
D (A )= -1 2 0 = = 22 * =-6^0
1 1 0 1 1

resulta A no singular, y en consecuencia/ es no degenerada.

9.4.2, Formas cuadrticas y cambio de base

Sea / : V K una forma cuadrtica caracterizada por la matriz A e K ' IXfl respecto de la
base [vj.
Se tiene entonces
/ ( x ) = X* A X
donde X es la matriz columna cuyos elementos son tas coordenadas de x respecto de la base
M
Si en V se considera una base [v], respecto de sta, el vector x se representa mediante X.
Se verifica que

X = PX
donde P es la matriz de pasaje definida en 4.19.
Sustituyendo en la primera igualdad
/ ( x ) = (P X) A (P X) = X'* Pf A P X
La matriz de / respecto de la nueva base es
B = P' A P
Las matrices A y B se llaman congruentes.

Definicin
A e K,lXf1 es congruente a B e K',xn si y slo si existe P no singular tal que B = Pf A P.
Sabemos que el rango de una matriz no vara si se la multiplica por matrices no singulares.
En consecuencia, si dos matrices son congruentes tienen el mismo rango.
Rango de una forma cuadrtica es el rango de cualquiera de las matrices que la
representan.
En consecuencia, una forma cuadrtica es no degenerada si y slo si su rango es igual a la
dimensin del espacio. Una forma cuadrtica es degenerada si y slo si su rango es menor que
la dimensin del espacio.

Ejemplo 9-6.
La forma cuadrtica/est caracterizada por la matriz
/ 10 0 2
A= I 0 6 0
\ 2 0 7
respecto de la base cannica en R3.
Determinamos la matriz de / respecto de la base

-.o. l . (0.1 A
V? y/sl \V5 s/5
La matriz de pasaje es

La matriz B de la fonna cuadrtica / respecto de la nueva base es


/ 6 0 0\
B = P* A P = 0 6 0)
\ 0 0 11/
La forma cuadrtica ha sido diagonalizada; su forma diagonal est dada por los valores
propios de A y la matriz de pasaje tiene por columnas a los vectores propios de A.

9.5. OPERADORES ADJUNTOS Y TRASPUESTOS

Una trasformacin lineal / : V -> V ser llamada tambin operador lineal o simplemente
operador en V.

Propiedad
Si(V, +, C ,.) es un espacio vectorial de dimensin finita con producto interior, y si / e s
un operador en V, entonces existe y es nico un operador/* que verifica
</(x) , y > = < x , f * (y) >
Demostracin)
Sea y cualquier elemento de V. Definimos la funcin
F : V->C
mediante
F (x) = < / ( x ) , y > (1)
La definicin (1) caracteriza un funcional, es decir, un elemento de V*. De acuerdo con el
enunciado del ejercicio 7-60, existe en V un elemento y , nico, tal que
F ( x ) = <x , y ) (2)
cualquiera que sea x e V .
De (1) y (2) resulta
< / ( x ) , y > = < x , y > (3)
En consecuencia, para cada y e V, existe y e V, nico, que satisface (3). Podemos definir
entonces la funcin
f* : v - > V
mediante

f* (y)=y*
La funcin/* satisface la condicin
( f ( x ) , y ) = ( x , f (y )) VxVyeV
Adems es lineal, pues

<x , /* (a y + b y*) >= < / ( x ) , a y + b y >= a < / ( x ) , y > + b < /(x ) , y) =

- a {x ,/* (y)> + b{ x , f * ( y ') ) = <x, af* (y)) + <x, b f* (y*))


- ( x , a f * (y) + b f* (y))

Esta relacin se verifica cualquiera que sea x e V. En consecuencia

f * { a y + b y s) - a f * (y) + b f* (y)

O sea
f* es un operador lineal.

La unicidad d e /* se justifica porque para cada y e V existe y = /* (y), nico, tal que

F (x) = <x , f* (y) >

El operador f* a que se refiere el teorema anterior, se llama adjunto de /.


Definicin
En un espacio de dimensin finita con producto interior, un operador f* se llama
adjunto d e /s i y slo si
< /(x ) ,y> = U , /* (y)>

cualesquiera que sean x e y en V.


Si el cuerpo es R, el operador/* se llama traspuesto de f y se denota
s*=f
9.5.2. Matriz del operador adjunto

Si A es la matriz del operador f respecto de una base ortonormal, entonces B = A* es la


matriz del operador adjunto f * .
En efecto, sea [v] = {T i , v*........v | una base ortonormal de V. De acuerdo con el
ejercicio 7-61, se verifica que

f (yj) = </(V;) , V! >Vj + ( / (Vj) , v2 >v2 + . . . + < / (vj) , v ) v V/ = 1, 2 , . .

En consecuencia, el elemento genrico de la matriz A es


= </(>/). v, >
Si B es la matriz de f* respecto de [vj, entonces
bij = (f* (v), v>
Se verifica que
btj = <f* (Y/), v > = < v,, f * ( \j) > = </ (v), v > = aj

Luego
B -A ^ *
Observamos que si / y g son dos operadores sobre V y a e C, entonces
( f + g )* = f* + g * (af)*~ of*
(/* )* = / ( f g)* = g* f*
Los operadores f y f* se llaman adjuntos entre s.

Ejemplo 9-7
Determinamos el operador adjunto de
f : C2 C2
tal que
/ ( z , u) = (z + 2m, (1 + /> + u)
La matriz de / respecto de la base cannica, que es ortonormal, es
1 2i
A=
1+ i 1
por consiguiente, la matriz de f* es

B = ( ' _ ( J = A*
'-2/ 1 /
Resulta
f* (z, u) = (z + (1 0 u 2zz + u)

9.6. OPERADORES HERMITIANOS Y SIMETRICOS

9.6.1. Concepto
Sea / un operador lineal sobre V, de dimensin finita, con producto interior, y sea f* el
operador adjunto.
En el caso complejo, V es un espacio unitario, y en el caso real, V es euclidiano.

Definicin
Un operador / sobre un espacio unitario se llama hermitiano si y slo si es igual a su
adjunto.
/esherm itiano o < /(x ), y ) = < x , / ( y ) >
La matriz asociada a un operador hermitiano respecto de una base ortonormal es
hermitiana.

Definicin
El operador / sobre un espacio euclidiano se llama simtrico si y slo si es igual a su
traspuesto.
La matriz asociada a un operador simtrico respecto de una base ortonormal es simtrica.
Los operadores simtricos y hermitianos suelen llamarse tambin autoadjuntos.

9.6.2. Propiedad

Un operador / es hermitiano si y slo si <x ,/( x ) > e R, V x e V.


1. Sea / un operador hermitiano. Entonces
<x , / ( x ) > = < /(x ) ,x> = <x, /(x)>
Luego
(x,/(x))eR
2. S e a /ta l que V x e V : <x , /( x) > e R
Se tiene

< /( x ) , x >= < x , / ( x ) >^ </* (x) , x >=>


</(x) /* (x) , x >= 0 =>
^ < ( / r f ) ( x ) , x > = 0 , V x e V ^
~ f * ~ e, donde e denota el operador nulo.
Luego
/= /*
O sea, / es hermitiano

9.6.3. Propiedad

Los valores propios de todo operador hermitiano son reales.

Sea Xun valor propio asociado al vector propio x. Se tiene:


X<x , x >=<Xx , x ) = < /(x ) ,x > = < x , /( x ) ) = :
= < x , Xx) = X< x , x >
Cancelando ( x , x > = 0 resulta X - X,
O sea
X eR
Una consecuencia inmediata es la siguiente: los valores propios de toda matriz hermitiana
son reales. En particular, los valores propios de toda matriz simtrica y real, por ser
hermitiana, son reales.

9.7. OPERADORES UNITARIOS Y ORTOGONALES

9.7.1. Concepto

Sean (V, + }C ,.) un espacio unitario de dimensin finita, y / u n operador sobre V.

Definicin
El operador / : V -* V es unitario si y slo si preserva el producto interior
/ e s unitario ^ <x , y >= < / ( x ) , / ( y)>
Sean (V, +, R , .) un espacio euclidiano de dimensin finita, y / u n operador sobre V.

Definicin
El operador / : V V es ortogonal si y slo si preserva el producto interior.
En este caso, en que K = R, el operador se llama tambin real unitario.
Ejemplo 9-7
El operador/-: R2 R2 definido por

f ( x y ) ~ (x cos 0 ~ y sen 0, x sen 0 + y eos 0)

es ortogonal, considerando el producto interior usual.


En efecto, el producto interior entre (*!, y t ) y (x2, y 2) es
<(*1. ^ 1) *2 + > i y 2

y el producto interior entre sus imgenes es

(f(Xi>yi) >f ( * 2 > y 2 ) ) ^


= ( (xj cos 0 - y x sen 6, x^ sen 0 + y t cos 0),(x2 eos 0 - y 2 sen 6, x 2 sen0 + y 2 cos 0)) =
- x x x 2 eos2 0 + y i y 2 sen2 0 - x y 2 sen 0 cos 0 - * 2^1 sen 0 cos 0 +
+ Xi x 2 sen2 0 +yi y 2 eos2 0 + x y 2 sen 0 cos d + x 2 y x sen 0 cos 0 =
= x i X2 + y 1 y 2 = < ( X i , y i U x 2 , y 2 ) >

f representa una rotacin del plano de ngulo 0, con centro en el origen.

9.7.2. Propiedad

Si V es un espacio vectorial real con producto interior y / es un operador, entonces/es


ortogonal si y slo si preserva las longitudes de los vectores.
1. Supongamos q u e /e s ortogonal. Entonces
/ es ortogonal =>< x, x >~ </ ( x ) , / ( x ) > = I! x I!2 = II/ (x)II2 =>
= II xl= II/ (x)II

2. S e a /u n operador que conserva las longitudes de los vectores.


Entonces es
</ (x + y ) , / ( x +y)> - < / ( x - y ) , / ( x - y ) > = < x + y , x + y > - ( x - y , x -y)

Desarrollando ambos miembros resulta


< / ( x ) , / ( y ) > = <x,y>
Luego/es ortogonal.
Una consecuencia inmediata es la siguiente: los operadores ortogonales trasforman
vectores unitarios en vectores unitarios.

9.7.3. Propiedad

Los operadores ortogonales conservan la ortogonalidad.


En efecto, s e a /: V -> V un operador ortogonal, y sea x ortogonal a y.
Resulta
</(x),/(y)> = <x ,y> = o
L uego/(x) es ortogonal a /( y ) .
Observamos que o toda trasformacin lineal que preserve la ortogonalidad e:
operador ortogonal. En efecto, si
/ : V-V
es tal q u e /(x ) = 3x, entonces / conserva la ortogonalidad, pero no es un operador ortogt

9.7.4. Propiedad

Sea V un espacio euclidiano de dimensin finita. Un operador lineal / : V >


ortogonal si y slo si f* / = iv .
En efecto:
/ es ortogonal <x , y >= </ ( x ) , /(y )>
o < x , y> = < x , / * l/(y )]) ^
**< x , y >~< x , (f* o f ) (y)) o
o / = iv
f* denota el operador adjunto de f , que en el caso real es su traspuesto.
Luego
/ es ortogonal < / < > / - /v
En trminos de matrices se verifica que un operador es ortogonal si y slo si la m<
asociada respecto de una base ortonormal es ortogonal.
Sea A tal matriz. Entonces
/ es ortogonal o At A ~ 1
Observamos que todo operador ortogonal es inversible, y se verifica que
n =f
0 sea
A-1 = A*

9.7 .5. Propiedad

Sea V un espacio unitario, y s e a /u n operador sobre V.


Como en el caso real, se verifica que un operador es unitario si y slo si preserva
longitudes de los vectores.
Se demuestra anlogamente que / e s unitario si y slo si f* o f = i v .
Adems, si A e C"xn es la matriz de / respecto de una base ortonormal, entonces/es
operador unitario si y slo si A* = A1.
Una matriz compleja que satisface la condicin anterior se llama unitaria.
Definicin
A CnKn es unitaria ** A* A = I ** A* = A-1.
Toda matriz unitaria de elementos reales es ortogonal.
Observamos que los operadores y las matrices unitarias son una generalizacin de los
operadores y matrices ortogonales de los espacios euclidianos.

9.7.6. Propiedad

Los valores propios de todo operador unitario tienen mdulo 1.


En efecto, sea X un valor propio del operador unitario/, y sea x un vector propio asociado
a X Entonces
< x , x > = < / ( x ) , / ( x ) ) = <Xx ,Xx> =
= XX( x, x>
Como <x , x > = 0 resulta
XX= 1
O sea
IX P = 1
Luego
1X1= 1

9.8. TEOREMA DE SYLVESTER

9.8.1. Ampliacin del concepto de base ortogonal

Sea V un espacio vectorial de dimensin finita sobre un cuerpo K, y sea una forma
bilineal simtrica que denotamos con <, > sobre V. Se demuestra que si dim V > 1, entonces
existe una base ortogonal respecto de < >>(ejercicio 9-41).

Ejemplo 9-8
En R2 definimos <, > mediante
<x , y > = x , x t - y x y 2
donde x ~ (* j, x 2) e y = , y 2).
Esta forma no es definida positiva, pues, por ejemplo
x = (1, 1) = <x , x >= 0
x = ( i , 3) => < x , x > = - 8
Los vectores = (1, 3) y v2 = (3, 1) forman una base ortogonal respecto de la forma
dada.
La base formada por x = (l, 2) e y = (1 ,3 ) no es ortogonal. Para ortogonazarla,
procedemos as:
Sea Vj = x - (1, 2) y sea

v2 = y - <Vi , y > ----- -


<Vi , Vi >

Es decir

Entonces ( Vj , v2 f es una base ortogonal de V respecto de la forma dada.

9.8 .2. G eneralizacin del co n cep to d e base o rtonorm al

Sea V un espacio de dimensin finita sobre el cuerpo de los nmeros reales, y sea <,) una
forma bilineal simtrica sobre V. De acuerdo con 9.8.1., siempre es posible obtener una base
ortogonal. La forma no es necesariamente definida positiva, ya que pueden existir vectores
x e V tales que (x , x > = 0 ( x , x ) ( 0 .
Diremos que una base es ortonormal respecto de la forma <, > si y slo si
( v( , v > - 1 {V( , vf >= - 1 <Vj , v >= 0
donde v e [v] = ( v, , v2, ..

A partir de una base ortogonal [vJ = | vi , v 2, .. v | es fcil construir una base


ortonormal asociada.
En efecto, denotando <v,, vf > mediante a, se obtiene una base ortonormal haciendo
v; = v, si a = 0

V = V si a > 0
VS7

v\-
vf ---- si a < 0
v -0 ,
La base [v] resulta ortonormal.
Sea [v] una base ortogonal ordenada de modo que
011 02 ' 0/) > 0
ap + 1>.. . ,a r < 0
0r + 11 >0)i 0
Si / es la forma cuadrtica asociada a la forma bilineal simtrica ( ,), entonces, respecto de
esta base ortogonal, es
f (X) 01 x 2 + + 0p Xp + 0;j -f 1 Xp -f-1 + . + 0 X r
En este desarrollo figuran p trminos positivos, r - p negativos, y n - r variables se han
eliminado.
Si la base se ortonormaliza, entonces se tiene

Los nmeros p y r son independientes de la base ortogonal elegida. El entero p se llama


ndice de positividad de la forma. Indice de nulidad de la forma es el entero n - r . Signatura
de la forma cuadrtica es s = p - (r - p) = 2p - r.

Ejemplo 9-9
Sea la forma bilineal simtrica sobre R2 definida por la matriz

Los vectores Vj = (1, 0) y v2 = (1, 1) constituyen una base ortonormal y se verifica que

<Vj ,Vi > = - 2 <v2 , v3 >=0

9.8.3. Propiedad

Sea < ,> una forma bilineal simtrica en el espacio V, de dimensin finita,sobre el cuerpo
R, y sea el subespacio
S0 - ( x e V / { x , y ) = 0 , V y e V }
Si [v] = { Vj, v2 , . . vn ), es una base ortogonal, entonces la dimensin de S0 es igual al
nmero de enteros /, tales que = 0.
Demostracin)
Sea [v] ordenada de modo que
di =0 sil = 1, 2, . . .,#
f = 0 si / > r
Por ser [v] ortogonal, se verifica que
i > r =>< v,, y >= 0 , V y e V

Entonces
/ < r => 0 = <X , Vy>- X <Vy , Vy ) = Xj fly
Como a 0, resulta Xj = O si / < r
Luego
X = X r + 1 Vr + 1 .. + x n v

O sea
{ Vr+i* vn I
es una base de S0. Es decir, dim S0 = n - r.

9.8.4. Teorema de Sylvester

Sea (V, + , R , .) un espacio tal que dim V = n 1, y sea <, > una forma bilineal simtri*
sobre V. Si [v] es una base ortogonal cualquiera de V, entonces existen exactamente
enteros positivos tales que <v, v, > > 0.
Demostracin)
Sean [v] y [w] dos bases ortogonales de V ordenadas de modo que si <v, ,v, >= a(
< w,, ) ~ bi, entonces
a > 0 si = 1, 2 , . . .,p b i> 0 si i = 1 , 2 , . . .,p'
a< 0 si/ = p + 1 , . . .,r b< 0 sir = /? +1,...,/**
, = 0 si = r + 1 , . . b f~ 0 si i = r + 1 , . . n
Demostraremos que p = p \ Para ello observamos que los vectores
V i , V 2 ) . . MVp, w p . + l j . . w

son linealmente independientes, pues considerando la relacin lineal


p n
2 x t v, + 2 y . w j = 0
= l j =p' + 1 ; 1

se tiene
/ n
2 X; y i = - 2 y i W;
1=1 1 1 j = p + l ' J 1

y efectuando
p p p p

se deduce
ax x \ + . . . + ap x j = V + i yl>+1 + . .. + bryt>
El primer miembro es mayor o igual que cero, y el segundo miembro es menor o igual qt
cero, o sea, ambos son nulos. Entonces es
x l ~ x 2 = ...= x p =0
Como djm V = n, de lo anterior se deduce que
p + ( - p ) < n

p<p
Anlogamente se prueba quep ' ^ p y y en consecuencia resultap - p \
Lo expuesto en 9.8.2., 9.8.3. y 9.8.4. nos permite afirmar que s i/ es la forma cuadrtica
asociada a una forma bilineal sobre (V, +, R , .) y dimV = > i , entonces / est
representada por una matriz diagonal respecto de cualquier base ortogonal. Toda
representacin de este tipo admite exactamente p trminos positivos y r - p trminos
negativos.

9.9. DIAGONALIZACION DE OPERADORES SIMETRICOS

Sea (V, +, R , .) un espacio euclidiano de dimensin finita.

9.9.1. Propiedad

Sea '/ : V-* V un operador simtrico y x un vector propio de / . Si x es ortogonal a y,


entonces x es ortogonal a / (y).
En efecto
< x , / ( y ) > = < /(x ) , y> = ( \ x ,y >= X<x ,y >= 0
O sea
x i / ( y)

9.9.2. Propiedad

Sea / : V -> V un operador simtrico y dim V = n > 1, Entonces existe una base ortogonal
de vectores propios de /.

Demostracin)
1. Si dim V = 1, entonces la propiedad se cumple obviamente.
2. Supongamos que d i m V > l , y sea Vi un vector propio de /. Consideremos el
subespacio
S= f Vi )
Se verifica que
dim S ~ dim V - 1 - n 1
Por 9 .9 .1 .,/ es un operador simtrico sobre S, donde el producto interior es el inducido
por el producto definido en V.
Si ( v2 , v3 , . . v } es una base ortogonal en S de vectores propios d e /, entonces se
verifica que
V/lV] con / = 2, 3,. . ., n
En consecuencia, { Vj, v2 ,. . vn } es la base ortogonal en V, de vectores propios d e/.
Ortonormalizando los vectores de la base ortogonal, se verifica bajo las condiciones del
teorema, que existe una base ortonormal de vectores propios de / en V.

9.9.3. Consecuencia

Traduciendo la propiedad anterior en trminos de matrices, se verifica que si A es una


matriz simtrica y real, entonces existe una matriz P, ortogonal, que diagonaliza a A.
En smbolos:
A 6 Rnxn a A = A* => 3 P ortogonal / P* A P = D
Los elementos de D son los valores propios de A. Observamos, adems, que toda matriz
simtrica y real n X n admite n vectores propios ortogonales. Las columnas de P son los n
vectores propios de A, ortonormalizados.

Ejemplo 9-10

determinamos una matriz ortogonal que diagonalice

1. Calculamos los valores propios de A.

X- 2 -\ 2
D(Xl - A)= = (X 2) (X 1) - 2 =
-V 2 X -l
= X2 - 3 X
Resulta
Xt = 0 y X2 - 3
2. Determinamos los vectores propios ortonormales de A.
a) Xj r- 0.
Como x \ + x l = 1 se tiene
x \ + 2 x] = 1
Luego
\/3 _ y^T
x i = y = + -----
3 3
Entonces

3
X. =

3
b) Xx - 3. Con el mismo procedimiento se obtiene
y/ 6

X, =
vr
3
3. Resulta
\/3 V
3 3~
P=
\ / 6~ V3
~T 3
tal que

P"1 A P = Pf A P = ( 0\
V0 3/

Ejemplo 9-11
Efectuamos una trasformacin de coordenadas que diagonalice la forma cuadrtica /,
definida por
f(x%, * 2) 3 x \ + 10 Xj x -2 + 3 x \
La matriz de esta forma cuadrtica es
I 3 5
A=
\ 5 3
Sus valores propios son:
Resolviendo en cada caso el sistema homogneo ( A l - A) X = 0 y normalizando los
correspondientes vectores propios, se obtiene la matriz ortogonal
V 2
2
P=
\2 y/2
~~2 ~2
La trasformacin ortogonal de coordenadas est dada por
X-PX
O sea

X = y/2x ,------------
y/2 * 2 ,
2 2

X y/2 x ,
- ------- .^ 2 X
-J--------- ,
2 2

Mediante este cambio, / se convierte en


f ( x \ , x 2)= S x l - 2 x \
donde los coeficientes de las variables son los valores propios de la matriz de la forma
cuadrtica.

9.10. MATRICES SIMETRICAS REALES Y VALORES PROPIOS

9.10.1. Matriz definida positiva

Sea A una matriz simtrica y real del tipo rcx.

Definicin
Una matriz simtrica y real es definida positiva si y slo si sus valores propios son
positivos.
Tal es el caso de la matriz del ejemplo 9-6.

9.10.2. Propiedad

Una matriz real y simtrica es definida positiva si y slo si existe una matriz Q, no
singular, tal que A = Q Q .
Demostracin)
1. Sea A simtrica real del tipo n xn y definida positiva. Por definicin, sus valores propios
son positivos. Por 9.9.3. existe P ortogonal tal que
P 1 AP=P AP=D (1)
donde D es la matriz diagonal formada por los n valores propios de A, o sea
D = diag(Kl t \ , . .
Consideremos la matriz diagonal
Dj = diag OsAi , , V K )
Se verifica que
D?=D (2)
Teniendo en cuenta (1) y (2) es
A = P D P1 = P D P = PD? P* = P D, D P* = ( P D j ) (P Dj )* (3)
Haciendo
Q = (PDi)
resulta
A=QQ'
donde Q es no singular por ser producto de dos matrices no singulares.
2. Sea A simtrica y real. Supongamos que existe Q no singular tal que A - Q Q*.
Por 9.9.3., existe P ortogonal tal que
P' A P = D = d i a g ( X , , X ........

Entonces
P* Q Qf P = D
O sea

(P 'Q )(P Q )' = D


Llamando X a la i-sima fila de P* Q, y por lo tanto a la i-sima columna de (P( Q)!, se
tiene, considerando el producto interior habitual en Rn
X X = \ > 0
Si fuera \ = 0, resultara X = 0, y en consecuencia P* Q sera singular, lo que es absurdo.
Luego
\> 0 Vi = 1 , 2
Por lo tanto, A es definida positiva

9.11. DESCOMPOSICION ESPECTRAL DE UNA MATRIZ

Teorema. Si A e R nx" es una matriz diagonalizable, y \ son los valores


propios distintos de A con multiplicidades nti, m 2, .. m s, entonces A puede expresarse en
la forma
T

A = Z A, A,
f=l ^ 1
de modo tal que se verifica
]. A? = A, V/= 1, 2 , __ _ s
2. =* A i Aj = N
S

3. Z Af = I
i=l '
4. A A = A, A V = 1, 2,. . s
Demostracin)
Por ser A diagonalizable existe P no singular tal que

P"1 A P = D (1)
donde D es la matriz diagonal formada con los n valores propios de A, que suponemos
ordenados segn las multiplicidades.
O sea

D-

donde los elementos no diagonales, que no figuran, son nulos.


Denotando con Im . la matriz identidad del tipo la forma bloque-diagonal de D es

^2
D

Considerando las matrices


/ N mi

par a/ = 1, 2 , . . .,s

Nm . /
Se verifica, por ser matrices diagonales,
a) E? = Ef Vi= 1, 2 , . . .,s
b) i -j=> E, Ej = N

c) 2 E, = I, donde 1 es la identidad n xn
i=l
Adems

D =gi \ E l (2)

De ( 1) resulta
A = P D P"1
Considerando esta relacin y (2), se tiene

A = p ( | i X( E,) P-1

O sea

A = 2 \ P E P1
=i
Haciendo
Ai = P E P"1
resulta

A = 2 A, A
=i
Se verifican las siguientes proposiciones
1. A f = P Ef F 1 P E P 1 = P E? P'1 = P E P '1 = Af

2. i => Af Aj = P E, P"1 P Ey P 1 = P E E, P1 =
- PN P 1= N

3. 2 A, - 2 P Ef P 1 = P ( 2 E,) P"1 = P I P"1 = 1


=l * =1 =1 "

4. A Aj = A P Ef P 1 = P D Ef P J = P (.2 A, Ey) E,P '1 = P ( A, E E) P '1 =

= P (A Ef) P"1 = A P E P_1 - A Af (3)

Aj A = P E P"1 A = P E D P 1 = P E , ( A, E,) P '1 = P A, E,- P 1 =


= A, P E P-1 = Af A, (4)
De (3) y (4) resulta
A Af = A, A Vi 1 , 2 , . . n
9.12. CONGRUENCIA DE FORMAS CUADRATICAS

9.12.1. Concepto |
!
Sean / y g dos formas cuadrticas reales caracterizdas por las matrices simtricas A y B i
pertenecientes a R nx . j
O sea |
/ ( X ) = Xf A X j
g (Y) = Yf B Y
Definicin
Las formas cuadrticas f y g son congruentes si y slo si existe P no singular, tal que
B = P* A P
Las formas cuadrticas f y g son ortogonalmente congruentes si y slo si existe P or
togonal, tal que

B = P AP = P ~ 1 A P
Las matrices A y B se llaman, respectivamente, congruentes y ortogonalmente
congruentes.

9.12.2. Propiedad

Dos formas' cuadrticas reales / y g, de matrices A y B respectivamente, son


ortogonalmente congruentes si y slo si A y B admiten los mismos valores propios con las
mismas multiplicidades.
Demostracin)
1. Sean f y g ortogonalmente congruentes. Entonces existe P ortogonal, tal que
B = Vt A P ~ P1 A P
En consecuencia, A y B son semejantes y admiten el mismo polinomio caracterstico.
2. Sean A y B con la misma forma diagonal. O sea, existen Q y R ortogonales tales que
Q"1 A Q = R '1 B R = D (1)
donde D es la matriz diagonal formada por los valores propios.
De (1) resulta
A = Q R 1 B R Q " 1
Luego
A = (QR*) B( Q R V
La matriz P = Q R* es ortogonal, ya que Q y R son ortogonales. Premultiplicando por
P 1 = P*> y posmuitiplicando por P, resulta
B = P f AP

O se a ,/y g son ortogonalmente congruentes.

9.12.3. Propiedad

Si / es una forma cuadrtica real, entonces es ortogonalmente congruente a la forma


cuadrtica g, tal que

\y i
s 0 0 = . i=l

siendo Xj, X los valores propios de A.


En efecto, sean D la matriz diagonal formada por los valores propios de A, y Y e R " x l ,
Consideremos la forma cuadrtica g definida por

g (Y) = Y D Y

Sabemos, por 9.9.3., que existe P ortogonal tal que

D = P_1 A P = P A P
Luego f y g son ortogonalmente congruentes.

9.12.4. Propiedad

Toda forma cuadrtica real f es congruente con la forma cuadrtica g, tal que
g ( y ) - y i + y l + + y l - y } +i
. - y i , Siendo r el rango de A y p el ndice de
positividad de la forma.
Demostracin)
La matriz simtrica y real A admite exactamente r valores propios no nulos, ya que
p (A) = r. Ordenamos los valores propios de modo que
\ \ Xp son positivos
\> + i > \ son negativos
V m , . . Xn son nulos
Consideremos

Definimos la matriz diagonal


1
%AT

P=
+1

Como existe Q ortogonal, tal que


Q* A Q = D
resulta
(Q P)' A (Q P) = P* (Qf A Q ) P = P DP
donde

p D P = - B

Sea ahora la trasformacin de coordenadas de matriz Q P, es decir


X= Q P Y
Se verifica que
/( X ) = Xf A X = (Q P Y / A (Q P Y) = Y* (Q P) A (Q P) Y
En consecuencia,/es congruente a la forma cuadrtica g, definida por
g (Y) = Yf B Y
donde
B = (QP)' A(QP)
Por la definicin de B es
g C t)= y2i + y l + - " + y l - y P
2 +i - . . . - y i
La forma cuadrtica g se llama forma cannica de /. Se verifica que dos formas
cuadrticas son congruentes si y slo si tienen la misma forma cannica.
Ejemplo 9-12.
Reducimos a la forma cannica la forma cuadrtica / : R2 -* R definida por

f ( x ^ 2*i x 2 + x 2

1. La matriz de la forma cuadrtica es


1 -1
A=
1 1
El polinomio caracterstico es
X- 1 1
D (XI A) = = X2 - 2 X
1 X- 1
Los valores propios son, entonces
X] = 2 y Xg = 0
2. Como el nmero de valores propios positivos es 1, la forma cannica congruente es
g, definida por
g ( y i , y a ) :=y i
Efectuamos el procedimiento indicado en el teorema anterior para obtenerla.
Calculando los vectores propios asociados a Xi y X^ se obtiene
1 1
Xi y x* =

La matriz ortogonal correspondiente es


1 1
Q=j
2
1 1
Se verifica que
2 0
Q* A Q ~
0 0
La forma cuadrtica ortogonalmente congruente a / es h, tal que
h (z i> Z 2 ) = 2 z 2
Sea

vx1r 0 2 o\
P=
, 0 1 , 0 1
Entonces, haciendo X = Q P Y, se tiene
g ( Y ) = Yf ( Q P y A (Q P ) Y =
= Yf P* Q ' A Q P Y = Y' F* D P Y =
= Y' B Y
donde

1 42 i 2 0 f ol

to
B = p D P =
0 ij

o
o
, 0 1 i

1
s/2 O' ol 1 0
2

o
,

o
0 0 0 1

O sea

g fy i,y i)= y \

9.13. SIGNO DE UNA FORMA CUADRATICA

Sea / una forma cuadrtica real definida por


/(X )= X AX
donde A es una matriz simtrica real del tipo nx n.

9.13.1. Definiciones

[ . f e s definida positiva si y slo si


X A X > 0 VX=0
2 . / es semidefinida positiva si y slo si
X * A X > 0 A 3 X fcO / X A X s=O
3. / es definida negativa si y slo si la forma cuadrtica g definida por
S(X) = X ' ( - A ) X
es definida positiva.
4 . / e s semidefinida negativa si y slo si g tal que
g (X ) = X ( - A ) X
es semidefinida positiva.
Ejemplo 9-13.
I Determinamos el signo de la forma cu ad rtica/: R2 *+ R definida por
/ ( X ) = 3 jc2 - 2 x i x 2 + 2 x 1
Se verifica que
/(X)= 2x2 - 2 x x x2 +x\ +x\
\ O sea
/ ( X ) = 2 x \ 4- (x, - x 2f + x \
1 Como/ (X) > 0, V X = O, resulta/ definida positiva.
;
9,13.2. Propiedad

La forma cuadrtica real / , tal que /( X ) = X* A X, es definida positiva si y slo si los


valores propios de A son positivos.
| En efecto, sabemos que toda forma cuadrtica real es ortogonalmente congruente a una
forma cuadrtica g tal que

00=2 \y l

siendo Xj, X2 ........X^ los valores propios de A. Como ejercicio del trabajo prctico se
propone la demostracin de que el signo de una forma cuadrtica no vara frente a
trasformaciones de coordenadas. Esto significa que el signo d e / e s igual al dcg. Luego
i / es definida positiva ^ g es definida positiva o \ f > 0, V/
Diremos, entonces, que una forma cuadrtica es definida positiva si y slo si la
correspondiente matriz es definida positiva.
Anlogamente se demuestra que: / es definida negativa si y slo si sus valores propios son
negativos; / es semidefinida positiva si y slo si sus valores propios son mayores o iguales que
[ 0 y alguno de ellos es 0; / es semidefinida negativa si y slo si sus valores propios son
i menores o iguales que cero, pero alguno de ellos es 0, Si existen valores propios positivos y
negativos, diremos que la forma cuadrtica es indefinida.
El lector podr demostrar como ejercicio del trabajo prctico que una forma cuadrtica
real /, definida por / ( X ) = X* A X, es definida positiva si y slo si los menores principales de
la matriz A son positivos.

Ejemplo 9-14
Analizamos, utilizando el criterio de los menores principales, si la forma cuadrtica/,
definida por
f ( x i, x 2, x 3 ) = 2 x j + x 2 + 3x1 + 2 x t x2 - 2 x2 x3
es definida positiva.
La matriz de la forma cuadrtica dada es

Sus menores principales son


n = 2 > 0
11 a i2 2 1

a21 a 22 1 1
D (A )= 1 > 0
Luego, / es definida positiva.
9-15. Sea (V, +, K ,.) un espacio vectorial. Demostrar que el conjunto B (V) de todas las
formas biJineales/: V2 K es un espacio vectorial sobre K, como se indica en 9.2.1.
9-16. Sea g : V2 -> K una forma bilineal. Demostrar que gy : V -> K, definida por
gy (x) = g (x, y), es una forma lineal.
9-1 7. Una forma bilineal / sobre R 3 est caracterizada por la matriz

i) O btener/(x, y).
ii) Determinar la matriz de/respecto de la base
{ ( 1 , 1 , 1 ) , ( 1 , 1 , 0 ) , (1 ,0 ,0 )1

9-18. Determinar la forma escalar de las formas cuadrticas asociadas a las formas bilineales
g (X , Y) = X* A Y, en los siguientes casos:
i) / 3 -V 2 0 \ ii)
A= - y /2 1 0 I A=
\ 0 0 1 /

9-19. Sea / l a forma cuadrtica real definida por


/( X ) = X2
1 " 1 >t
donde X = - 2 X = ~ l X.
n n
Obtenerla matriz de/respecto de la base cannica en R .
9-20. Determinar las matrices de las formas cuadrticas sobre R" definidas por

i) / ( X ) = X2 ii) / ( X ) = J 1 (X, - X)2

Investigar la idempotencia de tales matrices.


9-21. Sean g una forma bilineal simtrica sobre V, y / la forma cuadrtica asociada.
Demostrar que

i ) g (x ,y) =-~(/( x + y ) - / ( x ~ y ) )

n) s ( x , y ) = ~ ( / ( x + y ) - / ( x ) - / ( y ) )

9-22. Determinar la matriz de la forma cuadrtica sobre R3 definida por

f ( x i, * 2*3) = *1 - 4*1 x 2 +2x|


9-23. Sea (V, +, K , .) un espacio vectorial de dimensin finita y sean las funciones/: V K
y g : V2 K, tales que
* ( x ,y ) =/ ( x + y ) - / ( x ) - / ( y )
Suponiendo que g es bilineal, y q u e /(a x) = a2 /( x ) , Va eK y Vx e V, demostrar que
/ e s una forma cuadrtica y determinar la forma bilineal de la cual proviene.
9-24. Sea (V, +, R , .) un espacio vectorial de dimensin finita con producto interior y
sean [v] y [w] bases ortonormales de V. S i / : V-> V es un operador que verifica
/ (vO = w,, entonces / es ortogonal.
9-25, Sea (V, +, R , .) un espacio de dimensin finita , con producto interior. Demostrar
que si [v] es una base ortonormal de V y s i / e s un operador ortogonal en V, entonces
I f (v)) es una base ortonormal de V.
9-26. Sea P una matriz ortogonal diagonal. Demostrar que los elementos de la diagonal son l
6 - 1.
9-27. Sean las matrices

Demostrar que existe una matriz unitaria U tal que Q = U"1 P U.


9-28, Demostrar que toda matriz simtrica y real admite un vector propio.
9-29. Obtener, en cada caso, una base ortogonal de R2 formada por los vectores propios de
las siguientes matrices:

i)

9-30. Comprobar que la matriz


/ 3 v 'n

( V? 2 /
es definida positiva y obtener Q no singular, tal que A = Q Q*.
9-31. Obtener una trasformacin ortogonal que diagonalice a la forma cuadrtica

/ ( X ) =jCi + 2 V 6 * i *2 + 2*2

9-32, Demostrar que el signo de una forma cuadrtica real no vara si se efecta un cambio
de base.
9-33. Demostrar que si / ( X ) = X A X es definida positiva, entonces g ( Y ) = Y t A 1 Y es
definida positiva.
9-34. Determinar el rango y la signatura de las formas cuadrticas definidas por

i ) f (X\> Xj, -*3) = x \ + 2x1 + 6*3 - 2 x t x 3 + 4 x 2 x d


ii)f { x i , x 2) ~ { x l - x 2f

9-35. Obtener la descomposicin espectral de la matriz C del ejercicio 8-15.


s
9-36. Sea 2 \ A, la descomposicin espectral de la matriz A. Demostrar

i ) A y B son permutables si y slo si B permuta con cada A,.


ii) Si A es no singular, entonces la descomposicin espectral de A"1 es

A? A,
=l ^ 1
9-37. Demostrar que toda matriz cuadrada real no singular puede expresarse como producto
de una matriz ortogonal y una matriz definida positiva.
9-38. Expresar la matriz
1 / -1 2V ? \
A" M n / T 2 I

como producto entre una matriz ortogonal y una matriz definida positiva.
9-39. Demostrar que una forma cuadrtica real /( X ) = X* A X es definida positiva si y slo si
los menores principales de A son positivos.
9-40. Sean dos formas cuadrticas/y g en R" definidas por/ (X) = X t A X y g (X) = X* B X.
Sabiendo que / es definida positiva, demostrar que existe una trasformacin de
congruencia que las reduce a
y
Si (2 ) = Ai z \ + \ z \ + . . . + An Z2

9-41. Sean (V, +, K, .) un espacio vectorial de dimensin finita, y < , > una forma bilineal
simtrica sobre V. Una base [v] es ortogonal respecto de <, > si y slo si
i=j=>(Vi, v; >= 0 .
Demostrar que si V = f 0 , entonces V admite una base ortogonal.
C aptulo 10

.
CONVENXIDAD PROGRAMACION LINEAL

10.1. INTRODUCCION

A partir de la distancia definida sobre la base del producto interior habitual, se estudian y
se clasifican puntos y subconjuntos de R . Se generalizan las nociones de recta, plano,
semiplano y semiespacio estudiadas en el captulo 7. Se presenta una introduccin a los
conjuntos convexos en R , y se estudian sus propiedades fundamentales. Despus de
relacionar la convexidad con las trasformaciones lineales, se desarrollan los conceptos de
hiperplano soportante y de puntos extremos. Finalmente, y en conexin con o anterior, se
esboza una introduccin al problema general de la Programacin Lineal, y al mtodo
simplex.

10.2. CONJUNTOS DE PUNTOS EN R"

En lo que sigue consideraremos el espacio vectorial (R", +, R , .) con el producto interior


habitual, es decir, definido por

<x ,y> = 2 X i y i ^ X * Y
i=l
donde X e Y denotan las matrices columnas asociadas a los vectores x e y.

10,2.1. Esfera abierta en R

Definicin
Esfera abierta de centro a e R" y radio r > 0 es el conjunto de puntos de R" cuyas
distancias a a son menores que r.
El smbolo S ( a , r) se lee: esfera abierta de centro a y radio r'\
S ( a , r)~ { x e R n / d ( x , a ) < r |
O sea
S ( a , r) = { x e R" / II x - aii < r }
O bien

X ( a , /) = j x e R " /. (je , - a , f O 2 )

En particular, si n = 1, se tiene el segmento abierto de longitud 2r cuyo punto medio es

a
-------- *----------------------------- o----------- ----------- o ------
o >- .... v______ - R
S (a, rj

S (a, r)= x e R / I x - al < r } = { x e R / a - K x < a + f }

En R2, S (a, r) es el interior del crculo de centro a y radio r.

S (a, r ) - ( x e R 2 / l l x ~ a l l < r ) - ( x t - a r f + ( x 2 - a2)2 < r 2\

10.2.2. Punto interior

Sea C un subconjunto de Rn.

Definicin
a e C es un punto interior de C si y slo si existe r > 0 tal que la esfera abierta de
centro a y radio r est incluida en C.
a e C es interior d e C <t> 3 r > 0 / S ( a , r ) C C
Los puntos de todo intervalo abierto en R son interiores. Si el intervalo es cerrado, todos
sus puntos, salvo los extremos, son interiores.

10.2.3. Punto frontera

SeaCCR.
a e Rn es un punto frontera de C si y slo si toda esfera abierta de centro a tiene
intersecciones no vacas con C y Cc.
a e Rrt es frontera d e O < V r > O : S ( a , r ) n c ^ : 0A S ( a , r) O C = 0

El punto a 0C> pero es Si C = A U { a | , entonces el punto ais-


frontera de C. lado a es frontera de C.

10.2.4. Punto de acumulacin

Sea C C R " . El smbolo S* (a, /') se lee: esfera reducida de centro a y radio / e indica la
diferencia entre S (a, r) y { a }. Es decir, S* (a, r) denota la esfera abierta de centro a y radio
r, excluido el centro.

Definicin
a e R" es un punto de acumulacin de C si y slo si la interseccin entre C y cualquier
esfera reducida de centro a es no vaca,
a e Rn es de acumulacin de C & V r > 0: S* ( a , r) n C =$
Los puntos de acumulacin de un conjunto suelen llamarse puntos lmites.
Observamos que un punto de acumulacin de C C R" no pertenece necesariamente a C.
Tal es el caso de la figura siguiente:
a 0C , es punto frontera y tambin de acumulacin de C.
Si consideramos

a e C es punto frontera de C, pero no es de acumulacin de C.


Se demuestra que toda esfera reducida, centrada en un punto de acumulacin de C,
contiene infinitos puntos de C.

10.2.5. Conjunto abierto

Sea C C R

Definicin
C es abierto si y slo si todos sus puntos son interiores.
C es abierto ^ V a e C, 3 r > 0 / S ( a , f) O C = S ( a , r)
Se demuestra que la unin de toda familia de abiertos es un conjunto abierto, y que la
interseccin de toda familia finita de abiertos es abierto.
Las esferas S (a , r) y S* ( a , r) son conjuntos abiertos. Adems, de la definicin se deduce
que un conjunto abierto no incluye a su frontera.

10.2.6. Conjunto cerrado

Consideremos C C Rrt.

Definicin
C es cerrado si y slo si todo punto de acumulacin de C pertenece a C,
Es decir, un conjunto es cerrado si y slo si contiene todos sus puntos de acumulacin.
El conjunto C cuyos elementos son todos los puntos de acumulacin de C, se llama
derivado de C, Diremos entonces que
C es cerrado ^ C ! CC
La siguiente figura
representa un conjunto cerrado, donde C = A. Los conceptos de abierto y cerrado no son
excluy entes, ya que existen conjuntos que no son abiertos ni cerrados.
Este es el caso de un conjunto formado por la unin de un disco abierto y un punto
aislado. Observamos, adems, que un segmento abierto es un conjunto abierto en R, pero no
lo es en R2; o sea, el concepto de abierto es relativo al espacio mtrico que se considere.
El lector podr demostrar, como ejercicio del trabajo prctico, que un conjunto es
cerrado si y slo si su complementario es abierto.
Se verifica que la interseccin de toda familia de cerrados es cerrada, y que la unin de
toda familia finita de cerrados es un conjunto cerrado. Estas proposiciones son consecuencia
de la propiedad anterior.

10.2.7. Clausura de un conjunto

Sea C C R .

Definicin
Clausura de C es la unin entre C y su derivado.
El smbolo C se lee: clausura de C .
Se tiene
C = C U C
O sea, la clausura de C es la unin entre C y el conjunto de sus puntos de acumulacin. Se
demuestra que la clausura de un conjunto cualquiera es cerrada. Ms an, que la clausura de
un conjunto C es la interseccin de todos los cerrados que inlcuyen a C. En este sentido, la
clausura de C es el mnimo cerrado, en el sentido de inclusin, que contiene a C.

10.2.8. Conjunto acotado

Sea C C R".

Definicin
C es acotado si y slo si existe r > 0 tal que
a e C = II a II < r
O sea, C es acotado si y slo si existe r > 0 tal que
C C S ( 0 ,r)

Definicin
C est acotado por debajo si y slo si existe a e R n tal que

x e C =>a < x
La notacin vectorial a < x significa que a < */, V/ = 1, 2 , . . n.

Definicin
C est acotado por arriba si y slo si existe a e R tal que
xeC^x<a
El conjunto C C R 2 indicado en la siguiente figura est acotado por debajo, pero no
arriba

10.3. SEGMENTOS, HIPERPLANOS Y SEM1ESPACIOS

10.3.1. Rectas y segmentos en R

Sean Pj y P2 dos puntos distintos de R. La ecuacin vectorial de la recta Pi P2 es


X = Pt + 1 (P2 P i) donde t e R
Por distributividad respecto de la suma en R" y en R, se tiene
X = t P2 + (1 - / ) Pj coneR
La recta determinada por Pj y P2 es el conjunto

P, P2 = { X e R " / X ~ ? P2 + (1 - r) P j }
El segmento Pj P2 se obtiene haciendo variar el parmetro t entre 0 y 1, o sea
X e P , P2 X = t P2 + ( - t) Pi a 0 < t < 1
Observamos que cualquier punto del segmento determinado por Pj y P2 puede expresarse
como combinacin lineal de stos, con escalares no negativos y cuya suma es 1.

Ejemplo 10-1
La ecuacin vectorial paramtrica de la recta determinada por Pj (3,0) y P2(0, 4) es
(*i,JCa)=s(3, 0) + f ( - 3 , 4)
El sistema de ecuaciones cartesianas paramtricas es
|a : 1 = 3 ~ 3
( X2 = 4 t
Eliminando el parmetro resulta la ecuacin cartesiana
El vector c = 41 + 3 J es normal a r . En notacin matricial, la ecuacin ( 1) se escribe
C* X = 12

La distancia entre 0 y r es

La igualdad
C X = k
denota una familia de rectas paralelas a r. Al trasladar r paralelamente a s misma en la
direccin de C, crece la distancia entre el origen y la recta.

Ejemplo 10-2
El segmento determinado por Pi y P2, con las coordenadas del ejemplo anterior, est
dado por
0*1, * 2) = t (0, 4) + (1 0 ( 3 ,0 ) c o n C K f < 1
El valor de t para el cual se obtiene el punto medio del segmento satisface a

de donde resulta t =
2
r
10.3.2. Hiperplanos en Rrt

Definicin
Un hiperplano en R" es un conjunto de puntos de R" tales que
Ct X = k
donde C denota un vector columna de n componentes y k es un nmero real.

El vector C es ortogonal a tt. En efecto, sean Pj y P2 pertenecientes a ir. Entonces es


C ' P ^ A C ( P2 =jt
Luego
C '(P i-P .) = 0
O sea, el producto interior entre C y cualquier vector de 7r es cero.
Luego
C i it
La ecuacin de un hiperplano que pase por el origen es
C 'X = 0
La ecuacin normal vectorial se obtiene dividiendo por IICII y considerando k en valor
absoluto, o sea
c 1*1
Cll IICI
Esta igualdad puede escribirse
Nf X = p
donde N es un vector unitario normal al plano. El nm ero----- es, en valor absoluto la
IICII ,a
distancia del origen al plano.
Los hiperplanos de ecuaciones Ci X = fci y X = k 2 son paralelos si y slo si = ot C2.
En R2 un hiperplano es una recta. En R 3 es un plano.
La ecuacin cartesiana del hiperplano cuya ecuacin vectorial es
C 'X ^ ,
se escribe
n
2 ci x = k
i=l
Consideremos el caso de un hiperplano cuyas intersecciones con los ejes sean positivas. La
siguiente figura ilustra la situacin en R2

La ecuacin es
C* X ~ k
donde k > 0. Mostraremos que si el hiperplano se traslada paralelamente a s mismo en la
direccin del vector normal, entonces el trmino independiente de la ecuacin crece. En
efecto, el hiperplano que pasa por X j, de vector normal C, est definido por
C'X ^/q
Si consideramos el hiperplano con el mismo vector normal, que pasa por
X2 = X! + a C, con a > 0,
se tiene
Como
C X2 = G (X1 + a C ) = * C X1 + a Cf C = fci + ce II C l2
resulta

Todos los puntos del hiperplano de ecuacin Cf X = k 2 verifican Ct X > k i .


Se propone como ejercicio del trabajo prctico la demostracin de la siguiente propiedad:
todo hiperplano es un conjunto cerrado.

10.3.3. Semiespacios

Un hiperplano tt de ecuacin

determina una particin de R" en tres conjuntos: el hiperplano tt y dos semiespacios


abiertos de borde n.
Ilustramos esta situacin en R2 .

Ct X = k

Definicin
Semiespacios abiertos de borde tt son los conjuntos
Sj = | X e R " C t X < k ]
S2 = { X e R n C t X > k

Definicin
Semiespacios cerrados de borde ir son los conjuntos
S, = { X e R " / C X<A: j
S2 = X e R" / C* X > k }
Se demuestra que los semiespacios abiertos son conjuntos abiertos, y que los semiespacios
cerrados son conjuntos cerrados en R.

10.4. CONVEXIDAD EN Rn

10.4.1. Conjuntos convexos

SeaCCR".

Definicin
El conjunto C es convexo si y slo si el segmento determinado por cualquier par de
puntos de C est incluido en C.
C C R es convexo Px e C a P2 e C =>Pi P2 C C
Sabemos que

Pi P2 = |X e Rn / X = t P2 + ( l ~ t ) P A 0 < < l

La expresin t P 2 + (1 0 **i *donde 0 < t < 1, se llama combinacin convexa de P, y P2.


En consecuencia, diremos que un conjunto C es convexo si y slo si toda combinacin
convexa de dos puntos cualesquiera de C pertenece a C. El conjunto de todas las
combinaciones convexas de P x y P 2 es el segmento cuyos extremos son estos puntos.

10.4.2. Propiedad

La interseccin de dos conjuntos convexos es un conjunto convexo.


Sea C = Cx r t C 2 , donde C * y C 2 son convexos. Consideremos dos puntos cualesquiera Pj
y P 2 pertenecientes a C . Se verifica que

P i eC a P 2 eC =>p! e C t a P j eC 2 a P2 e C i a P 2 eC 2 =>
^pT p CC, A P, p 2 c c 2 = > pT p C C , n c 2 =*PT CC

En consecuencia, C es convexo. Hemos aplicado la definicin de interseccin, de conjunto


convexo y la siguiente propiedad: si un conjunto est incluido en dos conjuntos, entonces
est incluido en la interseccin de stos.

10.4.3. Com binaciones convexas

Sean P j , P 2 , . . P m pertenecientes a R".


Combinacin convexa de los puntos P i, P2 , . . , Pm es todo vector del tipo
cios
.2 ( P|
1=1

donde

2 a = 1 y ot > 0 , V/ = 1 , 2 , . . . , m.
=l
Propiedad

El conjunto de las combinaciones convexas de los puntos P j , P2 , . . . , Pm, es convexo.


Hiptesis) | P , , P a ........Pm } C R "
, I m m v
ae Tesis) C = i 2 a, P, / 2 af ~ 1 a a, > 0 j es convexo

Demostracin)
Se trata de probar que toda combinacin convexa de dos puntos cualesquiera de C,
pertenece a C. Sean P y P pertenecientes a C. Ahora bien
m m
P e C AP eC=>P = 2 *}P a P = 2 a JP,
1=1 i=l
P donde
12
n
0 < <*!, 0 < a y 2 cc\ = 2 = 1
las ** J i=i 1 i=i
Como

t P + ( 1-f) P = / 2 a; P + (1 - 0 .2 <* p =

.
Tj =i-2l ( + ( i - o ; )p,

resulta t P + (1 0 P una combinacin convexa de los m puntos dados, pues


0 < a ) =*0 < a }
0 < a = 0 < (1 - t) a
Luego
lt0 0 < <*, + (1 - 0 a,
"6S Adems
m m m
2 t a} + (1- 0*
i=l 1
2 ai+ ^(1 0
= t1=1 2 a =t=l 1
El conjunto C, representado enla figurasiguiente, es el conjunto de las combinaciones
convexas de los puntos P i , P2, P3 y P4 pertenecientes a R2
P3
10.4.4. Casco convexo d e u n conjunto

Sea C un conjunto no vaco de R n.

Definicin
Casco convexo de C es la interseccin de todos los convexos que incluyen a C.
El casco convexo de C C R " es el mnimo convexo (en el sentido de inclusin), qut
incluye a C.
Sea el casco convexo de C. Entonces
c = nc,
donde { Cf / i e 1) es la familia de todos los convexos que incluyen a C.

Ejemplo 10-3
En R'\ el casco convexo del conjunto C = | P i , P 2 } , donde es el
segmento Pi P2 .
En R3, si C es la superficie esfrica de radio 2 con centro en el origen, entonces C es
la esfera correspondiente. En trminos analticos, se tiene
C = ( X e R 3 / 11X11 = 2 )
C=-| X e R 3 / IIXII<2l 11

10.4.5. Propiedad
co
El casco convexo de un nmero finito de puntos de R" es el conjunto de k-
combinaciones convexas de ellos.
Sean P j , P2, .. ., Pm pertenecientes a R . En 10.4.3. hemos demostrado que el conjunl
de las combinaciones convexas de estos puntos es convexo.
Este conjunto, que denotamos mediante S, es un convexo que incluye
C = j P l5 P2, .. ., Pn , ya que cualquiera de los elementos de ste es una combinado
convexa de todos ellos.
Consideremos ahora la interseccin de la familia de todos los convexos que incluyen a(
o sea
C = n C, / C, 3 C a C, es convexo
Debemos probar que
C C A y A es convexo ^ S C A
Razonamos inductivamente sobre m.

1. Si m = 1, la proposicin se verifica obviamente, ya que S = C.


2, Suponemos la validez para m - 1. Se tiene
m m
P e S = P = 2 o P, a 0 < ci a 2 a = 1
i1 1 =l 1

Sea am * 1; entonces

' P ' d - o - r - 55 P| + T-^2 P2 + ... + ^ - Pmn) + amP,


\ 1 - am 1 - orm 1 - 0 m 1 1

OCt Oitn- 1
El vector ----------Pj + .. . + es una combinacin convexa de
1 OLm 1 ocm
que Pj, ^2 5 ->Pm-i > y Pr la hiptesis inductiva pertenece a A. Como ste es convexo, P, que
es una combinacin convexa de dos puntos de A, pertenece a A.
En consecuencia
SCA
O sea, C = S.

D e fin ic i n

Poliedro convexo generado por un nmero finito de puntos es el casco convexo que
ellos determinan.
El tringulo representado en 10.4.3. es el poliedro convexo generado por P j , P2, P3 y P4.

10.5. CONVEXIDAD Y TRASFORMACIONES LINEALES

10.5.1. Imagen de un conjunto convexo

La imagen de un conjunto convexo, por toda trasformacin lineal / : R" Rm, es un


conjunto convexo.
Hiptesis) / : R" -> Rm es trasformacin lineal
C C R" es convexo
unt
Tesis) f (C) es convexo en Rm
/e Demostracin) Sean Q y Q pertenecientes a f (C). Por definicin de imagen, existen P y
icio P en C, tales que
/ ( P ) = Q* y / ( P ) = c r
Como C es convexo, se verifica que
Luego
/(P ) + ( l ~ ) / ( P )e/(C)
O sea
f Q + ( l - ) Q e /( C )
En consecuencia,/(C) es convexo.

10.5.2. Preimagen de un conjunto convexo

La preimagen de un conjunto convexo, por toda trasformacin lineal/: Rtt - Rm}esiJl


conjunto convexo.
Hiptesis) / : R" -> Rm es trasformacin lineal
C C Rm es convexo
Tesis) f ~1 (C) es convexo en R".
Demostracin) Consideremos dos puntos cualesquiera P y P en la preimagen de C. Pq
definicin de preimagen, de trasformacin lineal y de convexidad, se tiene
F e f 1 (C) a P / -1 ( C ) ^ / ( P ) e C A / ( P )eC=>
= ^ / ( P ) + 0 - ) / ( P ) e C = > / ( P + (1 - 0 P )eC=>
=*P + ( l - f) P e / _1 (C)
En consecuencia, / -1 (C) es un conjunto convexo.

10.5.3. Convexidad de hiperplanos y de senespaos

1. Todo hiperplano es un conjunto convexo.


Consideremos C R y la funcin / : R -* R definida por
/( X ) = C*X

R"

Esta definicin caracteriza a / como trasformacin lineal. El conjunto cuyo nico


elemento es k e R es convexo. De acuerdo con 10.5.2., su preimagen p o r /, es un
convexo en R . Tal preimagen es el conjunto
[ X e R" / / (X) = C*X = k
0 sea, el hiperplano de ecuacin Cf X - k .
II , El conjunto C = | A : e R / . x > f c } es convexo.

*1 *2 R

En efecto:
l5i e C A P2 C =**! > k a x 2 > k =>
=* t x 2 + (1 - 0 * 1 > t k + ( 1 - f ) k ~ k

III. Todo semiespacio abierto es un conjunto convexo.


Considerando la trasformacin lineal f : R" *>R definida por
/( X ) = C X,
y que el conjunto
{x e R / x >&}
es convexo, entonces su preimagen, o sea
{ x e R n f f { X ) =C * X > k } ,
es un conjunto convexo, de acuerdo con 10.5.2.
Tal preimagen es el semiespacio de inecuacin
Cf X > f t

IV. Con criterio anlogo se prueba que todo semiespacio cerrado es un conjunto
convexo.
V . La interseccin de un nmero finito de semiespacios, por ser stos conjuntos
convexos, es un conjunto convexo. Tal interseccin, como lo muestran las siguientes
figuras, puede ser acotada o no.
10.6. H1PERPLANOS SOPORTANTES

10.6.1. Propiedad

Si C es un subconjunto cerrado y convexo de R , entonces cualquier punto Pe^


pertenece a C, o bien existe un hiperplano ir al que pertenece P y es tal que C est incluid
en uno de los dos semiespacios abiertos de borde ir.
En efecto, si P C, nada hay que probar. Supongamos entonces que P / C ; en este cas
demostraremos que existe un hiperplano ir que verifica lo afirmado en el enunciado.
Consideremos la funcin
/ : C ->R
definida por
f p (X )= HX- PH

La funcin f p es continua y alcanza el mnimo en C. O sea


3 A e C / X e C =>fp (A) < / p (X)
Es decir, existe A e C tal que
I I A ~ P I K IIX Pll VXeC
Sea N = A - P. Se verifica que N = 0, pues A C y PjC. Afirmamos que el hiperplan;
ortogonal a N que pasa por P es tal que C est incluido en uno de los dos semiespacio
abiertos determinados por l.
La ecuacin de tal hiperplano es
N ( X - P ) = 0
O sea
Nt X = Nt P
Si B es cualquier punto de C distinto de A, entonces para todo perteneciente al interval
semiabierto (0, 1] se verifica que
IIA P IK H A - ( B - A ) PII = II (A - P ) + / ( B - A)ll
Elevando al cuadrado y teniendo en cuenta la expresin del cuadrado del mdulo y la
jistributvidad del producto interior, en notacin matricial, resulta
II A - Pll2 < IIA - PII2 + 2 t (A - P)* (B - A) + t2 IIB - Ail2
pespus de cancelar y dividir por t:
0 < 2 (A - P)* (B - A) + f IIB - AII2
Para / * 0 es
0 < (A - P) (B - A) = N* (B - A) = N* B - N* A =
= N* B - N* A + N* P - Nf P = N* (B - P) - Nf (A - P)

0 sea
0 <N f(B-P)-N*N
De donde
N*N<N*(B-P)

Y como Nf N > , pues N ^ 0, resulta


0 < N (B-P)
Es decir
N* B > N #P
En consecuencia, B pertenece al semiespacio de inecuacin
N* X > Nf P
0 sea, C est incluido en el semiespacio abierto determinado por la inecuacin
N X > N P

10.6.2. Hiperplano soportante

Sea P un punto frontera del subconjunto convexo C C R ".

Definicin
7T es un hiperplano soportante del conjunto convexo C en el punto frontera P si y slo
si C est incluido en uno de los dos semiespacios cerrados de borde 7r.
Queda como ejercicio del trabajo prctico la demostracin de la siguiente propiedad: siP
es un punto frontera de un conjunto convexo C, entonces existe un hiperplano soportante de
C enP.

Ejemplo 0-4
Consideremos un conjunto convexo C y el hiperplano de ecuacin
N* X =
Sabiendo que
XeC=>N'X>fc (1)
afirmamos que todo punto perteneciente a C n ir es un punto frontera de C.
En efecto, si P no fuera un punto frontera de C, existira > 0 tal que
P-eNeC
Luego
N* (P - e N) = N* P - e N* N = - e Nf N < fc
lo que es imposible, ya que todo punto de C satisface (1).
En consecuencia, P es un punto frontera de C, y ir es un hiperplano soportante de C en
P.

10.7. PUNTOS EXTREMOS

Sea P un punto del conjunto convexo C C R " ,

Definicin
P es un punto extremo de C si y slo si no existen dos puntos distintos Pt y
pertenecientes a C tales que
P = P 2 + ( l - ) P i donde 0 < < l
O sea, un punto extremo de un conjunto convexo no pertenece al segmento abierto
determinado por dos puntos distintos de l.

Observamos que un punto extremo no puede pertenecer a un segmento incluido en C, a


menos que sea un extremo de dicho segmento.
Se demuestra que todo punto extremo de un conjunto convexo es un punto frontera.

Propiedad

Todo hiperplano soportante de un conjunto convexo, cerrado y acotado por debajo,


contiene un punto extremo.
PUNTOS EXTREMOS

Para probar esta afirmacin consideremos un hiperplano soportante de C en un punto


frontera Po- Sea ir tal hiperplano, y su ecuacin
N X = N P0
Consideremos el semiespacio cerrado definido por
Nf X > N* P0 VXeC
y sea
A= 7rnc
De acuerdo con las hiptesis y propiedades anteriores, A es convexo, cerrado y acotado
por debajo.

Probaremos que todo punto extremo de A es un punto extremo de C. En consecuencia, el


problema queda reducido a la determinacin de los puntos extremos de A.
Supongamos que P sea un punto extremo de A no perteneciente a C; entonces existen Qi
y Q2 en C tales que
P = fQ* + (1 - t ) Q i a 0 < t< 1 (1)
Ahora bien
P e ? r = > N P = N Po (2 )
De (1) se deduce
N*P = N f Q2 + ( 1 - 0 N ( Qi
De esta igualdad y de (2) resulta
N t P0 * N < Qa + ( l - r ) N t Q 1 (3)
Adems
Qi eC a Q2 eC Qj P0 a N* Q2 >N * P0
Supongamos que se verifica alguna desigualdad estricta, por ejemplo, N* Q2 > N P0.
Entonces, considerando (3) se tiene
N f P0 > / N* P0 + (1 - f) N* P0 = N* P0
lo que es absurdo. En consecuencia, se verifica que
N ' Q ^ N ' P o a N ' Q ^ N ' P o

y esto contradice la suposicin de que P es un punto extremo de A.


Proponemos como ejercicio del trabajo prctico la determinacin efectiva de un punto
extremo de A.
Se demuestra que todo conjunto cerrado, acotado y convexo es el casco convexo de sus
puntos extremos.
Las figuras ilustran esta situacin y tambin el hecho de que un convexo no acotado o
abierto no es el casco convexo de sus puntos extremos.

10.8. IN TR O D U C C IO N A LA PRO GRA M ACIO N LIN EA L

10.8.1. C oncepto

La Investigacin Operativa, que nace en la segunda Guerra Mundial, es la ciencia que trata
problemas que se presentan en la industria, comercio, educacin, defensa, etctera, y
aplicable a sistemas complejos en los que intervienen personas, equipos, materia prima y
dinero. Su objetivo es el asesoramiento, a fin de adoptar decisiones convenientes.
La Programacin Lineal es un modelo particular que utiliza la Investigacin Operativa.
Los problemas que trata la Programacin Lineal son aquellos que pueden ser expresados
mediante relaciones lineales que vinculan las variables con ios datos.
En lo que sigue, y sobre la base del concepto de convexidad, presentaremos el problema
general de la Programacin Lineal en lo que se refiere a su planteo, estructura lineal,
soluciones posibles y optimizacin del objetivo.
Consideremos el siguiente caso: una industria produce dos tipos de productos Ai y Aj.
Existen restricciones de los recursos: mano de obra, materia prima y maquinaria. Se sabe que
para producir una unidad del producto A t , el dinero insumido por los recursos es, en pesos,
5 10 y 4 respectivamente. En el caso del segundo producto las cantidades son 6,2 0 y 4.
Esta situacin queda indicada en la siguiente tabla o matriz

Ai a2

Mano de obra 5 6
Materia prima 10 20
Equipos 4 4

El dinero disponible para cada uno de los tres recursos es, respectivamente, 15.000,
20.000 y 6.000 pesos.
La ganancia o beneficio neto por cada unidad del producto At es 3 pesos, y por cada
unidad del producto A2 es 4 pesos. Se supone que el mercado puede absorber sin
competencia estos productos.
Con esta informacin completamos el cuadro anterior:

^ ^ - ^ P r o ducto s
R ecursos^'"'^^^ Ai a2 Disponibilidades

Mano de obra 5 6 15.000


Materia prima 10 20 20.000
Equipos 4 4 6.000

Beneficio 3 4

El problema consiste en determinar las cantidades a producir, Xj y x 2, de los productos


Ai y A2, respectivamente, a fin de obtener el mximo beneficio. El objetivo es, entonces,
maximizar el beneficio.
Las variables Xi y x 2 deben satisfacer las siguientes restricciones:
1. Condiciones de vnculo

f 5 x i + 6 x a < 15.000
10 x t + 2 0 x 2 <20.000
4 x i + 3 x2 < 6.000
2. Condiciones de no negatividad
Xi> 0

| x2 o
E l n m e r o d e u n id a d e s p r o d u c id a s d e c a d a p r o d u c t o n o p u e d e se r n e g a tiv o .
El c o n ju n to so lu c i n S del s iste m a fo rm ad o por la s in e c u a c io n e s a n t e r i o r e s es i
in te rs e c c i n de lo s c in c o s e m ie sp a c io s (e n e ste c a s o s e m i p l a n o s ) , q u e t a l e s in e c u a c io n e s
d e te rm in a n .
P a r a o b t e n e r l o , r e p r e s e n t a m o s p r i m e r o la s r e c ta s c u y a s e c u a c i o n e s s o n :

5 JCi + 6 jc2 = 15.000


10 x i + 2 0 x 2 = 2 0 .0 0 0

4 * i + 4 x 2 = 6 .0 0 0

L a s c o n d i c i o n e s d e n o n e g a t i v i d a d r e s t r i n g e n e l p r o b l e m a a l p r i m e r c u a d r a n t e . O b te n e m o s
la s in te rs e c c io n e s de la s re c ta s con lo s e je s e sc rib ie n d o la s e c u a c io n e s en la fo rm a
s e g m e n ta ria , o sea, d iv id ie n d o p o r c a d a t rm in o in d e p e n d ie n te m e n te :

X1 + *2 = j
3.000 2.500
= !
2.000 1.000
*i + *2 = j
1.500 1.500
La re p re s e n ta c i n de la s tre s re c ta s y del c o n ju n to S, in te rs e c c i n de lo s cin c o
s e m ie s p a c io s , q u e d a i n d i c a d a e n la s ig u ie n te f ig u r a
iEl conjunto solucin S es el cuadriltero cuyos puntos (xi, x 2) satisfacen las condiciones
1 de vnculo y de no negatividad. S recibe el nombre de conjunto de soluciones posibles o
f factibles. De l hay que elegir el subconjunto cuyos elementos maximicen la funcin objetivo
| f ( x 1 , x 2 ')=3xl + 4 x 2
i j ( x t x 2) representa el beneficio neto que se obtiene al vender x y unidades del producto Aj
r. yx2 unidades del producto A2 .
\ La relacin
| 3 Xi + 4 x 2 ~ k
'< 3
| representa una familia de rectas paralelas, de pendiente m = ~~> llamadas rectas de

isobeneficio.
De stas, interesa aquella cuya interseccin con S sea no vaca y cuya distancia al origen,
Je
es decir, >sea mxima. Esto es, hay que determinar la recta de la familia de mayor k y de

interseccin no vaca con S.


En la figura se ha representado la recta de la familia que pasa por el origen y cuya
ecuacin es
3*i + 4 x 2 =0
Desplazando esta recta en la direccin del vector normal 3 I + 4 J crece la distancia al
origen.
El conjunto S H r corresponde al punto (1.000, 500). Para estos valores de y x 2 e|
beneficio es mximo, y se obtiene
m x / ( ^ i , * 2) " 3 . 1000 + 4 >500 = 5000
O sea, el beneficio mximo, que es de 5.000 pesos, se obtiene produciendo 1.000
unidades del producto Ax y 500 unidades de A2 . Cualquier otro punto de S tiene
coordenadas asociadas a una produccin con la que se obtiene una ganancia menor. Si el
nmero de variables es mayor que 2, no es posible resolver el problema grficamente. El
mtodo analtico ms utilizado para resolver un problema de Programacin Lineal es el
Simplex.
Con relacin al problema expuesto, utilizando notacin matrcial, se tiene
/5 6 \ / \ /15.000 \
A= 10 20 X= B= 20.000 C=
\ 4 4/ \ x*/ \ 6. 000/

1. Condiciones de vnculo:
AX< B

2. Condiciones de no negatividad:
X>0

3. Funcin objetivo (a optimizar):


/(X ) = C* X

Ejemplo 10-5
Desarrollamos el siguiente problema expuesto por Tucker en el Seminario de
Royaumont, cuyo enunciado figura en la publicacin nmero 26, escrita por el Doctor
Luis A. Santal, de la coleccin La Escuela en el Tiempo, Editorial Eudeba, 1966.
Un chacarero tiene a su disposicin 100 hectreas de tierra, 160 das-hombre para
cultivarlo y 1.100 pesos para invertir. Desea sembrar dos cultivos, uno de los cuales
requiere un da-hombre por hectrea y produce un beneficio de 40 pesos por hectrea;
el otro cultivo requiere 4 das-hombre por hectrea y produce un beneficio de 120
pesos por hectrea. El cultivo 1 requiere una inversin de 10 pesos por hectrea y el
cultivo 2 requiere 20 pesos por hectrea. Se desea saber cuntas hectreas de cada
cultivo habr de plantar para obtener el beneficio mximo.
En el siguiente esquema quedan especificados la matriz A, el vector B y los coeficientes
de costos, o sea, el beneficio neto por hectrea para cada cultivo:
C u ltiv o s

Ci C* D is p o n ib ilid a d e s
R e c u rs 0

H e c t re a s 1 1 100
D a s-h o m b re 1 4 160
In v e rsi n p o r h a . 40 20 1 .1 0 0

B e n e fc io 40 120

Si x j y x 2 s o n la s h e c t r e a s q u e d e b e n d e s t i n a r s e a l o s c u l t i v o s Ci y C2j el p ro b le m a
consiste en m a x im iz a r la fu n c i n o b je tiv o

4 0 * ! + 120x 2

s u je ta a la s r e s tr ic c io n e s

Xi + X2 < 100

X\ + 4*2 < 160

10*i + 20*2 < 1 .1 0 0

*! >0
*2 >0
E n el g r f i c o s i g u i e n t e e s t n r e p r e s e n t a d o s e l c o n j u n t o S d e s o l u c i o n e s p o s i b l e s , y el
p u n t o d e c o o r d e n a d a s ( 6 0 , 2 5 ) q u e o p t i m i z a la f u n c i n o b je tiv o :
El mximo beneficio se obtiene sembrando 60 hectreas del cultivo 1 y 25 hectreas
del cultivo 2, o sea, dejando 15 hectreas sin cultivar.

10.8.2. Problema general de Programacin lineal


Un problema de programacin lineal puede expresarse de la siguiente manera:
n
minimizar / (X) ~ Cf X = 2 c( x ( (funcin objetivo)
i
sujeta a las restricciones:
AX< B (condiciones de vnculo)
X> 0 (condiciones de no negatividad)
donde X e R " x l , A e Rmxf\ B e R m x l .

Definicin
Solucin posible o factible de un problema de programacin lineal es todo vector de
Rn que satisfaga las restricciones.
El conjunto S, de las soluciones posibles, es convexo y cenado por ser interseccin de
semiespacios cerrados. Si alguna condicin de vnculo es una ecuacin, en tal interseccin
interviene un hiperplano, que es convexo y cerrado.

Definicin
Solucin ptima es una solucin posible que optimiza (minimiza en este caso) la
funcin objetivo.

Propiedad

Si un hiperplano caracteriza el ptimo de la funcin objetivo, entonces tal hiperplano no


tiene puntos interiores al conjunto de soluciones posibles.
En efecto, sea C* X = k la ecuacin del hiperplano tt asociado al mnimo de la funcin
objetivo / (X) ~ C* X, y supongamos que existe un punto P0 en ir, que es interior al conjunto
S de soluciones posibles.
Por definicin de punto interior, existe e > 0, tal que
S (P 0 , ) C S
El punto

pertenece a S, ya que es un elemento de la esfera abierta de centro P0 y radio e, pues


El vector Pi verifica, adems

c* p1=c p0- - ^ 4 = t - - ll l< jf c


3 II Cl 3
lo que cs contradictorio con la hiptesis de que la funcin objetivo alcanza el mnimo en P<>.
En consecuencia, podemos afirmar que un hiperplano correspondiente a una solucin
ptima es un hiperplano soportante de S en el punto de solucin ptima.

10.8.3. Soluciones p tim as y p u n to s extrem os

Propiedad

La funcin objetivo toma el valor ptimo en un punto extremo del conjunto de


soluciones posibles. Si toma dicho valor en ms de un punto extremo, entonces lo toma en
toda combinacin convexa de tales puntos.
Consideremos un problema genrico de Programacin Lineal, consistente en maximizar la
funcin objetivo
/(X ) = C X
sujeta a un nmero finito de restricciones del tipo habitual. Entonces S admite un nmero
finito de puntos extremos, y se identifica con el poliedro convexo generado por ellos. Es
decir, S es el casco convexo de sus puntos extremos, y por consiguiente toda solucin posible
puede expresarse como combinacin convexa de los mismos.
Sean P i , P2, . . . , P* los puntos extremos, y sea P0 un punto de solucin ptima, es decir,
que maximiza la funcin objetivo.
Se verifica que
P e S = > / ( P ) < / ( P 0)
Debemos probar que existe un punto extremo, en el q u e /to m a el v alo r/(P 0). Como
P0 e S, se tiene
k k
P0 = 2 ctt P; con 0 < a a X ott = 1
i= l i=1
La funcin
/ : R rt -* R
definida por
/( X ) = C X
es una trasformacin lineal, y en consecuencia

/(P )= | ( 1)
Consideremos
/ ( P*) = mx (/(P*) / / = 1 , 2 , . . . , * )
i
Como P* es un punto extremo de S, y / toma el mximo en P0, es
/ ( P * ) < / ( P 0) (2)
Por definicin de mximo se tiene
/ ( P * ) > / ( P ,) V/=l, 2 , ...,*
Entonces
a//(P * )> < *//(P < ) = 1 , 2 ........ *
Realizando la sumatoria respecto de es

s o ,/(P * ) > S ot,/(P,)


1=1 1=1
O sea

/ ( p * ) i tt > Z a ,/(P ,)
i l i=1
k
Como c ~ 1, resulta
<=i 1

/ ( P * ) > . l /(P ,) (3)


1=1
De (1) y (3) se deduce
/ ( P * ) > / ( P 0)
De esta relacin y de (2), por la antisimetra, se verifica que
/ ( P o ) = /( P * )
Es decir, existe un punto extremo, P*, en el cual la funcin objetivo toma el valor
mximo.
Supongamos ahora que f alcanza el ptimo en dos puntos extremos distintos y sean stos
Pf y Py. Entonces
/ ( P ) = /( P /) = : M
Consideremos una combinacin convexa
P = f P; + (l O n
coino
/ ( P ) = /(P ;J + (1 - f J / P , ) M + (l /)M = M
queda probado que el valor ptimo es alcanzado en el punto P. que es combinacin convexa
de Pf y Pj.

10.8.4. Observacin

Sabemos, por 10.6.2., que todo conjunto convexo, cerrado y acotado por debajo tiene
puntos extremos en cada hiperplano soportante. El conjunto de soluciones posibles de un
problema de Programacin Lineal es convexo, cerrado y acotado por debajo por el vector
nulo, ya que X > 0. El teorema anterior asegura que si existe ptimo de la funcin objetivo,
tal valor es alcanzado al menos en un punto extremo. En R", S tiene un nmero finito de
puntos extremos.
El problema se reduce entonces a examinar el valor de la funcin objetivo en los puntos
extremos, a fin de hallar el ptimo. El mtodo Simplex permite determinar analticamente
los puntos extremos y pasar de uno a otro analizando el valor d e /, hasta obtener el ptimo.
/ 0- 6. Se a A= ((* ,, * j ) e R 2 / 1*, l < 1 a U K l | U |(2,1)|
Determinar la frontera y el derivado de A.
10-7. Dados los siguientes subconjuntos de R2

A = { (*i, X i) 2 x \ + 3 Jcr| ^ 6
B = { (* i, * 2) I x 1 1 A Xi < 2
C= ( (Xi, X 2) i Xl x% < 2 A x x> 0A * 2 > l }

clasificar los puntos del plano respecto de ellos, determinar sus fronteras y derivados e
investigar si son abiertos o cerrados.
10-8. Demostrar que un conjunto A C R es cerrado si y slo si su complementario es
abierto.
10-9. Demostrar que un hiperplano es un conjunto cerrado.
10-10. Investigar si los conjuntos de los ejercicios 10-6 y 10-7 son convexos o no.
10-11. Demostrar que la unin de una familia numerable de abiertos es un conjunto abierto.
10-12. Demostrar que la interseccin de una familia finita de abiertos es un conjunto abierto.
10-13, Demostrar que la interseccin de una familia numerable de cerrados es un conjunto
cerrado, y que la unin de una familia finita de cerrados es un conjunto cerrado.
10-14. Determinar el casco convexo generado por los puntos (1, 2), (1, -1 ) ,(1 , 3), ( - 1, 1),
(1,2), (2, 3), ( - 1 , -1 ), (1 ,0 ). Investigar si (0, 0) es combinacin convexa (1, - 1 ) y
(~i,i).
10-15. Sea/ : R -> R la traslacin definida por / (x) = x + a, donde a e R .
Demostrar que
S es convexo =>f (S) es convexo

10-16. Demostrar que el conjunto solucin del sistema lineal A X = B, donde A e R " x",
B e R "xl y X e Rn x l , es convexo.
10-17. Sea O C R . Por definicin
Ces un cono ^ x e C = > a x e C a o i > 0
Demostrar que si A C R ", entonces el conjunto
C ~ \ax f a>0 a x e A }
es un cono. C recibe el nombre de cono generado por A.
10-18. Determinar el cono C C R 3 generado por la interseccin de
Ai = ) / *1 + *2 < 2 !
y el plano de ecuacin x 3 = 2.
1019. Sabiendo que C es un cono, demostrar que
C = j-x/xeC I
es un cono. C~ recibe e! nombre de cono opuesto de C.

10-20. Demostrar que si C es un cono, entonces

C1 = { y / <y , x >= 0 , V x e C j

es un cono. C1 se llama cono ortogonal a C.


10-21. Demostrar que el cono ortogonal al cono C C R es un subespacio de R/l.
10-22. Sean los conos Cj y C2. Demostrar que
C = Ci + C2 = { x + y / x e Cx a y e C 2 |
es un cono.
10*23. Plantear el siguiente problema de programacin lineal:
Un mezclador de licores importa licores de tres grados: A, B y C. Mediante mezclas de
stos, atenindose a las indicaciones especificadas en la tabla siguiente, obtiene tres
productos finales: L , M y N .

Mezcla Especificacin Precio de venta


por litro

L No menos del 60 % de A 68$


No ms del 20 % de C
M No ms del 60 % de C 5 7$
No menos del 15 % de A
N No ms del 50 % de C 45 $

Las disponibilidades de los tres licores bsicos y sus costos son


L ico r D is p o n ib ilid a d m x im a C o sto p o r litr o
m e n su a l e n litro s

A 6 .0 0 0 63 $
B 7 .5 0 0 45$
C 3 .6 0 0 36 $

E l m e z c la d o r d e s e a s a b e r c u n t o d e b e p r o d u c ir d e lo s lic o re s L , M y N , a fin d e m a x i-
m iz a r sus g a n a n c ia s .

1 0 -2 4 . U n a m q u i n a d e f a b r i c a r p a p e l p r o d u c e r o l l o s d e 8 2 c m d e a n c h o . S e h a n r e c ib id o lo s
sig u ie n te s p e d id o s :

6 0 ro llo s d e 5 8 c m
85 ro llo s d e 2 6 cm
8 5 ro llo s d e 2 4 c m
5 0 ro llo s d e 2 3 cm

P l a n t e a r e l p r o b l e m a d e c m o c o r t a r lo s r o ll o s d e 8 2 c m , a f i n d e s a ti s f a c e r lo s p e d id o s
y m in im iz a r el d e s p e r d ic io .
BIBLIOGRAFIA

Bouteloup, J .: Clculo de Matrices, EUDEBA, Buenos Aires, 1965.


Cotlar-Sadosky: Introduccin al Algebra, EUDEBA, Buenos Aires, 1962.
Dieudonn J.: Fundamentos de Anlisis Moderno. Editorial Reverte S.A., Barcelona, 1966.
Faddeeva, N. A.: Mtodos de Clculo de Algebra Lineal, Editorial Paraninfo, Madrid, 1967.
Faure-Kaufman-Denis: Matemtica Moderna. Editorial Paraninfo, Barcelona, 1966.
Gass S.: Programacin Lineal. Editorial CECSA, Mxico, 1961.
Gentile E. R.: Espacios Vectoriales. C.E.D.Q., Buenos Aires, 1965.
Graybill, F. A.; A n Introduction to Lineal Statistical Models. Mac Graw-Hill, New York,
1961. .
Hadley, G.: Linear Algebra. Addison-Wesley Publishing Company, inc., 1967.
Johnson R.: Algebra Lineal CECSA, Mxico, 1969,
Lang S.: Linear Algebra. Addison-Wesley Publishing Company Inc., 1967.
Lentin-Rivaud: Lecons d Algebra Moderne. Libraire Vuibert, Paris, 1961.
Lipschutz, S.: Teora y Problemas de Algebra Lineal Serie de Compendios Schaum,
Colombia, 1963.
Lipschutz, S.: Theory and Problems o f Finite Mathematics. Schaum, New York, 1966.
Marcus-Minc: Introduccin al Algebra Lineal. CECSA, Mxico, 1969.
Pettofrezzo A. J.: Matricesand Transformations. Prentice-Hall, Inc., New Yersey, 1966.
Rao C. R.: Linear SatisticalInference and its Applications. John Wesley and Sons, Inc., New
York, 1968.
Rojo A.: Algebra /. Editorial El Ateneo, Buenos Aires, 1972.
Rudin W.: Principles o f Mathematical Analysis. Mac Graw-Hill Book, 1963.
Simmons G. F/. Introduction to Topology and Modem Analysis. Mac Graw-Hill, New York,
1963.
Tucker H.: Introduccin a la Teoria Matemtica de las Probabilidades y ala Estadstica,
Editorial Vicens-Vives, Barcelona, 1966,
Villamayor O.: Notas de Geometra I, Buenos Aires, 1966.
Villamayor O.: Algebra Lineal, Monografa Cientfica Nmero 5, O.E.A.
T R A B A J O P R A C T IC O I

16. i ) s i i ) s iii) no iv) no.


1-17. i ) sumar el opuesto de y.
i i ) sumar el opuesto de x.
iii) despus de cancelar y de trasponer, aplicar A9 y 1.3.3.
iv) trasponer y aplicar Ag y 1.3.3.

J-18. Despus de utilizar A8 y A9, y de cancelar, mediante 1.3.3. se obtiene a = 1.


1-19. i ) s i i ) s iii) s iv) s v ) s vi) no.
1-20. No, ya que no existe neutro para la suma en V.
1-21. S. El lector debe probar que se verifican los axiomas.
- . i ) s
1 2 2

i i ) no, pues (1, 1, 2) e S y (1, - 1 , 3) e S pero la suma(2, 0, 5 ) / S


iii) no, porque S no es cerrado para la suma.

1-23. i ) no, pues no se verifica A6


ii) s. Verificarlas condiciones suficientes.

1-24. Aplicar 1.8.2.


1-25. S no es subespacio de (C2 , +, C, .) pues no es cerrado para el producto por escalares.
As, por ejemplo
(1 + /, - 2 ) e S pero / (1 + i, 2) s S.
En cambio S es un subespacio de (C2, +, R , .).
1-26. Ai y A6 se verifican por definicin de cada ley de composicin. Mostramos, a modo de
ejemplo, la validez de A2 :
( (x, y) + (x \ y)| + (x , y) = (x + x, y + y) + (x , y ) =
= (x + x + x , y + y + y) = (x, y) + (x + x , y + y ) =
= ( x , y ) + l ( x , y >) + ( x , y ))
1-27. Aplicar 1.8.2.

1-28. i ) (x, 7 ) e S = (x - y ) 2 - (je ^- y ) 2 =* - 4 x y = 0 ^ x y ~ 0 ^ x ~ 0 v y ~ 0


S es el conjunto unin de los dos ejes, o sea, no es un subespacio,
ii) T es el subespacio definido por la ecuacin x ~ 3 y = 0.

1-29. i ) no, ya que no es cerrado para la suma; por ejemplo


(1, 0 e S y ( , 1) e S pero (1 + /, 1 + ) S
i i ) s
iii) s
iv) s. S = { (a, a + b) / a e R a beR I .
v ) s
vi) s.
1-30, Tener en cuenta las definiciones de suma de subespacios y de inclusin.
1-31. Suponer que x e S admite dos descomposiciones del tipo x = Xi + x2 y x = y, + y2)
y tener en cuenta la definicin de suma directa.
1-32, I o. Aplicar 1.8.2.
2o. Tener en cuenta el ejemplo 4-5 iv), en el que se demuestra que toda matriz
cuadrada es la suma de una matriz simtrica y de una antisimtrica.
2-25. i ) se determinan a y b tales que
( ^ , 2) + ( - V 6 , 2) = (V 2 , l )
Aplicando las leyes de composicin habituales se resuelve, despus de igualar
componentes, un sistema lineal de dos ecuaciones respecto de a y b.
ii) procediendo anlogamente, el sistema resultante carece de soluciones y en
consecuencia v no es combinacin lineal de Vj y v 2 .
2*26. Considerar la relacin lineal
x ( - 1 , 3 ,1 ) + o j (3, - 1 , 1) + a 3 (4, 0, 2) = (0 ,0, 0)
y despus de aplicar las leyes de composicin usuales y de igualar las componentes de
las ternas se llega a un sistema lineal cuyas innitas soluciones estn dadas por
= k , <h ~ 3 k , a 3 = 2 k
En la segunda parte, a partir de
(4, 0, 2) = a ( - l , 3 , l ) + 0 ( 3 , - l , l )
1 3
se llega a un sistema lineal cuya solucin es o = , 0 = . Luego
2 2

( 4 , 0 , 2 ) = - l ( - l , 3 , l ) + | ( 3 , - l , 1)

2-27. Considerar a A + 0 B = N. Resulta a = 0 = 0.


2-28. En (R, +, R , .) son L.D., pero en (R, +, Q , .) son L.I.
2-29. x = 1.
2-30. Considerar
ot (1 ,a, a2) + |3 (1, A, b2) + y ( l , c , c2) = (0,0, 0)
En -el sistema resultante, restar a cada ecuacin la anterior multiplicada por a, y
despus, a la tercera restar la segunda multiplicada por 6.
2-31, A partir de la relacin lineal
af+]3g + 7 h = e
donde e denota la funcin nula, se considera Ja imagen de cualquier t e R; derivando
dos veces se obtiene a = fi~ k , y = 2 k.
2-32. Se plantea una combinacin lineal cuyo resultado sea la funcin nula, como en el
ejercicio anterior, que se verifica para todo f e R. Dando a t dos valores distintos, por
ejemplo 1 y 2, se llega a un sistema con la solucin nica a =0, /3 = 0 .
2-33. Considerar a (a, b) + 0 (c, d ) = (0, 0).
2-34. Son L.I, en ambos espacios.
2-35. i ) son L.I.
ii) son L.I. si ab = 1, y son L.D. si ab = 1.

2-36. Aplicar la definicin de independencia lineal.


2-37. Considerar la relacin lineal
*i Xi + . . . + x + j3 u = 0
y probar que 0 = 0 .

2-38. A partir de j Xj + . . . + a n x n + a x ~ 0, se deduce que <x= 0, pues en caso contrario


x sera C.L. de los vectores de A. Tener en cuenta despus la hiptesis.
2-39. La demostracin se puede hacer por induccin completa o por reduccin al absurdo.
2-40. Considerar una combinacin lineal de las tres funciones cuyo resultado sea ia funcin
nula, expresar la imagen de cualquier*, y dar a x tres valores, por ejemplo, 0,-i v-|.

2-41. i ) cualquier nmero real no nulo


i i ) la base cannica
iii) la base cannica
iv) { 1 + i !
v ) j 1 + i, 1 - i ) .

2-42. El subespacio pedido es el plano de ecuacin x - y - z = 0, y una base del mismo es


{(1, 1, 0), ( 1, 0, 1) } , ya que
( x , y }z ) e S = * ( y +z, y, z ) e S => ( y , 0) + (z, 0 , z) e S =>
=*y (1,1, 0) + z (1, 0, 1) e S, o sea, los dos vectores son un S.G. de S, y adems, L.I.
2-43. El subespacio generado por ambos conjuntos de vectores es el plano cuya ecuacin es
2 x +y + 2 z = 0.

2-44. Una base es j | 1 ) , ( | , ( ) |, la dimensin es 3.


I \ o - 1 / \o o I \l o /l
2-45. Una base deS es j (2,1) ,(2i, i) ) , yla dimensin es 2.
2-46. S no es un subespacio ya que no es cerrado para la suma.
2 4 7 . Est propuesto en 1-25, y la respuesta es afirmativa si el cuerpo es R. Una base es
{1 +i, - 2i } .
248. S es el plano de ecuacin >> - 0. Una base de S est formada por los vectores (1,0, 0) y
(0,0 , 1). T puede ser el plano de ecuacin z = 0.
2 4 9 . La dimensin de Sj O S 2 es 2; aplicando 2.8.1., y considerando que
dim S! = dim S2 = 3, resulta dim (Sj + S2) = 4.
2-50. Primero, demostrar
i > r =>v{es C.L. de , v2 . . vr.
Luego, probar que ( Vj, v2, . . vr J es un sistema de generadores de V.
2-51. Considerar dos bases: una en Si y otra en S2, y tener en cuenta el ejercicio 1-31.
3-21. 1. s, 2. no. 3. s. 4. no.
3-22. 1. s. 2. no. 3. s. 4. no.
3-23. Aplicar la definicin de T.L. a / ( x + y).
3-24, Usar la definicin de T.L, Probar que f es biyectiva. / caracteriza la simetra del plano
respecto del origen.
3-25. Expresar los vectores (3, 3) y (0, - 1 ) como C.L. d e ( l , 2) y de (2, 1). Aplicar despus
la definicin de T.L. Resulta/ ( 3 , 3) = ( - 1 , 2, 1) y / ( 0 , - 1 ) =

3-26, Considerar F (v + v) y F ( a v ) .
3-27. Se obtiene el paralelogramo de vrtices (1, 1), (0, 3), (1, 2) y (0,0).
8-28, S.
3-29. 1. Aplicar la definicin de T.L.
2 ./e s inyectiva, pero no sobreyectiva;g es sobreyectiva. pero no nyeetiva.
3. fe /)(?, >) = (2d + b, b) y { / ' 0 {a. h) ~ (a + b, a + b + c, c).

3-30. Aplicar la definicin de imagen, el hecho de que { Vj, v } es S.G. de V, y la


definicin de T.L,
3-31. f es trasformacin lineal biyectiva.
3-32. Aplicar la definicin de T.L. El nico vector cuya imagen es la matriz nula, es (0, 0).
3-33. Considerar 1.8.2., la definicin de preimagen y de T.L.
3-34. l . N ( 0 = [(0 ,* , ~ k ) j k e R ] . Una base de N (/) es j ( 0 , 1 , - 1 ) 1 y su dimensin es
1. I ff) es R2.
2. N (f) = | (2k, k) I k e R | . Una base de N (J) es { (2. 1) | , y su dimensin es 1.
I (f) = R, y su dimensin es 1.

3-35. n - 3. Se define / : R4 - R3 mediante


f ( X t , X 2 , X 3, *4) = (*1 + ~X4, X2 + *3 +^4).
N (/)= ( (k, -k,0,k)keR } .
Una base es { ( 1 , - 1 , 0 , 1 ) } y d i m N ( 0 = L

i , ,
' 3-36. 1. A = 2 2 j.2./(-2,2,-2) =
1 1 0

0
1 0 -2
3. B =
0 1 1

3-37. l . N ( / ) = { (0,0)1 ; d m N ( 0 as0 . I ( / ) = { ( * , j ; * ) / 3* - J ' - 2 z = 0 | ;unabasedela


imagen est formada por los vectores (1, 3, 0) y (0, 2 ,1 ); su dimensin es 2.
3 2\

2. A = I 1

2
3 i
3-38, Multiplicando A por el vector columna de componentes genricas x t x 2 y * 3, se
deduce que f ( x i, x 2l x$ ) = (Xi + x 2 ~ x 3 , 3x i ~3x 2 3x3) 2*! + 4 x 2 + 2x 3).
N (0 = { (k, 0, k) ( k e R } ; N (f) es la bisectriz del plano xz\ su dimensin es 1.1 (f)
es el plano de ecuacin x - y - z = 0 , y su dimensin es 2.
1 1 0 - 1 1 0 0 0 1
3-39. La matriz es la traspuesta de
0 0 0 0 0 1 0 1 -1

h 0 0
2
J_
3-40. 1. A = 0 o
2
2 1 1

2. La imagen de la matriz [ ^ ^ | es el vector 0 | expresado en trminos de la


\ 2 2 10
base dada.
3 7 3 3 5
3-41. f(Xi , x2, X z ) - ( - + ~ * 2 + - * 3 > Xi + X2 + 2 a :3).
2 2 2 2 2
1_
\ 2 2/
3-43. Hallar las imgenes de los vectores de la base cannica de R2 ; se obtiene
eos 6 -sen Q
A~
sen 9 eos Q

3-44. Considerar que la matriz de la composicin de dos trasformaciones lineales es el


producto de las correspondientes matrices. En el segundo caso, comprobar que
fe /-e -f~ 6 fe ~ A donde i denota la funcin identidad.
3-45. Probar que | ) es un sistema de generadores de V considerando
n
cualquier elemento g e V y definiendo a - g (v#); resulta entonces g= Probar
i=l
n
despus la independencia lineal a partir de la relacin lineal J & ift = e donde e denota
la funcin nula; obteniendo la imagen de cada Vj, se prueba que = 0, para todo
i = i , 2 , . . . , n. Ambos espacios, V y su dual, tienen la misma dimensin.
3-46. 1. Probar que se cumple la definicin de trasformacin lineal, y tener en cuenta el
ejercicio 1-31.
2. Utilizar la definicin de composicin de funciones.
3. Aplicar las definiciones de suma de funciones y de proyecciones; I denota la funcin
identidad en V.
4-23. X =

_ 0 -1
0 1

4-28. A = I : :|;A = | : : |; A = |*

4-20. Considerar, por ejemplo, que A, B y C son de los tipos nxp, p x q y qxm,
respectivamente; expresar la fila i de A, y la columna/ de BC, para formar el elemento
(/, f) de A (BC). Proceder anlogamente con el segundo miembro.
4-30. Demostrar que la propiedad se cumple para n = 1, y que si se verifica para n - h ,
entonces se verifica para n = h + 1.
4-31. Demostrarlo por induccin completa, como el ejercicio anterior.
4-32. X = I.
4-33. Demostrar por induccin sobre k.
4-34. Considerar X = X I.
4-35. Plantear el sistema de ecuaciones no lineales.
4-36. Aplicar la definicin de producto de matrices y la conmutatividad del producto en K.
4-37. Utilizar la definicin de trasposicin y de producto de matrices.
4-38. Partir de (A B)2 .
n n
4-39. 0 = E a ik ahi = 'ajk =>a{ii = 0, V k. Anlogamente se prueba que la columna de
h =1 fe=1
lugar i es el vector nulo.
4-40. Efectuar (B* A B)2
4-41. Premultiplicar A + B = I por A, y posmultiplicar por B.
4-42. Como en el ejercicio anterior.
4-43. Determinar el cuadrado de cada una de las cuatro matrices y aplicar las hiptesis y 1
propiedades de la trasposicin.
4-44. Verificar que se cumple la definicin de matriz simtrica.
4-45. Para la condicin necesaria, considerar A B = ( A B / , Para la condicin suficiente,
partir de (A B)*,
4-46. Desarrollar el producto indicado.
4-47. Desarrollar (A a I) (B ~ a I) y utilizar la hiptesis de que A y B son permutables.
Para la condicin suficiente, considerar que A al y B - al son permutables; despus
cancelar.
4-48. Las filas de AB son iguales entre s, y cada elemento es igual a la suma de los
elementos de la correspondiente columna.
4-49. Tener en cuenta las propiedades relativas a la inversa de un producto y ala traspuesta
de un producto.
4-50. Se considera la matriz diagonal B cuyos elementos diagonales son los inversos de los
correspondientes de A, y se verifica que A B = B A = I.
4-51. Considerar A2 ~ A y multiplicar por A-1.
4-52. Probar que se verifican los cuatro axiomas de grupo.
4-53. Utilizando el mismo esquema de particin en ambas matrices, en bloques de dos filas y
dos columnas, se obtiene
'0 0 4 1
0 0 2 0
0 1 0 0
t2 2 0 0 ,
4-54. Las dos primeras filas constituyen una base del espacio fila de A.
4-55. Multiplicar a derecha B A = N por la inversa de A.
4-56. Premultiplicar por la inversa de A.
4-57. Tener en cuenta que hay que probar la verdad de una disyuncin.
4-58. p(A ) = 2 ;p (B ) = 3.
4-60. Determinar los rangos de A y de A A* por Gauss Jordn.
4-61. Demostrar prim ero que Se (A + B) C Sc (A) + Se (B). Al pasar a la relacin entre sus
dimensiones, tener en cuenta 2.8.1.
4-62. i ) considerar el elemento genrico de la diagonal de AB y de la diagonal de BA.
i i ) asociar y aplicar i),
i iii) aplicar ii).

4-63. Premultiplicar por A la relacin A X = a X, y tener en cuenta que A2 = A.


4-64. Realizar la misma multiplicacin que en el ejercicio anterior y considerar que A2 = I.
4-65. i ) Expresar X como producto de matrices, calcular su cuadrado y tener en cuenta que
X T donde T es la matriz x 1 formada por unos, es un escalar, y por lo tanto igual a
su traspuesta.
1 l
Resulta A = 1 1 , o sea, una matriz n xm cuyos elementos son iguales a
n2 rr
' 1
^
ii ) Se obtiene A = 1 1 .
n

iii) Despus de desarrollar la sumatoria y reducir trminos, se llega a que

\ A = I ----- 1 1 . El lector puede comprobar que esta matriz es idempotente.


i

4-66. Efectuar el producto entre I - T y la suma indicada. Considerar que T" = N.


4-67. Particionar A en dos bloques del tipo 4 X 2, y efectuar el producto.
4-68. Trasponiendo trminos se prueba que A admite inversa.
469. Por Gauss Jordn se obtiene

1 P p2 P3
0 1 P p2
0 0 1 P
0 0 0 i

4-70. Para la condicin necesaria, efectuar los productos AB y BA, e igualarlos para obtener
a y /3. Para la condicin suficiente, efectuar ambos productos sustituyendo B por su
expresin.
4-71. Aplicar induccin completa.
372 RESPUESTAS A LOS TRABAJOS PRACTICOS
y 12. D (A) = -2 0 . D (B) = 10. D (C) = -1 3 5 . D (E) = 57.
5-13. Desarrollar por los elementos de la primera columna.
$.14. Considerar que la fila h, con h # /, es el producto del escalar A por la fila i.
5*15' i ) Aj = \ - 0, A3 = 5
ii)x i = 0 , x 2 = 2 , x 3 = - 3 .

5-16, A* - 1 , A2 = 10.

5-17. Ai 1 , A2 ~ .

5-18. Tener en cuenta la definicin de matriz ortogonal y 5.7.


J./9. Considerar 5.8.3.
5-20. Tener en cuenta el ejemplo 5-7.
5-21. Desarrollar el determinante y?y derivar.
5-22. Expresar los vectores cannicos E i , E2>. . En de Kx l , como combinaciones lineales
de A i, A2 ,. . A , y aplicar los axiomas de la funcin determinante.
5-23. Aplicar 5.5.1. y 5.5.3.
5-24. Considerar una relacin lineal que sea igual a la funcin nula, expresar la igualdad
obtenida para cualquier t y derivar n 1 veces. Resulta un sistema lineal y homogneo
dando a t el valor 0. El determinante de los coeficientes es de Vandermonde.

5-26. En cada caso, examinar el valor del determinante, y si es distinto de cero, aplicar 5.9.
5-28. i ) Restar a cada una de las dos primeras columnas, la siguiente.
ii) Sumar a la primera columna las restantes; factorear; a la cuarta fila sumarle la
segunda y restarle las otras dos; sacar factor comn; a la segunda columna sumarle la
tercera, y a sta, sumarle la cuarta. Desarrollar.
iii) A la cuarta columna sumarle la segunda y la tercera.
iv) A la primera fila sumarle la segunda y la tercera; factorear; a la primera columna
restarle la tercera.

5-29. Agregar el vector de componentes 0,0, 1, como tercera fila y tercera columna del
segundo determinante. El producto es 18.
5-30. El valor del determinante es 4.
5-31. El jacobiano es p2 eos &.
(\ + V)2
5-32. El jacobiano es - ^ .

5-33. Considerar (l )n D (A), y multiplicar el escalar 1 por cada una de las n columnas.
I N
5-34. Multiplicar el determinante de la matriz particionada por 1 =
-B A 1 I
P Q - iPI f Rl.
El lector puede verificar que
N R

5-35. Multiplicar las dos matrices y verificar que se obtiene la identidad.


5-36. Proceder como en el ejercicio anterior.
6-13. La preimagen del vector ( - 1 , 1) es j ( - 2 - k , 3 + 3k, k) k e R } .
<$.J4, El sistema 1. admite la solucin nica X\ = 5 ,x 2 = 1, x 3 = - 4 .
El sistema 2. tiene infinitas soluciones, dadas por x = 3 + 2k, y ~ 1 ~ k , z = k.
6-15. Las dimensiones de los espacios soluciones de los sistemas homogneos, son,
respectivamente: 2, 1, 0, 2, 0,
6-16.1. { ( 1, 0, 1) , (0, 1, 1) ) .
2. ) ( 1, - 1, 1) ) .
4. | ( - 1 , 1 , 0 ) , ( - 1 , 0 , 1)) .

6-17. 1. Una base de S es { (1 i, 1) } y la dimensin es 1.


2. Una base de S es { (1, 3 + i, 1 2i) | y la dimensin es 1.

6-18. Una base es {( 1 ,1 ,1 ) J .


6-19. Como p (A ) = 2, el sistema tiene solucin nica. El conjunto solucin es
T | ( - 1> 2) ) .
6-20. Tener en cuenta que X = A-1 B.
6-21. T = { A: (2 ,3 ) / A: e R } .
6-22. El sistema tiene infinitas soluciones, dadas por
Xi = a
x2 =0
= 1- a - 2 0

x 4 = 3 a 2 0 con a e R, 0 e R.

6-23. Posmultiplicar por la inversa de A. Se obtiene X =

6-24. l . p ( A ) = p(A>) = 2 < 5. El sistema tiene infinitas soluciones, dadas por


* 1 = 2 3 a + 2 0 7
= ct
< *3 = 0
*4=7
*5 = 8 5 a 4- 3 0 2 7 con a, 0, 7 e R.

2. Como p (A) = 3 y p (A) = 4, el conjunto solucin es vaco.


3 .p (A ) = p (A 0 = 3 < 5. Existen infinitas soluciones, del tipo
' x v - a +0
*2 = a
< * 3 =0
*4=0
x s -2(x + p

625. El sistema es compatible porque p(A ) = p ( A ) - 2 . Los elementos del conjunto

solucin son +^ (~ ^ ^

6-26. Las races de la ecuacin son: \ ~ \ 2 1 ^3 = l- Pa*3 Ai = Xa = X las infinitas


soluciones son del tipo x 1 = a, x 2 = b, x 3 =a.
Para X3 = - 1 , se obtiene *1 ~ ~2k, x 2 ~ 2 k, x$ = k.
6-27. Determinar los valores de k que anulan al determinante de los coeficientes. Se obtiene
k ~ 0 o k ~ ~ 3. Para estos valores de k se obtienen soluciones no triviales. Analizar
ambas situaciones. Para fc = 0, el espacio solucin es el plano de ecuacin
X i + * 2 + * 3 = 0. Para k = - 3 el espacio solucin es la recta de ecuaciones
Xi = x 2 = x 3 .

6-28.

lL 2 21 \
M' 1 0 -- -
2 2
I o -
\ 2 2 1

6-29. Despus de efectuar operaciones, eliminar denominadores y reducir trminos, se


resuelve el sistema homogneo resultante, y se obtiene
4
xi = k , x 2 = k , x3 - 4 k
3
0 0 . Trasponer al segundo miembro los trminos en z y aplicar el teorema de Cramer. Si los
tres determinantes son no nulos, puede escribirse
x _ y _ z
bi cx a t Ci ai bi
b2 c2 a2 c2 a2 b2

6-31. Proceder como en 6-27. Para a distinto de 2 y de 3, se obtiene solucin nica. Para
a - 2 existen infinitas soluciones y para a = 3 no existe solucin.
6*32. P a^ a 1 existe solucin nica. Para a = 1 el conjunto solucin es infinito y para
a = 1 el conjunto solucin es vaco.
6-33. Analizar qu relacin vincula a a y a b para que exista solucin nica, ninguna solucin
e infinitas soluciones.
(.3 4 . Un sistema lineal y homogneo es 74x + 1 lx 2 25.x3 = 0.
6-35. Analizar el determinante de los coeficientes. La solucin nica es
b2 + c 2 - a2 a2 + c2 - b 2 a2 + b2 - c 2
x - ----------------- , y ~ ----------------- , z = -----------------
2 be 2 ac 2 a b

(.36. La solucin e s x i = l , x 2 = 2 ,x 3 =3.


7-25. Se verifican los tres primeros axiomas de la definicin, pero no el cuarto.
El vector de componentes y y es no nulo, pero ( X, X > < 0.

7-26. No se verifica el axioma de simetra.


7-27. Tener en cuenta la definicin de ortogonalidad y expresar a v como combinacin lineal
de los tres vectores.
7-28. Es el teorema del coseno; despejar x y considerar el producto interior <x , x X
7-29. Para la condicin necesaria proponer una combinacin lineal de x e y que sea igual al
vector nulo y considerar el producto interior entre dicha combinacin lineal y ella
misma. Suponer que ambos vectores son no nulos.
Para probar la condicin suficiente, siendo los dos vectores no nulos, expresar uno de
ellos como mltiplo escalar del otro, por ejemplo y = a x. Considerar II xll II y II.
7-30. Partir de la desigualdad de Schwarz y elevar al cuadrado.
7-31. Es suficiente probar que son L.l. Considerar el producto interior entre una C.L. que sea
igual al vector nulo y cualquier y,.
7-32. Tener en cuenta que una distancia en V es una funcin d : V 2 -+ R que satisface:
(1 ) d (x , y ) = d ( y, x). (2) d ( x , y ) < d (x, z) + d(z, y). (3) d(x, y ) > 0 y
d (x, y) = 0 o x = y.
7-33. Probar que f e s una trasformacin lineal.
7-34. Probar que satisface los axiomas de producto interior, sabiendo que / es una
trasformacin lineal.
7-35. Utilizar la definicin de N.
7-36. Llamando x e y a dos lados del rombo que sean consecutivos, las diagonales son
D = x + y y d = x - y . Considerar el producto interior, y tener en cuenta la definicin
, de rombo, o sea II xll = II yII.
7-37. Demostrar 3. haciendo x - y = z; despejar x y aplicar 7.5.
Para probar 1., ver que es suficiente demostrar que II xll - II y I K II x - y II y para esto,
partir de -(llxll - II y II),
Para probar 2., partir de I x + y II2.
Para demostrar 4., considerar IIx + a y II2.
j.$8 . Tener en cuenta la definicin de subespacio generado por un conjunto de vectores
A = { x*, x2 >. xr } >y probar que el producto interior entre x y cualquier vector de
A es cero.
. . Considerar un vector en el complemento ortogonal de S.
7 39

1 7 4 0 . Tener en cuenta 7.9.


7 4 1. 1. Considerar \ = ( x , y , z ) y resolver el sistema que se obtiene de las relaciones v 1 ,
v 1 v2 y II vil = 1. Resulta v =

V r V 6 \/S 7
3. y 1 = ( 1. 0 , 0), y2 ~ (0, 1, 0) y y 3 = (0 , 0 , 1) son los vectores de la base ortonormal
pedida.
742. Efectuar el producto interior entre v y v.
743. Considerar el producto interior entre v y v;.
744. Probar que el conjunto de todos los vectores ortogonales a A es un subespacio de V, y
tener en cuenta las definiciones correspondientes.
7 4 5 . Expresar cada uno de los dos vectores como combinacin lineal de la base.
746. Desarrollar 0 < < a x + j 3 y , a x + |3y>, hacer a = <y , y > y 0 = - <x, y >, y considerar
que <x, y ><xTy >= 1<x, y > 12 .
747. 1. P, X . ?! P2 = 0 ; 2 x - 2 y + z - 5 = 0.
2. X = P0 + \ A;= - - = z + 3.
2 -2
748. Es el paraboloide de ecuacin x 2 + y 2 + 2z 2 - 2xy - 6 x - 6y - 4z + 1 = 0.
749. P0X . A = 0; ax +ay 2a2 = 0.

7-50. d ~ ==
y/14 '

1 -2 -3

1 3 5
7 - 5 3 . 2 ( x ~ y + 2 ) 2 + ( z - y + 2)2 - 2 .
7-54. 18 jc2 + [ 3 ( z - 1) + 0 + l )]2 = 2 ( y + l )2
2
x=0

- ry=o c 2
[y^o

7-56.2x = {2 ~ y ) (2 - z).

7-57. X = M + X M 2 ; z = & a r c # Z .
x
7-58. Desarrollar el producto hermitiano.
7-59. Efectuar el producto PP* = I.
7-60. Considerar el producto interior entre cualquier fila i, con / < , y tener en cuenta, de
acuerdo con el ejercicio anterior, que tal producto es 0.
7-61. Probar que la funcin F : V -* V definida por F (x )= / x >donde / x (y) = <x, y ) es un
isomorfismo.
n
7-62. Desarrollar 2 ( x , vf >v,.
i= l
8-14. 1. Aj 5, A 5 son los valores propios.

Vectores propios son = | 3) ~( 1

2. No existen en R.
8-15. 1. Valores propios: 2 y 3.

Vectores propios: y | j

2. No existen en R.

3. X1 =X2 ~ 6, X3 l l . Vectores propios asociados a 6 son

2 '

X3 = 11, corresponde | 0

8-16. Suponer que existe algn valor propio nulo.


8-17. Considerar A X = X X y premultiplicar por la inversa de A y por el recproco de X .
8-18. Probarlo por induccin.

8-19. Partir de S"1 A S Y.

8*20. 1. Para A, es Xi = 1 + i, Xj = 1 i. Los vectores propios asociados son ^ ^

/ ( . - <
2. Para B, los valores propios son - 1 , 1 , ~i, i.
8 -2 1 . Considerar P (X) = X + c n^ X1 + . . . +Ci X+ c0
8-22. Partir de la expresin de P (X) = D (XI - A); tener en cuenta el ejercicio anterior; dar a
X el valor 0.
8-23. Partir de A X = XX y premultiplicar por A.
8-24. Tener en cuenta que los determinantes de dos matrices traspuestas son iguales.
8-25. Los tres valores propios son iguales a 1 y a ste le corresponde un sistema homogneo
cuyo espacio solucin tiene dimensin 1. No es diagonalizable.
8-26. Considerar 8-18.
8-27. Sea T una matriz triangular superior; considerar el valor de D (XI - T).
8-28. Tener en cuenta 8-18 y la definicin de matriz nilpotente.
8-29. 1. Aplicar 8.3.4.
2. Aplicar 8-18.
3. Demostrar primero que si A es idempotente y de rango entonces existe P
ortogonal tal que P* A P = Dr, donde D,. es una matriz diagonal con r unos y n-r
ceros. Aplicar despus 7.
4. Aplicar la definicin de traza.
5. Considerar 8-24.
6 . Expresar los valores de tr AB y tr BA.
7. Asociar y aplicar 6 .
8. Aplicar 7.

8-30. Hallar los valores y los vectores propios y ortonormalizar stos. Se obtiene
i u / 2
V5" VT
Pi = P2 =
2 1
V5- VT
8-31. Considerar 8.5.3. II, o sea, la existencia de una matriz P no singular, tal que
P1 A P = T. Aplicar determinantes y tener en cuenta 8-27.
3 1
8-32. P (A) =
1 6

8-33, Considerar P (A) = a A' y tener en cuenta que A f ~ A.


i~ 0
8-34. Por ser A hermitiana, es A = Ae. Proceder como en 8-33.
8-35. Puede demostrarse por induccin sobre k

8-36. Partir de P (B1 A B ) = a (B~* A B)1y aplicar 8-35.


1 eos

8-38. Y - ( * eos v? j ReSpect0 e [os vectores Y, / representa una simetra.


\ sen ip f
( eos sen \ , . , ., , , .
^ } y representa la composicion de una rotacin de ngulo <p y
-- s e n - e o s y ? /
una simetra axial.
8-40. Segn 8.5.3. II, existe P no singular tal que P"1 A P es triangular superior. Resulta
/ ( P 1 A P) triangular superior cuya diagonal est formada por / ( A i ) , .. - , / ( \ i )
Adems f (P1 A P) = P"1 / (A) P es la forma triangular de / (A).
8-41. Tener en cuenta 8.5.
8-42. Considerar (a I + A) X.
8-43. Relacionar con 8-16.

W ^ t ' ) o -d ia g o n a l. (
i- 0 0
2
La matriz 3 X 3 es diagonalizable y su forma diagonal es D = 0 1 o
2
0 0 1
8-45. Los valores propios de A son 1 y 4. Los valores propios de P (A) son 0 y 15. La forma
diagonal de P (A) es ( ^ ^
\0 15
8-46. De acuerdo con 8*7 existe P C [X] no nulo, tal que P (A) = N, donde A es la matriz
de / . Adems, es
n
P (f) = 7T (f - A), donde X, e C.

O sea

N = P ( A ) = ( A - X 1-I)

3 i tal que A X,* 1 es singular, pues si no, P(A) sera inversible. En consecuencia,
existe X=0 tal que
(A - X I ) X = 0
O sea

Luego, existe un vector propio de /.


9-15. D e sa rro llar ( / + g ) (ax + b x \ y), ( f + g) (x, cy + d yy), (a f ) (ax + >x, y) y
(a f ) (x, cy + dy'), definiendo la suma de funciones y el producto de escalares por
funciones de acuerdo con las leyes de composicin punto a punto.
9-16. Desarrollar gy (x + x) y gy (ax).
9 - 1 7 . i ) f ( x , y ) ~ x l y 1 + 2*i y 2 - x t y 3 + x 2 y 1 - 2 x 2 y 3 + x 3 y 2 + x 3 y 3.
)
/ 3 5 2
B = P* A P = 1 4 2
\ 2 3 1
donde P es la matriz de pasaje de la base dada a la base cannica.
918. i ) / ( X ) = ( X > X) = X* A X = 3x\ + x \ - x \ - l \ f i x x x 2.
ii) f ( X ) = x] - x \ + x \ .

9-19.
1 1 l_\
n2
4tf'=
J l JL
n2 n2 n2 /
Ver 4-65, i).
1 x
9-20. i ) A = - l 1 *
n

ii) Desarrollar el cuadrado, aplicar el operador sumatoria, tener en cuenta que


.S X, = n X = * X y que 2 X f = X* X. Se obtiene A = 1 - - T 1
=1 =1 n
Ambas matrices son idem poten tes.
9-21. i ) Expresar en trminos de g a / ( x + y) - / (x - y),
ii) Lo mismo respecto de / ( x + y) f (x) / (y).

9-23. La funcin h : V2 -> K definida por h (x, y) = ~ g (x, y) es una forma bilineal simtrica

y la forma cuadrtica asociada e s /


9-24. Aplicar 9 . 7 . 1 desarrollando </(x), /(y)> y probando que es igual a <x, y ).
n
9-25. A partir de .2^ f (v-) = 0, considerar < ft f (v*), / (y,) >- 0.
Se prueba que - 0 para todo /', o sea, / ( v j ) , / ^ ) , ,. .,/ ( v tt) sonlinealmente
independientes y en consecuencia constituyen unabase de V que verifica
</(v,) ,/( v ;) >= <Vj, Vj >- 5y, o sea, es ortonormal.

9-26. Tener en cuenta que P Pf = I y que P* = P.


9-27. Considerar 9.7.5. y que U Q = P U.

u=

9-28. Sea A la matriz de / : C" *>C ; de acuerdo con el ejercicio 8-46, A admite un vector
propio, o sea existe A eC tal que A Z = X Z . Observar que AeR, segn 9.6.3.
Considerar que Z = X + Y, donde X e Y pertenecen aR " y premultiplicar por A.

9-30. At = 1, \ = 4 ; por 9.10.1. A es definida positiva. La matriz de vectores ortonormales


es
1 0
S ig u ie n d o 9 .1 0 .2 . se f o r m a = y re s u lta
0 2

--- i
V 3 V 3

2 2
V 6 V 3

1 - V 6
9-31. La matriz o rto g o n a l de v e cto re s p ro p io s de A = es
-V 6 2
1 / V 3 V 2
P =
v /5 \ V 2 V 3-
L a tra s fo r m a c i n d e c o o r d e n a d a s e s t d a d a p o r X = P Y , o sea

(V ^V i - V 2 ^ 2)

*2 (V ^ V i + V 3 > 2)

9 -5 2 . S e a / ( X ) = X f A X d e f i n i d a p o sitiv a y sea X = P Y ,d o n d e P es n o s in g u la r; e n to n c e s
g (Y ) = Y* B Y y es t a l q u e B = P* A P .T a n t o / com o g tie n e n la m is m a im a g e n ; es
s u f i c i e n t e p r o b a r q u e Y f B Y = 0 = Y - 0 . C o n s i d e r a r Y = P 1 X .

9 -3 3 . T e n e r e n c u e n t a el e je rc ic io 8 4 7 y 9 .1 3 .2 .

9 -3 4 . i ) p ( A ) 3; s = 3.

ii) p ( A ) = i ; s = 1.

9 -3 5 . C o n s id e r a r 9 .1 1 . S e o b t i e n e

/ 1 \

2
A = . \ A = 6 + 11 0
J_

4
\
9 -3 6 . i ) C o n s id e r a r 9 .1 1 .

ii) C o n s id e r a r el e je rc ic io 8 -1 7 .

9 -3 7 . A e s n o s in g u la r y A A t e s s im tric a . S e g n 9 .1 0 .2 ., A A* es d e fin id a p o s itiv a . E x is te Q


o r to g o n a l ta l q u e Q * A A * Q = D = d ia g ( X i , X 2 , . . An ) , d e a c u e r d o c o n 9 . 9 . 3 . , d o n d e
lo s v a lo re s p r o p io s d e A A * s o n p o s itiv o s . C o n s id e ra r D x = d ia g ( V X j , V A j , . \ f \ t)
y S = Q D j Q *. R e s u l t a S s i m t r i c a , y d e f i n i d a p o s i t i v a p o r s e r s e m e j a n t e a D j . D e f in ir
P = S "1 A y p r o b a r q u e P P* = I.
9.38. Aplicando 9-37 se obtiene A S P, donde S = -j f J L ^ ) es simtrica definida

___1 s/2\
positiva y P = y/3 \/3 es ortogonal.
s/2 J_
V3 y/3
9-39. Probar que si / es definida positiva, existe una trasformacin no singular X = T Y
donde T es triangular superior y D (T) = 1, que la reduce a la forma
g (Y) = Y* D
n
g (Y) = Y D Y = .2 .y? , donde > 0, siendo D = ( T 1)* AT"1. En consecuencia,
D (D) = D (A) > 0.
Haciendo x n - 0, / se convierte en una forma cuadrtica respecto de n - lque sigue
siendo definida positiva; la correspondiente matriz se obtiene prescindiendo de la
ltima fila y de la ltima columna de A. Reiterar el procedimiento.
Para la suficiencia, utilizar el mtodo de Lagrange, que consiste en completar
cuadrados. Siendo Cn > 0, existe una trasformacin no singular, triangular superior,
con determinante igual a 1, que la reduce a
n n
an z i + 2 2 buz; z<
i=2j =2 3 }
Probar que > 0 , haciendo X j - Z j = 0 para = 2 , 3 , . . . , , y reiterar el proce
dimiento.
9-40. Por ser / definida positiva, segn 9.12.4., existe una trasformacin de coordenadas
n
X = P Y que la reduce a la forma S y i .
Se tiene Pf A P = 1, o sea A = (P P*)1. La trasformacin aplicada a g es tal que
X g X = Y f (P B P) Y, donde P* B P es simtrica. En consecuencia, existe una
trasformacin ortogonal Y = Q Z que la reduce a una suma de cuadrados cuyos
coeficientes son los valores propios de P* B P.

X BX = Zt (P q Y B (P Q) Z = 2 \ z\
=l
n
Esta trasformacin aplicada a Y*1 Y la reduce a .2 z\ . La composicin de las dos
trasformaciones: X = (P Q) Z, reduce ambas formas.
9-41. Demostrarlo por induccin sobre n = dim V.
10-6, Frontera de A es el conjunto
| ( * i , * 2) e R 2 / i*i 1= 1 a x2 I < 2 [ U {(1,2))
o sea, es la unin entre el contorno del rectngulo de vrtices (1, - 2), ( 1, - 2), ( 1, 2),
(1, 2) y el conjunto cuyo nico elemento es (2, 1).
El derivado de A es el rectngulo cuyos vrtices son los nombrados.
10-7. 1. A es la eclipse de centro (0, 0) y semidimetros \/3 y \2 , y su interior. La frontera
es la elipse. Los puntos cuyas coordenadas verifican la desigualdad estricta, son
interiores. Puntos exteriores a A son los que satisfacen
Y 2 V2
3 2
El derivado de A es A; o sea, A es cerrado.
2. Los puntos frontera de B tienen coordenadas que verifican x x =1 o jc2 = 2; la
frontera de B es la unin de un par de semirrectas cerradas.
Puntos interiores de B son los que satisfacen x x > 1 y x^ > 2.
Todos los puntos de acumulacin de B pertenecen a B, o sea, B es cerrado. Adems,
todos los elementos de B son puntos de acumulacin de B.
3. C es cerrado e igual a su derivado. Los puntos interiores de C satisfacen las
condiciones
x 2 < 2 y x t > 0 y x2 > 1

IO S. 1. Sea A cerrado. Considerar un punto a e A c; resulta que a no es de acumulacin de


A. Luego, existe S (a, e) / S (a, e) n A = <>. En consecuencia, S (a, e) C Ac y por lo
tanto, A es abierto.
2. Sea Ac abierto. Suponer que existe un punto de acumulacin de A que pertenece a
Ac. Se llega a una contradiccin.
10-9. Sean: el hiperplano tt de ecuacin N* X = k, a 7Ty la esfera abierta S (a, e),
N G
Considerando b = aH--------- se verifica que b e S ( a , e), pues b - a = ~ < . Ahora
2 IINII 2
bien b > k, y por lo tanto, b 0 7T. O sea, todo punto de 7Tes frontera de ir.
/0-/0. El conjunto del ejercicio 10-6 no es convexo. Los tres conjuntos de 10-7 son
convexos.
10-11. Probar primero que el conjunto vaco es abierto. Sea { A i/ i e N } una familia
numerable de abiertos. Si esta familia es vaca, entonces A es conjunto vaco,
y en consecuencia es abierto. Si la familia no es vaca, cada abierto de la misma es una
unin de esferas abiertas. De este modo, A es la unin de tales esferas abiertas, y por lo
tanto es un conjunto abierto.
Se ha utilizado la siguiente propiedad: un subconjunto C C R" es abierto si y slo si es
una unin de esferas abiertas.
10-12. Sea A ( i e I } una familia finita de abiertos. Si esta familia es vaca, entonces
n
A = O A, es el espacio total, que es abierto (probarlo). Supongamos ahora que la
i=l
familia es no vaca; si A es vaco, entonces es abierto. Consideremos entonces que A es
no vaco y sea a e A.
Se tiene
a e A =* a e A u Vi = 3 ef / S (a, e) C Af, para cada
Sea e el mnimo del conjunto j 6i , e2 ,. . ., } . Entonces para cada i se verifica que
S (a, e) C S (a} e)
en consecuencia, para cada i es
S (a, e) C A,
por lo tanto S (a, e) C A. Luego, A es abierto.
10-13. Aplicar 10-11, 10-12 y las leyes de De Morgan.
10-14. El casco convexo generado por los puntos dados, es el pentgono convexo de vrtices
( - 1 , - 1 ) , ( - 1, 2), (1, 3), (2, 3), (1, --1). Adems, (0, 0) es combinacin convexa de
( 1, 1) y (1, 1), donde f = y .

10-15. Aplicar la definicin de convexidad y de la funcin dada.


10-16. Tener en cuenta que el conjunto solucin del sistema es la interseccin de n
hiperplanos de R", y que stos son convexos.
10-17. Considerar que
y e C = > y = a x donde ot > 0 , x e A.
Multiplicar por 0 > 0.
10-18. El cono generado por la interseccin de los dos conjuntos est caracterizado por
4 x 2 + 4 y 2 - z2 < 0
z> 0

10-19. Utilizar la definicin de cono y de C".


1 0 -2 0 , Aplicar a definicin de C1 y multiplicar por a > 0.
1 0 -2 1 . Utilizar la definicin de cono ortogonal y la condicin suficiente de subespacio.
1 0 -2 2 . Considerar un vector z eC , multiplicar por a > 0, y tener en cuenta que Ci y C2 son
conos.
1 0 - 2 3 . Sea x j la cantidad de litros de licor i que se destina a la mezcla / , donde / = 1,2,3 y
j - 1,2, 3. Se tiene:

N. / Costo por
1 2 3 Disponibilidades
i \ en litros litro

1 xn *12 *13 6.000 63


2 *2 1 *22 *23 7.500 45
3 *31 *32 *33 3.600 36

Precio
de venta 68 57 45
por litro

Objetivo: maximizar
F = 5xu - 6x 12 - l&x13 + 23jc2i + 12x22 + 32x31 4- 21a:32 + 9* 33
Sujeta a las restricciones:

x n + X \ 2 + *13 < 6.0 0 0


Xil + x 22 + *23 <7 .50 0
X 3i + * 3 2 + * 3 3 < 3 - 6 0 0

x n > 0 .6 (x n + x n + x 3)
JV31 < 0.2 (jji +X21 + *3l)
x 32 < 0 .6 ( x i 2 + x 22 + * 2 3 )
x i 2 > 0 A 5 (x n +X 22 + * 3 2 )
x 3 3 < 0 . 5 ( ; 13 + * 23 + * 33)
xj > 0 , i - 1, 2, 3, / = 1, 2, 3

10-24. Detallando los tipos de corte de cada rollo, y denotando con x la variable que
especifica el nmero de rollos del corte/, se obtiene la siguiente tabla:
" 'v. nmero
rollos
ancho *1 *2 *3 *4 * 5 *6 X>j *8 *9 *10 *11 *12

58 1 1 0 0 0 0 0 0 0 0 0 0

26 0 0 3 2 2 1 1 1 0 0 0 0
0 3 2 1 0
24 1 0 0 1 0 2 1
0 1 2 0 1 2 3
23 0 1 0 0 1

Desperdicio
en cm 10 10 11 12 13
0 1 4 6 7 8 9

Minimizar
F = x 2 + 4 x 3 + 6 x 4 H -7xs + & x 6 + 10*8 + 1 0 x 9 + U x + 12x11 + 13X12
Sujeta a las restricciones:
*1 + X 2 ^ 60
3 x 3 + 2 x 4 + 2 *5 + *6 + *7 + *8 > 85

X, + X 4 ^ ' ~ " 10
+ x >85
*2 + * 5 + *7 2jC 8 3*12 > ^0

*y> 0 , / = 1, 2, . . . , 12.
INDICE

A d ju n ta de u n a m a triz , 1 7 0 lin e a lm e n te d e p e n d ie n te , 4 5 , 7 8
A n g u lo e n tre v e c to re s, 2 2 3 lin e a lm e n te in d e p e n d ie n te , 4 2 , 79
A n illo d e m a tric e s, 1 0 9 m a x im a l, 65
A u to m o rfism o , 6 9 o rto g o n a l, 2 2 5
s o lu c i n d e u n s iste m a , 189
B ase, 5 3 , 5 4 , 58 Cono, 356
c a m b io d e , 1 4 6 o rto g o n a l, 3 5 7
fan , 2 8 0 C o n v ex id ad e n R " , 3 7 6
o rto g o n a l, 3 0 3 C o o rd en ad as, 4 4
o rto n o rm a l, 2 2 5 ,3 0 4 e sf ric a s , 17 9
te o re m a de e x te n si n , 56 tra s fo rm a c i n d e, 145
C ram er, te o re m a d e, 187
C a m b io de b a se , 1 4 6 , 2 9 5 C u rv as, 2 4 6
C asco co n v ex o , 3 3 8
C h io , re g la d e , 1 7 4
C la u su ra , 3 2 9 D e p e n d e n c ia lin e a l, 4 5 , 7 8 , 1 6 0

C o m b in a c i n lin e a l, 3 0 , 2 1 7 D e sc o m p o s ic i n e sp e c tra l, 311

convexa, 336 D e sig u a ld a d de S c h w a rz , 2 2 2

C o m p o sic i n de tra s fo rm a c io n e s , 9 2 tria n g u la r, 2 2 3

C o m p le m e n to o rto g o n a l, 2 2 9 D e te rm in a n te , 155

C o n d ic io n e s de v n c u lo , 3 5 2 d e la tr a s p u e s ta , 1 6 6

d e n o n e g a tiv id a d , 3 5 2 del p ro d u c to , 169

C o n g ru e n c ia de fo rm a s c u a d r tic a s , 3 1 4 de V a n d erm o n d e, 168, 178

de m a tric e s, 2 9 5 e x iste n c ia d e , 161


C o n ju n to a b ie rto , 3 2 8 p ro p ie d a d e s d e, 157
a c o ta d o , 32 9 u n ic id a d d e, 163
c errad o , 3 2 8 D ia g o n a liz a c i n d e m a tric e s, 3 0 8
convexo, 336 d e o p e ra d o re s s im tric o s, 3 0 7
d e c o m b in a c io n e s lin e a le s, 3 4 D im e n si n , 5 7 , 59
d e riv a d o , 3 2 8 d e la im a g e n , 8 0
de la suma, 60 de una forma, 2 9 1 , 293
de ncleo, 80 de trazanuJa, 1 9 , 3 8 } 65
de una T.L., 8 6 , 1 4 6
Fan,279 de un sistema lineal, 182
Forma bilineal, 289,291 elemental, 114
cuadrtica, 2 9 4 ,3 0 5 ,3 1 4 ,3 1 8 forma cannica de, 133
hermitiana, 293 hermitiana, 120
lineal, 101,257 idempotente, 1 15
Funcional, 101 identidad, 108
Funcin objetivo, 349,352 inversa, 1 1 6 , 1 4 1 , 1 7 2
involutiva, 115, 274
GaussJordn, mtodo de, 1 3 5 ,1 8 6 no singular, 134
Gram-Schmidt, 228 particionada, 121
rango de, 1 2 6 , 138
Hamilton-Cayley, teorema de, 282 rango columna de, 124
Hlice circular, 248 rango fila de, 125
Helicoide recto, 261 simtrica, 29 ,1 1 2
Hiperplano, 233 traspuesta de, 110
soportante, 343 traza de, 19, 152, 286
triangular, 2 8 , 1 1 4
Imagen de una trasformacin lineal, 74, 80 Mtodo de Gauss-Jordan, 1 3 5 , 138
propiedades de, 75 de Gauss reducido, 210
Independencia lineal, 42, 58 de la raz cuadrada, 202
Indice de positividad, 305 del orlado, 205
de nulidad, 305 Menores principales, 319
Inversin de matrices, 138, 141,172 Mdulo, 218
Investigacin Operativa, 346 Monomorfismo, 69, 77
lsomorfismo, 69
Norma, 218
Jacobiano, 178 Ncleo de una T.L., 72, 80, 183
de un monomorfismo, 77
Matrices equivalentes, 133
producto de, 85, 96, 106 Operaciones elementales, 129
permutables, 107 Operadores adjuntos, 298
semejantes, 147, 275 autoadjuntos, 299
triangulacin de, 279 hermitianos, 299
Matriz, 11, 33, 71 ortogonales, 300
adjunta, 170 simtricos, 399, 307
ampliada, 182 traspuestos, 298
antisimtrica, 29, 112 unitarios, 300
compleja conjugada, 118 Ortogonaiidad, 219, 225
definida positiva, 310 Ortonormal, base, 225
de pasaje, 144 complemento, 229
P a rtic i n de m a tric e s, 121 S y lv e ste r, te o re m a d e , 3 0 6
P e rm u ta c io n e s, 163
P la n o , 2 3 9
T r a s fo r m a c i n lin e a l, 6 6 , 6 8
P o lin o m io c a ra c te rs tic o , 2 7 0 , 2 7 7
b iy e c tiv a , 6 9
P ro d u c to in te rio r, 2 1 4
c o m p o sic i n , 9 6
h e rm itia n o , 2 5 9
d ia g o n a liz a c i n d e , 2 6 9 , 2 7 6
P ro g ra m a c i n L in e a l, 3 4 6
im a g e n d e , 7 4
P ro y e c c i n , 10 5 , 2 3 2
in v e rsa , 9 3
d e u n a cu rv a, 2 5 3
m a triz de, 86
d e u n s u b e s p a c io , 2 8 1
n o sin g u la r, 9 3
P u n to de a c u m u la c i n , 3 2 7
n c le o d e, 72
e x tre m o , 3 4 4
p o lin o m io c a ra c te rs tic o de, 2 75
fro n te ra . 3 2 6
T e o re m a de C ram er, 25 7
in te rio r 326
d e H a m ilto n -C a y le y , 2 8 2
del coseno, 257
R an g o c o lu m n a , 1 2 4
de R o u c h e -F ro b e n iu s, 188
de u n a m a triz . 1 2 6 , 1 35, 184
de P it g o ra s , 221
del p ro d u c to , 127
de S y lv e s te r, 3 0 6
fila , 1 2 4
d e e x te n si n , 56
R e c ta , 2 3 6 , 3 3 0
f u n d a m e n t a l d e la s T . L . , 8 3
R o ta c i n , 2 6 8
T ra s fo rm a c i n d e c o o rd e n a d a s, 145, 3 0 9
R o u c h e -F ro b e n iu s, 188
de m a tric e s, 2 7 9
T r a s p o s ic i n de m a tric e s, 1 1 0
S e g m e n to , 3 3 0
de u n a p e rm u ta c i n , 163
S e m ie s p a c io , 3 3 5
S e m e ja n z a , 14 7
U n i n d e s u b e sp a c io s, 2 2
S ig n a tu ra , 3 0 5
S iin p le x , 3 5 5
S is te m a d e e c u a c io n e s, 1 81 , 1 9 0 , 1 9 8 , 2 0 2 V a lo re s p ro p io s , 2 6 3

c o m p a tib le , 1 8 3 ,1 8 8 de u n o p e ra d o r h e rm itia n o , 3 0 0

in c o m p a tib le , 183 de u n o p e ra d o r u n ita rio , 303

S is te m a d e g e n e ra d o re s , 5 1 , 5 8 V e c to re s, 2
S c h w a rz , d e sig u a ld a d d e , 2 2 2 n g u lo e n tre , 2 2 3
S u m a de s u b e sp a c io s, 2 3 , 2 9 , 6 0 , 2 3 1 c o m b in a c i n lin e a l d e , 3 0
d ire c ta , 2 5 , 6 1 , 105 c o se n o s d ire c to re s, 2 4 0
S o lu c i n p tim a , 3 5 2 fijo s, 2 3 4
p o sib le , 3 5 2 lin e a lm e n te d e p e n d ie n te s , 4 5 , 7 8 , 160
i S u b e s p a c io , 15, 3 5 lin e a lm e n te in d e p e n d ie n te s , 4 2 , 58
S u b e sp a c io s, in te rs e c c i n d e , 2 0 m d u lo d e, 21 8
sum a de, 23 o rto g o n a le s, 2 2 5
u n i n d e, 22 p ro p io s , 2 6 3

S-ar putea să vă placă și