Sunteți pe pagina 1din 28

Matematicas III para Economa

Raciel Vasquez Aguilar


Agosto - Diciembre

Unidad 1

Algebra
lineal
1.1

Introducci
on

Los espacios vectoriales se derivan de la geometra, a traves de la introduccion de coordenadas en el plano o el espacio tridimensional. Alrededor
de 1636, los matematicos franceses Descartes y Fermat fundaron las bases
de la geometra analtica mediante la vinculacion de las soluciones de una
ecuacion con dos variables a la determinacion de un curva plana. Bernhard
Bolzano introdujo en 1804 ciertas operaciones sobre puntos, lneas y planos,
que son predecesores de los vectores. Este trabajo hizo uso del concepto de
coordenadas baricentricas de August Ferdinand Mobius en 1827.

El origen de la definicion de los vectores es la de Giusto Bellavitis, que


es un segmento orientado, uno de cuyos extremos es el origen y el otro un
objetivo. Los vectores se reconsideraron con la presentacion de los nmeros

complejos de Argand y Hamilton y la creacion de los cuaterniones por este


u
ltimo (Hamilton fue adems el que invento el nombre de vector).

El tratamiento mediante combinaciones lineales se remonta a Laguerre


en 1867, quien tambien definio los sistemas de ecuaciones lineales. En 1857,
Cayley introdujo la notacion matricial, que permite una armonizacion y simplificacion de los aplicaciones lineales. Casi al mismo tiempo, Grassmann
estudio el calculo baricntrico iniciado por Mobius. En su trabajo, los conceptos de independencia lineal y dimension, as como de producto escalar estan
1


UNIDAD 1. ALGEBRA
LINEAL

presentes. El matematico italiano Peano dio la primera definicion moderna


de espacios vectoriales y aplicaciones lineales en 1888.

Un desarrollo importante de los espacios vectoriales se debe a la construccion de los espacios de funciones por Henri Lebesgue. Esto mas tarde
fue formalizado por Banacnh en su tesis doctoral de 1920 y por Hilbert. En
este momento, el algebra y el nuevo campo del analisis funcional empezaron
a interactuar, en particular con conceptos clave tales como los espacios de
funciones p-integrables y los espacios de Hilbert. Tambien en este tiempo,
los primeros estudios sobre espacios vectoriales de infinitas dimensiones se
realizaron.

1.2

Grupos, Anillos y Campos (Cuerpos)

Definici
on 1.2.1 Un conjunto no vaco de elementos, G, se dice que forma
un grupo si en G esta definida una operaci
on binaria, llamada producto y
denotada por () tal que:
1) a, b G implica que a b G (cerradura, estable o absorbente)
2) a, b, c G implica que a (b c) = (a b) c (asociatividad)
3) Existe un elemento e G tal que a e = e a = a para todo a G
(existencia del elemento identidad)
4) Para todo a G existe un elemento a1 G tal que a a1 = a1 a = e
(existencia de inversos en G)
Definici
on 1.2.2 Un grupo G se dice que es abeliano (o conmutativo) si
para cualesquiera a, b G se tiene que a b = b a.
Ejemplo 1.2.3 Supongamos que G est
a constituido por el conjunto de los
enteros 0, 1, 2, . . . con a b = a + b. Se puede verificar que G es un grupo
abeliano infinito.
Hay ciertos sistemas algebraicos que nos sirven como los bloques de construccion de las estructuras que componen la materia que actualmente se
llama algebra moderna. Hemos aprendido algo de uno de ellos, los grupos.


UNIDAD 1. ALGEBRA
LINEAL

Ahora, introduciremos un segundo de tales bloques, el constituido por los


llamados anillos.
El concepto abstracto de grupo tiene su origen en el conjunto de aplicaciones (funciones) o permutaciones de un conjunto sobre s mismo. En
contraste, los anillos surgen de otra fuente bastante mas familiar, el conjunto
de los enteros. Veremos que estan caracterizados de acuerdo con los aspectos algebraicos de los enteros ordinarios de los que pueden considerarse una
generalizacion.
Un anillo es completamente diferente de un grupo, ya que es un sistema
bioperacional, en el que hay definidas dos operaciones; estas operaciones se
llaman com
unmente adicion y multiplicacion.
Definici
on 1.2.4 Un conjunto no vaco R se dice que es un anillo asociativo si en R estan definidas dos operaciones, denotadas por + y
respectivamente tales que para cualesquiera a, b, c R:
1) a + b R
2) a + b = b + a
3) (a + b) + c = a + (b + c)
4) Hay un elemento 0 R tal que a + 0 = a a R
5) Existe un elemento a R tal que a + (a) = 0
6) a b R
7) a (b c) = (a b) c
8) a (b + c) = a b + a c y (b + c) a = b a + c a
Los axiomas (1) a (5) simplemente afirman que R es un grupo abeliano
bajo la operacion + a la que llamaremos adicion. Los axiomas (6) y (7) nos
dicen que R es cerrado bajo una operacion asociativa, , a la que llamaremos
multiplicacion. El axioma (8) sirve para correlacionar las dos operaciones de
R.
Puede o no suceder que exista un elemento 1 R tal que a 1 = 1 a = a
para toda a R; si tal elemento existe diremos que R es un anillo con
elemento unitario.
Si la multiplicacion de R es tal que a b = b a para todo a, b R entonces
llamamos a R anillo conmutativo.


UNIDAD 1. ALGEBRA
LINEAL

Ejemplo 1.2.5 R es el conjunto de los enteros, positivos, negativos y el 0;


+ es la adicion usual y es la mutiplicaci
on usual de los enteros. R es un
anillo conmutativo con elemento unitario.
Ejemplo 1.2.6 R es el conjunto de todos los enteros pares bajo operaciones
habituales de adicion y multiplicaci
on, R es un anillo conmutativo, pero no
tiene elemento unitario.
Ejemplo 1.2.7 R es el conjunto de los n
umeros racionales bajo la adici
on
y multiplicacion habituales de los n
umeros racionales. R es un anillo conmutativo con elemento unitario, Pero es m
as que eso, pues podemos ver que
los elementos de R distintos del 0 forman un grupo abeliano bajo la multiplicacion. Un anillo con esta u
ltima propiedad se llama campo.
Con lo anterior podemos decir que un campo es un conjunto no vaco F con
dos operaciones definidas + y tales que
1) a + b = b + a, a, b F
2) (a + b) + c = a + (b + c), a, b, c F
3) Exite un elemento 0 R tal que a + 0 = a, a F
4) Existe un elemento a F tal que a + (a) = 0
5) a b = b a, a, b F
6) a (b c) = (a b) c, a, b, c F
7) Existe un elemnto no nulo u
nico de F tal que a 1 = a, a F
8) A cada elemento no nulo a F le corresponde un u
nicoelemento a1 tal
que aa1 = 1
9) a (b + c) = a b + a c y (b + c) a = b a + c a
Ejemplo 1.2.8 Los conjuntos Q, R y C con las operaciones usuales de
adicion y multiplicacion forman un campo.


UNIDAD 1. ALGEBRA
LINEAL

1.3

Espacios vectoriales

Definici
on 1.3.1 Un espacio vectorial X sobre R es un conjunto de objetos
a los que llamaremos vectores, junto con dos operaciones binarias + : X
X X definida como (x, y) 7 x + y, e : R X X definida
por (, x) 7 x, tales que satisfacen las siguientes propiedades para todo
x, y, z X y , R:
i) x + y = y + x.
ii) x + (y + z) = (x + y) + z.
iii) Existe un vector u
nico 0 en X tal que x + 0 = x.
iv) Para cada vector x X existe un vector u
nico x X tal que x+(x) =
0.
v) (x) = ()x.
vi) 1x = x.
vii) ( + )x = x + x.
viii) (x + y) = x + y.
Los elementos de R se denominan escalares, a la operacion + la llamaremos adicion vectorial y a la operacion la llamaremos multiplicacion de un
escalar por un vector.
Ejemplo 1.3.2 a) Sea X = Rn , el conjunto de todos los n-tuples de n
umeros
reales x = (x1 , x2 , ..., xn ), donde n es un entero positivo arbitrario fijo.
Dados x, y Rn y R, definamos la adici
on vectorial y la multiplicacion de un escalar por un vector como
x + y := (x1 + y1 , x2 + y2 , ..., xn + yn ),
x := (x1 , x2 , ..., xn )

Se puede ver que Rn con las operaciones antes definidas satisfacen las
propiedades de espacio vectorial.


UNIDAD 1. ALGEBRA
LINEAL

b) Sea X el conjunto de todas las funciones f : E R, donde E es un


conjunto no vaco. Definimos la adici
on vectorial y la multiplicaci
on
de un escalar por un vector de la siguiente manera:
Sean f, g X , entonces (f + g)(x) := f (x) + g(x).
Ahora sean R y f X, entonces (f )(x) := f (x).
Se puede mostrar que X satisface las propiedades de espacio vectorial.
c) Sea F cualquier cuerpo y sean m y n enteros positivos. Sea F mxn el conjunto de todas las matrices mxn sobre el cuerpo F . La suma de dos
vectores y el producto est
an definidos como
(A + B)ij = Aij + Bij
(cA)ij = cAij
Se puede mostrar que (F mxn , F, +, ) es un espacio vectorial.
d) El conjunto solucion del sistema de ecuaciones AX = 0 con las operaciones usuales de adic
on vectorial (suma de matrices columnas) y multiplicacion (un escalar por una matriz columna) es un espacio vectorial
sobre R.

1.4

Subespacios vectoriales

Definici
on 1.4.1 Sea X un espacio vectorial sobre R. Un subespacio de X
es un subconjunto W de X tal que, con las operaciones de adici
on vectorial y
multiplicacion escalar sobre X, es W un espacio vectorial sobre R (usaremos
W < X para decir que W es subespacio de X ) .
Definici
on 1.4.2 (Alternativa) Un subconjunto no vaco W de V es un
subespacio vectorial de V si y s
olo si, para todo par de vectores , de
W y todo escalar c de K (K un campo), el vctor c + est
a en W .
Nota. Dado un espacio vectorial V , para que W sea un subespacio vectorial
es suficiente que cumpla las condiciones:
i) W V


UNIDAD 1. ALGEBRA
LINEAL

ii) 0 W
iii) c + W , donde , W y c F
Ejemplo 1.4.3 a) Los subespacios triviales de un espacio vectorial X son
el mismo y el conjunto que consta solamente del vector cero.
b) El conjunto C([a, b]) = {f X | f es continua en [a, b]} es un subespacio
del espacio vectorial del Ejemplo 1.3.2 b) con E = [a, b], y por tanto,
el mismo es un espacio vectorial.
c) Consideremos el espacio vectorial Rn , as
Ei = {(x1 , x2 , ..., xi1 , 0, xi+1 , ..., xn )|xj R, 1 j n, xi = 0}
es un subespacio vectorial de Rn (para cada Ei , 1 i n).
Teorema 1.4.4 . Sea V un espacio vectorial sobre un campo F . La interseccion de cualquier colecci
on de subespacios de V es un subespacio de
V.
Definici
on 1.4.5 Sea X un espacio vectorial sobre R y sea M un subconjunto no vaco de X. Un vector x X se dice que es una combinaci
on
lineal de vectores en M si existe un conjunto finito x1 , ..., xn M y escalares
1 , 2 , ..., n tales que x = 1 x1 + 2 x2 + + n xn .
El conjunto de todos los vectores en X que son combinaciones lineales de
vectores en M es un subespacio de X, lo llamaremos el subespacio generado
por M y lo denotaremos por gen(M ).
Definici
on 1.4.6 Un conjunto finito M de vectores x1 , x2 , ..., xn en un espacio vectorial X se dice que es linealmente dependiente si existen escalares
1 , 2 , ..., n , no todos nulos, tales que 1 x1 + 2 x2 + + n xn = 0.
Si el conjunto M no es linealmente dependiente, entonces se dice que es
linealmente independiente, en este caso, la igualdad
1 x1 + 2 x2 + + n xn = 0
implica que 1 = 2 = = n = 0.
Un conjunto infinito M de vectores es linealmente independiente si todo
subconjunto finito de M es linealmente independiente, en otro caso M es
linealmente dependiente.


UNIDAD 1. ALGEBRA
LINEAL

Ejemplo 1.4.7
a) Sea S un subconjunto de un espacio vectorial V , si 0 S entonces S es
linealmente dependiente.
b) El conjunto de polinomios P(x) = {1, x, x2 } con coeficientes reales son un
conjunto linealmente independiente.

 
 

1 2
1 2
5 10
c) El conjunto S =
,
,
es linealmente de0 3
1 0
3 6
pendiente.
d) (Tarea) El conjunto {1, x, x2 , . . . , xn } es linealmente independiente.
e) El conjunto {e1 = (1, 0, 0), e2 = (0, 1, 0, ), e3 = (0, 0, 1)} es un conjunto
linealmente independiente.
f ) El conjunto {1 + x + x2 , 1 x + 3x2 , 1 + 3x x2 } P2 es linealmente
dependiente.
Definici
on 1.4.8 Sea X un espacio vectorial sobre K, un subconjunto H
de X se dice que es una base de Hamel para X si cumple las siguientes
condiciones:
i) H es un subconjunto linealmente independiente de X,
ii) El subespacio generado por H es todo X, esto es, gen(H) = X.
Si la base de Hamel tiene un n
umero finito de elementos, entonces el
espacio es de dimension finita. Inmediatamente concluimos que un espacio
vectorial X es de dimension infinita si para cada n N, existe un conjunto
de n vectores linealmente independiente.
Ejemplo 1.4.9
a) Sea F un campo, y S F n el subconjunto que consta de los vectores
e1 , e2 , . . . , en definidos por
e1 = (1, 0, . . . , 0)
e2 = (0, 1, . . . , 0)
............
e1 = (0, 0, . . . , 1)
S forman la base canonica de Rn .


UNIDAD 1. ALGEBRA
LINEAL

b) El conjunto

0 0
0 0
0 1
0 0
0 0
1 0
S = 0 0 , 1 0 , 0 0 , 0 0 , 0 1 , 0 0

0 0
0 0
1 0
0 0
0 0
0 1
es la base canonica del espacio de matrices F 3x2
c) Sea S = {1, x, x2 , . . . , xn }. Se puede mostrar que S es una base para Pn .
d) Sea A una matriz invertible de orden n, A = [a1 . . . an ]. Las columnas de
A forman una base de Rn .
Ejercicio. Determinar una base para los siguientes espacios vectoriales sobre
R que se definen de manera general como:

a
b

a) W =
b
a
b) S = {a + bx bx2 + ax3 }
c) Considere el sistema lineal AX = b. Si la matriz A es de dimensiones
mxn contesta lo siguiente
i) X a que espacio pertenece
ii) b a que espacio pertenece
iii) Cual es la relacion de b con las columnas de A si el sistema AX = b
tiene solucion?
Teorema 1.4.10 Si B = {v1 , v2 , . . . , vn } es una base de V y si v V ,
entonces
existe un u
nico conjunto de escalares c1 , c2 , . . . , cn tales que v =
Pn
c
v
.
i=1 i i
Teorema 1.4.11 Sea V un espacio vectorial generado por un conjunto finito
de vectores linealmente independientes {1 , 2 , . . . , m }. Entonces todo conjunto independiente de vectores de V es finito y no contiene m
as de m elementos.


UNIDAD 1. ALGEBRA
LINEAL

10

Corolario 1.4.12 Si V es un espacio vectorial de dimensi


on finita, entonces
dos bases cualesquiera de V tienen el mismo n
umero(finito) de elementos.
Corolario 1.4.13 Sea V es un espacio vectorial de dimensi
on finita y sea
n = dimV , entonces
a) cualquier subconjunto de V que contenga m
as de n vectores es linealmente
dependiente.
b) ning
un subconjunto de V que contenga menos de n vectores puede generar
a V.
Lema 1.4.14 Sea S un subconjunto linealmente independiente de un espacio
vectorial V . Supongase que es un vector de V que no pertenece al subespacio
generado por S. Entonces el conjunto que se obtiene agregando a S, es
linealmente independiente.
Teorema 1.4.15 Si W es un subespacio de un espacio vectorial de dimensi
on
finita V, entonces todo subconjunto linealmente independiente de W es finito
y es parte de una base (finita) de W .
Corolario 1.4.16 Si W es un subespacio propio de un espacio vectorial de
dimension finita V , entonces W es de dimensi
on finita y dimW < dimV .

1.5

Coordenadas y cambio de base

Definici
on 1.5.1 Sea B = {b1 , b2 , . . . , bn } una base para un espacio vectorial
V y x V . Las coordenadas de x relativa a la base B(o las B-coordenadas
de x) son los pesos c1 , c2 , . . . , cn tales que
x = c 1 b1 + c 2 b2 + + c n bn =

n
X

c i bi

i=1

Si c1 , c2 , . . . , cn son las B-coordenadas de x, entonces el vector en Rn

c1

[x]B = ...
cn


UNIDAD 1. ALGEBRA
LINEAL

11

es el vector de coordenadas de x relativas a B.


En muchas aplicaciones, un problema descrito usando un sistema coordenado
puede ser resuelto mas facilmente si se cambia a un nuevo sistema coordenado, transformacion que se logra por medio de un cambio de variables. En

Algebra
lineal, una base nos proporciona un sistema coordenado para un espacio vectorial, mediante la nocion de vectores coordenados y un cambio de
variables se puede asociar con un cambio de base para la representacion de
un mismo vector. Por ejemplo
Sean




 
1
2
B1 = u1 =
, u2 =
2
1

y

 
 
1
1
B2 = v1 =
, v2 =
0
1
dos bases para R2 . Si x R2 entonces x tiene una representacion diferente
para cada base, es decir,
[x]B1 = c1 u1 + c2 u2
[x]B2 = d1 v1 + d2 v2


5
por lo tanto si x esta dada, por ejemplo x =
, entonces,
1






5
1
2
= c1
+ c2
1 B1
2
1


5
1


= d1

B2

1
0


+ d2

1
1

resolviendo cada sistema para c1 , c2 y d1 , d2 se tiene




 
5
1
=
1 B1
3




5
6
=
1 B2
1


UNIDAD 1. ALGEBRA
LINEAL

12

Lo anterior indica que la representacion de x en una base cualquiera B es


precisamente la matriz columna cuyas entradas son las coordenadas de x en
la base dada.
El ejemplo anterior muestra como un vector x puede tener diferentes representaciones dependiendo de las bases que se tengan.
Ahora mostraremos como determinar [x]B2 a partir de [x]B1 . Notaremos que
la idea es exactamente la misma que se aplico para obtener la representacion
de x en las dos bases dadas.



 
5
1
Ya se determino que
=
ya que x = u1 + 3u2 . Ahora, expre1 B1
3
sando a u1 y u2 en terminos de v1 y v2 tenemos

u1 =

1
2


u2 =

2
1


= p1 v1 + p2 v2 = p1


1
0


= q1 v 1 + q2 v 2 = q1


+ p2

1
0

1
1


+ q2


= 3v1 + 2v2
1
1


= 3v1 v2

utilizando lo anterior tenemos


x = u1 + 3u2 = (3v1 + 2v2 ) + 3(3v1 v2 ) = 6v1 v2


6
por tanto [x]B2 =
.
1
a esto le llamaremos el cambio de base de B1 a B2 para el vector x.
Analicemos el desarrollo anterior desde otro punto de vista. De x = u1 + 3u2
tenemos que
 
1
[x]B2 = [u1 + 3u2 ]B2 = [u1 ]B2 + 3[u2 ]B2 = [ [u1 ]B2 [u2 ]B2 ]
3

 
3 3
1
=
= P [x]B1
2 1
3
donde P es la matriz cuyas columnas son [u1 ]B2 y [u2 ]B2 . A dicha matriz se
le llamara matriz de transici
on o matriz cambio de base de B1 a B2 .


UNIDAD 1. ALGEBRA
LINEAL

13

Definici
on 1.5.2 Sean B1 = {u1 , u2 , . . . , un } y B2 = {v1 , v2 , . . . , vn } dos
bases para un espacio vectorial V . La matriz de orden n cuyas columnas son
los vectores coordenados [u1 ]B2 , . . . , [un ]B2 de los vectores en B1 con respecto
a B2 se denota mediante PB2 B1 y es llamada matriz de transici
on o cambio
de base de B1 a B2 .
Ejemplo 1.5.3 Consideremos las siguientes dos bases de R2 , B1 = {e1 =
(1, 0), e2 = (0, 1)} y B2 = {f1 = (1, 1), f2 = (1, 0)}. Entonces,
f1 = (1, 1) = 1e1 + 1e2

por lo tanto las coordenadas de f1 respecto a la base B1 es


1
.
1

An
alogamente se pueden encontrar las coordenadas de f2 en la base B1 ,
f2 = (1, 0) = 1e1 + 0e2 = 1e1
por tanto la matriz de transici
on P de la base B1 a B2 es


1 1
PB2 B1 =
1 0
De la misma manera se puede ver que la matriz de transici
on de B1 a B2 es


0 1
QB1 B2 =
1 1
m
as a
un, Q es la inversa de P y viceversa.

1.6

Bases ortonormales

Ahora introduciremos las nociones de espacios con producto interno lo cual


llevara de manera natural a hablar de bases ortogonales y ortonormales.
Definici
on 1.6.1 Sea V un espacio vectorial real. Supongamos que a cada
par de vectores u, v V se le asigna un n
umero real denotado por hu, vi.
Esta funcion se llama producto interno (producto punto o interior) en V si
satisface las siguientes caractersticas:
i) hau1 + bu2 , vi = a hu1 , vi + b hu2 , vi


UNIDAD 1. ALGEBRA
LINEAL

14

ii) hu, vi = hv, ui


iii) hu, ui 0; hu, ui = 0 u = 0
El espacio vectorial V se denomina entonces espacio con producto interno.
El inciso iii) indica que hu, ui 0, porplo tanto existe su raz cuadrada
positiva, la cual se denotara como kuk = hu, ui.
El n
umero real no negativo kuk se denomina norma o longitud de u. En
esto casos se acostumbra a decir que la norma en un espacio vectorial esta
inducida por el producto interior.
Definici
on 1.6.2 Sea X un espacio vectorial sobre R. Una funci
on k k que
toma valores no negativos sobre X se dice que es una norma en X si:
i) kxk = 0 si y solo si x = 0,
ii) kxk = ||kxk, para todo x X, para todo R,
iii) kx + yk kxk + kyk, para todo x, y X.
Ejemplo 1.6.3 a) Considerando a Rn como espacio vectorial se define el
producto interior como
u v = a1 b 1 + + an b n
donde u = (ai ) y v = (bi ). Esta funci
on define de manera natural la
n
norma de un vector v R como
q

kuk = u u = a21 + a22 + + a2n


b) Sea V el espacio vectorial de las funciones reales continuas en el intervalo
a t b. El siguiente es un producto interno en V
Z b
hf, gi =
f (t)g(t)dt
a

Si u V cumple con kuk = 1, entonces a u se le denominara vector unitario.


Cualquier vector diferente del vector cero se puede volver unitario. Si u 6= 0
entonces
u
kuk
es un vector unitario. A esto se llama normalizar un vector.
v=


UNIDAD 1. ALGEBRA
LINEAL

15

Definici
on 1.6.4 Sea V un espacio vectorial con producto interno. Se dice
que u, v V son ortogonales si hu, vi = 0
Definici
on 1.6.5 Un conjunto de vectores S V , con V espacio vectorial,
se dice ortogonal si cada par de vectores en S son ortogonales. S se dice
ortonormal si es ortogonal y adem
as, cada vector tiene norma 1.
La expresion normalizar un conjunto ortogonal S de vectores se refiere al
proceso de multiplicar cada vector de S por el inverso de su longitud con el
fin de transformar S en un conjunto ortonormal.
Una base de un espacio vectorial se llama ortogonal u ortonormal si lo es
como conjunto de vectores.
Teorema 1.6.6 Sea H un subespacio de Rn . Entonces H tiene una base
ortonormal.
Demostraci
on. Supongamos que {v1 , v2 , . . . , vn } es una base de un espacio
con producto interno H. Se puede construir una base ortogonal {w1 , w2 , . . . , wn }
como sigue:
w1 = v1
w2 = v2 1 w1
w3 = v3 1 w1 2 w2
.......................................
wn = vn 1 w1 2 w2 . . . n1 wn1
i>
i>
donde los i = <vkwn ,w
ermino <vkwn ,w
on de vn
2 . Al t
2 wi se le llama la proyecci
ik
ik
a lo largo de wi .
Los wi as construidos son ortogonales y se divide entre su norma tendremos
una base ortonormal.
El proceso anterior de ortogonalizacion se conoce como proceso de GramSchmidt.

Ejemplo 1.6.7 Consideremos el subespacio V de R4 generado por v1 =


(1, 1, 1, 1), v2 = (1, 2, 4, 5), v3 = (1, 3, 4, 2). Hallar una base ortonormal para V .


UNIDAD 1. ALGEBRA
LINEAL

1.7

16

Transformaciones lineales

Definici
on 1.7.1 Sean V y W dos espacios vectoriales sobre un campo K.
Una transformacion lineal (u homomorfismo) de V en W es una funci
on T
de V en W tal que
T (b + c) = bT () + cT ()
para todos los vectores y de V y todos los escalares c de K.
Se pueden utilizar las palabras funci
on, aplicaci
on, operador en lugar de
transformacion. Hay que notar que esta es una definicion de funcion lineal
generalizada pues el dominio es un espacio vectorial y el rango es otro
espacio vectorial. Esto es, las funciones que han visto de R a R o de Rn a
R lineales son casos partculares. Cuando la transformacion lineal va de un
espacio vectorial V en si mismo tendremos un operador lineal. Si la transformacion va de un espacio vectorial al campo de soporte de dicho espacio
vectorial, tendremos un funcional lineal.

Ejemplo 1.7.2 i) Los siguientes son ejemplos de transformaciones lineales


de R2 R2 :
a) Homotecia: f (u) = ku, k R
b) Proyeccion: f (x, y) = (x, 0)
c) Simetra: f (x, y) = (x, y)
ii) Si A Mmxn sobre R, la transformaci
on f : Rn Rm definida por
f (u) = Au es una transformaci
on lineal (asociada a la matriz A).
c) Sea A el conjunto de todas las funciones f : Rn Rm . Se define la
transformacion lineal
f1 f1
f1
. . . x
x1
x2
n
f2 f2 . . . f2

D(f ) = x. 1 x. 2 . x. n
.
.
.
.
.
.
.
.
fm
fm
fm
. . . xn
x1
x2


UNIDAD 1. ALGEBRA
LINEAL

17

d) Sea R el campo del espacio vectorial V que consta de todas las funciones
continuas en [a, b]. Se define T por
Z
T (f (x)) =

f (x)dx
a

es un funcional lineal.
Proposici
on 1.7.3 Si T : V W es una transformaci
on lineal entonces:
T (0) = 0
T (u) = T (u)
S < V = T (S) < W
El conjunto {u : T (u) = 0} < V
Definici
on 1.7.4 Sean V y W dos espacios vectoriales sobre R y sea T una
transformacion lineal de V en W . Se llama imagen al subespacio vectorial
Im T = (T (V )) y n
ucleo de T , denotado por ker T = T 1 ({0}), al conjunto
de todos los vectores tales que T = 0.
Una transformacion lineal (homomorfismo) se llama monomorfismo si es
inyectiva, epimorfismo si es sobreyectiva, e isomorfismo si es biyectiva.
Cuando los espacios inicial y final coinciden, la transformacion lineal y el
isomorfismo se suelen llamar endomorfismo y automorfismo, respectivamente.
Definici
on 1.7.5 Sea T : V W una transformaci
on lineal.
T es inyectiva si T (x) = T (y) = x = y
T es sobreyectiva si la imagen de T coincide con W .
Proposici
on 1.7.6 Sea T : V W una transformaci
on lineal. Entonces
T es monomorfismo si y solo si KerT = {0}.
Proposici
on 1.7.7 Sea T : V W una transformaci
on lineal. Si B =
{v1 , v2 , . . . , vn } es una base para V entonces
ImT = gen{f (v1 ), f (v2 ), . . . , f (vn )}
y en consecuencia dim Im T dim V .


UNIDAD 1. ALGEBRA
LINEAL

18

Proposici
on 1.7.8 Si B = {v1 , v2 , . . . , vn } es una base para V y {w1 , w2 , . . . , wn }
son n vectores cualesquiera de W entonces existe una u
nica transformaci
on
lineal T : V W tal que T (vi ) = wi , 1 i n.
Observaciones. Si T : Rn Rm definida por T (u) = Au, A Mmxn
entonces:
Ker T son las soluciones del sistema homogeneo Au = 0
Si B = {e1 , e2 , . . . , en } es la base canonica de Rn , entonces
ImT = gen ({T (e1 ), T (e2 ), . . . , T (en )}) = gen ({c1 , c2 , . . . cn })
donde ci es la columna i-esima de la matriz A.
Ejemplo 1.7.9
R3 R3 es la transformaci
on lineal asociada a la
Si T :
1 0 1
matriz A = 0 1 0 entonces,
1 1 1
ImT = gen ({(1, 0, 1), (0, 1, 1), (1, 0, 1)}) = gen ({(1, 0, 1), (0, 1, 1)})
kerT = {u|Au = 0} = gen ({(1, 0, 1)})
ya que

1 0 1
1 0 1
x=
0 1 0 0 1 0 =
y=0 R

1 1 1
0 0 0
z =

1.8

Matriz de una transformaci


on lineal

Como hemos visto una transformacion lineal T : V W queda unvocamente


determinada por las imagenes de los elementos de una base BV = {v1 , v2 , . . . , vn }
de V . Si BW = {w1 , w2 , . . . , wm } es una base de W y
T (vj ) =

m
X
i=1

aij wi ,

1jn


UNIDAD 1. ALGEBRA
LINEAL

19

entonces la imagen de cualquier u = (x1 , x2 , . . . , xn )BV V , expresada en la


base BW de W es
!
!
n
n
n
m
m
n
X
X
X
X
X
X
T (u) = T
xj vj =
xj T (vj ) =
xj
aij wi =
aij xj wi
j=1

Pn
j=1 aij xj
Pn a2j xj
j=1

=
..

Pn .
j=1 amj xj

j=1

j=1

a11
a21
..
.

a12
a22
..
.

i=1

i=1

a1n
a2n
..
.

am1 am2 amn

x1
x2
..
.

j=1

= Au

xn

donde las columnas de la matriz A Mmxn , llamada matriz de la transformaci


on respecto a las bases BV y BW , son las coordenadas en la base BW
de las imagenes de los vectores de la base BV . Fijadas las bases BV y BW , a
cada transformacion lineal le corresponde una matriz y viceversa.
Ejemplo 1.8.1 La expresion matricial de la transformaci
on lineal T : R4
R3 definida, respecto de las bases can
onicas, por
T (x1 , x2 , x3 , x4 ) = (x1 + x4 , x1 + x2 + x3 , x1 + x2 + x3 )
es

x1
T (e1 ) = (1, 1, 1) = 1e1 + 1e2 + 1e3
1 0 0 1
T (e2 ) = (0, 1, 1) = 0e1 + 1e2 + 1e3
x2

1 1 1 0
= T (u) = Au =

T (e3 ) = (0, 1, 1) = 0e1 + 1e2 + 1e3


x3
1 1 1 0
T (e4 ) = (1, 0, ) = 1e1 + 0e2 + 0e3
x4
Para hallar el n
ucleo, se resuelve el sistema

x1 =
x1 + x4 = 0
x2 =
T (u) = Au = 0 =
=
x1 + x2 + x3 = 0
x3 = ( + )

x4 =
de donde ker T = gen{(1, 0, 1, 1), (0, 1, 1, 0)}. La imagen es
ImT = {(1, 1, 1), (0, 1, 1), (0, 1, 1), (1, 0, 0)} = gen{(1, 0, 0), (0, 1, 1)}


UNIDAD 1. ALGEBRA
LINEAL

1.9

20

Dimensi
on de la imagen y el n
ucleo de
una transformaci
on lineal. Teorema Fun
damental del Algebra
Lineal

Como hemos visto, el conjunto de todos los vectores V tales que T () = 0


es el n
ucleo de la funcion al que tambien se le llama espacio nulo de T .
Si T : V W es una transformacion lineal y V es de dimension finita,
el rango de T es la dimension de la imagen de T y la nulidad de T es la
dimension del espacio nulo de T .
Teorema 1.9.1 Sean V y W espacios vectoriales sobre el campo K y sea T
una transformacion lineal de V en W . Sopongamos que V es de dimensi
on
finita, entonces
rango(T ) + nulidad(T ) = dim(V )
Demostraci
on Sean dim V = n, dim (ker(T )) = r n y B1 = {v1 , v2 , . . . , vr }
una base de ker T y B = {v1 , v2 , . . . , vr , vr+1 , . . . , vn } una base de V .
Entonces B2 = {T (vr+1 ), . . . , T (vn )} es una base de Im T , ya que
B2 es un sistema de generadores:
w ImT = w = T (v)

con

v=

n
X

i vi V

i=1

= w = T (v) = T

n
X

!
i vi

i=1

n
X

n
X

i T (vi ) =

i=1

i T (vi )

i=r+1

B2 es linealmente independiente:
n
X

i T (vi ) = T

i=r+1

n
X

n
X
i=r+1

i vi

= 0 =

i=r+1

=
n
X

i vi = 0 = i = 0,

n
X

i vi KerT

i=r+1

i vi =

r
X

(i )vi

i=1

1 i n = i = 0

r+1in

i=1

Por lo tanto dim(ker T ) + dim(Im T )= dim V . Que es equivalente a


decir nuliad (T ) + rango (T ) = dim V .


UNIDAD 1. ALGEBRA
LINEAL

1.10

21

Rango y nulidad de una matriz

Como hemos visto, a cada transformacion lineal le corresponde una matriz,


por tanto como ya hablamos del rango y nulidad de una transformacion lineal
es natural preguntarse cuales seran el rango y la nuliad en una matriz.
Definici
on 1.10.1 Sean T : V W una transformaci
on lineal y A la
matriz asociada a la transformaci
on, como T (v) = Av entonces
kerT = {v : T (v) = 0} = {v : Av = 0} = kerA
ker A se llamara n
ucleo de A y puede denotarse como NA . La dimensi
on
de este espacio se llamara nulidad de A. Si ker T = ker A contiene s
olo al
vector {0} entonces diresmo que la nulidad es cero.
Ejemplo 1.10.2 Dado el sistema de ecuaciones lineales
x1 3x2 2x3 = 0
5x1 + 9x2 + x3 = 0
cuya forma matricial es AX = 0. Determine
el n
ucleo de A
nulidad de A

5
verifique si v = 3 pertenece al n
ucleo de A
2
la transformacion lineal que genera la matriz A
Definici
on 1.10.3 Sean T : V W una transformaci
on lineal y A la
matriz asociada a la transformaci
on, como T (v) = Av entonces
ImT = {w : T (v) = w} = {w : Av = w} = ImA
Im A se llamara imagen de A y puede denotarse como RA . La dimensi
on de
este espacio se llamara rango de A.


UNIDAD 1. ALGEBRA
LINEAL

22

6a b

a+b
Ejemplo 1.10.4 Sea W =
, a, b R . Hallar una matriz A

7a
tal que W gen (columnas) de A. Determinar:
RA
NA
La transformacion lineal de la cual proviene A.
V y W , si T : V W .
Definici
on 1.10.5 Si A es una matriz de mxn, denotemos por {r1 , r2 , . . . , rm }
las filas de A y por {c1 , c2 , . . . , cn } las columnas de A. Entonces definimos
SA = espacio fila deA = gen{r1 , r2 , . . . , rm }
CA = espacio columna deA = gen{c1 , c2 , . . . , cn }
Proposici
on 1.10.6 Si A es una matriz mxn entonces dim SA =dim CA =
dim RA .

1.11

Valores propios y vectores propios

Notas hist
oricas
La primera aplicacion de los valores propios se debe al matematico Leonhard
Euler (suizo, 1707-1783) cuando en 1743 introdujo por primera vez el metodo
estandar de resolucion de una ecuacion diferencial de n-esimo orden con coeficientes constantes. Euler llego a ser el principal de los matematicos de la
Academia en San Petesburgo a la edad de 26 aos. Euler escribio mas de 500
libros sobre calculo, ecuaciones diferenciales, geometra analtica y diferencial, teora de n
umeros y calculo de variaciones. De paso debe anotarse que
para Euler, una funcion era un conjunto de representaciones formales transformables una en otra mediante ingeniosos artificios que utilizaban desde el
algebra elemental hasta el calculo.
Sus diferenciales son en primero y u
ltimo lugar ceros absolutos, cuyas razones por alg
un espiritualismo incomprensible se materializan en n
umeros
finitos, determinados. Entonces en 1743, Euler introduce el metodo estandar
para la solucion de una ecuacion diferencial de n-esimo orden con coeficientes
constantes


UNIDAD 1. ALGEBRA
LINEAL

23

Y n + an1 Y (n1) + + a1 Y 0 + a0 Y = 0
Para lo cual utilizo el concepto de ecuacion caracterstica. Dos decadas mas
tarde, Lagrange dio una version mas explcita de esta misma idea, al hallar
la solucion de un sistema de ecuaciones diferenciales hallando las races de lo
equivalente a la ecuacion caracterstica de la matriz de coeficientes.
La estadstica moderna exige muchos conocimientos y mucha pericia a los
matematicos puros para que se dediquen a ella. Entre los metodos que se han
encontrado aplicaciones en estadstica, se encuentran los de trigonometra
esferica en un espacio de n dimensiones, la topologa y los espacios abstractos. Un ejemplo de la moderna teora es la generada por Andrei Andreevitch
Markov (ruso, 1856-1922) quien genera el concepto de probabilidades encadenadas. Esto se refiere a cadenas de probabilidades sucesivas en las que
el valor de la probabilidad de una variable en un lugar dado de la cadena
depende de los valores obtenidos para las variables anteriores. El nombre de
cadenas de Markov se debe al matematico A. Markov quien las definio por
primera vez en un artculo en 1906.
En esta seccion trataremos el problema de la diagonalizacion, esto es, dada
una transformacion lineal T : V V , donde V es un espacio vectorial de
dimension finita. Buscaremos una base ordenada para el espacio vectorial V
de tal manera que la matriz asociada a T relativa a esa base sea una matriz
diagonal, y como es de suponer, veremos que la manera de encontrar dicha
base.
Definici
on 1.11.1 Sea V un espacio vectorial de dimensi
on finita y sea T :
V V una transformaci
on lineal. Si T (v) = v, para v 6= 0, v V y
alg
un escalar entonces se llamar
a un valor propio para T y v se llamar
a
el vector propio asociado al valor propio .
Toda transformacion lineal tiene asociada una matriz, A, relativa a una base,
entonces en la definicion anterior podemos utilizar de manera equivalente
T (v) = Av = v.
Como v 6= 0 entonces
Av = v
Av Iv = 0
(A I) v = 0


UNIDAD 1. ALGEBRA
LINEAL

24

tiene una infinidad de soluciones lo cual implica que la matriz A I no es


invertible, por lo tanto
|A I| = 0
a la ecuacion anterior la llamaremos ecuaci
on caracterstica. Es claro, que
|A I| = 0 es una ecuacion con variable , por lo tanto tenemos
p() = |A I| = b0 + b1 + b2 2 + . . . + bn n
al polinomio anterio le llamaremos polinomio caracterstico. Las races
del polinomio anterior pueden presentar tres casos:
no tener races reales, es decir, que el polinomio no tenga soluciones en
el campo K
que tenga n races diferentes, 1 , 2 , . . . , n
que tenga races repetidas, es decir, r11 , r22 , . . . , rns
Los ri se llamaran multiplicidades algebraicas de los i .
Proposici
on 1.11.2 Sea A una matriz de orden n, si 1 , 2 , . . . , n son n
valores propios de A entonces sus respectivos vectores propios v1 , v2 , . . . , vn
son linealmente independientes.
Si los vectores propios v1 , v2 , . . . , vn son linealmente independientes, entonces
la matriz P = [v1 v2 . . . vn ] es invertible.
Definici
on 1.11.3 Dado un valor propio , se define su espacio propio
como E = {v : Av = v}. La dimensi
on de dicho espacio se llamar
a
multiplicidad geom
etrica de .
Dada la transformacion lineal T : V V es facil demostrar que E es un
subespacio de V . Y otro resultado importante es que dado el valor propio
no solo v es su vector propio asociado, tambien lo es kv, k K.
Proposici
on 1.11.4 La multiplicidad algebraica es mayor o igual que la
multitplicidad geometrica, para cada valor propio .


UNIDAD 1. ALGEBRA
LINEAL

25

Ejemplo 1.11.5 Para los siguientes ejemplos encontrar:valores propios, vectores propios, espacios propios y las multiplicidades algebraica, geometrica y
construir la matriz P en cada caso


2 1
a)
4 2


3 5
b)
1 1


4 0
c)
0 4


4 1
d)
0 4

3 2 4
e) 2 0 2
4 2 3

5 5 9
9
18
f) 8
2 3 7

1 3 9
5
18
g) 0
0 2 7
Proposici
on 1.11.6 Sea A una matriz de orden n. Entonces A tiene n vectores propios linealmente independientes si y s
olo si la multiplicidad geometrica
de todo valor propio es igual a la multiplicidad algebraica.

1.12

Matrices equivalentes y diagonalizaci


on

Definici
on 1.12.1 Dos matrices de orden n, A y B, se llaman equivalentes si existe una matriz invertible, C, de orden n tal que
B = C 1 AC


UNIDAD 1. ALGEBRA
LINEAL

26

Obviamente se puede decir que toda matriz de orden n es equivalente a


s misma.
Proposici
on 1.12.2 Si A y B son matrices equivalentes de orden n entonces
A y B tienen la misma ecuaci
on caracterstica y por tanto los mismos valores
propios.
Definici
on 1.12.3 Una matriz A de orden n es diagonalizable si existe
una matriz diagonal D tal que A es equivalente a D.
Proposici
on 1.12.4 Una matriz de orden n es diagonalizable si y s
olo si
tiene n vectores linealmente independientes.
Como caso particular tenemos que si A es una matriz de orden n y P es la
matriz cuyas columnas son los vectores propios de A entonces
D = P 1 AP
Corolario 1.12.5 Si la matriz A de orden n tiene n valores propios distintos, entonces A es diagonalizable.


UNIDAD 1. ALGEBRA
LINEAL

1.13

27

Algunos resultados importantes

Proposici
on 1.13.1 Sea A una matriz de orden n, se tiene que
|AI| = ()n +()n1 tr1 (A)+()n2 tr2 (A)+()n3 tr3 (A)+...+|A|
siendo tri (A), i = 1, 2, . . . , n 1 la suma de todos los menores de orden i que
contienen en su diagonal principal i elementos de la diagonal principal de A.
Propiedades de los valores propios. Sean A Mnxn y B Mmxm
dos matrices cuyos valores propios son los escalares 1 , . . . n y 1 , . . . , m ,
respectivamente. Estos valores propios pueden ser reales o complejos, iguales
o distintos. Se verifica que:
a) Los valores propios de At coinciden con los de la matriz A
b) El n
umero de valores propios no nulos de una matriz A de rango r < n
es mayor o igual que n r
Q
c) |A| = ni=1 i
P
d) tr (A) = ni=1 i
e) Los valores propios de A para cualqier R(C), alpha 6= 0 son i ,
i = 1, 2, . . . , n
f ) Si m = n entonces lo valores propios de AB y BA son los mismos
g) Si A es no singular, entonces los valores propios de A1 son 1/i , i =
1, 2, . . . , n
h) Para cualquier n
umero natural k no nulo los valores propios de Ak son
k
i , i = 1, 2, . . . , n
i) Si A es una matriz de orden n con elementos pertenecientes a R tal que
sus valores propios i , i = 1, 2, . . . , n sean reales, entonces para todo
1/p
p, n
umero natural impar, los valores propios de A1/p son i , i =
1, 2, . . . , n. Si p es par esta propiedad se verifica siempre que i 0,
i = 1, 2, . . . , n
j) Si i 6= 1, i = 1, 2, . . . , n, entonces A + I es invertible, siendo 1 + i sus
1
valores propios y 1+
los de su inversa.
i

S-ar putea să vă placă și