Sunteți pe pagina 1din 28

Matematicas III para Economa

Raciel Vasquez Aguilar


Agosto - Diciembre
Unidad 1

Algebra lineal
1.1 Introduccion
Los espacios vectoriales se derivan de la geometra, a traves de la intro-
duccion de coordenadas en el plano o el espacio tridimensional. Alrededor
de 1636, los matematicos franceses Descartes y Fermat fundaron las bases
de la geometra analtica mediante la vinculacion de las soluciones de una
ecuacion con dos variables a la determinacion de un curva plana. Bernhard
Bolzano introdujo en 1804 ciertas operaciones sobre puntos, lneas y planos,
que son predecesores de los vectores. Este trabajo hizo uso del concepto de
coordenadas baricentricas de August Ferdinand Mobius en 1827.
El origen de la denicion de los vectores es la de Giusto Bellavitis, que
es un segmento orientado, uno de cuyos extremos es el origen y el otro un
objetivo. Los vectores se reconsideraron con la presentacion de los n meros
complejos de Argand y Hamilton y la creacion de los cuaterniones por este
ultimo (Hamilton fue adems el que invento el nombre de vector).
El tratamiento mediante combinaciones lineales se remonta a Laguerre
en 1867, quien tambien denio los sistemas de ecuaciones lineales. En 1857,
Cayley introdujo la notacion matricial, que permite una armonizacion y sim-
plicacion de los aplicaciones lineales. Casi al mismo tiempo, Grassmann
estudio el calculo baricntrico iniciado por Mobius. En su trabajo, los concep-
tos de independencia lineal y dimension, as como de producto escalar estan
1
UNIDAD 1.

ALGEBRA LINEAL 2
presentes. El matematico italiano Peano dio la primera denicion moderna
de espacios vectoriales y aplicaciones lineales en 1888.
Un desarrollo importante de los espacios vectoriales se debe a la con-
struccion de los espacios de funciones por Henri Lebesgue. Esto mas tarde
fue formalizado por Banacnh en su tesis doctoral de 1920 y por Hilbert. En
este momento, el algebra y el nuevo campo del analisis funcional empezaron
a interactuar, en particular con conceptos clave tales como los espacios de
funciones p-integrables y los espacios de Hilbert. Tambien en este tiempo,
los primeros estudios sobre espacios vectoriales de innitas dimensiones se
realizaron.
1.2 Grupos, Anillos y Campos (Cuerpos)
Denicion 1.2.1 Un conjunto no vaco de elementos, G, se dice que forma
un grupo si en G esta denida una operacion binaria, llamada producto y
denotada por () tal que:
1) a, b G implica que a b G (cerradura, estable o absorbente)
2) a, b, c G implica que a (b c) = (a b) c (asociatividad)
3) Existe un elemento e G tal que a e = e a = a para todo a G
(existencia del elemento identidad)
4) Para todo a G existe un elemento a
1
G tal que a a
1
= a
1
a = e
(existencia de inversos en G)
Denicion 1.2.2 Un grupo G se dice que es abeliano (o conmutativo) si
para cualesquiera a, b G se tiene que a b = b a.
Ejemplo 1.2.3 Supongamos que G esta constituido por el conjunto de los
enteros 0, 1, 2, . . . con a b = a +b. Se puede vericar que G es un grupo
abeliano innito.
Hay ciertos sistemas algebraicos que nos sirven como los bloques de con-
struccion de las estructuras que componen la materia que actualmente se
llama algebra moderna. Hemos aprendido algo de uno de ellos, los grupos.
UNIDAD 1.

ALGEBRA LINEAL 3
Ahora, introduciremos un segundo de tales bloques, el constituido por los
llamados anillos.
El concepto abstracto de grupo tiene su origen en el conjunto de apli-
caciones (funciones) o permutaciones de un conjunto sobre s mismo. En
contraste, los anillos surgen de otra fuente bastante mas familiar, el conjunto
de los enteros. Veremos que estan caracterizados de acuerdo con los aspec-
tos algebraicos de los enteros ordinarios de los que pueden considerarse una
generalizacion.
Un anillo es completamente diferente de un grupo, ya que es un sistema
bioperacional, en el que hay denidas dos operaciones; estas operaciones se
llaman com unmente adicion y multiplicacion.
Denicion 1.2.4 Un conjunto no vaco R se dice que es un anillo asocia-
tivo si en R estan denidas dos operaciones, denotadas por + y
respectivamente tales que para cualesquiera a, b, c R:
1) a +b R
2) a +b = b +a
3) (a +b) +c = a + (b +c)
4) Hay un elemento 0 R tal que a + 0 = a a R
5) Existe un elemento a R tal que a + (a) = 0
6) a b R
7) a (b c) = (a b) c
8) a (b +c) = a b +a c y (b +c) a = b a +c a
Los axiomas (1) a (5) simplemente arman que R es un grupo abeliano
bajo la operacion + a la que llamaremos adicion. Los axiomas (6) y (7) nos
dicen que R es cerrado bajo una operacion asociativa, , a la que llamaremos
multiplicacion. El axioma (8) sirve para correlacionar las dos operaciones de
R.
Puede o no suceder que exista un elemento 1 R tal que a 1 = 1 a = a
para toda a R; si tal elemento existe diremos que R es un anillo con
elemento unitario.
Si la multiplicacion de R es tal que a b = b a para todo a, b R entonces
llamamos a R anillo conmutativo.
UNIDAD 1.

ALGEBRA LINEAL 4
Ejemplo 1.2.5 R es el conjunto de los enteros, positivos, negativos y el 0;
+ es la adicion usual y es la mutiplicacion usual de los enteros. R es un
anillo conmutativo con elemento unitario.
Ejemplo 1.2.6 R es el conjunto de todos los enteros pares bajo operaciones
habituales de adicion y multiplicacion, R es un anillo conmutativo, pero no
tiene elemento unitario.
Ejemplo 1.2.7 R es el conjunto de los n umeros racionales bajo la adicion
y multiplicacion habituales de los n umeros racionales. R es un anillo con-
mutativo con elemento unitario, Pero es mas que eso, pues podemos ver que
los elementos de R distintos del 0 forman un grupo abeliano bajo la multipli-
cacion. Un anillo con esta ultima propiedad se llama campo.
Con lo anterior podemos decir que un campo es un conjunto no vaco F con
dos operaciones denidas + y tales que
1) a +b = b +a, a, b F
2) (a +b) +c = a + (b +c), a, b, c F
3) Exite un elemento 0 R tal que a + 0 = a, a F
4) Existe un elemento a F tal que a + (a) = 0
5) a b = b a, a, b F
6) a (b c) = (a b) c, a, b, c F
7) Existe un elemnto no nulo unico de F tal que a 1 = a, a F
8) A cada elemento no nulo a F le corresponde un unicoelemento a
1
tal
que aa
1
= 1
9) a (b +c) = a b +a c y (b +c) a = b a +c a
Ejemplo 1.2.8 Los conjuntos Q, R y C con las operaciones usuales de
adicion y multiplicacion forman un campo.
UNIDAD 1.

ALGEBRA LINEAL 5
1.3 Espacios vectoriales
Denicion 1.3.1 Un espacio vectorial X sobre R es un conjunto de objetos
a los que llamaremos vectores, junto con dos operaciones binarias + : X
X X denida como (x, y) x + y, e : R X X denida
por (, x) x, tales que satisfacen las siguientes propiedades para todo
x, y, z X y , R:
i) x +y = y +x.
ii) x + (y +z) = (x +y) +z.
iii) Existe un vector unico 0 en X tal que x + 0 = x.
iv) Para cada vector x X existe un vector unico x X tal que x+(x) =
0.
v) (x) = ()x.
vi) 1x = x.
vii) ( +)x = x +x.
viii) (x +y) = x +y.
Los elementos de R se denominan escalares, a la operacion + la llamare-
mos adicion vectorial y a la operacion la llamaremos multiplicacion de un
escalar por un vector.
Ejemplo 1.3.2 a) Sea X = R
n
, el conjunto de todos los n-tuples de n umeros
reales x = (x
1
, x
2
, ..., x
n
), donde n es un entero positivo arbitrario jo.
Dados x, y R
n
y R, denamos la adicion vectorial y la multipli-
cacion de un escalar por un vector como
x +y := (x
1
+y
1
, x
2
+y
2
, ..., x
n
+y
n
),
x := (x
1
, x
2
, ..., x
n
) .
Se puede ver que R
n
con las operaciones antes denidas satisfacen las
propiedades de espacio vectorial.
UNIDAD 1.

ALGEBRA LINEAL 6
b) Sea A el conjunto de todas las funciones f : E R, donde E es un
conjunto no vaco. Denimos la adicion vectorial y la multiplicacion
de un escalar por un vector de la siguiente manera:
Sean f, g A, entonces (f +g)(x) := f(x) +g(x).
Ahora sean R y f X, entonces (f)(x) := f(x).
Se puede mostrar que X satisface las propiedades de espacio vectorial.
c) Sea F cualquier cuerpo y sean m y n enteros positivos. Sea F
mxn
el con-
junto de todas las matrices mxn sobre el cuerpo F. La suma de dos
vectores y el producto estan denidos como
(A +B)
ij
= A
ij
+B
ij
(cA)
ij
= cA
ij
Se puede mostrar que (F
mxn
, F, +, ) es un espacio vectorial.
d) El conjunto solucion del sistema de ecuaciones AX = 0 con las opera-
ciones usuales de adicon vectorial (suma de matrices columnas) y mul-
tiplicacion (un escalar por una matriz columna) es un espacio vectorial
sobre R.
1.4 Subespacios vectoriales
Denicion 1.4.1 Sea X un espacio vectorial sobre R. Un subespacio de X
es un subconjunto W de X tal que, con las operaciones de adicion vectorial y
multiplicacion escalar sobre X, es W un espacio vectorial sobre R (usaremos
W < X para decir que W es subespacio de X ) .
Denicion 1.4.2 (Alternativa) Un subconjunto no vaco W de V es un
subespacio vectorial de V si y solo si, para todo par de vectores , de
W y todo escalar c de K (K un campo), el vctor c + esta en W.
Nota. Dado un espacio vectorial V , para que W sea un subespacio vectorial
es suciente que cumpla las condiciones:
i) W V
UNIDAD 1.

ALGEBRA LINEAL 7
ii) 0 W
iii) c + W, donde , W y c F
Ejemplo 1.4.3 a) Los subespacios triviales de un espacio vectorial X son
el mismo y el conjunto que consta solamente del vector cero.
b) El conjunto C([a, b]) = f A[ f es continua en [a, b] es un subespacio
del espacio vectorial del Ejemplo 1.3.2 b) con E = [a, b], y por tanto,
el mismo es un espacio vectorial.
c) Consideremos el espacio vectorial R
n
, as
E
i
= (x
1
, x
2
, ..., x
i1
, 0, x
i+1
, ..., x
n
)[x
j
R, 1 j n, x
i
= 0
es un subespacio vectorial de R
n
(para cada E
i
, 1 i n).
Teorema 1.4.4 . Sea V un espacio vectorial sobre un campo F. La in-
terseccion de cualquier coleccion de subespacios de V es un subespacio de
V .
Denicion 1.4.5 Sea X un espacio vectorial sobre R y sea M un subcon-
junto no vaco de X. Un vector x X se dice que es una combinacion
lineal de vectores en M si existe un conjunto nito x
1
, ..., x
n
M y escalares

1
,
2
, ...,
n
tales que x =
1
x
1
+
2
x
2
+ +
n
x
n
.
El conjunto de todos los vectores en X que son combinaciones lineales de
vectores en M es un subespacio de X, lo llamaremos el subespacio generado
por M y lo denotaremos por gen(M).
Denicion 1.4.6 Un conjunto nito M de vectores x
1
, x
2
, ..., x
n
en un es-
pacio vectorial X se dice que es linealmente dependiente si existen escalares

1
,
2
, ...,
n
, no todos nulos, tales que
1
x
1
+
2
x
2
+ +
n
x
n
= 0.
Si el conjunto M no es linealmente dependiente, entonces se dice que es
linealmente independiente, en este caso, la igualdad

1
x
1
+
2
x
2
+ +
n
x
n
= 0
implica que
1
=
2
= =
n
= 0.
Un conjunto innito M de vectores es linealmente independiente si todo
subconjunto nito de M es linealmente independiente, en otro caso M es
linealmente dependiente.
UNIDAD 1.

ALGEBRA LINEAL 8
Ejemplo 1.4.7
a) Sea S un subconjunto de un espacio vectorial V , si 0 S entonces S es
linealmente dependiente.
b) El conjunto de polinomios P(x) = 1, x, x
2
con coecientes reales son un
conjunto linealmente independiente.
c) El conjunto S =
__
1 2
0 3
_
,
_
1 2
1 0
_
,
_
5 10
3 6
__
es linealmente de-
pendiente.
d) (Tarea) El conjunto 1, x, x
2
, . . . , x
n
es linealmente independiente.
e) El conjunto e
1
= (1, 0, 0), e
2
= (0, 1, 0, ), e
3
= (0, 0, 1) es un conjunto
linealmente independiente.
f ) El conjunto 1 + x + x
2
, 1 x + 3x
2
, 1 + 3x x
2
P
2
es linealmente
dependiente.
Denicion 1.4.8 Sea X un espacio vectorial sobre K, un subconjunto H
de X se dice que es una base de Hamel para X si cumple las siguientes
condiciones:
i) H es un subconjunto linealmente independiente de X,
ii) El subespacio generado por H es todo X, esto es, gen(H) = X.
Si la base de Hamel tiene un n umero nito de elementos, entonces el
espacio es de dimension nita. Inmediatamente concluimos que un espacio
vectorial X es de dimension innita si para cada n N, existe un conjunto
de n vectores linealmente independiente.
Ejemplo 1.4.9
a) Sea F un campo, y S F
n
el subconjunto que consta de los vectores
e
1
, e
2
, . . . , e
n
denidos por
e
1
= (1, 0, . . . , 0)
e
2
= (0, 1, . . . , 0)
. . . . . . . . . . . .
e
1
= (0, 0, . . . , 1)
S forman la base canonica de R
n
.
UNIDAD 1.

ALGEBRA LINEAL 9
b) El conjunto
S =
_
_
_
_
_
1 0
0 0
0 0
_
_
,
_
_
0 0
1 0
0 0
_
_
,
_
_
0 0
0 0
1 0
_
_
,
_
_
0 1
0 0
0 0
_
_
,
_
_
0 0
0 1
0 0
_
_
,
_
_
0 0
0 0
0 1
_
_
_
_
_
es la base canonica del espacio de matrices F
3x2
c) Sea S = 1, x, x
2
, . . . , x
n
. Se puede mostrar que S es una base para P
n
.
d) Sea A una matriz invertible de orden n, A = [a
1
. . . a
n
]. Las columnas de
A forman una base de R
n
.
Ejercicio. Determinar una base para los siguientes espacios vectoriales sobre
R que se denen de manera general como:
a) W =
_

_
a
b
b
a
_

_
b) S = a +bx bx
2
+ax
3

c) Considere el sistema lineal AX = b. Si la matriz A es de dimensiones


mxn contesta lo siguiente
i) X a que espacio pertenece
ii) b a que espacio pertenece
iii) Cual es la relacion de b con las columnas de A si el sistema AX = b
tiene solucion?
Teorema 1.4.10 Si B = v
1
, v
2
, . . . , v
n
es una base de V y si v V ,
entonces existe un unico conjunto de escalares c
1
, c
2
, . . . , c
n
tales que v =

n
i=1
c
i
v
i
.
Teorema 1.4.11 Sea V un espacio vectorial generado por un conjunto nito
de vectores linealmente independientes
1
,
2
, . . . ,
m
. Entonces todo con-
junto independiente de vectores de V es nito y no contiene mas de m ele-
mentos.
UNIDAD 1.

ALGEBRA LINEAL 10
Corolario 1.4.12 Si V es un espacio vectorial de dimension nita, entonces
dos bases cualesquiera de V tienen el mismo n umero(nito) de elementos.
Corolario 1.4.13 Sea V es un espacio vectorial de dimension nita y sea
n = dimV , entonces
a) cualquier subconjunto de V que contenga mas de n vectores es linealmente
dependiente.
b) ning un subconjunto de V que contenga menos de n vectores puede generar
a V .
Lema 1.4.14 Sea S un subconjunto linealmente independiente de un espacio
vectorial V . Supongase que es un vector de V que no pertenece al subespacio
generado por S. Entonces el conjunto que se obtiene agregando a S, es
linealmente independiente.
Teorema 1.4.15 Si W es un subespacio de un espacio vectorial de dimension
nita V, entonces todo subconjunto linealmente independiente de W es nito
y es parte de una base (nita) de W.
Corolario 1.4.16 Si W es un subespacio propio de un espacio vectorial de
dimension nita V , entonces W es de dimension nita y dimW < dimV .
1.5 Coordenadas y cambio de base
Denicion 1.5.1 Sea B = b
1
, b
2
, . . . , b
n
una base para un espacio vectorial
V y x V . Las coordenadas de x relativa a la base B(o las B-coordenadas
de x) son los pesos c
1
, c
2
, . . . , c
n
tales que
x = c
1
b
1
+c
2
b
2
+ +c
n
b
n
=
n

i=1
c
i
b
i
Si c
1
, c
2
, . . . , c
n
son las B-coordenadas de x, entonces el vector en R
n
[x]
B
=
_

_
c
1
.
.
.
c
n
_

_
UNIDAD 1.

ALGEBRA LINEAL 11
es el vector de coordenadas de x relativas a B.
En muchas aplicaciones, un problema descrito usando un sistema coordenado
puede ser resuelto mas facilmente si se cambia a un nuevo sistema coorde-
nado, transformacion que se logra por medio de un cambio de variables. En

Algebra lineal, una base nos proporciona un sistema coordenado para un es-
pacio vectorial, mediante la nocion de vectores coordenados y un cambio de
variables se puede asociar con un cambio de base para la representacion de
un mismo vector. Por ejemplo
Sean
B
1
=
_
u
1
=
_
1
2
_
, u
2
=
_
2
1
__
y
B
2
=
_
v
1
=
_
1
0
_
, v
2
=
_
1
1
__
dos bases para R
2
. Si x R
2
entonces x tiene una representacion diferente
para cada base, es decir,
[x]
B
1
= c
1
u
1
+c
2
u
2
[x]
B
2
= d
1
v
1
+d
2
v
2
por lo tanto si x esta dada, por ejemplo x =
_
5
1
_
, entonces,
_
5
1
_
B
1
= c
1
_
1
2
_
+c
2
_
2
1
_
_
5
1
_
B
2
= d
1
_
1
0
_
+d
2
_
1
1
_
resolviendo cada sistema para c
1
, c
2
y d
1
, d
2
se tiene
_
5
1
_
B
1
=
_
1
3
_
_
5
1
_
B
2
=
_
6
1
_
UNIDAD 1.

ALGEBRA LINEAL 12
Lo anterior indica que la representacion de x en una base cualquiera B es
precisamente la matriz columna cuyas entradas son las coordenadas de x en
la base dada.
El ejemplo anterior muestra como un vector x puede tener diferentes repre-
sentaciones dependiendo de las bases que se tengan.
Ahora mostraremos como determinar [x]
B
2
a partir de [x]
B
1
. Notaremos que
la idea es exactamente la misma que se aplico para obtener la representacion
de x en las dos bases dadas.
Ya se determino que
_
5
1
_
B
1
=
_
1
3
_
ya que x = u
1
+ 3u
2
. Ahora, expre-
sando a u
1
y u
2
en terminos de v
1
y v
2
tenemos
u
1
=
_
1
2
_
= p
1
v
1
+p
2
v
2
= p
1
_
1
0
_
+p
2
_
1
1
_
= 3v
1
+ 2v
2
u
2
=
_
2
1
_
= q
1
v
1
+q
2
v
2
= q
1
_
1
0
_
+q
2
_
1
1
_
= 3v
1
v
2
utilizando lo anterior tenemos
x = u
1
+ 3u
2
= (3v
1
+ 2v
2
) + 3(3v
1
v
2
) = 6v
1
v
2
por tanto [x]
B
2
=
_
6
1
_
.
a esto le llamaremos el cambio de base de B
1
a B
2
para el vector x.
Analicemos el desarrollo anterior desde otro punto de vista. De x = u
1
+3u
2
tenemos que
[x]
B
2
= [u
1
+ 3u
2
]
B
2
= [u
1
]
B
2
+ 3[u
2
]
B
2
= [ [u
1
]
B
2
[u
2
]
B
2
]
_
1
3
_
=
_
3 3
2 1
_ _
1
3
_
= P[x]
B
1
donde P es la matriz cuyas columnas son [u
1
]
B
2
y [u
2
]
B
2
. A dicha matriz se
le llamara matriz de transicion o matriz cambio de base de B
1
a B
2
.
UNIDAD 1.

ALGEBRA LINEAL 13
Denicion 1.5.2 Sean B
1
= u
1
, u
2
, . . . , u
n
y B
2
= v
1
, v
2
, . . . , v
n
dos
bases para un espacio vectorial V . La matriz de orden n cuyas columnas son
los vectores coordenados [u
1
]
B
2
, . . . , [u
n
]
B
2
de los vectores en B
1
con respecto
a B
2
se denota mediante P
B
2
B
1
y es llamada matriz de transicion o cambio
de base de B
1
a B
2
.
Ejemplo 1.5.3 Consideremos las siguientes dos bases de R
2
, B
1
= e
1
=
(1, 0), e
2
= (0, 1) y B
2
= f
1
= (1, 1), f
2
= (1, 0). Entonces,
f
1
= (1, 1) = 1e
1
+ 1e
2
por lo tanto las coordenadas de f
1
respecto a la base B
1
es
_
1
1
_
.
Analogamente se pueden encontrar las coordenadas de f
2
en la base B
1
,
f
2
= (1, 0) = 1e
1
+ 0e
2
= 1e
1
por tanto la matriz de transicion P de la base B
1
a B
2
es
P
B
2
B
1
=
_
1 1
1 0
_
De la misma manera se puede ver que la matriz de transicion de B
1
a B
2
es
Q
B
1
B
2
=
_
0 1
1 1
_
mas a un, Q es la inversa de P y viceversa.
1.6 Bases ortonormales
Ahora introduciremos las nociones de espacios con producto interno lo cual
llevara de manera natural a hablar de bases ortogonales y ortonormales.
Denicion 1.6.1 Sea V un espacio vectorial real. Supongamos que a cada
par de vectores u, v V se le asigna un n umero real denotado por u, v).
Esta funcion se llama producto interno (producto punto o interior) en V si
satisface las siguientes caractersticas:
i) au
1
+bu
2
, v) = a u
1
, v) +b u
2
, v)
UNIDAD 1.

ALGEBRA LINEAL 14
ii) u, v) = v, u)
iii) u, u) 0; u, u) = 0 u = 0
El espacio vectorial V se denomina entonces espacio con producto interno.
El inciso iii) indica que u, u) 0, por lo tanto existe su raz cuadrada
positiva, la cual se denotara como |u| =
_
u, u).
El n umero real no negativo |u| se denomina norma o longitud de u. En
esto casos se acostumbra a decir que la norma en un espacio vectorial esta
inducida por el producto interior.
Denicion 1.6.2 Sea X un espacio vectorial sobre R. Una funcion | | que
toma valores no negativos sobre X se dice que es una norma en X si:
i) |x| = 0 si y solo si x = 0,
ii) |x| = [[|x|, para todo x X, para todo R,
iii) |x +y| |x| +|y|, para todo x, y X.
Ejemplo 1.6.3 a) Considerando a R
n
como espacio vectorial se dene el
producto interior como
u v = a
1
b
1
+ +a
n
b
n
donde u = (a
i
) y v = (b
i
). Esta funcion dene de manera natural la
norma de un vector v R
n
como
|u| =

u u =
_
a
2
1
+a
2
2
+ +a
2
n
b) Sea V el espacio vectorial de las funciones reales continuas en el intervalo
a t b. El siguiente es un producto interno en V
f, g) =
_
b
a
f(t)g(t)dt
Si u V cumple con |u| = 1, entonces a u se le denominara vector unitario.
Cualquier vector diferente del vector cero se puede volver unitario. Si u ,= 0
entonces
v =
u
|u|
es un vector unitario. A esto se llama normalizar un vector.
UNIDAD 1.

ALGEBRA LINEAL 15
Denicion 1.6.4 Sea V un espacio vectorial con producto interno. Se dice
que u, v V son ortogonales si u, v) = 0
Denicion 1.6.5 Un conjunto de vectores S V , con V espacio vectorial,
se dice ortogonal si cada par de vectores en S son ortogonales. S se dice
ortonormal si es ortogonal y ademas, cada vector tiene norma 1.
La expresion normalizar un conjunto ortogonal S de vectores se reere al
proceso de multiplicar cada vector de S por el inverso de su longitud con el
n de transformar S en un conjunto ortonormal.
Una base de un espacio vectorial se llama ortogonal u ortonormal si lo es
como conjunto de vectores.
Teorema 1.6.6 Sea H un subespacio de R
n
. Entonces H tiene una base
ortonormal.
Demostracion. Supongamos que v
1
, v
2
, . . . , v
n
es una base de un espacio
con producto interno H. Se puede construir una base ortogonal w
1
, w
2
, . . . , w
n

como sigue:
w
1
= v
1
w
2
= v
2

1
w
1
w
3
= v
3

1
w
1

2
w
2
.......................................
w
n
= v
n

1
w
1

2
w
2
. . .
n1
w
n1
donde los
i
=
<v
n
,w
i
>
w
i

2
. Al termino
<v
n
,w
i
>
w
i

2
w
i
se le llama la proyeccion de v
n
a lo largo de w
i
.
Los w
i
as construidos son ortogonales y se divide entre su norma tendremos
una base ortonormal.
El proceso anterior de ortogonalizacion se conoce como proceso de Gram-
Schmidt.
Ejemplo 1.6.7 Consideremos el subespacio V de R
4
generado por v
1
=
(1, 1, 1, 1), v
2
= (1, 2, 4, 5), v
3
= (1, 3, 4, 2). Hallar una base ortonor-
mal para V .
UNIDAD 1.

ALGEBRA LINEAL 16
1.7 Transformaciones lineales
Denicion 1.7.1 Sean V y W dos espacios vectoriales sobre un campo K.
Una transformacion lineal (u homomorsmo) de V en W es una funcion T
de V en W tal que
T(b +c) = bT() +cT()
para todos los vectores y de V y todos los escalares c de K.
Se pueden utilizar las palabras funcion, aplicacion, operador en lugar de
transformacion. Hay que notar que esta es una denicion de funcion lineal
generalizada pues el dominio es un espacio vectorial y el rango es otro
espacio vectorial. Esto es, las funciones que han visto de R a R o de R
n
a
R lineales son casos partculares. Cuando la transformacion lineal va de un
espacio vectorial V en si mismo tendremos un operador lineal. Si la trans-
formacion va de un espacio vectorial al campo de soporte de dicho espacio
vectorial, tendremos un funcional lineal.
Ejemplo 1.7.2 i) Los siguientes son ejemplos de transformaciones lineales
de R
2
R
2
:
a) Homotecia: f(u) = ku, k R
b) Proyeccion: f(x, y) = (x, 0)
c) Simetra: f(x, y) = (x, y)
ii) Si A /
mxn
sobre R, la transformacion f : R
n
R
m
denida por
f(u) = Au es una transformacion lineal (asociada a la matriz A).
c) Sea A el conjunto de todas las funciones f : R
n
R
m
. Se dene la
transformacion lineal
D(f) =
_

_
f
1
x
1
f
1
x
2
. . .
f
1
x
n
f
2
x
1
f
2
x
2
. . .
f
2
x
n
.
.
.
.
.
.
.
.
.
.
.
.
f
m
x
1
f
m
x
2
. . .
f
m
x
n
_

_
UNIDAD 1.

ALGEBRA LINEAL 17
d) Sea R el campo del espacio vectorial V que consta de todas las funciones
continuas en [a, b]. Se dene T por
T (f(x)) =
_
b
a
f(x)dx
es un funcional lineal.
Proposicion 1.7.3 Si T : V W es una transformacion lineal entonces:
T(0) = 0
T(u) = T(u)
S < V = T(S) < W
El conjunto u : T(u) = 0 < V
Denicion 1.7.4 Sean V y W dos espacios vectoriales sobre R y sea T una
transformacion lineal de V en W. Se llama imagen al subespacio vectorial
Im T = (T(V )) y n ucleo de T, denotado por ker T = T
1
(0), al conjunto
de todos los vectores tales que T = 0.
Una transformacion lineal (homomorsmo) se llama monomorsmo si es
inyectiva, epimorsmo si es sobreyectiva, e isomorsmo si es biyectiva.
Cuando los espacios inicial y nal coinciden, la transformacion lineal y el
isomorsmo se suelen llamar endomorsmo y automorsmo, respectiva-
mente.
Denicion 1.7.5 Sea T : V W una transformacion lineal.
T es inyectiva si T(x) = T(y) = x = y
T es sobreyectiva si la imagen de T coincide con W.
Proposicion 1.7.6 Sea T : V W una transformacion lineal. Entonces
T es monomorsmo si y solo si KerT = 0.
Proposicion 1.7.7 Sea T : V W una transformacion lineal. Si B =
v
1
, v
2
, . . . , v
n
es una base para V entonces
ImT = genf(v
1
), f(v
2
), . . . , f(v
n
)
y en consecuencia dim Im T dim V .
UNIDAD 1.

ALGEBRA LINEAL 18
Proposicion 1.7.8 Si B = v
1
, v
2
, . . . , v
n
es una base para V y w
1
, w
2
, . . . , w
n

son n vectores cualesquiera de W entonces existe una unica transformacion


lineal T : V W tal que T(v
i
) = w
i
, 1 i n.
Observaciones. Si T : R
n
R
m
denida por T(u) = Au, A /
mxn
entonces:
Ker T son las soluciones del sistema homogeneo Au = 0
Si B = e
1
, e
2
, . . . , e
n
es la base canonica de R
n
, entonces
ImT = gen(T(e
1
), T(e
2
), . . . , T(e
n
)) = gen(c
1
, c
2
, . . . c
n
)
donde c
i
es la columna i-esima de la matriz A.
Ejemplo 1.7.9 Si T : R
3
R
3
es la transformacion lineal asociada a la
matriz A =
_
_
1 0 1
0 1 0
1 1 1
_
_
entonces,
ImT = gen((1, 0, 1), (0, 1, 1), (1, 0, 1)) = gen((1, 0, 1), (0, 1, 1))
kerT = u[Au = 0 = gen((1, 0, 1))
ya que
_
_
1 0 1
0 1 0
1 1 1
_
_

_
_
1 0 1
0 1 0
0 0 0
_
_
=
_
_
_
x =
y = 0
z =
R
1.8 Matriz de una transformacion lineal
Como hemos visto una transformacion lineal T : V W queda unvocamente
determinada por las imagenes de los elementos de una base B
V
= v
1
, v
2
, . . . , v
n

de V . Si B
W
= w
1
, w
2
, . . . , w
m
es una base de W y
T(v
j
) =
m

i=1
a
ij
w
i
, 1 j n
UNIDAD 1.

ALGEBRA LINEAL 19
entonces la imagen de cualquier u = (x
1
, x
2
, . . . , x
n
)
B
V
V , expresada en la
base B
W
de W es
T(u) = T
_
n

j=1
x
j
v
j
_
=
n

j=1
x
j
T(v
j
) =
n

j=1
x
j
m

i=1
a
ij
w
i
=
m

i=1
_
n

j=1
a
ij
x
j
_
w
i
=
_
_
_
_
_

n
j=1
a
ij
x
j

n
j=1
a
2j
x
j
.
.
.

n
j=1
a
mj
x
j
_
_
_
_
_
=
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
= Au
donde las columnas de la matriz A /
mxn
, llamada matriz de la trans-
formacion respecto a las bases B
V
y B
W
, son las coordenadas en la base B
W
de las imagenes de los vectores de la base B
V
. Fijadas las bases B
V
y B
W
, a
cada transformacion lineal le corresponde una matriz y viceversa.
Ejemplo 1.8.1 La expresion matricial de la transformacion lineal T : R
4

R
3
denida, respecto de las bases canonicas, por
T(x
1
, x
2
, x
3
, x
4
) = (x
1
+x
4
, x
1
+x
2
+x
3
, x
1
+x
2
+x
3
)
es
T(e
1
) = (1, 1, 1) = 1e
1
+ 1e
2
+ 1e
3
T(e
2
) = (0, 1, 1) = 0e
1
+ 1e
2
+ 1e
3
T(e
3
) = (0, 1, 1) = 0e
1
+ 1e
2
+ 1e
3
T(e
4
) = (1, 0, ) = 1e
1
+ 0e
2
+ 0e
3
= T(u) = Au =
_
_
1 0 0 1
1 1 1 0
1 1 1 0
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
Para hallar el n ucleo, se resuelve el sistema
T(u) = Au = 0 =
_

_
x
1
+x
4
= 0
x
1
+x
2
+x
3
= 0
=
_

_
x
1
=
x
2
=
x
3
= ( +)
x
4
=
de donde ker T = gen(1, 0, 1, 1), (0, 1, 1, 0). La imagen es
ImT = (1, 1, 1), (0, 1, 1), (0, 1, 1), (1, 0, 0) = gen(1, 0, 0), (0, 1, 1)
UNIDAD 1.

ALGEBRA LINEAL 20
1.9 Dimensi on de la imagen y el n ucleo de
una transformacion lineal. Teorema Fun-
damental del

Algebra Lineal
Como hemos visto, el conjunto de todos los vectores V tales que T() = 0
es el n ucleo de la funcion al que tambien se le llama espacio nulo de T.
Si T : V W es una transformacion lineal y V es de dimension nita,
el rango de T es la dimension de la imagen de T y la nulidad de T es la
dimension del espacio nulo de T.
Teorema 1.9.1 Sean V y W espacios vectoriales sobre el campo K y sea T
una transformacion lineal de V en W. Sopongamos que V es de dimension
nita, entonces
rango(T) +nulidad(T) = dim(V )
Demostracion Sean dimV = n, dim (ker(T)) = r n y B
1
= v
1
, v
2
, . . . , v
r

una base de ker T y B = v


1
, v
2
, . . . , v
r
, v
r+1
, . . . , v
n
una base de V .
Entonces B
2
= T(v
r+1
), . . . , T(v
n
) es una base de Im T, ya que
B
2
es un sistema de generadores:
w ImT = w = T(v) con v =
n

i=1

i
v
i
V
= w = T(v) = T
_
n

i=1

i
v
i
_
=
n

i=1

i
T(v
i
) =
n

i=r+1

i
T(v
i
)
B
2
es linealmente independiente:
n

i=r+1

i
T(v
i
) = T
_
n

i=r+1

i
v
i
_
= 0 =
n

i=r+1

i
v
i
KerT
=
n

i=r+1

i
v
i
=
r

i=1
(
i
)v
i
=
n

i=1

i
v
i
= 0 =
i
= 0, 1 i n =
i
= 0 r + 1 i n
Por lo tanto dim(ker T) + dim(Im T)= dim V . Que es equivalente a
decir nuliad (T) + rango (T) = dim V .
UNIDAD 1.

ALGEBRA LINEAL 21
1.10 Rango y nulidad de una matriz
Como hemos visto, a cada transformacion lineal le corresponde una matriz,
por tanto como ya hablamos del rango y nulidad de una transformacion lineal
es natural preguntarse cuales seran el rango y la nuliad en una matriz.
Denicion 1.10.1 Sean T : V W una transformacion lineal y A la
matriz asociada a la transformacion, como T(v) = Av entonces
kerT = v : T(v) = 0 = v : Av = 0 = kerA
ker A se llamara n ucleo de A y puede denotarse como N
A
. La dimension
de este espacio se llamara nulidad de A. Si ker T= ker A contiene solo al
vector 0 entonces diresmo que la nulidad es cero.
Ejemplo 1.10.2 Dado el sistema de ecuaciones lineales
x
1
3x
2
2x
3
= 0
5x
1
+ 9x
2
+x
3
= 0
cuya forma matricial es AX = 0. Determine
el n ucleo de A
nulidad de A
verique si v =
_
_
5
3
2
_
_
pertenece al n ucleo de A
la transformacion lineal que genera la matriz A
Denicion 1.10.3 Sean T : V W una transformacion lineal y A la
matriz asociada a la transformacion, como T(v) = Av entonces
ImT = w : T(v) = w = w : Av = w = ImA
Im A se llamara imagen de A y puede denotarse como R
A
. La dimension de
este espacio se llamara rango de A.
UNIDAD 1.

ALGEBRA LINEAL 22
Ejemplo 1.10.4 Sea W =
_
_
_
_
_
6a b
a +b
7a
_
_
, a, b R
_
_
_
. Hallar una matriz A
tal que W gen (columnas) de A. Determinar:
R
A
N
A
La transformacion lineal de la cual proviene A.
V y W, si T : V W.
Denicion 1.10.5 Si A es una matriz de mxn, denotemos por r
1
, r
2
, . . . , r
m

las las de A y por c


1
, c
2
, . . . , c
n
las columnas de A. Entonces denimos
S
A
= espacio la deA = genr
1
, r
2
, . . . , r
m

C
A
= espacio columna deA = genc
1
, c
2
, . . . , c
n

Proposicion 1.10.6 Si A es una matriz mxn entonces dim S


A
=dim C
A
=
dim R
A
.
1.11 Valores propios y vectores propios
Notas historicas
La primera aplicacion de los valores propios se debe al matematico Leonhard
Euler (suizo, 1707-1783) cuando en 1743 introdujo por primera vez el metodo
estandar de resolucion de una ecuacion diferencial de n-esimo orden con co-
ecientes constantes. Euler llego a ser el principal de los matematicos de la
Academia en San Petesburgo a la edad de 26 aos. Euler escribio mas de 500
libros sobre calculo, ecuaciones diferenciales, geometra analtica y diferen-
cial, teora de n umeros y calculo de variaciones. De paso debe anotarse que
para Euler, una funcion era un conjunto de representaciones formales trans-
formables una en otra mediante ingeniosos articios que utilizaban desde el
algebra elemental hasta el calculo.
Sus diferenciales son en primero y ultimo lugar ceros absolutos, cuyas ra-
zones por alg un espiritualismo incomprensible se materializan en n umeros
nitos, determinados. Entonces en 1743, Euler introduce el metodo estandar
para la solucion de una ecuacion diferencial de n-esimo orden con coecientes
constantes
UNIDAD 1.

ALGEBRA LINEAL 23
Y
n
+a
n1
Y
(n1)
+ +a
1
Y

+a
0
Y = 0
Para lo cual utilizo el concepto de ecuacion caracterstica. Dos decadas mas
tarde, Lagrange dio una version mas explcita de esta misma idea, al hallar
la solucion de un sistema de ecuaciones diferenciales hallando las races de lo
equivalente a la ecuacion caracterstica de la matriz de coecientes.
La estadstica moderna exige muchos conocimientos y mucha pericia a los
matematicos puros para que se dediquen a ella. Entre los metodos que se han
encontrado aplicaciones en estadstica, se encuentran los de trigonometra
esferica en un espacio de n dimensiones, la topologa y los espacios abstrac-
tos. Un ejemplo de la moderna teora es la generada por Andrei Andreevitch
Markov (ruso, 1856-1922) quien genera el concepto de probabilidades enca-
denadas. Esto se reere a cadenas de probabilidades sucesivas en las que
el valor de la probabilidad de una variable en un lugar dado de la cadena
depende de los valores obtenidos para las variables anteriores. El nombre de
cadenas de Markov se debe al matematico A. Markov quien las denio por
primera vez en un artculo en 1906.
En esta seccion trataremos el problema de la diagonalizacion, esto es, dada
una transformacion lineal T : V V , donde V es un espacio vectorial de
dimension nita. Buscaremos una base ordenada para el espacio vectorial V
de tal manera que la matriz asociada a T relativa a esa base sea una matriz
diagonal, y como es de suponer, veremos que la manera de encontrar dicha
base.
Denicion 1.11.1 Sea V un espacio vectorial de dimension nita y sea T :
V V una transformacion lineal. Si T(v) = v, para v ,= 0, v V y
alg un escalar entonces se llamara un valor propio para T y v se llamara
el vector propio asociado al valor propio .
Toda transformacion lineal tiene asociada una matriz, A, relativa a una base,
entonces en la denicion anterior podemos utilizar de manera equivalente
T(v) = Av = v.
Como v ,= 0 entonces
Av = v
Av Iv = 0
(A I) v = 0
UNIDAD 1.

ALGEBRA LINEAL 24
tiene una innidad de soluciones lo cual implica que la matriz A I no es
invertible, por lo tanto
[A I[ = 0
a la ecuacion anterior la llamaremos ecuacion caracterstica. Es claro, que
[A I[ = 0 es una ecuacion con variable , por lo tanto tenemos
p() = [A I[ = b
0
+b
1
+b
2

2
+. . . +b
n

n
al polinomio anterio le llamaremos polinomio caracterstico. Las races
del polinomio anterior pueden presentar tres casos:
no tener races reales, es decir, que el polinomio no tenga soluciones en
el campo K
que tenga n races diferentes,
1
,
2
, . . . ,
n
que tenga races repetidas, es decir,
r
1
1
,
r
2
2
, . . . ,
r
s
n
Los r
i
se llamaran multiplicidades algebraicas de los
i
.
Proposicion 1.11.2 Sea A una matriz de orden n, si
1
,
2
, . . . ,
n
son n
valores propios de A entonces sus respectivos vectores propios v
1
, v
2
, . . . , v
n
son linealmente independientes.
Si los vectores propios v
1
, v
2
, . . . , v
n
son linealmente independientes, entonces
la matriz P = [v
1
v
2
. . . v
n
] es invertible.
Denicion 1.11.3 Dado un valor propio , se dene su espacio propio
como E

= v : Av = v. La dimension de dicho espacio se llamara


multiplicidad geometrica de .
Dada la transformacion lineal T : V V es facil demostrar que E

es un
subespacio de V . Y otro resultado importante es que dado el valor propio
no solo v es su vector propio asociado, tambien lo es kv, k K.
Proposicion 1.11.4 La multiplicidad algebraica es mayor o igual que la
multitplicidad geometrica, para cada valor propio .
UNIDAD 1.

ALGEBRA LINEAL 25
Ejemplo 1.11.5 Para los siguientes ejemplos encontrar:valores propios, vec-
tores propios, espacios propios y las multiplicidades algebraica, geometrica y
construir la matriz P en cada caso
a)
_
2 1
4 2
_
b)
_
3 5
1 1
_
c)
_
4 0
0 4
_
d)
_
4 1
0 4
_
e)
_
_
3 2 4
2 0 2
4 2 3
_
_
f )
_
_
5 5 9
8 9 18
2 3 7
_
_
g)
_
_
1 3 9
0 5 18
0 2 7
_
_
Proposicion 1.11.6 Sea A una matriz de orden n. Entonces A tiene n vec-
tores propios linealmente independientes si y solo si la multiplicidad geometrica
de todo valor propio es igual a la multiplicidad algebraica.
1.12 Matrices equivalentes y diagonalizacion
Denicion 1.12.1 Dos matrices de orden n, A y B, se llaman equiva-
lentes si existe una matriz invertible, C, de orden n tal que
B = C
1
AC
UNIDAD 1.

ALGEBRA LINEAL 26
Obviamente se puede decir que toda matriz de orden n es equivalente a
s misma.
Proposicion 1.12.2 Si A y B son matrices equivalentes de orden n entonces
A y B tienen la misma ecuacion caracterstica y por tanto los mismos valores
propios.
Denicion 1.12.3 Una matriz A de orden n es diagonalizable si existe
una matriz diagonal D tal que A es equivalente a D.
Proposicion 1.12.4 Una matriz de orden n es diagonalizable si y solo si
tiene n vectores linealmente independientes.
Como caso particular tenemos que si A es una matriz de orden n y P es la
matriz cuyas columnas son los vectores propios de A entonces
D = P
1
AP
Corolario 1.12.5 Si la matriz A de orden n tiene n valores propios distin-
tos, entonces A es diagonalizable.
UNIDAD 1.

ALGEBRA LINEAL 27
1.13 Algunos resultados importantes
Proposicion 1.13.1 Sea A una matriz de orden n, se tiene que
[AI[ = ()
n
+()
n1
tr
1
(A)+()
n2
tr
2
(A)+()
n3
tr
3
(A)+... +[A[
siendo tr
i
(A), i = 1, 2, . . . , n1 la suma de todos los menores de orden i que
contienen en su diagonal principal i elementos de la diagonal principal de A.
Propiedades de los valores propios. Sean A M
nxn
y B M
mxm
dos matrices cuyos valores propios son los escalares
1
, . . .
n
y
1
, . . . ,
m
,
respectivamente. Estos valores propios pueden ser reales o complejos, iguales
o distintos. Se verica que:
a) Los valores propios de A
t
coinciden con los de la matriz A
b) El n umero de valores propios no nulos de una matriz A de rango r < n
es mayor o igual que n r
c) [A[ =

n
i=1

i
d) tr (A) =

n
i=1

i
e) Los valores propios de A para cualqier R(C), alpha ,= 0 son
i
,
i = 1, 2, . . . , n
f ) Si m = n entonces lo valores propios de AB y BA son los mismos
g) Si A es no singular, entonces los valores propios de A
1
son 1/
i
, i =
1, 2, . . . , n
h) Para cualquier n umero natural k no nulo los valores propios de A
k
son

k
i
, i = 1, 2, . . . , n
i) Si A es una matriz de orden n con elementos pertenecientes a R tal que
sus valores propios
i
, i = 1, 2, . . . , n sean reales, entonces para todo
p, n umero natural impar, los valores propios de A
1/p
son
1/p
i
, i =
1, 2, . . . , n. Si p es par esta propiedad se verica siempre que
i
0,
i = 1, 2, . . . , n
j) Si
i
,= 1, i = 1, 2, . . . , n, entonces A+I es invertible, siendo 1 +
i
sus
valores propios y
1
1+
i
los de su inversa.

S-ar putea să vă placă și