Sunteți pe pagina 1din 51

Apuntes de Algebra Lineal

Carolina B. Becerra O.
Agosto 2012
2
Indice general

1. Vectores en Rn 5

2. Sistemas de ecuaciones 11

3. Matrices 15

4. Determinantes 25

5. Espacios vectoriales 27

6. Transformaciones lineales 33

7. Valores y vectores propios 39

8. Ortogonalidad 43

9. Matrices Simetricas 49

3
4 INDICE GENERAL
Captulo 1

Vectores en Rn

Definicion 1.1. El conjunto de n tuplas ordenadas de numeros reales se


denota por Rn y a sus elementos se les llama vectores.

x1
Rn = v = ... tal que x1 , . . . , xn R

xn
A x1 , . . . , xn se les llama componentes o coordenadas del vector v. Al vector


cuyas componentes son todas 0 se le llama vector nulo y se denota por 0 .
Definicion 1.2. Vectores canonicos:

0
..
.
0

ei = 1 i , para i = 1, . . . , n

0
..
.
0
Definicion 1.3. Dados u, v Rn la suma de u y v, denotada por u + v es el
vector cuyas componentes son la suma de las respectivas componentes de u
y v. Dado R, la ponderacion de u por el escalar R es el vector cuyas
componentes son el producto de por las respectivas componentes de u. Es
decir:
x1 y1 x1 + y 1 x1
Si u = .. , v = .. , entonces u + v =
. . .
.. , u = ... .
xn yn xn + yn xn

5
6 CAPITULO 1. VECTORES EN RN

Proposicion 1.4. Sean u, v, w Rn y , R. Entonces las operaciones


anteriores satisfacen:

u + v Rn .

(u + v) + w = u + (v + w).

u + v = v + u.


u + 0 = u.


u + (u) = 0 .

u Rn .

(u + v) = u + v.

( + )u = u + u.

(u) = ()u.

1 u = u.

Observacion 1.5. Sea R y u Rn . u = 0 si y solo si = 0 o u = 0.

Definicion 1.6. Sean u, v Rn , el producto punto de u y v, denotado por


u v, es la
suma de los respectivos
productos entre coordenadas. Es decir
x1 y1
n
Si u = ..
. ,v = ..
. , entonces u v = x1 y1 + . . . + xn yn = xi y i .
xn yn i=1

Proposicion 1.7. Sea u, v, w Rn y R. Entonces el producto punto


satisface:

u v R.

u 0 = 0.

u v = v u.

u (v + w) = u v + u w.

(u v) = (u) v.
7

u u 0 y u u = 0 u = 0.
{
1 si i = j
Ejemplo 1.8. ei ej = para todo i, j = 1, . . . , n.
0 si i = j.

x1
Definicion 1.9. Norma de un vector: Dado u = ... Rn ,
xn


n

u = xi 2 = u u.
i=1

Definicion 1.10. Vector unitario: vector que tiene norma 1.


Definicion 1.11. Distancia entre vectores: d(u, v) = u v.
Ejemplo 1.12. { ei = 1 para todo i = 1 . . . n.
0 si i = j
d(ei , ej ) = para todo i, j = 1, . . . , n.
2 si i = j.
Proposicion 1.13. Sean R y u, v Rn . Entonces

u = ||u.
u + v2 = u2 + v2 + 2u v.
|u v| uv.
u + v u + v.

Definicion 1.14. Sean u, v Rn {0}. El angulo entre dos vectores es tal


uv
que: cos() = .
uv
{
0 si i = j
Ejemplo 1.15. (ei , ej ) = para todo i, j = 1, . . . , n.
/2 si i = j.

Definicion 1.16. Sea {v1 , . . . , vm } Rn . Una combinacion lineal de los


vectores v1 , . . . , vm es el vector

1 v1 + . . . + m vm ,

donde i R, para algunos 1 , . . . , m R.


8 CAPITULO 1. VECTORES EN RN

Definicion 1.17. Sea S Rn . El conjunto generado por S, denotado por


< S > es el conjunto de todas las combinaciones lineales de vectores de S.
Ejemplo 1.18. < e1 , . . . en >= Rn .
Proposicion 1.19. Sean S, S1 , S2 Rn . Entonces



< >=< 0 >= { 0 }.


0 < S >.

< S > es cerrado bajo la suma y multiplicacion por escalar.

S < S >.

S1 S2 < S1 >< S2 >.

S1 < S2 >< S1 >< S2 >.

< S >=<< S >>.

Teorema 1.20. Sea S = {v1 , v2 , . . . , vm } Rn .


Si v1 es combinacion lineal de v2 , . . . , vm , entonces

< v1 , v2 , . . . , vm >=< v2 , . . . , vm >

Definicion 1.21. Sea S = {v1 , v2 , . . . , vm } Rn .

S es linealmente dependiente (LD) si existen escalares 1 , . . . , m




no todos nulos tal que 1 v1 + . . . + m vm = 0 . (se puede construir al
vector cero de manera no trivial).

S es linealmente independiente (LI) si no es LD, es decir si para




cualquier combinacion lineal 1 v1 + . . . + m vm = 0 , se tiene necesari-
amente que 1 = . . . = m = 0. (la unica manera de construir al vector
cero es la trivial).

Observacion 1.22. Si 0 S Rn , entonces S es LD.


Proposicion 1.23. Sea S Rn . Entonces

S es LD si y solo si existe un vector de S que es combinacion lineal del


resto de los vectores de S.
9

S es LI si y solo si todo subconjunto de S es LI.


Definicion 1.24. Recta en R2 . Sea d R2 no nulo, L = {x R2 tal que x =
u + d, R}. Si u = 0 se dice que L pasa por el origen.
Definicion 1.25. Recta en R3 . Sea d R3 no nulo, L = {x R3 tal que x =
u + d, R}. Si u = 0 se dice que L pasa por el origen.
Definicion 1.26. Recta en Rn . Sea d Rn no nulo, L = {x Rn tal que x =
u + d, R}. Si u = 0 se dice que L pasa por el origen.
Definicion 1.27. Plano en R3 . Sea d1 , d2 Rn L.I, = {x Rn tal que x =
u + d1 + d2 , , R}. Si u = 0 se dice que pasa por el origen.
Definicion 1.28. Sean u Rn y b R. El hiperplano definido por u y b es
H = {x Rn : x u = b}. Si b = 0, se dice que pasa por el origen.
Ejemplo 1.29. En R4 sea H = {x R4 : x1 +x2 2x3 x4 = 0 tal que x1 , x2 , x3 , x4
R}.
x1
x2
xHx= x3 para x1 , x2 , x3 R.
x1 + x2 2x3

1 0 0
0 1 0
x H x = x1 0 + x2 0
+ x3 1 para x1 , x2 , x3 R.
1 1 2

1 0 0
0 1 0
Por lo tanto H =< 0 , 0 , 1 >.
1 1 2

Observacion 1.30. Todo hiperplano en Rn que pasa por el origen es un


conjunto generado por (n 1) vectores L.I. Todo hiperplano en Rn es la
suma de un vector posicion y un conjunto generado por (n 1) vectores L.I.
Todo hiperplano en R3 es un plano en R3 .
Observacion 1.31. Problema importante: Todo plano en R3 es un hiper-
plano?
Observacion 1.32. Problema importante: Dado un conjunto S y un vector
b en Rn . b < S >?
10 CAPITULO 1. VECTORES EN RN
Captulo 2

Sistemas de ecuaciones

Definicion 2.1. Una matriz es un arreglo ordenado de m vectores de Rn .


Notacion: A = [v1 v2 . . . vm ]. Se dice que A es una matriz de n m, donde
m es el numero
de columnas y n es el numero de filas.
a1,j
Si vj = ..
. para j = 1, . . . , m, entonces A = (ai,j ), donde ai,j son los
an,j
coeficientes o entradas de la matriz.

Definicion 2.2. Matriz nula es tal que todos sus coeficientes son 0.

Definicion 2.3. Matriz cuadrada es tal que n = m.

Definicion 2.4. Matriz identidad es una matriz cuadrada denotada por I


tal que I = [e1 . . . en ].


x1
Definicion 2.5. Dada A = [v1 v2 . . . vm ] de n m y x = ... Rm , el
xm
producto de A por x es Ax = x1 v1 + x2 v2 + . . . + xm vm Rn .

Proposicion 2.6. Sea A de n m, x, y Rm y R. Entonces

A(x + y) = Ax + Ay.

A(x) = Ax.

A0 = 0.

11
12 CAPITULO 2. SISTEMAS DE ECUACIONES

Observacion 2.7. Todo sistema de ecuaciones se puede escribir de la forma


matricial Ax = b.
Definicion 2.8. Un sistema de ecuaciones Ax = b es tal que A es una matriz
de n m asociada al sistema, b Rn y x Rm . [A b] es la matriz ampliada
del sistema.



El sistema es homogeneo si b = 0 y no homogeneo si b = 0 . El sistema es
consistente si tiene solucion e inconsistente si no tiene solucion.

Definicion 2.9. Una matriz se dice que esta en la forma escalonada (F.E.)
si:
1. a1,1 = 0.
2. Si el pivote de la fila i esta en la columna j, entonces el pivote de la
fila i + 1 esta en la columna k, tal que j < k. (Pivote: primer elemento
distinto de 0 de la fila).
3. Las filas nulas estan al final de la matriz.
Definicion 2.10. Una matriz se dice que esta en la forma escalonada re-
ducida (F.E.R.) si:
1. Esta es la F.E.
2. Todos los pivotes son iguales a 1.
3. Los vectores columna que contienen pivotes son canonicos.
Definicion 2.11. Dada una matriz, las operaciones fila son:
1. Tipo I: Intercambiar dos filas: Fi Fj .
2. Tipo II: Multiplicar una fila por un escalar no nulo: Fi Fi .
3. Tipo III: (pivotear) Sumar a una fila, un multiplo escalar de otra:
Fi Fi + Fj .
Observacion 2.12. Para solucionar un sistema de ecuaciones se lleva la
matriz ampliada a su F.E. o a su F.E.R., usando operaciones fila, luego se
reinterpreta el sistema y se resuelve recursivamente hacia arriba. Si el sistema
es consistente, a las variables que quedan en posiciones no pivotes se les llama
variables libres.
13

Observacion 2.13. Lo anterior funciona pues si [A|b] [A |b ], entonces


Ax = b A x = b .
Teorema 2.14. Sea el sistema de ecuaciones Ax = b con A de n m, y M
la F.E.R. de la matriz M = [A b].

Para b = 0, el sistema

es inconsistente si y solo si M tiene una fila de la forma [0 . . . 0 c] con


c = 0,
es consistente y tiene solucion unica si y solo si M tiene m pivotes,
es consistente y tiene infinitas soluciones si y solo si M tiene menos de
m pivotes (hay variables libres).



Para b = 0 el sistema es consistente ( 0 es solucion) y

tiene solucion unica si y solo si F.E. de A tiene m pivotes,


tiene infinitas soluciones si y solo si F.E. de A tiene menos de m pivotes
(hay variables libres).

Definicion 2.15. Rango de un sistema: numero de pivotes de la forma


escalonada de la matriz ampliada del sistema. Rango de una matriz: numero
de pivotes de la forma escalonada del sistema homogeneo asociado a la ma-
triz.
Teorema 2.16. Sea el sistema Ax = b, u tal que Au = b y los conjuntos
C1 = {x : Ax = b} y C2 = {y : Ay = 0}. Entonces x C1 si y solo si
x u C2 .

Proposicion 2.17. Sea S = {v1 , . . . , vm } Rn y A = [v1 . . . vm ]. S es L.I.


si y solo si el sistema Ax = 0 tiene solucion unica.
Proposicion 2.18. Sea S = {v1 , . . . , vm } Rn y A una matriz cuyas filas
son los vectores del conjunto S. S es L.I. si y solo si la F.E. de la matriz A
no tiene filas nulas.
Teorema 2.19. Sea v1 , . . . , vm un conjunto de vectores de Rn . Si m > n,
entonces v1 , . . . , vm es L.D.
14 CAPITULO 2. SISTEMAS DE ECUACIONES

Observacion 2.20. Sea S = {v1 , . . . , vm } Rn , A = [v1 . . . vm ] y b Rn .


Entonces b < v1 , . . . , vm > si y solo si el sistema Ax = b es consistente.

Observacion 2.21. Sea A de n m y b1 , . . . br Rn , para resolver Ax =


b1 , Ax = b2 , . . . , Ax = br se escalona una unica matriz [A b1 b2 . . . br ] y se
interpreta la solucion para cada sistema por separado.

Observacion 2.22. Para buscar la interseccion de n hiperplanos, se resuelve


el sistema asociado a las n ecuaciones.
Captulo 3

Matrices

Definicion 3.1. Sea A una matriz de n m, se define una funcion TA :


Rm Rn , dada por
TA (x) = Ax
[ ] [ ] [ ]
1
1 2 1 0
Ejemplo 3.2. A = 0 1 3 , entonces TA 2 = 11 .
3

Observacion 3.3. El dominio de esta funcion es Rm . La imagen de 0 Rm


es 0 Rn .

Proposicion 3.4. Sea A una matriz de n m, la funcion TA se dice que es


lineal pues para x, y Rm y R

TA (x + y) = A(x + y) = Ax + Ay = TA (x) + TA (y),

TA (x) = A(x) = Ax = TA (x).

Observacion 3.5. En adelante la funcion TA se denotara por A.

Definicion 3.6. Mn,m (R) es el conjunto de todas las matrices de n m con


coeficientes reales.

Definicion 3.7. Sean A = [v1 . . . vm ] , B = [u1 . . . um ] Mn,m (R) y R.


La operaciones suma y multiplicacion por escalar de matrices se definen por
A + B = [v1 + u1 . . . vm + um ] , A = [v1 . . . vm ].

Observacion 3.8. 1 A = A.

15
16 CAPITULO 3. MATRICES

Proposicion 3.9. Sean A, B, C Mn,m (R) y , R. Entonces

A + B Mn,m (R).

(A + B) + C = A + (B + C).

A + B = B + A.

A + 0 = A.

A + (A) = 0.

A Mn,m (R).

(A + B) = A + B.

( + )A = A + A.

(A) = ()A.

1 A = A.

Definicion 3.10. Sea A de n m y B de m p, tal que B = [u1 . . . up ], el


producto de A por B es la matriz A B = [A u1 . . . A up ] de n p.

Proposicion 3.11. Sean A, B, C matrices tal que las siguientes operaciones


estan bien definidas y R. Entonces

A(BC) = (AB)C.

(AB) = (A)B = A(B).

A(B + C) = AB + AC.

(A + B)C = AC + BC.

IA = AI = A.

0A = A0 = 0.

Observacion
[ 3.12.
] En[ general
] el producto
[ de ]matrices
[ no]es conmutativo.
0 1 1 0 0 0 0 1
A = 0 0 , B = 0 0 y AB = 0 0 = 0 0
= BA.
17

Definicion 3.13. Sea A de n m, la trasnpuesta de A denotada por At es


de m n y es la matriz que resulta de intercambiar las filas de A por las
columnas de la A.
[ ] [ ]
0 1
0 2 4
Ejemplo 3.14. Si A = 2 3 , entonces At = 1 3 1
.
4 1

Proposicion 3.15. Sean A, B matrices tal que las siguientes operaciones


estan bien definidas y R. Entonces

(At )t = A.

(At ) = (A)t .

(A + B)t = At + B t .

(AB)t = B t At .

Definicion 3.16. Sea A = (ai,j ) de n n.

A es triangular superior si ai,j = 0 para todo i > j.

A es triangular inferior si ai,j = 0 para todo i < j.

A es diagonal si ai,j = 0 para todo i = j.

A es simetrica si A = At .

A es antisimetrica si A = At .

Definicion 3.17. Sea A de n m.




Ker(A) = {x Rm : Ax = 0 }. Es el conjunto de pre-imagenes del
vector cero. Es el conjunto solucion del sistema homogeneo asociado a
la matriz A. Es un subconjunto de Rm .

Im(A) = {b Rn : x Rm : Ax = b}. Es el recorrido de la funcion


dada por la matriz A. Es el conjunto de todos los vectores b tal que el
sistema Ax = b es consitente. Es el conjunto generado por las columnas
de la matriz A. Es un subconjunto de Rn .
18 CAPITULO 3. MATRICES

C(A) es el conjunto generado por las columnas de la matriz A. Es el


recorrido de la funcion dada por la matriz A. Es el conjunto de todos los
vectores b tal que el sistema Ax = b es consistente. Es un subconjunto
de Rn . (Esta generado por las columnas de la matriz que en su forma
escalonada estan en las posiciones pivotes).

F (A) es el conjunto generado por las filas de la matriz A. Es un sub-


conjunto de Rm . (Esta generado por las filas no nulas de la forma
escalonada de la matriz).

Observacion 3.18. Im(A) = C(A) = F (At ).

Teorema 3.19. Sea A de n m. Entonces




A es 1-1 (inyectiva) si y solo si Ker(A) = { 0 }.

A es sobreyectiva si y solo si Im(A) = Rn .

Teorema 3.20. Sea A de n m. Entonces

Filas de A son L.D.


Existe una fila que es combinacion lineal del resto.
fn = 1 f1 + . . . + n1 fn1 (sin perder generalidad)
La FER de A tiene por lo menos una fila nula
(haciendo las operaciones del tipo III necesarias).

Filas de A son L.I.


La F.E.R. de A tiene no tiene filas nulas.
Todas las filas de la F.E.R. de A contienen pivotes.
Rango de A es n.

A es 1-1


Ker(A) = { 0 }.


Ax = 0 tiene solucion unica.
Columnas de A son L.I.
Rango de A es m.
19

A es sobre
Im(A) = Rn .
Ax = b es consistente para todo b Rn .
Ax = ei es consistente para todo vector canonico.
La FER de [A e1 . . . en ] no tiene filas de la forma [0 . . . 0 u] con u un vector no nulo.
Filas de A son L.I.
Rango de A es n.
Definicion 3.21. A de nm tiene inversa por la derecha si existe una matriz
B de m n tal que AB = I.
Teorema 3.22. Sea A una matriz de n m. Entonces

A tiene inversa por la derecha.


Existe B tal que AB = I.
Existen u1 , . . . , un tal que A[u1 . . . un ] = [e1 . . . en ].
Ax = ei es consistente para todo vector canonico.
A es sobre.
Filas de A son L.I.
Rango de A es n.

Observacion 3.23. Para encontrar la inversa por la derecha de una matriz,


hay que escalonar la matriz [AI] y resolviendo cada sistema se obtienen las
columnas de la matriz B.

Definicion 3.24. A de nm tiene inversa por la izquierda si At tiene inversa


por la derecha.
Teorema 3.25. Sea A una matriz de n m. Entonces

A tiene inversa por la izquierda.


Existe B tal que BA = I.
Ax = 0 tiene solucion unica.
A es inyectiva.
Columnas de A son L.I.
Rango de A es m.

Observacion 3.26. Una matriz no cuadrada no puede tener inversa por la


izquierda y derecha al mismo tiempo. Lo que no significa que siempre tenga
20 CAPITULO 3. MATRICES

al menos una inversa, por ejemplo la siguiente matriz no tiene inversa por la
derecha ni por la izquierda.

1 0 0 0
0 1 0 0
0 0 0 0

Definicion 3.27. A de n n es invertible o no singular si existe una matriz


B de n n tal que AB = I.

Observacion 3.28. Sea A de n n. Si A tiene inversa por la derecha,


entonces su rango es n, luego tiene inversa por la izquierda y es la misma que
por la derecha. Ademas es unica. La notacion para la inversa de A es A1 .

Proposicion 3.29. Sean A y B de n n. Entonces

A es invertible si y solo si Ax = b tiene solucion unica para todo b Rn .

Si A es invertible, entonces (A1 )1 = A.

A es invertible si y solo si At es invertible. En este caso (At )1 = (A1 )t .


1 1
Si A es invertible y = 0, entonces A es invertible y (A)1 = A .

Si A es invertible, entonces para todo r N, Ar es invertible y se tiene
(Ar )1 = (A1 )r = Ar .

Si A y B son invertibles, entonces AB es invertible y (AB)1 = B 1 A1 .

Observacion 3.30. Sean A1 , . . . , Ak matrices cuadradas e invertibles. En-


tonces (A1 . . . Ak )1 = (Ak )1 . . . (A1 )1 .

Proposicion 3.31. Sean A, B, C, D matrices tal que las siguientes opera-


ciones estan bien definidas. Entonces

Si A es invertible y AB = AC, entonces B = C.

Si A es invertible y BA = CA, entonces B = C.

Si A es invertible y AB = BA, entonces BA1 = A1 B.

Si A es invertible, puede ocurrir que A1 BA = B.


21

Si A y B son invertibles, y ACB = D, entonces C = A1 DB 1 .


Observacion 3.32. Una matriz diagonal es invertible si y solo si todos los
elementos de su diagonal son no nulos.
Observacion 3.33. Una matriz triangular superior (o inferior) es invertible
si y solo si todos los elementos de su diagonal son no nulos.
Ejemplo 3.34. Productos notables.

Estudio de ut u y uut .

Sea A, B de n 1 tal que 1 At B = 0. Demuestre que


1
(I AB t )1 = I + AB t .
(1 At B)

La triangularidad se mantiene en el producto y al tomar inversas.


Definicion 3.35. EI (EII , EIII ) es una matriz elemental del tipo I (II, III),
si es la matriz que resulta de hacer una operacion elemental del tipo I (II,
III) a la matriz identidad. Se dice que la matriz E representa dicha operacion
elemental.
Observacion 3.36.
tipo matriz operacion transpuesta operacion inversa operacion

I EI Fi Fj EI Fi Fj EI Fi Fj

II EII Fi Fi EII Fi Fi g
E II Fi 1/Fi

g g
g
III EIII Fi Fi + Fj EIII Fj Fj + Fi EIII Fi Fi Fj

Observacion 3.37. Si A es de n m y B es la matriz de n m que resulta


de hacerle a A una operacion elemental, entonces EA = B, donde E es la
matriz que representa dicha operacion elemental.
Proposicion 3.38. Si A es de n m y B = F.E. de A, entonces Ek . . .
E2 E1 A = B, donde Ei son las matrices elementales que representan las
operaciones elementales que llevan la matriz A en la matriz B.
22 CAPITULO 3. MATRICES

Teorema 3.39. A de n n es no singular si y solo si A se puede escribir


como producto de matrices elementales.
Teorema 3.40. A de n n es no singular si y solo si F.E.R de A es la matriz
identidad
Teorema 3.41. Si A es de n m y U es una forma escalonada de A, tal que
U se obtiene sin necesidad de hacer operaciones del tipo I, entonces existe L
triangular inferior invertible, tal que

A = LU

Teorema 3.42. Si A es de n m y U es una forma escalonada de A, tal


que U se obtiene con la necesidad de hacer operaciones del tipo I, entonces
existe L triangular inferior invertible y P una matriz producto de lementales
del tipi I, tal que
P A = LU
Observacion 3.43. Si A = LU , para resolver Ax = b se hace el cambio de
variable U x = y.
Observacion 3.44. Si P A = LU , para resolver Ax = b se multiplica el
sistema por P y luego se hace el cambio de variable U x = y.
Definicion 3.45. Si A es de n n la forma cuadratica asociada a A es
qA : Rn R, definida por
qA (v) = v t Av
Observacion 3.46. Si A es de n n, se tiene que

qA = qAt = q( A+At )
2

( )
A + At
La matriz simetrica B = , es la unica tal que
2
qA = qB

En adelante las matrices que definen a formas cuadraticas seran cuadradas


y simetricas.
Definicion 3.47. Dada A de n n, la submatriz principal Ak para k =
1, . . . , n es la matriz que resulta de eliminar la ultimas n k filas y las
ultimas n k columnas de A. Notar que An = A.
23

Proposicion 3.48. Si A es de nn y sus submatrices principales A1 , , An1


son invertibles, entonces A admite la descomposicion LU . Si L tiene solo unos
en su diagonal, entonces L y U son unicas.

Teorema 3.49. Sea A = At . Si A = LU , entonces existe D diagonal tal que


A = LDLt . (Entonces el signo de A es igual al signo de D).

Definicion 3.50. Una matriz (o su forma cuadratica asociada) se dice:




positiva definida si v = 0 , qA (v) > 0.


negativa definida si v = 0 , qA (v) < 0.


semidefinida positiva si v = 0 , qA (v) 0.


semidefinida negativa si v = 0 , qA (v) 0.

Observacion 3.51. Si D es diagonal, con elementos d1 , . . . , dn en su diago-


nal, entonces D (o qD ) es

positiva definida si di > 0, para todo i = 1, . . . , n.

negativa definida si di < 0, para todo i = 1, . . . , n.

semidefinida positiva si di 0, para todo i = 1, . . . , n.

semidefinida negativa si di 0, para todo i = 1, . . . , n.

Proposicion 3.52. Sea A = At . Si A es positiva definida, entonces

A es invertible.

Ak es positiva definida, para todo k = 1, . . . , n.

Ak es invertible, para todo k = 1, . . . , n.

Teorema 3.53. Sea A = At . A es positiva definida si y solo si existe L


triangular inferior invertible con unos en su diagonal, y D diagonal, con
elementos en la diagonal positivos, tal que A = LDLt .
24 CAPITULO 3. MATRICES

Observacion 3.54. En el teorema anterior se define a D como la matriz
diagonal, que en su diagonal tiene las races positivas de los elementos de la
diagonal de D. Entonces

A = L D DLt = Rt R

que es llamada la descomposicion con raz cuadrada de una matriz positiva


definida.
[ ]
3 3 3
Ejemplo 3.55. Sea A = 3 5 5 . Entonces
3 5 11
[ ][ ]
1 0 0 3 3 3
A = 1 1 0 0 2 2 = LU
1 1 1 0 0 6
[ ][ ][ ]
1 0 0 3 0 0 1 1 1
= 1 1 0 0 2 0 0 1 1 = LDLt
1 1 1 0 0 6 0 0 1
[ ][ ][ ][ ]
1 0 0 3 0 0 3 0 0 1 1 1
= 1 1 0 0 2 0 0 2 0 0 1 1 = L D DLt
1 1 1 0 0 6 0 0 6 0 0 1

[ ][ ]
3 0 0 3 3 3
= 3 0
2 0 2 2 = Rt R
3 2 6 0 0 6
Captulo 4

Determinantes

Definicion 4.1. Determinante es una funcion: Det : Mn (R) R tal que:

|I| = 1

Si EI A = B |A| = |B|

Si EII A = B |A| = |B|

Si EIII A = B |A| = |B|

Observacion 4.2. Tomando A = I en la definicion: |EI | = 1, |EII | = ,


|EIII | = 1. Reemplazando en la definicion queda que si E es una matriz
elemental, entonces |EA| = |E| |A|.
[ ]
a b
Observacion 4.3. Si A = , entonces |A| = ad bc
c d
Proposicion 4.4. Sea A una matriz de cuadrada. Entonces

Si A tiene dos filas iguales, entonces |A| = 0.

Si A tiene una fila nula, entonces |A| = 0.

Si A es triangular o diagonal, entonces |A| = ai,i .

Teorema 4.5. Sea A una matriz de cuadrada. Entonces A es invertible si y


solo si |A| = 0.

25
26 CAPITULO 4. DETERMINANTES

Teorema 4.6. Sean A y B matrices cuadradas. Entonces |AB| = |A| |B|.


(Usar: A y B son invertibles si y solo si AB es invertible.)

Proposicion 4.7. Sea A una matriz de cuadrada. Entonces

|At | = |A|

Si A es invertible, entonces |A1 | = 1/|A|

Proposicion 4.8. La funcion determinante es lineal en las filas y en las


columnas.

Definicion 4.9. Menor i, j de una matriz A es el determinante de la matriz


que resulta de eliminar de A la fila i y la columna j. Notacion: Mi,j =.
Cofactor i, j de una matriz A es Ci,j = (1)i+j Mi,j

Teorema 4.10. |A| = ai,1 Ci,1 + . . . + ai,n Ci,n para todo i = 1, . . . , n. (caso
i = 1)

Proposicion 4.11. Sea A una matriz de cuadrada. Entonces

Si P A = LU , entonces (1)k |A| = ui,i

Si A = LDLt , entonces |A| = di,i

Definicion 4.12. Sea A una matriz de cuadrada. La adjunta de A: Adj(A) =


(ci,j )t .

Teorema 4.13. Sea A una matriz de cuadrada. Entonces A Adj(A) =


Adj(A) A = |A| I

Proposicion 4.14. Sea A una matriz de cuadrada. Si A es invertible, en-


tonces A1 = 1/|A| Adj(A)

Proposicion 4.15. Sea A una matriz simetrica. A es positiva definida si y


solo si, los determinantes de las submatrices principales son todos positivos.
Captulo 5

Espacios vectoriales

Definicion 5.1. Cuerpo o campo K, +, conjunto tal que con las operaciones
suma y multiplicacion cumple:
+ es cerrada: , K + K
+ es asociativa: , , K ( + ) + = + ( + )
+ es conmutativa: , K + = +
Existe un neutro para la +: 0 : 0 + = + 0 =
Existe un inverso para la +: : + = + = 0
es cerrada: , K K
es asociativa: , , K ( ) = ( )
es conmutativa: , K =
Existe un neutro para la : 1 : 1 = 1 =
Existe un inverso para la : = 0 : = = 1
, , K ( + ) = +
Ejemplo 5.2. Q, R, C, Zp
Definicion 5.3. Un conjunto no vaco V es un espacio vectorial sobre el
cuerpo K si existen dos operaciones: suma y multiplicacion por escalar tal
que:

27
28 CAPITULO 5. ESPACIOS VECTORIALES

+ es cerrada: u, v V u + v V

+ es asociativa: u, v, w V (u + v) + w = u + (v + w)

+ es conmutativa: u, v V u + v = v + u

Existe un neutro para la +: 0V u : 0V + u = u + 0V = u




Existe un inverso para la +: u(u) : u + (u) = (u) + u = 0

es cerrada: u V, K u V

u, v V, K (u + v) = u + v

u V, , K ( + ) u = u + u

u V, , K () u = (u)

u V 1 u = u

A los elementos de V se les llama vectores.

Ejemplo 5.4. Algunos espacios vectoriales:


Rn sobre R.

Pn (R) sobre R.

Mn,m (R) sobre R.

C[a, b] sobre R.

Mn,m (Zp ) sobre Zp .


Proposicion 5.5. Si V es un espacio vectorial sobre K, entonces
0V es unico.

(u + v) = (u) + (v).

u es unico.

0V = 0V .

0 u = 0V .
29

u = 0V si y solo si = 0 o u = 0V .

Definicion 5.6. Una combinacion lineal de vectores v1 , . . . , vm es un vector


de la forma 1 v1 + . . . + m vm .

Ejemplo 5.7. En C[0, ], 1 sen2 +1 cos2 = 1.

Definicion 5.8. Sea S = {v1 , . . . , vm }.

S es linealmente independiente si la unica manera de construir al vector


cero es la trivial:


1 v1 + . . . + m vm = 0 1 = . . . = m = 0

S es linealmente dependinete si es posible construir al vector cero de


manera no trivial:


1 , . . . m no todos nulos, tal que 1 v1 + . . . + m vm = 0

Observacion 5.9. Sea S = {v1 , . . . , vm }. Entonces

S es LI si y solo si todo subconjunto de S es LI.

S es LD si y solo si todo conjunto que contiene a S es LD.

Teorema 5.10. Sea S = {v1 , . . . , vm }. S es LD si y solo si existe v S que


es combinacion lineal del resto de los vectores de S.

Definicion 5.11. Sea S = {v1 , . . . , vm }. El conjunto generado por S es


< S >=< v1 , . . . , vm >= {1 v1 + . . . + m vm , tal que 1 , . . . , m R}

Observacion 5.12. {0V } es L.D. y {0V } =< 0V >

Observacion 5.13. Sean S1 y S2 conjuntos de vectores de un espacio vec-


torial V .

Si S1 S2 , entonces < S1 >< S2 >

Si S1 < S2 >, entonces < S1 >< S2 >

Proposicion 5.14. Sea S = {v1 , . . . , vm }. vj es combinacion lineal de vec-


tores de S < S >=< S {vj } >
30 CAPITULO 5. ESPACIOS VECTORIALES

Proposicion 5.15. Sea S = {v1 , . . . , vm }. Si S es LI y v < S >, entonces


v se escribe de manera unica como combinacion lineal de los vectores de S.
Definicion 5.16. Sea V un espacio vectorial sobre K y U V . U es un
subespacio de V si es distinto del vaco y con las operaciones heredadas de
V es un espacio vectorial. Notacion: U 6 V
Proposicion 5.17. U 6 V si y solo si U es no vaco, es cerrado bajo la suma
y es cerrado bajo la multiplicacion por escalar.
Observacion 5.18. Todo conjunto generado es un subespacio.
Teorema 5.19. Sean U1 , U2 subespacios de V . Entonces

U1 U2 es subespacio de V .

U1 + U2 = {u1 + u2 : u1 U1 , u2 U2 } es subespacio de V . Si en


este caso, U1 U2 = { 0 }, entonces se dice que la suma es directa y se
denota: U1 U2 .

Teorema 5.20. Si V =< v1 , . . . , vn > tal que {v1 , . . . , vn } es L.I., entonces


todo conjunto L.I. de V contiene a lo mas n elementos.
Definicion 5.21. B V es una base de V si B es LI y < B >= V .
Teorema 5.22. Si B es una base de V y la cardinalidad de B es n, entonces
todas las bases de V tienen n elementos. Se dice que la dimension de V es n.
Notacion: Dim(V ) = n.
Proposicion 5.23. Si Dim(V ) = n, entonces

S es LI #S 6 n.

< S >= V #S > n.

Proposicion 5.24. Si Dim(V ) = n y S = {v1 , . . . , vn }, entonces

S es LI < S >= V .

< S >= V S es L.I.

Observacion 5.25. Si U es subespacio de V y Dim(V ) = n, entonces


Dim(U ) 6 Dim(V )
31

Teorema 5.26. Sean U1 , U2 subespacios de V . Entonces

Dim(U1 + U2 ) = Dim(U1 ) + Dim(U2 ) Dim(U1 U2 )

Proposicion 5.27. Sea A de n m. Entonces

C(A) es un subespacio de Rn de dimension igual al rango de A.

F (A) es un subespacio de Rm de dimension igual al rango de A.

At es de m n, F (At ) = C(A) y C(At ) = F (A).

Definicion 5.28. Sea B = {v1 , . . . , vn } una base de V y v V tal que


v = x1 v1 + . . . xn vn . El vector coordenado de x en la base B es:

x1
[v]B = ..
.
xn

Proposicion 5.29. Sean u, v V y B una base de V . Entonces

[u + v] = [u] + [v].

[u] = [u].

{u1 , . . . , um } es L.I. si y solo si {[u1 ], . . . , [um ]} es L.I.

u < u1 , . . . , um > si y solo si [u] < [u1 ], . . . , [um ] >.

Definicion 5.30. Sean B1 = {v1 , . . . , vn } y B2 = {u1 , . . . , un } bases de V .


Se define la matriz P21 = [ [v1 ]2 . . . [vn ]2 ].

Proposicion 5.31. Sean B1 = {v1 , . . . , vn } y B2 = {u1 , . . . , un } bases de V .

Para todo x V : P21 [x]1 = [x]2 .

P21 es invertible.

(P21 )1 = P12
32 CAPITULO 5. ESPACIOS VECTORIALES
Captulo 6

Transformaciones lineales

Definicion 6.1. Sean V y W espacios vectoriales. T : V W es una


transformacion lineal si T (v1 + v2 ) = T (v1 ) + T (v2 ) y T (v) = T (v).

Proposicion 6.2. Sean V y W espacios vectoriales y T : V W una


transformacion lineal. Entonces

T (0V ) = 0W .

T (v) = T (v).

Observacion 6.3. Si B es una base de V , entonces T queda determinada


por como actua sobre la base.

Definicion 6.4. Sean V y W espacios vectoriales y T : V W una trans-


formacion lineal.

Ker(T ) = {v V : T (v) = 0W } .

Im(T ) = {w W : v V : T (v) = w} .

Proposicion 6.5. Sean V y W espacios vectoriales y T : V W una


transformacion lineal.

Ker(T ) es un subespacio de V y su dimension es la nulidad de T .

Im(T es un subespacio de W y su dimension es el rango de T .

Observacion 6.6. Si B es una base de V , entonces < T (B) >= Im(T ).

33
34 CAPITULO 6. TRANSFORMACIONES LINEALES

Definicion 6.7. Sean V y W espacios vectoriales y T : V W una trans-


formacion lineal.
Si T es inyectiva se dice que es un monomorfismo.
Si T es sobre se dice que es un epimorfismo.
Si T es inyectiva y sobre se dice que es un isomorfismo y se denota por
V = W.
Teorema 6.8. Sean V y W espacios vectoriales y T : V W una transfor-
macion lineal.
T es inyectiva si y solo si Ker(T ) = {0V }.
T es sobre si y solo si Im(T ) = W .
Proposicion 6.9. Sean V y W espacios vectoriales y T : V W una
transformacion lineal. Si T es inyectiva y S V es L.I., entonces T (S) es
L.I.
Definicion 6.10. Sean V y W espacios vectoriales, T : V W una trans-
formacion lineal, B1 = {v1 , . . . , vm } una base de V y B2 = {w1 , . . . , wn } una
base de W . La matriz de T con respecto a B1 y B2 es una matriz de n m
dada por
[T ]12 = [ [T (v1 )]2 . . . [T (vm )]2 ]
Proposicion 6.11. Sean V y W espacios vectoriales, T : V W una
transformacion lineal, B1 = {v1 , . . . , vm } una base de V y B2 = {w1 , . . . , wn }
una base de W . Entonces
[T ]12 [v]1 = [T (v)]2 , para todo v V .
v Ker(T ) si y solo si [v]1 Ker[T ]12 .
w Im(T ) si y solo si [w]2 Im[T ]12 .
T es un isomorfismo (V = W ) si y solo si [T ]12 es cuadrada e invertible.
En este caso T 1 es una transformacion lineal y ([T ]12 )1 = [T ]21 .
Teorema 6.12. Sean V y W espacios vectoriales y T : V W una trans-
formacion lineal. Entonces
Dim Ker(T ) + Dim Im(T ) = Dim(V ).
35

Proposicion 6.13. Sea V espacio vectorial de dimension m y B1 y B3 bases


de V . Sea W espacio vectorial de dimension n y B2 y B4 bases de W . Hay
dos matrices cambio de bases: P31 y P42 .
Sea T : V W y las dos matrices asociadas a T : [T ]12 y [T ]34 .
Sean x V, y W . Entonces

[x]3 = P31 [x]1 .

[y]4 = P42 [y]2 .

[T ]12 [x]1 = [T (x)]2 .

[T ]34 [x]3 = [T (x)]4 .

Reemplazndo:

[T ]34 [x]3 = [T (x)]4 .

[T ]34 P31 [x]1 = P42 [T (x)]2 .

[T ]34 P31 [x]1 = P42 [T ]12 [x]1 .

Entonces [T ]34 P31 = P42 [T ]12

Esquema:

[T ]12
V W
B1 B2
P31  P42
V W
B3 B4
[T ]34

Ejemplo 6.14. Un ejemplo de la relacion entre matriz cambio de base y


matriz de una transformacion lineal es:
36 CAPITULO 6. TRANSFORMACIONES LINEALES

Sea V = M2 (R) con las siguientes bases:


{[ ] [ ] [ ] [ ]}
1 0 1 1 0 0 0 0
B1 = 0 0
, 0 0 , 1 0 , 1 1
{[ ] [ ] [ ] [ ]}
1 0 0 1 0 0 0 0
B3 = 0 0
, 0 0 , 1 0 , 0 1

1 1 0 0
0 1 0 0
La matriz cambio de base P31 es P31 =
0

0 1 1
0 0 0 1

Sea W = P2 (R) con las siguientes bases:


B2 = {1, 1 + x, 1 + x2 } B4 = {1, x, x2 }

1 1 1
La matriz cambio de base P42 es P42 = 0 1 0
0 0 1

Sea T : M2 (R) P2 (R), dada por

([ ])
a b
T c d
= (a + b) + (b + c)x + (c + d)x2

La matriz de T con respecto a las bases B1 en V y B2 en W es:



1 1 2 3
[T ]12 = 0 1 1 1
0 0 1 2

La matriz de T con respecto a las bases B3 en V y B4 en W es:



1 1 0 0
[T ]34 = 0 1 1 0
0 0 1 1
[ ]
1 2
Sea A = 3 4
V y entonces:
37


1 1
2 2
[A]1 =
1 , [A]3 = 3


4 4

Luego T (A) = 3 + 5x + 7x2 W y entonces



9 3
[T (A)]2 = 5 , [T (A)]4 = 5

7 7

Y se cumple [T ]12 [A]1 = [T (A)]2 y [T ]34 [A]3 = [T (A)]4

Proposicion 6.15. Sean T y L transformaciones lineales de V en W . En-


tonces (T + L) : V W dada por (T + L)(v) = T (v) + L(v) es una trans-
formacion lineal, y (T ) : V W dada por (T )(v) = T (v) es una trans-
formacion lineal. Ademas [T + L] = [T ] + [L] y [T ] = [T ].

Proposicion 6.16. Sean T : V W y L : U V transformaciones


lineales. Entonces (T L) : U W dada por (T L)(u) = T (L(u)) es una
transformacion lineal, y [T L] = [T ] [L].
38 CAPITULO 6. TRANSFORMACIONES LINEALES
Captulo 7

Valores y vectores propios

Definicion 7.1. Sea A de n n, v = 0 es un vector propio de A si existe


R tal que Av = v. Se dice que es el valor propio de A asociado a v.

Proposicion 7.2. Sea A de nn. es valor propio de A si y solo si |AI| =


0.

Definicion 7.3. Sea A de n n. El polinomio caracterstico de A es pA (x) =


|xI A|.

Proposicion 7.4. Sea A de n n. es valor propio de A si y solo si es


raz de pA (x). La multiplicidad algebraica de es la multiplicidad como raz
de pA (x). (m.a.)

Observacion 7.5. Sea A de n n. Si v1 y v2 son vectores propios asociados


al valor propio , y R, entonces v1 y v1 + v2 son vectores propios
asociados a .

Proposicion 7.6. Sea A de n n y un valor propio de A. E = {v


Rn : Av = v} es el espacio propio asociado a . La dimension de E es la
multiplicidad geometrica de .(m.g.). E = Ker(A I).

Teorema 7.7. Sea A de n n y un valor propio de A. Entonces la m.g.


de es menor o igual a la m.a. de .

Proposicion 7.8. Sea A de n n. Entonces

A tiene a lo mas n valores propios.

39
40 CAPITULO 7. VALORES Y VECTORES PROPIOS

Si A es diagonal, entonces los valores propios de A son los elementos


de su diagonal.
Si A es triangular superior o inferior, entonces los valores propios de A
son los elementos de su diagonal.
A es no invertible si y solo si 0 es valor propio de A.
Si es valor propio de A, entonces m es valor propio de Am , para
m N.
Si es valor propio de A y A es invertible, entonces 1 es valor propio
de A1 .
Si 1 y 2 son dos valores propios distintos de A, entonces E1 E2 =
{0}.
Observacion 7.9. Considerando |xI A| = cn xn + . . . + c1 x + c0 = (x
z1 ) . . . (x zn ) y tomando igualdad en los coeficientes c0 y cn1 se tiene:
La traza de A es la suma de sus valores propios.
El determinante de A es el producto de sus valores propios.
Definicion 7.10. Dado un polinomio q(x) = a0 + a1 x + . . . + am xm y A
matriz cuadrada, se define a q(A) como la matriz a0 I + a1 A + . . . + am Am .
Observacion 7.11. Dado un polinomio q(x) = a0 + a1 x + . . . + am xm y D
matriz diagonal, se tiene que q(D) es la matriz diagonal cuya diagonal se
forma con los elementos de la diagonal de D evaluados en q(x).
Teorema 7.12. Sea A matriz cuadrada. Entonces pA (A) es la matriz nula.
Definicion 7.13. Sea T : V V una transformacion lineal. v = 0 es un
vector propio de T si existe R tal que T (v) = v. Se dice que es el
valor propio de T asociado a v.
Definicion 7.14. Dos matrices cuadradas A y B se dicen similares si existe
una matriz L invertible tal que L1 AL = B.
Proposicion 7.15. Si A y B son similares, entonces tienen los mismos
valores propios (tienen el mismo polinomio caracterstico). Si L es tal que
L1 AL = B y v es vector propio de B asociado a , entonces Lv es vector
propio de A asociado a .
41

Definicion 7.16. Una matriz cuadrada A (o transformacion lineal T ) es


diagonalizable si y solo si es similar a una matriz diagonal.

Proposicion 7.17. Si A y B son similares, entonces A es diagonalizable si


y solo si B es diagonalizable.

Teorema 7.18. A es diagonalizable si y solo si existen n vectores propios


L.I. de A.

Corolario 7.19. Si A tiene n valores propios distintos, entonces A es diag-


onalizable.

Observacion 7.20. Si A es diagonalizable, entonces Am es diagonalizable,


para todo m N.
k k
( 7.21.)Si A es tal que Au = u, entonces A u = u. Luego
Observacion
lm Ak u = lm k u.
k k

Observacion 7.22. Si Av = v, entonces lm Ak v =


k

0 si || < 1,

v si = 1,

no existe si || > 1.

Observacion 7.23. Sea A es diagonalizable y q(x) un polinomio. Entonces

d 0 ... 0
q(d ) 0 ... 0

1 1
0 d2 0 0 q(d 2 ) 0 1
A = L .. L1 q(A) = L .. L
. .
0 0 ... dn 0 0 ... q(dn )

d 0 ... 0
ed1 0 . . . 0

1
d
0 d2 0 0 e2 0
A = L .. L1 eA = L .. L1
. .
0 0 ... dn 0 0 ... edn
42 CAPITULO 7. VALORES Y VECTORES PROPIOS
Captulo 8

Ortogonalidad

Definicion 8.1. Sea V un espacio vectorial sobre R. V se dice que es un


espacio vectorial con producto interno si existe una funcion de V V en R
tal que para todo u, v V , y R

uv =vu

u (v + w) = u v + u w

(u) v = (u v)

u u > 0 y u u = 0 si y solo si u = 0.

Definicion 8.2. Sea V un espacio vectorial sobre R con producto interno.

Dados u, v V , u es ortogonal a v si u v = 0. Notacion: u v.

{u1 , . . . , um } V es ortogonal si el conjunto no contiene a 0 y ui uj = 0


para todo i = j

{u1 , . . . , um } V es ortonormal si el conjunto es ortogonal y ui ui =


1, i.

Observacion 8.3. En adelante se considera al espacio vectorial Rn sobre R,


con el producto punto usual.

Observacion 8.4. u 0, para todo u Rn .

43
44 CAPITULO 8. ORTOGONALIDAD

Observacion 8.5. Sea {u1 , . . . , um } ortogonal y u = 1 u1 + . . . + m um ,


entonces
u ui
i =
ui u i
Observacion 8.6. Todo conjunto ortogonal es L.I., y por lo tanto una base
de su conjunto generado.

Definicion 8.7. Dado U Rn , el ortogonal a U es U = {w Rn : u w =


0}.

Proposicion 8.8. Sea Rn con el producto punto usual.

Si {u1 , . . . , um } es una base de U , entonces U = {w Rn : ui w =


0 para i = 1, . . . , m}.
0 U

U es un subespacio de Rn .

{0} = Rn .

Rn = {0}.

U = U

U U = {0}.

Sea {u1 , . . . , um } una base de U y A de n m la matriz A = [u1 . . . um ].


Entonces U = Ker(At ).

U U = Rn . Dado v Rn , existen unicos u U y w U tal que


v = u + w.

Proposicion 8.9. Sea S = {u1 , . . . , um } un conjunto de vectores en Rn y A


de n m la matriz A = [u1 . . . um ]. Entonces

S es LI si y solo si At A es positiva definida.

S es ortogonal si y solo si At A es diagonal y positiva definida.

S es ortonormal si y solo si At A = I.
45

Definicion 8.10. Sea U subespacio de Rn y v Rn tal que u U y w U


donde v = u + w.
La proyeccion ortogonal sobre U es P : Rn Rn , tal que P (v) = u.

La proyeccion ortogonal sobre U es Q : Rn Rn , tal que Q(v) = w.


Proposicion 8.11. Sea U subespacio de Rn y v Rn tal que u U y
w U donde v = u + w.
Si {u1 , . . . , um } es una base de U y A de n m es la matriz A =
[u1 . . . um ], entonces u = Ax, donde x es tal que At Ax = At v.

Si {w1 , . . . , wr } es una base de U y B de n r es la matriz B =


[w1 . . . wr ], entonces w = By, donde y es tal que B t By = B t v.
Proposicion 8.12. Sea U subespacio de Rn , P la proyeccion ortogonal sobre
U y Q la proyeccion ortogonal sobre U . Entonces
P y Q son transformaciones lineales.

P + Q = I (como t.l.).

Ker(P ) = U , Im(P ) = U .

Ker(Q) = U , Im(Q) = U .

P 2 = P y Q2 = Q (como t.l.).

Si {u1 , . . . , um } es una base de U y A de n m es la matriz A =


[u1 . . . um ], entonces la matriz de P con respecto a la base canonica es
P = A(At A)1 At .

Si {w1 , . . . , wr } es una base de U y B de n r es la matriz B =


[w1 . . . wr ], entonces la matriz de Q con respecto a la base canonica es
Q = B(B t B)1 B t .

P y Q son simetricas.

P 2 = P y Q2 = Q (como matrices).

P + Q = I (como matrices).

2P I = R es matriz de reflexion, es simetrica y R2 = I.


46 CAPITULO 8. ORTOGONALIDAD

P , Q y R son diagonalizables. Para P : E1 = U y E0 = U . Para Q:


E1 = U y E0 = U . Para R: E1 = U y E1 = U .

Proposicion 8.13. Gram Schmidt: Dado S = {v1 , . . . , vm } L.I., una base


ortogonal de < S > es {u1 , . . . , um }, donde:

u 1 = v1
v 2 u1
u 2 = v2 u1
u 1 u1
v 3 u1 v 3 u2
u 3 = v3 u1 u2
u 1 u1 u2 u2
. . ..

Observacion 8.14. Descomposicion QR.


Sea A = [v1 vm ] una matriz con columnas L.I. El problema es encontrar
una matriz cuyas columnas formen un conjunto ortonormal que genere lo
mismo que las columnas de A, es decir se busca una matriz Q tal que:

Q = [u1 um ], Im(Q) = Im(A) y Qt Q = I.


Sea R la matriz cambio de base de m m, es decir A = QR. Entonces

At A = (QR)t QR = Rt Qt QR = Rt IR = Rt R.
Dado que A es inyectiva, luego At A es positiva definida y basta tomar su
descomposicion con raz cuadrada R. Obteniendo R se calcula Q = AR1 .

1 1 1
0 0 0
Ejemplo 8.15. Sea U =< 1 , 2 , 3
>. Determine una base
1 0 1
ortonormal de U .

Solucion:

1 1 1
0 0 0
Sea A = 1 2 3
. Entonces
1 0 1
47
[ ]
3 3 3
At A = 3 5 5
3 5 11
[ ][ ]
3 0 0 3 3 3
= 3 0
2 0 2 2 = Rt R
3 2 6 0 0 6

[ ]
1/ 3 1/2 0
Luego R1 = 0 1/ 2 1/6 .
0 0 1/ 6

1 3 0 2 6
0 0 0 .
Entonces Q = 1 3 1 2 1 6

1 3 1 2 1 6

1 3 0 2 6
0 0 0
Entonces U =< 1 3 , 1 2 , 1 6 >

1 3 1 2 1 6

Proposicion 8.16. Sea el sistema Ax = b inconsistente y x tal que Ax b


es mnima. Entonces x es tal que Ax es la proyeccion de b sobre Im(A).
48 CAPITULO 8. ORTOGONALIDAD
Captulo 9

Matrices Simetricas

Definicion 9.1. U de n n es ortogonal si U t U = I.

Teorema 9.2. Sea P de n n. Entonces las siguientes proposiciones son


equivalentes:

U es ortogonal.

U x = x, para todo x Rn .

U x U y = x y, para todo x, y Rn .

Si {v1 , . . . , vm } es ortonormal, entonces {U v1 , . . . , U vm } es ortonormal.

Proposicion 9.3. Sea A simetrica. Entonces

A tiene solo valores propios reales.

Si 1 y 2 son dos valores propios distintos de A tal que v1 E1 y


v2 E2 , entonces v1 v2 = 0.

Definicion 9.4. Una matriz A se dice ortogonalmente diagonalizable si ex-


iste U ortogonal y D diagonal, tal que U t AU = D.

Teorema 9.5. A es simetrica si y solo si A es ortogonalmente diagonalizable.

Corolario 9.6. A simetrica es positiva definida si y solo si todos sus valores


propios son positivos.

49
50 CAPITULO 9. MATRICES SIMETRICAS

Definicion 9.7. Si A es simetrica y v1 , . . . , vn son vectores propios (ortonor-


males) asociados a los valores propios 1 , . . . , n , entonces la descomposicion
espectral de A es:
A = 1 v1 v1t + . . . + n vn vnt .

Observacion 9.8. Si A es de n m, se tiene que

1. Ker(At A) = Ker(A).

2. Im(At A) = Im(At ).

Teorema 9.9. Sea A de n m. Entonces existen U de m m y V de n n


matrices ortogonales tal que
s 0

1
..
.
V t AU =
0 sr
0 nm

Observacion 9.10. Como obtener U ?

La matriz At A es simetrica y semi definida positiva. Entonces existe U de


m m matriz ortogonal tal que

d1
..
.

U A AU =
dr
t t
0 con d1 d2 dr > 0.

..
.
0 nm

Sea U1 matriz de m r que contiene vectores propios de valores propios no


nulos y U2 matriz de m (m r) que contiene los vectores propios del valor
propio 0. Entonces se tiene que:

U = [U1 U2 ].

Los vectores columna de U1 forman una base de Im(At A) = Im(At ).

Los vectores columna de U2 forman una base de Ker(At A) = Ker(A).


51

d1
(AU1 )t (AU1 ) = D = ..
.
dr nm

Observacion 9.11. Como obtener V ?


1
Sea V1 de n r la matriz V1 = AU1 D .

Sea V2 de n (n r) la matriz cuyas columnas completan una base ortogonal


con las columnas de V1 .

Entonces se considera V = [V1 V2 ].

S-ar putea să vă placă și