Documente Academic
Documente Profesional
Documente Cultură
Facultad de Matematicas
Algebra
Lineal MAT1203-2
Segundo Semestre 2014
~u2
~u3
...
~un ]T ~v = ~0
Por lo que si queremos buscar un vector que sea ortogonal a otros n vectores, debemos resolver la
ecuacion:
AT ~x = ~0
Donde A tiene por columna a cada uno de los n vectores.
Profesora: Carla Barrios (cbarrios@mat.puc.cl)
Ayudante: Ignacio Labarca (ijlabarca@uc.cl)
Notemos que si un vector ~v es ortogonal a los vectores ~u1 , ~u2 , ~u3 , . . . , ~un , tambien sera ortogonal a
cualquier combinacion lineal de dichos vectores, es decir:
(1~u1 + 2~u2 + . . . + n~un ) ~v = 0
Esto nos permite deducir que si {~u1 , ~u2 , ~u3 , . . . , ~un } es una base de un espacio vectorial U ,
entonces ~v es ortogonal a cualquier vector de U .
Se define entonces al espacio vectorial U = {~x Rn : ~x ~u, ~u U }. Es decir, el espacio de
vectores que son ortogonales a cualquier vector de U .
De esta forma, podemos definir una base de U como una base para Ker(AT ), donde A es una
matriz que tiene por columna a los vectores que forman una base de U .
Proyecciones Ortogonales
A continuacion se presenta el esquema de la situacion. Tenemos un espacio vectorial U con una
base {~u1 , ~u2 , ~u3 , . . . , ~un } conocida. Queremos saber cu
al es la proyecci
on ortogonal de un
~
vector b sobre el espacio U .
Lo primero que debemos hacer es entender la idea intuitiva detras de esto. La proyeccion
ortogonal que deja un vector ~b sobre un espacio U es equivalente a la sombra que deja el vector
sobre dicho espacio.
Para empezar, notemos que ~vp pertenece a U . Por lo tanto debe ser una combinacion lineal de los
vectores de la base de U . Es decir, sea ~x Rn un vector de coeficientes ~x = (a1 , a2 , a3 , . . . , an ),
tenemos:
~vp = A~x
De la imagen podemos notar que:
~b = ~vp + w
~ = A~x + w
~
Como w
~ U , entonces w
~ Ker(AT ). Al multiplicar la expresion anterior por AT a la izquierda
obtenemos:
~ = AT A~x
AT~b = AT A~x + AT w
Se puede demostrar (Ejercicio) que AT A es invertible, luego:
~x = (AT A)1 AT~b
Como ~vp = A~x, al multiplicar por A obtenemos:
~vp = A~x = A(AT A)1 AT~b
De esta forma, podemos generalizar esto para cualquier vector ~b. Obteniendo que la proyeccion
ortogonal de un vector ~bcualquiera sobre U es:
~vp = P~b
Donde P = A(AT A)1 AT es la matriz de proyecci
on.
Algunas propiedades de esta matriz son:
P 2 = P , y en general P n = P para n = 1, 2, . . .
P = PT
(Nota: Si se le pide demostrar que una matriz es matriz de proyeccion, basta demostrar las dos
propiedades anteriores)
Puede ser conveniente en algunos casos no hallar explcitamente P para poder encontrar P~b. Esto
se debe a que el calculo de (AT A)1 podra no ser sencillo.
Es por esta razon que a veces resulta mejor resolver el sistema:
AT A~x = AT~b
Pues este es simplemente un sistema de ecuaciones. De esta forma, encontramos ~x y as P~b = A~x.
Profesora: Carla Barrios (cbarrios@mat.puc.cl)
Ayudante: Ignacio Labarca (ijlabarca@uc.cl)
Reflexiones
Consideremos ahora la intencion de reflejar un vector sobre un espacio vectorial U .
Intuitivamente esto consiste en tratar a U como si fuera un espejo. El vector reflejado R~b
estara del otro lado del espejo y tendra la misma magnitud que ~b, como se observa en la imagen:
Mnimos Cuadrados
El problema de mnimos cuadrados consiste en lo siguiente:
Se tiene un espacio vectorial U , del cual ademas se conoce una base
Se tiene un vector ~b que no pertenece a U .
La pregunta es, Cual es el vector de U que esta mas cerca de ~b?
Matematicamente, esto se expresa de la siguiente manera: un vector que pertenezca a U sera una
combinacion lineal de los vectores de la base de U . Llamemos A a la matriz que tiene por
columnas a cada uno de los vectores de la base. As, un vector arbitrario perteneciente a U es
A~x, donde ~x es un vector de coeficientes.
La pregunta se expresa de la siguiente manera:
~
Que vector minimiza a A~x b?
La respuesta es A~x = P~b, es decir, la proyeccion ortogonal de ~b sobre U .
Tambien se suele preguntar de la forma, que vector resuelve el problema de mnimos cuadrados
dado por:
A~x = ~b?
En este caso, se esta preguntando especficamente por el vector ~x.
Nota: Al error de mnimos cuadrados se le define como, una vez conocido el vector ~x que resuelve
el problema:
A~x ~b
A continuacion, se describe el Proceso de Gram-Schmidt, que nos permite hallar esta base.
Primero se escoge un vector cualquiera de la base conocida, digamos que es ~v1 y definamos
w
~ 1 = ~v1
Como buscamos generar una base ortogonal, necesitamos hallar un vector w
~ 2 que sea
ortogonal a w
~ 1.
~v2 w
~1
w
~1 .
||w
~ 1 ||2
(Es decir, el segundo vector de la base D menos su proyeccion ortogonal sobre w
~ 1)
~v3 w
~2
~v3 w
~1
~1
w
~2
2w
||w
~ 1 ||
||w
~ 2 ||2
~vk w
~2
~vk w
~ k1
~vk w
~1
~1
~2 . . .
w
~ k1
2w
2w
||w
~ 1 ||
||w
~ 2 ||
||w
~ k1 ||2
Por u
ltimo, si quisieramos ser un poco mas rebuscados, podramos pedir una base ortonormal.
Esta consiste en una base de vectores unitarios (de norma 1) y ortogonales. Una vez conseguida
la base ortogonal, para obtener una base ortonormal basta con dividir cada vector por su norma.
Descomposici
on QR
La descomposicion QR consiste en otra manera mas de poder factorizar matrices. Tal como el
nombre lo dice, la idea es poder escribir:
A = QR
Las condiciones que existen son:
A debe ser una matriz de n m de columnas L.I.
Q es una matriz ortogonal, es decir, tiene columnas ortonormales (notar la incoherencia
del nombre) y satisface QQT = I (Es decir, Q1 = QT ).
Im(Q) = Im(A)
R es una matriz triangular superior.
La forma de obtener esta factorizacion se basa en el Proceso de Gram-Schmidt (Existen otros
metodos).
C
omo calcular Q y R?
Sean ~a1 , ~a2 , . . . , ~am los vectores columna de la matriz A, hallemos otros m vectores
ortonormales a partir de estos, usando Gram-Schmidt.
~u1 = ~a1 , ~v1 =
~u1
||~u1 ||
~v2 =
~u2
||~u2 ||
~v3 =
~u3
||~u3 ||
~vm =
~um
||~um ||
A = QR = [~v1 ~v2
...
0
0
||~u3 ||
~vm ]
..
..
..
.
.
.
0
0
0
. . . (~am ~v1 )
. . . (~am ~v2 )
. . . (~am ~v3 )
..
...
.
. . . ||~um ||
Otra opcion para calcular R (y no tener que fijarse en cada uno de los productos punto que hay
que calcular) es por el hecho de que como QT = Q1 , luego, si A = QR R = QT A (a
un es
necesario usar Gram-Schmidt).
Diagonalizaci
on Ortogonal
Sea A una matriz cuadrada y simetrica (Es decir, A = AT ), entonces:
Todos sus valores propios son reales.
Es diagonalizable.
De hecho, no es simplemente diagonalizable, sino que ortogonalmente diagonalizable.
En el caso de A simetrica, vectores propios provenientes de valores propios distintos son
ortogonales, de que sirve esto?
Sabemos que si A es diagonalizable, entonces:
A = P DP 1
Donde P es la matriz que tiene por columnas a los vectores propios, asociados a cada valor
propio ubicado en la diagonal de D.
Ahora sabemos que dichos vectores son ortogonales, por lo tanto si todos los valores propios son
distintos, al normalizar cada vector propio, la matriz P es ortogonal, y P 1 = P T .
Que sucede si de un valor propio salen dos o mas vectores propios L.I? Estos vectores no
necesariamente seran ortogonales entre s, pero a partir de ellos se pueden obtener nuevos
vectores ortogonales entre s a traves del proceso de Gram-Schmidt. Por lo tanto, se sigue
cumpliendo la posibilidad de obtener P tal que P 1 = P T