Sunteți pe pagina 1din 10

ORTOGONALIDAD

I. Producto escalar (interior) y norma (longitud).


Ortogonalidad.
II. Conjuntos ortogonales.
III. Proyecciones ortogonales.
IV. El proceso de Gram-Schmidt.

I. PRODUCTO ESCALAR Y NORMA.

1. Definición (Producto escalar usual en ¡ n ).- “Sean


x, y ∈ ¡ n , escritos en forma matricial:
x = [ x1 x2 L xn ] , y = [ y1 y2 L yn ]
T T

Se define su producto escalar, y se escribe x ⋅ y o bien


x, y , al escalar:
n
x⋅ y = x y =
T
∑i= 1
xi yi ”

2. Definición (Producto escalar usual en £ n ).- “Sean


x, y ∈ £ n , escritos en forma matricial:
x = [ x1 x2 L xn ] , y = [ y1 y2 L yn ]
T T

Se define su producto escalar, y se escribe x ⋅ y o bien


x, y , al escalar:
n
x⋅ y = x y =
H
∑i= 1
xi yi ”
ORTOGONALIDAD

3. Propiedades del producto escalar.

En ¡ n : ∀ x, y , z ∈ ¡ n , ∀ α ∈ ¡
1. x ⋅ y = y ⋅ x
2. x ⋅ ( y + z ) = x ⋅ y + x ⋅ z
3. x ⋅ ( α y ) = α ( x ⋅ y )
4. ( α x ) ⋅ y = α ( x ⋅ y )
5. x ⋅ x ≥ 0 , además: x ⋅ x = 0 ⇔ x = 0

En £ n : ∀ x, y , z ∈ £ n , ∀ α ∈ £
1. x ⋅ y = y ⋅ x
2. x ⋅ ( y + z ) = x ⋅ y + x ⋅ z
3. x ⋅ ( α y ) = α ( x ⋅ y )
4. ( α x ) ⋅ y = α ( x ⋅ y )
5. x ⋅ x ≥ 0 , además: x ⋅ x = 0 ⇔ x = 0

4. Definición (Norma en ¡ n ).- “Sea x ∈ ¡ n , escrito en


forma matricial:
x = [ x1 x2 L xn ]
T

Se define norma de x, y se escribe x , al escalar:


n


2
x = + x x= + T
xi ”
i= 1
ORTOGONALIDAD

5. Definición (Norma en £ n ).- “Sea x ∈ £ n , escrito en


forma matricial:
x = [ x1 x2 L xn ]
T

Se define norma de x, y se escribe x , al escalar:


n


2
x = + x x= +
H
xi ”
i= 1

6. Propiedades de la norma.

En K n : ∀ x, y ∈ K n , ∀ α ∈ K
1. x ≥ 0, x = 0⇔ x= 0
2. α x = α x
3. x ⋅ y ≤ x y
4. x + y ≤ x + y

7. Definición (Vectores unitarios).- “Si x ∈ K n , se dice


que x es unitario, si verifica x = 1 ”.
8. Definición (Distancia entre vectores).- “Si x, y ∈ K n ,
se define distancia entre x e y, al escalar
d ( x, y ) = x − y ”.
ORTOGONALIDAD

9. Definición (Vectores ortogonales).- “Si x, y ∈ K n , se


dice que x e y son ortogonales, si verifican x ⋅ y = 0 ”.

10. Teorema de Pitágoras.- “Dos vectores x, y ∈ K n , son


2 2 2
ortogonales si y sólo si x + y = x + y ”.

11. Definición (Complemento ortogonal).- “Sea V un


subespacio vectorial de K n , se define complemento
ortogonal de V, se escribe V ⊥ , al conjunto de vectores
V ⊥ = { x ∈ K n : x ⋅ y = 0, ∀ y ∈ V } ”.

12. Teorema.- “El complemento ortogonal de un s.e.v. es


un subespacio vectorial”.

13. Teorema.- “Sea A una matriz mxn. Entonces el


complemento ortogonal del espacio de filas de A es el
espacio nulo de A, y el complemento ortogonal del
espacio de la columnas es el espacio nulo de AT;
( FilA) ( ColA)
⊥ ⊥
= NulA, = NulAT ”.

II. CONJUNTOS ORTOGONALES.

1. { }
Definición.- “Sea S = v1 , v2 ,K , v p ⊂ K , se dice
n

que S es un conjunto ortogonal si cada par de


vectores distintos en el conjunto es ortogonal, es
ORTOGONALIDAD

decir, vi ⋅ v j = 0 ∀ i ≠ j . Si además S es una base,


entonces se denominará base ortogonal”.

2. { }
Definición.- “Sea R = u1 , u2 ,K , u p ⊂ K , se dice
n

que R es un conjunto ortonornal si es ortogonal y


todos sus vectores unitarios. Si además R es una
base, entonces se denominará base ortonornal”

Definición.- “Sea A = [ a1 a2 K an ] ∈ K
m× n
3. una
matriz, se dice que A tiene las columnas ortogonales
(u ortonormales) si el conjunto de vectores columna
de K m forman un conjunto ortogonal (ortonormal)”.

4. Definición.- “Sea Q una matriz cuadrada de orden n,


se dice que Q es ortogonal (si está construida sobre
¡ ) o unitaria (si está construida sobre £ ) si sus
vectores columna forman un conjunto ortonornal, es
decir, se verifica Q Q = I n sobre ¡ , o bien
T

Q H Q = In sobre £ ”.

5. Teorema.- “Si Q es una matriz con columnas


ortonormales, y x, y ∈ K n dos vectores. Entonces se
verifican las siguientes propiedades:
a) Qx = x .
b) ( Qx ) . ( Qy ) = x. y
c) ( Qx ) . ( Qy ) = 0 ⇔ x. y = 0 ”.
ORTOGONALIDAD

6. Teorema.- “Si S = { v1 , v2 ,K , v p } ⊂ K n es un
conjunto ortogonal de vectores no nulos, entonces S
es un sistema libre, y por lo tanto es una base del
subespacio generado por S”.

7. {
Teorema.- “Sea B = u1 , u2 ,K , u p ⊂ K una base
n
}
ortogonal de un subespacio W. Entonces todo vector
x ∈ W puede escribirse:
 x.u1   x.u2   x.u p  p
 x.ui 
x= 
u .u
 u1 + 
u .u
 u2 + L +   u p = ∑   ui
 1 1  2 2  u p .u p  i = 1  ui .ui 

En el caso en que la base sea ortonormal esa


expresión queda reducida a:
p
x= ∑ ( x.u ) u ”.
i= 1
i i

III. PROYECCIONES ORTOGONALES.

1. Definición.- “ Sea W un subespacio de K n ,


B = { u1 , u2 ,K , u p } ⊂ K n una base ortogonal de
W y x ∈ K n un vector cualquiera , entonces, se
define:
p
 ui .x  p
xW = proyW ( x) = ∑   ui = ∑ proyui ( x )
i = 1  ui .ui  i= 1

como la proyección ortogonal del vector x sobre el


subespacio W, y cada sumando de la expresión es
ORTOGONALIDAD

la proyección ortogonal del vector x sobre los


subespacios generados por cada vector de la base.
Si la base es ortonormal, esa expresión queda
reducida a:
p p
xW = proyW ( x) = ∑ ( u .x ) u = ∑
i= 1
i i
i= 1
proyui ( x ) ”.

2. Teorema de la descomposición ortogonal.-


“Sea W un subespacio de Kn ,
B = { u1 , u2 ,K , u p } ⊂ K n una base ortogonal de
W y x ∈ K n un vector cualquiera , entonces, se
puede escribir de forma única:
x = xW + y , siendo
 ui .x 
p p
xW = proyW ( x) = ∑   ui = ∑ proyui ( x )
u .u
i= 1  i i  i= 1

e y = x − xW es un vector del complemento


ortogonal de W”

3. Teorema (propiedades de las proyecciones


ortogonales).-
(1) proyW ( x) = x ⇔ x ∈ W
(2) Linealidad: proy (α x + β y ) = α proy ( x) + β proy ( y )
W W W

(3) proyW ⊥ ( x) = x − proyW ( x )

4. Teorema (propiedades del complemento


ortogonal).-
(1) dim W + dim W ⊥ = n
(W ⊥ )

(2) =W
ORTOGONALIDAD

(3) B = BW ∪ BW ⊥ es base de K n

5. Teorema (Matriz canónica de la proyección


ortogonal).-
“Sea W un subespacio de Kn ,
B = { u1 , u2 ,K , u p } ⊂ K n una base ortonormal de
W y x ∈ K n un vector cualquiera , entonces:
proyW ( x ) = QQT x , siendo
Q =  u1 u2 K u p  ∈ K n× p que verifica QT Q = I p ”

6. Teorema de la aproximación óptima.-


“Sea W un subespacio de K n , y x ∈ K n un vector
cualquiera, entonces:
x − proyW ( x ) ≤ x − y ∀ y ∈ W .
La desigualdad es estricta si y ≠ proyW ( x ) ”

III. EL PROCESO DE GRAM-SCHMIDT.

1. Teorema de Gram-Schmidt.-
“Sea B = {v , v ,, v } base de W subespacio vectorial
1 2 p

de K , definiendo la serie de vectores:


n

w1 = v1 
w1.v2 
w2 = v2 − w1 
w1.w1 

w1.v3 w2 .v3  j− 1
wi .v j
w3 = v3 −
w1.w1
w1 − w2 w = v j −
w2 .w2  j ∑
i= 1 wi .wi
wi ; j = 1,...,p
M 
p− 1

wi v p 
wp = v p − ∑ wi
i = 1 wi .wi


ORTOGONALIDAD

a) El sistema {w , w ,  , w } es una base ortogonal de W.


1 2 p

b) Gen { w , w ,  , w } = Gen {v , v ,  , v } para j =1, ..., p”


1 2 j 1 2 j

Demostración.-
a) La construcción de los vectores asegura que wj es

ortogonal a Gen { w1 , w2 ,L , w j − 1} , razonando por


inducción se llega a que { w1 , w2 ,  , w p } es base
ortogonal de W.
Veamos como se realiza la inducción:
El hecho de que {v , v ,, v } sea base, asegura 1 2 p

independencia lineal y no nulos.


Para j=1 y 2 , w1 = v1 y w2 = v2 − proyw (v2 ) y v 2 no 1

pertenece a Gen{ w }, entonces w pertenece al


1 2

complemento ortogonal de Gen{ w }, luego es ortogonal 1

a w.1

Supongámoslo cierto para j = k, entonces para j =


k+1, wk + 1 = vk + 1 − proyW (vk + 1 ) y v k + 1 ∉ Gen{ w1 , w2 ,..., wk } ,
k

entonces wk + 1 pertenece al complemento ortogonal de


Gen{ w1 , w2 ,..., wk } , luego es ortogonal a todo w1 , w2 ,..., wk .
q. e. d.

b) INDUCCIÓN:
Claramente cierto para j = 1 ya que w1 = v1.
Supongamos que es cierto para j = k, entonces
Gen { w , w ,  , w } = Gen { v , v , , v } = Wk.
1 2 k 1 2 k

v ∉W
Como wk + 1 = vk + 1 − proyWk (vk + 1 ) , y además  v ≠ 0 ya
k+1 k

 k+1
que es linealmente independiente a los anteriores, por lo
tanto, por el teorema de la base se puede sustituir vk+1
por wk+1.

q. e. d.
ORTOGONALIDAD

S-ar putea să vă placă și