Sunteți pe pagina 1din 27

Contenidos fundamentales de lgebra II

pgina 1

1 ESPACIOS VECTORIALES EUCLDEOS Y HERMTICOS


1.1 Producto escalar y norma asociada
, : E E R con

Sea E un espacio vectorial real. Un producto escalar en E es una aplicacin: las tres propiedades siguientes: a) Simetra: b) Lineal en la 1 variable: c) Definida-positiva u,v = v, u

u + v, w = u,w + v, w
u,u > 0, si u 0; u,u = 0, slo si u = 0

El producto escalar estndar ( eucldeo) en R n se expresa matricialmente en la forma:


x, y = xT y = y T x = x1 y1 + x2 y2 + ... + xn yn .

1.2

Definicin de espacio vectorial eucldeo

Un espacio vectorial eucldeo es un espacio vectorial real, de dimensin finita, dotado de un producto escalar. 1.3 Definicin de norma de un vector
: E R con las siguientes propiedades:

Una norma es una aplicacin 1. 2. 3.

u 0, u E ;

u = 0 si y slo si u = 0

u + v u + v , u, v E

u = u , R, u E

En un mismo espacio vectorial pueden definirse distintas normas que cumplan estas condiciones. La norma es una medida del tamao de un vector. La raz cuadrada positiva del producto escalar u, u cumple las condiciones de las normas. En este caso, se dice que la norma est inducida por el producto escalar: u, u = u . 1.4 Desigualdad de Cauchy-Schwarz Establece que: u, v u v . La igualdad se satisface si y slo si u y v son linealmente dependientes. 1.5 ngulo entre dos vectores

La desigualdad de Cauchy-Schwarz se puede escribir en una forma que permite definir el coseno del ngulo formado por dos vectores no nulos:
u v u, v u v
1.6

u, v u v

cos

u, v u v

Familias de vectores ortogonales e independencia lineal

Dos vectores u, v E son ortogonales si u, v = 0 . El vector u E es unitario si u = 1 .

El vector nulo es el nico vector que es ortogonal a cualquier otro vector del espacio. Si en un espacio de dimensin n un vector es ortogonal a una base, dicho vector es el vector nulo. Una familia de vectores {u1 , u 2 ,..., u n } , no nulos y ortogonales dos a dos, es una familia libre, es decir, formada por vectores linealmente independientes. Si adems los vectores son unitarios, la

Contenidos fundamentales de lgebra II

pgina 2

familia se dice ortonormal u ortonormada. En un espacio de dimensin n dicha familia forma una base ortonormal. Si Q [q1 q 2 " q n ] R nn es una matriz cuyas columnas qi son los vectores de una base ortonormal (respecto del producto escalar estndar), las coordenadas de un vector a en esa base son:

a = 1q1 + 2q 2 + ... + nq n = Q
1.7 Relacin de polarizacin

= QT a

v, w =

1 2 2 v+w v w 2

)
2 2 2

Sirve para expresar el producto escalar en funcin de la norma por l inducida:


1.8 Teorema de Pitgoras generalizado
2 2 = 12 v1 + " + p vp . 2 2

Sean los vectores v, w E ; v y w son ortogonales si y slo si: v + w = v + w . Para un conjunto de p vectores ortogonales se verifica: 1v1 + " + p v p
1.9

Expresin matricial del producto escalar: matriz de Gram

Sea cual sea el espacio eucldeo E, con una base cualquiera ( b1 , b2 ,..., bn ) , si los vectores u y v se expresan en la forma u = 1b1 + 2b2 + ... + nbn , v = 1b1 + 2b2 + ... + nbn , su producto escalar se representa matricialmente en la forma:
u,v =

b, b = i =1 j =1 i j bi , b j = uT Gv; i =1 i i j =1 j j
n n n n

u, v R n , G R nn

siendo uT = [1 2 " n ] , vT = [ 1 2 " n ] y gij = bi , b j . G es la matriz de Gram, que es simtrica y definida-positiva pues u,u = uT Gu > 0, u 0 . Si la base es ortonormal G = I . El producto escalar estndar en R n se expresa en la forma: u, v = uT v
1.10 Definicin de matriz ortogonal

Una matriz Q es ortogonal si es cuadrada y sus columnas constituyen una base ortonormal respecn to al producto escalar estndar: qT i q j = ij en R . Una matriz ortogonal satisface: QT Q = QQT = I,

(Q

= QT )

Una matriz rectangular Q R mn ( m > n ) cuyas columnas tienen norma unidad y son ortogonales entre s, cumple QT Q = I , pero no es una matriz ortogonal porque no es cuadrada. En general se cumple QQT I . Esta matriz se puede denominar matriz de columnas ortonormales.
1.11 Mtodo de ortonormalizacin de Gram-Schmidt

A partir de un conjunto de n vectores linealmente independientes ai, pertenecientes a un espacio de dimensin m ( m n ), se puede hallar un conjunto de n vectores qi que constituyen una familia ortonormal, de modo que L a1 , a 2 ,..., a j = L q1 , q 2 ,..., q j , j = 1, 2,..., n. El vector q1 se halla normalizando a1. El vector q2 se halla eliminando de a2 su componente en la direccin de q1 y normalizndolo. El vector qi se halla quitando a ai sus componentes segn los vectores q1,qi1, y normalizndolo. Utilizando un vector intermedio bi: bi = ai ai , q1 q1 ai , q 2 q 2 ... ai , qi 1 qi 1 , qi = bi bi

Contenidos fundamentales de lgebra II

pgina 3

Si el nmero de vectores es igual a la dimensin del espacio ( n = m ), dichos vectores qi constituyen una base ortonormal. Si n < m , dichos vectores pueden completarse por el teorema de la base incompleta hasta formar una base ortonormada del espacio.
1.12 Factorizacin QR de una matriz A

Si las columnas de A son linealmente independientes y se ortonormalizan por Gram-Schmidt, cada vector ai se expresa como combinacin lineal de q1,,qi. Esta propiedad se expresa matricialmente en la forma A=QR, donde Q es una matriz de columnas ortonormales y R es triangular superior con elementos diagonales positivos. En estas condiciones, esta factorizacin es nica. Los elementos de la columna i de R indican las coordenadas de ai respecto de la base q1,,qn.
1.13 Subespacio ortogonal a un conjunto de vectores

Sea E un espacio eucldeo y F E un conjunto no vaco de vectores. Se define el subespacio ortogonal a F en la forma:

F = {u E : u , v = 0, v F }
1.14 Subespacios ortogonales y suplemento ortogonal de un subespacio

Dos subespacios F y G son ortogonales cuando u , v = 0, u F y v G . Sea E un espacio vectorial de dimensin finita n, y sea F en subespacio vectorial de E: F E . El suplemento ortogonal de F, denotado como F , es nico y es el subespacio de todos los vectores que son ortogonales a cualquier vector de F. La suma de F y F es directa: E = F F . La suma de las dimensiones de F y F es n (la dimensin de E). En toda matriz A R mn se verifica que Ker ( A ) = Im ( AT ) , y que Im ( A ) = Ker ( AT ) .

1.15 Espacios hermticos

Un espacio vectorial hermtico es un espacio vectorial complejo, de dimensin finita, dotado de un producto escalar. El producto escalar en los espacios hermticos se define de forma diferente que en los espacios eucldeos. En este caso el producto escalar cumple las propiedades siguientes:

a) Hermtica: b) Lineal: c) Positiva:

u,v = v, u

u + v, w = u,w + v, w
u,u > 0, si u 0;

( slo en la primera variable )


2 2

u,u = 0, si y slo si u = 0

El producto escalar estndar en Cn es u, v = vT u . La norma inducida es u = uT u = ui


1.16 Matrices hermticas y matrices unitarias

La matriz conjugada transpuesta de una matriz compleja A se denota en la forma A H . Se dice que una matriz es hermtica cuando es igual a su conjugada transpuesta: A H = A . En el caso real, las matrices hermticas son matrices simtricas. Se llama matriz unitaria a una matriz cuadrada y compleja cuyas columnas tienen norma unidad y son ortogonales dos a dos con el producto escalar estndar de Cn . La inversa de una matriz unitaria es su matriz conjugada transpuesta: U H U = UU H = I, ( U 1 = U H ) .

Contenidos fundamentales de lgebra II

pgina 4

2 PROYECCIONES, SIMETRAS Y GIROS


2.1 Matriz de proyeccin ortogonal sobre un subespacio

Sea E un espacio eucldeo o hermtico, y F un subespacio de E. Sea v E un vector cualquiera de E. Se dice que w es la proyeccin ortogonal de v sobre F si w F y v w F . Si E = R n existe una matriz de proyeccin P tal que w = Pv .
2.2 Propiedades de la matriz de proyeccin

La matriz P es una matriz de proyeccin si es idempotente: P2 = P . Si adems P es hermtica, se trata de una proyeccin ortogonal (no es una matriz ortogonal). En lo sucesivo slo se considerarn proyecciones ortogonales. El subespacio F sobre el que se proyecta est determinado por F = Im ( P ) . En general, salvo cuando F = E ( P = I ) , las proyecciones no son transformaciones invertibles, lo que se refleja en que rango ( P ) = dim ( F ) < n . El subespacio F = Ker ( P ) est formado por los vectores que tienen proyeccin nula. Si P es la matriz de proyeccin sobre el subespacio F, (IP) es la matriz de proyeccin sobre F . La matriz de proyeccin sobre el subespacio de dimensin 1 determinado por el vector v es: P= vv H vH v

Anlogamente, si las columnas de A son independientes, la matriz de proyeccin sobre el subespacio Im ( A ) = F es: P = A ( AH A) AH
1

2.3

Teorema de la proyeccin ortogonal

Sea E un espacio eucldeo o hermtico, y F un subespacio de E. Sea v E un vector cualquiera de E. Las tres condiciones siguientes son equivalentes: w proyeccin de v sobre F

v w

= min v w
wF

Adems, dicha aproximacin ptima es nica. A partir de aqu slo se considerar el producto escalar estndar.
2.4 Simetra ortogonal respecto de un subespacio

La matriz de simetra S respecto a un subespacio F est estrechamente relacionada con la matriz de proyeccin P respecto a dicho subespacio: el vector ms su simtrico es dos veces la proyeccin:
v + Sv = 2Pv

S = 2P I

La simetra es invertible: si se aplica dos veces se obtiene el punto inicial. La matriz de simetra es simtrica y unitaria, es decir, coincide con su inversa: S 2 = I S 1 = S H = S
2.5 Transformaciones de Householder

La matriz de Householder H representa una simetra respecto a un hiperplano. La matriz de proyeccin sobre el hiperplano (cuyo complemento ortogonal est generado por v) ser: P = I vv H v H v . La matriz de simetra respecto a este hiperplano ser:

Contenidos fundamentales de lgebra II

pgina 5

H = 2P I = 2I 2

vv H vv H I I = 2 vH v vH v

( H = I 2uu
T

, si u = 1)

La matriz de Householder H se utiliza para trasformar un vector cualquiera x sobre el vector e1: Hx = x e1 = x 0 " 0 Para ello basta tomar como vector v el vector v = x x e1 .
2.6 Factorizacin QR con matrices de Householder

Las matrices de Householder se pueden utilizar para hacer ceros en los elementos de una matriz A debajo de la diagonal, en forma similar al proceso de eliminacin de Gauss. Para hacer mk ceros en la columna k de la matriz A se utiliza una matriz H R ( m-k+1)( m-k+1) , completada con k1 filas y columnas de la matriz identidad. El proceso se puede expresar en la forma: U n 1...U 2U1A = R
1 1 1 A = U1 U 2 ...U n 1R = U1 U 2 ...U n 1R QR

Esta es la llamada factorizacin QR completa, porque la matriz Q obtenida es cuadrada y ortogonal. La matriz R no es cuadrada sino del mismo tamao que A, siendo nulas las ltimas mr filas, donde r es el rango de A.
2.7 Giros y matriz de rotacin

La matriz A R 33 representa un giro si es ortogonal ( AAT = AT A = I ) y tiene determinante unidad ( det A = +1 ). A esta matriz se le suele llamar matriz de rotacin. Los giros forman un grupo no conmutativo respecto al producto matricial. Teniendo en cuenta que la proyeccin de un vector sobre el eje no cambia al girar y que la componente ortogonal al eje gira radianes, la expresin general de la matriz de rotacin A correspondiente a un giro de radianes alrededor del eje determinado por el vector unitario u es:
 ( I P ) sen , A = P + ( I P ) cos + u
P uuT , u =1

La matriz P calcula la proyeccin sobre el eje de giro, que no vara; la matriz ( I P ) cos determi ( I P ) sen reprena cmo va a variar la componente perpendicular al eje de giro; finalmente, u senta la componente perpendicular a la anterior y al eje de giro que aparece al rotar.
 permite definir el producto vectorial de vectores como producto de matriz La matriz antisimtrica u por vector, y se forma a partir del vector u del modo siguiente:

0  = u3 u u2

u3 0 u1

u2 u1 , 0

0  = u3 uv u2

u3 0 u1

u2 v1 u2 v3 u3v2 u1 v2 = u3v1 u1v3 = u v 0 v3 u1v2 u2 v1

Sea A R 33 la matriz de un giro de un ngulo respecto a un eje L [a ] ( a 0 ) , y sean los vectores ( e1 , e 2 , e3 ) una base ortonormada de R 3 , de modo que e1 = a a y e3 = e1 e 2 (lo que implica que Q [e1 , e 2 , e3 ] es una matriz ortogonal con det ( Q ) = 1 ). Entonces, las matrices de giro respecto a la base anterior y respecto a la base cannica de R 3 son, respectivamente:
0 1 A e = 0 cos 0 sen 0 sen , cos 0 1 A = Q 0 cos 0 sen 0 sen QT cos

Contenidos fundamentales de lgebra II

pgina 6

2.8

Forma exponencial de la matriz de rotacin

El vector a = u ( u = 1) contiene toda la informacin acerca del giro del ngulo alrededor de u.  definidas a partir de los vectores a = u , es un espacio El conjunto de matrices antisimtricas a vectorial de dimensin 3 (respecto a la suma de matrices). La exponencial de una matriz antisimtrica es una matriz de rotacin. Teniendo en cuenta que  3 = u , u  4 = u  2, u 5 = u , u 6 = u  2 , ... , la matriz de rotacin se puede expresar en la forma: u  ) = I +u + A = exp ( u  + ... = u 3! 2! 3! 4! 5! . 2 2 4 6 3 5 2  + ... + u  + ... = I + u  sen + u  (1 cos ) = I+u 3! 5! 2! 4! 6! 2!

2 + u

 3 + ... = I + u  + u

2 u

 u

2 + u

A cada vector a = u le corresponde una matriz de rotacin A. Toda matriz de rotacin A se puede representar mediante un vector a = u , pero esta representacin no es nica, pues tambin la representan por ejemplo los vectores a = u ( 2k ) .
2.9 Matrices de rotacin de Givens

Las matrices de Givens son una extensin de las rotaciones 2-D a dimensin n. La matriz de Givens G ij es una matriz cuyos elementos coinciden con los de la matriz identidad a excepcin de los cuatro elementos siguientes: gii = g jj = cos ; g ji = gij = sen . Las matrices de Givens son ortogonales con determinante +1. Con el producto G ij A se puede hacer cero el elemento (j,i) de A. Aplicando repetidamente esta transformacin puede reducirse A a forma triangular, lo que constituye una nueva forma de realizar la factorizacin QR de una matriz. Las transformaciones de Givens son ms econmicas que las de Householder y se utilizan cuando slo hay que hacer cero unos pocos elementos debajo de la diagonal.

Contenidos fundamentales de lgebra II

pgina 7

3 SISTEMAS LINEALES INCOMPATIBLES. SISTEMAS COMPATIBLES INDETERMINADOS


3.1 Repaso del mtodo de eliminacin de Gauss

Si en un sistema de ecuaciones lineales a una ecuacin se le suma una combinacin lineal de las dems, la solucin del sistema de ecuaciones lineales no vara. El mtodo de eliminacin de Gauss tiene dos fases: 1. Mediante operaciones elementales entre filas, el sistema se transforma en un sistema de ecuaciones equivalente cuya matriz es triangular superior. Suponiendo que se han hecho ceros debajo de la diagonal en las k 1 primeras columnas y se desea hacer ceros en la columna k , estas operaciones elementales son de dos tipos. Si el elemento de la diagonal akk es cero o prximo a cero, la fila k se intercambia con una fila posterior i tal que aik > 0 . Si akk 0 , se hace cero el elemento aik restando a la fila i la fila k multiplicada por un factor mik = aik akk . 2. Con el sistema en forma triangular, la variable xn puede calcularse a partir de la ltima ecuacin. Con xn conocida, xn 1 puede calcularse a partir de la penltima ecuacin, y se procede as sucesivamente hasta calcular x1 de la primera ecuacin.
Equivalencia entre el mtodo de Gauss y la factorizacin LU
0 " 0 a11 1 m 1 " 0 A = 0 P1A = 21 # # % # # mn1 0 " 1 0 0 " 1 m 1 " L = 21 # % # mn1 mn 2 " a12 " a1n ' ' a22 " a2 n # % # ' ' an " ann 2 0 0 # 1

3.2

El hacer ceros en la primera columna de A equivale a multiplicar por la matriz P1 . El hacer ceros en las columnas 1, 2, , n1 equivale a multiplicar por las matrices P1 , P2 ,..., Pn 1 :
Pn 1...P2P1A = U A = P11P21...Pn11U = LU Las inversas Pi1 se obtienen simplemente cambiando el signo a los factores mij . El producto P11P21...Pn11 = L se obtiene simplemente superponiendo dichas matrices.
3.3

Resolucin del sistema Ax=b conociendo la factorizacin A=LU

La factorizacin A = LU (supuesta posible) se puede calcular independientemente del trmino b, incluso antes de conocerlo. Despus, el sistema Ax = b equivale a resolver dos sistemas con matrices triangulares: Ax = b LUx = b ( y Ux ) Ly = b ( y ) Ux = y ( x ) .
3.4 Pivotamiento por columnas

El mtodo de Gauss hace un cero en la posicin (i,k) restando a la fila i la fila k multiplicada por el factor mik = aik akk . Este procedimiento falla cuando akk  0 . Este elemento no nulo es el pvot. El pivotamiento por columnas consiste en hacer ceros en la columna k, no utilizando como pvot el elemento de la diagonal, sino buscando el mayor elemento en valor absoluto de la columna k (sin contar los elementos que estn en las filas de los pivots anteriores). Si todos los elementos candidatos a pvot son cero (o muy prximos a cero), se concluye que la columna k no tiene pvot y que corresponde a una variable libre, y se pasa a buscar el pvot en la columna siguiente k+1. El pivotamiento por columnas exige almacenar la fila en la que ha aparecido el pvot en cada columna. El costo del pivotamiento por columnas es reducido. Si la matriz A es regular se obtiene la solucin correcta (errores numricos en las operaciones aritmticas excluidos).

Contenidos fundamentales de lgebra II

pgina 8

3.5

Factorizaciones LDLT y de Choleski

Si la matriz A es simtrica es fcil demostrar que U = DLT , con lo cual A = LDLT . Basta almacenar U o bien L y D (en la diagonal de L). Si A es definida positiva dii > 0 y se puede hacer A = LDLT = LD1 2 D1 2 LT = LLT ( D1 2 es la matriz diagonal formada por las races cuadradas positivas de los elementos de D), que es la factorizacin de Choleski. Los apartados que siguen estn especficamente orientados a matrices y vectores reales, pero prcticamente todo lo que dice podra ser referido a sistemas complejos sustituyendo el indicativo T de matriz transpuesta por el indicativo H de matriz conjugada y transpuesta. En todo el tema se considerar el producto escalar usual en R n .
3.6 Sistemas incompatibles (caso m>n=r). Solucin de mnimo error cuadrtico. Ecuaciones normales.

Sea el sistema Ax = b, ( A R mn , rango ( A ) = r ) , con ( m > n = r ) . El sistema tiene ms ecuaciones que incgnitas. Si b Im ( A ) el sistema tiene solucin nica (no hay variables libres). Si b Im ( A ) el sistema no tiene solucin. En virtud del teorema de la proyeccin ortogonal, la solucin nica de mnimo error en norma cuadrtica se obtiene cuando el residuo r = b Ax es ortogonal es tal que Ax es la proyeccin de b sobre Im ( A ) : a Im ( A ) , es decir cuando la solucin x

) = 0 AT r = AT ( b Ax
3.7

= AT b ( ecs. normales ) x = ( AT A ) A T b AT Ax
1

Planteamiento alternativo a las ecuaciones normales

Las ecuaciones r = b Ax y AT r = 0 se pueden plantear conjuntamente para dar el sistema:


I A r b AT 0 x = 0
3.8 Matrices de columnas ortonormales. Productos QTQ y QQT

Sea Q una matriz de columnas ortonormales Q R mn ( m > n ) . Se verifica que:


3.9

P = Q ( QT Q ) QT = QQT sin n.
1

QT Q = I n .

( P R ) es una proyeccin ortogonal sobre Im ( Q) , de dimenmm

Ecuaciones normales cuando se conoce la factorizacin QR

= AT b se transforman en un Si se conoce la factorizacin A = QR , las ecuaciones normales AT Ax sistema con una matriz triangular superior, muy sencillo de resolver:
= AT b RT QT QRx = RT QT b R T Rx = R T QT b Rx = QT b AT Ax

3.10 Sistemas de ecuaciones indeterminados (caso r=m<n). Solucin general y solucin de mnima norma

Sea el sistema Ax = b, ( A R mn , rango ( A ) = m ) . Sea x P una solucin cualquiera tal que Ax P = b . Sea N R n( n-m ) una matriz cuyas columnas son una base de Ker ( A ) . La solucin general de Ax = b viene dada por x = x P + Nu

( u R ) .
n-r

La solucin de mnima norma nica x ser aquella que pertenezca Ker ( A ) , es decir aquella que pertenezca a su complemento ortogonal, que es Im ( AT ) :

Contenidos fundamentales de lgebra II

pgina 9

x = AT v, v R r

Ax = AAT v = b

v = ( AAT ) b
1

x = AT ( AAT ) b
1

3.11 Solucin de mnimo error y mnima norma en el caso r<min(m,n). Matriz pseudoinversa

Sea el sistema Ax = b, ( A R mn , r = rango ( A ) < min ( m, n ) ) . Como r < m , puede ocurrir que b Im ( A ) y el sistema no tendr solucin; como r < n , hay variables libres y la solucin exacta o de mnimo error no ser nica. Se pretende hallar la solucin de mnimo error y mnima norma. La matriz A siempre se puede factorizar en la forma A = BC, con B R mr y C R rn , donde B y C son de rango mximo (las filas de C son una base para Im ( AT ) ; las columnas de B son una base para Im ( A ) ). Esta factorizacin no es nica. El sistema Ax = b se puede escribir como BCx = b By =b, siendo y Cx . El sistema By =b es un sistema incompatible de rango mximo cuya solucin de mnimo error se puede poner como 1 = ( BT B ) BT b . A partir de esta y la solucin de mnima norma del sistema indeterminado de rany 1 . Uniendo ambas expresiones: go mximo Cx = y se puede escribir como x = CT ( CCT ) y = CT ( CCT ) x = CT ( CCT ) y
1 1

(B B)
T

BT b = A + b, A + CT ( CCT )

(B B)
T

BT

La matriz A + es la matriz pseudoinversa de A. Esta matriz es nica, aunque B y C no lo sean.


3.12 Casos particulares de la matriz pseudoinversa

En los siguientes casos particulares la pseudoinversa se reduce a alguna expresin ya estudiada: Si r = m = n , A + = A 1 . Si m > n = r , A + = ( AT A ) AT , A + A = I n .
1 1

Si r = m < n , A + = AT ( AAT ) , AA + = I m .
+

3.13 Analogas y diferencias entre las matrices inversa y pseudoinversa

Analogas: ( A + ) = A ;

(A ) = (A )
+ T +
T

; r ( A ) = r ( A + ) = r ( AA + ) = r ( A + A ) ;

Diferencias: En general ( AB ) B + A + ; AA + I m , A + A I n ;

(A ) (A )
p +

Contenidos fundamentales de lgebra II

pgina 10

4 REDUCCIN POR SEMEJANZA UNITARIA


4.1 Transformaciones de semejanza unitaria y matrices unitariamente diagonalizables

Dos matrices cuadradas y complejas A, B Cnn se dicen matrices semejantes si estn relacionadas mediante una transformacin de semejanza en la forma B = P 1AP , siendo P Cnn una matriz no singular (regular). Si P es una matriz unitaria U ( U 1 = U H ) , la transformacin B = U H AU es una transformacin de semejanza unitaria. En este caso, las matrices A y B son unitariamente semejantes. Una matriz A es unitariamente diagonalizable si es unitariamente semejante a una matriz diagonal D. Hay matrices diagonalizables que no son unitariamente diagonalizables.
4.2 Lema de Schur

Para cualquier matriz cuadrada real o compleja A Cnn existe una matriz unitaria U tal que T = U H AU ( T Cnn ) es una matriz triangular superior. Las matrices A y T tienen los mismos valores propios, que son los elementos de la diagonal de T.
4.3 Definicin y propiedades de matriz normal

Se dice que una matriz A Cnn es normal cuando el producto por su matriz conjugada traspuesta A H es conmutativo: AA H = A H A . Algunas propiedades de las matrices normales: Todas las matrices hermticas, antihermticas o unitarias en Cnn son normales. Como caso particular, todas las matrices simtricas, antisimtricas u ortogonales en R nn son normales (existen otras matrices normales que no pertenecen a las categoras precedentes). Todas las matrices B unitariamente semejantes a una matriz normal A son tambin matrices normales. Los valores propios de A H son los conjugados de los valores propios de A. Adems, si A es normal, los vectores propios de A H son los mismos que los de A: U H AU = D
4.4

U H A = DU H

A H U = UD H = UD

Enunciado del teorema espectral para matrices normales. Importancia

Sea A Cnn una matriz cuyos valores propios son ( 1 , 2 ,..., n ) . Las siguientes afirmaciones son equivalentes entre s (cada una de ellas implica todas las dems): a) b) c) d) La matriz A es normal. La matriz A es unitariamente diagonalizable. Se verifica la igualdad:

a = i =1 i i , j =1 ij
n 2 n

Existe una base ortonormada formada por vectores propios de la matriz A, es decir, los subespacios propios son ortogonales dos a dos.

El teorema espectral tiene una gran importancia prctica, por la frecuencia con la que aparecen en ingeniera las matrices normales: hermticas, antihermticas, simtricas, antisimtricas, unitarias,

Contenidos fundamentales de lgebra II

pgina 11

ortogonales Estas matrices siempre son diagonalizables, nunca son defectivas (la dimensin del subespacio propio nunca es menor que la multiplicidad del valor propio correspondiente).
4.5 Corolarios del teorema espectral

a) La matriz normal A es hermtica si y slo si sus valores propios son reales:


A = A H U H AU = D, U H A H U = D H D = D H D real

b) La matriz normal A es antihermtica si y slo si sus valores propios son imaginarios puros: A = A H U H AU = D, U H A H U = D H = D D : d ii imaginarios puros

c) La matriz normal A es unitaria si y slo si sus valores propios tienen mdulo unidad: AH A = I
4.6

A H A = ( UD H U H )( UDU H ) = UD H DU H = I

DH D = I

Descomposicin espectral de las matrices normales


n

H Toda matriz normal se expresa como suma de matrices de rango 1: A = UDU H = k =1 k u k u k ,

con u1 , u 2 ,..., u n ortogonales dos a dos. Las matrices de rango 1 asociadas con valores propios de multiplicidad mi 1 se pueden agrupar en una matriz Pi de rango mi 1 , y se obtiene: A = 1P1 + 2P2 + ... + s Ps ( m1 + m2 + ... + ms = n ) . Cada una de las matrices Pi es una matriz de proyeccin ortogonal sobre el subespacio propio asociado con el valor propio i .
4.7 Matrices que conmutan

Las matrices normales A y B conmutan ( AB = BA ) si y slo si existe una base comn ortonormal de vectores propios de A y B. Esto no quiere decir que A y B tengan los mismos valores propios, o que los tengan con las mismas multiplicidades.
4.8 Propiedades de los valores y vectores propios de una matriz hermtica (simtrica)

Los valores propios de una matriz hermtica (o simtrica) son reales. Los vectores propios asociados con valores propios distintos son ortogonales. Con cada valor propio de multiplicidad m hay asociado un subespacio propio de dimensin m, en el que pueden elegirse m vectores propios ortogonales entre s.
4.9 Valores y vectores propios de una matriz de rotacin A

Las matrices de rotacin A son ortogonales y tienen determinante unidad. Son por tanto unitariamente diagonalizables. Adems, todos los valores propios tienen mdulo unidad (corolario del teorema espectral). En R3 las matrices de rotacin representan giros o movimientos de slido rgido. En una rotacin general hay un valor propio real 1 (asociado con un vector propio en la direccin del eje de giro) y dos valores propios complejos conjugados ei y e i (asociados a vectores propios complejos), cuya fase es el ngulo de giro.

Contenidos fundamentales de lgebra II

pgina 12

4.10 Valores y vectores propios de una matriz de proyeccin P sobre un subespacio F

Las matrices de proyeccin son matrices normales por ser hermticas. Los valores propios de una matriz de proyeccin no trivial valen 1 y 0. Todos los vectores de F = Im ( P ) son vectores propios asociados con valor propio 1 (coinciden con su proyeccin). Todos los vectores del complemento ortogonal F = Im ( I P ) = Ker ( P ) son vectores propios de P asociados con el valor propio 0 (su proyeccin sobre F es el vector nulo).
4.11 Valores y vectores propios de una matriz de simetra S

Las matrices de simetra S son matrices normales por ser hermticas y por ser unitarias. La matriz de simetra respecto a F es S = 2P I , donde P es la matriz de proyeccin no trivial sobre F. Como los valores propios de P son 1 y 0, los valores propios de S son 1 y 1. Todos los vectores de F son vectores propios de S asociados con un valor propio +1 (se transforman en s mismos). Todos los vectores de F son vectores propios de S asociados con un valor propio 1 (se transforman en los opuestos de s mismos).

Contenidos fundamentales de lgebra II

pgina 13

5 FORMAS BILINEALES Y CUADRTICAS


5.1 Definicin de forma bilineal. Matriz asociada

Dado el espacio vectorial E sobre R se define una forma bilineal f sobre E como una aplicacin de E E en R tal que:
, R, u, v, w E , f ( u + v, w ) = f ( u, w ) + f ( v, w ) , R, u, v, w E , f ( u, v + w ) = f ( u, v ) + f ( u , w ) Se dice que la forma bilineal f es simtrica si u , v E , f ( u , v ) = f ( v, u ) . Supuesto E de dimensin finita, sean
T

( e1 , e2 ,..., en )

una base de E y x = [ x1 , x2 ,..., xn ] ,


T

y = [ y1 , y2 ,..., yn ] los vectores de coordenadas, respecto de dicha base, de u, v E , respectivamente, se cumple:


f ( u, v ) =

i , j =1

x y f (e , e )
i j i j

que, matricialmente, puede expresarse como: f ( e1 , e1 ) f ( e2 , e1 ) " x , x , , x [1 2 n] # f (e , e ) n 1


5.2 Matrices congruentes.

f ( e1 , e2 ) f ( e2 , e2 ) # f ( en , e2 )

" " % "

f ( e1 , en ) y1 f ( e2 , en ) y2 = xT Ay # # y f ( en , en ) n

Dos matrices A, B R nn , se dice que son congruentes, si y slo si P regular tal que B = PT AP . La congruencia es una relacin de equivalencia en el conjunto de las matrices reales. Dos matrices congruentes tienen el mismo rango. Si A es simtrica tambin lo es B y viceversa. A partir de ahora el espacio E ser R n .
5.3 Formas cuadrticas.

Dada una forma bilineal f sobre R n se define la forma cuadrtica asociada a f, como la aplicacin fc de R n en R definida por
u R n , f c ( u ) = f ( u, u )

Dada una base ( e1 , e 2 ,..., e n ) de R n y ( x1 , x2 ,..., xn ) el vector de coordenadas, respecto de dicha


T

base, de u R n , se cumple: f ( e1 , e1 ) f ( e 2 , e1 ) f c ( u ) = [ x1 , x2 ," , xn ] # f (e , e ) n 1 que se expresar en la forma f ( e1 , e 2 ) f ( e2 , e2 ) # f ( en , e2 )

" " % "

f ( e1 , en ) x1 f ( e 2 , en ) x2 # # x f ( en , en ) n

i , j =1

a xx
ij i

, donde aij = a ji ; es decir,

Contenidos fundamentales de lgebra II

pgina 14

fc ( u ) =
T

i , j =1

a x

2 ii i

+ 2 aij xi x j = xT Ax
i< j

donde x = [ x1 , x2 ,..., xn ] y A = ( aij ) es simtrica. Mientras que existen mltiples formas bilineales que definen a una misma forma cuadrtica, slo una de ellas es simtrica. Si B es la matriz asociada a una cualquiera de dichas formas bilineales, respecto de una base de R n , la matriz, respecto de dicha base, de dicha forma bilineal simtrica es 1 B + BT ) ( 2 En un cambio de base, de ( e1 , e 2 ,..., e n ) a ( v1 , v 2 ,..., v n ) , de matriz P, de modo que x = Py , se tiene
f c ( u ) = xT Ax = y T PT APy

donde las matrices simtricas A y PT AP son congruentes.


5.4 Diagonalizacin de formas cuadrticas. Forma cannica

Toda forma cuadrtica real, xT Ax , puede ser reducida a una suma de cuadrados, mediante un cambio de variables (cambio de base). Existen distintos mtodos para efectuar dicha reduccin: 1. Mtodo de Gauss-Lagrange: consiste en ir formando cuadrados perfectos de expresiones lineales, de tal modo que al menos una de las variables no aparezca fuera del cuadrado perfecto. Aplicando sucesivamente esta tcnica, el nmero de variables que aparecen fuera de los cuadrados perfectos se llega a anular. Este mtodo exige que algunos elementos de la diagonal sean distintos de cero. Si no es as, es fcil hacer un cambio de dos variables que haga aparecer elementos distintos de cero en la diagonal. 2. Mtodo por congruencia: Realizando operaciones elementales de filas en la matriz A, seguidas de similares operaciones elementales de columnas en dicha matriz, es posible llegar a una matriz diagonal D:
T T T MT n 1, n " M13M12 AM12 M13 " M n 1, n = P AP = D

Para calcular al mismo tiempo la matriz P = M12 M13 " M n 1, n , basta partir de la matriz unidad In, y aplicar a sus columnas las mismas transformaciones aplicadas a las columnas de A:
P=

(((( IM

12

) M13 )") M n1,n )

Haciendo el cambio de variables x = Py se tiene:


2 2 xT Ax = y T PT APy = y T Dy = d1 y12 + d 2 y2 + ... + d n yn

3. Mtodo de la diagonalizacin ortogonal: Como A es simtrica, existe Q ortogonal tal que QT AQ = diag ( 1 ,..., n ) , donde los j son los valores propios de A. Haciendo el cambio de variables x = Qy , se tiene:
2 2 xT Ax = y T QT AQy = 1 y12 + 2 y2 + ... + n yn .

Contenidos fundamentales de lgebra II

pgina 15

Este mtodo entraa la dificultad del clculo de los valores propios y slo es recomendable, en clculos manuales, cuando dichos valores propios son fciles de calcular.
5.5 Ley de inercia de Sylvester. Rango y signatura de las formas cuadrticas

Todas las expresiones diagonales de una forma cuadrtica real, obtenidas por cambio de variables, tienen igual nmero de trminos positivos, negativos y nulos. El rango de una forma cuadrtica es el rango de su matriz simtrica asociada, y es igual a la suma del nmero de trminos positivos y del nmero de trminos negativos de una cualquiera de sus expresiones diagonales. La signatura se define como el nmero de trminos positivos menos el nmero de trminos negativos, tambin de una cualquiera de sus expresiones diagonales. Dos formas cuadrticas tienen igual rango e igual signatura si y slo si sus matrices simtricas asociadas son congruentes. La expresin cannica de una forma cuadrtica es aquella expresin diagonal cuyos trminos toman los valores 1, 1 0. Ntese que los valores propios de una matriz simtrica real A tienen los mismos signos que los elementos diagonales de la matriz D, y, de existir valores propios nulos, coinciden en nmero con el de los elementos nulos de la diagonal de D.
5.6 Clasificacin de las formas cuadrticas

A continuacin se clasifican las formas cuadrticas reales, xT Ax , con A real y simtrica, y se indican criterios equivalentes para cada una de las clases. Formas cuadrticas definidas positivas: 1. x R n , x 0, xT Ax > 0 2. Valores propios de A reales y positivos. 3. rango = signatura = n Formas cuadrticas definidas negativas: 1. x R n , x 0, xT Ax < 0 2. Valores propios de A reales y menores que cero. 3. rango = n; signatura = n Formas cuadrticas semidefinidas positivas: 1. x R n , xT Ax 0 y y 0, tal que y T Ay = 0 . 2. Valores propios de A reales y mayores o iguales que cero, existiendo, al menos, uno nulo. 3. signatura = rango < n Formas cuadrticas semidefinidas negativas: 1. x R n , xT Ax 0 y y 0, tal que y T Ay = 0 . 2. Valores propios de A reales y menores o iguales que cero, existiendo, al menos, uno nulo. 3. rango < n; signatura = rango Formas cuadrticas indefinidas: 1. y , z 0 tal que y T Ay > 0 y zT Az < 0 .

Contenidos fundamentales de lgebra II

pgina 16

2. Valores propios reales y existen de signo positivo y de signo negativo (pudiendo ser nulos algunos de ellos). 3. rango |signatura| A las matrices simtricas asociadas a las formas cuadrticas se las denomina de la misma forma que a estas ltimas (es decir, matrices definidas positivas, semidefinidas positivas, etc.).
5.7 Caracterizacin de las matrices definidas positivas

Una matriz simtrica A R nn es definida positiva si y slo si se cumple alguna de las condiciones siguientes (todas ellas equivalentes entre s): 1. Todos los valores propios son reales y positivos: 0 < 1 2 " n 2. Criterio de Sylvester: Todos sus menores principales son estrictamente positivos. Es decir, las siguientes matrices:
a a11 , 11 a21 a a12 11 , a21 a22 a 31

a12 a22 a32

a13 a23 , ..., A a33

tienen determinante estrictamente positivo. 3. Todos los pivots en la factorizacin A = LDLT son positivos. 4. La matriz A se puede descomponer en la forma A = BT B , donde B es una matriz cuadrada e invertible. 5. Como caso particular, toda matriz simtrica definida positiva admite factorizacin de Choleski nica (vase punto 3.6), A = LLT , en donde L es triangular inferior. Como corolario, si A es definida negativa, entonces A es definida positiva y los menores principales de A toman alternativamente valores menores y mayores que cero (comenzando por a11 < 0 ). Se recuerda que toda matriz simtrica definida positiva A define un producto escalar en R n : x, y = xT Ay.
5.8 Caracterizacin extremal de los valores propios. Cociente de Rayleigh

Este tema se ver conjuntamente con el problema generalizado de valores y vectores propios, en el Tema 9.

Contenidos fundamentales de lgebra II

pgina 17

6 CNICAS Y CUDRICAS
6.1 Secciones de una superficie cnica

La interseccin de una superficie cnica con un plano da lugar a distintas curvas en dicho plano, dependiendo de la posicin relativa entre plano y cono. Las tres clases de cnicas no degeneradas son la elipse, la hiprbola y la parbola.
6.2 Definicin de las cnicas como lugar geomtrico
a A(x,y) a F2(-c,0) F1(c,0) c Figura 1. Elipse. A(x,y) c F2(-c,0) a c b F1(c,0) b

Elipse: Una elipse es el lugar geomtrico de los puntos A del plano cuya suma de las distancias a dos puntos fijos y distintos llamados focos (F1 y F2), es constante:

JJJG JJJJ G AF1 + AF2 = 2a

x2 y2 + =1 a 2 b2

(a

= b2 + c2 )

Hiprbola: Una hiprbola es el lugar geomtrico de los puntos A del plano, cuya diferencia de distancias a dos puntos fijos llamados focos (F1 y F2), es constante en valor absoluto:
JJJG JJJJ G AF1 AF2 = 2a x y 2 =1 2 a b
2 2

(a

+ b2 = c2 )

Las rectas que pasan por O y son tangentes a la hiprbola en sus puntos del infinito son las asntotas de la hiprbola. Parbola: Una parbola es el lugar geomtrico de los puntos A del plano cuya distancia a una recta llamada directriz y a un punto B llamado foco son iguales: JJJ G JJJ G AB = AF y 2 = 2 px La parbola no tiene asntotas.
6.3 Clasificacin de las cnicas

Figura 2. Hiprbola.

B(p/2,y)

A(x,y)

La forma ms general de una curva algebraica de 2 grado es la siguiente: a11 x 2 + 2a12 xy + a22 y 2 + 2a1 x + 2a2 y + a = 0 o bien, en forma matricial:
p p 2 2

F(p/2,0)

[x

a y ] 11 a12

a12 x + 2 [ a1 a22 y

x a2 ] + a = 0 y

Figura 3. Parbola.

Se plantean ahora dos cuestiones: 1) Si toda curva algebraica de 2 grado con coeficientes reales define una cnica, y 2) Si se puede establecer fcilmente de qu cnica se trata a partir de dichos coeficientes. La matriz de la parte cuadrtica es real y simtrica, y por tanto diagonalizable ortogonalmente. La forma general de las cnicas puede modificarse mediante una rotacin y una traslacin, con objeto de expresar la cnica en unos nuevos ejes similares a los de las Figuras 3-5. La rotacin es una transformacin ortogonal que pretende diagonalizar la parte cuadrtica de la cnica.

Contenidos fundamentales de lgebra II

pgina 18

x u y = Q v ,

[u

a v ] QT 11 a12

a12 u Q + 2 [ a1 a22 v

u a2 ] Q + a = 0 v

1u 2 + 2 v 2 + 2b1u + 2b2v + b = 0
donde 1 y 2 son los valores propios reales de la matriz, y b1 , b2 y b son coeficientes escalares que dependen de los coeficientes anteriores y de los elementos de Q. Los valores propios 1 y 2 pueden tener signo positivo o negativo, y uno de ellos podra ser nulo. Introduciendo en la forma diagonal de la curva algebraica la traslacin del origen al punto ( e, f ) ( u = r + e , v = s + f ), y agrupando trminos se llega a:

1u 2 + 2 v 2 + 2b1u + 2b2u + b = 1 ( r + e ) + 2 ( s + f ) + 2b1 ( r + e ) + 2b2 ( s + f ) + b =


2 2

= 1r 2 + 2 s 2 + ( 21e + 2b1 ) r + ( 22 f + 2b2 ) s + ( 1e 2 + 2 f 2 + 2b1e + 2b2 f + b ) = 0

Si 1 0 , 2 0 y d 0 , la traslacin ( e, f ) se puede elegir de modo que se anulen los trminos lineales y se llega a la expresin:

1r 2 + 2 s 2 = d

r2 d 1
2

s2 d 2
2

=1

En funcin de los signos de 1 , 2 y d se distinguen los siguientes casos (se supone d 0 ): 1. Si 12 > 0 se pueden presentar varios casos: a) Si d > 0 y 1 > 0 , la cnica es una elipse. b) Si d = 0 la curva se reduce a un punto (dos rectas imaginarias que se cortan en l). c) Si d > 0 y 1 < 0 , la cnica es una elipse imaginaria (no hay puntos reales que satisfagan 1 r 2 2 s 2 = d ). 2. Si 12 < 0 se presentan dos casos: a) Si d > 0 la cnica es una hiprbola. b) Si d = 0 la cnica degenera en dos rectas reales que se cortan en un punto. 3. Si 12 = 0 es que un valor propio se anula, por ejemplo 1 = 0 . En ese caso no se puede eliminar el trmino lineal en r. La expresin de la cnica es 2 s 2 + 2 pr = d . a) Si p 0 , se trata de una parbola, en cuya ecuacin se puede eliminar el trmino constante d con una traslacin adicional. b) Si p = 0 se obtiene la ecuacin 2 s 2 = d , que en el caso 2 d > 0 son dos rectas paralelas, si d = 0 es una recta doble, y si 2 d < 0 se trata de dos rectas paralelas imaginarias.
6.4 Cudricas

Una cudrica es el conjunto de soluciones (x, y, z) de un polinomio algebraico de segundo grado en las variables (x, y, z), que ordinariamente representa una superficie en el espacio eucldeo R3. La expresin general de una cudrica es: a11 x 2 + a22 y 2 + a33 z 2 + 2a12 xy + 2a13 xz + 2a23 yz + 2a1 x + 2a2 y + 2a3 z + a = 0 (1)

Contenidos fundamentales de lgebra II

pgina 19

6.5

Reduccin a forma cannica

Las cudricas en la forma general presentan los mismos problemas de clasificacin que las cnicas, pero como es lgico con una mayor complejidad debido al mayor nmero de casos que se pueden presentar. Aqu se considerarn principalmente los casos no degenerados. Supngase que la matriz simtrica de la parte cuadrtica de la forma general se diagonaliza por semejanza ortogonal mediante una matriz Q que representa un cambio de coordenadas. Se llega a:

1u 2 + 2 v 2 + 3 w2 + 2b1u + 2b2 v + 2b3 w + b = 0


1. Caso 12 3 0 . Se pueden eliminar en (2) los trminos lineales mediante una traslacin: b b b 1 u + 1 + 2 v + 2 + 3 w + 3 = d 1 2 3 a. b. c. d. 2. Si 1 > 0, 2 > 0, 3 > 0 , se tiene un elipsoide:
2 2 2

(2)

En lo que sigue se supondr la constante d > 0 , en el 2 miembro (multiplicar por 1 si no es as).

1r 2 + 2 s 2 + 3t 2 = d

x2 y 2 z 2 + + =1 a 2 b2 c2 x2 y 2 z 2 + =1 a 2 b2 c 2

Si 1 > 0, 2 > 0, 3 < 0 , se tiene un hiperboloide de una hoja:

x2 y 2 z 2 Si 1 < 0, 2 > 0, 3 < 0 , se tiene un hiperboloide de dos hojas: 2 + 2 2 = 1 a b c Si 1 < 0, 2 < 0, 3 < 0 , se tiene un elipsoide imaginario.

Caso 1 0, 2 0, 3 = 0 . En (2) no se puede eliminar el trmino lineal en w. La cudrica es:

1r 2 + 2 s 2 + 2b3t = d
a. b. c. d. e. f. 3. Si b3 = 0, d > 0, 1 > 0, 2 > 0 , se tiene un cilindro elptico: x2 y 2 + =1 a 2 b2 x2 y 2 =1 a 2 b2

Si b3 = 0, d 0, 1 > 0, 2 < 0 , se tiene un cilindro hiperblico:

Si b3 = 0, d = 0 y 12 > 0 , se tiene una recta, interseccin de dos planos imaginarios. Si b3 = 0, d = 0 y 12 < 0 , se tienen dos planos reales que se cortan en una recta. x2 y 2 Si b3 0 y 12 > 0 , se tiene un paraboloide elptico: 2 + 2 = z a b Si b3 0 y 12 < 0 , se tiene un paraboloide hiperblico: x2 y 2 =z a 2 b2

Caso 1 0, 2 = 3 = 0 . En (2) no se pueden eliminar los trminos lineales en v y w. La cudrica se puede poner en la forma:

1r 2 + 2b2 s + 2b3t = d
a. Si b2 = b3 = 0 , la cudrica es 1r 2 = d . Los casos posibles son dos planos paralelos ( 1 > 0 ), un plano doble ( d = 0 ), o dos planos imaginarios ( 1 < 0 ). Si b2 0 b3 0 , se trata de un cilindro parablico: 1 x 2 + 2 b22 + b32 y = 0

b.

Contenidos fundamentales de lgebra II

pgina 20

Figura 4. Elipsoide.

Figura 5. Hiperboloide de 1 hoja.

Figura 6. Hiperboloide de 2 hojas.

Figura 7. Cono elptico.

Figura 8. Cilindro elptico.

Figura 9. Cilindro hiperblico.

Figura 10. Paraboloide elptico.

Figura 11. Paraboloide hiperblico.

Figura 12. Cilindro parablico.

6.6

Cudricas regladas.

Se dice que una cudrica es reglada cuando por cada uno de sus puntos pasa al menos una recta que est totalmente contenida en la superficie de la cudrica. Son cudricas regladas el hiperboloide de una hoja, el paraboloide hiperblico, los cilindros, los conos, los planos y las rectas.

Contenidos fundamentales de lgebra II

pgina 21

7 DIAGONALIZACIN SIMULTNEA DE FORMAS CUADRTICAS


7.1 Valores y vectores propios generalizados.

Dadas dos matrices A, B R nn simtricas y B definida positiva, se define valor propio generalizado de A respecto de B a R tal que x R n , no nulo, que verifica Ax = Bx ; y se define vector propio generalizado de A respecto de B a x R n , no nulo, tal que R , que verifica Ax = Bx . Si Ax = Bx, x 0 , x es un vector propio generalizado asociado al valor propio generalizado . Obsrvese que los valores y vectores propios generalizados de A respecto de In son los valores y vectores propios de A. Los valores propios generalizados son las races del polinomio en , det ( A B ) , y son todos reales. Los vectores propios generalizados, asociados a un valor propio generalizado , son los vectores no nulos del ncleo de A B ; es decir, se determinan calculando los vectores solucin no nulos del sistema lineal homogneo ( A B ) x = 0 . Para todo valor propio generalizado j , la dimensin del ncleo de A j B es igual a la multiplicidad de j . Dicho ncleo se denomina subespacio propio generalizado asociado a j . Los subespacios propios generalizados son B-ortogonales; es decir, son ortogonales respecto del producto escalar definido por la matriz simtrica definida positiva B.
7.2 Teorema de la diagonalizacin simultnea

Si A, B son dos matrices reales simtricas y B es definida positiva, existe una matriz regular P, real, tal que PT BP = I n y PT AP = diag ( 1 , 2 ,..., n ) , donde 1 , 2 ,..., n son los valores propios generalizados y las columnas P1 ,..., Pn de P son sus correspondientes vectores propios generalizados asociados. La matriz P se calcula de la forma siguiente: como sus columnas constituyen una base Bortonormada (es decir, formada por vectores ortogonales y unitarios, respecto del producto escalar definido por B), formada por vectores propios generalizados, basta calcular bases B-ortonormadas de cada subespacio propio generalizado y efectuar la unin de dichas bases. Obsrvese que P no ser, en general, ortogonal ( P 1 PT ). Nota: Los valores propios generalizados tienen los mismos signos que los valores propios de la matriz A. De existir valores propios generalizados nulos, coinciden en nmero con el de los valores propios nulos de la matriz A.
7.3 Cociente de Rayleigh

Si A, B son dos matrices reales simtricas y B es definida positiva, se define el cociente de Rayleigh para dichas matrices, a la aplicacin R de R n \ {0} en R, definida por R (x) = xT Ax , x0 xT Bx xT Ax xT Bx

Si los valores propios generalizados de A respecto de B cumplen 1 2 " n , se verifica

1 = min
x0

xT Ax ; xT Bx

n = max
x0

alcanzndose dichos mnimo y mximo para x igual a cualquier vector propio generalizado asociado a 1 y n , respectivamente.

Contenidos fundamentales de lgebra II

pgina 22

Asimismo, se cumple que [1] donde x


2
B

1 = min xT Ax; n = max xT Ax


x B =1 x B =1

= xT Bx , alcanzndose dichos mnimo y mximo para x igual a cualquier vector propio


B

generalizado, tal que x

= 1 , asociado a 1 y n , respectivamente.

Nota: Si B = I n , la definicin del cociente de Rayleigh para la matriz A, real y simtrica, es xT Ax R (x) = T , x 0 x x y se obtienen los mismos resultados anteriores, sustituyendo los valores y vectores propios generalizados por los respectivos valores y vectores propios de A, y se tomar, en las frmulas [1], x 2 = 1 .
7.4 Sistemas de ecuaciones diferenciales de segundo orden.

El sistema de ecuaciones diferenciales de segundo orden: Bx = Ax donde x es una funcin de R en R n , A, B R nn simtricas y B definida positiva, con las condiciones iniciales x ( t0 ) = x 0 , x ( t0 ) = v 0 , admite una nica solucin. Para calcular dicha solucin se resuelve el siguiente problema de valor propio generalizado:
Ax = Bx

y, una vez obtenida la matriz P, se efecta el cambio x = Py , donde y = [ y1 , y2 ,..., yn ] , llegndose


T

a un sistema equivalente desacoplado


Bx = Ax PT BPy = PT APy y = diag ( 1 , 2 ,..., n ) y y j = j y j , j = 1,..., n

Los valores de las soluciones y j ( t ) se determinan a partir de las condiciones iniciales


y ( t0 ) = P 1x 0 ; y ( t0 ) = P 1 v 0

La solucin buscada es x ( t ) = Py ( t ) .

Contenidos fundamentales de lgebra II

pgina 23

8 NORMAS DE MATRICES Y NMEROS DE CONDICIN


8.1 Norma vectorial
: Cn R que cumple:

Una norma vectorial en Cn es una aplicacin 1. x Cn , x 0; x = 0 x =0 2. C, x Cn 3. x, y Cn

x = x

x+y x + y
T

Casos particulares: Sea x = [ x1 , x2 ,..., xn ] Cn : 1. Norma 1: x 1 = x1 + " + xn 2. Norma 2, norma eucldea: x 2 = x1 + " + xn

2 12

3. Norma , norma del supremo o norma infinita: x

= max x j
1 j n

Las normas anteriores pueden considerarse como casos particulares de una norma ms general (norma p):
x
p

n p = xj j =1

1 p

, p 1

8.2

Norma matricial
: Cmn R que cumple:

Una norma matricial es una aplicacin

1. A Cmn , A 0; A = 0 A = 0 ( matriz nula ) 2. C, A Cmn 3. A, B Cmn

A = A

A+B A + B

Adems, para las normas matriciales inducidas por normas vectoriales y para la norma de Frobenius, si se cumple la condicin A Cms , B Csn AB A B , se dice que la norma matricial es multiplicativa. Todas las normas matriciales que se ven en este tema son multiplicativas.
8.3 Norma de Frobenius

Dada la matriz A Cmn , se define la norma de Frobenius de A, A F , como:


A
2 F

= a jk
j =1 k =1

Se cumple A

2 F

= traza ( A H A ) = traza ( AA H ) .

El producto por una matriz unitaria conserva la norma de Frobenius. En efecto, dadas A, U Cnn , U unitaria, se cumple
UA
2 F

= traza ( A H U H UA ) = traza ( A H A ) = A

2 F

Contenidos fundamentales de lgebra II

pgina 24

Anlogamente se demuestra que se cumple: AU


8.4

2 F

= A F.

Norma matricial inducida por una norma vectorial

La norma matricial de A Cmn , inducida por normas vectoriales definidas en Cn y Cm , se define como:

A max
x0

Ax x

= max Au , A Cmn
u =1

y es una norma matricial en Cmn . Se cumple que:


x Cn , A Cmn Ax A x , y y Cn , y 0, Ay = A y

Obsrvese que si m n , los vectores x y Ax en las expresiones anteriores pertenecen a espacios vectoriales de distinta dimensin. Lo mismo sucede con u y Au. Cada una de las normas vectoriales Sea A Cmn , A = ( a jk ) : 1. 2. 3.
8.5
1

induce la correspondiente norma matricial.

m A 1 = max Ax 1 = max a jk = max ( A1 1 , A 2 1 ,..., A n 1 k n x 1 =1 j =1

) (A

columna j de A )

A 2 = max Ax 2 = ( A H A ) ,
x 2 =1

(A

A matriz hermtica de valores propios 0 )

= max Ax
x =1

n = max a jk = max A1 , A 2 ,..., A n 1 1 1 j m k =1

) (A

fila k de A )

Normas de matrices normales

Sea A Cnn una matriz normal cuyos valores propios estn ordenados en la forma 1 2 " n . Para la norma eucldea se verificar: 1.

A 2 = ( A H A ) = ( A ) = ( A ) = n
2 2

2. Si adems A es regular: A 1
8.6

= ( A 1 ) = 1 1

Nmero de condicin de una matriz regular

Sean A Cnn regular y Ax = b 0 un sistema compatible y determinado, cuya solucin es x0 ; sea b una modificacin (normalmente considerada pequea) del vector b y el sistema Ax = b + b tiene por solucin es x0 + x0 . Se tiene que: [1]

x0
x0

A A 1

b
b

En esta expresin la cota superior para el error es alcanzable, lo que quiere decir que es ptima. El factor por el que se multiplica el error en los datos es el nmero de condicin ( A ) (tambin llamado condicin numrica) de la matriz A. De una forma ms general, vlida para cualquier tipo de matriz, el nmero de condicin se define en la forma:

Contenidos fundamentales de lgebra II

pgina 25

[2]

( A) =

max Ax
x =1 x =1

min Ax

El resultado [1] indica que la modificacin la solucin del sistema Ax = b debida a una variacin en el vector b, depende de esta variacin y del valor del nmero de condicin de la matriz, que mide, desde un punto de vista numrico, la sensibilidad del sistema frente a modificaciones en los datos o errores de redondeo. El nmero de condicin depende de la norma, pero siempre es ( A ) 1 . Si la matriz A Cnn es regular, el nmero de condicin definido en [2] es ( A ) = A A 1 . Si el rango de A es menor que n, y Cn , no nulo, tal que Ay = 0 y, por tanto, min Ax = 0 . Si A x =1 no es la matriz nula, max Ax > 0 . En esta situacin, como extensin a la definicin de nmero de x =1 condicin, se dice que ( A ) = .
8.7 Nmero de condicin para la norma eucldea

Si en la definicin de nmero de condicin se utiliza la norma eucldea se tiene el nmero de condicin espectral. Se tienen los casos siguientes: 1. A Cmn de rango igual a n m ; para la norma eucldea (o espectral), 2 ( A ) = n 1 , donde 1 y n son, respectivamente, el menor y el mayor de los valores propios de A H A . 2. A Cnn normal y regular: 2 ( A ) = n 1 , donde 1 y n son, respectivamente, el menor y el mayor en mdulo de los valores propios de A. 3. En el caso de las matrices cuadradas, se tiene que U, C no nulo, U unitaria, y solamente ellas, cumplen que su nmero de condicin espectral es igual a la unidad.

Contenidos fundamentales de lgebra II

pgina 26

9 VALORES SINGULARES
9.1 Valores singulares

Dada una matriz A Cmn , se definen los valores singulares j de A como las races cuadradas positivas o nulas de los p mayores valores propios de A H A ( j , j = 1,..., p , que son reales y mayores o iguales que cero), siendo p = min {m, n} .
9.2 Existencia de la Descomposicin de Valores Singulares (DVS)

Dada la matriz A Cmn , U Cmm unitaria y V Cnn unitaria tal que

A = UV H , = diag ( 1 , 2 ,..., p ) R mn
donde 1 2 " r > r +1 = " = p = 0, p = min {m, n} y r = rango ( A ) .

p=m<n
1 " 0 = diag ( 1 , 2 ,..., p ) = # % # 0 " m 0 0 0 # # # 0 0 0

m>n= p
1 # 0 = diag ( 1 , 2 ,..., p ) = 0 # 0
9.3 Construccin y propiedades de la DVS

" 0 % # " n " 0 % # " 0

En el caso m n se puede proceder del siguiente modo: Para el clculo de la matriz V se diagonaliza unitariamente la matriz A H A Cnn : sea V unitaria tal que V H A H AV = diag ( 12 ,..., r2 , 0,..., 0 ) , donde r es el rango de A, igual al nmero de valores propios no nulos de A H A . Para el clculo de la matriz U se tiene en cuenta que AV = U diag ( 12 ,..., r2 , 0,..., 0 ) , de modo que AV j = j U j , j = 1, 2,..., p , donde U j , V j denotan las columnas j-simas de las matrices U y V, respectivamente. Sabiendo que j 0 , para j = 1, 2,..., r , se determinan U j = AV j j , j = 1, 2,..., r . El sistema ortonormado ( U1 , U 2 ,..., U r ) se completa hasta una base ortonormada ( U1 , U 2 ,..., U r , U r +1 ,..., U m ) de Cm , cuyos vectores constituirn las columnas de la matriz U. En el caso m < n el procedimiento anterior conduce a la diagonalizacin unitaria de la matriz A H A Cnn , que es de mayor tamao que AA H Cmm . En este caso se puede proceder de dos maneras: V H . A partir de este resulta1. Calcular por el mtodo anterior la DVS de la matriz A H = U TU H. do, la DVS buscada es A = V 2. Calcular U a partir de la diagonalizacin unitaria de U H AA H U = diag ( 12 ,..., r2 , 0,..., 0 ) . Despus, partiendo de U H A = V H , se calculan las r primeras columnas de V a partir de V j = A H U j j , j = 1, 2,..., r , y las columnas restantes de modo que se complete una base ortonormada en Cn .

Contenidos fundamentales de lgebra II

pgina 27

El clculo del nmero de valores singulares no nulos es un mtodo, numricamente muy estable, para el clculo del rango de una matriz. Se obtienen los siguientes resultados: 2. Ker A = L [ Vr +1 ,..., Vn ] 3. Im A = L [ U1 ,..., U r ] 4. Ker A H = L [ U r +1 ,..., U m ] 5. Im A H = L [ V1 ,..., Vr ] 6. Si A Cmn es normal, los valores singulares de A son los mdulos de los valores propios de A.
9.4 Relacin con las normas y nmero de condicin para la norma eucldea

1. A = j =1 j U j V jH
r

Sea A Cmn . Se verifica, denotando max y min a los valores singulares mximo y mnimo de A: 1.
A 2 = max
2

2. Si A Cnn es regular, A 1

= 1 min Ax 2 = 1 min
x 2 =1

3. Si rango ( A ) = n , 2 ( A ) = max min


9.5 Clculo de la matriz pseudoinversa a partir de la DVS
" % " 0 0 # 0 R nm , donde 0 11 1 " 0 # % # 0 # mn + R , su pseudoinversa es = Si = 0 0 " r 0 0 0 representa una matriz nula del tamao adecuado.
r

r1

Si A = UV H es una DVS de la matriz A, entonces la pseudoinversa de A es:


1 H A + = V + U H = j Vj U j j =1

Estas expresiones se siguen de imponer la condicin de mnimo error cuadrtico y mnima norma a la solucin del sistema de ecuaciones Ax = b :

Ax = b, A = UV H

UV H x = b

(y V

x, d U H b )

y = d

y = +d

En el ltimo paso de ha determinado la solucin de mnimo error cuadrtico y mnima norma del sistema y = d .

S-ar putea să vă placă și