Documente Academic
Documente Profesional
Documente Cultură
Captulo 3
Elementos de lgebra Lineal
3.1 Valores y vectores propios
3.1.1
Demostraciones
OLUCIN
OLUCIN
OLUCIN
v = A ' v
(1)
(1 ) v =
2
OLUCIN
Traza ( D ) =
, donde
i
OLUCIN
Propiedad: AB = A B
Como la matriz D contiene a los valores propios de A y el determinante
de una matriz diagonal es el producto de los elementos de la diagonal
principal:
Se demuestra que la afirmacin es verdadera.
i = A
f. [PD3 2003 I] Si A es una matriz definida como el producto de una
matriz ortogonal y una matriz involutiva, entonces tiene valores propios
iguales a 1 -1.
S
OLUCIN
i =1
OLUCIN
An v = n v
l.q.q.d
A2 v = 2 v
A2 v = 2 v
A3 v = 3 v
OLUCIN
OLUCIN
OLUCIN
Tenemos:
Av 1 = v 1
Av 2 = v 2
Av 3 = v 3
Supongo:
A [av 1 + bv 2 + cv 3 ] = [av 1 + bv 2 + cv 3 ]
aAv 1 + bAv 2 + cAv 3 = a v 1 + b v 2 + c v 3
No existe contradiccin, por lo tanto la afirmacin es verdadera.
OLUCIN
OLUCIN
Recordemos que una matriz es invertible cuando sus filas y/o columnas
son L.I, es decir, cuando su determinante es distinto de cero. En este caso,
si asumimos que sus filas son L.I y que sus columnas tambin lo son,
entonces M ser invertible y se verificar que:
M 1MZ =
Z =
lo cual es una contradiccin pues Z es un vector distinto del nulo. Por lo
tanto, las filas de M podrn ser L.I nicamente cuando sus columnas sean
L.D, de modo que M sea no invertible.
(ii) Se puede afirmar que Z es un vector propio de la matriz M.
S
OLUCIN
( M I ) Z =
Sin embargo, como tenemos la premisa MZ = , y que Z es un vector no
nulo, entonces si podramos afirmar que Z puede ser un vector nulo de la
matriz M, siempre y cuando est asociado a un valor propio igual a cero.
m. [PC2 2002 I] Demostrar que si D es la matriz que resulta de
diagonalizar A, es decir si: D = P 1AP , entonces para todo n > 0 se
cumple An = PD n P 1
S
OLUCIN
OLUCIN
Av = v
Si premultiplicamos por la matriz B en ambos lados de la igualdad,
obtenemos la siguiente relacin.
BAv = Bv
Asumiendo que efectivamente el enunciado es vlido, entonces la relacin
anloga a (1) para el caso de la matriz B sera:
Bv = v
Premultiplicamos por la matriz A:
ABv = Av
Usando la condicin de que AB=BA:
BAv = Av
Por lo tanto, sobre la base de (1)
Bv = Av = v
Por lo tanto, la afirmacin es verdadera.
q. [PC2 2003 I] Los valores propios de la matriz B = A1 / 2 tal que
BB = A1/ 2A1/ 2 = A ) son iguales a la raz cuadrada de los valores propios
de la matriz A.
OLUCIN
AvB = B B vB
2
AvB = B vB
Por lo tanto
Entonces de aqu se podra afirmar que los valores propios de A sern
iguales a los cuadrados de los valores propios de B. Sin embargo, la
proposicin inversa, es decir que B tiene como valores propios a la raiz
cuadrada de los valores propios de A se cumplir de manera estricta
nicamente cuando A tenga valores propios positivos.
2da forma
La diagonalizacin de B se lleva a cabo como: DB = PB1BPB de modo que
B = PB DPB1 . Entonces :
A= BB = ( PB DB PB1 )( PB DB PB1 ) = PB DB DB PB1 = PB DB2 PB1
donde la matriz DB2 es diagonal y tiene como elementos a los cuadrados
de los valores propios de B. Se puede deducir rpidamente que esto ser
cierto nicamente cuando la matriz A tenga valores propios positivos.
Por ejemplo, los valores propios de la matriz
1 5
M=
3 6
son iguales a 1M = 1.1098 y 2M = 8.1098 . Ahora los valores propios de
la matriz N = M 2 sern 1N = 1.2316 2N = 65.7684 , y como sabemos:
1N = 1.1098 y 1N = 8.1098 . De esta manera, no se puede saber a
ciencia cierta cul ser el signo que corresponda efectivamente a los
valores propios de M.
r. Los valores propios de la matriz A + kI
propios de la matriz A sumados en k.
SOLUCIN
Av = v
Si sumamos a ambos lados de la ecuacin el trmino kvI, entonces
podemos determinar que los valores propios de la matriz (A+kvI) son
iguales a los valores propios de A (es decir, ) sumados por k.
Av + kvI = v + kvI
( A + kI ) v = ( + k ) v
OLUCIN
3.1.2
La descomposicin de Cholesky
OLUCIN
1
A=
2
OLUCIN
= (1 )( 3 ) 2 = 0
2 4 + 1 = 0
Finalmente, los valores propios son:
1 = 0.2679 y 2 = 3.7321
Para 1 = 0.2679 :
1
0.7321 2 v11 0
= v1 = t 2
2 2.7321 v12 0
2.7321
Normalizamos el vector propio de manera que sea ortonormal (por ser matriz
simtrica):
1
0.888
2
1
2
=1
norm
t 1
t
=
v
=
1.268
2.7321
0.4597
2.7321
Hago lo mismo con 2 = 3.7321 y obtengo:
0.4597
v norm
=
2
0.888
0.4597 0.888
0
3.7321
3.1.3
Descomposicin triangular
OLUCIN
Tenemos:
8 1 6 1
0 0 U 11 U 12
3 5 7 = L21 1 0 . 0 U 22
4 9 2 L31 L32 1 0
0
U 11
U 12
= U 11L21 U 12 L21 + U 22
U 13
U 23
U 33
U 13 L21 + U 23
U 13 L31 + U 23 L32 + U 33
U 13
L = 3 8
1
0
1 2 68 37 1
1
6
U = 0 37 8
38 8
0
0
360 37
OLUCIN
10
8 1 6 28
3 5 7 34
4 9 2 28
F2 3/8F1
F3 1/2F1
8
1
6
0 37 / 8 19/ 4
1
0 17 / 2
Fila Pivot
F3 (17/2)(8/37)F2
1
6
0 37 / 8
19/ 4
0
360/ 37
0
OLUCIN
L = 3 / 8
1
0
1/2 68 / 37 1
L =1
d. Si A1 = MN , hallar M y N en funcin de L y de U.
S
OLUCIN
11
A = LU A1 = U 1L 1
Finalmente:
M = U 1 N = L1 .
3.1.4
La matriz de Hadamard
[PC2 2003 I]
1 1
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
OLUCIN
[H I ] v =
Si pre-multiplicamos por H para utilizar las propiedades de la matriz de
Hadamard llegaremos a que:
H ' [H I ] v =
[H ' H H ' ] v =
[nI H '] v =
nv ( H ' v ) =
nv ( v ) =
(n ) v =
2
(n ) = 0
2
1 = n
y 2 = + n
12
3.1.5
[PC2 2003 I]
A=
0.5b
c
sen ( ) cos ( )
OLUCIN
Primero que nada debemos notar que al ser A simtrica, es posible trabajar
con su descomposicin cannica. Ahora, es sencillo verificar que P cumple con
ser ortogonal puesto que P ' = P 1 .
cos ( ) +sen ( )
P' =
sen ( ) cos ( )
Para hallar la inversa utilizamos el artificio para matrices de 2 x 2 que dice
que debemos multiplicar la inversa del determinante de la matriz por una
matriz que tiene como elementos de la diagonal principal, los mismo que los de
la matriz original pero cambiados de lugar, y como elementos de la diagonal
secundaria a los mismos elementos de la matriz original, pero con el signo
cambiado. Es decir:
1 cos ( ) +sen ( )
=
2
a c
3
4
13
OLUCIN
sen ( ) cos ( )
0.5b
c sen ( ) cos ( )
DA21 DA22
donde:
DA11 = a cos2 ( ) + bsen ( ) cos ( ) + csen 2 ( )
b
DA12 = cos2 ( ) sen 2 ( ) + (c a ) sen ( ) cos ( )
2
b
DA21 = cos2 ( ) sen 2 ( ) + (c a ) sen ( ) cos ( )
2
DA22 = asen 2 ( ) + bsen ( ) cos ( ) + c cos2 ( )
Esto es, la matriz DA ser diagonal siempre que los trminos de la diagonal
secundaria sean iguales a cero:
b
cos2 ( ) sen 2 ( ) + (c a ) sen ( ) cos ( ) = 0
2
Utilizamos las formulas que nos dieron y obtenemos:
b
1
cos ( 2 ) + (c a ) sen ( 2 ) = 0
2
2
1
[b cos ( 2 ) + (c a ) sen ( 2 )] = 0
2
b cos ( 2 ) = (a c ) sen ( 2 )
Por lo tanto:
sen ( 2 )
b
tan ( 2 ) =
=
cos ( 2 ) a c
1
b
= arctan
2
a c
b
2 = arctan
a c
OLUCIN
14
a 0
A=
0 c
De esta manera, se observa que la matriz A sigue siendo simtrica, pero ahora
es diagonal, por lo que no es necesario diagonalizarla, dado que los elementos
de su diagonal principal son sus valores propios.
OLUCIN
0 a
por lo que los valores propios de A son repetidos e iguales a c. Por ello, su
multiplicidad algebraica es igual a 2, que es el rango de A, puesto que es
invertible.
3.1.6
Matrices especiales
Una matriz unitaria es aquella cuyos elementos son (todos) iguales a 1. As,
las matrices
1 1
1 1
1 1 1
1 1 1
1 1 1
1
1
1 1 1
1 1 1
1 1 1
1 1 1
OLUCIN
[(1 ) 1] [(1 ) + 1] = 0
15
1 = 0
2 = 2
1
1
1
det 1
1
1
1
1
1
= (1 ) + 1 + 1 (1 ) (1 ) (1 ) = 0
3
(1 3 + 3
3 ) + 2 3 (1 ) = 0
1 3 + 3 2 3 + 2 3 + 3 = 0
3 2 3 = 2 ( 3 ) = 0
Llegamos a que:
1 = 0
2 = 0
3 = 3
1
1
1
1
det
1
1
1
1
1
1
1
1
Fila referencial
1 = 1
1
1
1
1
1
1
1
1
1
2 = 1 1
1
1
1
16
1 1
1
3 = 1
1
1
1
1
1
1 1
1
1
1
4 = 1
1
1
1
Dado que no hay filas con ceros, tomamos la primera fila como referencial y
aplicamos el mtodo de los cofactores (notemos que para el caso de esta
matriz, sea cual se la fila, el cofactor ser el mismo):
1+1
1+ 2
1+ 3
det ( ) = (1 ) ( 1) det [ 1 ] + (1) ( 1) det [ 2 ] + (1) ( 1) det [ 3 ] +
+ ( 1 ) ( 1 )
1+ 4
det [ 4 ]
det ( 2 ) = (1 ) + 1 + 1 (1 ) 1 (1 )
2
= 1 2 + 2 + 2 1 2 + 2
= 2
det ( 3 ) = (1 ) + 1 + (1 ) 1 1 (1 )
= 3 2 2 1 + 2 2
= 2
det ( 4 ) = 1 + 1 + (1 ) 1 (1 ) (1 )
2
= 2 + 1 2 + 2 1 1 + 1 +
= 2
det (
= (1 ) 2 ( 3 ) + ( 1) 2 + ( 2 ) + ( 1) 2
= ( 2 3 ) ( 3 ) 3 2 = 3 2 3 3 3 + 4 3 2
= 4 4 3 = 3 ( 4 ) = 0
de aqu que los valores propios de una matriz unitaria de orden 4, sern:
1 = 0
2 = 0
3 = 0
4 = 4
OLUCIN
1era alternativa
17
1+a
1
1
aI n + U n = 1
1
1
1
1
1
1
1
1+a
1 + a
1
(1 + a )
1
1
det (aI n + U n ) I = det
1
1
1
1
1
1
(1 + a )
(1 + a )
1
2da alternativa
Otra forma ms eficiente de resolver este problema es con la propiedad de que
los valores propios de la matriz A + kI son iguales a los valores propios de la
matriz A sumados en k.
Es decir:
Av = v
Av + kvI = v + kvI
2.1
( A + kI ) v = ( + k ) v
Diagonalizacin (4 puntos)
[PC2 2004 I]
18
Entonces:
B = MDB M 1
(*)
De manera similar:
(**)
Asimismo tanto (*) como (**) implican que la matriz que resulta de
diagonalizar la matriz AB=BA es DA DB , con lo que se verifica que el valor
propio i-simo de AB es igual al producto del valor propio i-simo de A, por el
valor propio i-simo de B.
(b) Sobre la base de sus conceptos de diagonalizacin, verifique que 1 y 2
son valores propios de la matriz A, si se sabe que es de orden 2, y que cumple
la siguiente ecuacin matricial:
A2 + 3A + 2 ( I2 ) =
donde I2 es una matriz identidad de orden 2.
S
OLUCIN
1era forma
Dado que tenemos que usar nuestros conceptos de diagonalizacin, debemos
expresar la matriz A en funcin de la matriz que resulta de diagonalizarla. Es
decir:
A = PDA P1
la
ecuacin
matricial,
factorizando
Tenemos:
2
P ( DA ) + 2 ( DA ) 3I2 P1 =
( DA ) + 2 ( DA ) 3I2 =
Donde podemos utilizar la forma de la matriz D para formar dos ecuaciones
con los valores propios::
19
0
1
+2
2
0
0
1 0
3
=
2
0 1
12 + 21 3 = 0
22 + 22 3 = 0
Ambas ecuaciones cumplen para los valores 1 y 2, pero tenemos que ver que
1 y 2 puede tomar dichos valores, indistinamente. Entonces, tenemos tres
casos:
Valores propios diferentes: 1 = 1 y 2 = 2 viceversa.
1 = 2 = 1 1 = 2 = 2
Valores propios repetidos
2da forma
A partir de la ecuacin matricial inicial, podemos hacer uso de la definicin de
valores y vectores propios:
A2 + 3A + 2 ( I 2 ) =
Premultiplicamos por el vector v:
A2v + 3Av + 2 ( I 2 ) v =
con lo cual la igualdad deja de se en trimnos de matrices, para pasar a ser
una igualdad e vectores (suma de vectores, igual al vector nulo). Dado que:
por lo que
A ( Av ) = ( Av )
A2 v = 2 v
Av = v
Reemplazamos esto, y obtenemos:
2v + 3v + 2v =
+ 3 + 2 ) v =
+ 3 + 2 ) = 0
1 = 1
20
2 = 2
Demostraciones
Pmxn de
OLUCIN
OLUCIN
,m
2
i
>0
i =1
positiva.
21
OLUCIN
OLUCIN
x n
de
OLUCIN
22
OLUCION
1era alternativa
Si es factible la descomposicin A = BB ' , esto implica que existe la matriz
D 1 / 2 para que B = PD 1 / 2 . Es decir, los valores propios de la matriz
simtrica A deben ser no negativos, por lo que la afirmacin es incorrecta.
Sera no definida negativa, por lo que x ' Ax 0
2da alternativa
Es posible introducir la descomposicin A = BB ' en la forma cuadrtica
en cuestin, tal que x ' ( BB ' ) x 0 ( B ' x ) ' ( B ' x ) 0 donde B ' x = w
es un vector cualquiera. De esta manera la expresin x ' ( BB ' ) x 0
representa el mdulo al cuadrado del vector cualquiera w. Con esto se
verifica que debera ocurrir que x ' ( BB ' ) x 0
(ix) [PC2 2003 II] Si A es una matriz idempotente ( A = A2 ) y simtrica
de orden n tal que: x ' Ax = 0 . Demuestra que si A tiene valores propios
todos 0 , entonces el vector x es necesariamente nulo.
S
OLUCIN
23
OLUCIN
1era alternativa
Sea el vector m Rn y sea la matriz identidad I n de orden n. Entonces
la forma cuadrtica Q = m ' I n m ser igual al producto interno del vector
m: Q = m ' m 0 ( m ' m = 0 puesto que el vector m podra ser igual al
nulo). De esta manera, bajo este anlisis lo nico que se puede concluir es
que la matriz identidad ser, en principio, no definida negativa (o semi
definida positiva).
2da alternativa
Es factible tambin darnos cuenta de que la matriz identidad es diagonal,
por lo que sus elementos son sus mismos valores propios. Dado que son
todos iguales a 1, con este anlisis se llega a que esta matriz es definida
positiva. Ojo que este anlisis no contradice al realizado en la alternativa
1, sino que lo complementa.
(xi) [PC2 2003 II] Sea la forma cuadrtica: Q = v ' Av definida de tal
manera que v es un vector propio de A. Entonces si se desea que Q tome
el mximo valor posible5, este valor ser igual al mayor valor propio de A.
S
OLUCIN
Q = v ' v =
Para esta pregunta no es necesario que utilices tus conceptos de optimizacin, sino nicamente la nocin
de valores y vectores propios.
24
(xii) [PC2 2004 I] Sean M y N son dos matrices de orden n, cuyos valores
propios son positivos y no-negativos, respectivamente; as, la matriz M+N
ser necesariamente definida positiva.
S
OLUCIN
OLUCIN
3.2.3
Un teorema
1 2 n 1 n
1
para todo vector x Rn .
x ' Ax
n
x 'x
25
OLUCIN
Cada valor propio i tiene asociado un vector propio vi. Estos vectores propios
cumplen dos propiedades:
vi ' v j = 0
i j
(condicin de ortogonalidad)
(puesto que A es simtrica y asumo que vi
vi ' vi = 1
i
est normalizado para ser ortonormal)
Dado que por definicin, los vectores propios son linealmente independientes,
stos al ser n vectores generarn al espacio Rn .
X =
a v
X Rn
i i
i =1
De esta manera:
x ' Ax
=
x 'x
( a v ) A (a v )
(a v ) (a v )
i i
i i
i i
(*)
i i
A ai vi = a1Av1 + a2Av2 +
+ an Avn =
i =1
a v
i
i i
i =1
Volviendo a (*)
x ' Ax
=
x 'x
(a v ) (a v )
(a v ) (a v )
i i
i i
i i
i i
1 =
a
a
2
i 1
2
i
a
a
2 =
Entonces:
26
2
i i
2
i
a
a
2
i n
2
i
+ an2 n vn ' vn )
+ an2vn ' vn )
1 ai2
3.2.4
2
i
2
i i
2
i
2
x ' Ax n ai
=
x 'x
ai2
Lqqd.
0 0 0 x
(x , y, z ) = [x , y, z ] 0 1 0 y
0 4 1 z
OLUCIN
TBW
3.2.5
(PC2 2002-II)
H = (1 )I n + '
OLUCIN
n=2
0
(1 )
H =
+
(1 )
0
Valores priopios:
1
1
=
= (1 ) 2 = [ ( 1 ) ] [ ( 1 ) + ] = 0
2
1 = 1
2 = 1 +
Vectores propios:
Para 1 = 1 :
27
v11 0
v12 = 0
Para 2 = 1 + :
v21 0
v22 = 0
1
v1 = t
1
1
v2 = w
1
OLUCIN
3.2.6
1 1
1 3
Q = x 1 x 2 x 3 x 4
2 3
0 7
0 x1
3 7 x 2
5 5 x 3
5 1 x 4
OLUCIN
28
2 8 x 2
x4
8 14 x 4
Q ' ( x 2 , x 4 ) = x 2
Analizando la matriz:
a11 = 2 > 0
8 14
= 28 64 < 0
3.2.7
Formas cuadrticas
Q=
(x
i =1
decir, x =
x ' M0 x .
x)
La expresin
1 n
x i ),
n i =1
1
a. Asumiendo n=2, demuestra que: M 0 = I i i ' donde i es un vector
n
suma de dimensin n.
S
OLUCIN
(i) En general, la expresin que debo analizar debe estar en funcin de las
coordenadas del vector x. Por esto, se podra simplificar la expresin inicial
para poner las medias en funcin del vector x:
n
(x
x) =
2
i =1
(x
i =1
2
i
(x
2
i
i =1
2x i x + x 2 ) =
=
=
i =1
2x i x + x 2 )
2x x i + nx
2
i
i =1
1 n n
1 n
x i2 2 x i x i + n x i
i =1
n i =1 i =1
n i =1
n
x i2 2
i =1
1 n
= x xi
n i =1
i =1
n
2
i
(ii)Para n=2
29
1 n
1 n
x
xi
+
i n
n i = 1
i =1
(x
i =1
1
2
(x1 + x 2 )
n
1
= ( x 12 + x 22 ) ( x 12 + x 22 + 2x 1x 2 )
n
1 2
1
2
= 1 x 1 + 1 x 22 x 1x 2
n
n
x ) = ( x 12 + x 22 )
2
1
1
1 n
x 1
n
x2
1
1 x 2
v
1
n
n
1
1
1 n
1
n
= I ii '
Donde M 0 =
1
1
n
n
n
Notemos que debo tratar de ponerlo como una suma de la identidad mas otra
matriz. Haciendo esto, nos queda que:
1 0
M0 =
0 1
1
n
1
1
n
1
n
1 0 1 1 1
M0 =
0 1 n 1 1
1 1
Lo que comprueba el enunciado, puesto que es directo que i i ' =
.
1 1
OLUCIN
1era alternativa
La forma generalizada de la matriz M 0 es:
30
1
1
1
n
n
n
1 0 0
1 1 1
1
1
1
0 1 1 1
1
1
0 1
n
n
n
M0 =
0 0 1
1 1 1
1
1
n
n
n
1
1
1 n
1n
1
1 1
1
M0 =
= U *
n
n
1
1
1 n
2
i
i =1
i =1
n
1 n
x
i xi
n i =1 j =1
Para n=2
x 12 + x 22
1 2
x 1 + x 22 + 2x 1x 2 0
2
31
1 2
x 1 + x 22 + x 32 + 2x 1x 2 + 2x 1x 3 + 2x 2x 3 0
3
Multiplicando todo por 3:
2x 12 + 2x 22 + 2x 32 2x 1x 2 2x 1x 3 2x 2x 3 =
x 12 + x 22 + x 32
= ( x 12 2x 1x 2 + x 22 ) + ( x 12 2x 1x 3 + x 32 ) + ( x 22 2x 2x 3 + x 32 )
= (x1 x 2 ) + (x1 x 3 ) + (x 2 x 3 )
2
= ( 0) + ( 0) + ( 0) 0
(n 1) x 12 + (n 1) x 22 + + (n 1) x n2 2x 1x 2 2x 1x 3 asi sucesivamente
esto se puede agrupar de tal manera que:
n
n 2
+
+
x
2
x
x
x
n
3
x i2 = [ 0] + { 0} 0 siempre!
(
)
(
)
i
i j
j
i =1
i j
3era alternativa
Esta matriz es la famosa matriz M que es bastante utilizada en econometra.
Si haban llevado el curso de introduccin tal vez la conocan, y es que M 0 es
la matriz M asociada con el intercepto en un modelo lineal, y aquella que
aplicada a cada variable, la transforma en desviaciones respecto de su media.
Esta matriz M es idemponente, y como tal (como puede verse en la solucion
alternativa 1) nicamente tiene valores propios que pueden ser 0 1.
3.2.8
Desigualdad de Schwartz
[PC2 2004 I]
a. Verifique que para toda matriz A de orden nxm (con n>m), la matriz AA
tiene valores propios no negativos.
S
OLUCIN
Si la matriz tiene valores propios no negativos, entonces o los que tiene son
ceros (algunos de ellos) o son poaitivos. De esta manera, o bien la matriz AA
es definida positiva (DP) o es semi-definida positiva.
(i) Definida Positiva
Implica que y ' ( A ' A) y = ( Ay ) ' ( Ay ) > 0 , es decir, que el vector Ay
32
b. Considere una matriz de nx2 (con n>2) cuyas columnas son los vectores x e
y, tal que A = x y . Sobre la base de su respuesta en a., y del concepto
OLUCIN
x 1 y1
x 2 y2
A=
A = x nx 1 y
nx 1
x n yn
De modo que la matriz A se puede expresar como:
x '1xn
x 1 x 2 x n
A' =
A ' = y y y
y'
2
n
1
1xn
Con esta notacin abreviada obtenemos la expresin para AA:
x '1xn
x ' x x ' y
A' A =
x nx 1 y nx 1 =
nx 2
y'
y 'x y 'y
1xn 2xn
2x 2
(*)
Si
( A ' A)1
existe, entonces
A ' Ay =
implica que
33
si es SDP
Solucin
La expresin de la desigualdad de Schwartz relaciona los mdulos y los
productos internos cruzados de dos vectores. Es decir, est definida para
vectores. Lo que debemos de hacer es tratar de reexpresar esta expresin, en
funcin a ciertos vectores.
Para ello hay que tener en cuenta que, dado que Q es simtrica y definida
positiva:
(i) Q puede cumplir con la descomposicin ortogonal, es decir
DQ = PQP 1 = PQP ' , siempre y cuando asumamos que la matriz P est
formada por los vectores propios de Q, adecuadamente normalizados para ser
ortonormales (es decir P es ortogonal).
(ii) Al tener se definida positiva, es decir, tener todos sus valores propios
positivos, puede descomponerse como Q=CC, lo que constituye la
descomposicin de Cholesky.
De esta manera:
34
(C ' x ) ' (C ' y ) [(C ' x ) ' (C ' x )] (C ' y ) ' (C ' y )
(
) (x * ' x *)(y * ' y *)
que es la misma expresin de la desigualdad de Schwartz.
35
Particiones
[PC2 2002 I]
A11 A12
A=
A21 A22
tal que A21 = A12 = . Demostrar que:
det(A) = Gii
i =1
G =
S
{(P
A11P1 )( P21A22P2 ) )
1
1
OLUCIN
3.2.2
q = 2 i
i =1
Ayuda: Pruebe con valores para n y luego obtenga una generalizacin. Sea
consistente.
SOLUCIN
A21
A21 x 1
= x 1 ' A11 x 1 + x 2 ' A22 x 2 + x 1 ' A12 x 2 + x 2 ' A21 x 1
A22 x 2
en donde los trminos cruzados x 1 ' A12 x 2 y x 2 ' A21 x 1 son equivalentes. Por
esta razn, la expresin anterior se puede reescribir como:
36
A11
x 1 ' x 2 '
A21
En donde tenemos:
2 formas cuadrticas
1 polinomio de grado 2
A21 x 1
= x 1 ' A11 x 1 + x 2 ' A22 x 2 + 2x 1 ' A12 x 2
A22 x 2
p= n = 2
q=2(1)=2
Para n=9
A11
A31
A12
A22
A32
En donde tenemos:
3 formas cuadrticas
3 polinomio de grado 2
A31 x 1
A32 x 2 = x 1 ' A11 x 1 + x 2 ' A22 x 2 + x 3 ' A33 x 3 +
A33 x 3
p= n = 3
q=2(1+2)=6
Para n=16
A11 A12 A31 A43 x 1
A A
A43 A44 x 4
42
41
En donde tenemos:
4 formas cuadrticas
12 polinomios de grado 2
p= n = 3
q=2(1+2+3)=12
3.3.2
Matrices mgicas
37
M = AI
23
M = 4
10
11
M, de orden 5:
24 1 8 15
5 7 14 16
6 13 20 22
12 19 21 3
18 25 2 9
0
0
0
0 22.5471
0
21.6874
0
0
DM = 0
0
0
0
14.4036
0
0
0
0
11.9008
0
3.3.3
34
0
46
0
8
0
20
0
22
0
0
48
0
10
0
12
0
24
0
36
48
0
10
0
12
0
24
0
36
0
0
2
0
14
0
26
0
38
0
50
2
0
14
0
26
0
38
0
50
0
0
16
0
28
0
40
0
42
0
4
16
0
28
0
40
0
42
0
4
0
0
30
0
32
0
44
0
6
0
18
30
0
32
0
44
0
6
0
18
0
Un poco de teora:
(1) El Modelo Lineal General en breve
En econometra, el Modelo Lineal General viene dado por la siguiente sistema
de ecuaciones:
38
y1
x 11 x 12 x 1k
y2
x 21 x 22 x 2k
=
yn nx 1 x n 1 x n 2 x nk nxk
1
e1
e2
2
+
en
k
kx 1 nx 1
de modo que la solucin para obtener los coeficientes (solucin del modelo),
es que stos minimicen la suma de los errores estimados (vector e) del modelo.
As, la solucin a la minimizacin:
n
Min ei2 = y x y x
es = ( X ' X ) ( X ' y ) .
1
i =1
)(
OLUCIN
(ii) Demuestre que los valores propios de M1 son iguales a los valores propios
de M2 e iguales a 1 y 0.
S
OLUCIN
39