Sunteți pe pagina 1din 53

Introduccin al Algebra Matricial

Alvaro G. Parra1
Versin preliminar y bajo revisin.
Marzo 2005

Alumno de Magster en Economa Financiera de la Ponticia Universidad Catlica de Chile. Todos los
errores y omisiones son mos. Si tiene comentarios, favor de enviarlos a agparra@uc.cl.

ndice general
1. Operaciones Bsicas
1.1. Algunas Deniciones . . . . . . . . . . . . . . . . . .
1.1.1. Matriz . . . . . . . . . . . . . . . . . . . . . .
1.1.2. Matrices cuadradas. . . . . . . . . . . . . . .
1.1.3. Igualdad de Matrices. . . . . . . . . . . . . .
1.1.4. Vectores . . . . . . . . . . . . . . . . . . . . .
1.2. Suma de Matrices y Multiplicacin por un Escalar .
1.2.1. Suma y Resta de Matrices . . . . . . . . . . .
1.2.2. Multiplicacin de una Matriz por un Escalar
1.3. Multiplicacin de Vectores y Matrices . . . . . . . .
1.3.1. Multiplicacin de Vectores . . . . . . . . . . .
1.3.2. Multiplicacin de Matrices . . . . . . . . . .
1.4. Ms Deniciones . . . . . . . . . . . . . . . . . . . .
1.4.1. Matriz Transpuesta. . . . . . . . . . . . . . .
1.4.2. Matriz Identidad . . . . . . . . . . . . . . . .
1.4.3. Matrices Idempotentes . . . . . . . . . . . . .
1.4.4. La inversa de una matriz . . . . . . . . . . .
1.4.5. La Traza de una Matriz . . . . . . . . . . . .
1.5. Matrices Particionadas . . . . . . . . . . . . . . . . .
1.5.1. Denicin . . . . . . . . . . . . . . . . . . . .
1.5.2. Suma de Matrices Particionadas . . . . . . .
1.5.3. Multiplicacin de Matrices Particionadas . .
1.6. Ejercicios Propuestos . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

3
3
3
3
4
4
4
4
4
5
5
5
6
6
7
7
7
8
8
8
9
10
11

2. Determinantes de Matrices Cuadradas


2.1. Permutaciones e Inversiones . . . . . . . . . . . .
2.1.1. Permutaciones . . . . . . . . . . . . . . .
2.1.2. El Nmero Epsilon . . . . . . . . . . . . .
2.2. El Determinante de una Matriz Cuadrada . . . .
2.2.1. Los trminos del Determinante . . . . . .
2.2.2. El Determinante de una Matriz Cuadrada
2.3. Menores y Cofactores . . . . . . . . . . . . . . .
2.4. La Expansin de Laplace . . . . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

13
13
13
14
14
14
14
16
17

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

2.5. La Adjunta de una Matriz Cuadrada . . . . . . . . .


2.6. La Inversa de una Matriz . . . . . . . . . . . . . . .
2.7. Determinantes e Inversas de Matrices Particionadas
2.7.1. Determinantes de Matrices Particionadas . .
2.7.2. Inversas de Matrices Particionadas . . . . . .
2.8. Rango de una Matriz . . . . . . . . . . . . . . . . . .
2.9. Ejercicios Propuestos . . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

.
.
.
.
.
.
.

18
19
19
19
21
22
22

3. Espacios Vectoriales y Dependencia Lineal


3.1. Sumas de Vectores y Multiplicacin por un Escalar
3.1.1. Suma de Vectores . . . . . . . . . . . . . .
3.1.2. Multiplicacin de un Vector por un Escalar
3.2. Relaciones y Medidas de Vectores . . . . . . . . . .
3.2.1. Multiplicacin de Vectores . . . . . . . . . .
3.2.2. La Norma de un Vector . . . . . . . . . . .
3.3. Dependencia e Independencia lineal . . . . . . . . .
3.3.1. Sistemas Homogneos . . . . . . . . . . . .
3.4. Ejercicios Propuestos . . . . . . . . . . . . . . . . .
3.5. Espacios, Subespacios y Bases Vectoriales . . . . .
3.5.1. Sistemas no Homogneos . . . . . . . . . .
3.6. Ejercicios Propuestos . . . . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.

25
25
25
26
26
26
27
28
29
30
31
31
32

4. La Ecuacin Caracterstica de una Matriz


4.1. El Problema de los Valores Caractersticos . .
4.2. Vectores y Valores Propios . . . . . . . . . . .
4.3. La Matriz Modal . . . . . . . . . . . . . . . .
4.4. Aplicaciones de la Descomposicin Espectral
4.4.1. El Rango de una Matriz . . . . . . . .
4.4.2. La Traza de una Matriz . . . . . . . .
4.4.3. El Determinante de una Matriz . . . .
4.4.4. Potencias de una Matriz . . . . . . . .
4.4.5. Matrices Idempotentes . . . . . . . . .
4.5. Ejercicios Propuestos . . . . . . . . . . . . . .

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.

34
34
34
37
38
38
39
39
40
41
42

5. Formas Lineales, Cuadrticas y


Clculo Matricial.
5.1. Formas lineales . . . . . . . . . . . . .
5.2. Formas Cuadrticas . . . . . . . . . .
5.3. Matrices Denidas y Semidenidas . .
5.4. Clculo Matricial . . . . . . . . . . . .
5.4.1. Funciones Reales . . . . . . . .
5.4.2. Derivadas de Funciones Reales
5.4.3. Aproximacin a una Funcin .
5.5. Ejercicios Propuestos . . . . . . . . . .

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

44
44
44
45
46
46
47
48
50

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.

Captulo 1

Operaciones Bsicas
1.1.
1.1.1.

Algunas Deniciones
Matriz

Una matriz es un arreglo rectangular de nmeros encerrados por un par de corchetes. Algunos
ejemplos de matrices son:
1 2
2 3 7
A=
; B=
3 4
1
1 5
Se pueden representar en una matriz datos agrupados por columnas, los pagos de un conjunto de
activos en cada estado de la naturaleza, los coecientes de un sistema de ecuaciones, etc.
Por convencin las matrices se representan con letras en maysculas.
Ejemplo 1.1. La matriz B puede ser la matriz de coecientes del siguiente sistema de
ecuaciones.
2x + 3y + 7z = 0
x y + 5z = 0
Formalmente, se dice que la matriz
2
6
6
6
4

a11
a21
..
.

a12
a22
..
.

:::
:::
..
.

a1n
a2n
..
.

am1

am2

:::

amn

3
7
7
7
5

(1.1)

es de orden m x n ya que tiene m las y n columnas, donde cada elemento aij es un nmero o
una funcin que pertenece a los nmeros reales o complejos. Por ejemplo, la matriz A es de orden
2 x 2 y la matriz B es de 2 x 3 y sus elementos pertenecen a los nmeros reales.

1.1.2.

Matrices cuadradas.

Cuando m = n, (1.1) es cuadrada y la llamamos matriz cuadrada de orden n. Si una matriz es


cuadrada y es de orden 1 la llamamos escalar. Un ejemplo de una matriz cuadrada es la matriz A.
3

1.1.3.

Igualdad de Matrices.

Las Matrices A y B son iguales, si y solo si, tienen el mismo orden y cada elemento de A es
igual al correspondiente elemento de B.
A = B () aij = bij

1.1.4.

8 i; j

Vectores

Un vector es un conjunto ordenado de nmeros dispuestos en una la o una columna, tambin


pueden entenderse como una matriz de una la o de una columna. Denominamos vector columna
a una matriz de orden m x 1 y vector la a una matriz de orden 1 x n. Todas las deniciones
anteriores aplican a los vectores.

1.2.
1.2.1.

Suma de Matrices y Multiplicacin por un Escalar


Suma y Resta de Matrices

Si A y B son dos matrices de orden m x n, su suma (o resta) es una matriz C de orden m x n


donde cada elemento de C es la suma (o resta) de los elementos correspondientes en A y B
A

B = C () cij =aij
1
0

Ejemplo 1.2. Si A=

1.2.2.

A+B

2
1

3
4

bij

i = 1; :::; m
2
1

y B=

3 0
2 5

1+2
2+3 3+0
0 + ( 1) 1 + 2 4 + 5
1

2
( 1)

2
1

3 3
2 4

0
5

j = 1; :::; n
entonces:

3
1

5 3
3 9

1
1

1
1

3
1

Multiplicacin de una Matriz por un Escalar

Si se suma una matriz k veces con ella misma se obtendra una matriz en que cada uno de sus
elementos sera k veces el inicial. A esto se le llama multiplicacin por un escalar, donde el escalar
es k.
B = kA = Ak () bij = kaij = aij k i = 1; :::; m j = 1; :::; n
1
3

Ejemplo 1.3. Sea A =


A+A+A=

1
3

2
4

2
4
+

, entonces:
1
3

2
4

1
3

2
4

3
9

6
12

= 3A = A3

Teorema 1.1. Sean A; B; C matrices de un mismo orden y k un escalar, entonces


cumplen con las siguientes propiedades:
A+B = B+A
A + (B + C) = (A + B) + C
k(A + B) = kA + kB = (A + B)k
4

1.3.
1.3.1.

Multiplicacin de Vectores y Matrices


Multiplicacin de Vectores

Sea A =

a1

a2

::: am

6
6
un vector de orden 1 x m y B = 6
4

b1
b2
..
.

7
7
7un vector m x 1, entonces
5

bm
su multiplicacin C = AB (en ese orden) est denida como la sumatoria de la multiplicacin del
elemento i de la matriz A con el elemento i de la matriz B, esto es:
2
3
b1
m
6 b2 7
X
6
7
ai bi
AB = a1 a2 ::: am 6 . 7 = [a1 b1 + a2 b2 + ::: + am bm ] =
4 .. 5
i=1
bm
2
3
1
2 3 4 4 1 5 = [2(1) + 3( 1) + 4(2)] = [7]
Ejemplo 1.4. (a)
2
2
3
2
3
1 4 4 6 5 = [ 6 6 + 12] = [0]
(b)
3

Ntese que lo que se hizo fue multiplicar una la con una columna, esto hay que tenerlo muy
presente en la seccin que sigue.

1.3.2.

Multiplicacin de Matrices

Sea A una matriz de orden m x p y B una matriz de orden p x n, es decir, la cantidad de


columnas de A es igual a la cantidad de las de B, entonces cada elemento cij de la matriz C = AB
(en ese orden) se obtiene multiplicando la la i de la matriz A con la columna j de la matriz B:
2
32
3 2
3
a11 a12 : : : a1p
b11 b12 : : : b1n
c11 c12 : : : c1n
6 a21 a22 : : : a2p 7 6 b21 b22 : : : b2n 7 6 c21 c22 : : : c2n 7
6
76
7 6
7
6 ..
..
.. 7 6 ..
..
.. 7 = 6 ..
..
.. 7
.
.
.
.
.
.
4 .
.
.
.
.
. 54 .
.
. 5 4 .
.
. 5
am1 am2 : : : amp
bp1 bp2 : : : bpn
cm1 cm2 : : : cmn
donde

cij = ai1 b1j + ai2 b2j + ::: + aip bpj =

Ejemplo 1.5.(a)

3
a11 a12
si A = 4 a21 a22 5 y B
a31 a32
2
a11 b11 + a12 b21
AB = 4 a21 b11 + a22 b21
a31 b11 + a32 b21
5

p
X

aik bjk

k=1

b11
b21

b12
b22

, entonces AB es igual a:

3
a11 b12 + a12 b22
a21 b12 + a22 b22 5
a31 b12 + a32 b22

(b)

si C =

CD =

1
4

2
0

1
2

3
4
5 5, entonces CD es igual a:
2

3
yD=4 1
2

1(3) + 2(1) + 1( 2)
4(3) + 0(1) + 2( 2)

1( 4) + 2(5) + 1(2)
4( 4) + 0(5) + 2(2)

3
8

8
12

Teorema 1.2. Sean las matrices A, B y C compatibles para la multiplicacin y k un


escalar, entonces se cumple que:
A(BC) = (AB)C
A(B + C) = AB + AC
(A + B)C = AC + BC
k(AB) = (kA)B = A(kB) = (AB)k
Sin embargo hay que tener en cuenta que:
(a) generalmente AB 6= BA:

(b) si AB = 0 no necesariamente implica que A = 0 o B = 0:


(c) si AB = AC no necesariamente implica que B = C:
Dado que AB 6= BA, se puede identicar dos tipos de multiplicaciones. Por ejemplo, si tenemos
la multiplicacin AB podemos decir que A est premultiplicando a B pero por otro lado, se
podra pensar de otra forma y decir que B est postmultiplicando a A:
Una vez que ya aprendimos a sumar, restar y multiplicar matrices podemos denir ms matrices.

1.4.

Ms Deniciones

1.4.1.

Matriz Transpuesta.

La transpuesta de una matriz A se obtiene intercambiando las las de A por las columnas de A
y la denotamos como A0 . Si denotamos B = A0 podemos denir la transpuesta de A como:
B = A0 () bij = aji

8 i; j

Ejemplo 1.6. Las traspuestas de las matrices A y B, es decir A0 y B 0 , son respectivamente:


3
2
2 1
1 3
1 5
A0 =
; B0 = 4 3
2 4
7 5
Teorema 1.3. Si A y B son las traspuestas de A y B respectivamente, y si k es un
escalar cualquiera, entonces:
(A0 )0
(A + B)0
(kA)0
(AB)0

=
=
=
=
6

A
A0 + B 0
kA0
B 0 A0

Dado lo anterior podemos denir matriz simtrica como aquella matriz que cumple con A =
A0 .

1.4.2.

Matriz Identidad

La matriz identidad es una matriz diagonal de unos, es decir, una matriz cuadrada donde
todos los elementos fuera de la diagonal principal son ceros y los elementos dentro de la diagonal
son unos.
2
3
1 0 0
Ejemplo 1.7. Una matriz identidad de orden 3: I3 = 4 0 1 0 5 y una de orden 2:
0 0 1
1 0
I2 =
:
0 1
Una de las propiedades de la matriz identidad es que AI = IA = A:

1.4.3.

Matrices Idempotentes

Son aquellas matrices que multiplicadas por s mismas son ellas mismas, es decir, An = A 8n 2 N:
Por ejemplo, si A2 = AA = A entonces A sera una matriz idempotente, la matriz identidad es
idempotente. Adems si la matriz es simtrica se cumple que A0 A = A:
3
2
2
2
4
4 5 ya que:
Ejemplo 1.8. La siguiente matriz es idempotente A = 4 1 3
1
2
3
2
32
3 2
3
2
2
4
2
2
4
2
2
4
4 54 1 3
4 5=4 1 3
4 5
A2 = 4 1 3
1
2
3
1
2
3
1
2
3

1.4.4.

La inversa de una matriz

Si A y B son matrices cuadradas tal que AB = BA = I, entonces se dice que B es la inversa


de A y la denotamos B = A 1 : Tambin se puede decir que A es la inversa de B.
2
3
2
3
1 2 3
6
2
3
0 5, podemos decir que
Ejemplo 1.9. Sea A = 4 1 3 3 5 y B = 4 1 1
1 2 4
1 0
1
una es la inversa de la otra ya que:
2

1
4 1
1

2
3
2

32
3
6
3 54 1
4
1

2
1
0

3 2
3
6
0 5=4 1
1
1

2
1
0

32
3
1
0 54 1
1
1

2
3
2

3 2
3
1
3 5=4 0
4
0

0
1
0

3
0
0 5
1

Si una Matriz no tiene inversa se le llama singular y si la matriz tiene inversa, no singular.

1.4.5.

La Traza de una Matriz

La traza de una matriz es la suma de los elementos de la diagonal principal


P de una matriz
cuadrada, es decir, en nuestra matriz (1.1) es la suma de a11 + a22 + ::: + ann = aii :
Ejemplo 1.10. Sean A y B las matrices del ejemplo anterior, entonces:
(a) tr(A) = 1 + 3 + 4 = 8
(b) tr(B) = 6 + 1 + 1 = 8
Teorema 1.4. Sean A, B, C y D matrices cuadradas del mismo orden y k un escalar,
entonces se cumple que:
tr(kA) = ktr(A)
tr(A) = tr(A0 )
tr(A + B) = tr(A) + tr(B)
tr(In ) = n
tr(ABCD) = tr(BCDA) = tr(CDAB) = tr(DABC)

1.5.

Matrices Particionadas

1.5.1.

Denicin

Una matriz particionada es una matriz de matrices, sta puede representar divisiones imaginarias
dentro de una matriz o divisiones reales:
Ejemplo 1.11. Podemos particionar la matriz B =

2
1

3
1

7 0
5 0

forma:
2
1

3
1

7
5

0
0

o de la siguiente
2
1

3
1

7 0
5 0

para ser una mejor representacin del siguiente sistema de ecuaciones:


2x + 3y + 7z = 0
:
x y + 5z = 0
Formalmente, si se toma la matriz (1.1)
2
a11 a12
6 a21 a22
6
6 ..
..
4 .
.
am1 am2

:::
:::
..
.

a1n
a2n
..
.

:::

amn

3
7
7
7
5

de la siguiente

y se particiona tomando s grupos de las (m1 ; m2 ; :::; ms ) y t grupos de columnas (n1 ; n2 ; :::; nt ),
entonces se podra escribir (1.1) de la siguiente forma:
2
3
A11 A12 : : : A1t
6 A21 A22 : : : A2t 7
7
6
A=6 .
..
.. 7
..
4 ..
.
.
. 5
As1 As2 : : : Ast
donde cada elemento Aij de A es una submatriz de orden mi x nj :
2
3
1 4 5
Ejemplo 1.12. Sea la matriz particionada A = 4 2 9 3 5, entonces se puede repre8 9 6
A11 A12
1 4
5
sentar de la siguiente forma
donde A11 =
; A12 =
; A21 = 8 9
A21 A22
2 9
3
y A22 = 6 .
Un caso especial es el de la matriz diagonal por bloques:
A11
0

0
A22

esta matriz es de suma importancia en econometra y por eso la estudiaremos en profundidad.

1.5.2.

Suma de Matrices Particionadas

Sean A y B matrices de igual orden y particionadas de la misma forma, entonces la suma de


estas matrices es de la forma:
2
3
A11 + B11 ::: A1t + B1t
6
7
..
..
..
C =A+B =4
5
.
.
.
As1 + B s1 ::: Ast + Bst
y la suma de submatrices se realiza
2
1 4
Ejemplo 1.13. Sea A = 4 2 9
8 9
2

3 2
1 4 5
4
4 2 9 3 5+4 2
8 9 6
6
2
1+4 4+3
4 2+2 9+0
8+6 9+8

igual que la suma


3
2
5
4
3 5yB=4 2
6
6

3
3 3
0 2 5 =
8 7
3
5+3
3+2 5 =
6+7

de matrices.
3
3 3
0 2 5, entonces A + B es igual a:
8 7

1 4
4 3
4 2 9 + 2 0
8 9 + 6 8
2
3
5
7 8
4 4
9 5 5
14 17 13

3
5
3
+
3
2 5
6 + 7

1.5.3.

Multiplicacin de Matrices Particionadas

El estudio de matrices particionadas


del estudio de la multiplicacin de matrices,
2 naci a partir
3
a11 a12
b11 b12
recordemos el ejemplo 1.5. Si A = 4 a21 a22 5 y B =
, entonces AB es igual a
b21 b22
a31 a32
2
3
a11 b11 + a12 b21 a11 b12 + a12 b22
AB = 4 a21 b11 + a22 b21 a21 b12 + a22 b22 5 :
a31 b11 + a32 b21 a31 b12 + a32 b22
La pregunta que surgi fue: Qu pasa si cada uno de los elementos de las matrices A y B
son, a su vez, una matriz? La respuesta es que abra que multiplicar cada uno de estos elementos
nuevamente usando la multiplicacin de matrices. Pero para que esta operacin est bien denida
cada una de las submatrices de la columna i de la matriz A tienen que ser conformables para la
multiplicacin con cada una de la submatrices de la la i de la matriz B.
3
2
3 1 0
B11 B12
A11 A12
=
Ejemplo 1.14. (a) Sea A =
= 4 3 2 0 5 y B =
B21 B22
A21 A22
1 0 1
2
3
1 1 1 0
4 2 1 1 0 5, entonces AB es igual a:
3 2 1 2
AB

=
2

A11 B11 + A12 B21


A21 B11 + A22 B21

2
6 3
6
= 4
1
2
4
= 4 7
1

1
2
0

1
2
1
2

1.6.

1
0
2 3 1
+
1
0
1
+ 1 2 3 1
1

A11
0

A11
0
0
A22

2
3

1
2

0
2

3
0
0
2 7
+
0
0
7
5
0
+ 1 2
0

3
4 3 3
0
0
+
0
0 5=4 7 5 5
0 + 2
3 4 2

3 3
0 0 0
+
5 5
0 0 0
1 1 + 2 3 1

(b) Sea A =

A0 A =

1
1
1
1

A11 B12 + A12 B22


A21 B12 + A22 B22

0
, entonces A0 A es igual a:
A22
0

A11
0

0
A011 A11
=
A22
0

Ejercicios Propuestos

10

0
:
A022 A22

3
0
0 5:
2

1. De las siguientes matrices, Cules son conformables para la suma?. Calcule la suma de
aquellas que cumplen con la propiedad anterior.
2
3
2
3
2 7
8 7
1 7 2
2 35
A = 4 4 5 6 15 :
B = 44
3 5 9 0
1 5 6
2
3
2
3
0
1 3
8
4
8 6
63
6 7
0 9 47
2 37
7
7
C = 6
D=6
4 2 0 4
5
4
7
1
3 25
4
2 9 0
6
5 1
2
3
2
3
5 3
6
3 3 6
E = 46 2 15
F = 4 5 1 85
9 0 7
9 7 2
2
3
2
3
6 3 2
1 2 5
61 4 17
7
25
H=6
G = 44 3
40
2 05
3 4 5
5 0 7
2
1
2. Dado A = 45
1

2
0
1

a) Calcule:

3
2
3
3
2 5, B = 44
3
1

1
2
0

3
2
4
2
55 y C = 40
1
3

1) A + B:
2) A C:
3) 2A:
b) Verique: A + (B

C) = (A + B)

C:

c) Encuentre la matriz D tal que A + D = B:


3. Calcule los siguientes productos:
a) 3

b)

c)
d)

2
0
1
2

0
2

8
:
2

1
e) 4 0
0

7
1
2

0
1

1
2
0

3
5
6 47
7
6 6
4 3 5:
2

0
:
2

0
0
2

2
0

0
:
1
32
2
2
15 40
3
0

1
1
0

3
4
2 5:
1
11

1
3
2

3
2
25 :
3

3
3
f ) 4 45 4
5
2
2
4. Sea A = 4 1
1

3
4
3

8 :
3
2
5
1
5 5, B = 4 1
4
1

3
2
5
2
55 y C = 4 1
5
1

3
3
3

2
3
2

a) Muestre que AB = BA = 0; AC = A; CA = C:
b) Con los resultados de (a) muestre que:
1) ACB = CBA:
2) A2 B 2 = (A B)(A + B):
3) (A B)2 = A2 + B 2 :

5. Demuestre:
a) tr(A + B) = tr(A) + tr(B):
b) tr(kA) = ktr(A):
6. Calcule AB en
2
1
4
0
a) A =
0
2
1
6 0
b) A = 6
4 0
0
2
1
6 0
6
6 0
c) A = 6
6 0
6
4 0
0

cada uno de los siguientes casos:


3
3
2
1 0 0
0 1
1 1 5 y B = 4 0 1 0 5:
0 1
1 1 0
3
2
0 0 0 1
2 0 0
6 0 0 2 0
1 0 0 7
7yC=6
4 1 0 0 0
0 0 1 5
0 2 2
0 1 0 0
2
3
0 0 0 0 0
1 0
6 0 1
2 0 0 0 0 7
6
7
6
0 3 0 0 0 7
7yB=6 0 0
6 0 0
0 0 4 0 0 7
6
7
4 0 0
0 0 0 5 0 5
0 0 0 0 6
0 0

12

7
7:
5
0
0
1
0
0
0

0
0
0
3
0
0

0
0
0
0
2
0

0
0
0
0
0
3

7
7
7
7:
7
7
5

3
4
4 5:
3

Captulo 2

Determinantes de Matrices
Cuadradas
2.1.
2.1.1.

Permutaciones e Inversiones
Permutaciones

Una permutacin es la respuesta a la pregunta De cuntas formas distintas se pueden ordenar


n nmeros naturales distintos?, la respuesta es de n! formas distintas ya que en el primer puesto se
tienen n posibilidades, en el segundo se tienen n 1 posibilidades ya que pusimos un nmero en el
primer puesto, en el tercero se tienen n 2 posibilidades ya que se puso un nmero en el primer
puesto y otro en el segundo, y as sucesivamente.
Ejemplo 2.1 De cuntas formas se pueden ordenar los nmeros naturales 1; 2 y 3? De
3! = 6 formas distintas:
123
231

132
312

213
321

Inversiones
En una permutacin de nmeros naturales de 1 a n, si un nmero precede a otro que es menor,
decimos que estos nmero estn invertidos y que la permutacin contiene una inversin, luego el
nmero total de inversiones que posee una permutacin, por denicin, es cuntos nmeros menores
prosiguen despus de nmeros mayores.
Ejemplo 2.2: Sea 614325 una permutacin de nmeros del 1 al 6, sta posee 8 inversiones ya que 6 es mayor que 1,4, 3, 2 y 5, adems 4 es mayor que 3 y 2, por ltimo 3
es mayor que 2.
Si el nmero de inversiones en una permutacin es par (impar), la llamamos permutacin par
(impar).

13

2.1.2.

El Nmero Epsilon

Para cada permutacin de nmeros naturales del 1 al n, se dene el nmero epsilon de la


siguiente manera:
j1 j2 :::jn

=f

1 si j1 j2 :::jn es una permutacin par


1 si j1 j2 :::jn es una permutacin impar

Otra forma de verlo es deniendo como k el nmero de inversiones, entonces:


j1 j2 :::jn

= ( 1)k

Ejemplo 2.3. El nmero epsilon de la permutacin 321 es


lado el de la permutacin 312 es 312 = ( 1)2 = 1:

2.2.
2.2.1.

321

= ( 1)3 =

1. Por otro

El Determinante de una Matriz Cuadrada


Los trminos del Determinante

Si se hace el ejercicio de tomar un elemento de cada la y anotar de qu columna es pero


no repetimos la columna cada vez que elegimos un elemento de cada la, es decir, tenemos n
elementos (uno por cada la) y todos de columnas distintas, los multiplicamos entre s y adems
lo multiplicamos por el nmero epsilon j1 j2 :::jn donde j1 representa la columna del elemento de la
la uno, j2 la columna del elemento de la la 2 y as sucesivamente, se obtendr un trmino del
determinante de una matriz.
j1 j2 :::jn a1j1 a2j2 :::anjn
2
3
a11 a12 a13
Ejemplo 2.3. Sea la matriz A = 4 a21 a22 a23 5 , entonces todos los trminos del
a31 a32 a33
determinante de A son:
123 a11 a22 a33
132 a11 a23 a32
213 a12 a21 a33
231 a12 a23 a31
312 a13 a21 a32
321 a13 a22 a31

2.2.2.

=
=
=
=
=
=

(1)a11 a22 a33


( 1)a11 a23 a32
( 1)a12 a21 a33
(1)a12 a23 a31
(1)a13 a21 a32
( 1)a13 a22 a31

El Determinante de una Matriz Cuadrada

Dado lo anterior se dene el determinante de orden n como la suma de todos los trminos
del determinante de una matriz de orden n, y lo denotamos como det A, o bien, jAj :
X
det A = jAj =
j1 j2 :::jn a1j1 a2j2 :::anjn

14

Ejemplo 2.4.
(a)

(b)

a11
a21

a12
=
a22

a11
a21
a31

a12
a22
a32

12 a11 a22

a13
a23
a33

1
3

2
= 1(4)
4

(d)

2
1
2

3
0
1

a12 a21

+ 132 a11 a23 a32 + 213 a12 a21 a33 + :::


a
a
a
231 12 23 31 + 312 a13 a21 a32 + 321 a13 a22 a31

a11 a22 a33 a11 a23 a32 a12 a21 a33 + :::
+a12 a23 a31 + a13 a21 a32 a13 a22 a31

a11 (a22 a33 a23 a32 ) a12 (a21 a33


+a13 (a21 a32 a22 a31 )
a22
a32

2(3) =

5
0
1 =2
1
0

= a11 a22

123 a11 a22 a33

= a11

(c)

21 a12 a21

1
0

a23
a33

a12

a21
a31

a23 a31 ) + :::

a
a23
+ a13 21
a31
a33

a22
a32

2
1
2

1
1
+5
2
0

0
1

= 2(0(0)

1(1))

3(1(0)

1(2)) + 5(1(1)

= 2( 1)

3( 2) + 5(1) = 9

0(2))

Teorema 2.1: Sea A una matriz cuadrada y k un escalar, entonces se cumple lo siguiente:
(a) detA = detA0
(b) Si todos los elementos de una la o una columna son ceros, entonces detA = 0
(c) Si dos las o columnas son iguales, entonces detA = 0
(d) Si B es igual a A excepto por que una la o una columna es k veces la de A, entonces
se cumple que detB = kdetA
(e) Si sumamos o restamos k veces una la o una columna a otra la o columna, entonces
el determinante no cambia
(f ) Si intercambiamos 2 las o 2 columnas de A, entonces el determinante de la nueva
matriz es detA
(g) Si B es una matriz del mismo orden de A, entonces det(AB) = (detA)(detB)
Ejemplo 2.5. Calculemos los
2
0;87632
(a) A = 40;31141
0;11232

determinantes de las siguientes matrices:


3
2
0;31141 0;11232
18 11
0;24418 0;10214 5 ; (b) B = 427 23
0;10214 0;014971
45 87

3
13
265
92

Comencemos por la matriz A, ocupando (d) factorizamos la primera columna por


0.87632 y se obtiene:

15

1
0;87632 0;35536
0;12817

0;31141
0;24418
0;10214

0;11232
0;10214
0;014971

por (e) restamos 0.31141 veces la primera columna a la segunda y 0.11232 veces la
primera a la tercera:
1
0
0
0;87632 0;35536 0;13352 0;06223
0;12817 0;06223 0;00058
factorizando la segunda columna por 0.13352:
1
(0;87632)(0;13352) 0;35536
0;12817

0
1
0;4611

0
0;06223
0;00058

substrayendo 0.06223 veces la segunda columna a la primera se tiene que:


1
0
1
(0;87632)(0;13352) 0;35536
0;12817 0;4611
= (0;87632)(0;13352)( 0;02843) =

0
0
=
0;02843
0;003326:

Para la matriz B, restemos la segunda columna a la tercera:


18
27
45

11
23
87

2
3
5

y si factorizamos por 9 la primera columna se tiene que:


2
9 3
5

11
23
87

2
3 =0
5

ya que tenemos dos columnas idnticas.

2.3.

Menores y Cofactores

Sea A una matriz cuadrada de orden n cuyo determinante existe. Entonces el determinante de
la matriz que obtenemos al eliminar la la i y la columna j de A la llamamos primer menor de
A y es denotado como jMij j o bien lo llamamos el menor de aij : De la misma forma, el cofactor
de aij est denido como ( 1)i+j jMij j y lo denotamos como ij:
2
3
a11 a12 a13
Ejemplo 2.6. Si A = 4 a21 a22 a23 5, entonces los menores principales y los cofaca31 a32 a33
tores de la segunda la son:
16

jM21 j =

a
a13
; jM23 j = 11
a31
a33

a
a13
; jM22 j = 11
a31
a33

a12
a32

a12
a32

y
21

2+2
= ( 1)2+1 jM21 j = jM21 j ;
jM22 j = jM22 j ;
22 = ( 1)
2+3
=
(
1)
jM
j
=
jM
j
23
23
23

As como denimos primeros menores, como el determinante de la matriz que resulta al eliminar
una la y una columna de la matriz A, se puede denir los segundos menores como el determinante
de la matriz que resulta al eliminar dos las y dos columnas de la matriz A y as sucesivamente.
Imaginemos una matriz cuadrada de orden 5, entonces un segundo y tercer menor son:
jM23;24 j =

a11
a41
a51

a13
a43
a53

a15
a45
a55

; jM145;135 j =

a22
a32

a24
a34

Se dice que dos menores son complementarios si uno esta conformado por las las y columnas
que elimin el otro menor. Por ejemplo, los dos menores anteriores son complementarios. As mismo,
podemos ampliar la denicin de cofactor. El cofactor del menor M(i)(j) est denido como:
A(k)(p) = ( 1)(

P
k+ p)

M(k)(p)

donde M(i)(j) y M(k)(p) son menores complementarios:


Ejemplo 2.7. consideremos la siguiente
2
1
62
6
40
0

matriz:

Entonces el cofactor del menorjM34;34 j =

0
0
4
3

2
1
0
0
1
2

3
0
07
7
35
4

0
, es:
0

A12;12 = ( 1)1+2+1+2 jM12;12 j =

2.4.

0
0

3
4

La Expansin de Laplace

Laplace demostr que el determinante de una matriz A puede ser calculado seleccionando r las
(o columnas) de A, formando todos los menores posibles de esas r las (o columnas), multiplicando
todos los menores con su cofactor y sumando los resultados.
Ejemplo 2.8. Calculemos el determinante de la matriz del ejemplo anterior seleccionando las dos primeras las, esto signica que vamos a tener C24 = 6 menores ya que se
tienen las siguientes combinaciones de columnas: la columna 1 con la 2, la 1 con la 3, la
1 con la 4, 2 con la 3, la 2 con la 4, la 3 con la 4.
17

1
2
0
0

0
0
4
3

2
1
0
0

0
0
3
4

1
2

4
2
( 1)1+2+1+3
3
1

1
3
+
2
4

0
0
( 1)1+2+1+2
0
0

3
4

1
2

4
0
( 1)1+2+1+4
3
0

0
0
+
0
0

2
0
( 1)1+2+2+3
1
0

3
4

0
0

0
0
( 1)1+2+2+4
0
0

2
0
+
1
0

0
0
( 1)1+2+3+4
0
0

4
3

21

Corolario: Sea A una matriz cuadrada de orden 3, entonces su determinante puede ser
calculado de las siguientes formas:
X
jAj =
aij ij para cualquier i, o bien
j

jAj =

aij

ij

para cualquier j.

El corolario anterior es sumamente til al momento de invertir matrices cuadradas de


orden 3.

2.5.

La Adjunta de una Matriz Cuadrada

Sea A una matriz cuadrada de orden n y


adjunta esta denida como:

ij

6
6
adjunta A = adj A = 6
4

el cofactor del elemento aij , entonces la matriz

21

22

..
.

..
.

:::
:::
..
.

n1

n2

:::

11

12

1n
2n

..
.
nn

2
3
1 2 3
Ejemplo 2.9. Para la matriz A = 42 3 25, sus cofactores son:
3 3 4
=
6;
=
2;
=
3;
5; 23 = 3;
11
12
13
21 = 1;
22 =
=
1
33
y su adjunta es:

6
adj A = 4 2
3

1
5
3

3
5
45
1

3
7
7
7
5

31

5;

32

= 4;

Teorema 2.2. Sea A una matriz cuadrada de orden n y adj A su adjunta, entonces se
cumple que:
A(adj A) = (adj A)A = jAj I
18

Ejemplo 2.10. Sea A la matriz del ejemplo anterior, entonces:


2
32
3 2
1 2 3
6
1
5
7 0
5 4 5=4 0
7
A(adj A) = 42 3 25 4 2
3 3 4
3 3
1
0
0

2.6.

3
0
0 5=
7

7I

La Inversa de una Matriz

Del Teorema 2.2 se desprende una forma de calcular la matriz inversa que denimos en el
punto 1.4.4. Recordemos que la inversa de A es aquella matriz B que cumple con la siguiente
propiedad: AB = BA = I y denotbamos a B = A 1 : Entonces si dividimos el teorema por jAj y
premultiplicamos por A 1 ; encontramos:
3
2
11 = jAj
12 = jAj : : :
1n = jAj
7
22 = jAj : : :
2n = jAj 7
adj A 6
6 21 = jAj
=6
A 1=
7
..
..
.
.
..
..
jAj
5
4
.
.
n1 = jAj
n2 = jAj : : :
nn = jAj
Ejemplo 2.11. La inversa de la matriz A del ejemplo anterior es:

6
adj A
1 4
2
=
=
jAj
7
3

3 2
5
0;8571
4 5 = 4 0;2857
1
0;4286

1
5
3

0;1429
0;7143
0;4286

3
0;7143
0;57145
0;1429

Teorema 2.3. Sean A, B y C matrices compatibles para la multiplicacin, entonces se


cumple que:
A

(A 1 ) 1
(A 1 )0

= A
= (A0 )

Si A es simtrica, A
(AB)
(ABC)

2.7.
2.7.1.

1
1

= B
= C

1
jAj

A 1
1
(AB)

es simtrica.

=C

Determinantes e Inversas de Matrices Particionadas


Determinantes de Matrices Particionadas

El determinante de una matriz particionada es igual al de una matriz comn y corriente pero
como las submatrices son de menor orden que la matriz original puede que sea conveniente, para
simplicar los clculos, calcular el determinante en funcin de las submatrices. Ac se presentan
algunos resultados importantes:

19

El Determinante de la Matriz Diagonal por Bloques


A11
0
0
A22
est denido por:
Sea A =

una matriz particionada diagonal por bloques, entonces su determinante

A11
0

jAj =
2

3
0
0 7
7, entonces su determinante es:
6 5
8

1 2 0
6 3 0 0
Ejemplo 2.12. Sea A = 6
4 0 0 5
0 0 9
jAj =
=

2 5
0 9

1
3

0
= jA11 j jA12 j
A22

6
= (1(0)
8

( 6)(40

(2)(3))((5)(8)

(6)(9)) =

54) = ( 6)( 14) = 84

Como tarea puedes tratar de demostrar el mtodo expandiendo por Laplace.


El Determinante de una Matriz Particionada 2 x 2
A11
A21

Sea A =

A12
una matriz particionada, entonces su determinante est denido por:
A22
A11
A21

A12
A22

1 2 5
6 3 0 9
Ejemplo 2.13. Sea A = 6
4 3 8 2
9 7 5
1
3

2
0

2
5

3
7

3
9

8
7

1
3

2
0

5
9

= jA11 j A22

A21 A111 A12

= jA22 j A11

A12 A221 A21

3
6
8 7
7, entonces su determinante es:
3 5
7
6
8

3
3 8
0
0;333
5
7
9 7 0;5
0;1667 9
3
17 21;333
15
= 6
= 6
7
34 35;667
29
= 6(( 15)( 28;667) ( 18;333)( 29))
= ( 6)( 101;6667) = 610
=

2
5
2
5

20

6
8
18;333
28;667

2.7.2.

Inversas de Matrices Particionadas

Al igual que el determinante, su clculo, puede hacerse con la matriz no particionada pero el
estudio de este tipo de matrices es esencial en econometra.
La Inversa de la Matriz Diagonal por Bloques
Sea A =

A11
0

0
A22

una matriz particionada diagonal por bloques, entonces su inversa est

denida por:
A11
0

0
A22

1 2 0
6 3 0 0
Ejemplo 2.14. Sea A = 6
4 0 0 5
0 0 9
2

1
6 3
6
4 0
0

2
0
0
0

0
0
5
9

3
0
0 7
7
6 5
8

A111
0

0
A221

3
0
0 7
7, entonces su inversa es:
6 5
8

1 2
6 3 0
= 6
4 0 0
0 0
2
0
6 0;5
= 6
4
0
0
2
0
6 0;5
= 6
4 0
0

0
0;5
5
9

0;333
0;1667
0
0
0;333
0;1667
0
0

3
0;333
0;1667 7
7=
1
5
6
8

3
0 0
7
0 0
7
0;5714 0;4286 5
0;6429
0;3571
3
0
0
7
0
0
7
0;5714 0;42866 5
0;6429
0;3571

La Inversa de una Matriz Particionada 2 x 2


Sea A =

A11
A21

A12
una matriz particionada, entonces su inversa est denida por:
A22
A11
A21

A12
A22

A111 (I + A12 1 A21 A111 )


A111 A12 1

donde
= A22
2
1 2 5 6
6 3 0 9 8
Ejemplo 2.15. A = 6
4 3 8 2 3
9 7 5 7

A21 A111

A21 (A111 A12 )


3

7
7, entonces su determinante es:
5

21

A111 =

1
3

2
0

0
0;5

0;333
;
0;1667

15
29

18;333
,
28;667

0;2820
0;2852

0;1803
0;1475

entonces

2.8.

0;1754
6 0;0443
=6
4 0;4967
0;6246

0;0344
0;0180
0;4246
0;3656

0;0852
0;1934
0;2820
0;2852

3
0;1475
0;06567
7
0;18035
0;1475

Rango de una Matriz

Antes de denir el rango de una matriz se introducir el concepto de submatriz cuadrada.


Una submatriz cuadrada es cualquier matriz que se obtenga eliminando las y columnas de A, y
que formen una matriz cuadrada.
2
Ejemplo 2.16. Sea A =
0
son:
2
0

1
3

1
2
;
3
0

1
, entonces todas las submatrices cuadradas de A
2

1
1
1
;
; 2 ; 1 ;
2
3
2
1 ; 0 ; 3 ;
2

Entonces el rango de una matriz es el orden de la submatriz cuadrada de mayor orden con
determinante no nulo. En el ejemplo anterior el rango es 2 ya que todas las submatrices cuadradas
de orden 2 tienen determinante no nulo, es decir, son no singulares.
Corolario: Si A es una matriz cuadrada de orden n y su rango es r < n, entonces no
A
tiene inversa denida; ya que A 1 = adj
jAj ;pero si r < n signica que jAj = 0; entonces
la inversa A no est denida. Luego, todas las matrices cuadradas invertibles tienen su
rango igual a su orden ( r = n) y las llamaremos matrices de rango completo.
A continuacin se presentan 3 propiedades muy tiles del rango de una matriz:
(a) rango (A) = rango (A0 )
(b) rango (AB) m n(rango (A); rango (B))
(c) rango (A) = rango (A0 A) = rango (AA0 )
Si A es de orden M x n con n M y B es una matriz cuadrada de rango n, entonces:
(d) rango (AB) = rango (A)
Piense en la diferencia entre (b) y (d).

2.9.

Ejercicios Propuestos

1. Ocupando los trminos del determinante calcule el determinante de las siguientes matrices:
a) A =

3
4

2
:
6
22

b) B =

4
8

6
:
1

2 1
:
2 0
2
3
2 1 2
d ) D = 44 6 45 :
0 1 0
2
3
1 3
2
2 1 5:
e) E = 4 3
2
1
3
c) C =

2. Usando las propiedades de los determinantes (teorema 2.1) calcule el determinante de las
siguientes matrices (tal como se hizo en el ejemplo 2.5):
2
1
A = 42
3

2
2
2

3
2
3
0;6510
25 ; B = 40;2234
3
0;1476

0;2234
0;5945
0;1162

3
0;1476
0;11625 :
0;7129

3. Calcule todos los menores y cofactores de las siguientes matrices:


3 8
:
1 9
2
3
4 5 7
b) B = 49 8 65 :
2 2 2
2
3
5
4 2
3 15 :
c) C = 4 0
8
7 6

a) A =

4. Calcule todos los segundos menores, con sus respectivos complementarios, de la siguiente
matriz. Luego calcule su determinante expandiendo por Laplace.
2
4
63
6
40
0

0
0
5
7

3
4
0
0

3
0
07
7
75
5

5. Calcule la adjunta y la inversa de todas la matrices del ejercicio 1.


6. Calcule el determinante y la inversa de las siguientes matrices particionadas:
3
2
6 3 0 0
6 5 6 0 0 7
7
a) A = 6
4 0 0 2 4 5:
0 0 0 1
23

1 2 8
6 5 7 9
b) B = 6
4 3 7 3
5 5 4

3
0
1 7
7:
2 5
4

7. Calcule el rango de las siguientes matrices e identique aquellas que son de rango completo.
a) A =
b) B =

1
8

7
:
5

2
3

1
3
2
4
d ) D = 49
0
2
1
e) E = 44
7
2
c) C =

1
f) F = 4 4
3

4
:
6
2
5

3
:
6

2
5
8

3
3
65 :
0

3
7
85 :
1

3
5
2

3
2
1 5:
1

24

Captulo 3

Espacios Vectoriales y
Dependencia Lineal
3.1.

Sumas de Vectores y Multiplicacin por un Escalar

Se puede entender un vector de orden n x 1 como una representacin de un punto n-dimensional


en un espacio vectorial de n dimensiones (Rn ). Para entender ms en profundidad esta idea se
trabajar con vectores de 2 dimensiones, es decir, aquellos que pertenecen a R2 .
Ejemplo 3.1. El vector x1 = [4
R2 , grcamente:
y
8
7
6
5
4
3
2
1
0

2], representa al punto (4,2) en un espacio vectorial

x1 = (4; 2)

-x
1 2 3 4 5 6 7 8 9 10

Figura 3.1: El par ordenado (4,2) en un espacio vectorial de 2 dimensiones

3.1.1.

Suma de Vectores

Al igual que la suma de matrices, la suma de vectores slo esta denida en vectores del mismo
orden y es simplemente la suma elemento a elemento.

25

Ejemplo 3.2. La suma de los vectores x1 = [4 1]; x2 = [2 3] es igual a x3 = [(4 + 2)


(1 + 3)] = [6 4]; grcamente:
y
8
7
6
5
4
3
2
1

x1
x2

:
3

x3

x2

:
x1
-x
1 2 3 4 5 6 7 8 9 10

Figura 3.2: Suma de vectores

3.1.2.

Multiplicacin de un Vector por un Escalar

La multiplicacin de un vector por un escalar, al igual que la multiplicacin de una matriz por
un escalar, es sumar k veces el mismo vector y grcamente corresponde a aumentar en k veces la
distancia del vector respecto a su origen.
Ejemplo 3.3. Sea x1 = [3 1] un vector de 2 dimensiones, entonces si se multiplica por
un escalar k = 2, el nuevo vector ser x01 = [6 2]; grcamente:
y
8
7
6
5
4
3
2
1
0

x01 = (6; 2)

x1 = (3; 1)
-x
1 2 3 4 5 6 7 8 9 10
Figura 3.3: Multiplicacin por un escalar

3.2.
3.2.1.

Relaciones y Medidas de Vectores


Multiplicacin de Vectores

Recordemos la denicin del captulo 1:


26

Sea A =

a1

a2

::: am

6
6
un vector de orden 1 x m y B = 6
4

b1
b2
..
.

7
7
7un vector m x 1, entonces
5

bm
su multiplicacin C = AB (en ese orden) est denida como la sumatoria de la multiplicacin del
elemento i de la matriz A con el elemento i de la matriz B, esto es:
2
3
b1
m
6 b2 7
X
6
7
AB = a1 a2 ::: am 6 . 7 = [a1 b1 + a2 b2 + ::: + am bm ] =
ai bi
4 .. 5
i=1
bm
a esta operacin tambin se conoce como producto punto.
2
3
1
2 3 4 4 1 5 = [2(1) + 3( 1) + 4(2)] = [7]
Ejemplo 3.4. (a)
2
(b)

1
2

= [2

2] = [0]

Se dicen que dos vectores son ortogonales si su producto punto es igual a 0. Los vectores del
ejemplo 3.4.b. son ortogonales y grcamente se ven de la siguiente forma:
y
6

x = (2; 1)
* 1
- x

A
A
AUx2 = (1; 2)

?
Figura 3.4: Vectores ortogonales
Podemos apreciar que los vectores ortogonales son perpendiculares.

3.2.2.

La Norma de un Vector

La norma o largo de un vector X est denida como la raz cuadrada del producto punto del
vector con s mismo y lo denotamos como jjXjj :
q
p
0
jjXjj = X X = x21 + x22 + ::: + x2n
27

Ejemplo 3.5. Sea el vector x = [1 2 3], entonces su norma es:

12 + 22 + 32 = 3;742

Dado lo anterior se puede demostrar que:


X 0Y =
jX 0 Y j

1
2
(jjX + Y jj
2

jjXjj

jjY jj )

jjXjj jjY jj (desigualdad de Schwarz)

jjX + Y jj

jjXjj + jjY jj (desigualdad del tringulo)

A los vectores cuyos largos son igual a 1 se les llama vectores unitarios.
Ejemplo 3.6. Sean X 0 = 1

a) X 0 Y

X 0Y

X 0Y

3 ;Y 0 = 3

2 3
3
1
3 405 = (
2
4

4 ; entonces se cumple que:

4
2
7

1
2
3

3
0
4

3 + 0 + 12 =
p
p
1 p 2
=
(( 4 + 22 + 72 )2 ( 12 + 22 + 32 )2 ( 32 + 02 + 42 )2 )
2
1
30
= 15 = ((16 + 4 + 49) (1 + 4 + 9) (9 + 16)) =
= 15
2
2

b)

c)

1
2
3

jX 0 Y j = j15j

15

p
12 + 22 + 32
(3;742)(5)
18;71

jjX + Y jj =

p
42 + 22 + 72
8;306

3.3.

4
2
7

1
2
3

3
0
4
p
32 + 02 + 42

12 + 22 + 32 +
8;742

3
0
4

p
32 + 02 + 42

Dependencia e Independencia lineal

Para facilitar el estudio de la dependencia e independencia lineal vamos a comenzar estudiando


sistemas de ecuaciones homogneos.
28

3.3.1.

Sistemas Homogneos

Un sistema de ecuaciones homogneo es de la forma:


a1 x1 + b1 x2 + c1 x3
a2 x1 + b2 x2 + c2 x3
a3 x1 + b3 x2 + c3 x3

= 0
= 0
= 0

Donde x1 ; x2 y x3 son las incgnitas y ai ; bi ; ci para i = 1; 2; 3 son los coecientes (valores).


Entonces el sistema puede representarse de las siguientes formas:
2
32 3 2 3
a1 b1 c1
x1
0
4a2 b2 c2 5 4x2 5=405 ;
a3 b3 c3
x3
0
Sx = 0
o bien:
2 3
2 3
2 3
a1
b1
c1
4a2 5 x1 + 4b2 5 x2 + 4c2 5 x3 = 0;
a3
b3
c3
s1 x1 + s2 x2 + s3 x3 = 0
Este tipo de sistemas siempre tiene al menos una solucin, la cul es x = 0, esta solucin se
conoce como solucin trivial del sistema homogneo. Veamos si existe otra: si se premultiplica
en ambos lados por S 1 obtenemos:
S

Sx = S
x = 0

Podemos concluir que si existe inversa, es decir, si S es de rango completo, entonces la solucin
trivial ser nica.
Si reordenamos el sistema de la siguiente forma:
2 3
2 3
2 3
a1
b1
c1
4a2 5 x1 + 4b2 5 x2 = 4c2 5 x3
a3
b3
c3

podemos darnos cuenta de que si existiese otra solucin aparte de la trivial, podramos expresar el
vector s3 en funcin de s2 y s1 . Luego podemos hacer la siguiente denicin:
Dependencia lineal: Un conjunto de vectores n-dimensionales F son linealmente
dependientes entre s, si se puede dejar expresado un vector en funcin del resto.
Anlogamente podemos denir dependencia lineal si el sistema de ecuaciones homogneo
conformado por todos los vectores de F tiene ms de una solucin, o bien, la matriz S
conformada por los vectores de F no es de rango completo.
Anlogamente se puede denir independencia lineal :

29

Independencia lineal: Un conjunto de vectores n-dimensionales F son linealmente


independientes entre s, si la solucin al sistema:
s1 x1 + s2 x2 + ::: + sn xn = 0
es nica, es decir, la matriz S conformada por los vectores de F es de rango completo.
2 3
2 3
2 3
2
3
4
Ejemplo 3.7. (a) Los vectores a = 445 ; b = 4 5 5 ; c = 4 14 5 son linealmente
3
1
1
dependientes ya que c = 2b + a:
2 3
2 3
2 3
2
3
1
(b) Los vectores a = 445 ; b = 4 5 5 ; c = 425 son linealmente
3
1
3
independientes ya que la matriz compuesta por los vectores a; b; c tiene determinante
no nulo.
2
3 1
4 5 2 = 33
3
1 3

3.4.

Ejercicios Propuestos

1. Sume y graque los siguientes vectores.


0

a) X1 = 2
b) X3 =

1 ; X2 = 1

2 ; X4 = 0

c) X5 = 4

5 ; X6 =

d ) X7 = 5

4 ; X8 =

2. Multiplique escalarmente y graque los siguientes vectores.


0

a) X1 = 1
b) X2 =

3 ;k = 2
0

3 ;k =
0

c) X3 = 1
d ) X3 =

3 ;k =

2
2

3 ;k = 2
2

3. Calcule el producto punto de los siguientes vectores y verique que se cumpla X 0 Y = 21 (jjX + Y jj
2
2
jjXjj
jjY jj ):
a) X1 = 3

b) X3 = 1
c) X5 =

3
1

1 ; X2 = 4

5 ; X4 = 2
3

4 ; X6 =

30

1 0
2

d ) X7 = 6

1 ; X8 = 2

4. Muestre que los vectores del ejercicio 3 cumplen con la desigualdad de Schwarz y con la del
Tringulo
5. Determine si los siguientes vectores son linealmente dependientes o independientes
a) X1 = 1
b) X1 = 1
c) X1 =

d ) X1 =

11

e) X1 = 1

3.5.

3 ; X2 = 4

3
7

15 ; X3 = 3

4 ; X3 = 8

3 ; X2 = 7

3 ; X2 = 5
0

5 ; X2 =
0

2 ; X2 =

1
3

2 ; X3 = 3
0

2 ; X3 = 1

3
1

4
1

1
0

Espacios, Subespacios y Bases Vectoriales

Antes de denir espacio y subespacio vectorial tenemos que denir 2 conceptos:


Sea F una coleccin de vectores n-dimensionales, decimos que F est cerrado bajo
la suma si para cualquier par de vectores pertenecientes a F se cumple que su suma
tambin pertenece a F. Anlogamente F est cerrado bajo la multiplicacin escalar
si para cualquier vector perteneciente a F y cualquier escalar pertenecientes a los reales
su multiplicacin tambin pertenece a F:
Dado lo anterior se puede denir espacio vectorial
Espacio Vectorial: Cualquier conjunto de vectores F es un espacio vectorial si F est
cerrado bajo la suma y bajo la multiplicacin escalar.
y anlogamente se dene subespacio vectorial
Subespacio Vectorial: Cualquier subconjunto F 2 F es un subespacio vectorial si F
est cerrado bajo la suma y bajo la multiplicacin escalar.

3.5.1.

Sistemas no Homogneos

Un sistema de ecuaciones no homogneo es de la forma:


a1 x1 + b1 x2 + c1 x3
a2 x1 + b2 x2 + c2 x3
a3 x1 + b3 x2 + c3 x3

= d1
= d2
= d3

Donde x1 ; x2 y x3 son las incgnitas y ai ; bi ; ci ; di para i = 1; 2; 3 son los coecientes (valores).


Entonces el sistema puede representarse de las siguientes formas:

31

2
a1
4a2
a3

32 3 2 3
c1
x1
d1
c2 5 4x2 5=4d2 5 ;
c3
x3
d3
Sx = D

b1
b2
b3

Nuevamente la solucin ser nica si S es de rango completo, ya que si se premultiplica por S


se obtiene:
S

Sx = S
x = S

1
1

D
D

Esta solucin es ms relevante de lo que parece, no slo nos ayudar a resolver sistemas de
ecuaciones lineales, sino que tambin signica que si la matriz S es de rango completo, entonces
siempre podremos encontrar una combinacin lineal x de los vectores de S que formen cualquier
vector D, es decir, podremos generar cualquier vector en el espacio. Esto nos lleva a otra denicin:
Base Vectorial: Un conjunto k de vectores F son una base para el espacio vectorial
de k dimensiones F si estos k vectores son linealmente independientes.
En otras palabras, si tenemos k vectores pertenecientes a Rk linealmente independientes, podemos
generar cualquier otro vector perteneciente Rk a travs de una combinacin lineal de estos.
2 3
2 3
2 3
0
0
1
Ejemplo 3.8. Los vectores a = 405 ; b = 415 ; c = 405 son base para el espacio
0
1
0
vectorial R3 , a su vez los vectores a y b no son base
para
el
espacio vectorial R3 , pero si
2 3
x
son base para el subespacio de R3 de la forma 4y 5 :
0
Vectores Elementales: Los vectores elementales E1 ; E2 ; :::; En son vectores unitarios
que sirven como base para Rn y son de la siguiente forma:
E1
E2
..
.
En

3.6.

=
=
=
=

[1 0 ::: 0]
[0 1 ::: 0]
..
.
[0 0 ::: 1]

Ejercicios Propuestos

1. Determine la dimensin del espacio vectorial que generan los siguientes conjuntos de vectores.
De qu forma son estos espacios?
a) X1 = 1
b) X1 = 1

3 ; X2 = 4

2
2

3 ; X2 = 7

5
7

0
0

15 ; X3 = 3
32

c) X1 =

d ) X1 =

11

e) X1 = 1

3 ; X2 = 5

5 ; X2 =
0

2 ; X2 =

4 ; X3 = 8

2 ; X3 = 3
0

2 ; X3 = 1

33

4
1

1
0

Captulo 4

La Ecuacin Caracterstica de una


Matriz
4.1.

El Problema de los Valores Caractersticos

En muchas aplicaciones de las matrices a las matemticas, fsica y ciencias sociales surge el
siguiente problema: Para una matriz cuadrada A de orden n se necesita encontrar los escalares y
los vectores no nulos X que satisfagan simultneamente la siguiente ecuacin:
AX = X
Este sistema de ecuaciones se conoce como el problema de los valores caractersticos. Para
resolver el sistema anterior es conveniente escribirlo de la siguiente forma:
(A

I)X = 0

lo que corresponde a un sistema de ecuaciones homogneo con n incgnitas, el cual tendr soluciones
no triviales si el determinante de la matriz de coecientes es nulo:

det(A

a11
a21
I) =
..
.

a12
a22
..
.

am1

am2

:::
:::
..
.
:::

a1n
a2n
..
.

=0

amn

La expansin de este determinante nos entrega un polinomio de grado n en ; al cual denotamos


por '( ) y lo llamamos polinomio caracterstico de A. La ecuacin que corresponde a '( ) = 0
la llamamos ecuacin caracterstica de A

4.2.

Vectores y Valores Propios

La solucin al problema caracterstico est compuesta por 2 elementos:

34

(a) Las n races de la ecuacin caracterstica:

1;

2 ; :::;

n:

(b) Un vector asociado a cada raz caracterstica: X1 ; X2 ; :::; Xn :


Para aclarar los conceptos, los trminos Valores Propios, Valores Eigen, Valores Caractersticos
y Valores Latentes son iguales. Esto es porque el primer lugar donde se dio nombre al estudio de la
ecuacin caracterstica fue en Alemania donde a los les llamaron Eigenwert, cuya traduccin al
ingles fue Proper Values pero, como se ver ms adelante, con estos valores podemos caracterizar
completamente a una matriz y desde entonces recibieron los nombres de valores caractersticos.
Teorema 4.1. La ecuacin AX = X tiene soluciones no triviales si y slo si es una
raz caracterstica de la ecuacin caracterstica de A y la cul tiene asociado un vector
no nulo X con los cuales la ecuacin se satisface.
Ejemplo 4.1. Analicemos el problema caracterstico de la siguiente matriz: A =

2
2

1
,
3

cuya ecuacin caracterstica es:


'( ) = det(A

I) =

1
2

5 +4=0

y sus soluciones son:


(4

)(1

) = 0 =)

= 1;

=4

las cuales tienen asociadas los siguientes vectores propios:


para

: AX = X )

2
2

1
3

x1
x
x1 + x2 = 0
= 1 )
)
x2
x2
2x1 + 2x2 = 0

podemos apreciar que la primera ecuacin es igual a la segunda, entonces:


x1 =

para

: AX = X )

2
2

x2 ) X2 =
1
3

1
1

x1
4x1
=
)
x2
4x2

2x1 + x2 = 0
)
2x1 x2 = 0

nuevamente estas ecuaciones son idnticas, esto siempre suceder ya que se est cumpliendo el requisito de que (A
I) sea singular
2x1 = x2 ) X1 =

1
2

o cualquier multiplicacin escalar de X1 ; X2 1 .


1 Muchos softwares computacionales y libros imponen la pseudo restriccin de que la norma sea unitaria (kX k),
i
as se cierra el problema y se evita de que existan innitas soluciones para los vectores propios. Adems, bajo ciertas
condiciones, es una propiedad deseable.

35

Geomtricamente, los vectores propios son los nicos que se mantienen invariantes ante el operador lineal A y cualquier otro vector que no sea el propio, se mueve a estos ante el operador lineal
A. Para entender esto, vamos a seguir analizando el problema anterior: aplicaremos al operador A
al siguiente vector B 0 = [0 2] :
2 1 0
2
=
2 3 2
6
grcamente esto se ve:

y
6
8
7
x2 = (2; 6)
6
5
4
3
x1 = (0; 2)
2
6
1
0

-x
1 2 3 4 5 6 7 8 9 10

Figura 4.1: Transformacin A al vector B


Como se aprecia, al premultiplicar B por A tuvimos como resultado un vector que se encuentra
a la derecha del inicial. Hagamos lo mismo con C 0 = [2 0]:
2 1
2 3

2
4
=
0
4

grcamente se ve:
y
8
7
6
5
4
3
2
1
0

x2 = (4; 4)

- x1 = (2; 0)
-x
1 2 3 4 5 6 7 8 9 10
Figura 4.2: Transformacin A al vector C

36

Ac, a diferencia del caso anterior, al premultiplicar C por A el resultado se encuentra a la


izquierda del vector original. Entonces deberan existir dos vectores en los cuales, estas fuerzas se
anulen y que no se muevan ni a la izquierda ni a la derecha. Repitamos el ejercicio con el vector
propio X2 :
2 1 1
4
1
=
=4
2 3 2
8
2
y
8
7
6
5
4
3
2
1
0

6
X20 = (4; 8)

X2 = (1; 2)
-x
1 2 3 4 5 6 7 8 9 10
Figura 4.3: Transformacin A al vector X2

Se puede apreciar que si se premultiplica X2 por A, no se desplaza ni a la izquierda ni a la


derecha, sino que aumenta en una magnitud igual a su valor propio.
Como tarea repite el ejercicio con vector X1 .
Teorema 4.2. Si las races de la ecuacin caracterstica son distintas, entonces los
vectores caractersticos asociados a cada una de estas races son linealmente independientes.
Este teorema puede ser intuitivo por la construccin de los vectores propios, pero como podra
pensarse, no podemos decir lo contrario.
Teorema 4.3. Si las races de la ecuacin caracterstica no son distintas, entonces
los vectores caractersticos asociados a cada una de estas races pueden ser linealmente
independientes como linealmente dependientes.
Por ejemplo los valores propios de una matriz identidad de orden 2 son
cualquier vector puede ser su vector propio.

4.3.

= 1;

= 1 pero

La Matriz Modal

La matriz modal es aquella que est compuesta por todos los vectores propios, es decir, es de la
forma:
M = X1 X2 ::: Xn

37

si se premultiplica esta matriz por la matriz A obtenemos:


AM = AX1

AX2

::: AXn

pero por denicin cada uno de los elementos es:


AX1

AX2

:::

AXn =

1 X1

0
1
60
2
6
donde D es una matriz diagonal de la forma 6 .
.
..
4 ..
0
0
se cumple:
AM = M D

2 X2

:::
:::
..
.
:::

:::
n Xn = M D
3
0
07
7
.. 7 ; entonces podemos concluir que
. 5
n

Esta matriz es de suma utilidad ya que nos permitir escribir (caracterizar) la matriz original en
funcin de su valores y vectores propios. A esto se conoce como descomposicin espectral de
un matriz y se deriva postmultiplicando la expresin anterior por M 1 . Para esto tiene que existir
M 1 pero se vio que una condicin suciente para que esto se cumpla es que los valores propios
sean distintos.
A = M DM 1
Ejemplo 4.2. Continuando con el ejemplo anterior podemos decir que la descomposicin
espectral de A es:
1
2 1
1 1 1 0 32
3
=
1
1
2 3
1 2 0 4 3
3

4.4.

Aplicaciones de la Descomposicin Espectral

Todas las aplicaciones que siguen estn sujetas a que la matriz modal sea invertible, pero
podemos estar tranquilos ya que en econometra la mayora de las matrices con las cuales se trabajar son simtricas y por lo tanto, se cumple el siguiente teorema:
Teorema 4.4. Sea A una matriz simtrica de orden k, entonces A tendr k vectores
propios distintos y ortogonales entre s, luego la matriz modal de A es siempre invertible 2 .

4.4.1.

El Rango de una Matriz

Ocupando la descomposicin espectral de una matriz y las propiedades del rango se puede llegar
a una expresin simplicada del mismo, lo que queremos es conocer:
Rango (A) = Rango (M DM

como sabemos, M es una matriz cuadrada y suponemos que es de rango completo ya que la podemos
invertir, entonces podemos ocupar la propiedad (d) del rango:
Rango (A) = Rango (M D)
2 Si

adems impusimos la condicin que kXi k = 1 se puede demostrar que M

38

= M 0.

ocupando la propiedad (a) y despus nuevamente la (d) obtenemos:


Rango (A) = Rango (A0 ) = Rango (D0 M 0 ) = Rango (D0 ) = Rango (D)
Deducir el rango de D es simple ya que como D es una matriz diagonal el nmero de las o
columnas linealmente independientes ser el nmero de las o de columnas distintas de cero.
Teorema 4.5. El rango de un matriz A ser el nmero de valores propios distintos de
cero si y slo si su matriz modal es invertible.
Ejemplo 4.3. La matriz A del ejemplo anterior es de rango 2 ya que sus dos races
( 1 = 1; 2 = 4) son distintas de cero.

4.4.2.

La Traza de una Matriz

Al igual que el rango, se puede encontrar una expresin para la traza de una matriz a travs de
la descomposicin espectral de sta. Lo que se busca es:
tr(A) = tr(M DM

ocupando la propiedad cclica de la traza:


tr(A) = tr(M DM

) = tr(M

M D) = tr(ID) = tr(D)

dado que D es una matriz diagonal que contiene las races de A llegamos el siguiente teorema:
Teorema 4.6. La traza de una matriz es igual a la suma de sus races caractersticas o
valores propios.
Ejemplo 4.4. La traza de nuestra matriz A es la suma de su diagonal 2 + 3 = 5, como
tambin la suma de sus races 1 + 4 = 5

4.4.3.

El Determinante de una Matriz

En este apartado vamos a tratar de encontrar una expresin para el determinante a travs de
la descomposicin espectral. El determinante de A es igual a:
1

jAj = M DM

ocupando la propiedad de que el determinante de la multiplicacin es igual a la multiplicacin de


los determinantes:
jAj = jM j jDj M 1

como la multiplicacin es conmutativa:

jAj = jM j M

jDj

ocupando la primera propiedad pero al revs:


jAj = M M

jDj = jIj jDj

como el determinante de la identidad es 1 se tiene que:


jAj = 1 jDj =

39

n
Y
i

Teorema 4.7. El determinante de una matriz es igual al producto de sus races caractersticas.
Ejemplo 4.5. El determinante de nuestra matriz A es ((2)(3)
la multiplicacin de sus races 4(1) = 4:

4.4.4.

(1)(2)) = 4, y tambin

Potencias de una Matriz

Debido a lo complejo de los clculos, una de las aplicaciones ms tiles de la descomposicin


espectral de una matriz es su aplicacin a las potencias de una matriz. Lo que queremos es encontrar
una expresin para An , pero partamos encontrando una para A2 :
A2

=
=
=
=
=
=

AA
(M DM 1 )(M DM 1 )
(M DM 1 M DM 1 )
(M DIDM 1 )
(M DDM 1 )
(M D2 M 1 )

luego es fcil demostrar por induccin que An = M Dn M


original ya que la matriz Dn es igual a:
2 n
0 :::
1
n
60
:::
2
6
n
D =6 .
.
.. . . .
4 ..
0

: Esta expresin es ms simple que la

0
0
..
.
n
n

:::

3
7
7
7
5

Teorema 4.8. Para una matriz A, se cumple que An = M Dn M


a todos los nmeros enteros positivos.

para n perteneciente

Se tratar de extender el teorema anterior a los nmeros negativos pero para esto se debe
encontrar otro resultado, invirtamos A:
A

= (M DM

por propiedades de las matrices inversas se tiene que:


A
A

1
1

= (M 1 ) 1 D 1 (M )
= M D 1M 1

el resultado anterior es ms importante de lo que parece. La


2
1= 1
0
:::
6 0
1=
:::
2
6
D 1=6 .
..
..
.
4 .
.
.
0

matriz D
3
0
0 7
7
.. 7
. 5

: : : 1=

es de la siguiente forma:

podemos darnos cuenta que la inversa de D es simplemente una matriz diagonal con los recprocos
de las races caractersticas. Esto nos permite obtener la inversa de una matriz a travs de la
descomposicin espectral de una manera fcil y rpida.
40

Teorema 4.9. Si la matriz A 1 existe, entonces sus vectores propios son los mismos
que los de A y sus valores propios son los recprocos de A.
Podemos darnos cuenta que si una o ms races de A son iguales a cero, es decir, A no es de
rango completo. Entonces D 1 no estara denida y la inversa de A tampoco.
Dado el resultado podemos tratar de encontrar una expresin para A n , pero partamos por
2
A :
A

A 1A
(M D
(M D
(M D
(M D
(M D

=
=
=
=
=
=

1
1

M 1 )(M D 1 M 1 )
1
M 1M D 1M 1)
1
ID 1 M 1 )
1
D 1M 1)
2
M 1)
n

luego, nuevamente es fcil demostrar por induccin que A


4.8.

= MD

:Extendamos el teorema

Teorema 4.8 . Para una matriz A, con inversa denida, se cumple que An = M Dn M
para n perteneciente a cualquier nmero entero.

De la misma forma, se puede pensar que el resultado anterior podra expandirse a potencias
con nmeros reales, lo cual no es del todo cierto, ya que, si elevamos un nmero negativo por 12 , se
estar buscando su raz cuadrada y como se sabe la raz de un nmero negativo, no esta denida.
Teorema 4.11. Para una matriz A con races caractersticas positivas se cumple que
An = M Dn M 1 para n perteneciente a cualquier nmero real.
1

Ejemplo 4.5. Calculemos A 2 y A


1

(a) A 2 = M D 2 M
(b) A

4.4.5.

= MD

1
1

=
1

1
1

1
2

1
0
1
0

1
2

2
3
1
3

0
2

1
3
1
3
2
3
1
3

0
1
4

4
3
2
3

=
1
3
1
3

1
3
5
3
3
4
1
2

:
1
4
1
2

Matrices Idempotentes

En el apartado anterior estudiamos las potencias de una matriz y en el que siguiente, aplicaremos lo aprendido a las matrices idempotentes. Las matrices idempotentes son aquellas matrices
que cumplen con la siguiente condicin An = A, para entender que implicancia tiene esto en la
descomposicin espectral de una matriz estudiemos A2 .
A2 = M D2 M

pero si A es idempotente
A = M D2 M

lo que implica que


M DM

= M D2 M
41

la nica forma que se cumpla esto es que k = , es decir, las races caractersticas de A tienen que
ser 0 o 1. Supongamos que todas las races son 1.
A = M IM 1
= MM 1
= I
Si las races no son todas 1 es decir, son 0 y ocupando la denicin de rango podemos armar
que A es singular.
Teorema 4.12. La nica matriz idempotente de rango completo es la matriz identidad.
Teorema 4.13. Todas las matrices idempotentes, excepto la matriz identidad, son singulares.
Por ltimo, tomando en cuenta que el rango de una matriz son los valores propios distintos de
ceros y que en una matriz idempotente sus races son 0 o 1 podemos concluir:
Teorema 4.14. El rango de una matriz idempotente es igual a la suma de sus races
caractersticas, es decir, es igual a su traza.

4.5.

Ejercicios Propuestos

1. Dadas las siguientes matrices


A=

0
1
2

5
;B =
4

2
D=4 1
1

2
3
2

0 2
;C =
2 4
3
2
4
1
4 5;F = 4 3
3
4

5
1
3
2
3

a) Encuentre la ecuacin caracterstica de cada matriz.

1
5
3
4
35
3

b) Encuentre los vectores y valores propios de cada una de esas matrices imponiendo la
restriccin de que kXi k = 1.
c) Encuentre la matriz modal y su inversa para cada una de las matrices.

d ) Calcule M 0M:
Usando la descomposicin espectral calcule:
e) El Rango de todas las matrices.
f ) La traza de todas las matrices.
g) El determinante de todas las matrices.
h) Las potencias de la forma A3 ; A

para todas las matrices.

42

43

Captulo 5

Formas Lineales, Cuadrticas y


Clculo Matricial.
5.1.

Formas lineales

Un polinomio lineal homogneo es un polinomio de grado 1 y se puede representar de la siguiente


forma:
n
X
q = a1 x1 + a2 x2 + ::: + an xn =
ai xi
i=1

y una representacin matricial del mismo sera:

q = a1

a2

::: an

3
x1
6 x2 7
6 7
6 .. 7 = AX
4 . 5
xn

donde q, A y X pueden pertenecer a los nmeros reales. Este tipo de notacin matricial nos ser
muy til en problemas de optimizacin y en cualquier mbito donde se manejen muchos polinomios
y ecuaciones.

5.2.

Formas Cuadrticas

Un polinomio cuadrtico homogneo es un polinomio compuesto de puros trminos de grado 2


y se puede representar de la siguiente forma:
q=

n X
n
X

aij xi xj

j=1 i=1

y se puede expresar a travs de matrices de la siguiente forma:


q = X 0 AX
44

donde A tiene la propiedad de ser una matriz simtrica y, en general, q puede ser positivo, negativo
o cero dependiendo principalmente de los valores que tome X y A:
Ejemplo 5.1. Escribamos en forma matricial la siguiente forma cuadrtica:
q = x21 + 2x22

7x23

4x1 x2 + 8x1 x3

para esto debemos entender la expresin X 0 AX, con tres incgnitas esta es:
2
32 3
a11 a12 a13
x1
4
5
4
x
x
x
a
a
a
x2 5
q =
1
2
3
21
22
23
a31 a32 a33
x3
= a11 x21 + a22 x22 + a33 x23 + a12 x1 x2 + a13 x1 x3 +
+a21 x2 x1 + a23 x2 x3 + a31 x3 x1+ a32 x3 x2

podemos apreciar que los elementos de la diagonal estn al cuadrado y que los elementos
de la forma aij son los coecientes de los trminos de la forma xi xj , dado lo anterior
nos es conveniente escribir nuestro polinomio de la siguiente forma:
q = x21 + 2x22

7x23

2x1 x2

2x2 x1 + 4x1 x3 + 4x3 x1 + 0x2 x3 + 0x3 x2

luego el polinomio en forma matricial es:


q

x1
2

x2

x3

1
= X0 4 2
4

1
4 2
4

2
2
0

3
4
0 5X
7

2
2
0

32 3
4
x1
0 5 4x2 5
7
x3

Es interesante conocer cundo el valor q de las formas cuadrticas es siempre positivo o siempre negativo. Esto es posible a pesar de que dependa de A y de X, esto lo logramos estudiando
nuevamente la descomposicin espectral.

5.3.

Matrices Denidas y Semidenidas

Como dijimos en el apartado anterior, queremos saber cuando la forma cuadrtica es siempre
positiva o siempre negativa pero para esto debemos estudiar la descomposicin espectral de A:
A = M DM

como en una forma cuadrtica A es simtrica sabemos, por el teorema 4.5, que sus vectores caractersticos son ortogonales entre s, adems si imponemos la condicin de que cada uno de los

45

vectores caractersticos sea un vector unitario (Mi0 Mi = 1) podemos ver que:


3
2
2
M10 M1 M10 M2 : : :
M10
6 M20 M1 M20 M2 : : :
6 M20 7
7
6
6
M 0 M = 6 . 7 M1 M2 : : : Mn = 6
..
..
..
.
4
4 . 5
.
.
.
2

6
6
= 6
4

luego se cumple que:

Mn0
1
0
..
.
0

Mn0 M1

Mn0 M1

:::

0 ::: 0
1 ::: 0 7
7
.. . .
.. 7 = I
. . 5
.
0 ::: 1

M 0M = I ) M 0 = M

M10 Mn
M20 Mn
..
.
Mn0 Mn

3
7
7
7
5

reemplazando en la descomposicin espectral:

A = M DM 0
tomando la forma cuadrtica:
X 0 AX = X 0 M DM 0 X
si denimos y = M 0 X. Entonces:
X 0 AX = y 0 Dy
pero como D es una matriz diagonal podemos escribir la expresin anterior de la siguiente forma:
q = X 0 AX =

n
X

2
i yi

i=1

luego, si A es simtrica, el valor de q depender slo de las races caractersticas.


Teorema 5.1. Sea A una matriz simtrica. Si todas todas las races de A son positivas,
entonces decimos que A es positiva denida. Si las races son mayores o iguales a cero,
entonces decimos que A es positiva semidenida, o bien, denida no negativa.
Teorema 5.2. Sea A una matriz simtrica. Si todas todas las races de A son negativas,
entonces decimos que A es negativa denida. Si las races son menores o iguales a
cero, entonces decimos que A es negativa semidenida, o bien, denida no positiva.

5.4.
5.4.1.

Clculo Matricial
Funciones Reales

Una funcin real f : X ! y es una relacin que asocia, de manera nica, un conjunto de valores
x 2 X a un valor y 2 R, y se denota y = f (x): En esta relacin se denomina a las variables x como
variables independientes o dominio y a la variable y se le denomina variable dependiente o
recorrido.
46

Ejemplo 5.2. La forma lineal corresponde a una funcin de la forma:


q = a1 x1 + a2 x2 + ::: + an xn
donde x1 ; x2 ; :::; xn son las variables del dominio y q es la variable del recorrido.

5.4.2.

Derivadas de Funciones Reales

La derivada de una funcin representa el cambio de y respecto a un cambio innitesimal de


una de las variables independientes. Denominamos vector gradiente a aquel vector columna que
representa a las primeras derivadas de una funcin respecto a todas las variables independientes.
Son representaciones del vector gradiente:
2 @f 3 2 3
f1
@x
6 @f1 7 6 7
6 @x2 7 6 f2 7
7
rf = 6
.7
6 .. 7 = 6
4 . 5 4 .. 5
@f
@xn

fn

Ejemplo 5.3. El vector gradiente de una funcin de la forma:


2 3
x1
4 3 4x2 5
y = 2x1 4x2 + 3x3 ) y = 2
x3
es:

rf =

@f
1
6 @x
@f 7
4 @x2 5
@f
@x3

3
2
= 4 45
3

entonces podemos concluir que la derivada de la forma lineal es:


@AX
= A0
X
Ejemplo 5.4. El vector gradiente de la forma cuadrtica del ejemplo 5.1
y = x21 + 2x22
es:
rf

=
=

7x23
3

4x1 x2 + 8x1 x3

2
3
2x1 4x2 + 8x3
4x1 + 4x2 5
=4
8x1 14x3
2
32 3
2
4
8
x1
4 4 4
0 5 4x2 5
8
0
14 x3
2
32 3
1
2 4
x1
0 5 4x2 5
24 2 2
4
0
7
x3
2AX
@f
1
6 @x
@f 7
4 @x2 5
@f
@x3

47

entonces podemos concluir que la derivada de la forma cuadrtica es:


@X 0 AX
= 2AX
@X
Por otro lado denominamos matriz Hessiana a la matriz de segundas derivadas de una funcin.
Se obtiene tomando cada elemento del vector gradiente y derivndolo respecto a cada una de las
variables independientes, es decir:
2 @f
3
@f
@f
@x @x

1
1
6 @f
6 @x2 @x1
H=6
6 ..
4 .

@f
@xn @x1

@x1 @x2
@f
@x2 @x2

..
.

..

@x1 @xn
@f
@x2 @xn

@f
@xn @x2

..
.

@f
@xn @xn

7
7
7
7
5

Teorema de Young. Si una funcin es continua y doblemente diferenciable, entonces


se cumple que:
@f
@f
=
@xi @xj
@xj @xi
las derivadas cruzadas son iguales.
Entonces podemos armar que, si la funcin es doblemente diferenciable, la matriz Hessiana es
simtrica.
Ejemplo5.5. La matriz Hessiana de nuestra funcin cuadrtica es:
2 @f
3 2
3
@f
@f
2
4
8
@x1 @x1
@x1 @x2
@x1 @x3
6
@f
@f 7
4 4 4
0 5
H = 4 @x@f
@x2 @x2
@x2 @x3 5 =
2 @x1
@f
@f
@f
8
0
14
@x @x
@x3 @x2
@x @x
3 3 3
23 1
1
2 4
0 5
= 24 2 2
4
0
7
= 2A
entonces podemos concluir que el Hessiano de una forma cuadrtica es:
H=

5.4.3.

@ 2 X 0 AX
= 2A
@X 2

Aproximacin a una Funcin

Muchas veces nos ser ms til aproximarse a una funcin que trabajar con ella misma. Una
herramienta para hacer esto es la expansin de Taylor. La expansin de Taylor es una aproximacin
polinomial de una funcin, que consiste en caracterizarla en funcin de sus derivadas y un punto
arbitrario. Nosotros trabajaremos con la expansin de primer y segundo orden pero hay que recalcar
que entre mayor el orden de la aproximacin mejor sera esta.

48

Aproximacin de Primer Orden


La aproximacin de Taylor de primer orden nos entrega una forma funcional lineal de la funcin
original y su formula es:
y f (xo ) + rf (xo )0 (x xo )
donde xo es el punto de expansin, f (xo ) es la funcin evaluada en el punto de expansin y rf (xo )0
es el vector gradiente evaluado en el punto traspuesto.
Ejemplo 5.6. Sea f (x1 ; x2 ) = ln(x1 ) + ln(x2 ). Su aproximacin de primer orden por
Taylor entorno al punto xo = (1; 2), sera de la forma:

ln(1) + ln(2) +

1
1

1;307 + x1 +

x2
2

1
2

x1
x2

1
2

comparemos:
f (1; 2)

= ln(1) + ln(2) = 0; 693


2
y(1; 2) t
1;307 + 1 + = 0; 693
2

en el punto de expansin son idnticos. Veamos en un punto cercano (1;1; 2;1)


f (1;1; 2;1)

y(1;1; 2;1) t

ln(1;1) + ln(2;1) = 0;837


2;1
= 0; 843
1;307 + 1;1 +
2

Aproximacin de segundo orden


La aproximacin de Taylor de segundo orden orden nos entrega una forma funcional lineal de
la funcin original y su formula es:
y

f (xo ) + rf (xo )0 (x

1
xo ) + (x
2

xo )H(xo )(x

xo )

donde xo es el punto de expansin, f (xo ) es la funcin evaluada en el punto de expansin, rf (xo )0


es el vector gradiente evaluado en el punto traspuesto y H(xo ) es el Hessiano de la funcin evaluado
en el punto.
Ejemplo 5.7. Sea f (x1 ; x2 ) = ln(x1 ) + ln(x2 ). Su aproximacin de segundo orden por
Taylor entorno al punto xo = (1; 2), es lo que ya tenamos ms el termino del Hessiano
evaluado en el punto:

y
y

ln(1) + ln(2) +
3;307 + 3x1 +

1
1

3x2
2

1
2

x1
x2
x21

1
+ x1
2
x2
4
49

1 x2

1
0

0
1
4

x1
x2

1
2

comparemos:
2
22
12
= 0;693
2
2
nuevamente en el punto de expansin son iguales. Veamos el punto (1;1; 2;1)
y(1; 2)

y(1; 2)

5.5.

3;307 + 3(1) + 3

3;307 + 3(1;1) + 3

2;1
2

1;12

2;12
= 0;8305
2

Ejercicios Propuestos

1. Escribir las siguientes formas cuadrticas en notacin matricial.


a) x21 + 4x1 x2 + 3x22
b) 2x21

6x1 x2 + x23

c) x21

2x22

3x23 + 4x1 x2 + 6x1 x3

8x2 x3

2. Escriba la siguiente matriz como una forma cuadrtica.


3
2
2
3 1
4 3 2
45
1
4
5
2

6
6
3. Sea A = 6
4

a11
a21
..
.

a12
a22
..
.

:::
:::
..
.

a1n
a2n
..
.

am1

am2

:::

amn

A1 = [a11 ] ; A2 =
entonces demuestre que:

7
7
7 una matriz, entonces las submatrices de A son:
5

a11
a21

a12
a22

a11
; A3 = 4 a21
a31

a12
a22
a32

3
a13
a23 5 ; :::; An = A
a33

a) Si A es positiva denida, entonces los determinantes de las submatrices de A son todos


positivos.
b) Si A es positiva semidenida, entonces los determinantes de las submatrices de A son
todos no-negativos.
c) Si A es negativa denida, entonces los determinantes de las submatrices de A alternan
de signo partiendo por jA1 j < 0; jA2 j > 0; jA3 j < 0; :::; jAn j ( 1)n > 0.

d ) Si A es negativa semidenida, entonces los determinantes de las submatrices de A alternan de signo partiendo por jA1 j 0; jA2 j 0; jA3 j 0; :::; jAn j ( 1)n 0.
4. Encuentre

@X 0 AX
@X

@ 2 X 0 AX
@X 2

para todas las formas cuadrticas de los ejercicios 1 y 2.

5. Aproxime por Taylor las siguientes funciones:


50

a) f (x) = cos(x), en primer grado y alrededor de :


b) f (x) = sin(x): en primer grado y alrededor de 2 3 :
c) f (x) = ex ; en quinto grado entorno al 0.
d ) f (x1 ; x2 ) = x1 ln(x2 ); en segundo grado entorno al punto (2; 2)

51

Bibliografa
[1] Ayres, Frank, Jr. 1962. Theory and Problems of Matrices."Schaum Publishing Co.
[2] Edwards, Gonzalo. 2000. Introduccin al Anlisis de Sistemas Dinmicos."2da edicin. Ediciones Universidad Catlica de Chile. Cap 9 y 14.
[3] Schneider, Hans y Barker, George Phillip. 1968. "Matrices and Linear Algebra."Holt
Rinehart and Winston, inc.
[4] Lang, Serge. 1969. Linear Algebra."4ta edicin. Addison-Wesley Publishing Co.
[5] Greene, William. 2000. Anlisis Economtrico."3ra edicin. Prentice Hall.
[6] Hohn, Franz. 1967. Elementary Matrix Algebra."2da edicin. The Macmillan Co.

52

S-ar putea să vă placă și