Sunteți pe pagina 1din 8

Regla de Cramer y Factorización QR

Jairo Castro, Daniel Muñoz, Cristhian Pinto

Universidad Nacional De Colombia, Facultad de Ciencias.


Carrera de Matemáticas, Álgebra Lineal Básica.

Primer Semestre del 2017

El objetivo de este documento es dar una breve revisión a los teoremas en álgebra
lineal de la Regla de Cramer para sistemas de ecuaciones lineales y la Factorización QR
para matrices. Dando un tratamiento formal a la demostración de cada proposición y
siendo lo más generales posibles.

1. Regla de Cramer
La Regla de Cramer se utiliza para resolver un sistema de ecuaciones lineales que
tiene igual número de ecuaciones y número de incógnitas, donde el sistema tiene so-
lución, de una manera más directa utilizando determinantes. Las condiciones bajo las
cuales funciona dicha regla es que, primero, trabajemos con un sistema n × n (n ecua-
ciones con n variables) y que el determinante de la matriz de coeficientes asociada al
sistema sea diferente de cero.

Entonces, el sistema de ecuaciones lineales de la forma




 a11 x1 + a12 x2 + · · · + a1n xn = b1
 a21 x1 + a22 x2 + · · · + a2n xn = b2

.. ..


 . .
 a x + a x + ··· + a x = b
n1 1 n2 2 nn n n

Tiene representación matricial Ax = b donde A es la matriz de coeficientes aso-


ciada al sistema, x es el vector de variables o incógnitas y b es el vector de términos
independientes. De modo que
     
a11 a12 · · · a1n x1 b1
 a21 a22 · · · a2n   x2   b2 
A =  .. ..  x =  ..  b =  .. 
     
.. . .
 . . . .   .   . 
an1 an2 · · · ann xn bn

1
De una manera más simple, podemos representar a la matriz A por medio de sus
columnas, donde la columna ai ∈ Rn para j = 1, 2, . . . , n.

A = [a1 a2 · · · ai · · · an ]

Si consideramos la i-ésima columna ai de la matriz A, y la remplazamos por el vector


b obtenemos una nueva matriz que denotaremos Ai que es igual a la matriz resultante
de remplazar la columna i de la matriz A por el vector b ası́ pues

Ai = [a1 a2 · · · b · · · an ]

Ahora, la Regla de Cramer nos dice que para este sistema, si el determinante de A,
que denotamos |A|, es diferente de cero, entonces el sistema tiene única solución x y la
componente xi de x es igual a
|Ai |
xi =
|A|
Demostración. Centremos nuestra atención en el determinante de la matriz Ai , es
decir, |Ai | que es precisamente

|Ai | = |[a1 a2 · · · b · · · an ]| (1.1)

Sabemos que el vector de términos independiente, por construcción matricial, se


puede representar como Ax = b. Podemos reemplazar esto en (1.1) y obtenemos

|Ai | = |[a1 a2 · · · Ax · · · an ]| (1.2)

La i-ésima columna de la matriz Ai es el vector Ax que es de la forma


 
a11 x1 + a12 x2 + · · · + a1n xn
 a21 x1 + a22 x2 + · · · + a2n xn 
Ax =  (1.3)
 
.. 
 . 
an1 x1 + an2 x2 + · · · + ann xn

El vector Ax puede expresarse de forma más simple por propiedades de la suma de


vectores en Rn de la siguiente manera

Ax = a1 x1 + a2 x2 + · · · + an xn (1.4)

Consideremos la matriz Aij que resulta de tomar a la matriz A y remplazar su


i-ésima columna por el vector aj xj para j = 1, 2, . . . , n. Estamos considerando

Aij = [a1 a2 · · · aj xj · · · an ] (1.5)

Entonces, estamos considerando el determinante de la matriz Ai cuya i-ésima co-


lumna es el vector Ax. Ahora, las matrices Aij que construimos para j = 1, 2, . . . , n son
iguales a la matriz Ai excepto en la i-ésima columna. Sin embargo, la i-ésima columna
de Ai es resultado de sumar las respectivas i-ésimas columnas de cada matriz Aij para
j = 1, 2, . . . , n. Esto se cumple por (1.4).

2
Por propiedades básicas de los determinantes, entonces

|Ai | = |Ai1 | + |Ai2 | + · · · + |Aii | + · · · + |Ain | (1.6)

Ahora, examinemos con cuidado el determinante de las matrices construidas Aij


para j = 1, 2, . . . , n. Si nos fijamos en la ecuación (1.5) podemos ver que la matriz Aij
resulta de multiplicar la i-ésima columna de la matriz [a1 a2 · · · aj · · · an ] por el
escalar xj . Ası́ que, por propiedades básicas de los determinantes, el determinante de
Aij para j = 1, 2, . . . , n es precisamente

|Aij | = xj |[a1 a2 · · · aj · · · an ]| (1.7)

Reemplazando la ecuación (1.7) para j = 1, 2, . . . , n en la (1.6) obtenemos

|Ai | = x1 |[a1 a2 ··· a1 ··· an ]|


+x2 |[a1 a2 ··· a2 ··· an ]|
(1.8)
+ · · · + xi |[a1 a2 ··· ai ··· an ]|
+ · · · + xn |[a1 a2 ··· an ··· an ]|

Utilizando la propiedad de determinantes donde si una matriz tiene dos columnas


iguales entonces su determinante es cero y la expresión que tenı́amos en un principio
para la matriz A en columnas: A = [a1 a2 · · · ai · · · an ]. Reducimos (1.8) a

|Ai | = x1 · 0 + x2 · 0 + · · · + xi |A| + · · · + xn · 0 = xi |A| (1.9)

Dado que |A| es diferente de cero, finalmente concluimos lo que nos asegura la Regla
de Cramer de las soluciones del sistema
|Ai |
xi = (1.10)
|A|

Ejemplo 1. Consideremos el siguiente sistema de ecuaciones lineales de 4 ecuaciones


con 4 incógnitas 
 −2x +2y
 −3z +w = 15
4x −y +z +3w = −6


 −3x +2y −z +2w = 17
x −3y −2z +w = −7

Hasta aquı́ se cumple que el sistema tenga igual número de ecuaciones a número de
variables, es un sistema 4 × 4. La reprecentación matricial de este sistema es Ax = b
donde      
−2 2 −3 1 x 15
 4 −1 1 3   y   −6 
A=  −3
 x =   b =  
2 −1 2   z   17 
1 −3 −2 1 w −7

3
Comprobemos que el determinante de A es distinto de cero

−2 2 −3 1

4 −1 1 3
|A| =

−3 2 −1 2
1 −3 −2 1

−1 1 3 4 1 3

= (−2) 2 −1 2 − (2) −3 −1 2
−3 −2 1 1 −2 1

4 −1 3 4 −1 1

+(−3) −3 2 2 − (1) −3 2 −1
1 −3 1 1 −3 −2
= (−2)(1 − 6 − 12 − 9 − 4 − 2) − (2)(−4 + 2 + 18 + 3 + 16 + 3)
+(−3)(8 − 2 + 27 − 6 + 24 − 3) − (−16 + 1 + 9 − 2 − 12 + 6)
= (−2)(−32) − (2)(38) + (−3)(48) − (−14)
= 64 − 76 − 144 + 14 = −142

Ası́ que |A| = −142. Ası́ que no tenemos problema en utilizar la Regla de Cramer.
Encontremos rápidamente los determinantes de las matrices A1 , A2 , A3 y A4 .

15
2 −3 1 −2 15 −3 1

−6 −1 1 3 4 −6 1 3
|A1 | = = 284 |A 2 | = −3 17 −1 2 = −426

17 2 −1 2
−7 −3 −2 1 1 −7 −2 1

−2 2 15 1 −2 2 −3 15

4 −1 −6 3 4 −1 1 −6
|A3 | =
= 142 |A4 | = = −284
−3 2 17 2 −3 2 −1 17
1 −3 −7 1 1 −3 −2 −7
Finalmente, la solución x del sistema es

|A1 | |A2 | |A3 | |A4 |


x= = −2 y= =3 z= = −1 w= =2
|A| |A| |A| |A|

4
2. Factorización QR
Para toda matriz A de tamaño m × n, cuyas columnas forman un conjunto l.i.,
existe una matriz Q de tamaño m × n cuyas columnas forman un conjunto ortonormal,
y una matriz triangular superior R de tamaño n × n tales que
A = QR
Demostración. Podemos representar la matriz A como lo hicimos anteriormente
A = [a1 a2 · · · an ]
Cuyas columnas aj ∈ Rm para j = 1, 2, . . . , n forman un conjunto l.i.. Por el teore-
ma acerca de la base del espacio columna de una matriz, dada la matriz A, las columnas
de A correspondientes a las columnas pivotales de una matriz escalonada equivalente a
A forman una base de CA . Por tanto, el conjunto {a1 , a2 , . . . , an } es una base de CA .

Por el teorema acerca del Proceso de Ortogonalización de Gram-Schmidt, como todo


subespacio vectorial no vacı́o tiene al menos una base ortonormal, entonces existe un
conjunto {u1 , u2 , . . . , un } tal que es una base ortogonal de CA donde se tiene
u1 = a1
a2 · u1
u2 = a2 − u1
u1 · u1
.. (2.1)
.  
an · u1 an · u2 an · un−1
un = an − u1 + u2 + · · · + un−1
u1 · u1 u2 · u2 un−1 · un−1
Despejando los vectores aj de (2.1) obtenemos lo siguiente
a1 = u1
a2 · u1
a2 = u1 + u2
u1 · u1
.. (2.2)
.
an · u1 an · u2 an · un−1
an = u1 + u2 + · · · + un−1 + un
u1 · u1 u2 · u2 un−1 · un−1

Sea Q̂ = [u1 u2 · · · un ] y consideremos los siguientes vectores en Rn


r1 = (1 0 · · · 0)T
 T
a2 · u1
r2 = 1 0 ··· 0
u1 · u1
.. (2.3)
.
 T
an · u1 an · u2 an · un−1
rn = ... 1
u1 · u1 u2 · u2 un−1 · un−1

Dados (2.2), la matriz Q̂ y (2.3) es fácil deducir que


ai = Q̂ri para i = 1, 2, . . . , n. (2.4)

5
Con todo esto, construyamos la matriz R̂ = [r1 r2 · · · rn ] y ası́ es fácil ver que
gracias a (2.4) y la matriz R̂ tenemos que A = Q̂R̂. Hasta aquı́, hemos logrado factori-
zar la matriz A como el producto de una matriz Q̂ cuyas columnas forman un conjunto
ortogonal, pero no necesariamente normal, y una matriz triangular superior R̂.

Ahora, como acabamos de mencionar, las columnas de la matriz Q̂ forman un con-


junto ortogonal. Por el teorema acerca de la caracterización de un conjunto ortogonal
entonces se cumple que Q̂T Q̂ = D tal que D es una matriz diagonal cuyos elementos
de la diagonal son dii = ui · ui = kui k2 .

Es fácil probar que la matriz diagonal D se puede ver como el producto de una
matriz D̂ por ella misma, es decir, D = D̂D̂ donde la matriz D̂ también es diagonal
y los elementos de la diagonal son dˆii = kui k. La matriz D̂ es invertible e involucra
las normas de las columnas de Q̂. En otras palabras, es fácil ver que la matriz D̂−1 es
1
diagonal y los elementos de la diagonal son precisamente dˆ−1
ii = .
kui k
Ası́, si tomamos Q = Q̂D̂−1 estamos dividiendo a cada columna de Q̂ entre su
respectiva norma, y ası́ el conjunto que conforman las columnas de Q resulta ser orto-
normal. En términos más formales, si las columnas de la matriz Q forman un conjunto
ortonormal entonces se tiene que QT Q = In .

QT Q = (Q̂D̂−1 )T Q̂D̂−1 = D̂−1 Q̂T Q̂D̂−1 = D̂−1 D̂D̂D̂−1 = In (2.5)

Por otro lado, si tomamos R = D̂R̂ estamos considerando que como D̂ es diagonal,
en particular es triangular superior y al multiplicar por R̂ que es triangular superior
resulta la matriz R ser también triangular superior.

Finalmente, comprobemos si A = QR. Por las consideraciones tomadas, entonces

A = QR = Q̂D̂−1 D̂R̂ = Q̂In R̂ = Q̂R̂ (2.6)

Ejemplo 2. Consideremos el mismo ejemplo de la sección anterior, ya que una de las


utilidades de la Factorización QR es poder resolver sistemas de ecuaciones lineales de
otra manera relativamente directa. Entonces, tenemos el sistema


 −2x +2y −3z +w = 15
4x −y +z +3w = −6


 −3x +2y −z +2w = 17
x −3y −2z +w = −7

Que puede ser escrito de la forma matricial Ax = b ası́


    
−2 2 −3 1 x 15
 4 −1 1 3  −6 
 y  = 
  
 
 −3 2 −1 2   z   17 
1 −3 −2 1 w −7

6
Teniendo la matriz A, cuyas columnas son l.i. al ser su determinante distinto de ce-
ro, podemos realizar la factorización QR para simplificar el sistema. Entonces, primero
debemos encontrar un conjunto ortogonal que sea base de CA . Para esto, como mencio-
namos, se realiza el proceso de Gram-Schmidt.
 
−2
 4 
u1 =   −3 

 1   
2   −2
 −1  17   4 

u2 =    − −
2  30  −3 
 −3   1   
−3   −2   2
 − − 11  4  − − 3  −1 
 1     
u3 =   −1  30  −3  18  2 
 −2  1   −3  
1   −2 2   −3
 3  5  4   −1  4   1 

u4 =   −
    − (0)   − −
2 30  −3   2  15  −1 
1 1 −3 −2

Por tanto, las columnas de la matriz Q̂ son


 13
− 170 8
      
−2 15 39 15
 4   19   329   13 
u1 =   15 78  u =  5
 −1  u2 =  3
  u3 =  125 4 67

  −   
10 39 30
73 43 3
1 − 30 − 26 10

Teniendo los coeficientes de las proyecciones vectoriales, los vectores columna de la


matriz R̂ son
   17   11   5 
1 − 30 − 30 30
 0  1  −3 
 r3 =  18  r4 =  40 
   
r1 =  0 
 r2 = 
 − 
 0   1  15
0 0 0 1
√ q
La norma de las columnas de la matriz ortogonal Q̂ son ku1 k = 22, ku2 k = 251 30
,
q q
1 50497
ku3 k = 13 6
y ku4 k = 31 1091
10
Por tanto, las matrices Q y R son
q
 q q q 
2 2 2 2
− 11 13 3765 −170 151491 8 5455
 q q q 
2 2 329 2
 2 11 19 3765 39 5455
 
302982 
Q=
 q q 
 − √122 3 25103 2
−125 151491 √ 67

10910

 q 
1 73 3 √ 9

22
− √7530 −43 100994 10910

7
 √ 17
√ 11
√ 5
√ 
22 − 30
q 22 − 30
q 22 30
22
251 3 251
0 − 18 30 0
 
30
 
R=
 q q 
1 50497 4 1 50497
0 0 13 − 15

6 13
q 6
 
 
1 1091
0 0 0 3 10

S-ar putea să vă placă și