Sunteți pe pagina 1din 23

Regla de Kramer.

1 Matrices
1.1 Definición
Una matriz es un arreglo rectangular de números, símbolos o expresiones dispuestos en filas y
columnas, a cada integrante de esteos elementos se le llama entrada y se suelen representar por
letras minúsculas.
Para identificar la ubicación de cada entrada fuera de la matriz, se le coloca un índice y subíndice
que indican la fila y columna respectitivamente a la que pertenecen.
!
a11 a12 a13 a14
a21 a22 a23 a24 .
Asimismo, se usa la letra i para denotar una fila cualquiera y se coloca en forma de índice, por
otro lado la letra j denota una columna cualquiera y se coloca como subíndice, una matriz en
general tiene la representación:
(aij ),
una notación alternativa es colocar ambos números como subíndice, con el acuerdo de que el
número que va primero es el de la fila:
!
a11 a12 a13 a14
(aij ).
a21 a22 a23 a2
Nótese que en ambas notaciones se diferencian dos veces las filas y columnas: con la posición
del índice y por la letra usada.
Las matrices también se denotan por letras mayúsculas: A, B; si se quieren usar ambas nota-
ciones se debe usar la misma letra: A = (aij ), B = (bij ).
El número de filas suele representarse con una n, y el de columnas con una m, las matrices se
identifican por estos números, por eso para especificar el tipo de matriz se dice que es de n × m.
Una matriz con no más que ceros como entradas se le conoce como matriz nula o matriz cero.

1.2 Operaciones con matrices


Existen dos operaciones definidas para las matrices, la suma y el producto.

1.2.1 Suma de matrices


Sólo se pueden sumar matrices con el mismo número de filas y columnas, las entradas de la
matriz resultante es la suma de las entradas con los mismos índices de las matrices sumadas:
 1 1 1 1   1 1 1 1   1 
a1 a2 a3 a4 b1 b2 b3 b4 a1 + b11 a12 + b12 a13 + b13 a14 + b14
A + B =  a21 a22 a23 a24  +  b21 b22 b23 b24  =  a21 + b21 a22 + b22 a23 + b23 a24 + b24 
     

a31 a32 a33 a34 b31 b32 b33 b34 a31 + b31 a32 + b32 a33 + b33 a34 + b34
Partiendo de esta definición, es sencillo demostrar que la suma de matrices es conmutativa y
asociativa, también es claro que para cada matriz existen el neutro e inverso aditivo, el primero
es una matriz con ceros como todas sus entradas y el segundo es una matriz con las mismas
entradas que la matriz dada pero con signo opuesto.

1
1.2.2 Multiplicación de matrices por un escalar
Es posible multiplicar una matriz por un elemento perteneciente al mismo conjunto que sus
entradas al cual se le llama escalar (este conjunto debe especificarse para que la matriz esté
dada, por ejemplo A  Mn×m (R), A es una matriz de n × m con sus entradas y escalares números
reales), para eso, se multiplican todos las entradas de la matriz por dicho escalar, el cual suele
representar por una letra minúscula y siempre se multiplica por la izquierda (si se aceptara una
multiplicación bilateral pueede haber confusión cuando se están multiplicando varias matrices):
   
a11 a12 ka11 ka12
 2 2   2
 a1 a2   ka1 ka22 

 a3 a3  =  ka3 ka3 
kA = k    
 1 2   1 2 
4 4
a1 a2 ka1 ka42
4

1.2.3 Multiplicación de matrices


Para que dos matrices A y B puedan multiplicarse AB, la primera debe tener el mismo número de
columnas que filas la segunda, las entradas de la matriz resultante son la suma del producto de los
pares de entradas de las matrices A y B que tienen el mismo subíndice e índice respectivamente,
los índices de los primeros factores son el de la fila de la matriz resultante y los subíndices del
segundo factor son el de la columna de la misma. A esta suma se le conoce como producto
interno de la fila i de la primera matriz por la columna j de la segunda, de modo que las
entradas de la matriz resultante son todos productos internos:
 
! b11 b12 !
a11 a12 a13  2 2  a11 b11 + a12 b21 + a13 b31 a11 b12 + a12 b22 + a13 b32
AB =  b1 b2  = .
a21 a22 a23 a 2 1
b
1 1 + a 2 2
b
2 1 + a 2 3
b
3 1 a 2 1
b
1 2 + a 2 2
b
2 2 + a 2 3
b
3 2
b31 b32

1.2.4 Notación de Einstein


Desarrollar
P los productos internos puede ser problemático, podemos reducirlos con la notación
sigma: nk=1 aik bkj pero resultaría estorboso por la cantidad de productos internos con los que se
trabaja, la notación de Einstein soluciona el problema con el siguiente acuerdo:
Índices cruzados indican suma,
claro que ambos índices deben ser los mismos, la única información que se pierde es el número
de sumandos de cada producto interno:
AB = (aij )(bij ) = (aik bkj )
Con esta notación queda claro que la matriz resultante tiene un número de filas igual al la
primera matriz, y un número de columnas igual al de la segunda, de modo que el producto de
una matriz de n × s con otra de s × m da como resultado una de n × m:
An×s Bs×m = Cn×m .
Asimismo, vemo que el producto de matrices en general no es conmutativo, ya que para serlo
las matrices involucradas tendrían que tener el mismo número de filas y columnas; sin embargo,
usando la notación de Einstein se puede demostrar que sí es asociativo:
(AB)C = (aik bkj )(cij ) = (aik bks csj ) = (aik bks csj ) = (aij )(bis csj ) = A(BC) = (aij )(bij )(cij ) = ABC

2
1.2.5 Distributividad de las matrices
La suma de matrices y el productos por escalar y otras matrices son todas distributivas:

A(B + C) = AB + AC
k(A + B) = kA + kC ,
(k + t)A = kA + tA
veamos:
A(B + C) = (aij )(bij + cij ) = (aik (bkj + ckj )) = (aik bkj + aik ckj ) = (aik bkj ) + (aik ckj ) = AB + AC.
k(A + B) = k(aij + bij ) = (k(aij + bij )) = (kaij + kbij ) = (kaij ) + (kbij ) = k(aij ) + k(bij ) = kA + kB.
(k + t)A = ((k + t)aij ) = (kaij + taij ) = (kaij ) + (taij ) = k(aij ) + t(aij ) = kA + tA.

2 Matrices cuadradas
Una matriz cuadrada es aquella que tiene el mismo número de filas y columnas, esto permite
que siempre puedan sumarse y multiplicarse, también son las únicas en las que podríamos pre-
guntarnos si cuentan con un neutro o inverso multiplicativo, también se origina el concepto de
matriz traspuesta.

2.1 Matriz identidad


El neutro multiplicativo de una matriz cuadrada (denotado por E) debe tener la siguiente
propiedad: AE = A, para que se dé debemos tener para cada producto interno:

ai1 e1j + ai2 e2j + · · · + ain enj = aij ,

esto sólo se satisface si


E = (δji ).
Donde δji es la delta de Cronenberg:
(
1 si i = j
δji = ,
0 si i 6= j

y dado a que sólo así satisface lo que queremos, esta matriz es única y se le conoce como matriz
identidad, viendo como varían los índices de la delta de Cronenberg en ella podemos ver que
contiene puros ceros excepto en las entradas donde el número de columnas iguala al de las filas,
donde hay unos; a estas entradas se les conoce como diagonal , y una matriz conformada por
ceros excepto en estas entradas se conoce como matriz diagonal.
 
1 0 ... 0
 0 1 ... 0 
 
E=  .. .. . . . ..  .

 . . . 
0 0 ... 1

En la notación de Einstein la delta de Cronenberg tiene la propiedad de eliminar una sumatoria,


esto se debe precisamente a que siempre que sus índices sean distintos es igual a cero, de modo

3
que sólo deja el elemento de la suma en que los índices son iguales: rk δlk = rl .
Aunque encontramos la matriz identidad multiplicando por la derecha, también funciona por la
izquierda: EA = (δki akj ) = (aij ) = A.
Resumiendo, la matriz identidad E satisface la siguiente condición:
EA = AE = A
y es de la forma:
E = (δji ).

2.2 Matriz traspuesta


En el estudio posterior de las matrices resulta necesario introducir el concepto de la traspuesta de
una matriz, básicamente se obtiene colocando las entradas en los lugares que les corresponderían
de invertir sus índices, o dicho de otra forma: las filas se colocan en el lugar de las columnas y
viceversa:  1 1 1   1 2 3 
a1 a2 a3 a1 a1 a1
A =  a1 a2 a3  −→ AT =  a12 a22 a32 
 2 2 2   

a31 a32 a33 a13 a23 a33


Pueden denotarse cambiando el lugar de los índices:
AT = (aji ),
pero entonces i no representaría las filas ni j las columnas, por eso en ocasiones es mejor elegir
la siguiente notación:
i
AT = (aij )T = (aT j ),
nótese que la diagonal de la traspuesta de una matriz permanece igual, ya que como i = j no
importa realmente si se invierten, de ahí que la traspuesta de una matriz diagonal es sí misma
(por ejemplo: E T = E).
La multiplicación de una matriz por su traspuesta es:
i k
AAT = (aij )(aT j ) = (aik aT j ),
ahora se invierten los índices, pero al hacerlos se pierde la notación de Einstein, así que para no
olvidarse de la suma se coloca un sigma:
X
AAT = ( aik ajk ),
k

aquí ocurre algo gracioso, dentro del paréntesis, la j representa una fila de la matriz A, pero
fuera indica la columna de la matriz resultante; siguiendo el mismo desarrollo, el producto de
una matriz cualquiera por la traspuesta de otra es:
X
AB T = ( aik bjk ),
k

ahora veamos cuál es la traspuesta de un producto de matrices:


(AB)T = (aik bkj )T = (aki bjk ) = (bjk aki ) = (bji )(aji ) = B T AT ,
es decir:
(AB)T = B T AT ,
finalmente si se invierten dos veces los índices regresamos a la matriz original, así que la
traspuesta de la traspuesta es la matriz original:
(AT )T = A.

4
2.3 Matriz inversa
Un inverso debe tener la propiedad de al multiplicarlo por cierto elemento de un conjunto debe
resultar el neutro de dicho conjunto, en la sección

vimos que una matriz de n × s multiplicada por una de s × m resulta en una de n × m, para
que la matriz resultante tenga el mismo número de filas y columnas que alguno de sus factores,
todas deben tener el mismo número de filas y columnas, de modo que sólo las matrices cuadradas
pueden tener inversa.
Encontrar el inverso de una matriz es el primer problema a resolver de las matrices, pero por
ahora démosla por hecha y veamos algunas de sus propiedades. Dada una matriz A, supongamos
que existe A−1 tal que: AA−1 = E, ahora veamos sucede con la siguiente matriz: B = A−1 A,
tenemos que: AB = AA−1 A = A(A−1 A) = (AA−1 )A = EA = A, es decir: AB = A, y por
unicidad de la matriz identidad B = E, es decir A−1 A = E, de modo que la matriz inversa de
A, de existir satisface:
AA−1 = A−1 A = E.
Ahora veamos la siguiente identidad:

(AB)−1 = B −1 A−1 .

Multipliquemos AB por B −1 A−1 : (AB)(B −1 A−1 ) = ABB −1 A−1 = A(BB −1 )A−1 = AEA−1 =
AA−1 = E, de ahí que (AB)(B −1 A−1 ) = E, y la identidad queda demostrada.

3 Transformación de matrices
3.1 Matrices triangulares
Se suele desear que las matrices (cuadradas) se encuentren de forma triangular, es decir, que
estén conformadas por ceros de un lado de su diagonal:
   
5 −12 1 5 7 0 0 0
   
 0 −8 7 0   −5 −2 0 0 
   ,
 0 0 3 −6   8 −4 7 0 
   
0 0 0 11 0 9 −3 1

Si los ceros se encuentran bajo la diagonal (izquierda), a la matriz se le llama triangular


superior , si se encuentran sobre la diagonal, triangular inferior , a las entradas que conforman
su diagonal se les conoce como pivotes.

3.2 Eliminación Gaussiana


Para transformar una matriz se trata a sus filas como vectores intercambiables y se realizan
transformaciones lineales entre ellos, veamos un ejemplo:
 
4 6 −4
 −2 3 −6  ,
 

2 −9 9

5
Podemos considerar a cada fila de esta matriz como un vector de dimensión tres:
~a = (4, 6, −4)
~b = (−2, 3, −6),
~c = (2, −9, 9)
si queremos llevarla a una forma triangular, debemos anular algunos de los componentes de por
lo menos dos vectores, para eso hacemos la siguientes transformaciones lineales:

2~b + ~a = (0, 12, −16)


~b + ~a = (0, −6, 3),

que equivale a:
(1) Sumar dos veces la segunda fila a la primera.
(2) Sumar la segunda fila a la tercera.
Dicho de este modo podemos pensar que la única fila que no sufrió cambios fue la segunda, así
que reescribiendo la matriz transformada tenemos:
 
0 12 −16
 −2 3 −6  ,
 

0 −6 3

ahora (3) sumamos dos veces la tercera fila a la primera:


 
0 0 −10
 −2 3 −6  ,
 

0 −6 3

a continuación (4) intercambiamos la primera y tercera fila:


 
0 −6 3
 −2 3 −6  ,
 

0 0 −10

y finalmente (5) intercambiamos la primera y segunda fila:


 
−2 3 −6
 0 −6 3 ,
 

0 0 −10

así hemos transformado nuestra matriz a una diagonal superior, cada paso que seguimos (la
combinación de filas y el intercambio de las mismas) fue una transformación elemental y el
proceso en general fue la eliminación Gaussiana.

3.3 Matrices elementales y de permutación


La eliminación Gaussiana es un procedimiento "informal" en el sentido de que no hay una única
forma de hacerla y no hay muchas restricciones, pero eso no quiere decir que no puede escaparse
de un planteamiento analítico. Las acciones de combinar linealmente e intercambiar las filas de
una matriz se pueden hacer mediante el producto de matrices.

6
3.3.1 Matrices de permutación
(δsi δjr )
es una matriz que sólo cuenta con un uno y el resto de sus entradas es cero (sólo puede ser
igual a uno si ambas deltas de Cronenberg son uno simultáneamente, y eso sólo ocurre si nos
encontramos en una fila y columna específica), veamos que ocurre cuando la multiplicamos por
la izquierda a una matriz cualquiera:

(δsi δjr )A = (δsi δjr )(aij ) = (δsi δkr akj ) = (δsi arj ),

todas las filas de esta matriz estarán vacías exceptuando la s-ésima, pero no contendrá sus
entradas originales, sino las de la fila r-ésima, de esta manera, la matriz (δsi δjr ) lleva la fila r a la
s y deja vacías las demás:
    
0 0 0 0 a11 a12 a13 a14 0 0 0 0
  2 2 2 2   
 0 0 0 0   a1 a2 a3 a4   0 0 0 0 
(δ3i δj1 )A = 
 1 0

 a3 a3 a3 a3  =  a1 a1 a1 a1  ,
  
 0 0 
 1 2 3 4   1 2 3 4 
0 0 0 0 a41 a42 a43 a44 0 0 0 0

una matriz de permutación es una suma de n (el número de filas y columnas) matrices de este
tipo:
Xn
P = (δsi l δjrl ),
l=1

ésta genera n matrices que contienen una sola fila, sumadas pueden generar una que tenga todas
sus entradas ocupadas, para eso agregamos la condición de que ninguno de los índices rl ni sl se
repitan, es decir, la matriz de permutación contiene n unos pero sólo uno por fila y columna:
 
0 1 0 0
 
 1 0 0 0 
 0 0 0 1 ,
 
 
0 0 1 0

de esa manera nos aseguramos de que ninguna fila quede vacía o se repita alguna otra sin perder
la libertad de que alguna permanezca igual (caso que se da si r = s). La posición de los unos nos
dice cómo se van intercambiando las filas: la columna en la que está es la fila de origen y la fila
donde se encuentra es la fila de destino (sin olvidar de que debe multiplicarse por la izquierda,
de hacerlo por la derecha las que se intercambiarían serían las columnas).
Si alguna de las entradas de esta amtriz no fuera uno, no sólo reacomodaríamos la fila, sino que
devolveríamos una combinación lineal de la misma, esto se verá en la seiguiente sección.
A continuación probaremos que la inversa de una matriz de permutación es su traspuesta: por
lo dado en la sección 2.2 tenemos que:
n X
X n X
n
PPT = (δsi l δkrl δsjt δkrt ),
l=1 t=1 k=1

el producto δkrl δkrt neutraliza la sumatoria sobre k y nos deja con:


n X
X n
T
PP = (δsi l δsjt δrrst ),
l=1 t=1

7
ahora rl toma valores no repetidos de 1 a n, por lo que rl = rs sólo si l = s, de modo que δrrst = δst ,
y eso anulará ya sea la sumatoria sobre t o sobre l:
n X n n n
k
X X X
PPT = (δsi l δsjt δsl ) = (δsi t δsjt ) = (δsi l δsjl ) = (δki δ T j ) = (δki δjk ) = (δji ) = E,
l=1 t=1 t=1 l=1

de cualquier forma obtenemos la matriz identidad, y así termina la demostración.

3.3.2 Matrices elementales


¿Qué pasa si multiplicamos por la izquierda una matriz del siguiente tipo?:
(kδsi δjr ),
pues por un lado se generaría una matriz con la fila r transportada a la s pero con el escalar k
multiplicando las entradas, es decir, obtenemos una combinación lineal de la fila:
    
0 0 0 0 a11 a12 a13 a14 0 0 0 0
 0 0 0 0   a21 a22 a23 a24   0
    
i 1 0 0 0 
 k 0 0 0   a3 a3 a3 a3   ka1 ka1 ka1 ka1  ,
(kδ3 δj )A =   = 
  1 2 3 4   1 2 3 4 
4 4 4 4
0 0 0 0 a1 a2 a3 a4 0 0 0 0
Si esta matriz la sumamos a la matriz original, estaremos haciendo la acción de combinar lin-
ealmente una fila con otra:
A + (kδsi δjr )A = EA + (kδsi δjr )A = (E + kδsi δjr )A = Esr A,
por tanto, la matriz Esr se encarga de usar una combinación lineal de la fila r para modificar la
fila s, a este tipo de matrices se les conoce como matrices elementales, y como puede verse, se
compone de unos en su diagonal, un número en cualquier otra entrada y ceros en el resto (nue-
vamente debe multiplicarse por la izquierda, ya que por la derecha actuaría sobre las columnas).
 
1 0 0 0
 
 0 1 0 0 
E31 = 
 ,
 k 0 1 0 

0 0 0 1
así, una matriz elemental está dada por:
Esr = E + (kδsi δjr ),
probaremos que su inversa es de la forma:
−1
Esr = E − (kδsi δjr ),
veamos:
Esr (E − (kδsi δjr )) = (E + (kδsi δjr ))(E − (kδsi δjr )) =
EE − E(kδsi δjr ) + (kδsi δjr )E − (kδsi δjr )(kδsi δjr ) =
E − (kδsi δjr ) + (kδsi δjr ) − k 2 (δsi δkr δsk δjr ) =
E − k 2 (δsi δsr δjr ),
6 s y por ende δsr = 0, de
las matrices elementales no combinan filas consigo mismas, así que r =
esa manera:
Esr (E − (kδsi δjr )) = E,
y termina la demostración, más que la forma exacta de su inversa, lo que realmente nos va a
servir más adelante es que su inverso conserva su triangularidad.

8
3.3.3 Matrices diagonales
Las matrices diagonales también hacen transformaciones; en la sección anterior vimos que las
matrices elementales no combinan filas consigo mismas, eso implicaría que la fila de origen sería
igual a la del destino r = s y el coeficiente debería estar en la diagonal, así, una matriz que
multiplicada por la izquierda devuelva transformaciones lineales de las filas sin reacomodarlas
sería una matriz diagonal con entradas no necesariamente igual a 1 (la entrada será el coeficiente
por el que será multiplicado la fila, y su número de fila será la fila que modifique):
 
d1 0 . . . 0
 0 d2 . . . 0 
 
X
i j
D= (dk δk δk ) = 
 .. .. . . . .. 

k  . . . 
0 0 . . . dn
    
d1 0 0 0 0 a11 a12 a13 a14 a15 d1 a11 d1 a12 d1 a13 d1 a14 d1 a15
 0 d2 0 0 0  a21 a22 a23 a24 a25   d2 a21 d2 a22 d2 a23 d2 a24 d2 a25 
    
    
 0
 0 d3 0 0  
 a31 a32 a33 a34 a35  =  d3 a3 d3 a3
  1 2 d3 a33 d3 a34 d3 a35 
,
 0 0 0 d4 0  a41 a42 a43 a44 a45 4
  d 4 a1 d 4 a24
d4 a43 d4 a44 d4 a45 
    

0 0 0 0 d5 a51 a52 a53 a54 a55 d5 a51 d5 a52 d5 a53 d5 a54 d5 a55
no obstante, las entradas de esta matriz diagonal deben ser distintas de cero, de otro modo
no devolverían combinaciones P lineales de filas, sino P
filas nulas. Además, P P de este modo tam-
−1 −1 i j −1 i j i j −1 i j
bién tiene inversa: D = (d
k k δ δ
k k ), veamos: D (d
k k δ δ
k k ) = k (d δ
t k k kδ )(d t δt δt ) =
P P P −1 i s s j P −1 i j i
k t s (dk dt δk δk δt δt ) = k (dk dk δk δk ) = (δj ) = E.
El tipo de transformaciones que generan las matrices diagonales no forman parte de la elimi-
nación Gaussina, es decir, las matrices diagonales no representan transformaciones elementales.
Como todas las matrices diagonales son a su vez triangulares superiores e inferiores, multiplicadas
por cualquiera conservará su triangularidad, en particular, si multiplicamos una matriz diago-
nal por una matriz triangular superior de diagonal unitaria, obtendremos una matriz diagonal
superior arbitraria cuya diagonal es la misma que la de la matriz diagonal.
      
d1 0 . . . 0 1 a12 . . . a1n d1 d1 a12 . . . d1 a1n b11 b12 . . . b1n
 0 d2 . . . 0   0 1 . . . a2n   0 d2 . . . d2 a2n   0 b22 . . . b2n
      

DU =   .. .. . . . ..   .. .. . . . ..  =  ..
   .. ..  =  .. .. . . . ..
..   ,
 . . .  . . .   . . . .   . . .


0 0 . . . dn 0 0 ... 1 0 0 ... dn 0 0 . . . bnn
o lo que es lo mismo, una matriz triangular superior (o inferior) se puede factorizar en una matriz
diagonal por otra triangular superior (o inferior) con diagonal unitaria, además, su diagonal
(cuyas entradas son los pivotes) será la misma que la de la matriz diagonal.

3.3.4 Matrices de transformación


Al producto sucesivo de matrices elementales y de permutación les llamaremos matrices de trans-
formación.
Por esta definición, es claro que el producto de matrices de transformación es también una ma-
triz de transformaicón, asimismo, por componerse de matrices que tienen inversa, las matrices
de transformación también la tienen; además, como la inversa de matrices elementales y de
permutación siguen siendo elementales y de permutación, la inversa de las matrices de transfor-
mación también son matrices de transformación.

9
Como es más común hacer transformaciones combinando las filas, estas matrices se suelen multi-
plicar por la izquierda, pero también pueden combinarse las columnas, en cuyo caso, las matrices
de transformación deben multiplicarse por la derecha.

3.4 Matrices triangulares


Podemos formar cualquier matriz sumando matrices de una sola entrada, en particular haremos
matrices triangulares superiores, la característica que las distingue es que los índices de sus
columnas son mayores o iguales que los de sus filas (si fueran menores o iguales sería una matriz
triangular inferior), así que una matriz triangular superior es de la forma:
X
U= (kl δsi l δjrl ) rl ≥ sl ,
l

un resultado que usaremos más adelante es que el producto de dos matrices triangulares supe-
riores (o inferiores) sigue siendo del mismo tipo:
XX XX
UV = (kl δsi l δjrl )(ht δsi t δjrt ) = kl ht (δsi l δjrl )(δsi t δjrt ),
l t l t

fijándonos sólo en las deltas:

(δsi l δjrl )(δsi t δjrt ) = (δsi l δkrl δskt δjrt ) = (δsi l δsrtl δjrt ),

esta matriz no se hace cero solamente cuando st = rl , sabemos que rt ≥ st y rl ≥ sl , así que
rt ≥ sl , de modo que el producto
XX
UV = kl ht (δsi l δjrt ) rt ≥ sl
l t

se conforma por una suma de matrices triangulares superiores, por tanto, debe ser a su vez una
matriz triangular superior.

3.5 Factorización de matrices


Al poder expresar las transformaciones de una matriz con productos de matrices elementales,
una matriz transformada se puede ver como el producto de varias matrices que tengan una forma
específica, en la sección 3.2 hicimos una transformación a matriz triangular superior, para ello
combinamos linealmente sus filas y luego las reacomodamos, pero también era posible hacer
primero el reacomodamiento y luego las combinaciones:
     
4 6 −4 −2 3 −6 −2 3 −6
 −2 3 −6  −→  2 −9 9  −→  0 −6 3  ,
     

2 −9 9 4 6 −4 0 0 −10

de esta manera, al momento de combinar las filas sólo lo haríamos de arriba hacia abajo, es
decir, haríamos primero todas las combinaciones de la primera fila con las demás, luego las de la
segunda con las demás exceptuando a la primera porque ya se hizo y así sucesivamente de modo
que la última fila no la combinaríamos con ninguna otra; todo esto con el objetivo de utilizar
matrices elementales que sean triangulares inferiores, ya que como el número de la fila de origen

10
siempre es menor al de la fila de destino, el número de columna de las entradas de las matrices
siempre sería menor (o igual) que el número de fila:
      
0 1 0 4 6 −4 4 6 −4 −2 3 −6
 0 0 1   −2 −6  = P  −2 3 −6  = 
3 2 −9 9 
      

1 0 0 2 −9 9 2 −9 9 4 6 −4
       
1 0 0 1 0 0 −2 3 −6 −2 3 −6 −2 3 −6
 1 1 0  0 1 0  2 −9 9  = E21 E31  2 −9 9 = 0 −6 3
       

0 0 1 2 0 1 4 6 −4 4 6 −4 0 12 −16
      
1 0 0 −2 3 −6 −2 3 −6 −2 3 −6
 0 1 0   0 −6 3  = E32  0 −6 3  =  0 −6 3  = U,
      

0 2 1 0 12 −16 0 12 −16 0 0 −10

así:
E32 E21 E31 P A = U,
donde Esr son matrices elementales triangulares inferiores, P es una matriz de permutación, A
es la matriz original (la que se va a factorizar) y U es la matriz transformada triangular superior,
en la sección 3.3.2 vimos que existe inversa de las matrices elementales, así que multiplicamos
−1 −1 −1 −1 −1 −1 −1 −1
E31 E21 E32 por la izquierda, por un lado: E31 E21 E32 E32 E21 E31 P A = E31 E21 EE21 E31 P A =
−1 −1 −1 −1 −1 −1 −1
E31 E21 E21 E31 P A = E31 EE31 P A = E31 E31 P A = EP A = P A y por el otro: E31 E21 E32 U ,
pero igualmente vimos que el producto de dos matrices triangulares inferiores conserva su tri-
−1 −1 −1
angularidad, por tanto E31 E21 E32 = L es una matriz triangular inferior (nótese que L =
(E32 E21 E31 )−1 .)
De esa manera tenemos:
P A = LU,
L es el producto de varias matrices matrices triangulares inferiores de diagonal unitaria, éstas
son de la forma: Esr = E + (kδsi δjr ) r < s, siguiendo un camino casiP idéntico al de la prueba
i rl
de la sección 3.4 podemos demostrar que L es de la forma L = E + l (kl δsl δj ) r < s, lo que
significa que también es una matriz triangular inferior de diagonal unitaria, en nuestro ejemplo:
 
1 0 0
L =  −1 1 0  ,
 

−2 −2 1

la factorización P A = LU no es completamente simétrica debido a que L tiene una diagonal


unitaria pero U no, no obstante, en la sección 3.3.3 vimos que si los pivotes la matriz U son
distintos de cero, ésta puede reescribirse de la forma DU , donde D es una matriz diagonal y U
una matriz triangular superior de diagonal unitaria. Así, nuestra factorización de una matriz
dada A queda de la forma:
P A = LDU,
siendo las entradas de D los pivotes de la matriz transformada, sin olvidar que dichos pivotes
deben ser distintos de cero, cabe destacar que esta factorización es única, para demostrarlo
supongamos que hay dos y llegaremos a que en realidad son la misma:

P A = L1 D1 U1 = L2 D2 U2 ,

11
recordemos que en la deducción de la factorización, L es la inversa de una matriz, de modo que
también tiene inversa, por analogía U también debe tenerla, no es difícil ver que las matrices
diagonales también deben tener inversa, así que multiplicando por la izquierda L2 −1 y por la
derecha U1 −1 D1 −1 obtenemos:
L2 −1 L1 = D2 U2 U1 −1 D1 −1 ,
el lado izquierdo es una matriz triangular inferior de diagonal unitaria, pero el lado derecho es
una matriz triangular superior, la única matriz que es triangular inferior, superior y de diagonal
unitaria es la matriz identidad, de modo que L2 −1 L1 = E y multiplicando L2 por la izquierda:

L1 = L2 ,

de un modo análogo se demuestra U1 = U2 y entonces no queda otra más que D1 = D2 .

3.6 Matrices regulares y singulares


Hay muchas formas de definir a las matrices regulares (también conocidas como no singulares),
la que considero surge primero es la siguiente:

Una matriz regular es aquella que admite la factorización P A = LDU .

Si tomamos la traspuesta de esta relación obtenemos: AT P T = U T DT LT , en el lado derecho, la


traspuesta hace que las matrices triangulares inviertan su triangularidad y la matriz diagonal,
por ser diagonal no presenta cambios, del lado izquierdo, la matriz P T sigue siendo una matriz
de permutación, esto se traduce en:

AT P 0 = L0 DU 0 ,

aunque la definición coloque la matriz de permutación del lado izquierdo, realmente da igual
que aparezca del derecho, ya que sólo sirve para reacomodar la matriz en caso de que tenga las
filas o columnas correctas pero desordenadas; de modo que la traspuesta de la matriz también
satisface la condición para ser regular, lo que también quiere decir que una matriz es regular si
su traspuesta lo es, por eso:

Una matriz es regular si y sólo si su traspuesta es regular.

Una matriz singular es toda aquella que no sea regular, así que tomando la contrapositiva de la
proposición anterior:

Una matriz es singular si y sólo si su traspuesta es singular.

Veamos qué más significa la singularidad.


La única restricción que encontramos al momento de factorizar matrices fue que los pivotes de
la matriz transformada deben ser distintos de cero, por tanto, las matrices singulares deben ser
aquellas que no cumplan con esta condición, es decir:

Una matriz singular es aquella que al ser transformada a una triangular, alguno de
sus pivotes es igual a cero.

Por la forma en que se definieron, toda matriz debe ser o singular o regular.
Hay otras formas de definir las matrices regulares, si partimos de la que tenemos, una matriz
regular admite la factorización: P A = LDU , si multiplicamos L−1 por la izquierda y reescribimos

12
DU = U 0 tenemos: L−1 P A = U 0 , donde U 0 es una matriz triangular superior de pivotes d1 ,
d2 , . . . , dn no nulos  
d1 a12 a13 a14 a15
 0 d2 a23 a24 a25 
 

U0 = 
 
3 3 
 0 0 d3 a4 a5  ,
 0 0 0 d4 a45 
 

0 0 0 0 d5
la cual podemos transfomar hasta quedarnos una matriz diagonal, para eso tomamos la última
fila, la multiplicamos por −an−1
n /dn y la sumamos a la penúltima
   
d1 a12 a13 a14 a15 d1 a12 a13 a14 a15
 0 d2 a23 a24 a25   0 d2 a23 a24 a25 
   
   
 0 0 d3 a3 a3  −→  0 0 d3 a3 a3  ,
 4 5   4 5 
 0 0 0 d4 a45   0 0 0 d4 0 
   

0 0 0 0 d5 0 0 0 0 d5

de esa forma dejamos solo al pivote, ahora la multiplicamos por −an−2


n /dn y la sumamos a la
n−2
antepenúltima, también vamos a sumarle −an−1 /dn−1 veces la penúltima fila
   
d1 a12 a13 a14 a15 d1 a12 a13 a14 a15
 0 d2 a23 a24 a25   0 d2 a23 a24 a25 
   
   
 0 0 d3 a3 a3  −→  0 0 d3 0 0  ,
 4 5   
 0 0 0 d4 0   0 0 0 d4 0 
   

0 0 0 0 d5 0 0 0 0 d5

ahora queda solo el pivote de la antepenúltima fila, siguiendo este procedimiento habremos
reducido la matriz a una diagonal con sus pivotes como entradas (la misma que en la factor-
ización P A = LDU ), como las combinaciones lineales fueron de abajo para arriba, la matriz de
transformación T 0 que se usó es triangular superior, multiplcándola por la izquierda (porque se
combinaron las filas):
T 0 L−1 P A = T 0 U 0 = D,
debido a que todas son matrices de transformación, su producto también lo es T 0 L−1 P = T, así
que otra definición de las matrices regulares es la siguiente:
Una matriz es regular si mediante transformaciones elementales puede reducirse a
una matriz diagonal de entradas no nulas: T A = D.
Despejando A: A = T −1 D vemos que se compone del producto de matrices que tienen inversa,
esto implica que A también tiene inversa, de modo que:
Las matrices regulares tienen inversa.
este es el motivo por el cual también se les conoce como invertibles.
Una vez que una matriz queda reducida a una diagonal vemos que no hay forma de que mediante
transformaciones elementales podamos anular alguna de sus filas, ya que cualquier transforma-
ción sólo añadiría entradas, esto quiere decir que sus filas son linealmente independientes (las
filas de su traspuesta también deben serlo, entonces sus columnas también lo son) así que una
definición más de las matrices regulares es la siguiente:

13
Una matriz es regular si sus filas son linealmente independientes.

Y por tanto, para las matrices singulares:

Una matriz es singular si cuenta con un par de filas linealmente dependientes.

La dependencia lineal de una matriz singular quiere decir que existe una matriz de transformación
T tal que multiplicada por la izquierda genera una matriz con una de sus filas nulas: A es singular
si ∃T tal que T A = (0)r , ((0)r es una matriz con la fila r nula), usaremos esto para hacer la
siguiente demostración:

El producto de dos matrices es singular si y sólo si alguna de las matrices es


singular: AB es singular ←→ A o B es singular.

=⇒) AB es singular −→ A o B es singular.


Supongamos que AB es singular, entonces existe T tal que T (AB) = (0)r , por la asociatividad
del producto de matrices: (T A)B = (0)r , esto puede significar dos cosas:
(1) T A es una matriz de transformación que anula una de las filas de B, eso implica que A es
regular y B es singular.
(2) T A es una matriz con la fila r nula, y al multiplicarla por la izquierda a B, la fila r de la
matriz resultante sigue siendo nula, esto implica que A es una matriz singular.
En ambos casos llegamos a la conclusión de que A o B es singular, y la demostración está hecha.
⇐=) A o B es singular −→ AB es singular.
Para hacer la demostración debemos considerar los casos de la disyuntividad de la hipótesis:
(1) Supongamos que A es singular, entonces existe T tal que T A = (0)r , si multiplicamos por la
derecha la matriz B, la fila r de la matriz resultante sigue siendo nula: T AB = (0)r y así AB es
singular.
(2) Tomando la demostración del primer caso y cambiando A por B T y B por AT , llegamos a
la conclusión de que si B T es singular entonces B T AT también lo es, pero como la traspuesta
de una matriz singular también es singular esto equivale a decir: si B es singular entonces AB
también lo es.
Y así terminamos la demostración. Si tomamos la contrapositiva obtenemos:

El producto de dos matrices es regular si y sólo si ambas matrices son regulares:


AB es regular ←→ A y B son regulares.

4 Determinantes
No se puede hablar de matrices si no hablamos de sus determinantes, hay muchas de definirlos
y abordarlos, podríamos dar su fórmula explícita y a partir de ella demostrar sus propiedades,
pero es más fácil hacerlo al revés, los definiremos a partir de sus propiedades y con ellas traba-
jaremos hasta encontrar una fórmula explícita sin preocuparnos tanto por interpretarlos y así,
eventualmente usarlos para encontrar la inversa de una matriz.

4.1 Propiedades del determinante


Un determinante es una transformación que Son 10 las propiedades más importantes de un
determinante, pero de ellas sólo las primeras tres son las que lo definen, ya que las demás se

14
deducen a partir de ellas, las forma en que se denota el determinante de una matriz son
 1 1  1 1 1
a1 a2 a13 a14 a15 a a a
1 2 3 a14 a15
 2 2
 a1 a2 a3 a4 a5  a21 a22 a23
2 2 2
a24 a25

 
2 2
detA = det   a1 a2 a23 a24 a25  2 2 2
 = a1 a2 a3 a24 a25
 4 4
 a1 a2 a43 a44 a45  a41 a42 a43 a44 a45


a51 a52 a53 a54 a55 a5 a5 a5
1 2 3 a54 a55

1. El determinante es una función lineal de la primera fila.


Esto significa que el determinante satisface:

a1 + b 1 a1 + b 1 a1 + b 1 a1 + b 1 a1 + b 1 a1 a1 a1 a14 a15 b11 b12 b13 b14 b15
1 1 2 2 3 3 4 4 5 5 1 2 3
a21 a22 a23 a24 a25 a21 a22 a23 a24 a25 a21 a22 a23 a24 a25


a3 a 3
a 3
a 3
a 3 = a3 a3 a3 a34 a35 + a31 a32 a33 a34 a35
1 2 3 4 5 1 2 3
a41 a42 a43 a44 a45 a41 a42 a43 a44 a45 a41 a42 a43 a44 a45


a5 a 5
a 5
a 5
a 5 a5 a5 a5 a54 a55 a51 a52 a53 a54 a55
1 2 3 4 5 1 2 3

1 1 1 1 1 a a1
1
ka ka ka ka ka
1 2 3 4 5 1 2 a13 a14 a15

2 2 2 2 2 2 2
a1 a2 a3 a4 a5 a1 a2 a23 a24 a25



3 3 3 3 3 3 3
1 a2 a3 a4 a5 = k a1 a2
a a33 a34 a35

4
a1 a42 a43 a44 a45
4 4
a1 a2 a43 a44 a45



5 5 5 5 5 a5 a5
a
1 a2 a 3 a 4a 5 1 2 a53 a54 a55

2. El determinante cambia de signo cuando se intercambian dos filas.



a1 a1 a1 a14 a15 a1 a1 a1 a1 a1
1 2 3 1 2 3 4 5
2 2 2 2 2 4 4 4 4 4
a1 a2 a3 a4 a5 a1 a2 a3 a4 a5



a3 a3 a3 3 3 = − 3
a4 a5 3 3 3 3
a1 a2 a3 a4 a5

1 2 3
4 4 4
a44 a45
2 2 2 2 2
a1 a2 a3 a1 a2 a3 a4 a5



a5 a5 a5 5
a4 a5 5 a5 a5 a5 a5 a5
1 2 3 1 2 3 4 5

esta propiedad nos dice que no hay nada de especial con la primera fila en la propiedad anterior,
con un cambio cualquier otra puede convertirse en la primera y con otro volver a la normalidad,
como se cambian dos veces los signos realmente permanece igual, y así la linealidad se traslada

15
a todas las demás filas:


a11 a12 a13 a14 a15

a21 a22
a32
a42
a52




a31 a23
a33
a43
a53 =

4
a1 + kb41 4 4 4 4 4 4
a2 + kb2 a3 + kb3 a4 + kb4 a5 + kb5 4 4

a51 a52 a53 a54 a55

a4 + kb4 a42 + kb42 a43 + kb43 a44 + kb44 a45 + kb45
1 1
2
a1 a22 a23 a24 a25



− a31 a32 a33 a34 a35 =

a11 a12 a13 a14 a15



a51 a52 a53 a54 a55

a4 a4 a43 a44 a45 b4 b4 b4 b 4 b4
1 2 1 2 3 4 5
2 2
a23 a24 a25
2 2 2 2 2
a1 a2 a1 a2 a3 a4 a5


− a31 a32 3 3
a3 a4 a5 3 −k 3 3 3 3
a1 a2 a3 a4 a5 =
3
1 1
a13 a14 a15
1 1 1 1 1
a1 a2 a1 a2 a3 a4 a5


a5 a5 5
a3 a4 a5 5 5 a5 a5 a5 a5 a5
1 2 1 2 3 4 5

a1 a1 a13 a14 a15 a1 a1 a1 a1 a1
1 2 1 2 3 4 5
2 2
a23 a24 a25
2 2 2 2 2
a1 a2 a1 a2 a3 a4 a5


a3 a3 a33 a34 a35 + k a31 a32 a33 a34 a35
1 2
4 4
a43 a44 a45
4 4 4 4 4
a1 a2 b1 b2 b3 b4 b5


a5 a5 a53 a54 a55 a5 a5 a5 a5 a5
1 2 1 2 3 4 5

3. El determinante de la matriz identidad es igual a 1.

detE = 1
4. Si dos filas de la matriz son iguales, entonces su determinante es igual a 0.

a1 a12 a13 a14 a15
1
2
a1 a22 a23 a24 a25


a2 a22 a23 a24 a25 = 0,
1
4
a1 a42 a43 a44 a45


a5 a52 a53 a54 a55
1

por la segunda propiedad, si cambiamos de lugar las filas que son iguales el determinante cambia
de signo, pero como la matriz no cambia tenemos que detA = −detA, por tanto detA = 0.

5. La combinación lineal de una fila con otra no altera el determinante.

16


a11 a12 a13 a14 a15
a11 a12 a13 a14 a15
a21 a22 a23 a24 a25 a21 a22 a23 a24 a25



a3 + ka2 a3 + ka2 a3 + ka2 a3 + ka2 a3 + ka2 = a31 a32 a33 a34 a35 ,
1 1 2 2 3 3 4 4 5 5
4 4 4 4 4
a1 a2 a3 a4 a5 a41 a42 a43 a44 a45



5 5 5 5
a1 a2 a3 a4 a55 a51 a52 a53 a54 a55
la primera propiedad nos dice que en realidad hay un término adicional:


a11 a12 a13 a14 a15

a21 a22 a23 a24 a52



a3 + ka2 a3 + ka2 a3 + ka2 a3 + ka2 3 2 =
a5 + ka5
1 1 2 2 3 3 4 4
4 4 4 4
a1 a2 a3 a4 a45



5 5 5
a1 a2 a3 a54 a55
,
a1 a1 a1 a1 a1 a1 a1 a1 a14 a15
1 2 3 4 5 1 2 3
2 2 2 2 2 2 2 2
a1 a2 a3 a4 a5 a1 a2 a3 a24 a25


a3 a3 a3 a3 a3 + k a2 a2 a2 a24 a25
1 2 3 4 5 1 2 3
4 4 4 4 4 4 4 4
a1 a2 a3 a4 a5 a1 a2 a3 a44 a45


a5 a5 a5 a5 a5 a5 a5 a5 a54 a55
1 2 3 4 5 1 2 3

pero tiene repetida una fila, la propiedad anterior nos asegura que se anula.

6. Si las entradas de una fila de la matriz son cero, su determinante es igual a cero.

a1 a1 a1 a1 a15
1 2 3 4
2 2 2 2
a1 a2 a3 a4 a25


a3 a3 a3 a3 a35 = 0,
1 2 3 4
0 0 0 0 0


a5 a5 a5 a5 a55
1 2 3 4

podemos sumar cualquier fila a la que tiene entradas cero, como es una combinación lineal, la
propiedad 5 nos dice que el determinante no cambia, pero ahora hay dos filas repetidas, por la
propiedad 4, su determinante es 0.

7. Si la matriz es triangular, entonces el determinante es igual al producto de sus pivotes.



a1 a1 a13 a14 a15
1 2
0 a22 a23 a24 a25


0 0
a33 a34 a35 = a11 a22 a33 a44 a55 ,
0 0 0 a44 a45


0 0 0 0 a55
en la sección 3.6 vimos cómo, mediante transformaciones elementales transformar una matriz
triangular a una diagonal sin alterar sus pivotes, la propiedad 5 nos dice que esto no cambiará
el resultado, una vez que tenemos la matriz diagonal, por la propiedad 1, podemos sacar sus

17
entradas dejando que multipliquen al determinante de la matriz identidad, y por la propiedad
3, éste último es igual a uno y termina la demostración:

a1 a1 a1 a1 a1 a1 0 0 0 0
1 2 3 4 5 1
2 2 2 2 2
0 a2 a3 a4 a5 0 a2 0 0 0


0 0 a3 a3 a3 = 0 0 a3 0 0 =
3 4 5 3
4 4 4
0 0 0 a4 a5 0 0 0 a4 0


0 0 0 0 a5 0 0 0 0 a5
5 5
.
a1 1 a1 0 a1 0 a1 0 a1 0 1 0 0 0 0
1 1 1 1 1
2
a2 0 a22 1 a22 0 a22 0 a22 0 0 1 0 0 0


a3 0 a3 0 a3 1 a3 0 a3 0 = a11 a22 a33 a44 a55 0 0 1 0 0 = a11 a22 a33 a44 a55
3 3 3 3 3
4
a4 0 a44 0 a44 0 a44 1 a44 0 0 0 0 1 0


a5 0 a5 0 a5 0 a5 0 a5 1 0 0 0 0 1
5 5 5 5 5

8. Si una matriz es singular, su determinante es igual a cero, si es regular, su determinante es


distinto de cero.
En la sección 3.6 vimos que una matriz regular puede reducirse mediante transformaciones ele-
mentales a una matriz diagonal de entradas no nulas, por las propiedades 5 y 7, su determinante
será igual al producto de estas entradas, y por tanto es distinto de cero. Igualmente en la sección
3.6 vimos que una matriz singular cuenta con una par de filas linealmente dependientes, entonces,
mediante una transformación elemental podemos anular una sus filas, y por la propiedad 6, su
determinante es igual a cero.

9. El determinante de un producto de matrices es igual al producto de los determinantes de


las matrices.
Primero supongamos que alguna de las matrices es singular, en la sección 3.6 vimos que el
producto de matrices singulares también es singular, entonces, por la propiedad 8 tenemos:
detAB = detAdetB = 0.
Ahora supongamos que ambas matrices A y B son regulares, nuevamente en la secicón 3.6 vimos
que las matrices regulares admiten la factorización T A = D, siendo T una matriz de trans-
formación y D una diagonal, por la propiedad 5 tenemos que detAB = detT DB = detDB,
en la sección 3.3.3 vimos que las matrices diagonales de entradas no nulas regresan las mismas
filas pero con sus entradas multiplicadas por los pivotes, y por la propiedad 1 podemos sacarlos
multiplicando al determinante de B: detDB = d1 d2 . . . dn detB, pero como D también es una
matriz triangular, por la propiedad 7 tenemos d1 d2 . . . dn = detD, no solo eso, nuevamente por
la propiedad 5: detA = detT −1 D = detD, así finalmente obtenemos: detAdetB = detAB.
En la sección 3.6 vimos que las matrices regulares tienen inversa: AA−1 = E, debido a esto
sus determinantes se relacionan de la forma: detAA−1 = detAdetA−1 = detE = 1 −→ detA =
(detA−1 )−1 .

10. El determinante de una matriz es igual al determinante de su traspuesta.


Si la matriz es singular, su traspuesta también lo es y el determinante de ambos es cero, si es
regular admite la factorización P A = LDU , y trasponiendo: AT P T = U T DT LT = U T DLT , y
sacando el determinante a ambas expresiones (usando la propiedad 9):

detP detA = detL detD detU


detAT detP T = detU T detD detLT ,

18
la traspuesta de las matrices triangulares invirtieron sus triangularidades pero siguen siendo
triangulares, por la propiedad 7 sus determinantes siguen siendo los mismos, entonces tenemos
detAdetP = detP T detAT por la estructura de las matrices de permutación, es claro que provienen
de la matriz identidad a la cual se le invirtieron sucesivamente las filas, por lo tanto detP = ±1
(lo mismo para P T ), por otro lado como P P T = E, entonces detP detP T = 1, esto quiere decir
que detP y detP T son iguales, así es como concluimos que detA = detAT .
Este resultado extiende las propiedades que hemos visto, ya que al aplicarse a las filas de la
traspuesta de una matriz, se aplican a las columnas de la matriz, es decir, la combinación lineal
de columnas en una matriz no altera el resultado del determinante, el determinante de una
matriz con una columna repetida o nula es igual a cero e invertir la posición de dos columnas
invierte el signo del determinante.

5 Fórmula explícita del determinate


5.1 Determinante en términos de sus entradas
Con las propiedades que hemos enunciado somos capaces de llegar a una fórmula explícita del
determinante de una matriz, por la propiedad 1 podemos descomponer un determinante sacando
las entradas de una fila dejando una suma de determinantes con ceros y unos en la fila:

a1 a1 a1 a1 1 + 0 + 0 0 + a1 1 + 0 0 + 0 + a1 1
1 2 3 1 2 3
2 2 2
a1 a2 a3 = a21 a22 a23 =


3 3
a a a 3 3 3 3
1 2 3 a1 a2 a3
,
1 0 0 0 1 0 0 0 1

a11 a21 a22 a23 + a12 a21 a22 a23 + a13 a21 a22 a23


a3 a3 a3 a3 a3 a3 a3 a3 a3
1 2 3 1 2 3 1 2 3

pero una vez que lo hicimos con una fila, lo podemos hacer con todas, hasta sólo quedarnos
con determinantes de matrices que contengan sólo ceros y unos, al final serán un total de nn
términos, pero gran parte de ellos serán igual a cero debido a que se formarán matrices con filas
o columnas nulas: cada vez que descomponemos una fila, ésta queda conformada por un uno y
n − 1 ceros, al final las matrices tendrán n unos y el resto de sus entradas serán ceros, tendrán
un uno por fila pero se conformaran todas las combinaciones de acomodación en las colmnas, un
ejemplo es el siguiente:
1 0 0

1 0 0 ,


0 0 1

los determinantes que no se anulen deberán ser de matrices que tengan un uno en cada fila y
columna, es decir, matrices de permutación, y contando las veces que necesitemos reacomodar
sus filas para formar la matriz identidad nos dirá el valor del determinante (por las propiedades
2 y 3).

19

a1 a1 a1 1 0 0 1 0 0 0 1 0
1 2 3
2 2 2 1 2 3 1 2 3 1 2 3
a1 a2 a3 = a a a 0 1 0 + a a a 0 0 1 + a a a 1 0 0 +

1 2 3 1 3 2 2 1 3

a3 a3 a3 0 0 1 0 1 0 0 0 1
1 2 3

0 1 0 0 0 1 0 0 1

a12 a23 a31 0 0 1 + a13 a21 a32 1 0 0 + a13 a22 a31 0 1 0 =


1 0 0 0 1 0 1 0 0
a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .
Podemos ver que el determinante de una matriz es una suma y resta de productos de n entradas
de la matriz cuyos índices y subíndices abarcan todas las combinaciones en que se pueden
acomodar los números de 1 a n por tanto, el número de sumandos es igual a n!
Para tener una idea más clara, a cada elemento de esta suma le corresponde una matriz de
permutación que se puede hacer con una matriz de n × n: sus números de fila forzosamente
deben ir de 1 a n, y al asignar los números de columna podemos escoger cualquiera de las formas
en que se pueden acomodar n elementos, de esta forma, el determinante de una matriz está dado
por: X
detA = Pi1 i2 ...in a1i1 a2i2 . . . anin ,
i1 i2 ...in

donde Pi1 i2 ...in es igual a 1 si el reacomodamiento de filas de la matriz de permutación con


respecto a la identidad es par, -1 si es impar y 0 si alguno de los subíndices aparece repetido
(estos son todos los casos posibles); en caso de matrices de 3 × 3, Pi1 i2 ...in coincide con el tensor
de Levi-Civita. Aunque como era de esperarse, las filas no tienen nada de especial, pudimos fijar
los números de columna y variar los de fila (la propiedad 10 nos lo asegura):
X
detA = Pi1 i2 ...in ai11 ai22 . . . ainn .
i1 i2 ...in

5.2 Determinante en términos de cofactores


Tomemos la expresión anterior y factoricemos alguna arir :
X X
detA = arir Pi1 i2 ...ir ...in a1i1 a2i2 . . . ar−1 r+1 n
ir−1 air+1 . . . ain ,
i1 i1 i2 ...ir−1 ir+1 ...in

en la suma de la derecha no sólo factorizamos una entrada, también dejamos fijo un índice,
veamos que es lo que esto significa.
La multiplicación de entradas mantiene la misma estructura de un determinante, es decir, se
fijan las filas y las columnas varían de 1 a n, esto nos sugiere que se trata de otro determinante,
lo único que es distinto es el factor P .
El reordenamiento de una matriz de permutación para obtener la matriz identidad se puede
hacer de la siguiente manera:
(1) Reordenamos todas las filas con excepción de la r-ésima de forma que queden escalonadas.
(2) Intercambiamos la fila r con la que esté arriba o abajo hasta situarla en la posición donde

20
debería estar.

0 0 0 0 1 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0

1 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 1rir 0 0 0



0 0 0
1 0 −→ 0 0 0 1 0 −→ 0 1rir 0 0 0 −→ 0 0 1 0 0 ,
0 1rir 0 0 0 0 1rir 0 0 0 0 0 0 1 0 0 0 0 1 0



0 0 1 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1

nótese que el paso (1) se refiere al reordenamiento que se necesita en el factor P para que la suma
de la derecha ya represente un determinante, lo que significa que Pi1 i2 ...ir ...in incluye el factor que
necesitamos más unos intercambios extra, éstos están dados por el paso (2), en ejemplo anterior,
queda claro que el número de intercambios extra es igual a |ir − r|, pero lo que nos interesa es
la paridad de esos intercambios, así que en vez de usar su resta, podemos usar su suma: r + ir ,
y así podemos relacionar ambos factores de la forma:

Pi1 i2 ...ir ...in = (−1)r+ir Pi01 i2 ...ir−1 ir+1 ...in ,

si lo sustituímos en la expresión que tenemos del determinante, podemos sacar (−1)r+ir de la


suma ya que no alguno de los índices que van variando, y la suma deP la derecha se convertirá
en el determinante de la matriz sin la fila r ni la columna ir : detA = ni1 arir (−1)r+ir detArir , la
matriz Arir es la forma:
 
a11 a12 a13 a14 a15  
 2 a11 a12 a13 a15
 a1 a22 a23 a24 a25 

 3 3 3 3 
 a a2 a3 a5 
3  −→ A2 =  1
 
A= 3 3 3 3
 a1 a2 a3 a4 a5   a4 a4 a4 a4  ,
4

 4  1 2 3 5 
 a1 a42 a43 a44 a45 

a51 a52 a53 a55
a51 a52 a53 a54 a55

si hacemos los cambios r −→ i, ir −→ j:


X
detA = aij (−1)i+j detAij ,
j

también se cambió la forma de representar las filas y columnas.


Al término (−1)i+j detAij se la llama el cofactor ij de la matriz A, nótese que el cofactor no
depende de las entradas de la fila y columna que llevan sus índices (precisamente por que se
trata del determinante de la matriz A sin las filas i y j); los cuales los podemos usar como
números de filas y columnas, con ellos se forma la matriz de cofactores, la cual se denota
como AC o cof A.  
A11 A12 A13 A14 A15
 A21 A22 A23 A24 A25 
 
 
AC =   A31 A32 A33 A34 A35  ,

 A41 A43 A43 A44 A45 
 

A51 A52 A53 A54 A55


entonces, el determinante de una matriz en términos de su cofactor queda de la forma:
X
detA = aij AC
ij ,
j

21
recordando que i puede ser cualquier fila, aunque por la propiedad 10 de los determinantes,
podemos dejar fija una columna y realizar la sumatoria sobre las filas:
X
detA = aij AC
ij .
i

6 Deducción de la matriz inversa


Tomemos una matriz A y reemplacemos una de sus filas por otra, si k es la fila repetida y
expresamos este determinante con sus cofactores obtenemos sobre esa fila:
X
detA0 = akj AC
kj ,
j

(siendo A0 la fila modificada) pero recordemos que el cofactor no depende de la fila y columna
que llevan sus índices, de modo que los cofactores que se encuentran en la sumatoria son los
mismos que aparecen en el determinante de la matriz A: AC C
kj = Aij , de modo que lo único que se
modifica en la expresión es el índice de las entradas, y por la propiedad 4 de los determinantes,
debe ser igual a cero: X
detA0 = akj AC
ij = 0,
j

de ese modo obtenemos la siguiente expresión:


(
X 0 6 i
si k =
akj AC
ij =
j
detA si k = i
la cual nos va a ayudar a obtener la inversa de A, pero antes, la traspuesta de la matriz de
cofactores se le llama matriz adjunta y se denota por adjA, si hacemos el producto AadjA
obtenemos (usando el producto AB T realizado en la sección 2.2):
j
X X
A adjA = ( aik AC k ) = ( aik AC
jk ),
k k

haciendo los cambios k −→ j, i −→ k y j −→ i obtenemos:


X
A adjA = ( akj AC
ij ),
j

y ahora sí, usando el resultado anterior, obtenemos que este producto es una matriz diagonal,
no sólo eso, cada entrada es igual a detA, de ese modo
A adjA = detA E,
1
así, si detA 6= 0 tenemos que la matriz detA
adjA satisface:
1
A( adjA) = E,
detA
y finalmente concluímos:
1
A−1 = adjA.
detA
Habíamos visto en la sección 3.6 que las matrices regulares tienen inversa, y ahora vemos que
para que una matriz tenga inversa, su determinante debe ser distinto de cero, por la propiedad 9
de los determinantes concluímos que sólo las matrices regulares tienen inversa (por eso también
se les llama reversibles), y una forma más de definir a las matrices regulares y singulares es la
siguiente:

22
Una matriz es regular o invertible si su determinante es distinto de cero.

Una matriz es singular si su determinante es igual a cero.

23

S-ar putea să vă placă și