Documente Academic
Documente Profesional
Documente Cultură
1 Matrices
1.1 Definición
Una matriz es un arreglo rectangular de números, símbolos o expresiones dispuestos en filas y
columnas, a cada integrante de esteos elementos se le llama entrada y se suelen representar por
letras minúsculas.
Para identificar la ubicación de cada entrada fuera de la matriz, se le coloca un índice y subíndice
que indican la fila y columna respectitivamente a la que pertenecen.
!
a11 a12 a13 a14
a21 a22 a23 a24 .
Asimismo, se usa la letra i para denotar una fila cualquiera y se coloca en forma de índice, por
otro lado la letra j denota una columna cualquiera y se coloca como subíndice, una matriz en
general tiene la representación:
(aij ),
una notación alternativa es colocar ambos números como subíndice, con el acuerdo de que el
número que va primero es el de la fila:
!
a11 a12 a13 a14
(aij ).
a21 a22 a23 a2
Nótese que en ambas notaciones se diferencian dos veces las filas y columnas: con la posición
del índice y por la letra usada.
Las matrices también se denotan por letras mayúsculas: A, B; si se quieren usar ambas nota-
ciones se debe usar la misma letra: A = (aij ), B = (bij ).
El número de filas suele representarse con una n, y el de columnas con una m, las matrices se
identifican por estos números, por eso para especificar el tipo de matriz se dice que es de n × m.
Una matriz con no más que ceros como entradas se le conoce como matriz nula o matriz cero.
a31 a32 a33 a34 b31 b32 b33 b34 a31 + b31 a32 + b32 a33 + b33 a34 + b34
Partiendo de esta definición, es sencillo demostrar que la suma de matrices es conmutativa y
asociativa, también es claro que para cada matriz existen el neutro e inverso aditivo, el primero
es una matriz con ceros como todas sus entradas y el segundo es una matriz con las mismas
entradas que la matriz dada pero con signo opuesto.
1
1.2.2 Multiplicación de matrices por un escalar
Es posible multiplicar una matriz por un elemento perteneciente al mismo conjunto que sus
entradas al cual se le llama escalar (este conjunto debe especificarse para que la matriz esté
dada, por ejemplo A Mn×m (R), A es una matriz de n × m con sus entradas y escalares números
reales), para eso, se multiplican todos las entradas de la matriz por dicho escalar, el cual suele
representar por una letra minúscula y siempre se multiplica por la izquierda (si se aceptara una
multiplicación bilateral pueede haber confusión cuando se están multiplicando varias matrices):
a11 a12 ka11 ka12
2 2 2
a1 a2 ka1 ka22
a3 a3 = ka3 ka3
kA = k
1 2 1 2
4 4
a1 a2 ka1 ka42
4
2
1.2.5 Distributividad de las matrices
La suma de matrices y el productos por escalar y otras matrices son todas distributivas:
A(B + C) = AB + AC
k(A + B) = kA + kC ,
(k + t)A = kA + tA
veamos:
A(B + C) = (aij )(bij + cij ) = (aik (bkj + ckj )) = (aik bkj + aik ckj ) = (aik bkj ) + (aik ckj ) = AB + AC.
k(A + B) = k(aij + bij ) = (k(aij + bij )) = (kaij + kbij ) = (kaij ) + (kbij ) = k(aij ) + k(bij ) = kA + kB.
(k + t)A = ((k + t)aij ) = (kaij + taij ) = (kaij ) + (taij ) = k(aij ) + t(aij ) = kA + tA.
2 Matrices cuadradas
Una matriz cuadrada es aquella que tiene el mismo número de filas y columnas, esto permite
que siempre puedan sumarse y multiplicarse, también son las únicas en las que podríamos pre-
guntarnos si cuentan con un neutro o inverso multiplicativo, también se origina el concepto de
matriz traspuesta.
y dado a que sólo así satisface lo que queremos, esta matriz es única y se le conoce como matriz
identidad, viendo como varían los índices de la delta de Cronenberg en ella podemos ver que
contiene puros ceros excepto en las entradas donde el número de columnas iguala al de las filas,
donde hay unos; a estas entradas se les conoce como diagonal , y una matriz conformada por
ceros excepto en estas entradas se conoce como matriz diagonal.
1 0 ... 0
0 1 ... 0
E= .. .. . . . .. .
. . .
0 0 ... 1
3
que sólo deja el elemento de la suma en que los índices son iguales: rk δlk = rl .
Aunque encontramos la matriz identidad multiplicando por la derecha, también funciona por la
izquierda: EA = (δki akj ) = (aij ) = A.
Resumiendo, la matriz identidad E satisface la siguiente condición:
EA = AE = A
y es de la forma:
E = (δji ).
aquí ocurre algo gracioso, dentro del paréntesis, la j representa una fila de la matriz A, pero
fuera indica la columna de la matriz resultante; siguiendo el mismo desarrollo, el producto de
una matriz cualquiera por la traspuesta de otra es:
X
AB T = ( aik bjk ),
k
4
2.3 Matriz inversa
Un inverso debe tener la propiedad de al multiplicarlo por cierto elemento de un conjunto debe
resultar el neutro de dicho conjunto, en la sección
vimos que una matriz de n × s multiplicada por una de s × m resulta en una de n × m, para
que la matriz resultante tenga el mismo número de filas y columnas que alguno de sus factores,
todas deben tener el mismo número de filas y columnas, de modo que sólo las matrices cuadradas
pueden tener inversa.
Encontrar el inverso de una matriz es el primer problema a resolver de las matrices, pero por
ahora démosla por hecha y veamos algunas de sus propiedades. Dada una matriz A, supongamos
que existe A−1 tal que: AA−1 = E, ahora veamos sucede con la siguiente matriz: B = A−1 A,
tenemos que: AB = AA−1 A = A(A−1 A) = (AA−1 )A = EA = A, es decir: AB = A, y por
unicidad de la matriz identidad B = E, es decir A−1 A = E, de modo que la matriz inversa de
A, de existir satisface:
AA−1 = A−1 A = E.
Ahora veamos la siguiente identidad:
(AB)−1 = B −1 A−1 .
Multipliquemos AB por B −1 A−1 : (AB)(B −1 A−1 ) = ABB −1 A−1 = A(BB −1 )A−1 = AEA−1 =
AA−1 = E, de ahí que (AB)(B −1 A−1 ) = E, y la identidad queda demostrada.
3 Transformación de matrices
3.1 Matrices triangulares
Se suele desear que las matrices (cuadradas) se encuentren de forma triangular, es decir, que
estén conformadas por ceros de un lado de su diagonal:
5 −12 1 5 7 0 0 0
0 −8 7 0 −5 −2 0 0
,
0 0 3 −6 8 −4 7 0
0 0 0 11 0 9 −3 1
2 −9 9
5
Podemos considerar a cada fila de esta matriz como un vector de dimensión tres:
~a = (4, 6, −4)
~b = (−2, 3, −6),
~c = (2, −9, 9)
si queremos llevarla a una forma triangular, debemos anular algunos de los componentes de por
lo menos dos vectores, para eso hacemos la siguientes transformaciones lineales:
que equivale a:
(1) Sumar dos veces la segunda fila a la primera.
(2) Sumar la segunda fila a la tercera.
Dicho de este modo podemos pensar que la única fila que no sufrió cambios fue la segunda, así
que reescribiendo la matriz transformada tenemos:
0 12 −16
−2 3 −6 ,
0 −6 3
0 −6 3
0 0 −10
0 0 −10
así hemos transformado nuestra matriz a una diagonal superior, cada paso que seguimos (la
combinación de filas y el intercambio de las mismas) fue una transformación elemental y el
proceso en general fue la eliminación Gaussiana.
6
3.3.1 Matrices de permutación
(δsi δjr )
es una matriz que sólo cuenta con un uno y el resto de sus entradas es cero (sólo puede ser
igual a uno si ambas deltas de Cronenberg son uno simultáneamente, y eso sólo ocurre si nos
encontramos en una fila y columna específica), veamos que ocurre cuando la multiplicamos por
la izquierda a una matriz cualquiera:
(δsi δjr )A = (δsi δjr )(aij ) = (δsi δkr akj ) = (δsi arj ),
todas las filas de esta matriz estarán vacías exceptuando la s-ésima, pero no contendrá sus
entradas originales, sino las de la fila r-ésima, de esta manera, la matriz (δsi δjr ) lleva la fila r a la
s y deja vacías las demás:
0 0 0 0 a11 a12 a13 a14 0 0 0 0
2 2 2 2
0 0 0 0 a1 a2 a3 a4 0 0 0 0
(δ3i δj1 )A =
1 0
a3 a3 a3 a3 = a1 a1 a1 a1 ,
0 0
1 2 3 4 1 2 3 4
0 0 0 0 a41 a42 a43 a44 0 0 0 0
una matriz de permutación es una suma de n (el número de filas y columnas) matrices de este
tipo:
Xn
P = (δsi l δjrl ),
l=1
ésta genera n matrices que contienen una sola fila, sumadas pueden generar una que tenga todas
sus entradas ocupadas, para eso agregamos la condición de que ninguno de los índices rl ni sl se
repitan, es decir, la matriz de permutación contiene n unos pero sólo uno por fila y columna:
0 1 0 0
1 0 0 0
0 0 0 1 ,
0 0 1 0
de esa manera nos aseguramos de que ninguna fila quede vacía o se repita alguna otra sin perder
la libertad de que alguna permanezca igual (caso que se da si r = s). La posición de los unos nos
dice cómo se van intercambiando las filas: la columna en la que está es la fila de origen y la fila
donde se encuentra es la fila de destino (sin olvidar de que debe multiplicarse por la izquierda,
de hacerlo por la derecha las que se intercambiarían serían las columnas).
Si alguna de las entradas de esta amtriz no fuera uno, no sólo reacomodaríamos la fila, sino que
devolveríamos una combinación lineal de la misma, esto se verá en la seiguiente sección.
A continuación probaremos que la inversa de una matriz de permutación es su traspuesta: por
lo dado en la sección 2.2 tenemos que:
n X
X n X
n
PPT = (δsi l δkrl δsjt δkrt ),
l=1 t=1 k=1
7
ahora rl toma valores no repetidos de 1 a n, por lo que rl = rs sólo si l = s, de modo que δrrst = δst ,
y eso anulará ya sea la sumatoria sobre t o sobre l:
n X n n n
k
X X X
PPT = (δsi l δsjt δsl ) = (δsi t δsjt ) = (δsi l δsjl ) = (δki δ T j ) = (δki δjk ) = (δji ) = E,
l=1 t=1 t=1 l=1
8
3.3.3 Matrices diagonales
Las matrices diagonales también hacen transformaciones; en la sección anterior vimos que las
matrices elementales no combinan filas consigo mismas, eso implicaría que la fila de origen sería
igual a la del destino r = s y el coeficiente debería estar en la diagonal, así, una matriz que
multiplicada por la izquierda devuelva transformaciones lineales de las filas sin reacomodarlas
sería una matriz diagonal con entradas no necesariamente igual a 1 (la entrada será el coeficiente
por el que será multiplicado la fila, y su número de fila será la fila que modifique):
d1 0 . . . 0
0 d2 . . . 0
X
i j
D= (dk δk δk ) =
.. .. . . . ..
k . . .
0 0 . . . dn
d1 0 0 0 0 a11 a12 a13 a14 a15 d1 a11 d1 a12 d1 a13 d1 a14 d1 a15
0 d2 0 0 0 a21 a22 a23 a24 a25 d2 a21 d2 a22 d2 a23 d2 a24 d2 a25
0
0 d3 0 0
a31 a32 a33 a34 a35 = d3 a3 d3 a3
1 2 d3 a33 d3 a34 d3 a35
,
0 0 0 d4 0 a41 a42 a43 a44 a45 4
d 4 a1 d 4 a24
d4 a43 d4 a44 d4 a45
0 0 0 0 d5 a51 a52 a53 a54 a55 d5 a51 d5 a52 d5 a53 d5 a54 d5 a55
no obstante, las entradas de esta matriz diagonal deben ser distintas de cero, de otro modo
no devolverían combinaciones P lineales de filas, sino P
filas nulas. Además, P P de este modo tam-
−1 −1 i j −1 i j i j −1 i j
bién tiene inversa: D = (d
k k δ δ
k k ), veamos: D (d
k k δ δ
k k ) = k (d δ
t k k kδ )(d t δt δt ) =
P P P −1 i s s j P −1 i j i
k t s (dk dt δk δk δt δt ) = k (dk dk δk δk ) = (δj ) = E.
El tipo de transformaciones que generan las matrices diagonales no forman parte de la elimi-
nación Gaussina, es decir, las matrices diagonales no representan transformaciones elementales.
Como todas las matrices diagonales son a su vez triangulares superiores e inferiores, multiplicadas
por cualquiera conservará su triangularidad, en particular, si multiplicamos una matriz diago-
nal por una matriz triangular superior de diagonal unitaria, obtendremos una matriz diagonal
superior arbitraria cuya diagonal es la misma que la de la matriz diagonal.
d1 0 . . . 0 1 a12 . . . a1n d1 d1 a12 . . . d1 a1n b11 b12 . . . b1n
0 d2 . . . 0 0 1 . . . a2n 0 d2 . . . d2 a2n 0 b22 . . . b2n
DU = .. .. . . . .. .. .. . . . .. = ..
.. .. = .. .. . . . ..
.. ,
. . . . . . . . . . . . .
0 0 . . . dn 0 0 ... 1 0 0 ... dn 0 0 . . . bnn
o lo que es lo mismo, una matriz triangular superior (o inferior) se puede factorizar en una matriz
diagonal por otra triangular superior (o inferior) con diagonal unitaria, además, su diagonal
(cuyas entradas son los pivotes) será la misma que la de la matriz diagonal.
9
Como es más común hacer transformaciones combinando las filas, estas matrices se suelen multi-
plicar por la izquierda, pero también pueden combinarse las columnas, en cuyo caso, las matrices
de transformación deben multiplicarse por la derecha.
un resultado que usaremos más adelante es que el producto de dos matrices triangulares supe-
riores (o inferiores) sigue siendo del mismo tipo:
XX XX
UV = (kl δsi l δjrl )(ht δsi t δjrt ) = kl ht (δsi l δjrl )(δsi t δjrt ),
l t l t
(δsi l δjrl )(δsi t δjrt ) = (δsi l δkrl δskt δjrt ) = (δsi l δsrtl δjrt ),
esta matriz no se hace cero solamente cuando st = rl , sabemos que rt ≥ st y rl ≥ sl , así que
rt ≥ sl , de modo que el producto
XX
UV = kl ht (δsi l δjrt ) rt ≥ sl
l t
se conforma por una suma de matrices triangulares superiores, por tanto, debe ser a su vez una
matriz triangular superior.
2 −9 9 4 6 −4 0 0 −10
de esta manera, al momento de combinar las filas sólo lo haríamos de arriba hacia abajo, es
decir, haríamos primero todas las combinaciones de la primera fila con las demás, luego las de la
segunda con las demás exceptuando a la primera porque ya se hizo y así sucesivamente de modo
que la última fila no la combinaríamos con ninguna otra; todo esto con el objetivo de utilizar
matrices elementales que sean triangulares inferiores, ya que como el número de la fila de origen
10
siempre es menor al de la fila de destino, el número de columna de las entradas de las matrices
siempre sería menor (o igual) que el número de fila:
0 1 0 4 6 −4 4 6 −4 −2 3 −6
0 0 1 −2 −6 = P −2 3 −6 =
3 2 −9 9
1 0 0 2 −9 9 2 −9 9 4 6 −4
1 0 0 1 0 0 −2 3 −6 −2 3 −6 −2 3 −6
1 1 0 0 1 0 2 −9 9 = E21 E31 2 −9 9 = 0 −6 3
0 0 1 2 0 1 4 6 −4 4 6 −4 0 12 −16
1 0 0 −2 3 −6 −2 3 −6 −2 3 −6
0 1 0 0 −6 3 = E32 0 −6 3 = 0 −6 3 = U,
así:
E32 E21 E31 P A = U,
donde Esr son matrices elementales triangulares inferiores, P es una matriz de permutación, A
es la matriz original (la que se va a factorizar) y U es la matriz transformada triangular superior,
en la sección 3.3.2 vimos que existe inversa de las matrices elementales, así que multiplicamos
−1 −1 −1 −1 −1 −1 −1 −1
E31 E21 E32 por la izquierda, por un lado: E31 E21 E32 E32 E21 E31 P A = E31 E21 EE21 E31 P A =
−1 −1 −1 −1 −1 −1 −1
E31 E21 E21 E31 P A = E31 EE31 P A = E31 E31 P A = EP A = P A y por el otro: E31 E21 E32 U ,
pero igualmente vimos que el producto de dos matrices triangulares inferiores conserva su tri-
−1 −1 −1
angularidad, por tanto E31 E21 E32 = L es una matriz triangular inferior (nótese que L =
(E32 E21 E31 )−1 .)
De esa manera tenemos:
P A = LU,
L es el producto de varias matrices matrices triangulares inferiores de diagonal unitaria, éstas
son de la forma: Esr = E + (kδsi δjr ) r < s, siguiendo un camino casiP idéntico al de la prueba
i rl
de la sección 3.4 podemos demostrar que L es de la forma L = E + l (kl δsl δj ) r < s, lo que
significa que también es una matriz triangular inferior de diagonal unitaria, en nuestro ejemplo:
1 0 0
L = −1 1 0 ,
−2 −2 1
P A = L1 D1 U1 = L2 D2 U2 ,
11
recordemos que en la deducción de la factorización, L es la inversa de una matriz, de modo que
también tiene inversa, por analogía U también debe tenerla, no es difícil ver que las matrices
diagonales también deben tener inversa, así que multiplicando por la izquierda L2 −1 y por la
derecha U1 −1 D1 −1 obtenemos:
L2 −1 L1 = D2 U2 U1 −1 D1 −1 ,
el lado izquierdo es una matriz triangular inferior de diagonal unitaria, pero el lado derecho es
una matriz triangular superior, la única matriz que es triangular inferior, superior y de diagonal
unitaria es la matriz identidad, de modo que L2 −1 L1 = E y multiplicando L2 por la izquierda:
L1 = L2 ,
AT P 0 = L0 DU 0 ,
aunque la definición coloque la matriz de permutación del lado izquierdo, realmente da igual
que aparezca del derecho, ya que sólo sirve para reacomodar la matriz en caso de que tenga las
filas o columnas correctas pero desordenadas; de modo que la traspuesta de la matriz también
satisface la condición para ser regular, lo que también quiere decir que una matriz es regular si
su traspuesta lo es, por eso:
Una matriz singular es toda aquella que no sea regular, así que tomando la contrapositiva de la
proposición anterior:
Una matriz singular es aquella que al ser transformada a una triangular, alguno de
sus pivotes es igual a cero.
Por la forma en que se definieron, toda matriz debe ser o singular o regular.
Hay otras formas de definir las matrices regulares, si partimos de la que tenemos, una matriz
regular admite la factorización: P A = LDU , si multiplicamos L−1 por la izquierda y reescribimos
12
DU = U 0 tenemos: L−1 P A = U 0 , donde U 0 es una matriz triangular superior de pivotes d1 ,
d2 , . . . , dn no nulos
d1 a12 a13 a14 a15
0 d2 a23 a24 a25
U0 =
3 3
0 0 d3 a4 a5 ,
0 0 0 d4 a45
0 0 0 0 d5
la cual podemos transfomar hasta quedarnos una matriz diagonal, para eso tomamos la última
fila, la multiplicamos por −an−1
n /dn y la sumamos a la penúltima
d1 a12 a13 a14 a15 d1 a12 a13 a14 a15
0 d2 a23 a24 a25 0 d2 a23 a24 a25
0 0 d3 a3 a3 −→ 0 0 d3 a3 a3 ,
4 5 4 5
0 0 0 d4 a45 0 0 0 d4 0
0 0 0 0 d5 0 0 0 0 d5
0 0 0 0 d5 0 0 0 0 d5
ahora queda solo el pivote de la antepenúltima fila, siguiendo este procedimiento habremos
reducido la matriz a una diagonal con sus pivotes como entradas (la misma que en la factor-
ización P A = LDU ), como las combinaciones lineales fueron de abajo para arriba, la matriz de
transformación T 0 que se usó es triangular superior, multiplcándola por la izquierda (porque se
combinaron las filas):
T 0 L−1 P A = T 0 U 0 = D,
debido a que todas son matrices de transformación, su producto también lo es T 0 L−1 P = T, así
que otra definición de las matrices regulares es la siguiente:
Una matriz es regular si mediante transformaciones elementales puede reducirse a
una matriz diagonal de entradas no nulas: T A = D.
Despejando A: A = T −1 D vemos que se compone del producto de matrices que tienen inversa,
esto implica que A también tiene inversa, de modo que:
Las matrices regulares tienen inversa.
este es el motivo por el cual también se les conoce como invertibles.
Una vez que una matriz queda reducida a una diagonal vemos que no hay forma de que mediante
transformaciones elementales podamos anular alguna de sus filas, ya que cualquier transforma-
ción sólo añadiría entradas, esto quiere decir que sus filas son linealmente independientes (las
filas de su traspuesta también deben serlo, entonces sus columnas también lo son) así que una
definición más de las matrices regulares es la siguiente:
13
Una matriz es regular si sus filas son linealmente independientes.
La dependencia lineal de una matriz singular quiere decir que existe una matriz de transformación
T tal que multiplicada por la izquierda genera una matriz con una de sus filas nulas: A es singular
si ∃T tal que T A = (0)r , ((0)r es una matriz con la fila r nula), usaremos esto para hacer la
siguiente demostración:
4 Determinantes
No se puede hablar de matrices si no hablamos de sus determinantes, hay muchas de definirlos
y abordarlos, podríamos dar su fórmula explícita y a partir de ella demostrar sus propiedades,
pero es más fácil hacerlo al revés, los definiremos a partir de sus propiedades y con ellas traba-
jaremos hasta encontrar una fórmula explícita sin preocuparnos tanto por interpretarlos y así,
eventualmente usarlos para encontrar la inversa de una matriz.
14
deducen a partir de ellas, las forma en que se denota el determinante de una matriz son
1 1 1 1 1
a1 a2 a13 a14 a15 a a a
1 2 3 a14 a15
2 2
a1 a2 a3 a4 a5 a21 a22 a23
2 2 2
a24 a25
2 2
detA = det a1 a2 a23 a24 a25 2 2 2
= a1 a2 a3 a24 a25
4 4
a1 a2 a43 a44 a45 a41 a42 a43 a44 a45
a51 a52 a53 a54 a55 a5 a5 a5
1 2 3 a54 a55
esta propiedad nos dice que no hay nada de especial con la primera fila en la propiedad anterior,
con un cambio cualquier otra puede convertirse en la primera y con otro volver a la normalidad,
como se cambian dos veces los signos realmente permanece igual, y así la linealidad se traslada
15
a todas las demás filas:
a11 a12 a13 a14 a15
a21 a22
a32
a42
a52
a31 a23
a33
a43
a53 =
4
a1 + kb41 4 4 4 4 4 4
a2 + kb2 a3 + kb3 a4 + kb4 a5 + kb5 4 4
a51 a52 a53 a54 a55
a4 + kb4 a42 + kb42 a43 + kb43 a44 + kb44 a45 + kb45
1 1
2
a1 a22 a23 a24 a25
− a31 a32 a33 a34 a35 =
a11 a12 a13 a14 a15
a51 a52 a53 a54 a55
a4 a4 a43 a44 a45 b4 b4 b4 b 4 b4
1 2 1 2 3 4 5
2 2
a23 a24 a25
2 2 2 2 2
a1 a2 a1 a2 a3 a4 a5
− a31 a32 3 3
a3 a4 a5 3 −k 3 3 3 3
a1 a2 a3 a4 a5 =
3
1 1
a13 a14 a15
1 1 1 1 1
a1 a2 a1 a2 a3 a4 a5
a5 a5 5
a3 a4 a5 5 5 a5 a5 a5 a5 a5
1 2 1 2 3 4 5
a1 a1 a13 a14 a15 a1 a1 a1 a1 a1
1 2 1 2 3 4 5
2 2
a23 a24 a25
2 2 2 2 2
a1 a2 a1 a2 a3 a4 a5
a3 a3 a33 a34 a35 + k a31 a32 a33 a34 a35
1 2
4 4
a43 a44 a45
4 4 4 4 4
a1 a2 b1 b2 b3 b4 b5
a5 a5 a53 a54 a55 a5 a5 a5 a5 a5
1 2 1 2 3 4 5
detE = 1
4. Si dos filas de la matriz son iguales, entonces su determinante es igual a 0.
a1 a12 a13 a14 a15
1
2
a1 a22 a23 a24 a25
a2 a22 a23 a24 a25 = 0,
1
4
a1 a42 a43 a44 a45
a5 a52 a53 a54 a55
1
por la segunda propiedad, si cambiamos de lugar las filas que son iguales el determinante cambia
de signo, pero como la matriz no cambia tenemos que detA = −detA, por tanto detA = 0.
16
a11 a12 a13 a14 a15
a11 a12 a13 a14 a15
a21 a22 a23 a24 a25 a21 a22 a23 a24 a25
a3 + ka2 a3 + ka2 a3 + ka2 a3 + ka2 a3 + ka2 = a31 a32 a33 a34 a35 ,
1 1 2 2 3 3 4 4 5 5
4 4 4 4 4
a1 a2 a3 a4 a5 a41 a42 a43 a44 a45
5 5 5 5
a1 a2 a3 a4 a55 a51 a52 a53 a54 a55
la primera propiedad nos dice que en realidad hay un término adicional:
a11 a12 a13 a14 a15
a21 a22 a23 a24 a52
a3 + ka2 a3 + ka2 a3 + ka2 a3 + ka2 3 2 =
a5 + ka5
1 1 2 2 3 3 4 4
4 4 4 4
a1 a2 a3 a4 a45
5 5 5
a1 a2 a3 a54 a55
,
a1 a1 a1 a1 a1 a1 a1 a1 a14 a15
1 2 3 4 5 1 2 3
2 2 2 2 2 2 2 2
a1 a2 a3 a4 a5 a1 a2 a3 a24 a25
a3 a3 a3 a3 a3 + k a2 a2 a2 a24 a25
1 2 3 4 5 1 2 3
4 4 4 4 4 4 4 4
a1 a2 a3 a4 a5 a1 a2 a3 a44 a45
a5 a5 a5 a5 a5 a5 a5 a5 a54 a55
1 2 3 4 5 1 2 3
pero tiene repetida una fila, la propiedad anterior nos asegura que se anula.
6. Si las entradas de una fila de la matriz son cero, su determinante es igual a cero.
a1 a1 a1 a1 a15
1 2 3 4
2 2 2 2
a1 a2 a3 a4 a25
a3 a3 a3 a3 a35 = 0,
1 2 3 4
0 0 0 0 0
a5 a5 a5 a5 a55
1 2 3 4
podemos sumar cualquier fila a la que tiene entradas cero, como es una combinación lineal, la
propiedad 5 nos dice que el determinante no cambia, pero ahora hay dos filas repetidas, por la
propiedad 4, su determinante es 0.
17
entradas dejando que multipliquen al determinante de la matriz identidad, y por la propiedad
3, éste último es igual a uno y termina la demostración:
a1 a1 a1 a1 a1 a1 0 0 0 0
1 2 3 4 5 1
2 2 2 2 2
0 a2 a3 a4 a5 0 a2 0 0 0
0 0 a3 a3 a3 = 0 0 a3 0 0 =
3 4 5 3
4 4 4
0 0 0 a4 a5 0 0 0 a4 0
0 0 0 0 a5 0 0 0 0 a5
5 5
.
a1 1 a1 0 a1 0 a1 0 a1 0 1 0 0 0 0
1 1 1 1 1
2
a2 0 a22 1 a22 0 a22 0 a22 0 0 1 0 0 0
a3 0 a3 0 a3 1 a3 0 a3 0 = a11 a22 a33 a44 a55 0 0 1 0 0 = a11 a22 a33 a44 a55
3 3 3 3 3
4
a4 0 a44 0 a44 0 a44 1 a44 0 0 0 0 1 0
a5 0 a5 0 a5 0 a5 0 a5 1 0 0 0 0 1
5 5 5 5 5
18
la traspuesta de las matrices triangulares invirtieron sus triangularidades pero siguen siendo
triangulares, por la propiedad 7 sus determinantes siguen siendo los mismos, entonces tenemos
detAdetP = detP T detAT por la estructura de las matrices de permutación, es claro que provienen
de la matriz identidad a la cual se le invirtieron sucesivamente las filas, por lo tanto detP = ±1
(lo mismo para P T ), por otro lado como P P T = E, entonces detP detP T = 1, esto quiere decir
que detP y detP T son iguales, así es como concluimos que detA = detAT .
Este resultado extiende las propiedades que hemos visto, ya que al aplicarse a las filas de la
traspuesta de una matriz, se aplican a las columnas de la matriz, es decir, la combinación lineal
de columnas en una matriz no altera el resultado del determinante, el determinante de una
matriz con una columna repetida o nula es igual a cero e invertir la posición de dos columnas
invierte el signo del determinante.
pero una vez que lo hicimos con una fila, lo podemos hacer con todas, hasta sólo quedarnos
con determinantes de matrices que contengan sólo ceros y unos, al final serán un total de nn
términos, pero gran parte de ellos serán igual a cero debido a que se formarán matrices con filas
o columnas nulas: cada vez que descomponemos una fila, ésta queda conformada por un uno y
n − 1 ceros, al final las matrices tendrán n unos y el resto de sus entradas serán ceros, tendrán
un uno por fila pero se conformaran todas las combinaciones de acomodación en las colmnas, un
ejemplo es el siguiente:
1 0 0
1 0 0 ,
0 0 1
los determinantes que no se anulen deberán ser de matrices que tengan un uno en cada fila y
columna, es decir, matrices de permutación, y contando las veces que necesitemos reacomodar
sus filas para formar la matriz identidad nos dirá el valor del determinante (por las propiedades
2 y 3).
19
a1 a1 a1 1 0 0 1 0 0 0 1 0
1 2 3
2 2 2 1 2 3 1 2 3 1 2 3
a1 a2 a3 = a a a 0 1 0 + a a a 0 0 1 + a a a 1 0 0 +
1 2 3 1 3 2 2 1 3
a3 a3 a3 0 0 1 0 1 0 0 0 1
1 2 3
0 1 0 0 0 1 0 0 1
a12 a23 a31 0 0 1 + a13 a21 a32 1 0 0 + a13 a22 a31 0 1 0 =
1 0 0 0 1 0 1 0 0
a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 .
Podemos ver que el determinante de una matriz es una suma y resta de productos de n entradas
de la matriz cuyos índices y subíndices abarcan todas las combinaciones en que se pueden
acomodar los números de 1 a n por tanto, el número de sumandos es igual a n!
Para tener una idea más clara, a cada elemento de esta suma le corresponde una matriz de
permutación que se puede hacer con una matriz de n × n: sus números de fila forzosamente
deben ir de 1 a n, y al asignar los números de columna podemos escoger cualquiera de las formas
en que se pueden acomodar n elementos, de esta forma, el determinante de una matriz está dado
por: X
detA = Pi1 i2 ...in a1i1 a2i2 . . . anin ,
i1 i2 ...in
en la suma de la derecha no sólo factorizamos una entrada, también dejamos fijo un índice,
veamos que es lo que esto significa.
La multiplicación de entradas mantiene la misma estructura de un determinante, es decir, se
fijan las filas y las columnas varían de 1 a n, esto nos sugiere que se trata de otro determinante,
lo único que es distinto es el factor P .
El reordenamiento de una matriz de permutación para obtener la matriz identidad se puede
hacer de la siguiente manera:
(1) Reordenamos todas las filas con excepción de la r-ésima de forma que queden escalonadas.
(2) Intercambiamos la fila r con la que esté arriba o abajo hasta situarla en la posición donde
20
debería estar.
0 0 0 0 1 1 0 0 0 0 1 0 0 0 0 1 0 0 0 0
1 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 1rir 0 0 0
0 0 0
1 0 −→ 0 0 0 1 0 −→ 0 1rir 0 0 0 −→ 0 0 1 0 0 ,
0 1rir 0 0 0 0 1rir 0 0 0 0 0 0 1 0 0 0 0 1 0
0 0 1 0 0 0 0 0 0 1 0 0 0 0 1 0 0 0 0 1
nótese que el paso (1) se refiere al reordenamiento que se necesita en el factor P para que la suma
de la derecha ya represente un determinante, lo que significa que Pi1 i2 ...ir ...in incluye el factor que
necesitamos más unos intercambios extra, éstos están dados por el paso (2), en ejemplo anterior,
queda claro que el número de intercambios extra es igual a |ir − r|, pero lo que nos interesa es
la paridad de esos intercambios, así que en vez de usar su resta, podemos usar su suma: r + ir ,
y así podemos relacionar ambos factores de la forma:
21
recordando que i puede ser cualquier fila, aunque por la propiedad 10 de los determinantes,
podemos dejar fija una columna y realizar la sumatoria sobre las filas:
X
detA = aij AC
ij .
i
(siendo A0 la fila modificada) pero recordemos que el cofactor no depende de la fila y columna
que llevan sus índices, de modo que los cofactores que se encuentran en la sumatoria son los
mismos que aparecen en el determinante de la matriz A: AC C
kj = Aij , de modo que lo único que se
modifica en la expresión es el índice de las entradas, y por la propiedad 4 de los determinantes,
debe ser igual a cero: X
detA0 = akj AC
ij = 0,
j
y ahora sí, usando el resultado anterior, obtenemos que este producto es una matriz diagonal,
no sólo eso, cada entrada es igual a detA, de ese modo
A adjA = detA E,
1
así, si detA 6= 0 tenemos que la matriz detA
adjA satisface:
1
A( adjA) = E,
detA
y finalmente concluímos:
1
A−1 = adjA.
detA
Habíamos visto en la sección 3.6 que las matrices regulares tienen inversa, y ahora vemos que
para que una matriz tenga inversa, su determinante debe ser distinto de cero, por la propiedad 9
de los determinantes concluímos que sólo las matrices regulares tienen inversa (por eso también
se les llama reversibles), y una forma más de definir a las matrices regulares y singulares es la
siguiente:
22
Una matriz es regular o invertible si su determinante es distinto de cero.
23