Sunteți pe pagina 1din 11

Capítulo 1

Matrices
Definición: Es una arreglo rectangular de elementos (escalares) pertenecientes a un cuerpo, que se disponen
en m filas y n columnas.
El orden de una matriz nos indica la cantidad de filas y columnas; el elemento genérico representa cualquier
elemento de la matriz y su nomenclatura es “𝒂𝒊𝒋 ”; se designan con una letra mayúscula “𝑨𝒎𝒙𝒏 ”, y otra forma
más específica es con el elemento genérico encerrado entre paréntesis o corchetes “(𝒂𝒊𝒋 ) ”; además la
𝒎𝒙𝒏
cantidad de elementos de una matriz es mxn.
𝐴𝑚𝑥𝑛 = (𝑎𝑖𝑗 )𝑚𝑥𝑛 𝑐𝑜𝑛 1 ≤ 𝑖 ≤ 𝑚; 1 ≤ 𝑗 ≤ 𝑛⋀𝑖, 𝑗, 𝑚, 𝑛 ∈ 𝑁

Matrices reales
Definición: Aquellas cuyos elementos son números reales 𝐴 ∈ ℝ𝑚𝑥𝑛 .
Clasificación según su forma
a) Matriz rectangular: Aquella que tiene distinto número de filas que de columnas.
𝐴𝑚𝑥𝑛 𝑒𝑠 𝑟𝑒𝑐𝑡𝑎𝑛𝑔𝑢𝑙𝑎𝑟 ⇔ 𝑚 ≠ 𝑛
 Matriz fila: matriz rectangular cuyo tamaño es 1×n (de una fila).
 Matriz columna: matriz rectangular cuyo tamaño es m×1 (de una columna).
b) Matriz cuadrada: Aquella que tiene el mismo número de filas que de columnas.
𝐴𝑚𝑥𝑛 𝑒𝑠 𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑎 ⇔ 𝑚 = 𝑛
 Matriz triangular superior: tiene todos los elementos situados debajo de la diagonal principal
iguales a cero.
𝐴𝑛𝑥𝑛 = (𝑎𝑖𝑗 )𝑛𝑥𝑛 𝑒𝑠 𝑇𝑆 ⇔ 𝑎𝑖𝑗 = 0 𝑠𝑖 𝑖 > 𝑗
 Matriz triangular inferior: tiene todos los elementos situados por encima de la diagonal
principal iguales a cero.
𝐴𝑛𝑥𝑛 = (𝑎𝑖𝑗 )𝑛𝑥𝑛 𝑒𝑠 𝑇𝐼 ⇔ 𝑎𝑖𝑗 = 0 𝑠𝑖 𝑖 < 𝑗
 Matriz diagonal: tiene todos los elementos situados fuera de la diagonal principal iguales a
cero.
𝐴𝑛𝑥𝑛 = (𝑎𝑖𝑗 ) 𝑒𝑠 𝑀𝐷 ⇔ 𝑎𝑖𝑗 = 0 𝑠𝑖 𝑖 ≠ 𝑗
𝑛𝑥𝑛
 Matriz escalar: tiene todos los elementos situados fuera de la diagonal principal iguales a cero y
los elementos de la diagonal principal son iguales entre sí (mismo escalar).
𝐴𝑛𝑥𝑛 = (𝑎𝑖𝑗 )𝑛𝑥𝑛 𝑒𝑠 𝑀𝐸 ⇔ 𝑎𝑖𝑗 = 0 𝑠𝑖 𝑖 ≠ 𝑗 ∧ 𝑎𝑖𝑗 = 𝐾 𝑠𝑖 𝑖 = 𝑗, 𝑐𝑜𝑛 𝐾 ∈ ℝ
 Matriz identidad: tiene todos los elementos situados fuera de la diagonal principal iguales a
cero y los elementos de la diagonal principal iguales a 1.
𝐼𝑛𝑥𝑛 = (𝑖𝑖𝑗 )𝑛𝑥𝑛 ⇔ 𝑖𝑖𝑗 = 0 𝑠𝑖 𝑖 ≠ 𝑗 ∧ 𝑖𝑖𝑗 = 1 𝑠𝑖 𝑖 = 𝑗
 Matriz simétrica: los elementos situados simétricamente con respecto a la diagonal principal
son iguales.
𝐴𝑛𝑥𝑛 = (𝑎𝑖𝑗 )𝑛𝑥𝑛 𝑒𝑠 𝑀𝑆 ⇔ 𝑎𝑖𝑗 = 𝑎𝑗𝑖 ⩝ 𝑖,⩝ 𝑗
 Matriz asimétrica: los elementos situados simétricamente con respecto a la diagonal principal
son opuestos.
𝐴𝑛𝑥𝑛 = (𝑎𝑖𝑗 ) 𝑒𝑠 𝑀𝐴 ⇔ 𝑎𝑖𝑗 = −𝑎𝑗𝑖 ⩝ 𝑖,⩝ 𝑗
𝑛𝑥𝑛
 También en esta clasificación se incluye la idempotente, involutiva, inversa, singular y regular.
Igualdad de matrices
Dos matrices A y B son iguales cuando son del mismo orden y sus homónimos son iguales.

(𝑎𝑖𝑗 )𝑚𝑥𝑛 = (𝑏𝑖𝑗 )𝑝𝑥𝑞 ⇔ 𝑚 = 𝑝 ∧ 𝑛 = 𝑞 ∧ 𝑎𝑖𝑗 = 𝑏𝑖𝑗 ⩝ 𝑖,⩝ 𝑗

Propiedades:

 Reflexiva: ⩝ 𝐴𝑚𝑥𝑛 : 𝐴𝑚𝑥𝑛 = 𝐴𝑚𝑥𝑛


 Simétrica: ⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝐵𝑚𝑥𝑛 : 𝑠𝑖𝐴𝑚𝑥𝑛 = 𝐵𝑚𝑥𝑛 ⇒ 𝐵𝑚𝑥𝑛 = 𝐴𝑚𝑥𝑛
 Transitiva: ⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝐵𝑚𝑥𝑛 ,⩝ 𝐶𝑚𝑥𝑛 : 𝑠𝑖 𝐴 = 𝐵 ∧ 𝐵 = 𝐶 ⇒ 𝐴 = 𝐶

Suma de matrices
Dadas dos matrices del mismo orden, la suma de éstas es otra matriz del mismo orden, de modo que sus
elementos se obtienen sumando los homónimos de las matrices dadas.

Propiedades:

 Asociativa: ⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝐵𝑚𝑥𝑛 ,⩝ 𝐶𝑚𝑥𝑛 : (𝐴 + 𝐵) + 𝐶 = 𝐴 + (𝐵 + 𝐶)


 Existencia de neutro: 𝐸𝑛 ℝ𝑚𝑥𝑛 :⩝ 𝐴𝑚𝑥𝑛 , ∃ 𝑁𝑚𝑥𝑛 ⁄𝐴 + 𝑁 = 𝑁 + 𝐴 = 𝐴
 Matriz nula (Ǝ infinitas): 𝑁𝑚𝑥𝑛 = (𝑛𝑖𝑗 )𝑚𝑥𝑛 ⇔ 𝑛𝑖𝑗 = 0; ⩝ 𝑖,⩝ 𝑗
 Existencia de opuesto: 𝐸𝑛 ℝ𝑚𝑥𝑛 :⩝ 𝐴𝑚𝑥𝑛 , ∃ −𝐴𝑚𝑥𝑛 ⁄𝐴 + (−𝐴) = −𝐴 + 𝐴 = 𝑁
 Matriz opuesta (toda matriz tiene opuesta y la opuesta de la matriz nula es sí
misma): 𝐴 = (𝑎𝑖𝑗 )𝑚𝑥𝑛 ⇒ −𝐴 = (−𝑎𝑖𝑗 )𝑚𝑥𝑛 𝑒𝑠 𝑚𝑎𝑡𝑟𝑖𝑧 𝑜𝑝𝑢𝑒𝑠𝑡𝑎 𝑑𝑒 𝐴.
 Conmutativa: ⩝ 𝐴𝑚𝑥𝑛 ∧⩝ 𝐵𝑚𝑥𝑛 : 𝐴 + 𝐵 = 𝐵 + 𝐴

Resta de matrices:
Dadas dos matrices del mismo orden, la resta de éstas es otra matriz del mismo orden, de modo que sus
elementos se obtienen restando los homónimos de las matrices dadas.

Producto de escalar por matriz:


Dada una matriz A y un escalar K, el producto de ambos es la otra matriz del mismo orden que A, donde sus
elementos se obtienen multiplicando a los elementos de la matriz A por el escalar K.

Propiedades:

 Distributiva con respecto a la suma de matrices:


⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝐵𝑚𝑥𝑛 ,⩝ 𝑘 ∈ ℝ: 𝑘. (𝐴 + 𝐵) = 𝑘. 𝐴 + 𝑘. 𝐵
 Distributiva con respecto a la suma de escalares:
⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝑘1 ∈ ℝ,⩝ 𝑘2 ∈ ℝ: (𝑘1 + 𝑘2 ). 𝐴 = 𝑘1 . 𝐴 + 𝑘2 . 𝐴
 Asociativa mixta:
⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝑘1 ∈ ℝ,⩝ 𝑘2 ∈ ℝ: 𝑘1 . (𝑘2 . 𝐴) = (𝑘1 . 𝑘2 ). 𝐴
 Existencia de neutro:
∃1 ∈ ℝ⁄⩝ 𝐴𝑚𝑥𝑛 : 1. 𝐴 = 𝐴. 1 = 𝐴
Multiplicación de matrices:
Dadas dos matrices 𝐴𝑚𝑥𝑛 y 𝐵𝑛𝑥𝑝 , el producto entre A y B es otra matriz que llamaremos 𝐶𝑚𝑥𝑝 tal que su
elemento genérico 𝑐𝑖𝑗 se obtiene multiplicando en forma escalar la fila i de la primera matriz (A) por la
columna j de la segunda matriz (B), y luego sumando los productos obtenidos.
𝑛

𝐷𝑎𝑑𝑎𝑠 𝐴𝑚𝑥𝑛 ∧ 𝐵𝑛𝑥𝑝 ⇒ 𝐴. 𝐵 = 𝐶𝑚𝑥𝑝 ∕⩝ 𝑖,⩝ 𝑗: 𝑐𝑖𝑗 = ∑ 𝑎𝑖𝑘 . 𝑏𝑘𝑗


𝑘=1

Propiedades:

 Asociativa: ⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝐵𝑛𝑥𝑝 ,⩝ 𝐶𝑝𝑥𝑞 : (𝐴. 𝐵). 𝐶 = 𝐴. (𝐵. 𝐶)


 Existencia de neutro:
 ⩝ 𝐴𝑛𝑥𝑛 , ∃ 𝐼𝑛𝑥𝑛 ⁄𝐴 . 𝐼 = 𝐼. 𝐴 = 𝐴
 ⩝ 𝐴𝑚𝑥𝑛 , ∃ 𝐼𝑛𝑥𝑛 ⁄𝐴 . 𝐼 = 𝐴 ∧ ⩝ 𝐴𝑚𝑥𝑛 , ∃ 𝐼𝑚𝑥𝑚 ⁄𝐼 . 𝐴 = 𝐴
 Distributiva con respecto a la suma de matrices:
 ⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝐵𝑚𝑥𝑛 ,⩝ 𝐶𝑛𝑥𝑝 : (𝐴 + 𝐵). 𝐶 = 𝐴. 𝐶 + 𝐵. 𝐶
 ⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝐵𝑚𝑥𝑛 ,⩝ 𝐷𝑞𝑥𝑚 : 𝐷(𝐴 + 𝐵) = 𝐷. 𝐴 + 𝐷. 𝐵
 Asociativa mixta: ⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝐵𝑛𝑥𝑝 ,⩝ 𝑘 ∈ ℝ: 𝑘. (𝐴. 𝐵) = (𝑘. 𝐴). 𝐵 = 𝐴. (𝑘. 𝐵)

Aclaraciones:

 Existen matrices no nulas cuyo producto es la matriz nula (divisores de cero).


𝐴. 𝐵 = 𝐴. 𝐶
 Propiedad uniforme: 𝑆𝑖 𝐵 = 𝐶 {
𝐵. 𝐴 = 𝐶. 𝐴
𝑆𝑖 𝐴. 𝐵 = 𝐴. 𝐶 𝑛𝑜 𝑖𝑚𝑝𝑙𝑖𝑐𝑎 𝐵 = 𝐶
 No se cumple la propiedad cancelativa: {
𝑆𝑖 𝐵. 𝐴 = 𝐶. 𝐴 𝑛𝑜 𝑖𝑚𝑝𝑙𝑖𝑐𝑎 𝐵 = 𝐶
 No se cumple la propiedad conmutativa para el producto entre matrices.
 𝐴𝑚𝑥𝑛 . 𝐵𝑛𝑥𝑝 se puede efectuar mientras que 𝐵𝑛𝑥𝑝 . 𝐴𝑚𝑥𝑛 no se puede efectuar si
𝑚 ≠ 𝑝.
 Si 𝑚 = 𝑝 ∧ 𝑚 ≠ 𝑛, se puede efectuar el producto en ambos sentidos pero
resultan ser matrices de distinto orden.
 Si 𝑚 = 𝑛, es posible efectuar el producto en ambos sentidos y el resultado es
matriz cuadrada del mismo orden que las dadas, pero los resultados son
distintos.
 No existe el elemento inverso en la multiplicación de matrices del mismo orden.

Inversión de matrices:
 Matriz inversa de una matriz cuadrada: Sea 𝐴𝑛𝑥𝑛 , decimos si existe que 𝐴−1
𝑛𝑥𝑛 es la matriz
−1 −1
inversa de 𝐴 ⇔ 𝐴. 𝐴 = 𝐴 . 𝐴 = 𝐼
 En el caso de existir 𝐴−1 es única.
 A y 𝐴−1 son inversas entre sí, por lo tanto (𝐴−1 )−1 = 𝐴
 Si A y B son inversibles de igual orden ⇒ (𝐴. 𝐵)−1 = 𝐴−1 . 𝐵 −1
 Matriz regular: 𝑆𝑒𝑎 𝐴𝑛𝑥𝑛 , 𝑑𝑒𝑐𝑖𝑚𝑜𝑠 𝑞𝑢𝑒 𝐴 𝑒𝑠 𝑟𝑒𝑔𝑢𝑙𝑎𝑟 ⇔ ∃𝐴−1
 Matriz singular: 𝑆𝑒𝑎 𝐴𝑛𝑥𝑛 , 𝑑𝑒𝑐𝑖𝑚𝑜𝑠 𝑞𝑢𝑒 𝐴 𝑒𝑠 𝑠𝑖𝑛𝑔𝑢𝑙𝑎𝑟 ⇔ ∄𝐴−1
 Operaciones elementales fila: Son aquellas que se realizan entre las filas de una matriz.
 Permutar dos filas entre sí.
 Multiplicar una fila por un número distinto de cero.
 Sumar una fila a otra.
 Combinar operaciones.
 Matrices equivalentes: Dos matrices son equivalentes al aplicarle un número finito de
operaciones elementales a una de ellas, obteniendo la otra.

Método de Gauss-Jordan (inversión de matrices):


Nos permite obtener la matriz inversa de una matriz regular. Este método consiste en un mecanismo por el
cual se aplican operaciones elementales fila en la matriz dada (A) y las mismas operaciones elementales en la
matriz Identidad. El resultado podrá ser verificado ⇔ 𝐴. 𝐴−1 = 𝐴−1 . 𝐴 = 𝐼
En el caso de que sea imposible realizar el escalonamiento de la matriz A y obtener la Identidad, se concluirá
que A es singular.
𝐴𝑛𝑥𝑛 𝐼𝑛𝑥𝑛
𝐼𝑛𝑥𝑛 𝐴−1

Potencia de una matriz:


𝐷𝑎𝑑𝑎 𝐴𝑚𝑥𝑚 (𝑐𝑢𝑎𝑑𝑟𝑎𝑑𝑎), 𝑑𝑒𝑐𝑖𝑚𝑜𝑠 𝑞𝑢𝑒 𝐴𝑘 = ⏟ 𝐴. 𝐴. 𝐴 … … 𝐴 ∧ 𝑘 ∈ ℕ
 Matriz idempotente: 𝑆𝑒𝑎 𝐴𝑚𝑥𝑚 , 𝑑𝑒𝑐𝑖𝑚𝑜𝑠 𝑞𝑢𝑒 𝐴 𝑒𝑠 𝑖𝑑𝑒𝑚𝑝𝑜𝑡𝑒𝑛𝑡𝑒 ⇔ 𝐴2 = 𝐴
 Matriz involutiva: 𝐴𝑚𝑥𝑚 𝑒𝑠 𝑖𝑛𝑣𝑜𝑙𝑢𝑡𝑖𝑣𝑎 ⇔ 𝐴2 = 𝐼
 Matriz nilpotente: 𝐴𝑚𝑥𝑚 𝑒𝑠 𝑛𝑖𝑙𝑝𝑜𝑡𝑒𝑛𝑡𝑒 ⇔ 𝐴𝑘 = 𝑁 (𝑚𝑎𝑡𝑟𝑖𝑧 𝑛𝑢𝑙𝑎) ∧ 𝑘 ∈ ℕ

Transposición de matrices:
Dada una matriz 𝐴𝑚𝑥𝑛 de cualquier orden, decimos que 𝐴𝑡 es la matriz transpuesta de A sí y solo sí la
obtenemos intercambiando las filas por las columnas de A.
𝑡
𝐴𝑡 𝑒𝑠 𝑙𝑎 𝑡𝑟𝑎𝑛𝑠𝑝𝑢𝑒𝑠𝑡𝑎 𝑑𝑒 𝐴 ⇔ (𝑎𝑖𝑗 ) = 𝑎𝑗𝑖 ⩝ 𝑖,⩝ 𝑗
 A es simétrica ⇔ 𝐴 = 𝐴𝑡
 B es anti simétrica ⇔ 𝐵 = −𝐵 𝑡
Propiedades:
 Involutiva: ⩝ 𝐴𝑚𝑥𝑛 : (𝐴𝑡 )𝑡 = 𝐴
 Transpuesta de la suma de matrices: ⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝐵𝑚𝑥𝑛 : (𝐴 + 𝐵)𝑡 = 𝐴𝑡 + 𝐵 𝑡
 Transpuesta del producto de un escalar por una matriz: ⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝑘 ∈ ℝ: (𝑘. 𝐴)𝑡 = 𝑘. 𝐴𝑡
 Transpuesta del producto de matrices: ⩝ 𝐴𝑚𝑥𝑛 ,⩝ 𝐵𝑛𝑥𝑝 : (𝐴. 𝐵)𝑡 = 𝐵 𝑡 . 𝐴𝑡
 Transpuesta de la inversa de una matriz: 𝑆𝑖 𝐴 𝑒𝑠 𝑖𝑛𝑣𝑒𝑟𝑠𝑖𝑏𝑙𝑒 ⇒ (𝐴−1 )𝑡 = (𝐴𝑡 )−1

Ecuaciones matriciales:
Es una igualdad que relaciona operaciones con matrices, donde la incógnita es otra matriz. Resolver una
ecuación matricial significa hallar la matriz incógnita (X) que verifica la igualdad.

Capítulo 1
Capítulo 2
Determinantes de una matriz cuadrada:
Nociones previas:
 Permutación: Se llama permutación a cada uno de los arreglos de los n elementos del conjunto
A siendo 𝐴 = {1; 2; 3; … … 𝑛}
 Inversión de una permutación: Se presenta una inversión cuando no se encuentra en orden
natural. Entonces existen permutaciones pares (el número total de inversiones de una
permutación es par) y permutaciones impar (el número de inversiones de una permutación es
impar).
 Polinomio homogéneo: Aquel polinomio cuyos monomios tienen igual grado.
Definición: Llamamos determinante de una matriz cuadrada de grado n al polinomio homogéneo de grado n
cuyos monomios se forman multiplicando los elementos que resultan de tomar uno de cada línea (fila y
columna) de la matriz, anteponiéndole signo positivo (+) si la permutación de los subíndices fila es igual que la
de los subíndices columna, y signo negativo (-) si son de distinta clase.

Regla de Sarrus:
Es un método que se utiliza únicamente para determinantes de orden 3.

Propiedades de los determinantes:

1) Si los elementos de una línea (fila o columna) son ceros el valor del determinante es cero.
2) Si tiene dos líneas paralelas iguales el valor del determinante es cero.
3) Si permutamos filas por columnas el valor del determinante no cambia, por lo tanto |𝐴| = |𝐴𝑡 |
4) Si permutamos dos líneas paralelas el valor del determinante cambia de signo.
5) Si dos líneas paralelas son proporcionales el valor del determinante es cero.
6) Si multiplicamos los elementos de una línea por un número, distinto de cero, el valor del determinante
se multiplica por ese número.
7) Si a una línea le sumamos una línea paralela, el valor del determinante no varía.
8) Si a los elementos de una línea le sumamos otra línea paralela multiplicada por un número, el valor del
determinante no varía.
9) Si tenemos una matriz escalar, diagonal o triangular el valor del determinante se obtiene multiplicando
los elementos de la diagonal principal.
10) Si sumamos dos determinantes que tienen toda las líneas paralelas iguales menos una, obtenemos
otro determinante que tiene las mismas líneas paralelas iguales y la restante es la suma de las líneas
diferentes.

Determinante de la matriz producto: (más propiedades)


1
 |𝐴−1 | =
|𝐴|
 |𝐴| = |𝐴𝑇 |
 |𝑘. 𝐴| = 𝑘 𝑛 . |𝐴| 𝑑𝑜𝑛𝑑𝑒 𝒏 𝑒𝑠 𝑒𝑙 𝑜𝑟𝑑𝑒𝑛 𝑑𝑒 𝐴
 |𝐴𝑛 | = |𝐴|𝑛
 |(𝑘. 𝐴𝑚𝑥𝑚 )𝑛 | = 𝑘 𝑚.𝑛 . |𝐴|𝑛
Matriz inversa por el método de la matriz adjunta:

Nociones previas:

 Menor complementario de un elemento (aij) de un determinante: es aquel que obtenemos al


suprimir la fila i y la columna j del elemento considerado. 𝑀𝑖𝑗
 Cofactor de un elemento de un determinante: es igual al menor complementario multiplicado
por (−1)𝑖+𝑗 donde i es la fila y j la columna del elemento considerado. 𝐶 = (−1)𝑖+𝑗 . 𝑀𝑖𝑗
 Matriz cofactor: resulta de reemplazar a cada elemento de A por su cofactor. Propiedad: la
suma de los elementos de una línea de un determinante por los respectivos cofactores de una
línea paralela es cero.
 Matriz adjunta: es la matriz transpuesta de la matriz cofactor A.
1
Matriz inversa: 𝐴−1 = |𝐴| . 𝐴𝑑𝑗(𝐴) ⇒ |𝐴| ≠ 0

Regla de Laplace:
Permite reducir un determinante de orden n a otro de orden n-1. Se elige una línea, el valor del determinante
es igual a la suma de los productos que resultan de multiplicar cada elemento de la línea elegida por su
respecto cofactor.

Rango de una matriz:


Es el mayor orden de los determinantes no nulos que se puede obtener de una matriz o submatrices (matriz
que se obtiene de A suprimiendo filas y/o columnas).
Regla práctica: el rango de la matriz A es el mayor número de vectores canónicos columnas que se pueden
obtener mediante operaciones elementales filas. Los vectores canónicos son vectores columnas formados por
ceros excepto por un elemento que es 1.

Capítulo 2
Capítulo 3
Sistemas de ecuaciones lineales:
Nociones previas:
 Ecuación lineal: es una ecuación polinómica en la cual los monomios son a lo sumo de grado
uno. Si tiene n incógnitas 𝑎𝑛 . 𝑥𝑛 = 𝑏
 Solución de una ecuación lineal: Es una n-upla de números reales dados en un cierto orden tal
que reemplazando a cada incógnita por el correspondiente valor satisface a la ecuación. Se lo
expresa como una matriz de una sola línea.
 Conjunto solución: Conjunto de todas las n-uplas que son solución de la ecuación.

Definición: Es un conjunto de ecuaciones lineales. Si tiene m ecuaciones con n incógnitas se dice que el
sistema es del tamaño mxn.
 Solución de un sist. de ecuaciones lineales: Es toda n-upla de reales que satisfacen a todas las
ecuaciones.
 Conjunto solución del sistema: Es el conjunto de todas las soluciones del sistema. Puede ser
vacío, unitario o infinito.

Clasificación de los sistemas de ecuaciones lineales:


 Sistema incompatible: Aquel sistema que ecuaciones lineales que no tiene solución. El conjunto
solución es el conjunto vacío.
 Sistema compatible: Admite al menos una solución.
 S.C.Determinado: Tiene una única n-upla como solución. El conjunto solución es unitario.
 S.C.Indeterminado: Admite infinitas n-uplas como solución. El conjunto solución es infinito.

Teorema de Rouchè Frobenius:


Permite analizar la existencia de posibles soluciones del sistema lineal de ecuaciones y la cantidad de las
mismas. Procedimiento: Se determinan los rangos de las matrices, por un lado aquella formada por los
coeficientes de las incógnitas, y por otro lado la que resulta de ampliar a la anterior con los términos
independientes. Entonces:
𝜌 = 𝜌´ = 𝑛 → 𝑆. 𝐶. 𝐷.
𝜌 = 𝜌´ ≠ 𝑛 → 𝑆. 𝐶. 𝐼.
𝜌 ≠ 𝜌´ → 𝑆. 𝐼.

Resolución de sistemas lineales por Regla de Cramer:


Esta regla se aplica a la resolución de sistemas cuadrados, compatibles y determinados.
𝑑𝑒𝑡(𝐴𝑗) ∆𝑗
𝑥𝑗 = = 𝑐𝑜𝑛 ∆≠ 0
𝑑𝑒𝑡(𝐴) ∆

Resolución matricial de sistemas lineales:


Nociones previas:
 Matriz A: matriz de los coeficientes de las incógnitas y tiene orden mxn, siendo m la cantidad de
ecuaciones y n la de incógnitas.
 Matriz X: matriz de las incógnitas mediante una matriz columna de orden nx1.
 Matriz B: matriz de los términos independientes representada mediante otra matriz columna
de orden mx1.
Resolución:
 Para poder despejar la X de la igualdad 𝐴. 𝑋 = 𝐵 , A debe ser cuadrada y |𝐴| ≠ 0
Resolución de sistemas lineales por Gauss-Jordan:
Se escribe la matriz de los coeficientes ampliada, es decir, con los términos independientes. Aplicando
operaciones elementales fila se van generando vectores columnas canónicos entre las columnas de la matriz
de los coeficientes, estando los unos en diferentes filas.
Cuando no es posible obtener más se detiene el proceso. Se llega a un sistema equivalente al dado.
Luego se aplica el teorema de Rouchè Frobenius para clasificar y según esta clasificación se expresa el
conjunto solución que se desprende del sistema, correspondiente a la última matriz obtenida.

Sistema lineal Homogéneo:


Es el sistema de ecuaciones lineales que tiene todos los términos independientes iguales a cero. La n-upla que
tiene ceros todos sus componentes es solución del mismo y es denominada trivial.
Estos sistemas de ecuaciones lineales son siempre compatibles pudiendo ser determinado cuando la solución
es la trivial o indeterminado cuando existen otras.

Matriz insumo producto:


Es la matriz que describe las transacciones que se realizan entre diferentes sectores económicos para poder
elaborar productos. En cada fila aparecen indicadas las ventas realizadas por un sector a los demás sectores y
al propio expresadas en unidades monetarias. En las columnas se encuentran las compras que cada sector
efectúa a los demás sectores y al propio.
 Coeficiente tecnológico: Es el número que indica la cantidad de insumo que un determinado sector
𝑏𝑖𝑗
adquiere de otro para producir por valor unitario. 𝑎𝑖𝑗 = 𝑥𝑗

 Matriz de coeficientes tecnológicos: Es la matriz formada por los coeficientes tecnológicos y se designa
con la letra A.
 Matriz de Leontief: Matriz que se calcula como la diferencia entre la matriz identidad y la matriz
tecnológica. 𝐿 = 𝐼 − 𝐴
 Cálculo de la nueva producción: Se calcula: 𝑋 = 𝐿−1 . 𝐷
 Conociendo las nuevas producciones de cada sector se puede formar la matriz de transacciones.
𝑏𝑖𝑗
𝑎𝑖𝑗 = 𝑋𝑗
⇒ 𝑏𝑖𝑗 = 𝑋𝑗 . 𝑎𝑖𝑗

Capítulo 3
Capítulo 4
Programación lineal:
Es una técnica matemática de optimización, se propone maximizar o minimizar un objetivo.
La resolución de un problema con este método, permite tomar decisiones óptimas mediante el uso o
asignación eficiente de recursos limitados para alcanzar objetivos deseados.
Un problema de programación lineal consta de una función lineal para maximizar o minimizar, sujeta a
ciertas restricciones (igualdades o desigualdades lineales). Entonces interviene:
 La función lineal que hay que optimizar, llamada función objetivo que se expresa 𝑧 = 𝑎𝑥 + 𝑏𝑦 ;
 en donde x e y se denominan variables de decisión, a y b son constantes.
 Las restricciones del problema son las inecuaciones lineales del mismo (limitaciones,
disponibilidades o requerimientos de la situación problemática)
 Las variables de decisión admiten únicamente valores no negativos, por lo que cumplen las
condiciones de no negatividad.

Región factible: Se denomina conjunto o región factible al conjunto de puntos del plano que pueden
hacer posible todas las restricciones. Ésta región siempre es un polígono convexo (un polígono convexo
es cuando todos los puntos de cualquier segmento son puntos del conjunto).
 Determinación: La región factible puede o no estar acotada. Si las desigualdades son en sentido
amplio (≤ 𝑜 ≥) la región factible incluye los lados y vértices; no sucediendo lo mismo en
sentido estricto (< 𝑜 >). Si la RF está acotada su representación gráfica es un polígono
convexo.
 Se representa gráficamente cada una de las inecuaciones del problema.
 La intersección de las soluciones de todas las inecuaciones, si existe, está
formada por una región común y conforman la RF.
 Se debe tener en cuenta las condiciones de no negatividad.
Solución factible: Cada punto de la RF recibe el nombre de solución factible, por lo que hay infinitas.
Solución óptima: La o las soluciones factibles que optimizan la función objetivo se denomina solución
óptima.
Teorema fundamental de programación lineal: Permite identificar, si existe, la ubicación de las
soluciones en un problema de programación lineal con dos variables.
 Si existe una solución única que optimice la función objetivo, ésta se encuentra en un vértice de
la RF.
 Si la función objetivo toma ese mismo valor óptimo en dos vértices (consecutivos), es idéntico
en los puntos del segmento que determinan. Es una solución múltiple.

Capítulo 4
Capítulo 5
Espacios vectoriales:
Dado un conjunto V (distinto del vacío) donde los elementos “u, v, w” pertenecientes a él son llamados
genéricamente “vectores”; dado un conjunto K (distinto del vacío) donde los elementos “α, β” pertenecientes
a él son llamados genéricamente “escalares”.
Definimos en V una operación interna denominada “suma” (𝑢 + 𝑣) y definimos una ley externa 𝐾. 𝑉 (𝛼. 𝑢)
denominada “producto de escalar por vector”, entonces la cuaterna (𝑉; +; 𝐾;∗) es un espacio vectorial si
cumple las diez propiedades.

Leyes internas, suma en V


1. Ley de cierre: 𝑢 ∈ 𝑉, 𝑣 ∈ 𝑉 ⇒ 𝑢 + 𝑣 = 𝑤 ∧ 𝑤 ∈ 𝑉
2. Ley asociativa: 𝑢 ∈ 𝑉, 𝑣 ∈ 𝑉, 𝑤 ∈ 𝑉 ⇒ (𝑢 + 𝑣) + 𝑤 = 𝑢 + (𝑣 + 𝑤)
3. Elemento neutro: 𝑢 ∈ 𝑉, 0 ∈ 𝑉 ⇒ 𝑢 + 0 = 𝑢
4. Elemento opuesto: 𝑢 ∈ 𝑉, −𝑢 ∈ 𝑉 ⇒ 𝑢 + (−𝑢) = 0
5. Ley conmutativa: 𝑢 ∈ 𝑉, 𝑣 ∈ 𝑉 ⇒ 𝑢 + 𝑣 = 𝑣 + 𝑢
Leyes externas, multiplicación con escalar
6. Ley de cierre: 𝑢 ∈ 𝑉, 𝛼 ∈ 𝐾 ⇒ 𝛼. 𝑢 = 𝑤 , 𝑤 ∈ 𝑉
7. Distributiva respecto la suma de vectores: 𝑢 ∈ 𝑉, 𝑣 ∈ 𝑉, 𝛼 ∈ 𝐾 ⇒ 𝛼. (𝑢 + 𝑣) = 𝛼. 𝑢 + 𝛼. 𝑣
8. Distributiva respecto la suma de escalares: 𝑢 ∈ 𝑉, 𝛼 ∈ 𝐾, 𝛽 ∈ 𝐾 ⇒ 𝑢. (𝛼. 𝛽) = 𝑢. 𝛼 + 𝑢. 𝛽
9. Asociativa mixta: 𝑢 ∈ 𝑉, 𝛼 ∈ 𝐾, 𝛽 ∈ 𝐾 ⇒ (𝑢. 𝛼). 𝛽 = 𝑢. (𝛼. 𝛽)
10. Elemento neutro: 𝑢 ∈ 𝑉, 1 ∈ 𝐾 ⇒ 1. 𝑢 = 𝑢
 Si alguna de estas 10 propiedades no se cumple se dice que el conjunto V no tiene estructura de
espacio vectorial según la cuaterna indicada.

Subespacio vectorial:
Si existe dentro de un espacio vectorial V un conjunto 𝑊 ≠ ∅ y W es un espacio vectorial y cumple con las
propiedades de ley de cierre interna (1.) y la ley de cierre externa (6.), entonces decimos que W es un
subespacio de V.

Dependencia e independencia lineal:


a. Sean 𝑣1 ; 𝑣2 ; … … . ; 𝑣𝑛 n vectores pertenecientes a un espacio vectorial cualquiera. Decimos que los
vectores 𝑣1 ; 𝑣2 ; … … . ; 𝑣𝑛 son “linealmente dependientes” si existen n escalares 𝛼1 ; 𝛼2 ; … … . ; 𝛼𝑛 no
todos nulos tales que: 𝛼1 𝑣1 + 𝛼2 𝑣2 +. . . . +𝛼𝑛 𝑣𝑛 = 0
b. Sean 𝑣1 ; 𝑣2 ; … … . ; 𝑣𝑛 n vectores pertenecientes a un espacio vectorial cualquiera, los vectores
𝑣1 ; 𝑣2 ; … … . ; 𝑣𝑛 son “linealmente independientes” si el único escalar que satisface
𝛼1 𝑣1 + 𝛼2 𝑣2 +. . . . +𝛼𝑛 𝑣𝑛 = 0 es 𝛼1 = 𝛼2 =. … . . = 𝛼𝑛 = 0

Generador de un espacio vectorial:


Un generador de un espacio vectorial es un conjunto de vectores pertenecientes al espacio que dan origen al
mismo.
Base de un espacio vectorial:
Se llama base a un conjunto de vectores que resulten linealmente independientes y además son generadores
de espacio vectorial.
Dimensión:
Es igual a la cantidad de vectores que tiene cualquier base de un espacio vectorial.

Transformaciones lineales:
Son un tipo especial de funciones que ocurren entre espacios vectoriales: 𝑓: 𝐴 → 𝐵 𝑒𝑠 𝑓: 𝑉 → 𝑊 siendo V y W
espacios vectoriales. Como toda función debe satisfacer algunas condiciones, en este caso son dos:
1) ⩝ 𝒖 ; ⩝ 𝒗 ∈ 𝑽 𝑻(𝒖 + 𝒗) = 𝑻(𝒖) + 𝑻(𝒗)
2) ⩝ 𝒖 ∈ 𝑽 ; ⩝ 𝒌 ∈ 𝑲 𝑻(𝒌. 𝒖) = 𝒌. 𝑻(𝒖)

Capítulo 5

S-ar putea să vă placă și