Documente Academic
Documente Profesional
Documente Cultură
Propiedades
Los resultados en las posiciones marcadas dependen de las filas y columnas de sus
respectivos colores.
es decir:
Propiedades
Sean A, B y C matrices para las cuales la multiplicación entre ellas está bien definida, es
decir, tales que sus elementos pertenecen a un grupo donde la multiplicación está definida,
y de manera que el número de filas y de columnas permite realizar la multiplicación;
entonces se cumplen las siguientes propiedades:
Propiedad Descripción
Clausura AB es también una matriz
Si A es una matriz cuadrada de tamaño m, entonces la matriz
Elemento neutro
identidadIm×m es elemento neutro, de manera que: I·A = A·I = A
Propiedad
(AB)C = A(BC)
asociativa
Propiedad
distributiva
- Por la derecha (A + B)C = AC + BC
- Por la C(A + B) = CA + CB
izquierda
[Mostrar] Demostración de la propiedad asociativa
y por el contrario
Aplicaciones
La multiplicación de matrices es muy útil para la resolución de sistemas de ecuaciones de
muchas variables, dado que son muy cómodas para ser implementadas mediante un
computador. El cálculo numérico se basa en gran parte de estas operaciones, al igual que
poderosas aplicaciones tales como MATLAB. También actualmente se utiliza mucho en el
cálculo de microarrays, en el área de bioinformática.
Sistemas de ecuaciones
Como se ve, en la notación matricial, las variables sólo aparecen una vez, así como el
símbolo "=", y los signos "+" ni se escriben. Los ahorros de tiempo y energía no son
enormes aquí, pero crecen con las dimensiones de la matriz.
Ahora bien, las aplicaciones lineales se pueden sumar, lo que daría la adición de las
matrices que se definió arriba, pero no se pueden multiplicar. Sin embargo, existe otra
operación, universal en el campo de las aplicaciones: la composición, es decir aplicar
sucesivamente dos o más funciones a un objeto. Al componer:
obtenemos:
Matemáticas/Matrices/Multiplica
r una matriz por un escalar
Si multiplicamos una matriz por una escalar, multiplicamos cada elemento de la matriz por
ese escalar.
Es decir: producto de un número real por una matriz, es la aplicación que asocia a cada par
formado por un número real y una matriz, otra matriz cuyos elementos se obtienen
multiplicando el número real por todos los elementos de la matriz.
Ejemplo
Sea y
También es inmediato ver que el producto por un escalar da como resultado una matriz del
mismo tamaño que la original. También el producto por un escalar dependerá de la
estructura algebraica en la que las entradas están. En el caso de que estén en un campo
serán dos distributividades (una respecto de suma de matrices y otra respecto de suma en el
campo), asociatividad y una propiedad concerniente al producto por el elemento neutro
multiplicativo del campo. A continuación se presentan las propiedades.
Propiedades
Sean y , donde es un campo, entonces se cumplen las
siguientes propiedades para la operación producto por un escalar
Asociatividad
Mm x n x Mn x p = M m x p
la matriz B y sumándolos.
Propiedades del producto
de matrices
Asociativa:
A · (B · C) = (A · B) · C
Elementoneutro:
A · I = A
No es Conmutativa:
A · B ≠ B · A
A · (B + C) = A · B + A · C
MATRIZ ESCALONADA
En álgebra lineal una matriz se dice que es escalonada, escalonada por filas o que está en
forma escalonada si:
Existencia y unicidad
Se pueden encontrar infinitas transformaciones REF de una matriz no nula. Sin embargo,
todas ellas se corresponden con una única transformación RREF.
REDUCCION DE MATRICES
http://www.slideshare.net/jve18/12-reduccin-de-matrices
FORMA ESCALONADA REDUCIDA
http://www.slideshare.net/algebralineal/forma-escalonada-de-una-matriz
Forma escalonada por renglones ---Formato PDF
Matriz identidad
En álgebra lineal, la matriz identidad es una matriz que cumple la propiedad de ser el
elemento neutro del producto de matrices. Esto quiere decir que el producto de cualquier
matriz por la matriz identidad (donde dicho producto esté definido) no tiene ningún efecto.
La columna i-ésima de una matriz identidad es el vector unitario de una base vectorial
inmersa en un espacio Euclídeo de dimensiónn. Toda matriz representa una aplicación
lineal entre dos espacios vectoriales de dimensión finita. La matriz identidad se llama así
porque representa a la aplicación identidad que va de un espacio vectorial de dimensión
finita a sí mismo.
Definición
Como el producto de matrices sólo tiene sentido si sus dimensiones son compatibles,
existen infinitas matrices identidad dependiendo de las dimensiones. , la matriz identidad
de tamaño , se define como la matriz diagonal que tiene valor 1 en cada una de las
entradas de la diagonal principal, y 0 en el resto. Así,
Empleando la notación que a veces se usa para describir concisamente las matrices
diagonales, resulta:
La matriz identidad de orden n puede ser también considerada como la matriz permutación
que es elemento neutro del grupo de matrices de permutación de orden n!.
Matriz identidad
Una m a t r iz ide nt ida d e s una matr iz d iago na l e n la
que lo s e le me nt o s de la diago na l pr inc ipa l so n i guale s a
1.
Matriz inversa
El pr o ducto de u na m a t r iz po r su i nver sa e s i gual
a la m a t r iz iden t ida d .
A · A-1 = A-1 · A = I
1. Ca lc ula m o s el d et er m ina nt e de la m a t r iz , en
el c a so que el det er m ina nt e sea nulo la m a t r iz no
t endr á inver sa .
3. Ca lc ula m o s la t r a spuest a de la m a tr iz
a d junt a .
F2 - F1
F3 + F2
F2 - F3
F1 + F2
(-1 ) F 2
L a m a tr iz inver sa es:
Propiedades de la matriz inversa
(A · B) - 1 = B - 1 · A - 1
(A - 1 ) - 1 = A
(k · A ) - 1 = k - 1 · A - 1
(A t ) - 1 = (A -1)t
Matriz inversa
Dada una matriz A, ¿Podremos encontrar otra matriz B tal que A·B=B·A=I?
Esta matriz B existe aunque no siempre, de existir se le llama matriz inversa de A y se
nota A-1. Para que exista la inversa de A, ésta tiene que ser cuadrada pues de lo
contrario no se podría hacer el producto por la izquierda y por la derecha, luego
cuando hablamos de matrices invertibles estamos hablando de matrices cuadradas.
Condición necesaria y suficiente para que una matriz sea invertible es que no sea singular, es decir,
que su determinante sea no nulo |A| ≠ 0
1. Método de Gauss-Jordan
Este método consiste en colocar junto a la matriz de partida (A) la matriz identidad (I)
y hacer operaciones por filas, afectando esas operaciones tanto a A como a I, con el
objeto de transformar la matriz A en la matriz identidad, la matriz resultante de las
operaciones sobre I es la inversa de A (A-1).
Las operaciones que podemos hacer sobre las filas son:
a) Sustituir una fila por ella multiplicada por una constante, por ejemplo, sustituimos la
fila 2 por ella multiplicada por 3.
b) Permutar dos filas
c) Sustituir una fila por una combinación lineal de ella y otras.
La matriz inversa de A es
2. A través de la matriz de adjuntos
Dada una matriz A, determinamos la matriz de adjuntos de su traspuesta. Si
multiplicamos esa matriz por 1/|A| se obtiene la matriz inversa de A.
Eliminación de Gauss-Jordan
En matemáticas, la eliminación Gaussiana, eliminación de Gauss o eliminación de
Gauss-Jordan, llamadas así debido a Carl Friedrich Gauss y Wilhelm Jordan, son
algoritmos del álgebra lineal para determinar las soluciones de un sistema de ecuaciones
lineales, encontrar matrices e inversas. Un sistema de ecuaciones se resuelve por el método
de Gauss cuando se obtienen sus soluciones mediante la reducción del sistema dado a otro
equivalente en el que cada ecuación tiene una incógnita menos que la anterior. Cuando se
aplica este proceso, la matriz resultante se conoce como: "forma escalonada".
El método fue presentado por el matemático Carl Friedrich Gauss, pero se conocía
anteriormente en un importante libro matemático chino llamado Jiuzhangsuanshu o Nueve
capítulos del arte matemático.[cita requerida]
Análisis de Complejidad
La complejidad computacional de la eliminación gaussiana es aproximadamente n3. Esto
es, el número de operaciones requeridas es n3 si el tamaño de la matriz es n × n.
Ejemplo
Supongamos que es necesario encontrar los números x, y, z, que satisfacen simultáneamente
estas ecuaciones:
Estas operaciones pueden representarse con matrices elementales que se usan también en
otros procedimientos como la factorización LU o la diagonalización por congruencia de una
matriz simétrica.
Para clarificar los pasos, se trabaja con la matriz aumentada. Podemos ver los 3 pasos en su
notación matricial:
Primero:
Después,
Por último.
Si el sistema fuera incompatible, entonces nos encontraríamos con una fila como esta:
Si una matriz A cumple con esas propiedades, se dice escalonada. Además, cumpliendo
estas otras condiciones, decimos que la matriz se encuentra en la forma reducida de
renglón escalón o tan solo en forma escalonada reducida.
Cuando una matriz representa a un sistema de ecuaciones situaciones como tener una
columna de ceros parece imposible ya que correspondería a una variable que nunca habría
aparecido. Sin embargo esta situación puede presentarse (imaginemos la ecuación de un
plano en el espacio en la que no aparece alguna de las componentes, por ejemplo y+z=0).
Así la matriz
Una vez que la matriz del sistema se ha transformado hasta obtener una matriz escalonada
reducida es muy fácil discutirlo (es decir, determinar cuántas soluciones tiene):
Otras aplicaciones
Encontrando la inversa de una matriz
Es posible usar la eliminación gaussiana para encontrar inversas de matricesn × n. Para ello
se aumenta la matriz dada, digamos A con una matriz identidad simplemente escribiendo
las filas de la identidad a continuación de las de nuestra matriz A, por ejemplo dada:
se construiría
y ahora se realizan las operaciones elementales sobre las filas de la matriz aumentada que
sean necesarias para obtener la forma escalonada reducida de la matriz A; sumando tanto a
la segunda como a la tercera fila la primera obtenemos
ya tenemos el pivote de la primera fila que usamos para hacer ceros debajo