Documente Academic
Documente Profesional
Documente Cultură
I.
INTRODUCCIN :
Las matrices aparecen por primera vez hacia el ao 1850, introducidas por J.J. Sylvester. El desarrollo inicial de la teora se debe al matemtico W.R. Hamilton en 1853. En 1858, A. Cayley introduce la notacin matricial como una forma abreviada de escribir un sistema de m ecuaciones lineales con n incgnitas. Las matrices se utilizan en el clculo numrico, en la resolucin de sistemas de ecuaciones lineales, de las ecuaciones diferenciales y de las derivadas parciales. Adems de su utilidad para el estudio de sistemas de ecuaciones lineales, las matrices aparecen de forma natural en geometra, estadstica, economa, informtica, fsica, etc... La utilizacin de matrices (arrays) constituye actualmente una parte esencial de los lenguajes de programacin, ya que la mayora de los datos se introducen en los ordenadores como tablas organizadas en filas y columnas: hojas de clculo, bases de datos,...
II.
DEFINICIN DE MATRIZ :
Se llama matriz de orden mn a todo conjunto rectangular de elementos aij dispuestos en m lneas horizontales (filas) y n verticales (columnas) de la forma:
Abreviadamente suele expresarse en la forma A = (aij), con i =1, 2,..., m, j =1, 2,..., n. Los subndices indican la posicin del elemento dentro de la matriz, el primero denota la fila (i) y el segundo la columna (j). Por ejemplo el elemento a25 ser el elemento de la fila 2 y columna 5. Dos matrices son iguales cuando tienen la misma dimensin y los elementos que ocupan el mismo lugar en ambas son iguales. Las matrices se utilizan para mltiples aplicaciones y sirven, en particular, para representar los coeficientes de los sistemas de ecuaciones lineales o para representar las aplicaciones; en este ltimo caso las matrices desempean el mismo papel que los datos de un vector para las aplicaciones lineales. Pueden sumarse, multiplicarse y descomponerse de varias formas, lo que tambin las hace un concepto clave en el campo del lgebra lineal.
Adems de utilizar letras maysculas para representar matrices, numerosos autores representan a las matrices con fuentes en negrita para distinguirlas de otros objetos matemticos. As es una matriz, mientras que es un escalar en esa notacin. Sin embargo sta notacin generalmente se deja para libros y publicaciones, donde es posible hacer sta distincin tipogrfica con facilidad. En otras notaciones se considera que el contexto es lo suficientemente claro como para no usar negritas. Otra notacin, en si un abuso de notacin, representa a la matriz por sus entradas, i.e. o incluso . Otra definicin, muy usada en la solucin de sistemas de ecuaciones lineales, es la de vectores fila y vectores columna. Un vector fila o vector rengln es cualquier matriz de tamao mientras que un vector columna es cualquier matriz de tamao . Finalmente a las matrices que tienen el mismo nmero de filas que de columnas, i.e. , se les llama matrices cuadradas y el conjunto se denota o alternativamente .
Ejemplo:
Dada la matriz
. La entrada
es 7.
La matriz
III.
TIPOS DE MATRICES :
A continuacin se presentara algunos tipos de matrices que aparecen con frecuencia debido a su utilidad, y de los que es conveniente recordar su nombre.
ATENDIENDO A LA FORMA:
a) MATRIZ FILA: Es una matriz que solo tiene una fila, es decir m =1 y por tanto es de orden 1x n. Ejemplo:
b) MATRIZ COLUMNA: Es una matriz que solo tiene una columna, es decir, n =1 y por tanto es de orden m x 1. Ejemplo:
c) MATRIZ CUADRADA: Es aquella que tiene el mismo nmero de filas que de columnas, es decir m = n. En estos casos se dice que la matriz cuadrada es de orden n, y no n x n. Los elementos aij con i = j, o sea aii forman la llamada diagonal principal de la matriz cuadrada, y los elementos aij con i + j = n +1 la diagonal secundaria. Ejemplo:
Matriz
Diagonal principal
Diagonal secundaria
d) MATRIZ TRASPUESTA :
Dada una matriz A, se llama traspuesta de A, y se representa por At, a la matriz que se obtiene cambiando filas por columnas. La primera fila de A es la primera fila de At , la segunda fila de A es la segunda columna de At, etc. De la definicin se deduce que si A es de orden m n, entonces At es de orden n x m. Ejemplo:
e) MATRIZ SIMTRICA: Una matriz cuadrada A es simtrica si A = At, es decir, si aij = aji Ejemplo:
f) MATRIZ ANTI SIMTRICA: Una matriz cuadrada es anti simtrica si A = At, es decir, si aij = aji Ejemplo:
g) MATRIZ RECTANGULAR:
Aquella matriz que tiene distinto nmero de filas que de columnas, siendo su orden mn . Ejemplo:
h) MATRIZ OPUESTA: La matriz opuesta de una dada es la que resulta de sustituir cada elemento por su opuesto. Lo opuesto de A es A Ejemplo:
j)
MATRIZ DIAGONAL:
Es una matriz cuadrada, en la que todos los elementos no pertenecientes a la diagonal principal son nulos. Ejemplo:
k) MATRIZ ESCALAR: Es una matriz diagonal con todos los elementos de la diagonal iguales. Ejemplo:
l) MATRIZ IDENTIDAD: Denominada tambin matriz unidad, es una matriz escalar con los elementos de la diagonal principal iguales a 1. Ejemplo:
m) MATRIZ TRIANGULAR: Es una matriz cuadrada que tiene nulos todos los elementos que estn a un mismo lado de la diagonal principal. Las matrices triangulares pueden ser de dos tipos: Triangular Superior: Si los elementos que estn por debajo de la diagonal principal son todos nulos. Es decir, aij
Triangular Inferior: Si los elementos que estn por encima de la diagonal principal son todos nulos. Es decir, aij Ejemplo:
n) MATRIZ ORTOGONAL: Una matriz ortogonal es necesariamente cuadrada e invertible: A 1 = AT La inversa de una matriz ortogonal es una matriz ortogonal. El producto de dos matrices ortogonales. El determinante de una matriz ortogonal vale +1 -1. Ejemplo:
o) MATRIZ NORMAL: Una matriz es normal si conmuta con su traspuesta. Las matrices simtricas u ortogonales son necesariamente normales Ejemplo:
p) MATRIZ INVERSA: Decimos que una matriz cuadrada A tiene inversa, A 1, si se verifica que: A.A 1 = A-1. A = I Ejemplo:
q) MATRIZ CONJUGADA: Una Matriz conjugada es el resultado de la sustitucin de los elementos de una matriz por sus conjugadas. Es decir, la parte imaginaria de los elementos de la matriz cambian su signo. Ejemplo:
r) MATRIZ SINGULAR: Tambin llamada no regular. Una matriz es singular si y solo si su determinante es cero. Ejemplo: determinante de A: 1(2) 2(1) = 0
s) MATRIZ PERMUTACIN: La matriz permutacin es la matriz cuadrada con todos sus nn elementos iguales a 0, excepto uno cualquiera por cada fila y columna, el cual debe ser igual a 1. De acuerdo a esta definicin existen n! matrices de permutacin distintas, de las cuales una mitad corresponde a matrices de permutacin par (con el determinante igual a 1) y la otra mitad a matrices de permutacin impar (con el determinante igual a -1). Para n = 3 se tiene: Matrices de permutacin par:
En consecuencia, para hallar la traspuesta de una matriz, se cambian filas por columnas. Observamos, adems, que toda matriz 1 x 1 es igual a su traspuesta La traspuesta de una suma es la suma de las traspuestas, o sea: (A + B )t = At + Bt La traspuesta del producto de un escalar por cualquier matriz es igual al producto del escalar por la traspuesta de la matriz ( a . A )t = a . At Ejemplo:
-1 A= 0 0
0 0 1
0 1 0 y B=
a b c
-a Resulta entonces que: ( Bt . A )t = c b La traspuesta de un producto de matrices es igual al producto de las traspuestas en orden permutado, o sea: ( A . B )t = Bt . At La trasposicin verifica que: ( At ) t = A
IV.2 IGUALDAD DE MATRICES Se dice que dos matrices A y B son iguales si son del mismo orden y sus componentes correspondientes son iguales, es decir, si las matrices son idnticas. Formalmente
[ ]m x n
=
]m x n
para todo i, j
Si A no es igual a B se denota: A B Ejemplo: * Encontrar los valores de x e y si las matrices si hay igualdad de matrices
[
Solucin: Igualando las matrices tenemos: 2y = 4 X = -3 y=2 x = -3
]=[
Para sumar o restar ms de dos matrices se procede igual. No necesariamente para poder sumar o restar matrices, stas tienen que ser cuadradas. Ejemplo:
Propiedades de la suma de matrices 1. A + (B + C) = (A + B) + C (propiedad asociativa) 2. A + B = B + A (propiedad conmutativa) 3. A + 0 = A (0 es la matriz nula) 4. La matriz A, que se obtiene cambiando de signo todos los elementos de A, recibe el nombre de matriz opuesta de A, ya que A + (A) = 0. La diferencia de matrices A y B se representa por AB, y se define como: AB = A + (B)
Es decir:
Propiedades de la multiplicacin de matrices: La multiplicacin de matrices cumple las siguientes propiedades: a) Asociativa: A M (m; r; IK); B M(r; s; IK); C M(s; n; IK) )
(A x B) x C = A x (B x C)
b) Distributiva: A; B M (m; r; IK); C M(r; n; IK) (A + B) x C = A x C + B x C; A M (m; r; IK); B; C M(r; n; IK) A x (B + C) = A x B + A x C c) De neutralidad: A M (m; n; IK) Im x A = A = A x In: d) Asociativa mixta: A M (m; r; IK); B M(r; n; IK); a IK
que se escribe genericamente como La multiplicacin de A por un escalar k, que se denota kA, kA o simplemente kA es:
que
se
escribe
genricamente
como:
En el caso particular de multiplicacin por enteros, se puede considerar como sumar o restar la misma matriz tantas veces como indique el escalar:
Propiedades de la multiplicacin de una matriz por un escalar: Sean A, B matrices y c, d escalares, la multiplicacin de matrices por escalares cumple con las siguientes propiedades: Propiedad Descripcin
Clausura
Elemento neutro
Propiedad asociativa
(cd)A = c(dA)
Ejemplo:
es:
porque:
Propiedades de la matriz inversa La inversa de una matriz, si existe, es nica. La inversa del producto de dos matrices es el producto de las inversas cambiando el orden: Si la matriz es invertible, tambin lo es su transpuesta, y el inverso de su transpuesta es la transpuesta de su inversa, es decir:
Y, evidentemente:
Una matriz es invertible si y slo si el determinante de A es distinto de cero. Adems la inversa satisface la igualdad:
donde
es el determinante de A y
es la matriz de adjuntos de A.
IV.6.1 MTODO DE GAUSS JORDAN El mtodo de Gauss Jordan consiste en lo siguiente: Para la matriz dada A de orden n, se construye una matriz rectangular r A = (A | I) de orden n x 2n, aadiendo a la derecha de A una matriz unidad. Luego, haciendo uso de las transformaciones elementales sobre las filas, se reduce la matriz rA a la forma (I | B), lo que es siempre posible, si A es invertible. En este caso B = A -1. No es preciso conocer de antemano si A es invertible. Se puede deducir fcilmente si A es invertible durante las sucesivas transformaciones elementales para hallar la matriz (I | B). Si uno de los elementos de la diagonal principal de la matriz escalonada E en (E | B) es cero, entonces A no es invertible. Ejemplo: * Determinar si A = 1 -1 1 0 0 1 1 1 -1 es inversible.
Si as lo fuera, calcular su inversa: Solucin: Primero efectuamos las operaciones con filas para reducir A a una matriz escalona E. Empezamos formando la matriz A = (A | I)
(A | I) =
1 -1 1 0 0 1 1 1 -1
1 0 0 0 1 0 0 0 1
F13(-1)
1 -1 1 0 0 1 0 2 -2
1 0 0 0 1 0 -1 0 1
F23
1 -1 1 0 2 -2 0 0 1
1 0 0 -1 0 1 0 1 0 1 -1 1 0 2 -2 0 0 1
Continuando con las operaciones elementales con filas, necesarias para reducir la matriz A a la identidad, se tiene:
F23
1 -1 1 0 2 -2 0 0 1
1 0 0 -1 0 1 0 1 0
F21(1/2)
1 0 0
0 0 2 -2 0 1
1/2 0 1/2 -1 0 1 0 1 0
F2 (1/2)
1 0 0
0 0 1 -1 0 1
F32(1)
1 0 0
0 0 1 0 0 1
= (I | B)
Entonces el resultado es A =
-1
1 0 1 -1 2 1 0 2 0