Sunteți pe pagina 1din 10

Unidad 2 Matrices

En esta unidad veremos varios tipos de matrices como la matriz cuadrada; que nos dice que se puede descomponer en la suma de una matriz simtrica y una matriz anti simtrica. Si A y B son matrices del mismo orden, entonces se pueden sumar entre s. Los productos de matrices son validos en ambos sentidos, AB y BA. Una matriz cuadrada A de orden N es singular si su determinante es nulo. En tal caso se dice que dicha matriz no tiene inversa. Continuando con las matrices, otra es la matriz rectangular: esta matriz tiene distinto nmero de filas de columnas, siendo su dimensin mxn. Un ejemplo de ello es lo siguiente:

Otra matriz es la diagonal: esta matriz est formada por ceros arriba y debajo de su diagonal. En la diagonal principal los nmeros no son todos ceros. Ejemplo:

Otra matriz es la de la identidad: esta matriz es una diagonal formado por unos en la diagonal principal. Esta se denota por In, donde n es el nmero de filas y de columnas de la matriz. La matriz identidad es la siguiente:

Continuando con matrices, otra es la matriz triangular superior: es una matriz cuadrada con ceros debajo de la diagonal principal y con nmeros no todos ceros arriba de dicha diagonal. Ejemplo:

Como ultima matriz tenemos la matriz triangular inferior: es una matriz cuadrada con ceros arriba de la diagonal principal y con nmeros no todos ceros abajo de dicha diagonal. Ejemplo:

Para calcular las matrices generalmente se utiliza el mtodo ms comn que es el de Gauss Jordn, usando la matriz identidad. Otro tema importante es el de cofactores de una matriz: Sea A una matriz de nxn, definimos los cofactores de A como: A1j= (-1)i+j (Mij) Para una matriz de nxn existen n2 cofactores de A.A la matriz de cofactores la llamamos por B, escrito por:

Adjunta de una matriz de nxn, definimos la adjunta de A (denotado por Adj A) como la traspuesta de la matriz cofactores de A, es decir: Adj A=B+ Teorema: si A es una matriz de nxn y la determinante de A es distinto de cero entonces la inversa de A existe y se calcula como:

A-1 = ___1____ Adj A \A\

Unidad 3 Sistemas de ecuaciones lineales


Ecuacin de la recta: Y=mx+b donde: m= pendiente; b= ordenada al origen.

Lo anterior es la forma generalizada de un sistema de ecuaciones lineales de m ecuaciones con n incgnitas. Un sistema de ecuaciones lineales, tambin conocido como sistema lineal de ecuaciones o simplemente sistema lineal, es un conjunto de ecuaciones lineales sobre un cuerpo o un anillo conmutativo. Un ejemplo de sistema lineal de ecuaciones sera el siguiente:

El problema consiste en encontrar los valores desconocidos de las variables x1, x2 y x3 que satisfacen las tres ecuaciones. El problema de los sistemas lineales de ecuaciones es uno de los ms antiguos de la matemtica y tiene una infinidad de aplicaciones, como en procesamiento digital de seales, anlisis estructural, estimacin, prediccin y ms generalmente en programacin lineal as como en la aproximacin de problemas no lineales de anlisis numrico.

La regla de Cramer es de importancia terica porque da una expresin explcita para la solucin del sistema. Sin embargo, para sistemas de ecuaciones lineales de ms de tres ecuaciones su aplicacin para la resolucin del mismo resulta excesivamente costosa: computacionalmente, es ineficiente para grandes matrices y por ello no es usado en aplicaciones prcticas que pueden implicar muchas ecuaciones. Sin embargo, como no es necesario pivotar matrices, es ms eficiente que la eliminacin gaussiana para matrices pequeas, particularmente cuando son usadas operaciones SIMD. Si es un sistema de ecuaciones. A es la matriz de coeficientes del sistema, es el vector columna de las incgnitas y es el vector columna de los trminos independientes. Entonces la solucin al sistema se presenta as:

Donde Aj es la matriz resultante de reemplazar la j-sima columna de A por el vector columna b. Hgase notar que para que el sistema sea compatible determinado, el determinante de la matriz A ha de ser no nulo.

Demostracin

Unidad 4 Espacios vectoriales


Un espacio vectorial V es un conjunto de objeto que tiene dos operaciones, la de suma y multiplicacin por un escalar.

Todo espacio vectorial V debe cumplir con las siguientes 10 propiedades: i. Si x V y y V, entonces x + y V (es decir, V es cerrado para la suma). ii. Para todos x, y, z en V, (x + y) + z = x + (y + z) (ley asociativa de la suma). iii. Existe un vector 0 V tal que para todo x V, x + 0 = 0 + x = x (0 se conoce como neutro aditivo). iv. Si x V, existe un vector -x en V tal que x + (-x) = 0 (-x se conoce como el inverso aditivo de x). v. Si x y y estn en V, entonces x + y = y + x (ley conmutativa de la suma de vectores). vi. Si x V, y es un escalar, entonces x V (se dice que V es cerrado para la multiplicacin escalar). vii. Si x y y estn en V y si es un escalar, entonces (x + y) = x + y (primera ley distributiva). viii. Si x V y si y son escalares, entonces ( y )x = x + x (segunda ley distributiva) ix. Si x y si y son escalares, entonces ()x = x (ley asociativa de la multiplicacin por escalar). x. Para todo vector x V, 1x = x (al escalar 1 se le conoce como neutro multiplicativo).

Subespacio Sea H un subconjunto de un espacio. Vectorial de V. decimos que H es un subespacio vectorial V si cumple las dos operaciones del espacio vectorial V, es decir, cumple con las dos propiedades de V. Teorema. Si H es un subespacio vectorial de V entonces H es en s misma un espacio vectorial de V. Teorema. Si H es un subespacio vectorial de V entonces cumple: i. Si x H y y H, entonces x + y H. ii. Si x H, entonces x H para todo escalar

Combinacin lineal. Sea V1, V2,,Vn vectores en un espacio vectorial V. Entonces cualquier vector lo podemos escribir como: C1V1 + C2V2+CnVn(1) Donde C1, C2,, Cn son escalares. La expresin (1) se llama combinacin lineal de V1, V2,,Vn.

Dependencia e independencia lineal.


Sea v1, v2, v3,, vn un conjunto de valores definidos en un espacio vectorial, se dice que estos vectores son linealmente dependiente (L.D) si existen escalares C1, C2,, Cn no todos ceros tales que C1V1 + C2V2++Cn= 0 Por el contrario si C1= C2 = C3=Cn=0 entonces el conjunto de vectores son linealmente independientes (L.D).

Bases y dimensin Sea V un espacio vectorial definimos la base de un espacio vectorial y si cumple como el conjunto de vectores {V1, V2, Vn} que cumple las siguientes condiciones: i. ii. {V1, V2,,Vn} son Li {v1, v2,, Vn} generalmente a todo el espacio vectorial V.

Teorema. Si {V1, V2,,Vn} forman una base para el espacio vectorial V, entonces la dimensin de V es el nmero de elementos de la base es decir; dim V = n

Unidad 5 Transformaciones lineales


Sea V y W espacios vectoriales reales. Una transformacin lineal T de V en W es una funcin que asigna a cada vector V E V un vector nico T (V) EW y que satisface, para cada U y V y cada escalar X, T (U+V) = T (U) + T (V)1 Y T( V) = T (V)..2

Teorema: sea V un espacio vectorial de dimensin finita con base B= {V1, V2,, Vn}. Sean {W1, W2,, Wn} n vectores en W. suponga que T, y T2 son dos transformaciones lineales de V en W tales que T1 (Vi) = T2 (Vi) = Wi, para i= 1,2,, n. entonces para cualquier vector V EV, T1 (V) = T2 (V); es decir T1 = T2. Teorema: sea V un espacio vectorial de dimensin finita con base B= {V1, V2,,Vn}. Sea W un espacio vectorial que contiene los vectores {W1, W W,, Wn}. Entonces existe una transformacin lineal nica T: V W tal que T (Vi) = Wi para i= 1, 2,, n

S-ar putea să vă placă și