Sunteți pe pagina 1din 38

1.

-  Investigue: Espacio vectorial, subespacios, combinación lineal, generación


de espacios, dependencia e independencia lineal, bases y dimensión, teorema
de la dimensión y el teorema de la base incompleta. Incorpore dos ejemplos de
cada punto indicado

ESTRUCTURA DEL TRABAJO: PORTADA, ÍNDICE, INTRODUCCIÓN,


CONTENIDO, CONCLUSIÓN, BIBLIOGRAFÍA Y ANEXOS. VALOR:
10%

FECHA DE ENTREGA: 15/04/2020

  2.- Investigar  el método de eliminación gaussiana y el método de Gauss-


Jordan.  Los pasos de ambos métodos para resolver sistemas de ecuaciones
lineales. ¿Cuál es la diferencia de entre ambos? Incorpore dos ejemplos de
cada uno.
Un espacio vectorial es un conjunto no vacío V de objetos, llamados vectores, en el que
se han definido dos operaciones: la suma y el producto por un escalar (número real)
sujetas a los diez axiomas que se dan a continuación. Los axiomas deben ser válidos
para todos los vectores u, v y w en V y todos los escalares α y β reales.
Llamamos u+v a la suma de vectores en V, y αv al producto de un número real α por un
vector v∈V.
1. u+v∈V
2. u+v=v+u
3. (u+v)+w=u+(v+w)
4. Existe un vector nulo 0V∈V tal que v+0V=v
5. Para cada v en V, existe un opuesto (–v)∈V tal que v+(–v)=0V
6. αv∈V
7. α(u+v)=αu+αv
8. (α+β)v=αv+βv
9. α(βv)=(αβ)v
10. 1v=v

En álgebra abstracta, un espacio vectorial es una estructura algebraica creada a partir de


un conjunto no vacío, una operación interna (llamada suma, definida para los elementos del
conjunto) y una operación externa (llamada producto por un escalar, definida entre dicho
conjunto y otro conjunto, con estructura de cuerpo), con 8 propiedades fundamentales.
A los elementos de un espacio vectorial se les llama vectores y a los elementos del
cuerpo, escalares.
Históricamente, las primeras ideas que condujeron a los espacios vectoriales modernos se
remontan al siglo XVII: geometría analítica, matrices y sistemas de ecuaciones lineales.
Los espacios vectoriales se derivan de la geometría afín a través de la introducción
de coordenadas en el plano o el espacio tridimensional. Alrededor de 1636, los matemáticos
franceses Descartes y Fermat fundaron las bases de la geometría analítica mediante la
vinculación de las soluciones de una ecuación con dos variables a la determinación de
una curva plana.nota 1 Para lograr una solución geométrica sin usar coordenadas, Bernhard
Bolzano introdujo en 1804 ciertas operaciones sobre puntos, líneas y planos, que son
predecesores de los vectores.nota 2 Este trabajo hizo uso del concepto de coordenadas
baricéntricas de August Ferdinand Möbius de 1827.nota 3
La primera formulación moderna y axiomática se debe a Giuseppe Peano, a finales del siglo
XIX. Los siguientes avances en la teoría de espacios vectoriales provienen del análisis
funcional, principalmente de espacios de funciones. Los problemas de Análisis funcional
requerían resolver problemas sobre la convergencia. Esto se hizo dotando a los espacios
vectoriales de una adecuada topología, permitiendo tener en cuenta cuestiones
de proximidad y continuidad. Estos espacios vectoriales topológicos, en particular los espacios
de Banach y los espacios de Hilbert tienen una teoría más rica y elaborada.
El origen de la definición de los vectores es la definición de Giusto Bellavitis de bipoint, que es
un segmento orientado, uno de cuyos extremos es el origen y el otro un objetivo. Los vectores
se reconsideraron con la presentación de los números complejos de Argand y Hamilton y la
creación de los cuaterniones por este último (Hamilton fue además el que inventó el nombre
de vector).nota 4 Son elementos de R2 y R4; el tratamiento mediante combinaciones lineales se
remonta a Laguerre en 1867, quien también definió los sistemas de ecuaciones lineales.
En 1857, Cayley introdujo la notación matricial que permite una armonización y simplificación
de las aplicaciones lineales. Casi al mismo tiempo, Grassmann estudió el cálculo baricéntrico
iniciado por Möbius. Previó conjuntos de objetos abstractos dotados de operaciones.nota 5 En su
trabajo, los conceptos de independencia lineal y dimensión, así como de producto
escalar están presentes. En realidad el trabajo de Grassmann de 1844 supera el marco de los
espacios vectoriales, ya que teniendo en cuenta la multiplicación, también, lo llevó a lo que
hoy en día se llaman álgebras. El matemático italiano Peano dio la primera definición moderna
de espacios vectoriales y aplicaciones lineales en 1888.nota 6
Un desarrollo importante de los espacios vectoriales se debe a la construcción de los espacios
de funciones por Henri Lebesgue. Esto más tarde fue formalizado por Banach en su tesis
doctoral de 1920nota 7 y por Hilbert. En este momento, el álgebra y el nuevo campo del análisis
funcional empezaron a interactuar, en particular con conceptos clave tales como los espacios
de funciones p-integrables y los espacios de Hilbert. También en este tiempo, los primeros
estudios sobre espacios vectoriales de infinitas dimensiones se realizaron.
Los espacios vectoriales tienen aplicaciones en otras ramas de la matemática, la ciencia y
la ingeniería. Se utilizan en métodos como las series de Fourier, que se utiliza en las rutinas
modernas de compresión de imágenes y sonido, o proporcionan el marco para
resolver ecuaciones en derivadas parciales. Además, los espacios vectoriales proporcionan
una forma abstracta libre de coordenadas de tratar con objetos geométricos y físicos, tales
como tensores, que a su vez permiten estudiar las propiedades locales
de variedades mediante técnicas de linealización.
Ejemplo 1

De acuerdo con las propiedades que vimos en la primera unidad, podemos afirmar
que R3R3 es un espacio vectorial.
Los espacios RnRn , con n≥1n≥1 , son los ejemplos principales de espacios
vectoriales. La intuición geométrica desarrollada para R3R3 nos ayudará a
entender y visualizar muchos conceptos de esta unidad.
Los vectores de RnRn son n-uplas de números reales, o sea:
Rn={(x1,x2,…,xn),conxi∈R}Rn={(x1,x2,…,xn),conxi∈R}
En RnRn , la suma de vectores y el producto por un escalar se definen así:
Sean u=(u1,u2,…,un)yv=(v1,v2,…vn)∈Rnu=(u1,u2,…,un)yv=(v1,v2,…vn)∈Rn
u+v=(u1+v1,u2+v2,…,un+vn)∈Rnu+v=(u1+v1,u2+v2,…,un+vn)∈Rn
αv=(αv1,αv2,…,αvn)∈Rnαv=(αv1,αv2,…,αvn)∈Rn
Puede comprobarse que las operaciones definidas verifican los axiomas de
espacio vectorial.

Ejemplo 2

De acuerdo con las propiedades enunciadas en la segunda unidad, para


cada mm y nn RmxnRmxn es un espacio vectorial.
Tenemos por ejemplo R2×3R2×3, espacio vectorial cuyos vectores son las
matrices de 2×32×3.
Ejemplo 3

Llamemos P2P2 al conjunto de polinomios de grado menor o igual que 2,


incluyendo el polinomio nulo.
Recordemos la suma de polinomios y la multiplicación por un escalar:

Dados p(x)=ao+a1x+a2x2∈P2p(x)=ao+a1x+a2x2∈P2 y q(x)=bo+b1x+b2x2∈P2q
(x)=bo+b1x+b2x2∈P2
Definimos las operaciones:

(p+q)(x)=p(x)+q(x)=(ao+bo)+(a1+b1)x+(a2+b2)x2∈P2(p+q)(x)=p(x)
+q(x)=(ao+bo)+(a1+b1)x+(a2+b2)x2∈P2
(αp)(x)=αp(x)=(αao)+(αa1)x+(αa2)x2∈P2(αp)(x)=αp(x)=(αao)+(αa1)x+
(αa2)x2∈P2
Puede demostrarse que estas operaciones verifican todos los axiomas de espacio
vectorial.

En particular, el vector nulo en este espacio es el polinomio nulo, es decir el


polinomio cuyos coeficientes son todos iguales a cero.
Generalizando, para cualquier n≥0n≥0 , el conjunto PnPn de todos los polinomios
de grado menor o igual que nn (incluyendo el polinomio nulo) es un espacio
vectorial.
Observación:

¿Por qué no definimos PnPn como el conjunto de polinomios de grado


exactamente igual a nn? Si lo definiéramos así, no sería un espacio vectorial como
se muestra en el siguiente ejemplo:
p(x)=x2p(x)=x2 y q(x)=–x2+1q(x)=–x2+1 son polinomios de grado 2, pero la
suma es un polinomio de grado cero. Entonces no se verificaría el primer axioma
de espacio vectorial (la suma de vectores de un espacio vectorial VV debe estar
en VV).

Subespacios vectoriales
Definición

Sea VV un espacio vectorial y WW un subconjunto no vacío de VV.


WW es un subespacio de VV si WW es en sí mismo un espacio vectorial con
las mismas operaciones (suma de vectores y producto por un escalar) definidas
en VV.

Ejemplo
W={(x1,x2)∈R2:x2=3x1}W={(x1,x2)∈R2:x2=3x1} ¿es un subespacio de R2R2?
Primero analicemos el conjunto WW. Son todos vectores de R2R2 tales que la
segunda componente es el triple de la primera:
(x1,3x1)=x1(1,3)(x1,3x1)=x1(1,3)
WW es la recta que pasa por el origen y tiene vector director (1,3), o sea la recta
de ecuación y = 3x.
Para decidir si WW es un subespacio de R2R2 habría que verificar que se
cumplen los axiomas del 1 al 10. El lector puede comprobar que todos se cumplen
en este caso.
Pero en general no es necesario verificar los axiomas porque existe un criterio
sencillo para determinar si un subconjunto WW de un espacio vectorial VV es un
subespacio, es el que sigue.
Condiciones necesarias y suficientes para caracterizar subespacios

Sea WW un subconjunto de un espacio vectorial VV (W⊆V)(W⊆V).


WW es subespacio de VV si y sólo si se cumplen las siguientes condiciones:
a. 0V0V está en WW.
b. Si uu y vv están en WW, entonces u+vu+v está en WW.
c. Si uu está en WW y kk es un escalar, kuku está en WW.

Observaciones

1. La condición (a) asegura que W no es vacío. La mejor manera de comprobar si


W es un subespacio es buscar primero si contiene al vector nulo. Si 0V0V está en
W, entonces deben verificarse las propiedades (b) y (c). Si 0V0V no está en W, W
no puede ser un subespacio y no hace falta verificar las otras propiedades.
2. Las propiedades a, b y c corresponden a los axiomas 4, 1 y 6 de espacios
vectoriales.

3. Los axiomas 2, 3, 7, 8, 9 y 10 de espacio vectorial se cumplen para WW porque


éste es un subconjunto de VV. Puede decirse que WW «hereda» esas
propiedades de VV.
4. Faltaría comprobar que cada vector de WW tiene su opuesto en WW (axioma
5 de espacios vectoriales):
Teniendo en cuenta la condición (c) de subespacios,
c. Si uu está en WW y kk es un escalar, kuku está en WW.
Si tomamos k=–1k=–1, resulta:
Para cada u∈W,(–1)u=–u∈Wu∈W,(–1)u=–u∈W.
Y por lo tanto cada vector de WW tiene su opuesto en WW.
De las observaciones anteriores se deduce que las condiciones (a), (b) y (c) son
suficientes para demostrar que WW es un espacio vectorial, y por lo tanto
subespacio de VV.

En álgebra lineal, un subespacio vectorial es el subconjunto de un espacio vectorial, que


satisface por sí mismo la definición de espacio vectorial con las mismas operaciones que V.

Subespacios triviales

Si VV es un espacio vectorial, entonces VV es un subespacio de sí mismo.


0V+0V=0V0V+0V=0V y k0V=0Vparacualquierkrealk0V=0Vparacualquierkreal
Los subespacios {0V}{0V} y VV se denominan subespacios triviales de VV.
Ejercitación sobre subespacios
Ejemplo 1

Consideremos el conjunto W={(x,y)∈R2|xy=0}W={(x,y)∈R2|xy=0}, ¿Es un


subespacio de R2R2?
Se cumple (a) pues (0,0)∈W(0,0)∈W
No se cumple (b) porque la suma de dos vectores de WW puede no estar
en WW, por ejemplo:
(1,0)+(0,1)=(1,1)∉W(1,0)+(0,1)=(1,1)∉W

Entonces WW no es un subespacio de R2R2.

Ejemplo 2
Consideremos el conjunto W={(x,y)∈R2|x=0}W={(x,y)∈R2|x=0}. Es decir, la
recta de ecuación x=0x=0. ¿Es un subespacio de R2R2?
Se cumple (a) pues (0,0)∈W(0,0)∈W
Se cumple (b) pues la suma de dos vectores de WW, está en WW:
(0,y1)+(0,y2)=(0,y1+y2)(0,y1)+(0,y2)=(0,y1+y2)
Se cumple (c) pues el producto de un vector de WW por un número real está
en WW:
k(0,y)=(0,ky)k(0,y)=(0,ky)
Luego WW es subespacio de R2R2.
Ejemplo 3

Consideremos el conjunto W={(x,y)∈R2|x2–y2=0}W={(x,y)∈R2|x2–y2=0}. ¿Es


un subespacio de R2R2?
x2–y2=0⇔y=x∨x=–yx2–y2=0⇔y=x∨x=–y
Se cumple (a) pues (0,0)∈W(0,0)∈W
No se cumple (b) porque la suma de dos vectores de WW puede no estar
en WW, por ejemplo:
(1,1)+(1,–1)=(2,0)∉W(1,1)+(1,–1)=(2,0)∉W
Entonces WW no es un subespacio de R2R2.
Ejemplo 4

Consideremos el conjunto W={(x,y,z)∈R3|x+y+2z=0}W={(x,y,z)∈R3|
x+y+2z=0}. Es decir un plano que pasa por el origen. ¿Es un subespacio
de R3R3?
De la ecuación del plano se deduce que: x=–y–2zx=–y–2z
Por lo tanto los vectores que pertenecen a WW responden a la forma (–y–2z,y,z)
(–y–2z,y,z) con y,z∈Ry,z∈R.
Se cumple (a) pues (0,0,0)∈W(0,0,0)∈W
Se cumple (b) pues la suma de dos vectores del plano, sigue estando en ese
plano:

(–y–2z,y,z)+(−y′–2z′,y′,z′)=(–(y+y′)–2(z+z′),y+y′,z+z′)(–y–2z,y,z)+(−y′–2z′,y′,z
′)=(–(y+y′)–2(z+z′),y+y′,z+z′)
Se cumple (c)(c) pues k(–y–2z,y,z)=(–ky–2kz,ky,kz)∈Wk(–y–2z,y,z)=(–ky–
2kz,ky,kz)∈W
Entonces WW es subespacio de R3R3.
Ejemplo 5

Consideremos el conjunto W={p∈P2|p(0)=0}W={p∈P2|p(0)=0}. Es decir, los


polinomios de grado menor o igual que 2 (incluyendo el polinomio nulo) tales que
evaluados en 00 dan por resultado 00. ¿Es un subespacio de P2P2?
Se cumple (a) pues el polinomio nulo pertenece a WW.
Recordemos la definición de suma de funciones y de producto de un real por una
función:

(f+g)(x)=f(x)+g(x)(f+g)(x)=f(x)+g(x), para todo xx perteneciente al dominio


de ff y de gg
(kf)(x)=kf(x)(kf)(x)=kf(x) para todo xx perteneciente al dominio de ff.
Los polinomios son funciones, por lo tanto si consideramos p,q∈Wp,q∈W,
resulta:
(p+q)(0)=p(0)+q(0)=0+0=0⇒p+q∈W(p+q)(0)=p(0)+q(0)=0+0=0⇒p+q∈W
(kp)(0)=k.p(0)=k0=0⇒kp∈W(kp)(0)=k.p(0)=k0=0⇒kp∈W
Demostramos que WW es un subespacio de P2P2.
Ejemplo 6

Consideremos el conjunto W={A∈R2×2|A=At}W={A∈R2×2|A=At}. Es decir, el


conjunto de matrices simétricas de 2×22×2.
Se cumple (a) porque la matriz nula pertenece a WW.
Se cumple (b) pues
si A,B∈WA,B∈W entonces (A+B)t=At+Bt=A+B(A+B)t=At+Bt=A+B,
luego (A+B)∈W(A+B)∈W
Se cumple (c) pues si A∈WA∈W entonces (kA)t=kAt=kA(kA)t=kAt=kA,
luego (kA)∈W(kA)∈W
Demostramos que el conjunto de matrices simétricas de 2×22×2 es un
subespacio de R2×2R2×2.
Observación: En la comprobación de las condiciones (a), (b) y (c) no fue necesario
hacer referencia al tamaño de las matrices. Esto significa que es válido para
matrices simétricas de n×nn×n.

En matemática, particularmente en álgebra lineal, una combinación lineal es una expresión


matemática que consiste en la suma entre pares de elementos, de determinados conjuntos,
multiplicados entre sí.
En particular, la combinación lineal de un sistema de vectores se trata de un vector de la forma
con los  elementos de un cuerpo. La definición, provista de esta manera, da lugar a otras
definiciones y herramientas importantes, como son los conceptos de independencia
lineal y base de un espacio vectorial.

Ejemplos[editar]
Combinación lineal de dos vectores en el espacio.

1. La terna ordenada (20, 12, 37) es una combinación lineal de (1, 3, 5) y (6, 2, 9):


2. En general, dado un vector v en un espacio vectorial, todo múltiplo suyo  es
combinación lineal. Para el caso particular , sus múltiplos son vectores en el plano con
la misma dirección, es decir, paralelos.
3. Dado , decir que v es combinación lineal de otros dos vectores  no paralelos equivale a
afirmar que los tres vectores son coplanarios, es decir, que se encuentran en un
mismo plano.
4. En la ecuación  se dice que  es combinación lineal de  y de , porque podemos
escribir  sin más que despejar la . De la misma manera, despejando oportunamente,
cada una de estas variables se podría expresar como combinación lineal de las otras
dos.
Definición y propiedades
Una combinación lineal de dos o más vectores es el vector que se obtiene al sumar esos
vectores multiplicados por algunos escalares. Es decir, una combinación lineal es una
expresión de la forma:

Para el caso particular de dos vectores  ,   , y dos números  , entonces


una combinación lineal de    y   está dada por el vector  .

La siguiente figura muestra la representación gráfica del vector  .

 
Nota: Cualquier vector en el plano se puede poner como combinación lineal de otros dos
vectores que tengan distinta dirección. Asimismo, esta combinación lineal es única.

Ejemplos
 

1Dados los vectores   y   , hallar el vector combinación


lineal  .

Solución: Para encontrar el vector  , simplemente realizamos las operaciones


necesarias:

Por lo que,

2 Expresa al vector   como una combinación lineal de los


vectores   y  .

Solución: Supongamos que   se puede escribir como una combinación lineal
de   y  , es decir, existen constantes   tales que  . Por lo
tanto, solo debemos encontrar estas constantes:

 
 

Por tanto, tenemos que

Es decir, las constantes   deben resolver el siguiente sistema de ecuaciones lineal:

Cuya solución está dada por

De este modo,   se puede escribir como

Espacio Generado El conjunto formado por todas las combinaciones lineales de los vectores v1,
v2,. . . , vk en R n se llama espacio generado por los vectores v1, v2,. . . , vk . Este conjunto se
representa por Gen {v1, v2, . . . , vk } es decir, es el conjunto formado por todas las expresiones de
la forma c1 · v1 + c2 · v2 + · · · + ck · vk donde c1,c2,. . . ,ck son escalares. Si V = Gen {v1, v2, · · · ,
vk } se dice que los vectores v1, v2,. . . , vk generan a V y que {v1, v2, . . . , vk } es un conjunto
generador de V.

En álgebra lineal, dado un espacio vectorial V, se llama sistema generador de V a


un conjunto de vectores, pertenecientes a V, a partir del cual se puede generar el espacio
vectorial V completo. En este caso, el espacio vectorial V se denomina conjunto
generado o espacio generado.nota 1
Esto también es válido para subconjuntos de V, en esos casos se habla de subconjuntos
generados, o más específicamente, subespacios generados por el sistema generador en
cuestión.
No confundir este concepto con el de base, ya que si bien toda base es un sistema generador,
la implicación inversa no siempre es cierta. Mientras que una base ha de ser obligatoriamente
un sistema libre, es decir, todos sus elementos han de ser linealmente independientes, un
sistema generador puede ser ligado, es decir, linealmente dependiente.
Para cualquier sistema generador A formado por n elementos, siempre podremos hallar una
base B comprendida en A con un número de elementos menor o igual que n.

Ejemplos[editar]

El segmento orientado v genera una recta compuesta por todos sus múltiplos t v.

1. Dado un único segmento orientado en el plano, el conjunto que lo contiene como único
elemento es un sistema generador, ya que su espacio lineal generado es una recta
cuya dirección viene dada por dicho segmento.
2. Tomando el ejemplo anterior de manera más concreta, representemos a los
segmentos orientados en el plano cartesiano real como pares ordenados. Tomemos
entonces el par  y construyamos , evidentemente es un sistema generador, pues
genera al conjunto  que geométricamente se representa como una recta inclinada a
45° que pasa por el origen.
3. Siguiendo con la línea de ejemplos anteriores, tomemos ahora un conjunto . En este
caso , sin embargo el conjunto B es linealmente dependiente, ya que . Esto prueba
que B no es una base de S.
Geométricamente, se interpreta a la dependencia lineal como una relación
de paralelismo. Así, dos segmentos orientados en la misma dirección, es decir,
paralelos, generan una misma recta.
4. Dados tres puntos no colineales en el espacio, estos generan un plano que puede
ponerse en correspondencia uno a uno con el espacio euclídeo 
5. Si tomamos en el ejemplo anterior tres puntos que sí son colineales, entonces el
conjunto formado por estos puntos genera una recta en vez de un plano. Tomando
sólo dos de estos puntos, podemos construir un segmento orientado y así establecer
una base del subespacio representado por la recta.
6. Vamos a un ejemplo más abstracto: el conjunto de funciones  genera el espacio
de funciones afines. Más específicamente, es una base de este espacio. Si por
ejemplo tomamos el subconjunto de F  como sistema generador, obtenemos el
subespacio de funciones afines .
En este caso, las funciones son vectores y los coeficientes, elementos del cuerpo
asociado.

Ejemplo Indique si y = 5 1 ∈ Gen x1 = 5 4 , x2 = 20 16 Buscar la combinaci´on lineal de x1 y de


x2 que d´e y equivale a resolver el sistema cuya aumentada es: c1 c2 x1 x2 y =   c1 c2 5 20 5 4
16 1   rref −−→ 1 4 0 0 0 1 como tenemos pivote en la columna de las constantes, el sistema
es inconsistente y por tanto, concluimos que y no es combinaci´on lineal de x1 y de x2. Por lo
tanto, es cierto que y ∈/ Gen {x1, x2}.

En álgebra lineal, un conjunto de vectores es linealmente independiente si ninguno de ellos


puede ser escrito con una combinación lineal de los restantes. Por ejemplo, en R3, el conjunto
de vectores (1, 0, 0), (0, 1, 0) y (0, 0, 1) es linealmente independiente, mientras que (2, −1, 1),
(1, 0, 1) y (3, −1, 2) no lo es, ya que el tercero es la suma de los dos primeros.

Dado un conjunto finito de vectores , se dice que estos vectores son linealmente


independientes si dada la ecuación
esta se satisface únicamente cuando  son todos cero. En caso contrario, se dice que son
linealmente dependientes.
Nótese que el símbolo a la derecha del signo igual no es cero, sino que simboliza al vector
nulo . El conjunto de vectores nulos forma la matriz nula. Si tales números no existen,
entonces los vectores son linealmente independientes. La definición anterior también puede
extenderse a un conjunto infinito de vectores, concretamente un conjunto cualquiera de
vectores es linealmente dependiente si contiene un conjunto finito que sea linealmente
dependiente.
Utilizando conceptos de espacios vectoriales podemos redefinir la independencia lineal así:
Un conjunto de vectores  de un espacio vectorial es linealmente independiente si 
Esta idea es importante porque los conjuntos de vectores que son linealmente
independientes, generan un espacio vectorial y forman una base para dicho espacio.
Entre las propiedades de los vectores linealmente dependientes e independientes
encontramos:

1. Un conjunto de vectores es linealmente dependiente si y solamente si alguno de


los vectores es combinación lineal de los demás.
2. Si un conjunto de vectores es linealmente independiente, cualquier subconjunto
suyo también lo es.
3. Si un conjunto de vectores es linealmente dependiente, también lo es todo
conjunto que lo contenga.

Ejemplo[editar]
En el espacio tridimensional usual:

 u y j son dependientes por tener la misma dirección.


 u y v son independientes y definen el plano P.
 u, v y w son dependientes por estar los tres contenidos en el mismo plano.
 u, v y k son independientes por serlo u y v entre sí y no ser k una combinación lineal
de ellos o, lo que es lo mismo, por no pertenecer al plano P. Los tres vectores definen el
espacio tridimensional.
 Los vectores o (vector nulo, cuyas componentes son iguales a cero) y k son
independientes ya que o = 0 ·k
Ejemplo del uso de la fórmula f:
¿Son los tres vectores siguientes independientes?
Buscamos tres valores x, y y z que satisfagan la ecuación:
Lo que equivale al sistema de ecuaciones siguiente:
Dado que la única solución es la trivial (x = y = z = 0), los tres vectores son
independientes.

Método alternativo usando determinantes[editar]


Un método alternativo usa el hecho que n vectores en Rn son linealmente
independientes si y solo si el determinante de la matriz formada por estos
vectores como columnas es distinto de cero.
Dados los vectores:
La matriz formada por éstos es:
El determinante de esta matriz es:
Ya que el determinante es no nulo, los vectores (1, 1) y (−3, 2) son
linealmente independientes.

Ejemplo II[editar]
Sea V = Rn y consideremos los siguientes elementos en V:
Entonces e1, e2,..., en son linealmente independientes. Estos vectores
constituyen la base canónica en R.

Demostración[editar]
Supongamos que a1, a2,..., an son elementos de R tales que:
Sustituyendo e1, e2,..., en resulta:
Multiplicando:
Sumando coordenadas:
Por lo que se obtiene: 
Así que:
Además: 
Pero 0 es un vector, entonces: 
Por lo que ai = 0 para todo i en {1,..., n}.
Entonces los vectores  son linealmente independientes

Ejemplo III[editar]
Sea V el espacio vectorial de todas las funciones a variable
real. Entonces las funciones et y e2t en V son linealmente
independientes.

Demostración[editar]
Supongamos que a y b son dos números reales tales que:
aet + be2t = 0
Para todos los valores de t. Necesitamos demostrar
que a = 0 y b = 0. Para hacer esto dividimos por et (que
es un número real diferente de cero, sea cual sea t) y
restando obtenemos:
bet = −a
En otras palabras, la función bet debe ser
independiente de t, lo cual ocurre únicamente
cuando b = 0. Por lo tanto, a es cero.

Vectores linealmente dependientes


 

Varios vectores libres del plano se dice que son linealmente


dependientes si hay una combinación lineal de ellos que es igual al
vector cero, sin que sean cero todos los coeficientes de la combinación
lineal.
 

 
Propiedades
1 Si varios vectores son linealmente dependientes, entonces al menos
uno de ellos se puede expresar como combinación lineal de los demás.
 

 
También se cumple el reciproco: si un vector es combinación lineal de
otros, entonces todos los vectores son linealmente dependientes.
 
2 Dos vectores del plano son linealmente dependientes si, y sólo si, son
paralelos.
 
3 Dos vectores libres del plano   son
linealmente dependientes si sus componentes son proporcionales.
 

 
4   vectores en   son linealmente dependientes si su determinante es
igual a cero.
 
Ejemplo:
 
Determinar los valores de   para que sean linealmente dependientes los
vectores  .
Escribir   como combinación lineal de   y  , siendo   el valor calculado.
 
Los vectores son linealmente dependientes si el determinante de la
matriz que forman es nulo, es decir que el rango de la matriz es menor
que 3.
 
1Calculamos el determinante
 
 
2Igualamos el determinante a cero
 

 
3Resolvemos la ecuación y obtenemos
 

 
4Así para   los vectores
son  . Escribimos   en
términos de   y 
 

 
5Calculamos los valores de los escalares 
 

 
6Igualando las coordenadas del lado izquierdo con las del derecho y
resolviendo las ecuaciones obtenemos 
 
7Así la combinación lineal buscada es
 

 
8Se repiten los pasos 4, 5, 6 y 7 para 
 
 
Vectores linealmente independientes
 
Varios vectores libres son linealmente independientes si ninguno de ellos puede ser
escrito con una combinación lineal de los restantes, de manera que si la combinación lineal
es igual a cero, entonces cada uno de sus coeficientes es igual a cero
 
 
Los vectores linealmente independientes tienen distinta dirección y sus componentes no son
proporcionales.
 
 vectores en   son linealmente dependientes si su determinante es distinto de cero.
 
Ejemplo:
 
Estudiar si son linealmente dependientes o independientes los
vectores 
 
1Calculamos el determinante de los vectores
 

 
2Como el determinante es igual a cero, concluimos que los vectores son linealmente
dependientes.
 
Base
 
Tres vectores   con distinta dirección forman una base, porque cualquier vector   
del espacio se puede representar como combinación lineal de ellos
 

 
Las coordenadas del vector respecto a la base son:
 

 
Base ortogonal
 
Una base es ortogonal si los vectores de la base son perpendiculares entre sí.
 
Base ortonormal
 
Una base es ortonormal si los vectores de la base son perpendiculares entre sí, y además
tienen módulo 1.
 
La base formada por los vectores   se
denomina base canónica.
 
Ejemplo:
 
¿Para que valores de   los vectores   
forman una base?
 
1Calculamos el determinante de los vectores
 

 
2El determinante se hace cero para  , luego los vectores son linealmente
dependientes y no forman una base si  .
 
3El determinante es distinto de cero para  , luego los vectores son linealmente
independientes y forman una base si  .

Teorema de Rango: Para toda matriz A se verifica


Rango A + nulidad A = cantidad de columnas de A.

Teorema de la Dimensión: Si T : V® W es una Transformación Lineal


de un Espacio Vectorial V de dimensión finita, a un Espacio Vectorial W,
entonces:

Nulidad (T) + Rango (T) = Dim V


dim(NT (T) ) + dim (Rec (T) ) = dim (dominio T)

Demostración:
Consultar con el Docente de la cátedra, pues la misma es evaluada en el examen
final.

Ejemplo para práctica: Sea la Transformación Lineal T :  ®  definido


por
T (x ) = A.x siendo :
a) Determine una base para el Núcleo de T.
b) Determine una base para el Recorrido de T.
c) Verifique el Teorema de la dimensión.

Aqui tienes Algunas  que te van a Ayudar.

__________Observaciones
Retomando el concepto de "Isomorfismo entre Espacios Vectoriales" se puede
enunciar el siguiente:

Teorema: Sea T : V ®W un isomorfismo (Transformación Lineal inyectiva)


i) si {v1,v2, ... , vk} generan a V Þ generan a W.
ii) si {v1,v2, ... , vk} son Linealmente independientes en V Þ {T(v1) ... T(vk)} es
Linealmente independiente en W.
iii) Si B2 ={u1, ... , vk} es una base de V Þ B2 = {T(u1) ... T(uk)}es una base de W.
iv) Si V tiene dimensión finita Þ W tiene dimensión finita y dim V = dim W.

Nota: A continuación definimos la operación "composición" entre


Transformaciones Lineales.

Definición: Si T1 : V®W y T2 : W®K son Transformaciones Lineales entres


Espacios Vectoriales de dimensión finita, la "composición"
de T2 con T1 denotado por T2 o T1 (que se lee T1 seguida de T2) es una
Transformación Lineal definida por :
( T2 o T1) (x ) = T2 ( T1 ( x) ) " x ÎV

Ejercicio: Sean g :  ®  y f :  ®  las Transformaciones


Lineales definidas por: g (x , y) = (x+y , x-y , 2x) y f (x , y , z) = ( x-y ,
x+y, x+z , 2z).

Determine: a) fog (x ) " x Î  y fog (1 , 2)


Ejercicio: Demuestre que: fog : U ® W es una Transformación Lineal.
Desafío: Investigue en la bibliografía recomendada sobre las leyes de la
composición.
En matemáticas, el teorema rango–nulidad del álgebra lineal, en su forma más
sencilla, habla de la relación entre el número de columnas de una matriz, su rango y
su nulidad. Específicamente, si A es una matriz de orden m x n (con m filas
y n columnas) sobre algún cuerpo, entonces1
Esto aplica también a aplicaciones lineales en espacios vectoriales de dimensión finita.
Sean V y W espacios vectoriales sobre algún cuerpo y sea T : V → W una aplicación
lineal. Entonces el rango de T es la dimensión de la imagen de T (im T) y la nulidad
de T es la dimensión del núcleo de T (ker T), así que tenemos
o equivalentemente,

Demostración[editar]
Sea T : V → W una aplicación lineal. Supongamos que el conjunto  forma
una base del núcleo de T, (ker T). Por el teorema de extensión de la base, podemos
extender este conjunto para formar una base de V: . Puesto que la dimensión del
núcleo de T es m y la dimensión de V es m + n, solo se necesita demostrar que la
dimensión de la imagen de T (im T) es n.
Veamos que el conjunto  es una base de im T. Sea v un vector arbitrario en V. Existen
escalares únicos tales que:
Por lo tanto,  genera la im T.
Ahora, solo se necesita demostrar que el conjunto  es linealmente independiente.
Podemos hacer esto demostrando que una combinación lineal de estos vectores es
cero si y solo si el coeficiente de cada vector es cero. Sea:
Entonces, puesto que ui genera a ker T, existe un conjunto de escalares di tales que:
Pero, puesto que el conjunto  forma una base de V, todos los escalares ci, di deben ser
cero. Por lo tanto,  es linealmente independiente y forma una base de im T. Esto
prueba que la dimensión de im T es n, como se deseaba.

 Teorema (de la ampliación de la base o de la base incompleta).


Sea E un espacio vectorial sobre el cuerpo K y S un subconjunto
de E linealmente independiente. Entonces, existe una base B de E que contiene
a S.
 Corolario. El teorema anterior asegura pues la existencia de base para todo
espacio vectorial.
Enunciado
1. Dados los vectores de R4, v1=(2,−1,3,4) y v2=(0,5,1,−1), completarlos con
otros dos para formar una base de R4.
2. Sea B={u1,…,ur,ur+1,…,un} base de un espacio vectorial E. Demostrar
queE=⟨u1,…,ur⟩⊕⟨ur+1,…,un⟩.
3. En el espacio vectorial R4, hallar un subespacio suplementario
de ⟨(2,−1,3,4),(0,5,1,−1)⟩.
4. Determinar los valores de a∈R para los
cuales R4=F⊕G, siendoF=⟨(2,1,−1,1),(2,3,4,−0),(1,1,1,1)⟩ y G=⟨(2,−1,3,a)⟩.
Solución
1. Por conocidas propiedades de la dimensión, cuatro vectores linealmente
independientes en un espacio vectorial de dimensión 4 forman base. Dado que
el rango del sistema {v1,v2} claramente es 2, bastará añadir a v1 y v2, otros dos
vectores v3 y v4 de tal manera que el rango del
sistema {v1,v2,v3,v4} sea 4. Existen infinitas maneras de elegir v3 y v4. Por
ejemplo,rg⁡[2−13405−1100100001]=4,en consecuencia,
si v3=(0,0,1,0) y v4=(0,0,0,1) entonces, B={v1,v2,v3,v4} es base de R4.
2. Llamemos F=⟨u1,…,ur⟩ y G=⟨ur+1,…,un⟩. Sea x∈F∩G, entonces x∈F y x∈G, p
or tanto,∃λ1,…,λr escalares:x=λ1u1+⋯+λrur∃λr+1,
…,λn escalares:x=λr+1ur+1+⋯+λnun.Restando las igualdades anteriores
quedaλ1u1+⋯+λrur+(−λr+1)ur+1+⋯+(−λn)un=0.Dado que B es sistema libre,
necesariamente λ1=…=λr=−λr+1=…=−λn=0, lo cual implica
que x=0u1+⋯+0ur=0. Hemos demostrado que F∩G={0}. Sea ahora x∈E, dado
que B es sistema generador de E, existen escalares λ1,…,λr, λr+1,…,λn tales
quex=λ1u1+⋯+λrur+λr+1ur+1⋯+λnun.Ahora
bien, λ1u1+⋯+λrur∈F y λr+1ur+1+⋯+λnun, luego x∈F+G. Hemos demostrado
que E=F+G. Concluimos que E=F⊕G.
3. De los dos apartados anteriores, deducimos de manera inmediata que un
subespacio suplementario del dado es ⟨(0,0,1,0),(0,0,0,1)⟩.
4. Hallemos unas bases de F y G. Tenemos:rg⁡[21−1123401111]=…
=3,rg⁡[2−13a]=1,luego BF={(2,1,−1,1),(2,3,4,−0),(1,1,1,1)} y BG={(2,−1,3,a)} son
bases de F y G respectivamente. Por otra parte,det[21−11234011112−13a]=…
=a−29.Si a≠29, entonces la unión de BF con BG es una base de R4, y por
tanto R4=F⊕G. Si a=29, el vector (2,−1,3,a) pertenece a F y
a G, luego F∩G≠{0}. Concluimos que R4=F⊕G ⇔ 

Teorema Sea A una matriz de tama˜no m × n, entonces 1 Nul(A) = 0 si y s´olo si rango(A) = n = # de


columnas de A. 2 Col(A) = R n si y s´olo si rango(A) = m = # de filas de A. Profesores Hern´an Giraldo
y Omar Saldarriaga Subespacios y Teorema de la Base Incompleta Teorema (Teorema de la base
incompleta) Sean v1, . . . , vk vectores linealmente independientes en R m. Si k < m se pueden
escoger vectores wk+1, . . . , wm talque v1, . . . , vk, wk+1, . . . , wm forman una base para R m.
Profesores Hern´an Giraldo y Omar Saldarriaga Subespacios y Teorema de la Base Incompleta
Ejemplo Sean v1 =   0 −1 1   y v2 =   1 1 2  , calcular un vector v3 talque los vectores
v1, v2, v3 forman una base para R 3
Método de eliminación Gaussiana
En forma general este método propone la eliminación progresiva de variables en el
sistema de ecuaciones, hasta tener sólo una ecuación con una incógnita. Una vez
resuelta esta, se procede por sustitución regresiva hasta obtener los valores de
todas las variables.

Sea por ejemplo el siguiente sistema de ecuaciones: 


Lo que buscamos son 3 números,  que satisfagan a las tres ecuaciones. El método
de solución será simplificar las ecuaciones, de tal modo que las soluciones se
puedan identificar con facilidad. Se comienza dividiendo la primera ecuación entre
2, obteniendo:

 x1+2x2+3x3= 9

4x1+5x2+6x3= 24

3x1+x2+2x3= 4

Se simplificará el sistema si multiplicamos por -4 ambos lados de la primera


ecuación y sumando esta a la segunda. Entonces:

-4x1-8x2-12x3=-36

4x1+5x2+6x3=24

sumándolas resulta

-3x2-6x3=-12

La nueva ecuación se puede sustituir por cualquiera de las dos. Ahora tenemos:

x1+2x2+3x3= 9

0x1-3x2-6x3= -12

3x1+x2-2x3= 4

Luego, la primera se multiplica por -3 y se le suma a la tercera, obteniendo:

x1+2x2+3x3= 9
0x1-3x2-6x3= -12

0x1-5x2-11x3=-23

Acto seguido, la segunda ecuación se divide entre -3.

Ahora se multiplica por 5 y se le suma a la tercera:

x1+2x2+3x3= 9

0x1+x2+2x3= 4

0x1+0x2+x3= 3

En este momento ya tenemos el valor de x3, ahora simplemente se procede a hacer


la sustitución hacia atrás, y automáticamente se van obteniendo los valores de las
otras incógnitas. Se obtendrá:

x3= 3

x2= 4-2(x3) = -2

x1= 9-3(x3)-2(x2) = 4

Se ha visto que al multiplicar o dividir los lados de una ecuación por un número
diferente de cero se obtiene una ecuación nueva y válida.

Algoritmo de eliminación de Gauss y de Gauss-


Jordan[editar]
1. Ir a la primera columna no cero de izquierda a derecha.
2. Si la primera fila tiene un cero en esta columna, intercambiarlo con otra que no lo
tenga.
3. Luego, obtener ceros debajo de este elemento delantero, sumando múltiplos
adecuados del renglón superior a los renglones debajo de él.
4. Cubrir el renglón superior y repetir el proceso anterior con la submatriz restante.
Repetir con el resto de los renglones (en este punto la matriz se encuentra en forma
escalonada).
5. Comenzando con el último renglón no cero, avanzar hacia arriba: para cada renglón
obtener 1 delantero e introducir ceros arriba de éste sumando múltiplos
correspondientes a los renglones correspondientes.
Una variante interesante de la eliminación de Gauss es la que llamamos eliminación de
Gauss-Jordan, (debido al mencionado Gauss y a Wilhelm Jordan), esta consiste en ir
obteniendo los 1 delanteros durante los pasos uno al cuatro (llamados paso directo) así para
cuando estos finalicen ya se obtendrá la matriz en forma escalonada reducida.

Tipos de sistemas
Un sistema de ecuaciones lineales puede ser:

 Compatible determinado: sólo tiene una solución.


 Compatible indeterminado: tiene infinitas soluciones.
 Incompatible: no tiene solución.

2. Forma matricial de un sistema


La forma matricial de un sistema de ecuaciones lineales es

donde

 AA es la matriz que en la fila kk contiene los coeficientes


de las incógnitas de la ecuación kk.
 XX es la matriz columna con las incógnitas.
 BB es la matriz columna con los términos independientes
de las ecuaciones.
 A∗A∗ es la matriz ampliada o aumentada del sistema,
formada por las matrices AA y BB:
Ejemplo

Ver matrices

3. Método de eliminación de Gauss

Recordad que para resolver un sistema de ecuaciones


podemos, sin alterar las soluciones del sistema:

 Intercambiar el orden de las ecuaciones.


 Sumar algunas de sus ecuaciones.
 Multiplicar alguna ecuación por un número distinto de 0.

Esto es precisamente lo que se hace en el método de Gauss:


se modifican las ecuaciones para obtener un sistema mucho
más fácil de resolver, pero, en lugar de hacerlo sobre las
ecuaciones, se hace sobre la matriz ampliada del sistema.

Ver ejemplo

El método de eliminación de Gauss consiste en operar sobre


la matriz ampliada del sistema hasta hallar la forma
escalonada (una matriz triangular superior). Así, se obtiene un
sistema fácil de resolver por sustitución hacia atrás.

Si finalizamos las operaciones al hallar la forma escalonada


reducida (forma lo más parecida a la matriz identidad),
entonces el método se denomina eliminación de Gauss-
Jordan.
En los ejemplos veremos que una vez terminado el proceso,
resolver el sistema es directo. Además de esto, veremos que

 Si se obtiene la matriz identidad, el sistema es compatible


determinado (como en el sistema 1).
 Si se obtiene alguna fila de ceros con término
independiente distinto de 0, el sistema es incompatible
(como en el sistema 2).
 Si se obtiene alguna fila de ceros y no estamos en el caso
anterior, el sistema es compatible indeterminado (como en
el sistema 3).

Nota: La clasificación de los sistemas según la forma


escalonada de su matriz ampliada se deduce del teorema de
Rouché-Frobenius.

Método de Gauss-Jordan
7 de julio de 2010 Publicado por Victoria Pérez

Este método debe su nombre a Carl Friedrich Gauss y a Wilhelm jordan. Se trata de una serie
de algoritmos del algebra lineal para determinar los resultados de un sistema de ecuaciones
lineales y así hallar matrices e inversas. El sistema de Gauss se utiliza para resolver un
sistema de ecuaciones y obtener las soluciones por medio de la reducción del sistema dado a
otro que sea equivalente en el cual cada una de las ecuaciones tendrá una incógnita menos
que la anterior. La matriz que resulta de este proceso lleva el nombre que se conoce como
forma escalonada.
Este método, permite resolver hasta 20 ecuaciones simultáneas. Lo que lo diferencia del
método Gaussiano es que cuando es eliminada una incógnita, se eliminará de todas las
ecuaciones restantes, o sea, las que anteceden a la ecuación principal así como de las que la
siguen a continuación. De esta manera el paso de eliminación forma una matriz identidad en
vez de una matriz triangular. No es necesario entonces utilizar la sustitución hacia atrás para
conseguir la solución.
Para resolver sistemas de ecuaciones lineales con el método Gauss Jordan, debemos en
primer lugar anotar los coeficientes de las variables del sistema de ecuaciones lineales con la
notación matricial, por ejemplo:

También se le llama matriz aumentada.


Luego de realizado lo anterior procederemos a transformar dicha matriz en una matriz
identidad, o sea una matriz equivalente a la inicial, de la forma:

Logramos esto aplicando a las distintas columnas y filas de las matrices, restas, sumas,
multiplicaciones y divisiones. Debemos tener en cuenta que las operaciones utilizadas se
aplicarán en todos los elementos de la fila.
En dicha matriz identidad no vemos los términos independientes. Esto sucede ya que cuando
la matriz original alcance la matriz identidad, los términos serán la solución del sistema y
verificarán la igualdad para cada variable que se corresponderán de la forma siguiente:
• d1 = x
• d2 = y
• d3 = z

Ahora teniendo clara esta base, analicemos detalladamente este método con un ejemplo
concreto.

Sea el siguiente sistema de ecuaciones:

Aplicaremos luego el primer paso, o sea que lo anotaremos en forma matricial:

Realizado lo anterior, podemos operar con las distintas columnas y filas de la matriz para así
convertirla en la matriz identidad, sin olvidar la forma del sistema:
Ahora debemos transformar el 2 de la primera fila de la matriz original en el 1 de la primera fila
de matriz identidad. Para realizar este paso multiplicamos toda la fila 1 por el inverso de 2, o
sea ½. Veamos como nos queda:

A continuación debemos obtener los dos ceros de la primera columna de la matriz identidad.
Para lograrlo buscaremos el opuesto de los números que se encuentren por debajo del 1 de la
primera columna. El opuesto de 3 será -3 y el de 5 -5. Hecho esto multiplicaremos los
opuestos de estos números por cada uno de los elementos de la fila primera y estos se
adicionarán a los números de sus respectivas columnas Por ejemplo en el caso de la segunda
fila, se multiplicará a -3 que es el opuesto de 3, por cada uno de los elementos de la primera
fila y se añadirá el resultado con el número correspondiente de la columna de la segunda fila.
Veamos el ejemplo:

A medida que realicemos este procedimiento operando con las distintas filas y columnas de la
matriz, observaremos como esta se transforma en el modelo de la matriz identidad. Finalizado
el proceso, encontraremos finalmente en la cuarta columna los valores de las variables.
Veamos entonces como nos quedaría:
x= 1
y= -1
z= 2
Resuelto el sistema de ecuaciones, podemos verificar como último paso:

Definición del método de Gauss


El método de Gauss consiste en transformar un sistema de ecuaciones en otro
equivalente
de forma que este sea escalonado.
Para facilitar el cálculo vamos a transformar el sistema en una matriz, en la que
pondremos
los coeficientes de las variables y los términos independientes (separados por una
recta).

 
 

Sistemas de ecuaciones equivalentes


 

Obtenemos sistemas equivalentes por eliminación de ecuaciones dependientes


si se cumple que:

 Todos los coeficientes son ceros.


 Dos filas son iguales.
 Una fila es proporcional a otra.
 Una fila es combinación lineal de otras.

Criterios de equivalencia de sistemas de ecuaciones

1Si a ambos miembros de una ecuación de un sistema se les suma o se les resta
una
misma expresión, el sistema resultante es equivalente.

2 Si multiplicamos o dividimos ambos miembros de las ecuaciones de un


sistema por
un número distinto de cero, el sistema resultante es equivalente.

3Si sumamos o restamos a una ecuación de un sistema otra ecuación del mismo


sistema, el sistema resultante es equivalente al dado.

4 Sin en un sistema se sustituye una ecuación por otra que resulte de sumar las
dos
ecuaciones del sistema previamente multiplicadas o divididas por números no
nulos,
resulta otro sistema equivalente al primero.
 

5 Si en un sistema se cambia el orden de las ecuaciones o el orden de las


incógnitas,
resulta otro sistema equivalente.

Ejemplos de sistemas de ecuaciones


 

Caso 1: sistema compatible determinado

3x + 2y + z = 1

5x + 3y + 4z = 2

x + y − z = 1

  

  

 
 

  

  

  

Caso 2: sistema compatible indeterminado

 
 

 
 

Caso 3: sistema incompatible

 
 

La diferencia es que en la eliminación Gaussiana, se hacen ceros debajo de la


diagonal principal, y entonces queda la última incógnita que se despeja
inmediatamente, después se va a la penúltima ecuación que ha quedado y se despeja
la penúltima incógnita y así sucesivamente.
El método de Gauss-Jordan continua haciendo operaciones de suma de filas haciendo
que por encima de la diagonal principal también haya ceros con lo cual queda una
matriz diagonal y las incógnitas se despejan sin mas que que hacer una división. Yo
prefiero el método primero, es muy pesado ir escribiendo la matriz tantas veces y en
esta página aun más.
x - 2y + z = 1
-2x + 5y - z = 2
-3x +4y + 2z = 3

1 -2 1 | 1 1 -2 1 | 1

0 1 1 | 4 0 1 1 | 4

0 -2 5 | 6 0 0 7 |14

Y aquí dejaríamos ya de operar con las matrices en la eliminación Gaussiana.


De la última ecuación tenemos
7z=14
z =2
con ello vamos a la fila segunda
y +2 = 4
y=2
y ahora a la primera
x -4 +2 = 1
x=3
Mientras que en Gauss-Jordan seguiríamos con la matriz, primero dividiríamos por 7
la última fila

1 -2 1 | 1

0 1 1 | 4

0 0 1 | 2

Ahora restaríamos la fila última a las dos de arriba

1 -2 0 |-1

0 1 0 | 2

0 0 1 | 2

Y ahora 2 veces la segunda la sumaríamos a la primera

1 0 0 | 3

0 1 0 | 2

0 0 1 | 2

Mes salíó muy sencillo el ejemplo, no hace falta dividir por nada ahora, ya tenemos
directamente la respuesta en cada fila, en la primera x=3, en la segunda y=2 y en la
tercera z=2
Y eso es todo.

S-ar putea să vă placă și