Documente Academic
Documente Profesional
Documente Cultură
Carolina B. Becerra O.
Agosto 2012
2
Indice general
1. Vectores en Rn 5
2. Sistemas de ecuaciones 11
3. Matrices 15
4. Determinantes 25
5. Espacios vectoriales 27
6. Transformaciones lineales 33
8. Ortogonalidad 43
9. Matrices Simetricas 49
3
4 INDICE GENERAL
Captulo 1
Vectores en Rn
5
6 CAPITULO 1. VECTORES EN RN
u + v Rn .
(u + v) + w = u + (v + w).
u + v = v + u.
u + 0 = u.
u + (u) = 0 .
u Rn .
(u + v) = u + v.
( + )u = u + u.
(u) = ()u.
1 u = u.
u v R.
u 0 = 0.
u v = v u.
u (v + w) = u v + u w.
(u v) = (u) v.
7
u u 0 y u u = 0 u = 0.
{
1 si i = j
Ejemplo 1.8. ei ej = para todo i, j = 1, . . . , n.
0 si i = j.
x1
Definicion 1.9. Norma de un vector: Dado u = ... Rn ,
xn
n
u = xi 2 = u u.
i=1
u = ||u.
u + v2 = u2 + v2 + 2u v.
|u v| uv.
u + v u + v.
1 v1 + . . . + m vm ,
S < S >.
Sistemas de ecuaciones
Definicion 2.2. Matriz nula es tal que todos sus coeficientes son 0.
x1
Definicion 2.5. Dada A = [v1 v2 . . . vm ] de n m y x = ... Rm , el
xm
producto de A por x es Ax = x1 v1 + x2 v2 + . . . + xm vm Rn .
A(x + y) = Ax + Ay.
A(x) = Ax.
A0 = 0.
11
12 CAPITULO 2. SISTEMAS DE ECUACIONES
Definicion 2.9. Una matriz se dice que esta en la forma escalonada (F.E.)
si:
1. a1,1 = 0.
2. Si el pivote de la fila i esta en la columna j, entonces el pivote de la
fila i + 1 esta en la columna k, tal que j < k. (Pivote: primer elemento
distinto de 0 de la fila).
3. Las filas nulas estan al final de la matriz.
Definicion 2.10. Una matriz se dice que esta en la forma escalonada re-
ducida (F.E.R.) si:
1. Esta es la F.E.
2. Todos los pivotes son iguales a 1.
3. Los vectores columna que contienen pivotes son canonicos.
Definicion 2.11. Dada una matriz, las operaciones fila son:
1. Tipo I: Intercambiar dos filas: Fi Fj .
2. Tipo II: Multiplicar una fila por un escalar no nulo: Fi Fi .
3. Tipo III: (pivotear) Sumar a una fila, un multiplo escalar de otra:
Fi Fi + Fj .
Observacion 2.12. Para solucionar un sistema de ecuaciones se lleva la
matriz ampliada a su F.E. o a su F.E.R., usando operaciones fila, luego se
reinterpreta el sistema y se resuelve recursivamente hacia arriba. Si el sistema
es consistente, a las variables que quedan en posiciones no pivotes se les llama
variables libres.
13
Para b = 0, el sistema
Matrices
Observacion 3.8. 1 A = A.
15
16 CAPITULO 3. MATRICES
A + B Mn,m (R).
(A + B) + C = A + (B + C).
A + B = B + A.
A + 0 = A.
A + (A) = 0.
A Mn,m (R).
(A + B) = A + B.
( + )A = A + A.
(A) = ()A.
1 A = A.
A(BC) = (AB)C.
A(B + C) = AB + AC.
(A + B)C = AC + BC.
IA = AI = A.
0A = A0 = 0.
Observacion
[ 3.12.
] En[ general
] el producto
[ de ]matrices
[ no]es conmutativo.
0 1 1 0 0 0 0 1
A = 0 0 , B = 0 0 y AB = 0 0 = 0 0
= BA.
17
(At )t = A.
(At ) = (A)t .
(A + B)t = At + B t .
(AB)t = B t At .
A es simetrica si A = At .
A es antisimetrica si A = At .
A es 1-1
Ker(A) = { 0 }.
Ax = 0 tiene solucion unica.
Columnas de A son L.I.
Rango de A es m.
19
A es sobre
Im(A) = Rn .
Ax = b es consistente para todo b Rn .
Ax = ei es consistente para todo vector canonico.
La FER de [A e1 . . . en ] no tiene filas de la forma [0 . . . 0 u] con u un vector no nulo.
Filas de A son L.I.
Rango de A es n.
Definicion 3.21. A de nm tiene inversa por la derecha si existe una matriz
B de m n tal que AB = I.
Teorema 3.22. Sea A una matriz de n m. Entonces
al menos una inversa, por ejemplo la siguiente matriz no tiene inversa por la
derecha ni por la izquierda.
1 0 0 0
0 1 0 0
0 0 0 0
Estudio de ut u y uut .
I EI Fi Fj EI Fi Fj EI Fi Fj
II EII Fi Fi EII Fi Fi g
E II Fi 1/Fi
g g
g
III EIII Fi Fi + Fj EIII Fj Fj + Fi EIII Fi Fi Fj
A = LU
qA = qAt = q( A+At )
2
( )
A + At
La matriz simetrica B = , es la unica tal que
2
qA = qB
A es invertible.
[ ][ ]
3 0 0 3 3 3
= 3 0
2 0 2 2 = Rt R
3 2 6 0 0 6
Captulo 4
Determinantes
|I| = 1
Si EI A = B |A| = |B|
25
26 CAPITULO 4. DETERMINANTES
|At | = |A|
Teorema 4.10. |A| = ai,1 Ci,1 + . . . + ai,n Ci,n para todo i = 1, . . . , n. (caso
i = 1)
Espacios vectoriales
Definicion 5.1. Cuerpo o campo K, +, conjunto tal que con las operaciones
suma y multiplicacion cumple:
+ es cerrada: , K + K
+ es asociativa: , , K ( + ) + = + ( + )
+ es conmutativa: , K + = +
Existe un neutro para la +: 0 : 0 + = + 0 =
Existe un inverso para la +: : + = + = 0
es cerrada: , K K
es asociativa: , , K ( ) = ( )
es conmutativa: , K =
Existe un neutro para la : 1 : 1 = 1 =
Existe un inverso para la : = 0 : = = 1
, , K ( + ) = +
Ejemplo 5.2. Q, R, C, Zp
Definicion 5.3. Un conjunto no vaco V es un espacio vectorial sobre el
cuerpo K si existen dos operaciones: suma y multiplicacion por escalar tal
que:
27
28 CAPITULO 5. ESPACIOS VECTORIALES
+ es cerrada: u, v V u + v V
+ es asociativa: u, v, w V (u + v) + w = u + (v + w)
+ es conmutativa: u, v V u + v = v + u
es cerrada: u V, K u V
u, v V, K (u + v) = u + v
u V, , K ( + ) u = u + u
u V, , K () u = (u)
u V 1 u = u
Pn (R) sobre R.
C[a, b] sobre R.
(u + v) = (u) + (v).
u es unico.
0V = 0V .
0 u = 0V .
29
u = 0V si y solo si = 0 o u = 0V .
U1 U2 es subespacio de V .
U1 + U2 = {u1 + u2 : u1 U1 , u2 U2 } es subespacio de V . Si en
este caso, U1 U2 = { 0 }, entonces se dice que la suma es directa y se
denota: U1 U2 .
S es LI #S 6 n.
S es LI < S >= V .
[u + v] = [u] + [v].
[u] = [u].
P21 es invertible.
(P21 )1 = P12
32 CAPITULO 5. ESPACIOS VECTORIALES
Captulo 6
Transformaciones lineales
T (0V ) = 0W .
T (v) = T (v).
Im(T ) = {w W : v V : T (v) = w} .
33
34 CAPITULO 6. TRANSFORMACIONES LINEALES
Reemplazndo:
Esquema:
[T ]12
V W
B1 B2
P31 P42
V W
B3 B4
[T ]34
([ ])
a b
T c d
= (a + b) + (b + c)x + (c + d)x2
1 1
2 2
[A]1 =
1 , [A]3 = 3
4 4
39
40 CAPITULO 7. VALORES Y VECTORES PROPIOS
0 si || < 1,
v si = 1,
no existe si || > 1.
d 0 ... 0
q(d ) 0 ... 0
1 1
0 d2 0 0 q(d 2 ) 0 1
A = L .. L1 q(A) = L .. L
. .
0 0 ... dn 0 0 ... q(dn )
d 0 ... 0
ed1 0 . . . 0
1
d
0 d2 0 0 e2 0
A = L .. L1 eA = L .. L1
. .
0 0 ... dn 0 0 ... edn
42 CAPITULO 7. VALORES Y VECTORES PROPIOS
Captulo 8
Ortogonalidad
uv =vu
u (v + w) = u v + u w
(u) v = (u v)
u u > 0 y u u = 0 si y solo si u = 0.
43
44 CAPITULO 8. ORTOGONALIDAD
U es un subespacio de Rn .
{0} = Rn .
Rn = {0}.
U = U
U U = {0}.
S es ortonormal si y solo si At A = I.
45
P + Q = I (como t.l.).
Ker(P ) = U , Im(P ) = U .
Ker(Q) = U , Im(Q) = U .
P 2 = P y Q2 = Q (como t.l.).
P y Q son simetricas.
P 2 = P y Q2 = Q (como matrices).
P + Q = I (como matrices).
u 1 = v1
v 2 u1
u 2 = v2 u1
u 1 u1
v 3 u1 v 3 u2
u 3 = v3 u1 u2
u 1 u1 u2 u2
. . ..
At A = (QR)t QR = Rt Qt QR = Rt IR = Rt R.
Dado que A es inyectiva, luego At A es positiva definida y basta tomar su
descomposicion con raz cuadrada R. Obteniendo R se calcula Q = AR1 .
1 1 1
0 0 0
Ejemplo 8.15. Sea U =< 1 , 2 , 3
>. Determine una base
1 0 1
ortonormal de U .
Solucion:
1 1 1
0 0 0
Sea A = 1 2 3
. Entonces
1 0 1
47
[ ]
3 3 3
At A = 3 5 5
3 5 11
[ ][ ]
3 0 0 3 3 3
= 3 0
2 0 2 2 = Rt R
3 2 6 0 0 6
[ ]
1/ 3 1/2 0
Luego R1 = 0 1/ 2 1/6 .
0 0 1/ 6
1 3 0 2 6
0 0 0 .
Entonces Q = 1 3 1 2 1 6
1 3 1 2 1 6
1 3 0 2 6
0 0 0
Entonces U =< 1 3 , 1 2 , 1 6 >
1 3 1 2 1 6
Matrices Simetricas
U es ortogonal.
U x = x, para todo x Rn .
U x U y = x y, para todo x, y Rn .
49
50 CAPITULO 9. MATRICES SIMETRICAS
1. Ker(At A) = Ker(A).
2. Im(At A) = Im(At ).
U = [U1 U2 ].