Documente Academic
Documente Profesional
Documente Cultură
UNLP
Matematica C
Modulo II
I. Transformaciones Lineales
Temario
Clase 1: Deniciones. Ejemplos. Casos especiales. Imagen y espacio nulo de una
transformacin lineal. Espacios isomorfos. Propiedades.
Clase 2 Representacion matricial. Ejemplos. Diferentes representaciones de acuerdo a las
bases consideradas. Representacion matricial y caractersticas de la transformacion.
Matrices Semejantes. Propiedades. Ejemplos. Aplicaciones.
1 Introduccion
Objetivo Se estudia aqu una clase de funciones denominadas transformaciones lineales, que van de un espacio vectorial V en otro W .
Una transformacion lineal que se aplica desde un espacio vectorial V en si mismo
(W = V ) se denomina usualmente \un operador lineal".
Las transformaciones lineales pueden pensarse como funciones de una sola variable,
donde el \argumento" de la funcion es un vector de un espacio vectorial V , y el \valor"
de la funcion es un vector en el espacio vectorial W (pudiendo W ser el mismo V ).
Usaremos la notacion funcional para describir una transformacion lineal L ...
w = L (v)
v 2 V, w 2 W
3x
2. Operador proyeccion:
x
x + y
1
1
:x + :y =
Luego
x2 + y2
x
:x + :y
1
1
;(:x2+ :y2)
x
y
L (:x + :y) =
= : ;x1 + : ;y1
2
2
= :L (x) + :L (y)
;x
; (:x + :y ) ;x ;y
2
2
2
2
= :
+ :
L (:x + :y) =
:x1 + :y1
= :L (x) + :L (y)
x1
y1
5. Transformacion de inversi
;on:x
Si se dene: L (x) = ;x = ;x1 .
2
; (:x + :y ) ;x ;y
1
1
1
1
= :
+ :
L (:x + :y) = ; (:x + :y )
2
2
= :L (x) + :L (y)
;x2
;y2
Comentarios Observar que esa formula se puede obtener tambien mediante la aplicacion de alguna transformacion de las ya vistas, por ejemplo,
...usando:
(a) La transformacion de escala con c = ;1,
o ...
(b) Rotar el vector x en (en sentido anti-horario o sentido horario),
o ...
(c) Re
ejar el vector x a traves de la recta perpendicular a el
o ... hacer
(d) Dos rotaciones sucesivas, primero el vector x se rota con = =2 (en cualquiera de
las dos direcciones), y luego volver a rotar el resultado:
... Si L1 rota al vector x en =2, entonces una inversion puede realizarse aplicando
dos veces L1
;x ;x
2
1
L (x) = L1 (L1 (x)) = L1
=
= ;x
;x2
x1
L = L21
Si se tiene ...
;x :x
L (x) = ;x1 :x2 :e1 + x2 :e1 = x1 2 . Analizando ....
2
;x x
1 2
x2
Ejercicios
0.1 (i) > La proyeccion ortogonal en <3 sobre el plano-xz es una transformacion lineal?.
Gracar.
(ii)> La proyeccion ortogonal en <3 sobre el plano-yz?
(iii) >La proyeccion sobre el eje-x?. Gracar. (iv) >La proyeccion al origen?
X 0.2 Considerar la transformacion de <2 en <2 .
x 7! x=2 :
y
y=3
(i) Los pares (2; 0), (;2; 0), (0; 3), el (0; ;3) en cuales pares se transforman? .
(ii) Encontrar la imagen bajo esta aplicacion de la elipse: (llamar al transformado
(~x; y~) por ejemplo).
x
f y (x2 =4) + (y2=9) = 1g
Otro ...
0 x 1
2
Problema Dada la L : R 2 ;! R 3 , denida como L (x) = @ x1 A,...
x1 + x2
00 11
A = @1 0A
1 1
... y vericar que la formula y = L(x) coincide con y = Ax para todo x 2 <2 .
Comentarios ... Sirve el ejemplo anterior para ilustrar sobre \ que es posible" hallar
una matriz adecuada A, tal que L(x) coincida con el producto Ax.
... El \resultado general" se obtendra en una seccion proxima.
Antes consideremos...
Zb
a
f (x) dx
L (:f + :g) =
Zb
a
(:f + :g) (x) dx
Zb
= : f (x) dx + :
a
= :L (f ) + :L (g)
Otro caso...
9
Zb
a
g (x) dx
LA (x) = A:x
... Es facil ver que cumple las propiedades de linealidad:
LA (:x + :y) = A: (:x + :y)
= :A:x + :A:y
= :LA (x) + :LA (y)
Objetivo Estamos interesados en un resultado recproco del ejemplo previo, es decir ...
> Es cierto que cualquier transformacion lineal L de R n en R m se puede denir en
terminos de una matriz AL de m n ?
Y mas ...
... > Es cierto que cualquier transformacion lineal L : V ! W , V de dimension n, W
de dimension m, puede ser denida en terminos de una matriz AL de m n ?
... Responderemos esa pregunta en la seccion proxima.
1. L (0V ) = 0W
2. Si v1 ; : : : ; vn 2 V , entonces ...
L (1:v1 + + n:vn) = 1 :L (v1) + + n:L (vn ), y
3. L (;v) = ;L (v) para todo v 2 V
Ejercicios
X 2.1 Si L : V ! W es lineal, supongamos que L(~v1) = w~ 1, : : : , L(~vn ) = w~ n para los
vectores w~ 1, : : : , w~ n de W .
(a) Si el conjunto de los vectores w~ 's es linealmente independiente, > debe el conjunto
de los ~v 's tambien es independiente?
(b) Si el conjunto de los ~v 's es lin. independiente, debe el conjunto de los w~ 's
tambien ser independiente ?. Pensar por ejemplo, en las transformaciones en <3,
que son proyecciones de <3 sobre el plano-xy. Pensar tambien, en la L(x) = 0 para
todo x 2 <3.
Estudiamos ...
10
nu (L) = fv 2 V : L (v) = 0W g
2. Imagen de un subespacio S de V : es el conjunto de vectores fwg en W que son
imagen por L de los elementos v en S , se denota
Cada uno de estos dos conjuntos de vectores es un subespacio en los respectivos espacios vectoriales:
...
x
luego...
x 2 nu (L) si y solo si x1 = 0
0
12
x + x
;! R , denida por L (x) = 1 2 .
Ejemplo L : R
Si x 2 nu (L), entonces
3
x2 + x3
x1 + x2 = 0
x2 + x3 = 0
resolviendo ...
si la variable independiente x3 = , se tiene
01 011
x = @;A = : @;1A
... por tanto, nu (L) es el subespacio 1-dimensional de R 3 generado por este vector.
Supongamos que S es el subespacio de R 3 generado por e1 y e3 . Esto es, todos los
vectores x de la forma
01
x = @ 0A
( y escalares)
;
L R3 = R2
13
Ejercicios
X 3.1 Decidir si las L : <3 ! <2 son lineales. Si lo son estudiar el nu(L), y la imagen de
L.
0x1
0x1
0x1
(a) L(@y A) = x + xy + z (b) L(@y A) = 00 (c) L(@y A) =
z
z
2x + y z
3y ; 4z
X 3.2 Decidir
a si bson
lineales las aplicaciones L : M22 ! <.
(a) L( c d ) = a + d
a b
(b) L( c d ) = ad ; bc
3.3 Es la aplicacion identidad una transformacion lineal?. Hallar el nu(L), y la imagen
de L.
X 3.4 Explicar este enunciado: \Decir que una funcion f : <; > < es \lineal" es diferente
que decir que su graca es una recta" (Pensar por ejemplo en la recta y = mx + 2).
3.5 Asumir que L es una transformacion lineal de V en V , y que h~ 1 ; : : : ; ~ ni es una
base de V . Probar :
(a) Si L(~ i) = ~0 para cada elemento de la base entonces L es la funcion \ cero".
(b) Si L(~ i) = ~ i para cada vector de la base entonces L es la identidad.
(c) Si hay un escalar r tal que L(~ i ) = r ~ i para cada vector basico entonces
L(~v) = r ~v para todo los vectores en V .
X 3.6 Vericar que la transformacio0n L1: <3 ! <
x
@yA 7! 3x ; y ; z
z
es lineal. Generalizar.
3.7 (a) Mostrar que para todo k, la k-th derivada
dk =dxk en el espacio Pn es una transformacion lineal. Concluir que para escalares
cualesquiera ck ; : : : ; c0 la aplicacion
dk f + c dk;1 f + + c d f + c f
f 7! dx
k;1 k;1
1
0
k
dx
dx
es una transformacion lineal en ese espacio.
3.8 Mostrar que una composicion de funciones lineales es lineal.
X 3.9 Si L : V ! W es lineal, supongamos que L(~v1 ) = w~ 1, : : : , L(~vk ) = w~ k para los
vectores w~ 1, : : : , w~ k de W .
(a) Si el conjunto de los w~ 's genera W , > debe el conjunto de los ~v 's generar V ?
Pensar, por ejemplo en transformaciones de <3, sobre <2. Proponer otros ejemplos
que ilustren.
(b) Si el conjunto de los ~v 's genera V , debe el conjunto de los w~ 's generar W ?.
Pensar por ejemplo en L : <2; > <3 .
14
Un caso especial:
BBx12 CC
[v]B = B
@ ... CA
xn
es una n-upla unica, por ser linealmente independientes los vectores de la base B . Es
decir,...
... para cada v de V hay una unica n-upla en esa base de Ren.
Se puede denir la correspondencia:
0x 1
1
B
C
x
2C
B
T
L (v) = (x1 ; x2; : : : ; xn) = B
@ ... CA
xn
B = [v1 ; : : : ; vn].
v = x1 :v1 + + xn:vn
15
(a) Vericar que si toma un subespacio de dimension k, k < n en V , la imagen L(S )
tambien es un subespacio k-dimensional de <n.
(b) La imagen por L;1 de cualquier subespacio k-dimensional (k < n) de R n es tambien
un subespacio k-dimensional en V .
aplicacion entre esos espacios, con esas propiedades, se dice que es un \isomorsmo"
entre ellos.
... Luego, se dice que ambos espacios son \ isomorfos" porque hay una correspondencia
\lineal biyectiva" entre sus elementos, y de tal manera que \todo lo que vale en uno se
hereda en el otro" (a pesar de no ser el mismo) !!.
L(r~v) = r L(~v)
(\Morsmo "signica aplicacion, as \isomorsmo " signica una aplicacion que expresa
\igualdad".)
Ejercicios
4.1 Probar que un espacio V es n-dimensional \ sii" es isomorfo a <n. Ayuda: Fijar
una base B para el espacio y considerar una aplicacion que transforme cada elemento
de la base al vector de coordenadas en esa base.
16
4.2 >Puede concluir que es cierta la armacion siguiente ? : \ un par de espacios son
Objetivo Veamos que cualquier transformacion lineal entre espacios vectoriales de dimension nita se puede representar mediante una matriz A.
Tal matriz A dependera de las bases que se consideren en V y W .
L : R n ;! R m
0 1
a
BB a12jj CC
L (ej ) = B
@ ... CA = aj
amj
As ....
0 a a ::: a 1
BB a1121 a1222 ::: a12nn CC
A = (aij ) = B
@ ... ... :::: ... CA
am1 am2 ::: amn
Conclusion ... Se pudo expresar L(x) = Ax, usando la matriz A recien denida.
aunque ...
...si hay que aclarar que para cada L(ej ) las coordenadas asignadas(las columnas de
A) son las que corresponden a la base de W = <m. En nuestro caso podemos suponer que
en <m se uso la base canonica.
18
Ejemplo L : R
Vericacion:
x + x
;! R , denida por L (x) = x12 + x23 (ejemplo anterior)
011
a1 = L (e1 ) = L @0A = 10
10
2
a2 = L (e2 ) = 1
0
a3 = L (e3 ) = 1
1
A = (a1 ; a2; a3 ) = 0 11 01
1
A:x = 0 11
0x 1
0 : @x1 A = x1 + x2 = L (x)
2
1
x +x
x3
y = L(x) = Ax
19
Ejercicios
0.1 Hallar la matriz que representa la aplicacion L : <2 ! <2,respecto de la base canonica
, de las siguientes transformaciones:
(a) La aplicacion Ls : <2 ! <2 que es la dilatacion con coeciente s, tal que a cada
(x; y) ! s (x; y).
(b) Idem para la re
exion L` : <2 ! <2, respecto de la recta y = x que pasa por el
origen.
(c) Idem para la re
exion respecto de la recta x = 0.
(d) Considerar la transformacion que transforma los vectores, de acuerdo a lo que
se indica abajo:
1
0
2k=(1 + k2)
;
7
!
;
7
!
0
2k=(1 + k2 )
1
;(1 ; k2)=(1 + k2 )
Vericar que es una re
exion a traves de una recta y = kx (de pendiente k).
Hacer un graco, por ejemplo para k = 2.
L`
L`
(3)
y = [w]F = [L (v)]F
(4)
[w]F = A:[v]E
(5)
y = A:x
(6)
es decir...
... esta matriz A sera la matriz que representa a L con respecto a las bases ordenadas E
de V y F de W .
Veamos ... como hallarla?
0 1
BB aa12jj CC
[L (vj )]F = B .. C = aj
@.A
amj
aj = [L (vj )]F
21
Conclusion Si se dene A ...
A = (aij )
con elementos faij g denidos mediante
A = (a1 ; : : : ; an)
(7)
donde cada columna, indicada con aj , es el vector aj de las coordenadas de L(vj ), respecto
de la base F
La expresion (6) puede ser escrita como
1
b1 = 1
y b2 =
;1
1
ai , la columna i-esima de A, esta determinada por los coecientes de L (ei) con respecto
a la base [b1 ; b2 ] para cada i = 1; 2; 3.
1
A = 0 01 01
1 1
A= 0 2
... Esto es simple para espacios de peque~na dimension (n y m = 1; 2; 3) y como consecuencia con peque~nas matrices de transicion. Pero para sistemas grandes necesitamos
un camino mas practico para encontrar A.
En la seccion proxima vemos como cambiar de una matriz a otra, en forma mas general
...
1
0
7! @2A
7! @ 1 A
0
1
0
;1
Usando las bases canonicas, encontrar
(a) la matriz de representacion;
(b) Una formula general para T (~v).
1.2 Describir geometricamente la accion sobre <2 de la aplicacion, que con respecto de
la base canonica, se representa por la matriz:
3 0
0 2
Lo mismo, para las siguientes matrices
usando
labase can
onica:
1 0
0 1
1 3
0 0
1 0
0 1
23
La imagen de L:
L (V ) = fw 2 W : tal que existe v 2 V tal que L(v) = wg...
... es equivalente al f[w]F : [w]F = A [v]E = Ax; g, para todo x 2 <n . Es decir, son
todas las combinaciones de las columnas de A ...
... Es equivalente al espacio columna de A. Esto es ...
... el subespacio de R m generado por las columnas de A.
Entonces ... dim (nu (L)) = dim (N (A)) nulidad de A
dim (L (V )) = rango (A)
dim (nu (L)) + dim (L (V )) = n
Ejercicios
1 2
2.1 Sea una matriz A = 3 6 , y supongamos que ella representa una aplicacion
L : V ! W con respecto a las bases B y D. Como A tiene dos columnas , V es 2dimensional. Lo mismo A tiene dos las W es 2-dimensional. La accion de L sobre
un elemento cualquiera del dominio es :
x
x + 2y
y B 7! 3x + 6y D
(a) Encontrar el espacio nulo (nu(L)) de cualquier aplicacion representada por esa
matriz.
(b) Encontrar la dimension del espacio nulo o nulidad de tales aplicaciones.
(c) Encontrar el conjunto \Imagen (L)=L(V)" o sea el espacio columna de la matriz
que la representa. Encontrar una base de este espacio.
(d) Encontrar la dimension o rango (rank= dimension del espacio columna) de la
aplicacion L.
(e) Chequear si el rango(A) + nulidad(A) es igual a la dimension del dominio.
2.2 Repetir el ejercicio anterior, pensando que es una transformacion de <2 en <2, y
pensando que se usa la base canonica.
0 x 1 0 x + y ; 3z 1
2.3 Dada la transformacion L : R3 ! R3; L @ y A = @ 2y + z A
z
x ; y + 4z
24
25
Ejercicios
2.1 Representar la transformacion Identidad sobre cualquier espacio con respecto de
una base B; B , donde B es cualquier base siendo el espacio n-dimensional. Vericar
si esa matriz puede ser la matriz
0
1
1 0::: 0
BB0 1 : : : 0CC
RepB;B (id) = B
@ ... CA
0 0 : : : 1 B;B
es la matriz identidad n n.?
2.2 Suponer T : V ! W es no singular (biyectiva), as que para cualquier base B =
h~ 1; : : : ; ~ ni V la imagen T (B ) = hT (~ 1); : : : ; T (~ n)i es una base para W .
(a) Representar la aplicacion T con respecto a B; T (B ).
(b) Para un elemento ~v en el dominio, cuya representacion tiene componentes c1,
: : : , cn, representar la imagen T (~v) con respecto a la base de la imagen T (B ).
2.3 Encontrar la imagen de la transformacion lineal de <2 representada con respecto
de la base
andar(canonica) por cada matriz:
1 est
a b
0
0
0
(a) 0 0 (b) 3 2 (c) una matriz de la forma 2a 2b
X 2.4 Puede una misma matriz representar 2 diferentes aplicaciones lineales? Esto es,
puede RepB;D (T ) = RepB;^ D^ (T^)?
X 2.5 Hemos visto como representar rotaciones en el plano, alrededor del origen usando
la base canonica. Ahora... en <3 :
(a) La rotacion de todos los vectores de <3 mediante un angulo alrededor del x es
una T de <3. Representarla con respecto a la base canonica.
Redenir la rotacion previa, de tal forma que si uno se coloca en el origen con
la cabeza en (1; 0; 0), el movimiento de rotacion se ve en el sentido horario.
(b) Repetir el previo, rotando alrededor del eje-y (mirando desde el extremo de ~e2.)
(c) Repetir, acerca del eje-z.
X 2.6 Decidir si cada vector dado abajo, esta contenido en la imagen de la aplicacion de
<3 a <2representada
con
respecto a las bases
can
onicas por la matriz:
(a) 10 11 34 , 13 (b) 24 00 36 , 11
X 2.7 Sea V un espacio n-dimensional con bases B y D. Considerar una aplicacion T
que envia para cada ~v 2 V , el vector columna representando a ~v con respecto a B
al vector columna representando a ~v con respecto a la base D. Mostrar que es una
transformacion lineal de <n.
2.8 El hecho que para cualquier aplicacion lineal el rango de la matriz + la nulidad
de ella es igual a la dimension del dominio V , muestra que una condicion necesaria
para que exista una aplicacion lineal \suryectiva" entre los dos espacios, es decir
satisfaciendo: T (V ) = W , es que el codominio W no sea de dimension mayor que V .
26
3 Matrices Semejantes.
Consideremos un operador lineal sobre un espacio vectorial V n-dimensional...
L : V ;! V
... La matriz de n n que representa a L depende de la base elegida en V .
Si ...
E y E^ son dos bases ordenadas de V ;
A es la matriz de representacion de L con respecto a E ;
A^ es la matriz de representacion de L con respecto a E^ ;
S es la matriz de transicion de la base E^ a la base E (repasar este tema)
... entonces:
A^ = S;1:A:S
Esquematicamente ...
y^ = S ;1:y
=
=
=
=
... entonces
S ;1: (A:x)
S; ;1: (A:S:x^)
S ;1:A:S :x^
^ x^
A:
Ejemplo L : R
2x
1
;! R , denida por L (x) =
.
2
x1 + x2
1
;1
Considerar las bases: E = [e1; e2 ], E^ = [u1 ; u2 ] con u1 = 1 y u2 = 1 .
2
0
L (e1) = 1 y L (e2) = 1
la matriz de representacion de L con respecto a E = [e1 ; e2 ] es
2 0
A= 1 1
1
;1
y u2 =
28
;1
1 .
3
2x 6
1
, L (x) =
=
con respecto a la base canonica.
Por ejemplo, si x = 1
x1 + x2
4
^
Si lo pensamos con respecto a la base E = [u1 ; u2 ]
1 ;1
x = 2: ;
= 2:u1 ; u2
1
esto es
2
[x]E^ = ;1
^
[L (x)]E^ = A:
2[x];E^1 2
= 0 1 : ;1
5
= ;1
Vericacion:
Matrices semejantes.
B = S ;1:A:S
Si B es semejante a A entonces
A =
=
=
=
...
wn = s1n:v1 + s2n:v2 + + snn:vn
02
Ejemplo L : R 3 ;! R 3 , denido por L (x) = A:x, donde A = @1
2 0
1 2A.
1 1 2
Por denicion, A representa a L con respecto a la base canonica [e1 ; e2 ; e3]. Buscaremos la matriz D que represente a L con respecto a la base [y1; y2; y3], donde
011
0;21
011
y1 = @;1A ; y2 = @ 1 A ; y3 = @1A
0
1
1
Calculamos
L (y1) = A:y1 = 0 = 0:y1 + 0:y2 + 0:y3
L (y2) = A:y2 = y2 = 0:y1 + 1:y2 + 0:y3
L (y3) = A:y3 = 4:y3 = 0:y1 + 0:y2 + 4:y3
y entonces
00 0 01
D = @0 1 0A
0 0 4
Tambien podemos calcular D mediante la matriz de transicion Y = (y1 ; y2 ; y3)
D = Y0;1:A:Y 1 0
1 0 1 ;2 11
1 ;2 1 ;1 2 2 0
= @;1 1 1A : @1 1 2A : @;1 1 1A
00 0 1;31 31 021 21 021 0 10 ;12 111
= 31 @;1 ;1 2A : @1 1 2A : @;1 1 1A
0 10 ;13 131 010 1;2 2 41 0 1 1
= 13 @;1 ;1 2A : @0 1 4A
1 1 1
0 1 4
=
=
00 0 0 1
1 @0 3 0 A
3 0 0 12
00 0 01
@0 1 0A
0 0 4
30
valores).
(1) Se puede generalizar el tema anterior para L : <n ! <m, para obtener la relacion
entre las matrices asociadas respecto de bases diferentes. Ver tal resultado en p.p.
495.
(2) En pagina 495, leer Geometra de las transformaciones de <2 en <2 , cuando la
matriz asociada AL invertible.
Ejercicios
X 3.1 Dos matrices son semejantes si representan la misma transformacion, cada una
32
4. Composici
on de transformaciones lineales
(operaciones sucesivas)
Consideremos dos transformaciones lineales L : V W , G : W U , con V , W ,
U espacios vectoriales. Supongamos que primero aplicamos L sobre un vector v V , y
luego aplicamos G sobre el vector resultante w = L(v) W . El resultado es el vector
u = (G L)(v) = G(L(v))
(1)
v1
w1
.
..
. = ML ..
vn
wm
u1
w1
..
.
. = MG ..
vp
wm
v1
(2)
v1
..
.
vn
(3)
donde en el u
ltimo paso hemos usado la asociatividad del producto matricial. Esto implica
que la representacion matricial MGL de la composicion G L es el producto MG ML de
las matrices que representan a G y L:
MGL = MG ML
(4)
Observar que la matriz ML , que representa a la transformacion que se aplica primero (L),
esta a la derecha de la matriz MG , que representa a la que se aplica a continuacion (G).
33
Ejemplo: En el ejercicio 4.2, en las bases canonicas de R3 y R2 , obtenemos las representaciones matriciales (verificar!)
1 1
1 1 0
, MG =
ML =
2 2
0 1 1
tal que
x
x
x+y
1 1 0
y
=
=
L y
y+z
0 1 1
z
z
x+y
x
1 1
x
=
=
G
2x 2y
y
2 2
y
Por lo tanto,
x
x
1 1 0
1 1
y
(GL) y =
0 1 1
2 2
z
z
x
1 2 1
y
=
2 0 2
z
x + 2y + z
=
2x 2z
1 2 1
, con (G L)(x, y, z) = (x + 2y + z, 2x 2z).
= M G ML =
2 0 2
o sea, MG L
(5)
BU ,BW
MGL = Rep (GL). Esto es valido para espacios vectoriales generales de dimension finita.
BU ,BV
(7)
y su representacion matricial es
MLk = ML MLk1 = MLk
es decir, la potencia k de la matriz ML . Por definicion, L0 = I, con I el operador identidad.
Y si L es un operador lineal inversible (o sea un automorfismo: un isomorfismo de V
en V ), de forma que exista la transformacion inversa L1 tal que L1 L = L L1 = I
(o sea, (L1 L)(v) = v v V ) entonces
ML1 = ML1
(8)
La representacion matricial de la inversa L1 es la inversa de la matriz ML que representa a L. Un automorfismo queda pues representado por una matriz ML no singular
(det(ML ) 6= 0).
Ejercicio: 4.3 Probar que si L1 , ML1 = ML1 .
2x + y
x
2
2
, su representacion
=
Ejemplo: Si L : R R esta dado por L
x 2y
y
matricial en la base canonica es (probar!)
2
1
ML =
1 2
La representacion matricial de L2 es entonces
3 0
2
1
2
1
2
=
ML 2 = M L =
0 3
1 2
1 2
de forma que
L
x
y
3 0
0 3
x
y
3x
3y
es decir, L2 (x, y) = (3x, 3y), lo que equivale a L2 = 3I, con I el operador identidad.
Ademas, como ML es no singular, L es inversible y la representacion matricial de su
inversa esta dada por
1
2
1
1
ML1 = ML =
3 1 2
de forma que
L
x
y
1
=
3
2
1
1 2
x
y
1
=
3
35
2x + y
x 2y
0 1 0
ML = 1 0 0
0 0 1
ii) Hallar ML2 y verificar que L2 es el operador identidad.
0 1 0
MD = 0 0 2
0 0 0
ii) Hallar la representacion matricial en esta base de la derivada segunda D2 = D D, y
verifcar que MD2 = MD2 .
4.4 Composici
on de transformaciones lineales en R2
Consideremos ahora algunos ejemplos de operadores lineales L : R2 R2 . La reflexion
de un vector v respecto de la recta y = x esta dada por (recordar!)
y
x
0 1
x
=
=
L
x
y
1 0
y
0 1
.
siendo su representacion matricial en la base canonica ML =
1 0
Es evidente de la definicion que L2 (xy ) = (xy ), o sea, L2 = I (operador identidad), verificandose que ML2 = (10 01 ) (probar!).
La rotacion de angulo /2 en sentido antihorario de un vector v esta dada por
y
x
0 1
x
=
=
R
x
y
1 0
y
y
1.0
LHvL
RHvL
y=x
0.5
-1.0
0.5
v
0.5
-0.5
x
1.0
y
1.0
-1.0
0.5
-0.5
-0.5
-0.5
-1.0
-1.0
36
v
x
1.0
0 1
1 0
x
y
1 0
0 1
x
y
x
y
x
y
1 0
0 1
x
y
x
y
y
1.0
RLHvL
0.5
-1.0
0.5
0.5
-0.5
x
1.0
-1.0
0.5
-0.5
-0.5
-0.5
-1.0
-1.0
x
1.0
LRHvL
Por lo tanto, vemos que el resultado final depende del orden de la composici
on, lo
que se refleja en la no conmutatividad del producto matricial asociado.
Se define el conmutador de dos operadores L : V V , G : V V como
[G, L] = GL LG
37
MR ML ML MR =
0 1
0 1
0 1
que implica RL LR = 2RL.
Mencionemos finalmente que la proyeccion ortogonal de un vector sobre el eje x esta dada
por (graficar!)
x
x
1 0
x
=
=
Px
0
y
0 0
y
y la proyeccion ortogonal de un vector sobre el eje y esta dada por
0
x
0 0
x
=
=
Py
y
y
0 1
y
Ejercicio 4.6 Sea F es el operador lineal que primero rota todo vector un angulo /2 en
sentido antihorario y luego lo proyecta sobre el eje x. Hallar su representacion matricial
en la base canonica y una expresion para F (xy ).
Ejercicio 4.7 Sea G es el operador lineal que primero proyecta todo vector sobre el
eje x y luego lo rota un angulo /2 en sentido antihorario. Hallar su representacion matricial en la base canonica y una expresion para G(xy ).
Ejercicio 4.8 a) Hallar la representacion matricial en la base canonica de la inversa
de los operadores R, y L anteriores.
b) Tienen Px y Py inversa?
c) Encuentre la representacion matricial de Px Py y Py Px . Justificar el resultado.
Ejercicio 4.9 a) Mostrar que la representacion matricial en la base canonica de una
reflexion respecto de la recta y = kx, con tan = k, es
cos 2 sin 2
sin 2 cos 2
Halle su determinante.
b) Recordando que la representacion matricial en la base canonica de una rotacion de
angulo antihorario es
cos sin
sin cos
mostrar que la composicion de dos rotaciones es otra rotacion. Halle tambien el determinante de la matriz anterior.
c) Muestre que la composicion de dos reflexiones es una rotacion.
d) Muestre que la composicion de una reflexion con una rotacion es otra reflexion.
38
Matematica C
II. Proyecciones. Bases Ortogonales
1 Proyecci
on
En secciones previas hemos usado la proyeccion de vectores de <3 sobre el plano xy
(subespacio). Esta proyeccion muestra como el vector cae sobre su sombra.
Denicion La proyeccion ortogonal de ~v sobre la recta (que pasa por el origen) generada
por el vector no nulo ~s es el vector
cp~s
...
proj[~s ] (~v) =
~v ~s ~s
~s ~s
1
~s = 2
... Luego los calculos son los de rutina.
0@11A
= 2x, primero
0x1
@y A
z
sobre el eje- y es
01
;x y z @01A 0 1 0 1
0
0
0001 @1A = @yA
;0 1 0 @1A 0
0
0
lo cual se corresponde con lo esperado por nuestra intuicion. Gracar.
Otra forma de pensar la proyeccion de v sobre la recta...
Desde el dibujo que precede a la denicion observamos que el vector ~v se ha descompuesto en dos partes:
(1) La parte sobre la recta: p~ = cp~s), que es el vector proyectado; y
...
(2) la parte que es ortogonal a la recta: ~v ; cp~s.
As la proyeccion ortogonal de ~v sobre la recta generada por ~s es la parte del ~v que
yace en la direccion del vector ~s.
Una forma util de pensar la proyeccion ortogonal de ~v sobre la recta indicada ...
... es pensar que la proyeccion de ~v es el vector o punto en la recta que esta mas cerca
a ~v . Es decir hallar en la recta el punto cuya distancia al v es mnima. Repasar el dibujo.
Problema.
Dada una recta que no pasa por el origen.
... La proyeccion de ~v sobre esa recta es el vector o punto en la recta que esta mas
cerca a ~v. Es decir, se debe hallar en la recta el punto cuya distancia al v es mnima.
Gracar.
... > Como puede hallar el punto sobre esa recta que esta mas cerca de v ?.
Ejercicios
X 1.1 Proyectar el primer vector ortogonalmente sobre la recta que pasa por el origen
generada por el segundo vector.
011 0 3 1
011 0 1 1
2 3
2 3
(a) 1 , ;2 (b) 1 , 0 (c) @1A, @ 2 A (d) @1A, @ 3 A
;1
4
X 1.2 Proyectar el vector dado ortogonalmente sobre la recta indicada.
4
12
3
2
(a) 1 , = c 1 | c
3
4
(b)
1
1
, la recta y = 2x
1.3 Aunque lo desarrollado ha sido guiado por representaciones graficas, no nos restringimos a espacios que podemos dibujar. Por ejemplo, en 4 , proyectar ~v sobre la recta ,
con
1
1
~v =
|c
= c
1
1
1
3
1
2
.
1.4 Consideremos en la proyeccion ortogonal sobre la recta generada por ~s =
3
1
sobre la direccion de ~s.
(a) Proyectar ~v =
2
x
sobre la direccion de ~s es
(b) Mostrar que la proyeccion de un vector general ~v =
y
x + 3y
x
/10
=
proj [~s]
3x + 9y
y
(c) Encontrar la representacion matricial en la base canonica de esta proyeccion.
1.5 Al proyectar un vector ~v , la proyeccion separa a ~v en dos partes: proj [~s] (~v ) y
~v proj [~s] (~v ), que son vectores ortogonales.
(a) Mostrar que si son no nulos, forman un conjunto linealmente independiente.
(b) Que es la proyeccion ortogonal de ~v sobre una recta que pasa por el origen si ~v
esta contenido en esa recta? Como es ~v proj [~s] (~v ) en este caso?
(c) Mostrar que si ~v no esta en la recta y no es perpendicular a ~s entonces el conjunto
{~v , ~v proj [~s] (~v ) } es linealmente independiente.
1.6 Mostrar que la proyeccion de ~v en la recta generada por ~s tiene longitud igual al
valor absoluto del n
umero ~v ~s dividido por la longitud del vector ~s .
1.7 Encontrar la formula para la distancia de un punto a una recta que pasa por el origen.
1.8 Encontrar el escalar c tal que c~s = (cs1 , cs2 ) este a mnima distancia del punto (v1 , v2 ),
utilizando minimizacion de funciones. Generalizar a n .
1.9 Probar que la longitud de la proyeccion ortogonal de un vector ~v sobre una recta es
mas corta que la del vector ~v .
1.2 Ortogonalizaci
on de Gram-Schmidt
En la seccion previa se sugirio que al proyectar sobre la recta (que pasa por el origen),
dirigida por un vector ~s, se descompone al vector ~v en dos vectores que son ortogonales:
~v = proj [~s] (~v ) + ~v proj [~s] (~v )
Luego, ~v es suma de dos vectores ortogonales. Si ambas partes son no nulas (cuando
podra ocurrir otra cosa?) son dos vectores linealmente independientes por ser ortogonales.
Ahora, trabajamos sobre esa idea ...
5
Denicion Los vectores ~v1; : : : ;~vk 2 <n son mutuamente ortogonales si todo par de
vectores son ortogonales: Si i =
6 j entonces el producto escalar ~vi ~vj es cero, para todo
par i , j .
As ...
Teorema Si los vectores de un conjunto f~v1 ; : : : ;~vk g <n son no nulos y mutuamente
ortogonales entonces el conjunto es linealmente independiente.
muestra, como ~vi es no nulo, que ci es cero. Vale para cada i = 1; :::k. Luego, los k
vectores son linealmente independientes.
Sin embargo, podemos alcanzar una recproca \parcial" en el sentido que \ para todo
subespacio de <n existe al menos una base de vectores mutuamente ortogonales".
4 1
B=h 2 ; 3 i
... Sin embargo, podemos encontrar desde B una \ nueva base" para el mismo espacio
cuyos vectores sean \mutuamente" ortogonales. Para el primer vector de la nueva base
usamos el mismo de B , usamos ~ 1 . As
4
~1 = 2
1
3
proj
[~1 ] (
)=
... y sera , ~2 (la parte del vector ~ 2 que es ortogonal a ~1 )
Notar que, por el corolario, f~1 ;~2 g es una base para <2.
Denicion Una base ortogonal para un espacio vectorial es una base de vectores \
mutuamente ortogonales".
Ejemplo Para pasar de una base de <3
011 001 011
h@1A ; @2A ; @0Ai
1
1
3
a una base ortogonal, como antes tomamos como primer vector el primer vector de la base
dada.
011
~1 = @1A
1
Para obtener el segundo ~2 , comenzamos con el segundo vector de la base dada ~ 2 y le
sustraemos la parte de el que es la proyeccion sobre ~1 .
001
001 001 02=31 0;2=31
~2 = @2A ; proj[~1 ](@2A) = @2A ; @2=3A = @ 4=3 A
0
0
0
2=3
;2=3
Finalmente, para obtener ~3 tomamos el tercer vector dado y le sustraemos la parte de el
en la direccion de ~1 , y tambien la parte del mismo en la direccion de ~2 .
011
011
011 0;11
~3 = @0A ; proj[~1 ](@0A) ; proj[~2 ](@0A) = @ 0 A
3
3
3
1
... El corolario dice que ....
011 0;2=31 0;11
h@1A ; @ 4=3 A ; @ 0 Ai
1
;2=3
1
es una base de <3 .
Para generalizar...
El resultado proximo verica que el procedimiento dado en los ejemplos genera una
base ortogonal, para un subespacio de <n, a partir de una base dada. Nos restringimos a
<n porque no hemos dado una denicion de ortogonalidad general para otros espacios.
...
...
~k = ~ k ; proj[~1 ](~ k ) ; ; proj[~ ;1](~ k )
k
Demostracion. Se usa induccion para chequear que cada ~i es no- cero, y esta en
el subespacio generado por h~ 1; : : : ~ ii y es ortogonal a todos los vectores precedentes:
~1 ~i = = ~i;1 ~i = 0.
Con eso, tendremos que h~1; : : :~k i es una base para el mismo espacio como lo es
h~ 1 ; : : : ~ k i.
Cubrimos los casos hasta i = 3, lo cual da sentido a los argumentos. Para completar
detalles ver la bibliografa.
El caso para i = 1 es inmediato o trivial ya que ~1 es igual a ~ 1, lo hace un vector no
nulo (~ 1 6= 0), y es la misma direccion y subespacio.
Para el caso i = 2, desde la denicion de ~2 .
~
~
~2 = ~ 2 ; proj[~1](~ 2) = ~ 2 ; ~2 ~~1 ~1 = ~ 2 ; ~2 ~~1 ~ 1
1 1
1 1
Esta expansion muestra que ~2 no es cero, o sino habra una dependencia lineal entre los
vectores ~ 's (es no trivial porque el coeciente de ~ 2 es 1) y tambien muestra que ~2 esta
en el subespacio generado. Finalmente, ~2 es ortogonal al unico vector precedente
~1 ~2 = ~1 (~ 2 ; proj[~1](~ 2 )) = 0
porque esta proyeccion es ortogonal.
El caso i = 3 es el mismo que para i = 2, excepto por un detalle. Como en el caso
i = 2, expandiendo la denicion
~
~
~3 = ~ 3 ; ~3 ~~1 ~1 ; ~3 ~~2 ~2
1 1
2 2
~
~
; ~
= ~ 3 ; ~3 ~~1 ~ 1 ; ~3 ~~2 ~ 2 ; ~2 ~~1 ~ 1
1 1
2 2
1 1
muestra que ~3 no es cero y esta en el subespacio generado. El calculo muestra que ~3 es
ortogonal al precedente vector ~1.
;
~1 ~3 = ~1 ~ 3 ; proj[~1](~ 3 ) ; proj[~2 ](~ 3)
;
= ~1 ~ 3 ; proj[~1](~ 3 ) ; ~1 proj[~2 ](~ 3 )
=0
La diferencia con el caso i = 2 | es que la segunda linea tiene dos clases de terminos. El
primero, es cero porque la proyeccion es ortogonal, como en el caso i = 2. El segundo
termino es cero porque ~1 es ortogonal a ~2, y es ortogonal a cualquier vector en la recta
generada por ~2.) El chequeo que ~3 es tambien ortogonal al otro precedente vector ~2 es
similar.
Una vez que se tiene la base de vectores ortogonales, se puede pasar a una base donde
ademas cada vector tiene longitud unitaria. Para eso, cada vector de la base ortogonal se
divide por su propia longitud (se normalizan las longitudes).
Ejemplo Normalizar la longitud de cada vector de la base ortogonal del ejemplo previo
produce la base ortonormal .
01=p31 0;1=p61 0;1=p21
p
p
h@1=p3A ; @ 2= p6 A ; @ 0p Ai
1= 2
1= 3
;1= 6
Una base ortonormal simplica muchos calculos como se vera en algunos ejercicios.
Ejercicios
2.1 Realizar el procedimiento de Gram-Schmidt sobre cada base de <2 , para obtener
bases ortonormales.
1 2
0 ;1
0 ;1
(a) h ; i (b) h ;
i (c) h ;
i
1
1
1
3
1
0
3
X 2.2 Idem0el ejercicio
1 0 1 1previo
001para las siguientes
0 1 1bases
001de0<21.
2
(a) h@2A ; @ 0 A ; @3Ai (b) h@;1A ; @1A ; @3Ai
2
;1
1
0
0
1
Luego normalizar los vectores.
X 2.3 Encontrar una base ortonormal para el subespacio de <3: el plano x ; y + z = 0.
Ayuda: parametrizar
0x1 el plano usando los
011parametros
0;1y1, z.
f@y A x = y ; zg = f@1A y + @ 0 A z y; z 2 <g
z
0
1
Considerar esa base.
011 0;11
h@1A ; @ 0 Ai
0
1
2.4 Encontrar bases ortonormales
0 x 1 para el subespacio de <4.
B y CC x ; y ; z + w = 0 and x + z = 0g
fB
@z A
w
Reduciendo el sistema lineal
1 +2 x ; y ; z + w = 0
x ; y ; z + w = 0 ;;!
x +z
=0
y + 2z ; w = 0
y parametrizando da la descripcion del subespacio, hallar una base.
2.5 Mostrar que cualquier subconjunto linealmente independiente de <n puede ser
ortonormalizado sin cambiar el subespacio
1generado.
3 Por ejemplo , con
S=f 2 ; 6 g
alcanzaramos
1
3
3 0
~1 = 2
~2 = 6 ; proj[~1]( 6 ) = 0
2.6 Encontrar un vector en <3 que0es ortogonal
1 0a21ambos vectores dados:
1
@ 5 A @2 A
;1
0
9
X 2.7 Una ventaja de las bases ortonormales es que ellas simplican la representacion de
(se lee \S perp"). La proyeccion ortogonal sobre un subespacio S projS (~v ) de un vector
es la proyeccion sobre S a lo largo de S ?.
10
As ...
... N (A) es ortogonal al subespacio generado por las las de A.
Otra forma de decir lo mismo ...
... N (A) <n es \ortogonal" al subespacio generado por las columnas de AT . Se
acostumbra a denotar R(AT ) al subespacio generado por las columnas de AT (o las de
A), y satisface R(AT ) <n).
... Sabemos que dim(N (A)) + dim(R(AT )) = n, que es la dimension de <n . Luego ...
... N (A) es el \ complemento ortogonal" del subespacio generado por las las de A ,
o lo que es igual, es el complemento ortogonal al subespacio generado por las columnas
de AT , denominado R(AT ). El unico elemento en comun entre ellos es el 0 vector, y la
suma de sus dimensiones es n, que es la dimension del espacio total <n .
... Entonces N (A) = (R(AT ))?.
Ademas...
... el espacio generado por las columnas de A (m n), son todos los vectores de <m
que son combinaciones de lasPcolumnas de A, se denota:
R(A) = fb : b 2 <m : b = nj=1 aj xj = Axg <m .
... Y el \ complemento ortogonal de ese subespacio R(A) es el conjunto ortogonal a
las columnas de A. Es el anulador o espacio nulo de las columnas de A. Si ahora se
considera AT , el complemento ortogonal de las las de AT es el N (AT ) <m . Entonces
...
... dim(N (AT )) + dim(R(A)) = m, ...
... (R(A))? = N (AT ). As para obtener el subespacio ortogonal complementario de
R(A), se calcula el N (AT ) = fy : y 2 <m; tal que AT y = 0g.
11
Veamos....
0x1
P = f@y A 3x + 2y ; z = 0g
z
011 001
A = h@0A ; @1Ai
3
;1
0v 1
1
3 @v2 A = 0
v3
;0
0v 1
1
2 cdot @v2A = 0
v3
... Podemos expresar estas condiciones mas compactamente como un sistema lineal...
0v 1
1
P ? = f@v2A 10
v3
0
1
0v 1
3 @ v1 A = 0 g
2
2
0
v3
As ... basta con encontrar el espacio nulo de la aplicacion representada por la matriz.
As ... calculando la solucion del sistema homogeneo ...
0v 1
0;31
1 v
3v3 = 0 g = fk @;2A k 2 <g
P ? = f@v2A 1 v +
2 + 2v3 = 0
1
v3
12
011 001
@1A 6? @3A
0
= arccos(
p p ) 0:94 rad
2 13
1 0+1 3+0 2
0 1=2
=@ 0
0 ;1=2
1 0 A
;1=2 0 1=2
Con esta matriz, calcular la projeccion ortogonal sobre S de cualquier vector es facil.
0 1=2 0 ;1=21 0 1 1 0 0 1
projS (~v) = @ 0 1 0 A @;1A = @;1A
;1=2 0 1=2
1
0
Ejercicios
;x + 3y + z = 0g (g) S = f y x = 0 and y + z = 0g
z
z
3.2 Formas distintas para proyectar ortogonalmente: Compararlas, considerando el
plano P especicado por 3x + 2y ; z = 0 en <3.
(a) Encontrar una base para P .
(b) Encontrar P ? y una base para P ?.
(c) Representar el vector siguiente con respecto a la base de <3 proveniente de ambas
bases.
011
~v = @1A
2
(d) Encontrar la proyeccion ortogonal de ~v en P dejando la parte sobre P desde el
previo item.
(e) Chequear usando la forma matricial
X 3.3 Chequear las tres formas diferentes para proyectar un vector sobre una recta.
1
x
(a) ~v = ;3 ; M = f y x + y = 0g
001
0x1
(b) ~v = @1A ; M = f@y A x + z = 0 and y = 0g
2
z
3.4 Que es la proyeccion ortogonal en el subespacio S = f0g.
3.5 Mostrar que si S <n es un subespacio con base ortonormal h~1; : : : ;~ni entonces
la proyeccion ortogonal de ~v en S es :
(~v ~1 ) ~1 + + (~v ~n) ~n
~v = proj[~1 ](~v ) + + proj[~ ](~v ) = ~~v ~~1 ~1 + + ~~v ~~n ~n
1 1
n n
X 3.6 Mostrar que si un vector es perpendicular a un conjunto entonces es perpendicular
a todo vector en el subespacio generado por ese conjunto.
3.7 Es verdadero o falso : la interseccion de un subespacio y su complemento ortogonal
es el f0g.
3.8 (a) Mostrar que si las columnas de A forman un conjunto linealmente independiente entonces AT A es invertible
(b) Mostrar que si las columnas de Ason mutuamente ortogonales y no nulas entonces
AT A es la matriz identidad
3.9 Mostrar que la matrix de proyeccion A(AT A);1AT es simetrica.
n
15
1.4 Proyecci
on ortogonal y aproximaci
on de cuadrados mnimos
La proyeccion ortognal de un vector ~v Rn sobre un subespacio S Rn puede
tambien verse como la mejor aproximacion al vector v basada en un vector de S. Si se
desea aproximar ~v mediante un vector w
~ S S, la mejor aproximacion se lograra eligiendo
w
~ S como el vector de S m
as cercano a ~v , y tal vector es entonces la proyeccion ortogonal
~vS = projS (~v ) .
En efecto, la distancia al cuadrado de ~v a un vector arbitrario w
~ S de S es
D2 = |~v w
~ S |2 = |(~v ~vS ) (w
~ S ~vS )|2
= |~v ~vS |2 + |~vS w
~ S |2 2(~v ~vS ) (w
~ S ~vS )
2
2
= |~v ~vS | + |~vS w
~S|
donde |~u|2 = ~u ~u es la longitud al cuadrado de un vector ~u y en el u
ltimo paso hemos
utilizado que ~v ~vS es ortogonal a todo vector de S, por lo que (~v ~vS ) (w
~ S ~vS ) = 0.
Por lo tanto, el valor mnimo de D2 se obtiene para w
~ S = ~vS , con
2
Dmin
= |~v ~vS |2 = |~v |2 |~vS |2
(1)
(2)
i=1
i=1
2
f HxL
f HxiL
-1.5
-1.0
-0.5
0.5
1.0
1.5
f HxiL
-1.5
-1.0
-0.5
0.5
1.0
1.5
(A A)jl =
n
X
i=1
n
X
gj (xi )f (xi ) .
i=1
Ejercicios
1. Verifique que la minimizacion de D2 (2) respecto de los coeficientes cj conduce a la
solucion (1).
2. Determine el polinomio P2 (x) = c0 + c1 x + c2 x2 que minimiza D2 si los datos son
f (1,5) = 8,5, f (0,9) = 2,5, f (0,3) = 1, f (0) = 0,5, f (0,3) = 0,6, f (0,9) = 1,5,
f (1,5) = 3 (Utilice PC). Estos corresponden a la posicion (en una cierta escala) en distintos
tiempos de un movil con aceleracion variable. Si la aceleracion fuese constante, como sera
el ajuste con este polinomio?
17
Matematica C
Transformaciones Lineales: Apendice
As si se tienen p vertices (xi; yi) para i = 1; : : : ; p, se almacenan como una matriz T
de 2 (p + 1)
x x x x
1
T= 1 2
p
y1 y2 yp y1
0
1 1 0
0 1 ;1 0
A~nadimos la cuarta columna para indicar que el ultimo punto (1; ;1) debe ser conectado (mediante un procedimiento de dibujo computacional) al primer punto (0; 0) para
completar el triangulo
Para transformar una gura, hay que cambiar de posicion de los vertices y \redibujar" la
gura. Si la \transformacion" es lineal, se puede hacer esto mediante una multiplicacion
de matrices (en R 2 ).
...
Animacion: Viendo una sucesion de estos dibujos, realizados de manera muy rapida
en tiempo real, produce el efecto de una \animacion".
dilatacion
contraccion
Ly (x) =
;x
y
x
Ay =
;1 0
0 1
T 0 = Ax:T
T 00 = Ay :T
(3) Rotaciones: Para rotar un vector un angulo en sentido contrario a las agujas del
reloj, multiplicamos cada vector por la matriz
cos ; sin
A = sin cos (operador rotacion)
Para obtener la rotacion del triangulo...
T0
=
=
cos ; sin 0 1 1 0
A :T = sin cos : 0 1 ;1 0
0 (cos ; sin ) (cos + sin ) 0
Ahora, una transformacion muy usada, pero que \no es lineal" (vericar que no
cumple las propiedades de linealidad)...
x0 = A:x =
cos ; sin
:x
sin cos
x = B:x0
=
=
Pero ...
0 1
x2
x2
... Si de nuevo re
ejamos x0 sobre el eje x2 , deberamos recobrar nuestro vector original
Esto es ...
A;1 = A
Efectivamente ...
A =
2
;1 0 ;1 0
0 1 : 0 1
1 0
0 1
Ejemplo 3 Para invertir el sentido de x, multiplicamos x por la matriz A
x0
= A:x =
;1
;x
0 : x1
0 ;1
x2
1
;x2 = ;x
... Si ahora invertimos el sentido de x0 , recobramos x
x = A:x0 = A: (A:x)
= A
2;:x1 0 ;1 0
= 0 ;1 : 0 1 :x
1 0
= 0 1 :x
A;1 = A
Ejemplo 4 Para rotar x en sentido antihorario mediante el angulo = =2, multiplicamos x por A
cos ; sin
0
x = A:x =
:x
=
... o, rotamos x en sentido antithorario primero mediante =3, y luego rotamos mediante =6 ...
x0
:x
A1 :A2 =
A2 :A1 =
0 0 x 0
: 1 =
0 1
x2
x2
A:x0 = A (A:x) =
esto es
0 0 0 0
0
0 1 : x2 = x2 = x
0 0 0 0 0 0
A = 0 1 : 0 1 = 0 1 =A
2
Todos los vectores que tengan la misma coordenada x2 tendran la misma proyeccion
sobre el eje x2 . O sea, seran transformados al mismo vector x0 .
El operador proyeccion no tiene inversa, debido a que el vector x0 no puede ser retornado sobre un unico vector x.
De hecho ...
0 0
det A = det 0 1 = 0
... y por tanto A es singular (no invertible).
La matriz A que representa a un operador lineal es \singular" (no invertible) si la
operacion \ no puede deshacerse o invertirse" para recobrar el vector inicial unico .
x
x= y
0 x1
! @y A = x^
1
Para dibujar un punto representado por estas \ coordenadas homogeneas" x^, solo hay
que \ignorar" el tercer coeciente y simplemente dibujar (x; y).
Con esta denicion articial (y aparentemente arbitraria), los \cuatro tipos" de operaciones gracas descriptas, a pesar que la 4ta. no es lineal, podran ser representadas
mediante matrices de 3 3, si se las quiere combinar con traslaciones. Recuerden que si no
usan traslaciones, no hay necesidad de usar ningun articio ya que las transformaciones
1-2-3, cada una tiene su matriz de representacion.
Para el caso, cuando aparecen traslaciones, en las coordenadas homogeneas se agrega
la \tercer la" y la \tercer columna" de la matriz identidad I3 , de 3 3:
As en esta situacion ....
0c 0 01
A la matriz de dilatacion c:I2: se le agrega... @0 c 0A Observar que no es c:I3.
0 0 1
3
Esa sera una dilatacion en < , que no es la dada en 2- variables.
De igual manera....
01 0 01
A la matriz de re
exion A : @0 ;1 0A
0 0 1
0cos ; sin 01
A la Matriz de rotacion A : @ sin cos 0A
x
0
0 1
Luego, por ejemplo, la aplicacion de una re
exion respecto del eje \x" a un vector
arbitrario (x,y):
Axx^ =
=
01 0 01 0x1
@0 ;1 0A : @yA
00x 10 1 1
x
@;yA !; al eliminar la tercer componente ..... ;y
1
01
Aa = @0
0 ax
1 ay A
0 0 1
Se tiene entonces que la aplicacion de esa matriz a un vector arbitrario (x,y), con la
tercer componente 1 ...
Aa:x^ =
=
x + a
01 0 a 1 0x1
@0 1 a A : @y A
00x +0a 11 1
@y + a A ! eliminado la tercer componente se obtiene:
x
y
y + ay =x+a
x
En el ejemplo del triangulo, su aplicacion, a cada vector o vertice con la tercer componente agregada ...
00
T^ = @0
1 1 0
1 ;1 0A
1 1 1 1
T^0 =
=
01 0 a 1 00 1 1 01
Aa:T^ = @0 1 a A : @0 1 ;1 0A
0a (1 +0a 0) (11 + a )1 a11 1 1
@a (1 + a ) (1 + a ) a A
x
y
x
y
x
y
0a 1
Los vectores columnas de T^, se trasladan mediante @a A = a.
x
y
T^0 = AaT^
T^0 = AaT^
0x x x 1 0x x x x 1
1
2
1
2
1
T^ = @ y1 y2 y A o @y1 y2 y y1 A
n
1 1 1
1 1 1 1
Otra transformacion \lineal" conocida...
Observaci
on 7 El operador \proyeccion" tambien puede ser tratado de esta manera,
y es muy importante para representaciones gracas en 2-dimensiones, con perspectiva
espacial, de un objeto tridimensional.
Ejemplo 8 Para dilatar un gura mediante un factor c > 1, y luego trasladarla mediante
un vector a, multiplicamos la matriz de vertices T^ por el producto de dos matrices
01
T^0 = (Aa) : (c:I2) :T^ = @0
10
0 ax
c 0 0
c 0 ax
1 ay A : @0 c 0A :T^ = @0 c ay A :T^
0 0 1
0 0 1
0 0 1
... y para rotar la imagen resultante en sentido antihorario mediante el angulo , multiplicamos T^0 por A
T^00 =
=
0cos ; sin 01 0c 0 a 1
A :T^0 = @ sin cos 0A : @0 c a A :T^
0c cos ;c0sin (0a cos1 ; a 0sin0)11
@ c sin c cos (a sin + a cos )A :T^
x
y
T 0 = A :T
T 00 = Aa:T 0 = Aa:A :T
10
Ahora ...
Traslaci
on... y luego rotacion :
T 0 = Aa:T
T 00 = A :T 0 = A :Aa:T
Aa:A 6= A :Aa
... y por tanto, el \orden" de las operaciones es importante.
Un programa simple de computadora en dos dimensiones es una secuencia de estas
operaciones, calculadas y expuestas muy rapidamente, en tiempo real.
11
Facultad de Ingeniera
UNLP
Matematica C
III. Numeros Complejos
2014
1.
Conceptos b
asicos
1.1.
Introducci
on
x, y R
(x1 , x2 , y1 , y2 R)
ImHzL
y
z=x+yi
Podemos representar un n
umero complejo z = x + yi
mediante un par ordenado (x, y). Este par corresponde
a un punto o vector en el plano cartesiano, que en este
contexto se denomina plano complejo.
0
ReHzL
1.2.
Conjugaci
on
El conjugado de un n
umero complejo z = x + iy se lo denota como z o z , y se lo
define como
ImHzL
z = x iy
y
z=x+yi
Por ejemplo, i = i, 1 + 2i = 1 2i y 1 2i = 1 + 2i y .
0
-y
1.3.
ReHzL
z=x-yi
Suma de n
umeros complejos
Dados dos n
umeros complejos z1 = x1 + y1 i, z2 = x2 + y2 i, su suma se define como
z1 + z2 = (x1 + x2 ) + (y1 + y2 )i
ImHzL
z1 +z2
z2
z + z
,
2
Im(z) =
z z
2i
ReHzL
1.4.
Producto de dos n
umeros complejos
(1.1)
(1.2)
Por ejemplo,
i z=-y+xi
z=x+yi
2
ReHzL
(1.3)
(1.4)
(1.5)
1.5.
Valor absoluto de un n
umero complejo
(1.6)
|z| = z z
En efecto, si z = x + yi, con x, y reales, z z = (x + yi)(x iy) = x2 (iy)2 = x2 + y 2 = |z|2 .
Problema 6: Probar que |z| = 0 si y solo si z = 0.
Problema 7: Probar que |
z | = |z|.
Problema 8: Para z1 , z2 complejos generales, probar que
|z1 z2 | = |z1 ||z2 |
||z1 | |z2 ||| |z1 + z2 | |z1 | + |z2 |
Problema 9: Probar que |z1 z2 | es, geometricamente, la distancia entre z1 y z2 .
1.6.
Inverso de un n
umero complejo
El inverso (o recproco) z 1 de un n
umero complejo z 6= 0 es el n
umero complejo que
satisface
zz 1 = 1
Para obtenerlo, vimos en el punto anterior que z z = |z|2 6= 0 si z 6= 0. Por lo tanto,
z(
z /|z|2 ) = |z|2 /|z|2 = 1
de donde
z 1 =
z
x yi
= 2
,
2
|z|
x + y2
z 6= 0
(1.7)
1
z
= z 1 = 2
z
|z|
1
z
por z. Por
1 1i
1i
1 1
1
=
=
= i
1+i
1+i1i
2
2 2
verificandose que (1 + i)(1 i)/2 = 1.
Problema 11: Probar que para z 6= 0,
1
1
=
z
z
1
= 1
z |z|
1.7.
Cociente de dos n
umeros complejos
(1.8)
z1
z2
z1
= ,
z2
z1 |z1 |
=
z2 |z2 |
1.8.
El conjunto C de los n
umeros complejos puede ser considerado como el conjunto R2
de pares ordenados (x, y) de n
umeros reales, con la suma y producto definidos por
(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 )
(x1 , y1 ) (x2 , y2 ) = (x1 x2 y1 y2 , x1 y2 + y1 x2 )
(1.9)
(1.10)
1.9.
Races de polinomios
Mediante los n
umeros complejos, es posible encontrar todas las races de un polinomio
de grado arbitrario n 1, y as escribir el mismo como el producto de n polinomios
elementales de grado 1.
Consideremos primero un polinomio de grado 2, P2 (z) = az 2 + bz + c, con a 6= 0, y la
correspondiente ecuacion cuadratica
az 2 + bz + c = 0,
(a 6= 0)
Sabemos que las races estan dadas por la muy conocida formula
b b2 4ac
z =
2a
(1.14)
(1.15)
b i 4ac b2
z =
2
8
(1.16)
2 2i
2 4 8
=
= 1 i
z =
2
2
Ejercicio: Verificar que z = 1 i satisfacen z 2 + 2z + 2 = 0.
Ejercicio: Verificar que
z 2 + 2z + 2 = (z + 1 i)(z + 1 + i)
La formula (1.15) es valida tambien para a, b, c complejos si a 6= 0 (veremos luego
como obtener races de n
umeros complejos), aunque en este caso las races complejas no
apareceran necesariamente como pares conjugados.
Los resultados anteriores se generalizan a polinomios de grado arbitrario n 1. Si
Pn (z) = an z n + an1 z n1 + . . . + a1 z + a0 , an 6= 0
(1.17)
(1.18)
Como las races pueden repetirse, esta igualdad suele escribirse como
Pn (z) = an (z z1 )m1 (z z2 )m2 . . . (z zk )mk
(1.19)
1.10.
Ejercicios
1+i
1i
b) i + (2 4i)(2 +
e)
3 + 4i
3 4i
f)
i
3i
1
)
2i
g)
c) 7 +
25
3 + 4i
2+i
1+i
+
1 + i 1 + 1/i
2) Determinar la parte real, la parte imaginaria y el modulo de los resultados de las operaciones
anteriores.
3) Hallar todas las races de las siguientes ecuaciones, y escribir el polinomio correspondiente en la forma factorizada (1.16) o (1.18)(1.19):
a) z 2 2z + 2 = 0
d) z 2 + 2iz = 0
4) Resolver el sistema
b) 2z 2 + 4 = 0
e) z 2 + 2iz 1 = 0
c) 2z 2 + 2z + 1 = 0
f ) z4 1 = 0
ix + y = i
x + iy = 2
5) Indicar el error
en
a)
1
=
1
1
=
(1)(1)
=
1=1
q
1
1
1
y b) i = 1 = 1 = 1 = i.
6) Mostrar que la ecuacion
|z| = r, r > 0
corresponde geometricamente a un crculo de radio r centrado en el origen, y
|z z0 | = r, r > 0
a un crculo de radio r centrado en z0 .
7) Mostrar que si z1 = x1 + y1 i, z2 = x2 + y2 i,
Re(z1 z2 ) = x1 x2 + y1 y2
por lo que Re(z1 z2 ) es el producto escalar de (x1 , y1 ) y (x2 , y2 ).
Dar tambien una interpretacion geometrica a Im(z1 z2 ).
10
2.
Representaci
on polar y f
ormula de Euler
2.1.
Forma polar de un n
umero complejo
A partir del grafico, vemos que podemos expresar la parte real e imaginaria de
z = x + iy como
ImHzL
x = |z| cos ,
y = |z| sen
z=x+yi
y=z sin
donde
|z| =
p
x2 + y 2
x=z cos
ReHzL
11
(2.20)
(2.21)
(2.22)
3 =1 +2
z3 =z1 z2
2
1
z2
z1
ReHzL
12
2.2.
F
ormula de Euler:
La forma polar resulta en realidad mas comoda cuando se utiliza con la famosa formula de
Euler para la exponencial de un n
umero imaginario:
ei = cos + i sen
(2.23)
=
=
=
X
(i)n
n!
n=0
2n 2n
X
n=0
X
n=0
X i2n+1 2n+1
i
+
(2n)!
(2n + 1)!
n=0
X
(1)n 2n
(1)n 2n+1
+i
(2n)!
(2n + 1)!
n=0
= cos + i sen
(2.24)
(2.25)
(2.26)
(2.27)
|z1 | i(1 2 )
z1
|z|1 ei1
=
e
,
=
i
z2
|z|2 e 2
|z2 |
(2.28)
z2 6= 0
y por lo tanto obtener las formulas (2.21)(2.22). Resulta tambien obvio que |z1 z2 | =
|z1 ||z2 |, arg(z1 z2 ) = arg(z1 )+arg(z2 ), y |z1 /z2 | = |z1 |/|z2 |, arg(z1 /z2 ) = arg(z1 )arg(z2 ).
2.3.
Potencias de un n
umero complejo
Mediante la forma polar (2.23), resulta muy sencillo calcular cualquier potencia z n para
todo n natural o entero: Dado que (ei )n = ein , obtenemos
z n = (|z|ei )n
= |z|n ein
= |z|n [cos(n) + i sen(n)]
(2.29)
(2.30)
La u
ltima expresion se denota normalmente formula de De Moivre.
Estas expresiones son validas para n = 0, 1, 2, . . ., y si z 6= 0, tambien para n = 1, 2, . . ..
Ejercicio: Probar que
(1 + i)n = 2n/2 [cos(n/4) + i sen(n/4)]
y que por ejemplo, (1 + i)2 = 2i, (1 + i)20 = 210 , (1 + i)4 = 14 .
Ejercicio: Representar graficamente las primeras cuatro potencias de 1 + i.
14
2.4.
Races en
esimas de la unidad
k = 0, 1, 2, . . .
k = 0, . . . , n 1,
(2.31)
Todas las races satisfacen |zk | = 1, por lo que estan sobre el crculo unidad |z| = 1.
Obviamente, z0 = 1 n.
Las races aparecen en pares conjugados: zk = znk , pues ei2k/n = ei2(nk)/n .
La suma de todas las races es 0:
z0 + z1 + . . . + zn1 = 0
Para n = 2, obtenemos obviamente las dos races cuadradas de 1, z0 = 1, z1 = ei = 1.
Las tres races c
ubicas de 1 son en cambio
z0 = 1
3
1
z1 = ei2/3 = cos(2/3) + i sin(2/3) = + i
2
2
3
1
= z1
z2 = ei4/3 = cos(4/3) + i sin(4/3) = i
2
2
Finalmente, las 4 races de z 4 = 1 son
z0 = 1, z1 = ei2/4 = i, z2 = ei4/4 = 1, z3 = ei6/4 = i = z1
Se muestran en la figura las races c
ubicas y cuarticas de 1.
ImHzL
ImHzL
3
z4 =1
z =1
z1 =i
z1 =ei23
z0 =1
0
ReHzL
z2 =-1
z0 =1
0
z2 =ei43
z3 =-i
15
ReHzL
2.5.
Races de un n
umero complejo
r ei(+2k)/n =
r [cos(
+ 2k
+ 2k
) + i sen(
)] ,
n
n
k = 0, . . . , n 1
r ei/n ei2k/n
escribimos a + ib = rei , con r = a2 + b2 , = arg(z), y entonces, las tiene las dos races
z0 = rei/2 , z1 = rei(+2)/2 = z0
3ei/4 =
1+i
4
3 , z1 = iz0 , z2 = z0 , z3 = iz0
2
16
2.6.
Funciones complejas
(2.32)
donde t R y u(t) = Re[f (t)], v(t) = Im[f (t)] son funciones reales. Un ejemplo de especial
interes es la funcion exponencial compleja
f (t) = et ,
= + i C
(2.33)
(2.34)
(2.35)
(2.36)
Por lo tanto, la expresion (et )0 = et resulta valida tambien para complejo. Este
resultado sera esencial a la hora de resolver ecuaciones diferenciales, y puede obtenerse
de forma mas general por medio de la teora de funciones analticas de variable compleja,
que no trataremos en este curso.
De la misma forma, la integral de f se define como
Z
Z
Z
f (t)dt = u(t)dt + i v(t)dt
Se deja como ejercicio mostrar que entonces,
Z
et
+c
et dt =
(2.37)
donde ln t es el logaritmo natural. Por ejemplo ti = cos(ln t) + i sen(ln t). Se deja como
ejercicio probar que para C, tambien se obtiene
(t )0 = t1
La aplicacion mas simple y com
un de las funciones complejas es la representacion de
funciones periodicas, por ejemplo de la forma
u(t) = A cos(t + ) = A[cos t cos sen t sen ]
tales como una corriente alterna o la posicion de una partcula en movimiento oscilatorio
armonico. Resulta en general mas conveniente expresar u(t) como
u(t) = Re[Aei(t+) ]
donde hemos asumido A, , , t reales. Se veran ejemplos en la parte de Ecuaciones Diferenciales.
v
zHtL
z(t) = reit
ReHzL
2.7.
Ejercicios
3+i
a) z = 1 i b) z =
c) z = 3i
1+i
d) z =
1 + 3i
e) z = i
2) Mediante la forma polar, evaluar z n en los casos anteriores, y hallar el valor explcito para
n = 6 y n = 3.
3) Dar una expresion de la forma z = x + yi, con x, y R, para
a) z = ei/6
b) z =
ei/3
ei/2
c) z = ei2/3 ei/3
b) z 3 = 1
c) z 4 = i
d) z 6 = 1
e) z 2 = 1 i
b) z 2 + 2i = 0
c) z 4 + 2z 2 + 2 = 0
6) Escribir en la forma u(t) + iv(t), con u(t), v(t) funciones reales, las funciones
a) f (t) = e(1+2i)t
b) f (t) = t2 e3it
c) f (t) = t1+i
7) Determinar las derivadas de las funciones anteriores, y escribir su parte real y su parte
imaginaria.
19