Sunteți pe pagina 1din 86

Facultad de Ingeniera

UNLP

Matematica C
Modulo II
I. Transformaciones Lineales

Temario
Clase 1: De niciones. Ejemplos. Casos especiales. Imagen y espacio nulo de una
transformacin lineal. Espacios isomorfos. Propiedades.
Clase 2 Representacion matricial. Ejemplos. Diferentes representaciones de acuerdo a las
bases consideradas. Representacion matricial y caractersticas de la transformacion.
Matrices Semejantes. Propiedades. Ejemplos. Aplicaciones.

1 Introduccion

Objetivo Se estudia aqu una clase de funciones denominadas transformaciones lineales, que van de un espacio vectorial V en otro W .
Una transformacion lineal que se aplica desde un espacio vectorial V en si mismo
(W = V ) se denomina usualmente \un operador lineal".
Las transformaciones lineales pueden pensarse como funciones de una sola variable,
donde el \argumento" de la funcion es un vector de un espacio vectorial V , y el \valor"
de la funcion es un vector en el espacio vectorial W (pudiendo W ser el mismo V ).
Usaremos la notacion funcional para describir una transformacion lineal L ...

w = L (v)

v 2 V, w 2 W

Veremos que una transformacion lineal L de un espacio vectorial n-dimensional a otro


espacio vectorial m-dimensional puede representarse por una matriz A de m  n. Tal
particularidad ...
... permitira trabajar con la matriz A para discutir las caractersticas y propiedades
de la transformacion L.

De nicion Una funcion L de un espacio vectorial V en otro espacio vectorial W se


llama transformacion lineal, denotada como L : V ;! W , si cumple la propiedad ...
L ( :v1 + :v2 ) = :L (v1) + :L (v2 )
para todo par de vectores v1 y v2 de V , y todo par de escalares , .
... O la de nicion equivalente

L (v1 + v2) = L (v1 ) + L (v2) para todo v1 y v2 en V;


... y L ( :v) = :L (v) para todo v en V y escalar.

Ejemplo Transformaciones lineales de <2 en <2 :


Algunos ejemplos interesantes ...
1. Transformacion de dilatacion o compresion (escalamiento):
x 
Si x = x1 es un vector de R 2 , de nimos
2

3x 

L (x) = 3:x = 3x1


2

L es una transformacion lineal, ya que


L ( :x) = 3: ( :x) = : (3:x) = :L (x)
L (x + y) = 3: (x + y) = 3:x + 3:y = L (x) + L (y)
Geometricamente, L produce el efecto de \dilatar" o \alargar" al vector x mediante
el factor 3.

En general, si c > 0, el operador L de nido por


L (x) = c:x
produce el efecto de escalar cualquier vector x por el factor de escala c.

2. Operador proyeccion:

x 

De nimos: L (x) = x1 :e1 = 01


x 
y 
1
Si x = x y y = y1 , entonces ...
2
2

 x + y 
1
1
:x + :y =
Luego

x2 + y2

L ( :x + :y) = ( x1 + y1) :e1


= : (x1 :e1) + : (y1:e1)
= :L (x) + :L (y)
... Esto muestra que L es una transformacion lineal.
Geometricamente, L (x) es la proyeccion del vector x sobre el eje x1

3. Transformacion de re exion (caso particular):

x 

Si se de ne ... L (x) = x1 :e1 ; x2 :e2 = ;x1


2
Esta tranformacion satisface ...

 :x + :y 
1
1
;( :x2+ :y2) 
x
y

L ( :x + :y) =

= : ;x1 + : ;y1
2
2
= :L (x) + :L (y)

... ) L es un operador lineal.


Geometricamente, L (x) es la re exion del vector x respecto (o a traves) del eje x1 .

4. Transformacion de Rotacion (caso particular):


Una rotacion de los vectores x = (x1 ; x2 ) de <2 :
... Si se de ne

;x 

L (x) = ;x2 :e1 + x1 :e2 = x 2 .


1
Para ver si es lineal ...

; ( :x + :y ) ;x  ;y 
2
2
2
2
= :
+ :

L ( :x + :y) =
:x1 + :y1
= :L (x) + :L (y)

x1

y1

) que L es una transformacion lineal.


Geometricamente, L (x) es la rotacion con angulo  = =2 (en sentido antihorario)
del vector x

5. Transformacion de inversi
;on:x 
Si se de ne: L (x) = ;x = ;x1 .
2

... para ver la linealidad:

; ( :x + :y ) ;x  ;y 
1
1
1
1
= :
+ :

L ( :x + :y) = ; ( :x + :y )
2
2
= :L (x) + :L (y)

Geometricamente, L (x) es el vector opuesto a x.

;x2

;y2

Comentarios Observar que esa formula se puede obtener tambien mediante la aplicacion de alguna transformacion de las ya vistas, por ejemplo,
...usando:
(a) La transformacion de escala con c = ;1,
o ...
(b) Rotar el vector x en  (en sentido anti-horario o sentido horario),
o ...
(c) Re ejar el vector x a traves de la recta perpendicular a el
o ... hacer
(d) Dos rotaciones sucesivas, primero el vector x se rota con  = =2 (en cualquiera de
las dos direcciones), y luego volver a rotar el resultado:
... Si L1 rota al vector x en =2, entonces una inversion puede realizarse aplicando
dos veces L1

;x  ;x 
2
1
L (x) = L1 (L1 (x)) = L1
=
= ;x
;x2

x1

... Si de nimos el cuadrado de un operador L2 (para L transformacion de V en V )


mediante L2 (x)  L (L (x)),
... entonces el operador de inversion puede expresarse en terminos del operador
rotacion L1 como

L = L21

Ahora un ejemplo de ...


6. Transformacion no lineal:

Si se tiene ...
;x :x 
L (x) = ;x1 :x2 :e1 + x2 :e1 = x1 2 . Analizando ....
2

; x x 

L ( :x) = ; ( x1 ) : ( x2 ) :e1 + ( x2) :e2 = :


6 :L (x) (a no ser que = 0 o 1)
=

1 2

x2

) que L \no es lineal".

... Otro ejemplo, de una \ transformacion no lineal" de uso habitual:


7. : Operador de traslacion:
... Se de ne la traslacion de cada x 2 <2 mediante la suma de un vector jo a:
T (x) = x + a,

... Si a 6= 0, \no es una transformacion lineal" (Veri carlo).


As ...
... no podra representarse mediante una matriz (veremos).
Esta transformacion no-lineal se utiliza en muchas aplicaciones, en gra cos y animaciones.

Ejercicios
0.1 (i) > La proyeccion ortogonal en <3 sobre el plano-xz es una transformacion lineal?.

Gra car.
(ii)> La proyeccion ortogonal en <3 sobre el plano-yz?
(iii) >La proyeccion sobre el eje-x?. Gra car. (iv) >La proyeccion al origen?
X 0.2 Considerar la transformacion de <2 en <2 . 
x 7! x=2 :
y
y=3
(i) Los pares (2; 0), (;2; 0), (0; 3), el (0; ;3) en cuales pares se transforman? .
(ii) Encontrar la imagen bajo esta aplicacion de la elipse: (llamar al transformado
(~x; y~) por ejemplo).
x
f y (x2 =4) + (y2=9) = 1g

1.1 Caso Especial: Transformaciones de R n en R m .

Veamos algunos ejemplos ...


Ejemplo L : R 2 ;! R 1 , de nida mediante la formula :
L (x) = x1 + x2 .
> Es lineal? ...

L ( :x + :y) = ( x1 + y1) + ( x2 + y2)


= (x1 + x2 ) + (y1 + y2)
= L (x) + L (y)

) que L es una transformacion lineal, asocia a cada vector x en R 2 un escalar x1 + x2


en funcion de los coe cientes de x.
8

Otro ...

0 x 1
2
Problema Dada la L : R 2 ;! R 3 , de nida como L (x) = @ x1 A,...
x1 + x2

(1) Veri car que es lineal.


(2)Probar que si se considerase una matriz A, para esta particular L : <2 ! <3,
de niendo la primer columna igual a: L(e1 ), y la segunda columna igual a :L(e2 ) (es
decir, coinciden con la imagen de los vectores de la base canonica de <2 ), entonces ...
... se obtiene la matriz A (3  2)

00 11
A = @1 0A
1 1

... y veri car que la formula y = L(x) coincide con y = Ax para todo x 2 <2 .

Comentarios ... Sirve el ejemplo anterior para ilustrar sobre \ que es posible" hallar
una matriz adecuada A, tal que L(x) coincida con el producto Ax.
... El \resultado general" se obtendra en una seccion proxima.
Antes consideremos...

1.2 Transformaciones especiales:

 La transformacion \identidad" I : Dado un espacio vectorial V , se de ne...


De nicion I : V ;! V , mediante ...
I (v) = v para todo v 2 V
Notar que no existe I : V ;! W , no esta de nida (aunque V y W tengan la misma
dimension).

Otra transformacion particular ...


 Sea L : C [a; b] ;! R 1 de nida por
L (f ) =

Zb
a

f (x) dx

Si f y g son dos vectores cualesquiera de C [a; b], entonces

L ( :f + :g) =

Zb
a

( :f + :g) (x) dx

Zb

= : f (x) dx + :
a
= :L (f ) + :L (g)

Otro caso...
9

Zb
a

g (x) dx

 Una transformacion de nida por una matriz A


Dada una A matriz de m  n, se puede de nir una transformacion LA de R n en R m
mediante ...
... la formula

LA (x) = A:x
... Es facil ver que cumple las propiedades de linealidad:

LA ( :x + :y) = A: ( :x + :y)
= :A:x + :A:y
= :LA (x) + :LA (y)

) que esta transformacion: L(x) = Ax \es una tranformacion lineal".

... Hay tantos ejemplos de ese tipo como matrices existan !.

Objetivo Estamos interesados en un resultado recproco del ejemplo previo, es decir ...
> Es cierto que cualquier transformacion lineal L de R n en R m se puede de nir en
terminos de una matriz AL de m  n ?
Y mas ...
... > Es cierto que cualquier transformacion lineal L : V ! W , V de dimension n, W
de dimension m, puede ser de nida en terminos de una matriz AL de m  n ?
... Responderemos esa pregunta en la seccion proxima.

Importante !. Cuando se tiene una transformacion lineal, L : V ! W


... se cumplen siempre las reglas o propiedades:

1. L (0V ) = 0W
2. Si v1 ; : : : ; vn 2 V , entonces ...
L ( 1:v1 +    + n:vn) = 1 :L (v1) +    + n:L (vn ), y
3. L (;v) = ;L (v) para todo v 2 V

Ejercicios
X 2.1 Si L : V ! W es lineal, supongamos que L(~v1) = w~ 1, : : : , L(~vn ) = w~ n para los
vectores w~ 1, : : : , w~ n de W .
(a) Si el conjunto de los vectores w~ 's es linealmente independiente, > debe el conjunto
de los ~v 's tambien es independiente?
(b) Si el conjunto de los ~v 's es lin. independiente, debe el conjunto de los w~ 's
tambien ser independiente ?. Pensar por ejemplo, en las transformaciones en <3,
que son proyecciones de <3 sobre el plano-xy. Pensar tambien, en la L(x) = 0 para
todo x 2 <3.
Estudiamos ...
10

1.3 Imagen y nucleo de una transformacion lineal

De nicion Sea L : V ;! W una transformacion lineal


1. Nucleo de L: es el conjunto de vectores fvg en V que son transformados o enviados
al vector nulo 0W de W . Es decir,

nu (L) = fv 2 V : L (v) = 0W g
2. Imagen de un subespacio S de V : es el conjunto de vectores fwg en W que son
imagen por L de los elementos v en S , se denota

L (S ) = fw 2 W : w = L (v) para algun v 2 S g


3. Imagen de L: es la imagen L (V ), de todo el espacio vectorial V . Es decir,
Imagen(L) = L(V ). Tambien se denomina a la imagen de L, rango de L (observar que es un subespacio, y no es un numero. No se re ere al rango (o rank) de
una matriz).
Notar que la imagen del nucleo de L:
Imagen(nu(L)) = 0W
... es el conjunto cuyo unico elemento es el vector nulo de W .

Cada uno de estos dos conjuntos de vectores es un subespacio en los respectivos espacios vectoriales:
...

Teorema Si L : V ;! W es una transformacion lineal, entonces


1. nu (L) es un subespacio de V , y
si S es un subespacio de V
2. L (S ), la imagen de S es un subespacio de W

Demostracin. Si v1 y v2 son vectores de nu (L) entonces ...


L ( :v1 ) = :L (v1) = 0W
L (v1 + v2 ) = L (v1) + L (v2 ) = 0W + 0W = 0W
entonces ... nu (L) es cerrado por la suma y multiplicacion por un escalar.
Veamos el segundo item ...
Si w1 y w2 son vectores en L (S ), existe un v1 y un v2 en S , tal que w1 = L(v1 ),
w2 = L(v2 ), entonces

:w1 = :L (v1 ) = L ( :v1 ) para v1 2 S


... como S es un subespacio :v1 2 S . As
... :w1 2 L(S ).
11

De igual manera, si se considera

w1 + w2 = L (v1 ) + L (v2) para v1 y v2 en S


= L (v1 + v2 )
... como S es un subespacio, entonces v1 + v2 2 S . Luego, L (S ) es cerrado por la suma
y multiplicacion por un escalar.

Observacion En particular, la imagen del subespacio nu(L), es decir...


L (nu (L)) = f0W g, tiene el unico vector 0W .

x 

Ejemplo L : R ;! R de nida por L (x) = 01 (operador proyeccion).


L (x) = 0 si y solo si x1 = 0
2

luego...

x 2 nu (L) si y solo si x1 = 0

0

... nu (L) es el subespacio 1-dimensional de R generado por el vector e2 = 1 , ... es


el eje x2 . Gra car.
Por otra parte, para determinar el conjunto imagen(L) (L(V ) o rango de L):
1... un vector y pertenece a la imagen de L si y solo si es multiplo escalar de e1 =
0 ,...
... entonces la imagen L (R 2 ) es el subespacio 1-dimensional de R 2 generado por el
vector e1. Es el eje x1 . Hacer un gra co para ilustrar.
2

12

x + x 
;! R , de nida por L (x) = 1 2 .

Ejemplo L : R
Si x 2 nu (L), entonces
3

x2 + x3

x1 + x2 = 0
x2 + x3 = 0
resolviendo ...
si la variable independiente x3 = , se tiene

0 1 011
x = @; A = : @;1A

... por tanto, nu (L) es el subespacio 1-dimensional de R 3 generado por este vector.
Supongamos que S es el subespacio de R 3 generado por e1 y e3 . Esto es, todos los
vectores x de la forma

0 1
x = @ 0A

 

( y escalares)

Entonces L (x) = , con y escalares cualesquiera. Por tanto, la imagen de S


...
L (S ) = R 2 .
Ademas,...
... como la imagen de este subespacio S es todo R 2 , se deduce que la Imagen o Rango
de L tambien es todo R 2 , es decir ...

; 

L R3 = R2

Ejercicios para practicar ...

13

Ejercicios

X 3.1 Decidir si las L : <3 ! <2 son lineales. Si lo son estudiar el nu(L), y la imagen de
L.
0x1 
0x1  
0x1

(a) L(@y A) = x + xy + z (b) L(@y A) = 00 (c) L(@y A) =
z
z
 2x + y z

3y ; 4z
X 3.2 Decidir
a si bson
 lineales las aplicaciones L : M22 ! <.
(a) L( c d ) = a + d
a b 
(b) L( c d ) = ad ; bc
3.3 Es la aplicacion identidad una transformacion lineal?. Hallar el nu(L), y la imagen
de L.
X 3.4 Explicar este enunciado: \Decir que una funcion f : <; > < es \lineal" es diferente
que decir que su gra ca es una recta" (Pensar por ejemplo en la recta y = mx + 2).
3.5 Asumir que L es una transformacion lineal de V en V , y que h~ 1 ; : : : ; ~ ni es una
base de V . Probar :
(a) Si L(~ i) = ~0 para cada elemento de la base entonces L es la funcion \ cero".
(b) Si L(~ i) = ~ i para cada vector de la base entonces L es la identidad.
(c) Si hay un escalar r tal que L(~ i ) = r  ~ i para cada vector basico entonces
L(~v) = r  ~v para todo los vectores en V .
X 3.6 Veri car que la transformacio0n L1: <3 ! <
x
@yA 7! 3x ; y ; z
z
es lineal. Generalizar.
3.7 (a) Mostrar que para todo k, la k-th derivada
dk =dxk en el espacio Pn es una transformacion lineal. Concluir que para escalares
cualesquiera ck ; : : : ; c0 la aplicacion
dk f + c dk;1 f +    + c d f + c f
f 7! dx
k;1 k;1
1
0
k
dx
dx
es una transformacion lineal en ese espacio.
3.8 Mostrar que una composicion de funciones lineales es lineal.
X 3.9 Si L : V ! W es lineal, supongamos que L(~v1 ) = w~ 1, : : : , L(~vk ) = w~ k para los
vectores w~ 1, : : : , w~ k de W .
(a) Si el conjunto de los w~ 's genera W , > debe el conjunto de los ~v 's generar V ?
Pensar, por ejemplo en transformaciones de <3, sobre <2. Proponer otros ejemplos
que ilustren.
(b) Si el conjunto de los ~v 's genera V , debe el conjunto de los w~ 's generar W ?.
Pensar por ejemplo en L : <2; > <3 .

14

Un caso especial:

Sea una transformacion


Ejemplo L : V ;! R n donde V es un espacio vectorial n-dimensional cualquiera.
Sea B una base ordenada [v1 ; : : : ; vn] de V .
Si cada vector v 2 V , se representa en la base B = [v1 ; : : : ; vn]
...

v = x1 :v1 + x2:v2 +    + xn:vn


As ...
... para0cada1v, se tiene el vector coordenado respecto de esa base B :

BBx12 CC
[v]B = B
@ ... CA
xn

es una n-upla unica, por ser linealmente independientes los vectores de la base B . Es
decir,...

... para cada v de V hay una unica n-upla en esa base de Ren.
Se puede de nir la correspondencia:

0x 1
1
B
C
x
2C
B
T
L (v) = (x1 ; x2; : : : ; xn) = B
@ ... CA
xn

... el vector imagen L (v) es el vector de coordenadas de v con respecto a la base

B = [v1 ; : : : ; vn].

Problema (1)T Probar que la transformacion L : V ! <n de nida previamente, L (v) =

(x1 ; x2 ; : : : ; xn) si las xi son las coordenadas de v, es una transformacion lineal.


(2) Ver tambien que es una aplicacion (1-1) inyectiva entre los espacios vectoriales V
n
y R . Observar, como la representacion de un vector v con respecto a una base ordenada
B = [v1 ; : : : ; vn] \es unica" (por la independencia lineal de los vectores de la base), el
v = 0 de V esta representado por el w = 0 de <n, y cada vector v en V es aplicado en
un unico vector de R n , y vectores distintos u 2 V , v 2 V , u 6= v , satisfacen L(u) 6= L(v ).
(3) Ademas, demostrar que es \suryectiva" (que la imagen L(V ) = <n).
Tener en cuenta que cada vector x = (x1 ; x2 ; : : : ; xn)T en R n representa a un unico
vector de V

v = x1 :v1 +    + xn:vn

15

Problema ... continuacion

(4) Por tanto, se puede de nir la transformacion inversa L;1 : R n ;! V .


... > Como se de ne?
Dar la formula.
(5) En este caso,
(a) >Cual es el subespacio nu(L)? (usar (2)).
(b) > Cual es el subespacio imagen de L?, es decir ...
L(V ), que es un subespacio en <n (usar (3)).
(c)> Como son las dimensiones de nu(L), y de L(V ).
(d) Finalmente, las preguntas de los items (a)-(c) responderlas ahora respecto de la
;
1
L .

Problema En relacion al ejercicio anterior ...

(a) Veri car que si toma un subespacio de dimension k, k < n en V , la imagen L(S )
tambien es un subespacio k-dimensional de <n.
(b) La imagen por L;1 de cualquier subespacio k-dimensional (k < n) de R n es tambien
un subespacio k-dimensional en V .

Comentarios Hemos visto en el problema anterior, que si V es un espacio vectorial


de dimension-n, \existe" una transformacion lineal L : V ! <n , que es biyectiva. Tal

aplicacion entre esos espacios, con esas propiedades, se dice que es un \isomor smo"
entre ellos.
... Luego, se dice que ambos espacios son \ isomorfos" porque hay una correspondencia
\lineal biyectiva" entre sus elementos, y de tal manera que \todo lo que vale en uno se
hereda en el otro" (a pesar de no ser el mismo) !!.

1.4 Espacios Isomorfos - Isomor smos

De nicion Un isomor smoentre dos espacios V y W es una L : V ! W tal que


1. es una correspondencia biyectiva;
2. que preserva la estructura:si ~v1 ;~v2 2 V entonces

L(~v1 + ~v2 ) = L(~v1 ) + L(~v2 )


y si ~v 2 V y r 2 < entonces

L(r~v) = r L(~v)
(\Mor smo "signi ca aplicacion, as \isomor smo " signi ca una aplicacion que expresa
\igualdad".)

Ejercicios
4.1 Probar que un espacio V es n-dimensional \ sii" es isomorfo a <n. Ayuda: Fijar
una base B para el espacio y considerar una aplicacion que transforme cada elemento
de la base al vector de coordenadas en esa base.
16

4.2 >Puede concluir que es cierta la a rmacion siguiente ? : \ un par de espacios son

isomorfos \sii" tienen ambos la misma dimension?.


4.3 Supongamos que L : V ! W es lineal. Mostrar que L es inyectiva \si y solo si" el
unico elemento de V que se transforma por L en el ~0W es ~0V .
4.4 Supongamos que T : V ! W es un isomor smo. Probar que el conjunto f~v1 ; : : : ;~vk g 
V es linealmente dependiente \si y solo si" el conjunto imagen fT (~v1 ); : : : ; T (~vk )g 
W es linealmente dependiente.
4.5 Encontrar otras dos propiedades que tambien preserva un isomor smo. Hay varias
respuestas;

Para practicar en casa ...


Ejercicios
4.1 (a) Dados ~u;~v 2 <n , el segmento de recta conectandolos es el conjunto de nido
` = ft  ~u + (1 ; t)  ~v t 2 [0::1]g. Mostrar que la imagen, bajo una transformacion

lineal L, del segmento entre ~u y ~v es el segmento entre L(~u) y L(~v).


(b) Un subconjunto S de <n se dice convexo si, para cualquier dos puntos de S , el
segmento de recta entre ellos yace enteramente en S .
- Comprobar que el conjunto S correspondiente a una super cie esferica, mas su
interior: x2 + y2 + z2  1 es convexo. Ver que no es convexo el conjunto formado
solo por la frontera: x2 + y2 + z2 = 1.
(c) Probar que una aplicacion lineal de <n a <m preserva la propiedad de convexidad
para los conjuntos de <n.
(d) Dar ejemplos de conjuntos de <2 que son convexos y que por una transformacion
lineal se transforman en conjuntos convexos en el espacio de la imagen. Pensar en
rectas, en cuadrados llenos, en crculos llenos(una circunferencia,no!), etc.
X 4.2 Dos planos que pasan por el origen en <3son isomorfos?
X 4.3 Dado un isomor smo, mostrar que la inversa es tambien un isomor smo.

2 Representacion matricial de transformaciones lineales

Objetivo Veamos que cualquier transformacion lineal entre espacios vectoriales de dimension nita se puede representar mediante una matriz A.
Tal matriz A dependera de las bases que se consideren en V y W .

... En primer lugar consideramos transformaciones de Rn en R m :

L : R n ;! R m

Asumimos que la base en V = <n es la base canonica.


... Dado x 2 <n, se puede representar
x = x1:e1 + x2 :e2 +    + xn :en.
... Como L es lineal, sabemos que su transformado satisface:

L (x) = x1 :L (e1) + x2 :L (e2 ) +    + xn:L (en)


17

... Luego bastara conocer la de nicion de L para cada elemento de la base de V , ej :


... Si para cada ej , j = 1; : : : ; n, se de ne L (ej ),

0 1
a
BB a12jj CC
L (ej ) = B
@ ... CA = aj
amj

As ....

L(x) = x1 :a1 + x2 :a2 +    + xn :an


... Entonces se considera \la matriz cuyas columnas" son los L(ej ), j = 1; : : : ; n

0 a a ::: a 1
BB a1121 a1222 ::: a12nn CC
A = (aij ) = B
@ ... ... :::: ... CA
am1 am2 ::: amn

Luego ... reemplazando

L (x) = x1 :L (e1 ) + x2 :L (e2) +    + xn:L (en)


= x1 :a1 + x2 :a2 + 0  +1xn:an
x
BBx12 CC
= (a1 ; a2 ; : : : ; an) : B .. C
@.A
xn
= A:x

Conclusion ... Se pudo expresar L(x) = Ax, usando la matriz A recien de nida.

Esta matriz A se llama matriz canonica de representacion de L, dado que se uso la


base canonica fei g de R n para de nirla.
... La representacion de L con respecto a otras bases seran matrices diferentes.

Notar que no se hizo ninguna referencia a la base particular considerada


para el espacio vectorial W = R m ,

aunque ...
...si hay que aclarar que para cada L(ej ) las coordenadas asignadas(las columnas de
A) son las que corresponden a la base de W = <m. En nuestro caso podemos suponer que
en <m se uso la base canonica.

18

Ejemplo L : R

por tanto ...

Veri cacion:

x + x 
;! R , de nida por L (x) = x12 + x23 (ejemplo anterior)
011  
a1 = L (e1 ) = L @0A = 10
10
2

a2 = L (e2 ) = 1
0
a3 = L (e3 ) = 1

1

A = (a1 ; a2; a3 ) = 0 11 01

1

A:x = 0 11

0x 1 


0 : @x1 A = x1 + x2 = L (x)
2
1
x +x
x3

Otro ejemplo ...


Ejemplo Rotacion general en R 2 . Tomemos la transformacion L : R 2 ;! R 2 , tal que
a cada vector x lo hace rotar un angulo , en sentido antihorario.

Considerando que en R2 tenemos la base canonica:


... Con ayuda de la geometra podemos calcular
cos 
; sin 
L (e1 ) = sin  y L (e2 ) = cos 
y por tanto ...
cos  ; sin 
A = (L (e1 ) ; L (e2 )) = sin  cos 
... Entonces, para rotar un angulo  un vector x de R 2 (sentido antihorario) hay que
multiplicar x por A, es decir ...

y = L(x) = Ax
19

Ejercicios
0.1 Hallar la matriz que representa la aplicacion L : <2 ! <2,respecto de la base canonica
, de las siguientes transformaciones:
(a) La aplicacion Ls : <2 ! <2 que es la dilatacion con coe ciente s, tal que a cada
(x; y) ! s  (x; y).
(b) Idem para la re exion L` : <2 ! <2, respecto de la recta y = x que pasa por el
origen.
(c) Idem para la re exion respecto de la recta x = 0.
(d) Considerar la transformacion que transforma los vectores, de acuerdo a lo que
se indica abajo:

1

(1 ; k2)=(1 + k2)

0

2k=(1 + k2)
;
7
!
;
7
!
0
2k=(1 + k2 )
1
;(1 ; k2)=(1 + k2 )
Veri car que es una re exion a traves de una recta y = kx (de pendiente k).
Hacer un gra co, por ejemplo para k = 2.
L`

L`

2.1 Caso general:

Sea L : V ;! W , donde V y W son espacios vectoriales con dimension n y m, respectivamente.


Sea E = [v1; : : : ; vn] una base ordenada de V y F = [w1; : : : ; wm] una base ordenada
de W .
Cualquier vector v en V puede escribirse en terminos de los vectores de la base E

v = x1 :v1 + x2:v2 +    + xn:vn


(1)
donde x = (x1 ; x2 ; : : : ; xn)T es el vector de coordenadas de v con respecto a la base E
x = [v]E
(2)
Ademas, la imagen w = L (v) puede ser escrito en terminos de los vectores de la base
F como

w = L (v) = y1:w1 + y2:w2 +    + ym:wm


20

(3)

donde y = (y1; : : : ; ym)T es el vector de coordenadas de L (v) con respecto a F

y = [w]F = [L (v)]F

(4)

... Necesitamos encontrar la matriz A tal que cumpla

[w]F = A:[v]E

(5)

y = A:x

(6)

es decir...

... esta matriz A sera la matriz que representa a L con respecto a las bases ordenadas E
de V y F de W .
Veamos ... como hallarla?

... Consideramos para cada vj basico de V , el vector imagen en W , expresado en la


base F de W ,
...

L (vj ) = a1j :w1 + a2j :w2 +    + amj :wm (para j = 1; : : : ; n)


... de manera que sus coordenadas en la base F son...

0 1
BB aa12jj CC
[L (vj )]F = B .. C = aj
@.A
amj

As para cada j = 1; : : : ; n, ...

aj = [L (vj )]F

21

Conclusion Si se de ne A ...
A = (aij )
con elementos faij g de nidos mediante

A = (a1 ; : : : ; an)

(7)

donde cada columna, indicada con aj , es el vector aj de las coordenadas de L(vj ), respecto
de la base F
La expresion (6) puede ser escrita como

y = [L (v)]F = A: [v]E = Ax para todo v 2 V


siendo x = [v ]E .
Se puede hacer el siguiente esquema gra co ...

Ejemplo L : R 3 ;! R 2 , de nida por


L (x) = x1 :b1 + (x2 + x3) :b2
donde

1

b1 = 1

y b2 =

;1
1

Encontrar la representacion de L con respecto a las bases [e1 ; e2 ; e3] y [b1 ; b2 ].

L (e1 ) = 1:b1 + 0:b2


L (e2 ) = 0:b1 + 1:b2
L (e3 ) = 0:b1 + 1:b2
22

ai , la columna i-esima de A, esta determinada por los coe cientes de L (ei) con respecto
a la base [b1 ; b2 ] para cada i = 1; 2; 3.

1

A = 0 01 01

Ejemplo L : R 2 ;! R 2 , de nida por


L ( :b1 + :b2 ) = ( + ) :b1 + 2 :b2
donde b1 y b2 son los del ejemplo anterior. Encontrar la matriz A que representa a L con
respecto a la base [b1 ; b2 ].

L (b1 ) = 1:b1 + 0:b2


L (b2 ) = 1:b1 + 2:b2
Por tanto ...

1 1

A= 0 2

... Esto es simple para espacios de peque~na dimension (n y m = 1; 2; 3) y como consecuencia con peque~nas matrices de transicion. Pero para sistemas grandes necesitamos
un camino mas practico para encontrar A.
En la seccion proxima vemos como cambiar de una matriz a otra, en forma mas general
...

Para practicar ...


Ejercicios
X 1.1 Asumir que la T : <2 ! <3 est0a determinada
por0la acci
1
1 on

1

0

7! @2A

7! @ 1 A

0
1
0
;1
Usando las bases canonicas, encontrar
(a) la matriz de representacion;
(b) Una formula general para T (~v).
1.2 Describir geometricamente la accion sobre <2 de la aplicacion, que con respecto de
la base canonica, se representa por la matriz:
3 0
0 2
Lo mismo, para las siguientes matrices
usando
labase can
onica:




1 0
0 1
1 3
0 0
1 0
0 1

23

2.2 Relacion entre las propiedades de la matriz asociada y las


caractersticas de la transformacion

... >Como estaran relacionados el nucleo y la imagen de L con las propiedades de la


matriz A?

Respuesta: El nucleo de L es equivalente al espacio nulo de A ...


Ver que: v 2 nu (L) si y solo si L(v ) = 0W . Luego, si ...
x = [v]E debe ser A [v]E = [0]F = 0. Luego...
.... x = [v]E 2 N (A).

La imagen de L:
L (V ) = fw 2 W : tal que existe v 2 V tal que L(v) = wg...
... es equivalente al f[w]F : [w]F = A [v]E = Ax; g, para todo x 2 <n . Es decir, son
todas las combinaciones de las columnas de A ...
... Es equivalente al espacio columna de A. Esto es ...
... el subespacio de R m generado por las columnas de A.
Entonces ... dim (nu (L)) = dim (N (A)) nulidad de A
dim (L (V )) = rango (A)
dim (nu (L)) + dim (L (V )) = n

Para ampliar el tema pueden consultar el libro de Grossman en pagina 486.

Ejercicios
1 2
2.1 Sea una matriz A = 3 6 , y supongamos que ella representa una aplicacion
L : V ! W con respecto a las bases B y D. Como A tiene dos columnas , V es 2dimensional. Lo mismo A tiene dos las W es 2-dimensional. La accion de L sobre
un elemento cualquiera del dominio es :

 x

 x + 2y 

y B 7! 3x + 6y D
(a) Encontrar el espacio nulo (nu(L)) de cualquier aplicacion representada por esa
matriz.
(b) Encontrar la dimension del espacio nulo o nulidad de tales aplicaciones.
(c) Encontrar el conjunto \Imagen (L)=L(V)" o sea el espacio columna de la matriz
que la representa. Encontrar una base de este espacio.
(d) Encontrar la dimension o rango (rank= dimension del espacio columna) de la
aplicacion L.
(e) Chequear si el rango(A) + nulidad(A) es igual a la dimension del dominio.
2.2 Repetir el ejercicio anterior, pensando que es una transformacion de <2 en <2, y
pensando que se usa la base canonica.
0 x 1 0 x + y ; 3z 1
2.3 Dada la transformacion L : R3 ! R3; L @ y A = @ 2y + z A
z
x ; y + 4z
24

(a) Hallar la matriz que la representa respecto de las bases canonicas.


(b)Determinar el espacio nulo (nucleo nu(L)) y la imagen de la transformacion
(L(R3 )). > Cual es la dimension de ellos?.
011
(c) Hallar una base del espacio imagen L(R3 ). El vector @ 1 A ; pertenece al espacio
0
L(R3 )? (analizar).
0 7 1
(d) Hallar una base del nu(L). El vector @ ;1 A ; pertenece al espacio nu(L)?
2
(analizar).
Para practicar ...

25

Ejercicios
2.1 Representar la transformacion Identidad sobre cualquier espacio con respecto de

una base B; B , donde B es cualquier base siendo el espacio n-dimensional. Veri car
si esa matriz puede ser la matriz
0
1
1 0::: 0
BB0 1 : : : 0CC
RepB;B (id) = B
@ ... CA
0 0 : : : 1 B;B
es la matriz identidad n  n.?
2.2 Suponer T : V ! W es no singular (biyectiva), as que para cualquier base B =
h~ 1; : : : ; ~ ni  V la imagen T (B ) = hT (~ 1); : : : ; T (~ n)i es una base para W .
(a) Representar la aplicacion T con respecto a B; T (B ).
(b) Para un elemento ~v en el dominio, cuya representacion tiene componentes c1,
: : : , cn, representar la imagen T (~v) con respecto a la base de la imagen T (B ).
2.3 Encontrar la imagen de la transformacion lineal de <2 representada con respecto
de la base
andar(canonica) por cada matriz:
1 est
a b
0
0
0
(a) 0 0 (b) 3 2 (c) una matriz de la forma 2a 2b
X 2.4 Puede una misma matriz representar 2 diferentes aplicaciones lineales? Esto es,
puede RepB;D (T ) = RepB;^ D^ (T^)?
X 2.5 Hemos visto como representar rotaciones en el plano, alrededor del origen usando
la base canonica. Ahora... en <3 :
(a) La rotacion de todos los vectores de <3 mediante un angulo  alrededor del x es
una T de <3. Representarla con respecto a la base canonica.
Rede nir la rotacion previa, de tal forma que si uno se coloca en el origen con
la cabeza en (1; 0; 0), el movimiento de rotacion se ve en el sentido horario.
(b) Repetir el previo, rotando alrededor del eje-y (mirando desde el extremo de ~e2.)
(c) Repetir, acerca del eje-z.
X 2.6 Decidir si cada vector dado abajo, esta contenido en la imagen de la aplicacion de
<3 a <2representada
con
respecto a las bases
can
onicas por la matriz:






(a) 10 11 34 , 13 (b) 24 00 36 , 11
X 2.7 Sea V un espacio n-dimensional con bases B y D. Considerar una aplicacion T
que envia para cada ~v 2 V , el vector columna representando a ~v con respecto a B
al vector columna representando a ~v con respecto a la base D. Mostrar que es una
transformacion lineal de <n.
2.8 El hecho que para cualquier aplicacion lineal el rango de la matriz + la nulidad
de ella es igual a la dimension del dominio V , muestra que una condicion necesaria
para que exista una aplicacion lineal \suryectiva" entre los dos espacios, es decir
satisfaciendo: T (V ) = W , es que el codominio W no sea de dimension mayor que V .

26

3 Matrices Semejantes.
Consideremos un operador lineal sobre un espacio vectorial V n-dimensional...

L : V ;! V
... La matriz de n  n que representa a L depende de la base elegida en V .

... >Como se relacionan las diferentes matrices de representacion de un operador lineal

relativas a bases ordenadas diferentes?


Respuesta: Consideremos lo siguiente

Si ...
 E y E^ son dos bases ordenadas de V ;
 A es la matriz de representacion de L con respecto a E ;
 A^ es la matriz de representacion de L con respecto a E^ ;
 S es la matriz de transicion de la base E^ a la base E (repasar este tema)
... entonces:

A^ = S;1:A:S

Esquematicamente ...

Para justi car ese resultado ...


Si

w = L (v) ; x = [v]E , y = [w]E ; x^ = [v]E^ , y^ = A:^ x^ = [w]E^


27

... entonces como S es la matriz de transicion de E^ a E

y^ = S ;1:y
=
=
=
=

... entonces

S ;1: (A:x)
S; ;1: (A:S:x^)
S ;1:A:S :x^
^ x^
A:

y^ = A:^ x^ = S ;1:A:S :x^


Conclusion As ...
... si y = Ax, respecto de la base E , y S es la matriz de transicion de la base E^ a la
base E ,
... A^ = S ;1:A:S es la matriz asociada a la transformacion respecto de la base E^ ,
^ x^ es la representacion matricial respecto de la base E^ .
... y^ = A:

Ejemplo L : R

 2x 
1
;! R , de nida por L (x) =
.
2

x1 + x2
1
;1
Considerar las bases: E = [e1; e2 ], E^ = [u1 ; u2 ] con u1 = 1 y u2 = 1 .

Dado que ...

2

0

L (e1) = 1 y L (e2) = 1
la matriz de representacion de L con respecto a E = [e1 ; e2 ] es
2 0
A= 1 1

1

... Ahora cambiamos a E^ = [u1 ; u2] con u1 =


La matriz de transicion de E^ en E es
1
S = (u1 ; u2) = 1

;1

y u2 =

La matriz de representacion de L con respecto a E^ es


A^ = S ;1:A:S =   

1
1
1
2
0
1
;
1
= 2 ;1 1 : 1 1 : 1 1
 1 1 2 ;2
1
= 2 ;1 1 : 2 0
2 ;1
= 0 1

28

;1

1 .

3

 2x  6
1
, L (x) =
=
con respecto a la base canonica.

Por ejemplo, si x = 1
x1 + x2
4
^
Si lo pensamos con respecto a la base E = [u1 ; u2 ]

1 ;1
x = 2: ;
= 2:u1 ; u2
1

esto es

2

[x]E^ = ;1

^
[L (x)]E^ = A:
2[x];E^1  2 
= 0 1 : ;1
5
= ;1
Veri cacion:

5 ;1 6


5:u1 ; u2 =
;
=
= L (x)

Matrices semejantes.

De nicion Dadas dos matrices A y B de n  n; se dice que B es semejante a A si existe


una matriz S invertible (no singular) tal que

B = S ;1:A:S
Si B es semejante a A entonces

A =
=
=
=

;S:S ;1 :A: ;S:S ;1


;

S: S ;1:A:S :S ;1
;1
S:B:S
;S ;1;1 :B:S ;1

y por tanto .... A es tambien semejante a B .


... A partir de lo anterior podemos decir que dos matrices cualesquiera que representen
a un mismo operador lineal, con respecto a diferentes bases, son \semejantes" (tambien
se dice \ similares").
Recprocamente ...

... Si A representa a L con respecto a una base ordenada E = [v1; : : : ; vn], y S


es una matriz cualquiera no singular de n  n, entonces B = S ;1:A:S es la matriz de
representacion de L con respecto a la base ordenada [w1; : : : ; wn], donde
29

la base \nueva" que corresponde a tal matriz de representacion es : F = [w1 ; : : : ; wn]


dada por

w1 = s11 :v1 + s21 :v2 +    + sn1:vn


w2 = s12 :v1 + s22 :v2 +    + sn2:vn
...

...
wn = s1n:v1 + s2n:v2 +    + snn:vn

02
Ejemplo L : R 3 ;! R 3 , de nido por L (x) = A:x, donde A = @1

2 0
1 2A.
1 1 2
Por de nicion, A representa a L con respecto a la base canonica [e1 ; e2 ; e3]. Buscaremos la matriz D que represente a L con respecto a la base [y1; y2; y3], donde
011
0;21
011
y1 = @;1A ; y2 = @ 1 A ; y3 = @1A
0
1
1
Calculamos
L (y1) = A:y1 = 0 = 0:y1 + 0:y2 + 0:y3
L (y2) = A:y2 = y2 = 0:y1 + 1:y2 + 0:y3
L (y3) = A:y3 = 4:y3 = 0:y1 + 0:y2 + 4:y3
y entonces
00 0 01
D = @0 1 0A
0 0 4
Tambien podemos calcular D mediante la matriz de transicion Y = (y1 ; y2 ; y3)
D = Y0;1:A:Y 1 0
1 0 1 ;2 11
1 ;2 1 ;1 2 2 0
= @;1 1 1A : @1 1 2A : @;1 1 1A
00 0 1;31 31 021 21 021 0 10 ;12 111
= 31 @;1 ;1 2A : @1 1 2A : @;1 1 1A
0 10 ;13 131 010 1;2 2 41 0 1 1
= 13 @;1 ;1 2A : @0 1 4A
1 1 1
0 1 4
=
=

00 0 0 1
1 @0 3 0 A
3 0 0 12
00 0 01
@0 1 0A
0 0 4

30

3.1 Propiedades importantes sobre matrices semejantes:

Si A y B son semejantes (n  n) ...


1. Dos matrices semejantes tienen el mismo determinante
B = S ;1;:A:S 
=) det B = det ;S ;1:A:S

= det ;S ;1 : (det A) : (det S )
= det ;S ;1 :(det S ) : det (A) (porque det es un escalar)
= det S ;1:S : det (A)
= det A
2. Si se considera la matriz \especial" de nida mediante: A~ = A ; In, siendo In la
matriz identidad, In = diagonal(1; 1; : : : ; 1), y  un escalar ...
0(a ; ) a
1
   a1n
11
12
BB a21 (a22 ; )    a2n CC
~
A = B
... C
@ ...
A
   ...
an1
an2    (ann ; )
y tambien consideramos ... B~ = B ; In.
Como A y B son semejantes, sabemos que B = S ;1AS .
~ = S ;1(A ; In)S
... Entonces: S ;1AS
... = (S ;1A ; S ;1In)S
... = (S ;1AS ) ; In
... = B ; In = B~ . As ...
... hemos obtenido que tambien B~ y A~ son semejantes.
Ese resultado ) que det(A ; In ) = det(B ; In).
... Este resultado sera de gran ayuda en una seccion proxima ( en Auto-

valores).

3.2 Consultar en el libro de Grossman los temas:

 (1) Se puede generalizar el tema anterior para L : <n ! <m, para obtener la relacion
entre las matrices asociadas respecto de bases diferentes. Ver tal resultado en p.p.
495.
 (2) En pagina 495, leer Geometra de las transformaciones de <2 en <2 , cuando la
matriz asociada AL invertible.

3.3 Para practicar ...


31

Ejercicios

X 3.1 Dos matrices son semejantes si representan la misma transformacion, cada una

respecto a una base en V . Es decir , la matriz que representa a T respecto de la base


B1 :RepB1 ;B1 (T ) es semejante a la que la representa respecto de B2 : RepB2 ;B2 (T ).

(a) Mostrar que si T es semejante a T^ entonces T 2 es semejante a T^2, los cubos de

igual manera , etc.


(b) Probar que las matrices T y T^siguientes:
 0 0
1
0
T= 0 0
1 0
\no son semejantes" ( ellas son equivalentes por las, pues una se obtiene de la otra
mediante operaciones elementales por las, pero no son semejantes!). Ayuda: Para
hacer el ejercicio ver que ocurre con det(T ; In) y det(T^ ; I ) (se mantienen
iguales?) Observar, tambien que ocurre con las potencias de las matrices dadas,
siguen siendo equivalentes?.
3.2 Supongamos que con respecto a la base canonica la transformacion L : <2 ! <2
esta representada por la matriz :
1 2
3 4
Usar cambio de base (y matriz de transicion) para representar L con respecto a la
base de <2 
dada
 por
1
0
^
(a) B = h 1 ; 1 i,
1 1
(b) B~ = h 2 ; 0 i,

32

4. Composici
on de transformaciones lineales
(operaciones sucesivas)
Consideremos dos transformaciones lineales L : V W , G : W U , con V , W ,
U espacios vectoriales. Supongamos que primero aplicamos L sobre un vector v V , y
luego aplicamos G sobre el vector resultante w = L(v) W . El resultado es el vector
u = (G L)(v) = G(L(v))

(1)

que pertenece al espacio vectorial U :


vwu
L

En (1), G L : V U denota la composicion de G con L (tambien escrita como G L),


que es tambien una transformacion lineal.
Ejercicio: 4.1 Demostrar que si L : V W y G : W U son transformaciones
lineales, entonces G L : V U definida por (1), es tambien una transformacion lineal
(probar que satisface (G L)(v1 + v2 ) = (G L)(v1 ) + (G L)(v2 )).
Ejercicio: 4.2 Si L : R3 R2 esta definida por L(x, y, z) = (x + y, y + z),
y G : R2 R2 esta definida por G(x, y) = (x + y, 2x 2y), encontrar una expresion para
(G L)(x, y, z) = G(L(x, y, z)).
4.1 Representaci
on matricial de la composici
on
Consideremos primero que V = Rn , W = Rm y U = Rp , y sean ML , MG las representaciones matriciales de L y G en las bases canonicas correspondientes, tal que ML es de
m n y MG de p m. Entonces las coordenadas de w = L(v) pueden escribirse como

v1
w1
.
..
. = ML ..
vn

wm

y por lo tanto, las de u = G(L(v)) = G(w) como

u1
w1
..
.
. = MG ..
vp
wm

v1

= MG (ML ... ) = (MG ML )


vn

(2)

v1
..
.
vn

(3)

donde en el u
ltimo paso hemos usado la asociatividad del producto matricial. Esto implica
que la representacion matricial MGL de la composicion G L es el producto MG ML de
las matrices que representan a G y L:
MGL = MG ML

(4)

Observar que la matriz ML , que representa a la transformacion que se aplica primero (L),
esta a la derecha de la matriz MG , que representa a la que se aplica a continuacion (G).
33

Ejemplo: En el ejercicio 4.2, en las bases canonicas de R3 y R2 , obtenemos las representaciones matriciales (verificar!)




1 1
1 1 0
, MG =
ML =
2 2
0 1 1
tal que



 x

x
x+y
1 1 0

y
=
=
L y
y+z
0 1 1
z
z

  
  
x+y
x
1 1
x
=
=
G
2x 2y
y
2 2
y

Por lo tanto,

 x


x
1 1 0
1 1
y
(GL) y =
0 1 1
2 2
z
z

 x

1 2 1
y
=
2 0 2
z


x + 2y + z
=
2x 2z


1 2 1
, con (G L)(x, y, z) = (x + 2y + z, 2x 2z).
= M G ML =
2 0 2

o sea, MG L

(5)

En el caso general, para representaciones matriciales en bases arbitrarias BV , BW y BU


de V , W , U , se obtiene tambien MGL = MG ML , con ML = Rep (L), MG = Rep (G) y
BW ,BV

BU ,BW

MGL = Rep (GL). Esto es valido para espacios vectoriales generales de dimension finita.
BU ,BV

4.2 Potencias de operadores lineales


Si W = V , la transformacion lineal L : V V se denomina tambien operador lineal
o endomorfismo. Queda en este caso definido el cuadrado L2 = L L como la composicion
de L con L:
L2 (v) = L(L(v))
(6)
Si ML es la representacion matricial de L en una cierta base de V , los resultadoa anteriores
implican que la representacion matricial de L2 es el cuadrado de la matriz ML :
ML2 = ML ML = ML2
En general, la potencia Lk k 2 queda definida por
Lk (v) = L(Lk1 (v)), k 2
34

(7)

y su representacion matricial es
MLk = ML MLk1 = MLk
es decir, la potencia k de la matriz ML . Por definicion, L0 = I, con I el operador identidad.
Y si L es un operador lineal inversible (o sea un automorfismo: un isomorfismo de V
en V ), de forma que exista la transformacion inversa L1 tal que L1 L = L L1 = I
(o sea, (L1 L)(v) = v v V ) entonces
ML1 = ML1

(8)

La representacion matricial de la inversa L1 es la inversa de la matriz ML que representa a L. Un automorfismo queda pues representado por una matriz ML no singular
(det(ML ) 6= 0).
Ejercicio: 4.3 Probar que si L1 , ML1 = ML1 .


 
2x + y
x
2
2
, su representacion
=
Ejemplo: Si L : R R esta dado por L
x 2y
y
matricial en la base canonica es (probar!)


2
1
ML =
1 2
La representacion matricial de L2 es entonces

 


3 0
2
1
2
1
2
=
ML 2 = M L =
0 3
1 2
1 2
de forma que
L

x
y

3 0
0 3



x
y

3x
3y

es decir, L2 (x, y) = (3x, 3y), lo que equivale a L2 = 3I, con I el operador identidad.
Ademas, como ML es no singular, L es inversible y la representacion matricial de su
inversa esta dada por


1
2
1
1
ML1 = ML =
3 1 2
de forma que
L

x
y

1
=
3

2
1
1 2



x
y

1
=
3

o sea, L1 = L/3. Se verifica entonces L1 L = I (probar!).

35

2x + y
x 2y

Ejercicio: 4.4 Si L : R3 R3 queda definido por L(x, y, z) = (y, x, z),


i) mostrar que en la base canonica,

0 1 0
ML = 1 0 0
0 0 1
ii) Hallar ML2 y verificar que L2 es el operador identidad.

Ejercicio: 4.5 Sea P2 el subespacio de los polinomios reales de grado 2.


Si D : P2 P2 denota el operador derivada (D(tn ) = ntn1 ), i) mostrar que la representacion matricial de D en la base {1, t, t2 } es

0 1 0
MD = 0 0 2
0 0 0
ii) Hallar la representacion matricial en esta base de la derivada segunda D2 = D D, y
verifcar que MD2 = MD2 .

4.4 Composici
on de transformaciones lineales en R2
Consideremos ahora algunos ejemplos de operadores lineales L : R2 R2 . La reflexion
de un vector v respecto de la recta y = x esta dada por (recordar!)
   
  
y
x
0 1
x
=
=
L
x
y
1 0
y


0 1
.
siendo su representacion matricial en la base canonica ML =
1 0
Es evidente de la definicion que L2 (xy ) = (xy ), o sea, L2 = I (operador identidad), verificandose que ML2 = (10 01 ) (probar!).
La rotacion de angulo /2 en sentido antihorario de un vector v esta dada por

  
  
y
x
0 1
x
=
=
R
x
y
1 0
y
y
1.0

LHvL

RHvL

y=x
0.5

-1.0

0.5

v
0.5

-0.5

x
1.0

y
1.0

-1.0

0.5

-0.5

-0.5

-0.5

-1.0

-1.0

36

v
x
1.0

siendo su representacion matricial en la base canonica MR =

0 1
1 0

Consideremos ahora la transformacion lineal R L que primero refleja un vector respecto de


la recta y = x y luego lo rota un angulo de /2 en sentido antihorario. Su representacion
matricial en la base canonica sera

 


1 0
0 1
0 1
=
M(R L) = MR ML =
0 1
1 0
1 0
y por lo tanto,
RL

x
y

1 0
0 1



x
y

x
y

Esto representa una reflexi


on respecto del eje y (mostrar!).
Por otro lado, la transformacion lineal L R, que primero rota un vector un angulo de
/2 en sentido antihorario y luego lo refleja respecto de la recta y = x, queda representada por la matriz

 


0 1
1 0
0 1
M(L R) = ML MR =
=
1 0
1 0
0 1
y por lo tanto,
LR

x
y

1 0
0 1



x
y

x
y

Esto representa una reflexi


on respecto del eje x (mostrar!).
y
1.0

y
1.0

RLHvL

0.5

-1.0

0.5

0.5

-0.5

x
1.0

-1.0

0.5

-0.5

-0.5

-0.5

-1.0

-1.0

x
1.0

LRHvL

Por lo tanto, vemos que el resultado final depende del orden de la composici
on, lo
que se refleja en la no conmutatividad del producto matricial asociado.
Se define el conmutador de dos operadores L : V V , G : V V como
[G, L] = GL LG
37

que es en general un operador no nulo. La matriz que lo representa en una base de V es


el conmutador de las matrices que representan a G y L en dicha base:
M[G,L] = MG ML ML MG . En el ejemplo anterior se obtiene



 

1 0
1 0
1 0
=2

MR ML ML MR =
0 1
0 1
0 1
que implica RL LR = 2RL.
Mencionemos finalmente que la proyeccion ortogonal de un vector sobre el eje x esta dada
por (graficar!)
   
  
x
x
1 0
x
=
=
Px
0
y
0 0
y
y la proyeccion ortogonal de un vector sobre el eje y esta dada por
   
  
0
x
0 0
x
=
=
Py
y
y
0 1
y
Ejercicio 4.6 Sea F es el operador lineal que primero rota todo vector un angulo /2 en
sentido antihorario y luego lo proyecta sobre el eje x. Hallar su representacion matricial
en la base canonica y una expresion para F (xy ).
Ejercicio 4.7 Sea G es el operador lineal que primero proyecta todo vector sobre el
eje x y luego lo rota un angulo /2 en sentido antihorario. Hallar su representacion matricial en la base canonica y una expresion para G(xy ).
Ejercicio 4.8 a) Hallar la representacion matricial en la base canonica de la inversa
de los operadores R, y L anteriores.
b) Tienen Px y Py inversa?
c) Encuentre la representacion matricial de Px Py y Py Px . Justificar el resultado.
Ejercicio 4.9 a) Mostrar que la representacion matricial en la base canonica de una
reflexion respecto de la recta y = kx, con tan = k, es


cos 2 sin 2
sin 2 cos 2
Halle su determinante.
b) Recordando que la representacion matricial en la base canonica de una rotacion de
angulo antihorario es


cos sin
sin cos
mostrar que la composicion de dos rotaciones es otra rotacion. Halle tambien el determinante de la matriz anterior.
c) Muestre que la composicion de dos reflexiones es una rotacion.
d) Muestre que la composicion de una reflexion con una rotacion es otra reflexion.

38

Matematica C
II. Proyecciones. Bases Ortogonales

1 Proyecci
on
En secciones previas hemos usado la proyeccion de vectores de <3 sobre el plano xy
(subespacio). Esta proyeccion muestra como el vector cae sobre su sombra.

Una descripcion es : La proyeccion del ~v es el vector p~ en el plano xy con la propiedad


que si alguien camina y se detiene sobre el extremo de ~p mirando hacia arriba (o abajo
segun corresponda) en l nea recta ve el extremo del vector ~v.
En esta seccion generalizaremos a otras proyecciones.

1.1 Proyeccion Ortogonal sobre una recta


Primero consideramos de nuevo la proyeccion ortogonal sobre una recta que pasa por el
origen (dirigida por un vector s) .
Proyectar ortogonalmente un vector ~v sobre una recta ` dirigida por s, da un punto
sobre la recta tal que si alguien se detiene sobre la recta en ese punto y mira desde ah en
linea recta hacia arriba (o abajo) ve el extremo de ~v .

El dibujo muestra a alguien que ha caminado sobre la recta hasta un punto


donde el ~v
esta sobre su cabeza en linea recta. Eso es, camino sobre la recta ` = fc  ~s c 2 <g, hasta
hallar el punto cp  ~s determinado por el coe ciente cp en la direccion de s. La persona ha
caminado hasta encontrar el coe ciente cp con la propiedad que el vector ~v ; cp  ~s sea \
ortogonal" a cp  ~s (a la recta donde camina) .

Como calculamos el coe ciente cp ?.


Observamos que la diferencia ~v ; cp~s debe ser ortogonal al multiplo escalar de ~s , es
decir que esa diferencia de vectores debe ser ortogonal al propio ~s . En consecuencia el
producto escalar ...
... debe satisfacer (~v ; cp~s)  ~s = 0.

As desde esa igualdad se despeja : cp = ~v  ~s=~s  ~s.

De nicion La proyeccion ortogonal de ~v sobre la recta (que pasa por el origen) generada
por el vector no nulo ~s es el vector

cp~s
...
proj[~s ] (~v) =

~v  ~s  ~s
~s  ~s

Observar que el resultado del calculo solamente depende de la direccion de la recta y no


de la longitud del vector ~s usado para de nir la recta.

Ejemplo Para hacer la proyeccion ortogonal del

;2 sobre la recta y


3

obtenemos un vector que indica la direccion de la recta. Por ejemplo,

1

~s = 2
... Luego los calculos son los de rutina.


 0@11A

2 3  2 1 8 1  8=5 


  0@11A  2 = 5  2 = 16=5
1 2 2
3

= 2x, primero

Ejemplo En <3, la proyeccion ortogonal de un vector arbitrario

0x1
@y A
z

sobre el eje- y es

01
;x y z  @01A 0 1 0 1
0
0
0001  @1A = @yA
;0 1 0  @1A 0
0

0
lo cual se corresponde con lo esperado por nuestra intuicion. Gra car.
Otra forma de pensar la proyeccion de v sobre la recta...
Desde el dibujo que precede a la de nicion observamos que el vector ~v se ha descompuesto en dos partes:
(1) La parte sobre la recta: p~ = cp~s), que es el vector proyectado; y
...
(2) la parte que es ortogonal a la recta: ~v ; cp~s.
As la proyeccion ortogonal de ~v sobre la recta generada por ~s es la parte del ~v que
yace en la direccion del vector ~s.
Una forma util de pensar la proyeccion ortogonal de ~v sobre la recta indicada ...
... es pensar que la proyeccion de ~v es el vector o punto en la recta que esta mas cerca
a ~v . Es decir hallar en la recta el punto cuya distancia al v es mnima. Repasar el dibujo.
Problema.
Dada una recta que no pasa por el origen.
... La proyeccion de ~v sobre esa recta es el vector o punto en la recta que esta mas
cerca a ~v. Es decir, se debe hallar en la recta el punto cuya distancia al v es mnima.
Gra car.
... > Como puede hallar el punto sobre esa recta que esta mas cerca de v ?.

En la seccion proxima vemos como la proyeccion de un vector en la direccion de


otro nos da un procedimiento para construir \bases de espacios vectoriales" con vectores
ortogonales entre si.

Ejercicios

X 1.1 Proyectar el primer vector ortogonalmente sobre la recta que pasa por el origen
generada por el segundo vector.
011 0 3 1
011 0 1 1
2  3 
2 3
(a) 1 , ;2 (b) 1 , 0 (c) @1A, @ 2 A (d) @1A, @ 3 A
;1
4
X 1.2 Proyectar el vector dado ortogonalmente sobre la recta indicada.
4

12

3
2

(a) 1 , = c 1 | c

3
4

(b)

1
1

, la recta y = 2x

1.3 Aunque lo desarrollado ha sido guiado por representaciones graficas, no nos restringimos a espacios que podemos dibujar. Por ejemplo, en 4 , proyectar ~v sobre la recta ,
con

1
1

~v =
|c
= c
1
1

1
3
 
1
2
.
1.4 Consideremos en la proyeccion ortogonal sobre la recta generada por ~s =
3
 
1
sobre la direccion de ~s.
(a) Proyectar ~v =
2
 
x
sobre la direccion de ~s es
(b) Mostrar que la proyeccion de un vector general ~v =
y

  
x + 3y
x
/10
=
proj [~s]
3x + 9y
y
(c) Encontrar la representacion matricial en la base canonica de esta proyeccion.
1.5 Al proyectar un vector ~v , la proyeccion separa a ~v en dos partes: proj [~s] (~v ) y
~v proj [~s] (~v ), que son vectores ortogonales.
(a) Mostrar que si son no nulos, forman un conjunto linealmente independiente.
(b) Que es la proyeccion ortogonal de ~v sobre una recta que pasa por el origen si ~v
esta contenido en esa recta? Como es ~v proj [~s] (~v ) en este caso?
(c) Mostrar que si ~v no esta en la recta y no es perpendicular a ~s entonces el conjunto
{~v , ~v proj [~s] (~v ) } es linealmente independiente.
1.6 Mostrar que la proyeccion de ~v en la recta generada por ~s tiene longitud igual al
valor absoluto del n
umero ~v ~s dividido por la longitud del vector ~s .
1.7 Encontrar la formula para la distancia de un punto a una recta que pasa por el origen.
1.8 Encontrar el escalar c tal que c~s = (cs1 , cs2 ) este a mnima distancia del punto (v1 , v2 ),
utilizando minimizacion de funciones. Generalizar a n .
1.9 Probar que la longitud de la proyeccion ortogonal de un vector ~v sobre una recta es
mas corta que la del vector ~v .

1.2 Ortogonalizaci
on de Gram-Schmidt
En la seccion previa se sugirio que al proyectar sobre la recta (que pasa por el origen),
dirigida por un vector ~s, se descompone al vector ~v en dos vectores que son ortogonales:

~v = proj [~s] (~v ) + ~v proj [~s] (~v )

Luego, ~v es suma de dos vectores ortogonales. Si ambas partes son no nulas (cuando
podra ocurrir otra cosa?) son dos vectores linealmente independientes por ser ortogonales.
Ahora, trabajamos sobre esa idea ...
5

De nicion Los vectores ~v1; : : : ;~vk 2 <n son mutuamente ortogonales si todo par de
vectores son ortogonales: Si i =
6 j entonces el producto escalar ~vi  ~vj es cero, para todo
par i , j .

As ...

Teorema Si los vectores de un conjunto f~v1 ; : : : ;~vk g  <n son no nulos y mutuamente
ortogonales entonces el conjunto es linealmente independiente.

Demostracion. Considerar la combinacion lineal c1~v1 + c2~v2 +    + ck~vk = ~0. Si i 2 [1::k]


entonces tomando el producto escalar de ~vi a ambos lados de la igualdad
~vi  (c1~v1 + c2~v2 +    + ck~vk ) = ~vi  ~0
ci  (~vi  ~vi) = 0

muestra, como ~vi es no nulo, que ci es cero. Vale para cada i = 1; :::k. Luego, los k
vectores son linealmente independientes.

Corolario Si hay p vectores no nulos que son mutuamente ortogonales en un espacio


p dimensional ) ese conjunto es una \base" para ese espacio.
Demostracion. Todo conjunto de p vectores linealmente independientes de un espacio
de dimension p es una base.
Por supuesto, la recproca del teorema no vale, ya que \ | No toda base de un subespacio de dimension p de <n tiene sus p vectores mutuamente ortogonales".

Sin embargo, podemos alcanzar una recproca \parcial" en el sentido que \ para todo
subespacio de <n existe al menos una base de vectores mutuamente ortogonales".

Ejemplo Los vectores ~ 1 y ~ 2 de esta base de <2 no son ortogonales.

4 1

B=h 2 ; 3 i
... Sin embargo, podemos encontrar desde B una \ nueva base" para el mismo espacio

cuyos vectores sean \mutuamente" ortogonales. Para el primer vector de la nueva base
usamos el mismo de B , usamos ~ 1 . As

4

~1 = 2

Para construir el segundo de la \nueva" base, tomamos uno ortogonal al primero...


... tomamos desde ~ 2 la \parte" que es ortogonal a la direccion del ~1 ,
~2 =

1 
3

proj

[~1 ] (

1 1 2 ;1


3

)=

... y sera , ~2 (la parte del vector ~ 2 que es ortogonal a ~1 )
Notar que, por el corolario, f~1 ;~2 g es una base para <2.

De nicion Una base ortogonal para un espacio vectorial es una base de vectores \

mutuamente ortogonales".
Ejemplo Para pasar de una base de <3
011 001 011
h@1A ; @2A ; @0Ai
1
1
3
a una base ortogonal, como antes tomamos como primer vector el primer vector de la base
dada.
011
~1 = @1A
1
Para obtener el segundo ~2 , comenzamos con el segundo vector de la base dada ~ 2 y le
sustraemos la parte de el que es la proyeccion sobre ~1 .
001
001 001 02=31 0;2=31
~2 = @2A ; proj[~1 ](@2A) = @2A ; @2=3A = @ 4=3 A
0
0
0
2=3
;2=3
Finalmente, para obtener ~3 tomamos el tercer vector dado y le sustraemos la parte de el
en la direccion de ~1 , y tambien la parte del mismo en la direccion de ~2 .
011
011
011 0;11
~3 = @0A ; proj[~1 ](@0A) ; proj[~2 ](@0A) = @ 0 A
3
3
3
1
... El corolario dice que ....
011 0;2=31 0;11
h@1A ; @ 4=3 A ; @ 0 Ai
1
;2=3
1
es una base de <3 .
Para generalizar...
El resultado proximo veri ca que el procedimiento dado en los ejemplos genera una
base ortogonal, para un subespacio de <n, a partir de una base dada. Nos restringimos a
<n porque no hemos dado una de nicion de ortogonalidad general para otros espacios.
...

Teorema ( Ortogonalizacion de Gram-Schmidt ) Si h~ 1 ; : : : ~ k i es una base para


un subespacio de <n entonces
~1 = ~ 1
~2 = ~ 2 ; proj[~1 ](~ 2 )
~3 = ~ 3 ; proj[~1 ](~ 3 ) ; proj[~2 ](~ 3)

...
~k = ~ k ; proj[~1 ](~ k ) ;    ; proj[~ ;1](~ k )
k

Los ~ 's forman una base ortogonal para el mismo subespacio.

Demostracion. Se usa induccion para chequear que cada ~i es no- cero, y esta en
el subespacio generado por h~ 1; : : : ~ ii y es ortogonal a todos los vectores precedentes:
~1  ~i =    = ~i;1  ~i = 0.
Con eso, tendremos que h~1; : : :~k i es una base para el mismo espacio como lo es
h~ 1 ; : : : ~ k i.

Cubrimos los casos hasta i = 3, lo cual da sentido a los argumentos. Para completar
detalles ver la bibliografa.
El caso para i = 1 es inmediato o trivial ya que ~1 es igual a ~ 1, lo hace un vector no
nulo (~ 1 6= 0), y es la misma direccion y subespacio.
Para el caso i = 2, desde la de nicion de ~2 .
~
~
~2 = ~ 2 ; proj[~1](~ 2) = ~ 2 ; ~ 2  ~~1  ~1 = ~ 2 ; ~ 2  ~~1  ~ 1
1 1
1 1
Esta expansion muestra que ~2 no es cero, o sino habra una dependencia lineal entre los
vectores ~ 's (es no trivial porque el coe ciente de ~ 2 es 1) y tambien muestra que ~2 esta
en el subespacio generado. Finalmente, ~2 es ortogonal al unico vector precedente
~1  ~2 = ~1  (~ 2 ; proj[~1](~ 2 )) = 0
porque esta proyeccion es ortogonal.
El caso i = 3 es el mismo que para i = 2, excepto por un detalle. Como en el caso
i = 2, expandiendo la de nicion
~
~
~3 = ~ 3 ; ~ 3  ~~1  ~1 ; ~ 3  ~~2  ~2
1 1
2 2
~
~
; ~

= ~ 3 ; ~ 3  ~~1  ~ 1 ; ~ 3  ~~2  ~ 2 ; ~ 2  ~~1  ~ 1
1 1
2 2
1 1
muestra que ~3 no es cero y esta en el subespacio generado. El calculo muestra que ~3 es
ortogonal al precedente vector ~1.
;

~1  ~3 = ~1  ~ 3 ; proj[~1](~ 3 ) ; proj[~2 ](~ 3)
;

= ~1  ~ 3 ; proj[~1](~ 3 ) ; ~1  proj[~2 ](~ 3 )
=0
La diferencia con el caso i = 2 | es que la segunda linea tiene dos clases de terminos. El
primero, es cero porque la proyeccion es ortogonal, como en el caso i = 2. El segundo
termino es cero porque ~1 es ortogonal a ~2, y es ortogonal a cualquier vector en la recta
generada por ~2.) El chequeo que ~3 es tambien ortogonal al otro precedente vector ~2 es
similar.
Una vez que se tiene la base de vectores ortogonales, se puede pasar a una base donde
ademas cada vector tiene longitud unitaria. Para eso, cada vector de la base ortogonal se
divide por su propia longitud (se normalizan las longitudes).

Ejemplo Normalizar la longitud de cada vector de la base ortogonal del ejemplo previo
produce la base ortonormal .
01=p31 0;1=p61 0;1=p21
p
p
h@1=p3A ; @ 2= p6 A ; @ 0p Ai
1= 2
1= 3
;1= 6
Una base ortonormal simpli ca muchos calculos como se vera en algunos ejercicios.

Ejercicios
2.1 Realizar el procedimiento de Gram-Schmidt sobre cada base de <2 , para obtener
bases ortonormales.
1 2
0 ;1
0 ;1
(a) h ; i (b) h ;
i (c) h ;
i

1
1
1
3
1
0
3
X 2.2 Idem0el ejercicio
1 0 1 1previo
001para las siguientes
0 1 1bases
001de0<21.
2
(a) h@2A ; @ 0 A ; @3Ai (b) h@;1A ; @1A ; @3Ai
2
;1
1
0
0
1
Luego normalizar los vectores.
X 2.3 Encontrar una base ortonormal para el subespacio de <3: el plano x ; y + z = 0.
Ayuda: parametrizar
0x1 el plano usando los
011parametros
0;1y1, z.


f@y A x = y ; zg = f@1A  y + @ 0 A  z y; z 2 <g
z
0
1
Considerar esa base.
011 0;11
h@1A ; @ 0 Ai
0
1
2.4 Encontrar bases ortonormales
0 x 1 para el subespacio de <4.
B y CC x ; y ; z + w = 0 and x + z = 0g
fB
@z A
w
Reduciendo el sistema lineal
1 +2 x ; y ; z + w = 0
x ; y ; z + w = 0 ;;!
x +z
=0
y + 2z ; w = 0
y parametrizando da la descripcion del subespacio, hallar una base.
2.5 Mostrar que cualquier subconjunto linealmente independiente de <n puede ser
ortonormalizado sin cambiar el subespacio
1generado.
3 Por ejemplo , con
S=f 2 ; 6 g
alcanzaramos
1
3
3 0
~1 = 2
~2 = 6 ; proj[~1]( 6 ) = 0
2.6 Encontrar un vector en <3 que0es ortogonal
1 0a21ambos vectores dados:
1
@ 5 A @2 A
;1
0
9

X 2.7 Una ventaja de las bases ortonormales es que ellas simpli can la representacion de

un vector con respecto a esa base.


(a) Representar el vector respecto
2de la base indicada
1 1de <2
~v = 3
B=h 1 ; 0 i
Primero representar el vector con respecto a la base. Luego proyectar el vector sobre
cada elemento de la base. [~ 1] y [~ 2].
(b) Con la base ortogonal dada para <2   
K = h 11 ; ;11 i
representar el mismo vector ~v con respecto de esa base. Luego proyectar el vector
sobre cada elemento de esta base. Notar que los coe cientes en la representacion y
en la proyeccion son los mismos.
(c) Dada una base ortogonal K = h~1; : : : ;~k i para un subespacio de <n. Probar
que para cualquier ~v en el subespacio, la i-th componente de la representacion de v
en esa base es el coe ciente escalar (~v  ~i)=(~i  ~i ) de la proj[~ ](~v ).
(d) Probar que ~v = proj[~1](~v ) +    + proj[~ ](~v ).
2.8 Mostrar que las columnas de una matriz n  n forman una base ortonormal si y
solo si la inversa de la matriz es su transpuesta.
Este es un ejemplo:
0 1=p2 1=p2 01
@;1=p2 1=p2 0A
0
0 1
Para generalizar ...
i

1.3 Subespacios ortogonales. Proyeccion sobre un Subespacio.


Al proyectar un vector sobre una recta se lo ha descompuesto en dos partes: la parte
que yace sobre la recta proj[~s ] (~v ), y lo que resta ~v ; proj[~s ](~v ) que es ortogonal a la recta.
Para generalizar a arbitrarios subespacios, se sigue la misma idea.
Para eso de nimos...
De nicion Dos dos subespacios S1 y S2 de <n, son ortogonales si para todo x 2 S1 y
todo y 2 S2 se cumple que el producto escalar x  y = 0.
Ejemplo:(a) En <3 , el eje x es un subespacio ortogonal al eje y.
... Otro ejemplo:
(b) El eje z es ortogonal al subespacio determinado por el plano xy.
( c) Pensar otros.

Con mas condiciones ...


De nicion El complemento ortogonal de un subespacio S de <n es

S ? = f~v 2 <n ~v es perpendicular a todos los vectores en S g

(se lee \S perp"). La proyeccion ortogonal sobre un subespacio S projS (~v ) de un vector
es la proyeccion sobre S a lo largo de S ?.

10

Veamos como obtener el subespacio \ ortogonal complementario" de un subespacio S


dado.
... Se obtendra a partir de analizar lo que sigue.

Observacion Consideremos ... las matrices A de m  n


... El espacio nulo de ellas es N (A) = fx : x 2 <n : Ax = 0g  <n
Por tanto, el subespacio N (A) es \ortogonal" a cada la de A,...
... es \ortogonal a cualquier combinacion" de las las de A.

As ...
... N (A) es ortogonal al subespacio generado por las las de A.
Otra forma de decir lo mismo ...
... N (A)  <n es \ortogonal" al subespacio generado por las columnas de AT . Se
acostumbra a denotar R(AT ) al subespacio generado por las columnas de AT (o las de
A), y satisface R(AT )  <n).
... Sabemos que dim(N (A)) + dim(R(AT )) = n, que es la dimension de <n . Luego ...
... N (A) es el \ complemento ortogonal" del subespacio generado por las las de A ,
o lo que es igual, es el complemento ortogonal al subespacio generado por las columnas
de AT , denominado R(AT ). El unico elemento en comun entre ellos es el 0 vector, y la
suma de sus dimensiones es n, que es la dimension del espacio total <n .
... Entonces N (A) = (R(AT ))?.

Ademas...
... el espacio generado por las columnas de A (m  n), son todos los vectores de <m
que son combinaciones de lasPcolumnas de A, se denota:
R(A) = fb : b 2 <m : b = nj=1 aj xj = Axg  <m .
... Y el \ complemento ortogonal de ese subespacio R(A) es el conjunto ortogonal a
las columnas de A. Es el anulador o espacio nulo de las columnas de A. Si ahora se
considera AT , el complemento ortogonal de las las de AT es el N (AT )  <m . Entonces
...
... dim(N (AT )) + dim(R(A)) = m, ...
... (R(A))? = N (AT ). As para obtener el subespacio ortogonal complementario de
R(A), se calcula el N (AT ) = fy : y 2 <m; tal que AT y = 0g.

11

Veamos....

Ejemplo En <3, para encontrar el complemento ortogonal del plano

0x1

P = f@y A 3x + 2y ; z = 0g
z

comenzamos con una base de P .

011 001
A = h@0A ; @1Ai
3

Cualquier ~v perpendicular a todo vector en la base A es perpendicular a todo vector del


subespacio generado por esa base B
Por tanto,...
... el subespacio P ? consiste de los vectores que satisfacen las dos (2) condiciones ...

;1

0v 1
 1
3  @v2 A = 0
v3

;0

0v 1
1

2 cdot @v2A = 0
v3

... Podemos expresar estas condiciones mas compactamente como un sistema lineal...

0v 1 
1
P ? = f@v2A 10
v3

0
1

0v 1  

3 @ v1 A = 0 g
2
2
0
v3

As ... basta con encontrar el espacio nulo de la aplicacion representada por la matriz.
As ... calculando la solucion del sistema homogeneo ...

0v 1
0;31
1 v
3v3 = 0 g = fk @;2A k 2 <g
P ? = f@v2A 1 v +
2 + 2v3 = 0
1
v3
12

Problema Si S es el subespacio dado por plano-xy de <3 , que es S ??


Un primer intento de respuesta es que S ? es el plano yz-plane, ...
... pero eso no es cierto !!!.
Algunos vectores del plano yz no son perpendiculares a todo vector del plano xy.

011 001
@1A 6? @3A
0

 = arccos(

 p p  )  0:94 rad
2  13

1 0+1 3+0 2

... Ciertamente S ? es el eje-z, ya que considerando la base natural en el plano-xy se


obtiene ...
0x1 
0x1   0x1



S ? = f@y A 10 01 00 @y A = 00 g = f@y A x = 0 and y = 0g
z
z
z
Los dos ejemplos que hemos visto ilustran la primer sentencia de la de nicion de
subespacios ortogonales complementarios.
Sigamos con subespacios de <n....
... Hemos visto que si S es un subespacio para hallar su complemento ortogonal basta
formar una matriz A con columnas dadas por una base de S , y luego hallar el N (AT ).
Ademas dim(N (AT )) + dim(R(A)) = n. Se ve claramente que ambos subespacios son
complementarios.
... Si se tiene una base de S (de dimension k): fv1 ; v2 ; :::vk g; y una base de S ? (de
dimension n ; k): fu1 ; u2; :::un;k g, entonces la union de ellas es una base de <n.
... As cada vector de x 2 <n se puede escribir un vocamente como combinacion de
esos vectores, y se ve que x se separa en una suma de dos vectores:
x = xS + xS? .
Luego... <n = S  S ?.
El resultado siguiente justi ca la segunda sentencia.

Lema Si S es un subespacio de <n. El complemento ortogonal de S es tambien un


subespacio.
Ademas, paraLcualquier ~v 2 <n, se puede descomponer ~v = projS (~v ) + projS (~v )?.
As <n = S S ?.

Para encontrar la proyeccion ortogonal sobre un subespacio...


... el siguiente resultado da una forma de hacerla.

Teorema Sea ~v un vector en <n y sea S un subespacio de <n con base h~ 1; : : : ; ~ k i. Si


A es la matriz cuyas columnas son los ~ 's entonces projS (~v ) = c1~ 1 +    + ck~ k donde los
coe cientes ci son las coordenadas del vector (AT A)AT ~v. As projS (~v ) = A(AT A);1 AT ~v.
Demostracion. El vector projS (~v) es un elemento de S y as es una combinacion lineal
de una base de ese subespacio c1  ~ 1 +    + ck  ~ k . Como las columnas de A son los
~ 's, eso puede expresarse : existen coe cientes ~c 2 <k tal que projS (~v ) = A~c (expresado
compactamente por medio de la multiplicacion matriz por vector).
13

Como ~v ; projS (~v ) es perpendicular a cada elemento de la base, tenemos (expresando


compactamente).
~0 = AT ;~v ; A~c = AT ~v ; AT A~c
Resolviendo para ~c ( mostrando que AT A es invertible como ejercicio)
; 
~c = AT A ;1AT  ~v
da la formula matricial de la proyeccion ... projS (~v ) = A  ~c = A(AT A);1AT :c, si las
columnas de A son una base de S .
Ejemplo Proyectar ortogonalmente este vector en el subespacio que se indica:
011
0x1

~v = @;1A
S = f@y A x + z = 0g
1
z
Primero, formar una matriz cuyas columnas son una base del subespacio
00 1 1
A = @1 0 A
0 ;1
... y luego calcular
00 1 1 
1 0 ;1
;

0
1
;1 T @
T
A A A A = 1 0 A 1=2 0 0 1 0
0 ;1

0 1=2
=@ 0

0 ;1=2
1 0 A
;1=2 0 1=2
Con esta matriz, calcular la projeccion ortogonal sobre S de cualquier vector es facil.
0 1=2 0 ;1=21 0 1 1 0 0 1
projS (~v) = @ 0 1 0 A @;1A = @;1A
;1=2 0 1=2
1
0

La proyeccion sobre un subespacio es una generalizacion, el esquema muestra como


de nir proyeccion ortogonal sobre cualquier subespacio de <n, de cualquier dimension.
14

Ejercicios

X 3.1 Encontrar S? siendo


S:
x

x

(a) S = f y x + y = 0g (b) S = f y ;2x + 3y = 0g
x
 x
(c) S = f y x ; y = 0g (d) S = f~0 g (e) S = f y x = 0g
0x1
0x1

@ A
@ A
(f) S = f y

;x + 3y + z = 0g (g) S = f y x = 0 and y + z = 0g
z
z
3.2 Formas distintas para proyectar ortogonalmente: Compararlas, considerando el
plano P especi cado por 3x + 2y ; z = 0 en <3.
(a) Encontrar una base para P .
(b) Encontrar P ? y una base para P ?.
(c) Representar el vector siguiente con respecto a la base de <3 proveniente de ambas
bases.
011
~v = @1A
2
(d) Encontrar la proyeccion ortogonal de ~v en P dejando la parte sobre P desde el
previo item.
(e) Chequear usando la forma matricial
X 3.3 Chequear las tres formas diferentes para proyectar un vector sobre una recta.

1
x
(a) ~v = ;3 ; M = f y x + y = 0g
001
0x1

(b) ~v = @1A ; M = f@y A x + z = 0 and y = 0g

2
z
3.4 Que es la proyeccion ortogonal en el subespacio S = f0g.
3.5 Mostrar que si S  <n es un subespacio con base ortonormal h~1; : : : ;~ni entonces
la proyeccion ortogonal de ~v en S es :
(~v  ~1 )  ~1 +    + (~v  ~n)  ~n
~v = proj[~1 ](~v ) +    + proj[~ ](~v ) = ~~v ~~1  ~1 +    + ~~v ~~n  ~n
1 1
n n
X 3.6 Mostrar que si un vector es perpendicular a un conjunto entonces es perpendicular
a todo vector en el subespacio generado por ese conjunto.
3.7 Es verdadero o falso : la interseccion de un subespacio y su complemento ortogonal
es el f0g.
3.8 (a) Mostrar que si las columnas de A forman un conjunto linealmente independiente entonces AT A es invertible
(b) Mostrar que si las columnas de Ason mutuamente ortogonales y no nulas entonces
AT A es la matriz identidad
3.9 Mostrar que la matrix de proyeccion A(AT A);1AT es simetrica.
n

15

1.4 Proyecci
on ortogonal y aproximaci
on de cuadrados mnimos
La proyeccion ortognal de un vector ~v Rn sobre un subespacio S Rn puede
tambien verse como la mejor aproximacion al vector v basada en un vector de S. Si se
desea aproximar ~v mediante un vector w
~ S S, la mejor aproximacion se lograra eligiendo
w
~ S como el vector de S m
as cercano a ~v , y tal vector es entonces la proyeccion ortogonal
~vS = projS (~v ) .
En efecto, la distancia al cuadrado de ~v a un vector arbitrario w
~ S de S es
D2 = |~v w
~ S |2 = |(~v ~vS ) (w
~ S ~vS )|2
= |~v ~vS |2 + |~vS w
~ S |2 2(~v ~vS ) (w
~ S ~vS )
2
2
= |~v ~vS | + |~vS w
~S|
donde |~u|2 = ~u ~u es la longitud al cuadrado de un vector ~u y en el u
ltimo paso hemos
utilizado que ~v ~vS es ortogonal a todo vector de S, por lo que (~v ~vS ) (w
~ S ~vS ) = 0.
Por lo tanto, el valor mnimo de D2 se obtiene para w
~ S = ~vS , con
2
Dmin
= |~v ~vS |2 = |~v |2 |~vS |2

Si S es generado por un conjunto linealmente independiente de vectores (w


~ 1, . . . , w
~ k ),
k n, el resultado dado en la u
ltima seccion asegura que ~vS = c1 w
~ 1 + . . . ck w
~ k , con
~c = (c1 , . . . , ck )T dado por
~c = (AT A)1 AT ~v

(1)

es decir, ~c es la solucion del sistema


(AT A)~c = AT ~v
donde A = (w
~ 1, . . . , w
~ k ) es una matriz de n k y AT A de k k es no singular.
Un ejemplo corriente de aplicacion es el ajuste de los valores f (xi ) de una funcion
f : R R para un conjunto de puntos (x1 , . . . , xn ), por un polinomio de grado k,
P (x) = c0 + c1 x + c2 x2 + . . . + ck xk
con k normalmente menor o mucho menor que n, y c0 , . . . , ck los coeficientes a ajustar.
Lo que se desea es elegir el polinomio que minimiza la suma de la diferencia de cuadrados
n
X
D =
[f (xi ) P (xi )]2
2

(2)

i=1

ya que en general no existira un polinomio de grado k < n1 que reproduzca exactamente


los n datos f (xi ), es decir, que satisfaga P (xi ) = f (xi ) para i = 1, . . . , n.
Definiendo el vector ~v = (f (x1 ), . . . , f (xn )) Rn , y los k + 1 vectores w
~ 0 = (1, . . . , 1),
w
~ 1 = (x1 , . . . , xn ), w
~ 2 = (x21 , . . . , x2n ), . . . w
~ k = (xk1 , . . . , xkn ) tambien Rn , se puede escribir
D como la longitud del vector ~v w
~ S , con w
~ S = (P (x1 ), . . . , P (xn )):
D2 = |~v w
~ S |2
w
~ S = (P (x1 ), . . . , P (xn )) = c0 w
~ 0 + c1 w
~ 1 + . . . + ck w
~k
16

El problema de encontrar los coeficientes c0 , . . . , ck que minimizan D2 es pues el mismo


problema de encontrar el vector w
~ S de S mas cercano a ~v , siendo S el subespacio de Rn
generado por los vectores w
~ 0, . . . , w
~ k . La solucion para ~c = (c0 , c1 , . . . , ck )T estara entonces
dada por (1), siendo ahora A una matriz de n (k + 1) de elementos Aij = xji para
j = 0, . . . , k, y AT A una matriz de (k + 1) (k + 1), con
n
n
X
X
j l
T
T
(A A)jl =
xi xi , (A ~v )j =
xji f (xi ) , j, l = 0, . . . , k .
i=1

i=1
2

Si k = 2, P (x) = c0 + c1 x + c2 x es un polinonio de grado 2 y AT A es de 3 3.


f HxL
8

f HxL

f HxiL

c0+c1 xi+c2 x2i

-1.5

-1.0

c0+c1 xi+c2 x2i +c3 x3i +c4 x4i

-0.5

0.5

1.0

1.5

f HxiL

-1.5

-1.0

-0.5

0.5

1.0

1.5

Se muestra en la figura la aproximacion de 11 datos f (xi ) por medio de un polinomio


de grado 2 y uno de grado 4. No obstante, debe tenerse en cuenta que si los datos no
exhiben un comportamiento polinomial, el ajuste puede presentar oscilaciones, cuya magnitud puede aumentar al incrementarse el grado k del polinomio. La matriz AT A se torna
tambien mal condicionada al aumentar k. Notese que la dimension de AT A depende solo
del grado del polinomio y no del n
umero de puntos a ajustar.
El formalismo anterior puede extenderse a un ajuste basado en la combinacion lineal
de funciones linealmente independientes gj (x), reemplazando P (x) por
G(x) = c0 + c1 g1 (x) + . . . + ck gk (x)
En este caso Aij = gj (xi ), y el formalismo puede aplicarse si AT A es no singular, con
T

(A A)jl =

n
X

gj (xi )gl (xi ) , (A ~v )j =

i=1

n
X

gj (xi )f (xi ) .

i=1

Ejercicios
1. Verifique que la minimizacion de D2 (2) respecto de los coeficientes cj conduce a la
solucion (1).
2. Determine el polinomio P2 (x) = c0 + c1 x + c2 x2 que minimiza D2 si los datos son
f (1,5) = 8,5, f (0,9) = 2,5, f (0,3) = 1, f (0) = 0,5, f (0,3) = 0,6, f (0,9) = 1,5,
f (1,5) = 3 (Utilice PC). Estos corresponden a la posicion (en una cierta escala) en distintos
tiempos de un movil con aceleracion variable. Si la aceleracion fuese constante, como sera
el ajuste con este polinomio?
17

Matematica C
Transformaciones Lineales: Apendice

1 Aplicaciones. Gra cos y animaciones en computadoras


Para dibujar las guras (gra cos, objetos,...) en un espacio bi-dimensional, como aparecen en el monitor de una computadora:
1. Se almacenan en la memoria como un conjunto de vertices (puntos)
2. Se dibujan los vertices y luego se los une mediante lneas rectas para obtener la
gura.

As si se tienen p vertices (xi; yi) para i = 1; : : : ; p, se almacenan como una matriz T
de 2  (p + 1)

x x    x x 
1
T= 1 2
p

y1 y2    yp y1

Por ejemplo, para dibujar un triangulo...


... con vertices (0; 0), (1; 1) y (1; ;1), almacenamos los vertices como

0

1 1 0
0 1 ;1 0

A~nadimos la cuarta columna para indicar que el ultimo punto (1; ;1) debe ser conectado (mediante un procedimiento de dibujo computacional) al primer punto (0; 0) para
completar el triangulo

Para transformar una gura, hay que cambiar de posicion de los vertices y \redibujar" la
gura. Si la \transformacion" es lineal, se puede hacer esto mediante una multiplicacion
de matrices (en R 2 ).
...

Animacion: Viendo una sucesion de estos dibujos, realizados de manera muy rapida
en tiempo real, produce el efecto de una \animacion".

1.1 Usando cuatro transformaciones basicas

(1) Dilataciones y contracciones: L (x) = c:x (operador de escala)


c > 1:
0 < c < 1:

dilatacion
contraccion

L se representa por la matriz c:I2 , donde I2 es la matriz identidad de 2  2.


Por ejemplo ...
... para dilatar el triangulo anterior por un factor 3, construimos un nuevo triangulo
mediante su matriz de vertices
3 0 0 1 1 0 0 3 3 0
0
T = (3:I2 ) :T = 0 3 : 0 1 ;1 0 = 0 3 ;3 0

(2) Re exion respecto de un eje:


Lx (x) =
Otra:

Ly (x) =

;x
y

x

;y re exion sobre el ejex)

(re exion sobre el ejey)

Ambas \transformaciones son lineales", y respecto de la base canonica e1 y e2 se


representan mediante las matrices...
La re exion sobre el eje \x", que es la recta y = 0:

Ay =

;1 0
0 1

Siguiendo con el ejemplo del triangulo ...


... La re exion del \triangulo" respecto del eje x ...
Hay que aplicar la matriz de esta transformacion a cada vertice + el vertice nal
agregado:
1 0  0 1 1 0 0 1 1 0
0
T = Ax:T = 0 ;1 : 0 1 ;1 0 = 0 ;1 1 0
De igual manera, respecto del eje \y", la re exion del triangulo:
;1 0 0 1 1 0 0 ;1 ;1 0
00
T = Ay :T = 0 1 : 0 1 ;1 0 = 0 1 ;1 0
... As dibujando los puntos transformados ...

T 0 = Ax:T

T 00 = Ay :T

(3) Rotaciones: Para rotar un vector un angulo  en sentido contrario a las agujas del
reloj, multiplicamos cada vector por la matriz
cos  ; sin 
A = sin  cos  (operador rotacion)
Para obtener la rotacion del triangulo...

T0

=
=

cos  ; sin  0 1 1 0
A :T = sin  cos  : 0 1 ;1 0
0 (cos  ; sin ) (cos  + sin ) 0


0 (sin  + cos ) (sin  ; cos ) 0


T 0 = A :T

Ahora, una transformacion muy usada, pero que \no es lineal" (veri car que no
cumple las propiedades de linealidad)...

(4) Traslaciones: L (x) = x + a


Si a 6= 0, sabemos que no es una transformacion lineal, y por tanto, no puede ser
representada mediante una matriz.
... Pero, a pesar de no ser lineal, se puede hacer un arti cio para poder usar una matriz. Para eso se de ne un \nuevo sistema" de coordenadas, denominadas \coordenadas
homogeneas" que permite el uso de una matriz...

1.2 Inversas, composicion y conmutacion de operaciones


La inversa de una de estas operaciones deshace la transformacion y retorna al vector
original x.

Ejemplo 1 Para rotar x en sentido antihorario mediante el angulo , multplicamos x


por A

x0 = A:x =

cos  ; sin 
:x
sin  cos 

Para deshacer esta operacion y recobrar el vector original x, rotamos x0 en sentido


horario mediante el angulo , o en forma equivalente ...
... en sentido antihorario mediante el angulo ; ...

x = B:x0

=
=

cos (;) ; sin (;)


0
sin (;) cos (;) :x
 cos  sin  
0
; sin  cos  :x

Pero ...

x = B:x0 = B: (A:x) = B:A:x


=) B:A = I
... B es la inversa de A. De hecho
 cos  sin   cos  ; sin 
B:A = ; sin  cos  : sin  cos 
 cos2  + sin2 

;
cos

sin

+
sin

cos

= ; sin  cos  + cos  sin 
cos2  + sin2 
1 0
= 0 1

Otro caso ...


4

Ejemplo 2 Para re ejar x sobre el eje x2 , multiplicamos x por A


;1 0 x  ;x 
1
0
x = A:x =
: 1 =
x.

0 1
x2
x2
... Si de nuevo re ejamos x0 sobre el eje x2 , deberamos recobrar nuestro vector original
Esto es ...

x = A:x0 = A: (A:x) = A2:x


=) A2 = I
la inversa de A es A

A;1 = A
Efectivamente ...

A =
2

;1 0 ;1 0
0 1 : 0 1
1 0

0 1
Ejemplo 3 Para invertir el sentido de x, multiplicamos x por la matriz A

x0

= A:x =

;1

;x 

 

0 : x1
0 ;1
x2

1
;x2 = ;x
... Si ahora invertimos el sentido de x0 , recobramos x
x = A:x0 = A: (A:x)
= A
2;:x1 0  ;1 0
= 0 ;1 : 0 1 :x
1 0
= 0 1 :x

por tanto ...

A;1 = A

Ejemplo 4 Para rotar x en sentido antihorario mediante el angulo  = =2, multiplicamos x por A
cos  ; sin 
0
x = A:x =
:x
=

0 ;1sinx cos ;x 


1
2
1 0 : x2 = x1
5

... o, rotamos x en sentido antithorario primero mediante =3, y luego rotamos mediante =6 ...

x0

cos =6 ; sin =6 cos =3 ; sin =3


A2: (A1 :x) = sin =6 cos =6 : sin =3 cos =3 :x
p3=2 ;1=2  1=2 ;p3=2
p

3=2 : 3=2 1=2


1=2
0 ;1 x  ;x 
= 1 0 : x1 = x 2
2
1

:x

As componer la rotacion A2 :A1 es equivalente a la secuencia de rotaciones A1 , y A2


(A1 seguida por A2 ). Esta composicion de dos rotaciones sucesivas es equivalente a una
rotacion de =2.
... En este caso, una rotacion de =6 (A1 ) seguida por una rotacion de =3 (A2 ) es
equivalente a una de =3 seguida de una de =6

A1 :A2 =
A2 :A1 =

 1=2 ;p3=2 p3=2 ;1=2 0 ;1


p
p
3=2 1=2 : 1=2
3=2 = 1 0
0 ;1
1 0

El ejemplo de las dos rotaciones sucesivas muestra ...


Las matrices que representan operadores lineales conmutan (A:B = B:A) si las dichas
operaciones dan el mismo resultado cuando se las realiza en orden inverso.

Ejemplo 5 Para proyectar x sobre el eje x2 , multiplicamos x por A


x0 = A:x =

0 0 x   0 
: 1 =
0 1

x2

x2

Si ahora proyectamos x0 sobre el eje x2 , obtendremos el mismo resultado, ya que x0 se


encuentra sobre el eje x2

A:x0 = A (A:x) =
esto es

0 0  0   0 

0
0 1 : x2 = x2 = x

0 0 0 0 0 0

A = 0 1 : 0 1 = 0 1 =A
2

De hecho Ak = A para todo k = 1; 2; : : : para todo tipo de operador proyeccion.

Observacion 6 Un operador proyeccion no tiene inversa

Todos los vectores que tengan la misma coordenada x2 tendran la misma proyeccion
sobre el eje x2 . O sea, seran transformados al mismo vector x0 .
El operador proyeccion no tiene inversa, debido a que el vector x0 no puede ser retornado sobre un unico vector x.
De hecho ...
0 0
det A = det 0 1 = 0
... y por tanto A es singular (no invertible).
La matriz A que representa a un operador lineal es \singular" (no invertible) si la
operacion \ no puede deshacerse o invertirse" para recobrar el vector inicial unico .

1.3 Traslaciones y Coordenadas homogeneas

De nicion Las coordenadas homogeneas se forman al asociar cada vector x en R 2 el


vector x^ en R 3 correspondiente a

x

x= y

0 x1
! @y A = x^
1

Para dibujar un punto representado por estas \ coordenadas homogeneas" x^, solo hay
que \ignorar" el tercer coe ciente y simplemente dibujar (x; y).
Con esta de nicion arti cial (y aparentemente arbitraria), los \cuatro tipos" de operaciones gra cas descriptas, a pesar que la 4ta. no es lineal, podran ser representadas
mediante matrices de 3  3, si se las quiere combinar con traslaciones. Recuerden que si no
usan traslaciones, no hay necesidad de usar ningun arti cio ya que las transformaciones
1-2-3, cada una tiene su matriz de representacion.
Para el caso, cuando aparecen traslaciones, en las coordenadas homogeneas se agrega
la \tercer la" y la \tercer columna" de la matriz identidad I3 , de 3  3:
As en esta situacion ....
0c 0 01
A la matriz de dilatacion c:I2: se le agrega... @0 c 0A Observar que no es c:I3.
0 0 1
3
Esa sera una dilatacion en < , que no es la dada en 2- variables.
De igual manera....

01 0 01
A la matriz de re exion A : @0 ;1 0A
0 0 1
0cos  ; sin  01
A la Matriz de rotacion A : @ sin  cos  0A
x

0
0 1
Luego, por ejemplo, la aplicacion de una re exion respecto del eje \x" a un vector
arbitrario (x,y):

Axx^ =
=

01 0 01 0x1
@0 ;1 0A : @yA
00x 10 1 1
x
@;yA !; al eliminar la tercer componente ..... ;y
1

Para las operaciones o transformaciones, Tipo: 1, 2 y 3, el agregado de una coordenada


" cticia" es super uo, pues son lineales y tienen su matriz de representacion.
.... Pero, para la traslacion (que no es lineal), ahora s podremos construir una \matriz
de representacion con respecto a las coordenadas homogeneas" ...
Para eso, reemplazamos en la matriz I3, los dos primeros coe cientes de la columna
" cticia" por los coe cientes del vector de traslacion a ...

01
Aa = @0

0 ax
1 ay A
0 0 1

Se tiene entonces que la aplicacion de esa matriz a un vector arbitrario (x,y), con la
tercer componente 1 ...

Aa:x^ =
=

x + a 

01 0 a 1 0x1
@0 1 a A : @y A
00x +0a 11 1
@y + a A ! eliminado la tercer componente se obtiene:
x
y

y + ay =x+a
x

En el ejemplo del triangulo, su aplicacion, a cada vector o vertice con la tercer componente agregada ...

00
T^ = @0

1 1 0
1 ;1 0A
1 1 1 1

T^0 =
=

01 0 a 1 00 1 1 01
Aa:T^ = @0 1 a A : @0 1 ;1 0A
0a (1 +0a 0) (11 + a )1 a11 1 1
@a (1 + a ) (1 + a ) a A
x
y

x
y

x
y

0a 1
Los vectores columnas de T^, se trasladan mediante @a A = a.
x
y

T^0 = AaT^

T^0 = AaT^

En general, para \n" vertices se considera ...

0x x    x 1 0x x    x x 1
1
2
1
2
1
T^ = @ y1 y2    y A o @y1 y2    y y1 A
n

1 1  1
1 1  1 1
Otra transformacion \lineal" conocida...
Observaci
on 7 El operador \proyeccion" tambien puede ser tratado de esta manera,
y es muy importante para representaciones gra cas en 2-dimensiones, con perspectiva
espacial, de un objeto tridimensional.

1.4 Operaciones sucesivas o composicion de transformaciones


Las sucesivas aplicaciones de estas operaciones (rotaciones, re exiones, traslaciones(no
lineal)) pueden lograrse mediante sucesivas multiplicaciones, o equivalentemente mediante
la multiplicacion \una matriz" que es el \producto de las matrices de representacion", en
el orden correspondiente de cada operacion.

Ejemplo 8 Para dilatar un gura mediante un factor c > 1, y luego trasladarla mediante
un vector a, multiplicamos la matriz de vertices T^ por el producto de dos matrices

01
T^0 = (Aa) : (c:I2) :T^ = @0

10

0 ax
c 0 0
c 0 ax
1 ay A : @0 c 0A :T^ = @0 c ay A :T^
0 0 1
0 0 1
0 0 1

... y para rotar la imagen resultante en sentido antihorario mediante el angulo , multiplicamos T^0 por A

T^00 =
=

0cos  ; sin  01 0c 0 a 1
A :T^0 = @ sin  cos  0A : @0 c a A :T^
0c cos  ;c0sin  (0a cos1 ; a 0sin0)11
@ c sin  c cos  (a sin  + a cos )A :T^
x
y

El ORDEN DE LAS OPERACIONES ES CRITICO.


Por ejemplo, una rotacion seguida por una traslacion produce un resultado distinto
que una traslacion seguida por una rotacion.
Rotaci
on... y luego traslacion :

T 0 = A :T

T 00 = Aa:T 0 = Aa:A :T
10

Ahora ...
Traslaci
on... y luego rotacion :

T 0 = Aa:T

T 00 = A :T 0 = A :Aa:T

Observacion 9 Las composiciones no son equivalentes ya que las matrices Aa y A no


conmutan

Aa:A 6= A :Aa
... y por tanto, el \orden" de las operaciones es importante.
Un programa simple de computadora en dos dimensiones es una secuencia de estas
operaciones, calculadas y expuestas muy rapidamente, en tiempo real.

11

Facultad de Ingeniera
UNLP

Matematica C
III. Numeros Complejos
2014

1.

Conceptos b
asicos

1.1.

Introducci
on

Comenzamos por definir el n


umero i (unidad imaginaria), que satisface
i2 = 1
De esta forma, la ecuacion
z 2 = 1
tendra las races z = i y z = i.
Un n
umero complejo es de la forma
z = x + y i,

x, y R

donde tanto x como y son n


umeros reales. La parte real de z es x, y la parte imaginaria
de z es y (tambien un n
umero real!):
Re(z) = x, Im(z) = y
Ejercicio: Hallar la parte real e imaginaria de a) z = 2 3i, b) z = i.
Un n
umero complejo cuya parte imaginaria es 0 es identificado como un n
umero real.
Por ejemplo, 5 = 5 + 0i, 0 = 0 + 0i.
Tambien, 0 + yi = yi. Un n
umero complejo no nulo cuya parte real es 0, tal como 5i, se
dice que es imaginario o imaginario puro.
Ademas, yi = iy, y x + yi = yi + x. Por ejemplo, 1 + 2i = 1 + i2 = 2i + 1.
Dos n
umeros complejos z1 = x1 + iy1 , z2 = x2 + iy2 , son iguales si y solo si tanto sus
partes reales como imaginarias son respectivamente iguales:
x1 + y 1 i = x2 + y 2 i x1 = x2 , y 1 = y 2

(x1 , x2 , y1 , y2 R)

Por ejemplo, x + yi = 2 + 3i implica x = 2, y = 3 si x e y son reales.


El conjunto de todos los n
umeros complejos se denota
con la letra C:
C = {x + iy, x R, y R}

ImHzL
y

z=x+yi

Podemos representar un n
umero complejo z = x + yi
mediante un par ordenado (x, y). Este par corresponde
a un punto o vector en el plano cartesiano, que en este
contexto se denomina plano complejo.
0

ReHzL

1.2.

Conjugaci
on

El conjugado de un n
umero complejo z = x + iy se lo denota como z o z , y se lo
define como
ImHzL
z = x iy
y

de forma que Re(


z ) = Re(z), Im(
z ) = Im(z).

z=x+yi

Por ejemplo, i = i, 1 + 2i = 1 2i y 1 2i = 1 + 2i y .
0

Geometricamente, conjugar corresponde a reflejar z


respecto del eje real.

-y

Obviamente, z = z (o sea, (z ) = z).

1.3.

ReHzL

z=x-yi

Suma de n
umeros complejos

Dados dos n
umeros complejos z1 = x1 + y1 i, z2 = x2 + y2 i, su suma se define como
z1 + z2 = (x1 + x2 ) + (y1 + y2 )i

ImHzL
z1 +z2

Por ejemplo, (1 + 2i) + (3 4i) = 4 2i.

z2

Geometricamente, z1 + z2 corresponde al vector suma de los


vectores que representan a z1 y z2 .
z1

La resta z1 z2 es la suma de z1 y el opuesto z2 = x2 y2 i


de z2 :
z1 z2 = (x1 x2 ) + (y1 y2 )i

Por ejemplo, (1 + 2i) (3 4i) = 2 + 6i, (1 + 2i) (1 + 2i) = 0.


Ejercicio: Indique el significado geometrico de z1 z2 .
Problema 1: Mostrar que el conjugado de una suma es la suma de los conjugados: y que
el conjugado de una resta es la resta de los conjugados:
z1 z2 = z 1 z 2
Problema 2: Mostrar que es posible expresar la parte real y la parte imaginaria de un
n
umero complejo z en terminos de z y su conjugado z:
Re(z) =

z + z
,
2

Im(z) =

z z
2i

ReHzL

1.4.

Producto de dos n
umeros complejos

A partir de la propiedad basica i2 = 1, el producto de dos n


umeros complejos
z1 z2 = (x1 + y1 i)(x2 + y2 i) se realiza aplicando la propiedad distributiva (respecto de la
suma) y asociativa (respecto del producto):
(x1 + y1 i)(x2 + y2 i) = x1 (x2 + y2 i) + y1 i(x2 + y2 i)
= x1 x2 + x1 y2 i + y1 x2 i y1 y2
= (x1 x2 y1 y2 ) + (x1 y2 + y1 x2 )i

(1.1)

(1 + 2i)(3 4i) = 3 4i + 2i(3 4i) = 3 4i + 6i + 8


= 11 + 2i

(1.2)

Por ejemplo,

Problema 3: Probar que a) z1 z2 = z2 z1 b) z1 (z2 z3 ) = (z1 z2 )z3 c) z1 (z2 +z3 ) = z1 z2 +z1 z3


Problema 4: Probar que el conjugado de un producto es el producto de los conjugados:
z1 z2 = z 1 z 2
En particular, el producto de un n
umero complejo z por un n
umero real ,
(x + yi) = x + yi
corresponde, geometricamente, a la multiplicacion del vector que representa a z por el
escalar real . Por ejemplo, 3(1 + i) = 3 + 3i.
ImHzL
Por otro lado, el producto de un n
umero complejo z
por la unidad imaginaria i,
i(x + yi) = y + xi

i z=-y+xi
z=x+yi

corresponde, geometricamente, a rotar el vector que


representa a z un angulo de 90o en sentido antihorario.
Por ejemplo, i1 = i, ii = 1, i(1 + i) = 1 + i.

2
ReHzL

Problema 5: Probar el enunciado general anterior, recordando que


la matriz que representa a dicha rotacion en la base canonica de R2 es


0 1
R=
1 0

(1.3)

de forma que R(xy ) = (y


x ).
En consecuencia, multiplicar un n
umero complejo z por un n
umero imaginario i ( real)
o
corresponde, geometricamente, a rotar z un angulo de 90 en sentido antihorario y luego
multiplicar el vector resultante por el escalar real .
El significado geometrico de multiplicar a z por un n
umero complejo arbitrario,
(+i)z = z +iz, puede obtenerse sumando z y el vector rotado iz, pero es mas facil
visualizar el resultado final por medio de la representacion polar de un n
umero complejo,
que discutiremos luego.
4

Potencias de i: Las potencias pares son reales: i2 = 1, i4 = (i2 )2 = 1 y en general,


i2n = (i2 )n = (1)n

(1.4)

Las potencias impares son en cambio imaginarias: i1 = i, i3 = (i2 )i = i y en general,


i2n+1 = i2n i = (1)n i

(1.5)

Ejercicio: Graficar las potencias de i en el plano complejo.

1.5.

Valor absoluto de un n
umero complejo

El valor absoluto (o modulo) de un n


umero complejo z se define como
p
|z| = x2 + y 2

(1.6)

y es la longitud del vector que lo representa en el plano


El modulo |z| es siempre
complejo.
un n
umero real no negativo. Por ejemplo: |3+4i| = 32 + 42 = 25 = 5, |i| = 1, |2| = 2.
Es posible expresar |z| mediante z y su conjugado z como

|z| = z z
En efecto, si z = x + yi, con x, y reales, z z = (x + yi)(x iy) = x2 (iy)2 = x2 + y 2 = |z|2 .
Problema 6: Probar que |z| = 0 si y solo si z = 0.
Problema 7: Probar que |
z | = |z|.
Problema 8: Para z1 , z2 complejos generales, probar que
|z1 z2 | = |z1 ||z2 |
||z1 | |z2 ||| |z1 + z2 | |z1 | + |z2 |
Problema 9: Probar que |z1 z2 | es, geometricamente, la distancia entre z1 y z2 .

1.6.

Inverso de un n
umero complejo

El inverso (o recproco) z 1 de un n
umero complejo z 6= 0 es el n
umero complejo que
satisface
zz 1 = 1
Para obtenerlo, vimos en el punto anterior que z z = |z|2 6= 0 si z 6= 0. Por lo tanto,
z(
z /|z|2 ) = |z|2 /|z|2 = 1
de donde
z 1 =

z
x yi
= 2
,
2
|z|
x + y2

z 6= 0

(1.7)

Notamos aqu que el cociente z/ de un n


umero complejo z = x + yi por un n
umero real
6= 0 se define como (1/)z, es decir, z/ = x/+(y/)i. Por ejemplo, (2+4i)/2 = 1+2i.
5

Problema 10: Si z = x + yi 6= 0, probar, escribiendo z 1 = a + ib, que la ecuacion


zz 1 = 1 (o sea, xa yb + (xb + ya)i = 1 + 0i) implica necesariamente a = x/|z|2 ,
b = y/|z|2 .
Podemos ahora definir

1
z
= z 1 = 2
z
|z|

resultado que puede obtenerse multiplicando numerador y denominador de


i
ejemplo, 1i = i
2 = i:
1
= i
i
verificandose que i(i) = i2 = 1. Como segundo ejemplo,

1
z

por z. Por

1 1i
1i
1 1
1
=
=
= i
1+i
1+i1i
2
2 2
verificandose que (1 + i)(1 i)/2 = 1.
Problema 11: Probar que para z 6= 0,
 
1
1
=
z
z

1
= 1
z |z|

1.7.

Cociente de dos n
umeros complejos

Dados ahora dos n


umeros complejos z1 y z2 , con z2 6= 0, definimos el cociente como
z1 z2
z1
= z1 z21 =
z2
|z2 |2
(x1 + iy1 )(x2 iy2 )
=
x22 + y22

(1.8)

En la practica, se obtiene este resultado multiplicando numerador y denominador por z2 .


Por ejemplo:
1+i
(1 + i)(3 4i)
7i
=
=
3 + 4i
(3 + 4i)(3 4i)
25
Problema 12: Probar que para z2 6= 0,


z1
z2

z1
= ,
z2


z1 |z1 |
=
z2 |z2 |

1.8.

Representaciones reales y propiedades algebraicas

El conjunto C de los n
umeros complejos puede ser considerado como el conjunto R2
de pares ordenados (x, y) de n
umeros reales, con la suma y producto definidos por
(x1 , y1 ) + (x2 , y2 ) = (x1 + x2 , y1 + y2 )
(x1 , y1 ) (x2 , y2 ) = (x1 x2 y1 y2 , x1 y2 + y1 x2 )

(1.9)
(1.10)

Puede mostrarse que el producto as definido resulta conmutativo y asociativo (z1 z2 =


z2 z1 , (z1 z2 )z3 = z1 (z2 z3 ), para zj = (xj , yj ), j = 1, 2, 3), y distributivo con la suma:
z1 (z2 + z3 ) = z1 z2 + z1 z3 . De esta forma, denotando a los elementos de la base canonica
como 1 = (1, 0) y i = (0, 1), tenemos
i i = (0, 1) (0, 1) = (1, 0) = (1, 0) = 1
con 1 1 = 1 y 1 i = i. Ademas, podemos escribir
(x, y) = x(1, 0) + y(0, 1) = x1 + yi
con lo cual recuperamos la notacion estandar z = x + yi si identificamos x con x1.
Los n
umeros complejos pueden ser tambien representados por matrices reales de 2 2 de
la forma






x y
1 0
0 1
z =
=x
+y
(1.11)
y x
0 1
1 0
= xI + yR , x, y R
(1.12)




1 0
0 1
donde I =
es la matriz identidad y R =
la matriz de rotacion
0 1
1 0
definida en (1.3). Obtenemos, con el producto matricial usual, I.I = I, I.R = R.I = R, y


 

0 1
0 1
1 0
R.R =
=
= I
(1.13)
1 0
1 0
0 1
por lo que el par I, R constituye una representacion matricial real de 1 e i, jugando R el
rol de la unidad imaginaria i. Si z1 = x1 I + y1 R, z2 = x2 I + y2 R, obtenemos, con la suma
y producto matricial usual,
z1 + z2 = (x1 + x2 )I + (y1 + y2 )R
z1 .z2 = z2 .z1 = (x1 x2 y1 y2 )I + (x1 y2 + y1 x2 )R
con lo cual, identificando 1 = I y i = R, recuperamos las reglas de suma y producto de
los n
umeros complejos. Ademas, el determinante de la matriz (1.11) es el modulo de z:


x y
2
2


y x = x + y = |z|
7

Como estructura algebraica, el conjunto de n


umeros complejos es, al igual que los
n
umeros reales o racionales, un cuerpo. Una estructura algebraica {F, +, }, donde F es
un cierto conjunto de n
umeros y +, son operaciones binarias cerradas entre ellos, es un
cuerpo (o campo) si:
i) La suma satisface las propiedades de asociatividad, conmutatividad, existencia de elemento neutro (0, tal que z +0 = z z F ) y opuesto ( z F z tal que z +(z) = 0).
ii) El producto es tambien asociativo y conmutativo, con existencia de elemento neutro 1
(z 1 = z z F ) e inverso z 1 z 6= 0 (tal que z z 1 = 1)
iii) El producto es distributivo: z1 (z2 + z3 ) = z1 z2 + z1 z3 .
Finalmente, considerando escalares reales, el conjunto de los n
umeros complejos CR
forma un espacio vectorial de dimensi
on 2: Todo complejo z = x1 + yi es la combinacion lineal de 1 e i, con coeficientes reales x, y, siendo {1, i} linealmente independientes
(x1 + yi = 0 x = 0, y = 0).
Si consideramos en cambio escalares complejos, CC es un espacio vectorial de dimension 1 (Probar!).

1.9.

Races de polinomios

Mediante los n
umeros complejos, es posible encontrar todas las races de un polinomio
de grado arbitrario n 1, y as escribir el mismo como el producto de n polinomios
elementales de grado 1.
Consideremos primero un polinomio de grado 2, P2 (z) = az 2 + bz + c, con a 6= 0, y la
correspondiente ecuacion cuadratica
az 2 + bz + c = 0,

(a 6= 0)

Sabemos que las races estan dadas por la muy conocida formula

b b2 4ac
z =
2a

(1.14)

(1.15)

Problema 13: Obtener la formula (1.15), completando cuadrados.


Problema 14: Probar que para a 6= 0,
az 2 + bz + c = a(z z+ )(z z )
Para a, b y c reales, las races z seran entonces:
i) Reales y distintas si b2 > 4ac
ii) Reales e iguales si b2 = 4ac
iii) Complejas conjugadas si b2 < 4ac :
En este caso b2 4ac = (4ac b2 ), con 4ac b2 > 0, y por lo tanto,

b i 4ac b2
z =
2
8

(1.16)

con z = z + . Mediante la introduccion de los n


umeros complejos, podemos entonces
obtener siempre races de la ecuacion cuadratica (1.15), a
un si b2 > 4ac, y as escribir el
polinomio az 2 + bz + c en la forma factorizada (1.16).
Por ejemplo, la ecuacion
z 2 + 2z + 2 = 0
posee las races complejas conjugadas

2 2i
2 4 8
=
= 1 i
z =
2
2
Ejercicio: Verificar que z = 1 i satisfacen z 2 + 2z + 2 = 0.
Ejercicio: Verificar que
z 2 + 2z + 2 = (z + 1 i)(z + 1 + i)
La formula (1.15) es valida tambien para a, b, c complejos si a 6= 0 (veremos luego
como obtener races de n
umeros complejos), aunque en este caso las races complejas no
apareceran necesariamente como pares conjugados.
Los resultados anteriores se generalizan a polinomios de grado arbitrario n 1. Si
Pn (z) = an z n + an1 z n1 + . . . + a1 z + a0 , an 6= 0

(1.17)

es un polinomio de grado n 1, donde los coeficientes (constantes) ai , i = 0, . . . , n, pueden ser


reales o complejos, la ecuacion
Pn (z) = 0
posee siempre al menos una raz (real o compleja). Este enunciado constituye el teorema fundamental del algebra e indica que el cuerpo de los n
umeros complejos es algebraicamente
cerrado.
Mas aun, existiran siempre n n
umeros (races) z1 , z2 , . . . , zn , en general complejos y no necesariamente distintos, tales que Pn (zi ) = 0 para i = 1, . . . , n y
Pn (z) = an (z z1 )(z z2 ) . . . (z zn )

(1.18)

Como las races pueden repetirse, esta igualdad suele escribirse como
Pn (z) = an (z z1 )m1 (z z2 )m2 . . . (z zk )mk

(1.19)

donde z1 , . . . , zk denotan ahora races distintas (zi 6= zj si i 6= j), con 1 k n, y mi ,


i = 1, . . . , k, denota la multiplicidad de la raz iesima (1 mi n, m1 + . . . + mk = n).
Si los coeficientes ai del polinomio son todos reales, entonces las races complejas aparecen
siempre en pares conjugados.
Problema 15: Probar el enunciado anterior, mostrando primero que si los coeficientes son
reales Pn (z) = Pn (z).
9

1.10.

Ejercicios

1) Realizar las siguientes operaciones, expresando el resultado como z = x + yi, con x, y R:


a) (1 + 2i)(3 4i)

d)

1+i
1i

b) i + (2 4i)(2 +


e)

3 + 4i
3 4i

f)

i
3i

1
)
2i

g)

c) 7 +

25
3 + 4i

2+i
1+i
+
1 + i 1 + 1/i

2) Determinar la parte real, la parte imaginaria y el modulo de los resultados de las operaciones
anteriores.
3) Hallar todas las races de las siguientes ecuaciones, y escribir el polinomio correspondiente en la forma factorizada (1.16) o (1.18)(1.19):
a) z 2 2z + 2 = 0
d) z 2 + 2iz = 0

4) Resolver el sistema

b) 2z 2 + 4 = 0
e) z 2 + 2iz 1 = 0

c) 2z 2 + 2z + 1 = 0
f ) z4 1 = 0

ix + y = i
x + iy = 2


5) Indicar el error
en
a)
1
=
1
1
=
(1)(1)
=
1=1
q

1
1
1
y b) i = 1 = 1 = 1 = i.
6) Mostrar que la ecuacion
|z| = r, r > 0
corresponde geometricamente a un crculo de radio r centrado en el origen, y
|z z0 | = r, r > 0
a un crculo de radio r centrado en z0 .
7) Mostrar que si z1 = x1 + y1 i, z2 = x2 + y2 i,
Re(z1 z2 ) = x1 x2 + y1 y2
por lo que Re(z1 z2 ) es el producto escalar de (x1 , y1 ) y (x2 , y2 ).
Dar tambien una interpretacion geometrica a Im(z1 z2 ).

10

2.

Representaci
on polar y f
ormula de Euler

2.1.

Forma polar de un n
umero complejo

A partir del grafico, vemos que podemos expresar la parte real e imaginaria de
z = x + iy como

ImHzL
x = |z| cos ,

y = |z| sen

z=x+yi

y=z sin

donde
|z| =

p
x2 + y 2

es el valor absoluto de z y es el angulo que forma z


con el eje real en el plano complejo, denominado
argumento de z o arg(z).
Este angulo satisface
tan = y/x

x=z cos

ReHzL

y el cuadrante al que pertenece queda determinado por los signos de x e y. Normalmente


se toma (, ] (valor principal), pero + 2n resulta equivalente a n entero.

Podemos entonces expresar z = x + iy en terminos de |z| y como


z = |z|(cos + i sen )
Esta expresion se denomina representaci
on polar del n
umero complejo.

Por ejemplo, si z = 1 + i |z| = 2 y tan = 1, con x > 0, y > 0, por lo que


= /4. Por lo tanto

1 + i = 2(cos /4 + i sen /4)

Ejercicio: Verificar esta igualdad.

Problema 1: Probar que arg(


z ) = arg(
z)

11

(2.20)

La forma polar resulta muy conveniente par el producto y cociente: Si


z1 = |z|1 (cos 1 + i sen 1 ), z2 = |z|2 (cos 2 + i sen 2 )
entonces
z1 z2 = |z1 ||z2 | [cos(1 + 2 ) + i sen(1 + 2 )]

(2.21)

o sea, |z1 z2 | = |z1 ||z2 |, arg(z1 z2 ) = arg(z1 ) + arg(z2 ).


Y si z2 6= 0,
z1
|z1 |
=
[cos(1 2 ) + i sen(1 2 )]
z2
|z2 |

(2.22)

o sea, |z1 /z2 | = |z1 |/|z2 | y arg(z1 z2 ) = arg(z1 ) arg(z2 ).


Problema 2: Probar (2.21), utilizando cos(1 + 2 ) = cos 1 cos 2 sen 1 sen 2 ,
sen(1 + 2 ) = sen(1 ) cos 2 + cos 1 sen 2 .
Problema 3: Probar (2.22), partiendo de z1 /z2 = z1 z2 /|z2 |2 y el resultado de los dos problemas
anteriores.

Podemos ver as el significado geometrico del producto z1 z2 : Equivale a rotar z2 un


angulo 1 en sentido antihorario, y multiplicar el vector resultante por el escalar real |z1 |:
ImHzL
z3 =z1 z2

3 =1 +2
z3 =z1 z2

2
1

z2

z1

ReHzL

12

2.2.

F
ormula de Euler:

La forma polar resulta en realidad mas comoda cuando se utiliza con la famosa formula de
Euler para la exponencial de un n
umero imaginario:
ei = cos + i sen

(2.23)

Demostremos primero esta igualdad: Definiendo ei por medio de la serie exponencial,


y separando en terminos pares e impares, obtenemos, utilizando (1.4) y (1.5) (i2n = (1)n ,
i2n+1 = (1)n i),
i

=
=
=

X
(i)n

n!

n=0
2n 2n
X
n=0

X
n=0

X i2n+1 2n+1
i
+
(2n)!
(2n + 1)!
n=0

X
(1)n 2n
(1)n 2n+1
+i
(2n)!
(2n + 1)!
n=0

= cos + i sen

(2.24)

Con este resultado podemos tambien evaluar la exponencial de un n


umero complejo
general como
ex+yi = ex eyi = ex (cos y + i sen y)

(2.25)

donde x e y son reales. Por ejemplo, e2+i = e2 [cos(1) + i sen(1)].


Podemos ahora expresar z en la froma polar como
z = |z| ei
donde = arg(z).
Por ejemplo,
i = ei/2
ya que |i| = 1 y arg(i) = /2. Se comprueba que ei/2 = cos /2 + i sen /2 = 0 + i = i.
Tambien,
1 = ei
ya que | 1| = 1, arg(1) = . Se comprueba que ei = cos + i sen = 1 + 0i = 1.
Ejercicio: Mostrar que
1+i
= ei/4
2
13

(2.26)

Problema 4: Probar que si z = |z|ei z = |z|ei y, si z 6= 0,


1 i
1
=
e
z
|z|
Problema 5: Probar que |ei | = 1, y |ei | = || (, reales).
Dado que
ei1
= ei(1 2 )
ei2
resulta entonces obvio, utilizando la forma polar (2.26), que
ei1 ei2 = ei(1 +2 ) ,

z1 z2 = |z|1 ei1 |z2 |ei2 = |z1 ||z2 | ei(1 +2 )

(2.27)

|z1 | i(1 2 )
z1
|z|1 ei1
=
e
,
=
i
z2
|z|2 e 2
|z2 |

(2.28)

z2 6= 0

y por lo tanto obtener las formulas (2.21)(2.22). Resulta tambien obvio que |z1 z2 | =
|z1 ||z2 |, arg(z1 z2 ) = arg(z1 )+arg(z2 ), y |z1 /z2 | = |z1 |/|z2 |, arg(z1 /z2 ) = arg(z1 )arg(z2 ).

2.3.

Potencias de un n
umero complejo

Mediante la forma polar (2.23), resulta muy sencillo calcular cualquier potencia z n para
todo n natural o entero: Dado que (ei )n = ein , obtenemos
z n = (|z|ei )n
= |z|n ein
= |z|n [cos(n) + i sen(n)]

(2.29)
(2.30)

La u
ltima expresion se denota normalmente formula de De Moivre.
Estas expresiones son validas para n = 0, 1, 2, . . ., y si z 6= 0, tambien para n = 1, 2, . . ..
Ejercicio: Probar que
(1 + i)n = 2n/2 [cos(n/4) + i sen(n/4)]
y que por ejemplo, (1 + i)2 = 2i, (1 + i)20 = 210 , (1 + i)4 = 14 .
Ejercicio: Representar graficamente las primeras cuatro potencias de 1 + i.

14

2.4.

Races en
esimas de la unidad

Consideremos ahora la ecuacion


zn = 1
para n 1. Como 1 = ei0 = ei2k para cualquier k entero, vemos que todo n
umero
complejo z = ei2k/n satisface z n = 1:
(ei2k/n )n = ei2k = cos(2k) + i sen(2k) = 1

k = 0, 1, 2, . . .

Por lo tanto, obtenemos as n races distintas


z0 = 1, z1 = ei2/n , z2 = ei4/n , . . . , zn1 = ei(n1)2/n
ya que zn = ein2/n = ei2 = 1 = z0 .
Las n races de z n = 1 pueden entonces escribirse como
zk = ei2k/n = cos(2k/n) + i sen(2k/n) ,

k = 0, . . . , n 1,

(2.31)

Todas las races satisfacen |zk | = 1, por lo que estan sobre el crculo unidad |z| = 1.
Obviamente, z0 = 1 n.
Las races aparecen en pares conjugados: zk = znk , pues ei2k/n = ei2(nk)/n .
La suma de todas las races es 0:
z0 + z1 + . . . + zn1 = 0
Para n = 2, obtenemos obviamente las dos races cuadradas de 1, z0 = 1, z1 = ei = 1.
Las tres races c
ubicas de 1 son en cambio
z0 = 1

3
1
z1 = ei2/3 = cos(2/3) + i sin(2/3) = + i
2
2
3
1
= z1
z2 = ei4/3 = cos(4/3) + i sin(4/3) = i
2
2
Finalmente, las 4 races de z 4 = 1 son
z0 = 1, z1 = ei2/4 = i, z2 = ei4/4 = 1, z3 = ei6/4 = i = z1
Se muestran en la figura las races c
ubicas y cuarticas de 1.
ImHzL

ImHzL
3

z4 =1

z =1
z1 =i

z1 =ei23

z0 =1
0

ReHzL

z2 =-1

z0 =1
0

z2 =ei43

z3 =-i

15

ReHzL

2.5.

Races de un n
umero complejo

Podemos ahora facilmente obtener las n races de la ecuacion


z n = a + ib
para a y b reales arbitrarios. Escribiendo a + ib en la forma polar,

a + ib = rei , r = |a + ib| = a2 + b2 , = arg(a + ib)


vemos que
zk = r1/n ei(+2k)/n
satisface
zkn = rei(+2k) = rei = a + ib
para todo k entero. Por lo tanto, las n races distintas (asumiendo r 6= 0) son
zk =

r ei(+2k)/n =

r [cos(

+ 2k
+ 2k
) + i sen(
)] ,
n
n

k = 0, . . . , n 1

Las n races son pues de la forma


zk =

r ei/n ei2k/n

donde ei2k/n son las races enesimas de la unidad (ecuacion (2.31)).


Por ejemplo, la ecuacion
z 2 = a + ib

escribimos a + ib = rei , con r = a2 + b2 , = arg(z), y entonces, las tiene las dos races

z0 = rei/2 , z1 = rei(+2)/2 = z0

o sea, z = a + ib, con a + ib = rei/2 y (, ].


Por ejemplo, para resolver la ecuacion
z2 = i
escribimos i en la forma polar, i = ei/2 , y entonces
1+i
z = ei/4 = [cos(/4) + i sen(/4)] =
2
Analogamente, las 4 races de
z 4 = 3
son, escribiendo 3 = 3ei ,
z0 =

3ei/4 =

1+i
4
3 , z1 = iz0 , z2 = z0 , z3 = iz0
2
16

2.6.

Funciones complejas

Consideraremos aqu funciones complejas de dominio real f : R C. Estas tienen la


forma general
f (t) = u(t) + iv(t)

(2.32)

donde t R y u(t) = Re[f (t)], v(t) = Im[f (t)] son funciones reales. Un ejemplo de especial
interes es la funcion exponencial compleja
f (t) = et ,

= + i C

(2.33)

con , reales. Aplicando la formula general (2.25), obtenemos


et = et eit
= et [cos(t) + i sen(t)]
= et cos(t) + iet sen(t)

(2.34)
(2.35)

o sea, u(t) = et cos(t), v(t) = et sen(t).


Asumiendo u(t) y v(t) derivables, la derivada de f respecto de t es la funcion compleja
f 0 (t) = u0 (t) + iv 0 (t)
En el caso (2.33) obtenemos, partiendo de (2.35),
(et )0 = et [ cos(t) sen(t) + i sen(t) + i cos(t)]
= ( + i)et [cos(t) + i sen(t)]
= et !!

(2.36)

Por lo tanto, la expresion (et )0 = et resulta valida tambien para complejo. Este
resultado sera esencial a la hora de resolver ecuaciones diferenciales, y puede obtenerse
de forma mas general por medio de la teora de funciones analticas de variable compleja,
que no trataremos en este curso.
De la misma forma, la integral de f se define como
Z
Z
Z
f (t)dt = u(t)dt + i v(t)dt
Se deja como ejercicio mostrar que entonces,
Z
et
+c
et dt =

para C, 6= 0, donde c C es en general una constante compleja.


Problema: La potencia t para = + i C y t R+ se define como
t = e ln t = e ln t ei ln t
= t [cos( ln t) + i sen( ln t)]
17

(2.37)

donde ln t es el logaritmo natural. Por ejemplo ti = cos(ln t) + i sen(ln t). Se deja como
ejercicio probar que para C, tambien se obtiene
(t )0 = t1
La aplicacion mas simple y com
un de las funciones complejas es la representacion de
funciones periodicas, por ejemplo de la forma
u(t) = A cos(t + ) = A[cos t cos sen t sen ]
tales como una corriente alterna o la posicion de una partcula en movimiento oscilatorio
armonico. Resulta en general mas conveniente expresar u(t) como
u(t) = Re[Aei(t+) ]
donde hemos asumido A, , , t reales. Se veran ejemplos en la parte de Ecuaciones Diferenciales.

Ejemplo: Movimiento circular. El formalismo complejo es tambien u


til para tratar
problemas en dos dimensiones. Por ejemplo, el vector posicion de una partcula que se
mueve en un crculo de radio r con velocidad angular constante es
ImHzL

(x(t), y(t)) = r(cos t, sen t)

v
zHtL

Podemos escribir este par ordenado en forma compleja como


r

z(t) = reit

Si r y son constantes, la velocidad de la partcula sera

ReHzL

v(t) = z 0 (t) = ir eit = iz(t)


donde i indica que la velocidad sera tangencial, es decir,
perpendicular a z(t) (recordar el significado de multiplicar por i).
El modulo de la velocidad es el valor absoluto |v(t)| = |z(t)| = r. La aceleracion sera
a(t) = z 00 (t) = (i)2 reit = 2 z(t)
es decir, antiparalela a z(t) y de modulo |a(t)| = 2 r. Esta es la aceleracion centrpeta.
Problema: Generalizar los resultados anteriores al caso de velocidad angular variable
(t), tal que z(t) = rei(t) , con 0 (t) = (t). Mostrar que
v(t) = z 0 (t) = i(t)z(t)
a(t) = z 00 (t) = 2 (t)z(t) + i 0 (t)z(t)
Interpretar el resultado e identificar la aceleracion centrpeta y la aceleracion tangencial.
18

2.7.

Ejercicios

1) Encontrar la representacion polar z = |z|ei de

3+i
a) z = 1 i b) z =
c) z = 3i
1+i

d) z =

1 + 3i

e) z = i

2) Mediante la forma polar, evaluar z n en los casos anteriores, y hallar el valor explcito para
n = 6 y n = 3.
3) Dar una expresion de la forma z = x + yi, con x, y R, para
a) z = ei/6

b) z =

ei/3
ei/2

c) z = ei2/3 ei/3

4) Determinar todos los z que satisfacen


a) z 2 = i

b) z 3 = 1

c) z 4 = i

d) z 6 = 1

e) z 2 = 1 i

5) Resolver las ecuaciones


a) z 2 + 2iz 1 + i = 0

b) z 2 + 2i = 0

c) z 4 + 2z 2 + 2 = 0

6) Escribir en la forma u(t) + iv(t), con u(t), v(t) funciones reales, las funciones
a) f (t) = e(1+2i)t

b) f (t) = t2 e3it

c) f (t) = t1+i

7) Determinar las derivadas de las funciones anteriores, y escribir su parte real y su parte
imaginaria.

19

S-ar putea să vă placă și