Sunteți pe pagina 1din 61

lica de Chile

Pontificia Universidad Cato


Escuela de Ingeniera
tica (?)
Departamento de Ingeniera Matema

M
etodos de la Fsica Matem
atica II

Matas Lopez Abukalil

15 de diciembre de 2010

A continuaci
on se presentan apuntes del curso Metodos de la Fsica Matematica II (FIZ0313).
El documento completo se encuentra en pleno desarrollo y probablemente contiene muchos
errores (tipeos, signos, etc.) que espero ir arreglando con su ayuda. Luego, en caso de detectar
alguno, por favor informe a milopez@uc.cl.

Indice general

1. Espacios de dimensi
on finita

1.1. Espacios Eucldeos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.2. Matrices y funcionales lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . .

1.3. Autovalores y autovectores

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10

1.4. Descomposici
on Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
2. Polinomios Ortogonales

15

2.1. Polinomios de Legendre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15


2.2. Formula de Recurrencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.3. Formula de Christoffel-Darboux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.4. Teorema de Weierstrass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5. Ceros de los polinomios ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6. Cuadratura de Gauss . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.7. Espacios de Hilbert . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
3. Polinomios Ortogonales Cl
asicos

27

3.1. Polinomios de Jacobi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27


3.2. Polinomios de Laguerre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.3. Polinomios de Hermite . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
3.4. Ecuaciones diferenciales de los polinomios ortogonales . . . . . . . . . . . . . . . 32
3.5. Funciones Generatrices y aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . 33


INDICE
GENERAL

4
4. Series de Fourier

37

4.1. La funci
on de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
4.2. La funci
on de Riemann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
5. Ecuaciones Diferenciales Parciales

43

5.1. Ecuaci
on de Ondas en 1D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5.1.1. Metodo de DAlembert

. . . . . . . . . . . . . . . . . . . . . . . . . . . . 44

5.1.2. Metodo de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45


5.2. Ecuaci
on de Ondas en 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.2.1. Membrana Rectangular . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
5.2.2. Membrana Circular

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49

5.2.3. Propiedades de las funciones de Bessel . . . . . . . . . . . . . . . . . . . . 55


5.3. Ecuaci
on de Poisson-Laplace en 2D . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.4. Ecuaci
on de Poisson-Laplace en 3D . . . . . . . . . . . . . . . . . . . . . . . . . . 59

Captulo 1

Espacios de dimensi
on finita
Definici
on 1.1 (Espacio vectorial). Un espacio vectorial sobre C es un conjunto V no vaco,
dotado de dos operaciones:
Una operaci
on interna suma
+

V V
~x, ~y

V
~x + ~y

tal que
(a) ~x + ~y = ~y + ~x, ~x, ~y V (Conmutatividad)
(b) ~x + (~y + ~z) = (~x + ~y ) + ~z, ~x, ~y , ~z V (Asociatividad)
(c) ~0 V : ~x + ~0 = ~x, ~x V (Elemento Neutro)
(d) ~x V, (~x) V : ~x + (~x) = ~0 (Inverso Aditivo)
Una operaci
on externa ponderaci
on por escalar
:

CV
, ~x

V
~x

tal que
(a) (~x) = ()~x, , C, ~x V (Asociatividad)
(b) 1 C : 1~x = ~x, ~x V (Elemento Neutro)
(c) (~x + ~y ) = ~x + ~y , C, ~x, ~y V (Distributividad sobre vectores)
(d) ( + )u = ~x + ~x, , C, ~x V (Distributividad sobre escalares)
Los elementos de C se llaman escalares, mientras que los de V se llaman vectores.
Observaci
on 1.1. De ahora en adelante, V es un espacio vectorial sobre C.

Espacios Eucldeos

Definici
on 1.2 (Independencia Lineal). Un conjunto {~x1 , . . . , ~xn } V es linealmente independiente si
n
X
i ~xi = 0 i = 0, i.
i=1

Definici
on 1.3 (Dimensi
on). Se define la dimensi
on de V , denotada dim V , como el n
umero
maximo de vectores l.i. que hay en V .
Definici
on 1.4 (Base). Sea n N tal que dim V = n. Diremos que B = {x1 , . . . , xn } V es
una base de V si B es l.i.

1.1.

Espacios Eucldeos

Definici
on 1.5 (Producto Interno). Sea V un espacio vectorial sobre C. Diremos que una
aplicacion h, i : V V C es un producto interno si satisface que
(a) h~x, ~xi 0, ~x V y h~x, ~xi = 0 ~x = ~0.
(b) h~x, ~y i = h~y , ~xi, ~x, ~y V .
(c) h~x, ~y + ~zi = h~x, ~y i + h~x, ~zi, ~x, ~y , ~z V, , C.
Si V es de dimensi
on finita y est
a dotado de un producto interno, se dice que es un espacio
eucldeo.
Lema 1.1 (Desigualdad de Schwarz). Sea V un espacio vectorial sobre C y dotado de un
producto interno. Entonces
p
|h~x, ~y i| h~x, ~xih~y , ~y i.
Demostraci
on. Tenemos que
0 h~x ~y , ~x ~y , =ih~x, ~xi h~y , ~xi h~x, ~y i + h~y , ~y i.
Tomando
=

h~x, ~y i
,
h~y , ~y i

tenemos que
0 h~x, ~xi

h~x, ~y i
h~x, ~y i
h~x, ~y i h~x, ~y i
h~x, ~y i
h~x, ~y i +
h~y , ~y i,
h~y , ~y i
h~y , ~y i
h~y , ~y i h~y , ~y i

es decir,
0 h~x, ~xih~y , ~y i |h~x, ~y i|2 .

Espacios de dimensi
on finita

Definici
on 1.6 (Norma). Sea V un espacio eucldeo. Se define una norma k k : V R+
0
como
p
k~xk = h~x, ~xi 0.
Se dice que el par (V, k k) es un espacio vectorial normado.
Proposici
on 1.1. Sea (V, k k) es un espacio vectorial normado. Entonces
(a) k~xk 0, x V y k~xk = 0 ~x = ~0.
(b) k~xk = || k~xk, x V, C.
(c) k~x + ~y k k~xk + k~y k, ~x, ~y V . (Desigualdad Triangular)
Observaci
on 1.2. La Desigualdad Triangular tambien puede escribirse como
k~x ~y k k~xk k~y k.
Definici
on 1.7 (Ortogonalidad). Sea V un espacio eucldeo. Dados ~x, ~y V diremos que estos
son ortogonales, denotado ~x ~y , si h~x, ~y i = 0.
Definici
on 1.8 (Base Ortonormal). Sea V un espacio eucldeo tal que dim V = n. Diremos que
B = {~e1 , . . . , ~en } es una base ortonormal de V si: es una base y h~ei , ~ej i = ij .
Teorema 1.1 (Proceso de Gram-Schmidt). Sea V un espacio eucldeo tal que dim V = n
y consideremos B = {~x1 , . . . , ~xn } una base de V . Entonces B 0 = {
e1 , . . . , en } es una base
ortonormal de V , donde
k1
X
~ek = ~xk
h~xk , ~ei i
ei , ~e1 = ~x1 .
i=1

Ejemplo 1.1. Sea C ([1, 1]) el espacio de las funciones continuas en [1, 1] con valores reales.
Este conjunto es un espacio vectorial con las operaciones usuales de R. Un producto interno
para este espacio es
Z
1

hf, gi =

f (t)g(t)dt.
1

1.2.

Matrices y funcionales lineales

Recordemos que una rotaci


on de los ejes x e y en sentido antihorario en un angulo hacia los
0
0
ejes x e y est
a dada por las ecuaciones
x = x0 cos y 0 sin ,
y = x0 sin + y 0 cos .
Tambien podemos escribir esto matricialmente como
  
 
x
cos sin x0
=
,
y
sin cos
y0

Matrices y funcionales lineales

o equivalentemente,
 0 
 
x
cos sin x
=
.
y0
sin cos y
Finalmente, denotamos R() a la matriz de rotacion en dos dimensiones, es decir,


cos sin
R() :=
.
sin cos
Proposici
on 1.2. Sean R(), R() matrices de rotacion en dos dimensiones. Entonces
(a) R()t = R() (Antisimetrica)
(b) R()t R() = I (Ortogonal)
(c) R()R() = R( + )
(d) R() = R()t
Definici
on 1.9 (Operador lineal). Sea V un espacio vectorial sobre C. Diremos que A : V V
es un operador lineal sobre V si se cumple que
A (~x + ~y ) = A~x + A~y ,

~x, ~y V, , C.

Observaci
on 1.3. Sea V un espacio euclideo tal que dim V = n. Si B = {
e1 , . . . , en } es una
base ortonormal de V , entonces cada vector ~x V puede escribirse como
n
X

~x =

xi ei .

i=1

Luego,
A~x = A

n
X

!
xi ei

i=1

n
X

xi A
ei .

i=1

Pero, para cada i, A


ei es un nuevo vector de V y por lo tanto, podemos terminos de B. Es decir,
A
ei =

n
X

Aji ej .

j=1

Con esto hemos mostrado que existe una relacion biunvoca entre un operador lineal A y una
matriz A de n n.
Definici
on 1.10 (Funcional lineal). Sea V un espacio vectorial sobre C. Diremos que l : V C
es un funcional lineal si
l (~x + ~y ) = l(~x) + l(~y ),

~x, ~y V, , C.

Espacios de dimensi
on finita

Ejemplo 1.2. El ejemplo m


as tpico de un funcional lineal en un espacio eucldeo es
l~y (~x) = h~y , ~xi,
donde ~y V es un vector fijo.
Definici
on 1.11 (Espacio Dual). Sea V un espacio vectorial sobre C. Se define el espacio
dual de V como el espacio de los funcionales lineales sobre V y lo denotaremos V .
Teorema 1.2. Sea V un espacio eucldeo de dimension finita. Entonces V es isomorfo a V , es
decir, existe una relaci
on biunvoca entre los funcionales lineales y los vectores de V .
Definici
on 1.12 (Operador Adjunto). Sea V un espacio vectorial eucldeo de dimension finita.
Dado un vector ~y V y un operador lineal A sobre V , sabemos que
l~y (~x) = h~y , ~xi
es un funcional lineal al igual que
(~y , A~x).
Luego, por el Teorema 1.2, existe ~y 0 V tal que
h~y 0 , ~xi = h~y , A~xi.
Es posible mostrar que la aplicaci
on A : ~y 7 ~y 0 es lineal. As, A ~y = ~y 0 y se cumple que
hA ~y , ~xi = h~y , A~xi.
El operador A se conoce como el operador adjunto a A.
Notar que
A

.
:

Observaci
on 1.4. Sea V un espacio eucldeo de dimension finita y tal que
h~y , ~xi =

n
X

yj x j .

j=1

Sea B = {
e1 , . . . , en } una base ortonormal de V . Entonces, dado ~x V y A un operador lineal
sobre V , tenemos que
n
n X
n
X
X
Aji xi ej .
~x =
ei , A~x =
j=1 i=1

i=1

Luego,
h~y , A~xi =

n
X
j=1

yj Aji xi .

10

Autovalores y autovectores

Analogamente,
A ~y =

n X
n
X

Aij yj ei .

i=1 j=1

Entonces

hA ~y , ~xi =

n X
n
X

yj Aij xi .

i=1 j=1

En consecuencia,
hA ~y , ~xi = h~y , A~xi Aij = Aji ,
es decir,
A = At .
Definici
on 1.13. Sea A Mn (C). Se define la matriz adjunta de A como A = At .
Ademas, se dice que A es
(a) sim
etrica si At = A,
(b) ortogonal si At A = I,
(c) hermtica o autoadjunta si A = A,
(d) unitaria si A A = I,
(e) normal si A A = AA .
Observaci
on 1.5. Si A Mn (R) es ortogonal, entonces es normal.
Observaci
on 1.6. Sea V un espacio euclideo de dimension finita. Consideremos A : V V
lineal y tal que A es unitaria, entonces
hA~x, A~xi = hA A~x, ~xi = h~x, ~xi.

1.3.

Autovalores y autovectores

Definici
on 1.14. Sea V un espacio vectorial sobre C de dimension finita. Dada A Mn (C),
diremos que ~x V r {0} es un autovector de A con autovalor si
A~x = ~x.
Teorema 1.3. Sea A Mn (C) hermtica. Entonces
(a) A tiene n autovalores y autovectores.
(b) Todos los autovalores de A son reales.

Espacios de dimensi
on finita

11

(c) Los autovectores son ortogonales con respecto al producto interno usual.
Demostraci
on. (a) Primero mostraremos que toda matriz tiene al menos un autovalor y un
correspondiente autovector. Notemos que
A~x = ~x (A I)~x = ~0.
Luego, podemos encontrar ~x 6= 0 si y solo si det(A I) = 0. Pero
p() = det(A I)

es un polinomio tal que p = n. As, por el Teorema Fundamental del Algebra,


sigue que p
tiene n races complejas. Finalmente, dado un autovalor , podemos resolver (AI)~x = ~0
para encontrar el correspondiente autovector.
Ahora mostraremos que existen n autovalores. Sea 1 un autovalor encontrado mediante
el procedimiento anterior y e1 su autovector asociado, es decir,
A
e1 = 1 e1 .
Sea ~x V1 = {~x V : ~x e1 }. Notemos que
hA~x, e1 i

(Hermtica)

hA ~x, e1 i = h~x, A
e1 i = h~x, 1 e1 i = 1 h~x, e1 i = 0.

Pero dim V1 = n 1. Luego, podemos considerar A|V 1 cuyo dominio es de dimension

n 1 y su imagen a lo m
as tambien. Repitiendo el primer argumento encontramos un
nuevo autovalor y autovector.
(b) Sea C y ~x V r {0} tal que A~x = ~x. Notemos que
h~x, A~xi = h~x, ~xi
hA ~x, ~xi = h~x, ~xi
hA~x, ~xi = h~x, ~xi
h~x, ~xi = h~x, ~xi
k~xk2 = k~xk2 .
(c) Sean , R y ~x, ~y V r {0} tales que
A~x = ~x

A~y = ~y .

h~y , A~xi = h~y , ~xi

h~x, A~y i = h~x, ~y i.

Entonces
Luego, como A es hermtica, se tiene que
h~x, ~y i = h~x, A~y i = hA~x, ~y i = h~y , ~xi = h~x, ~y i.
Finalmente,
( ) h~x, ~y i = 0.

12

Descomposici
on Espectral

Teorema 1.4. Sea U Mn (C) unitaria. Entonces todos sus autovalores tiene modulo 1.
Demostraci
on. Sea C y ~x V r {0} tal que U~x = ~x. En efecto,
k~xk2 = h~x, ~xi = hU~x, U~xi = h~x, ~xi = h~x, ~xi = || k~xk2 .

1.4.

Descomposici
on Espectral

Definici
on 1.15. Sean A, A Mn (C). Diremos que A y A son similares si existe Q Mn (C)
invertible tal que
A = QAQ1 .
Q Mn (C) similares. Entonces, para C, se tiene que
Observaci
on 1.7. Sean A, A,



det A I = det QAQ1 QQ1 = det Q det (A I) det Q1 = det (A I) .
Luego, es un autovalor de A si y s
olo si lo es de A.
Observaci
on 1.8. Dada A Mn (C) hermtica, nos preguntamos si existe alguna matriz

D=
0

0
..

.
n

similar a A. Es decir, queremos encontrar Q Mn (C) invertible tal que


D = Q1 AQ.


Escribamos Q = e1 . . . en , donde ej es el j-esimo autovector de A. Notemos que

 

AQ = A e1 . . . en = 1 e1 . . . n en .
Ademas, Q es ortogonal pues
Q1

t
e1
..
= . .
etn

Luego,
Qt AQ = Q1 AQ = D.

Espacios de dimensi
on finita

13

Observaci
on 1.9. Sea A Mn (C) hermtica. Queremos encontrar (Pj )nj=1 Mn (C) tales
que
n
X
A=
j Pj ,
j=1

donde j es el j-esimo autovalor de A. Tomando Pj = ej etj y recordando el Teorema 1.3, tenemos


que
(a) Pj2 = Pj ,
(b) Pjt = Pj ,
(c) Pj Pk = 0.
Estas matrices se conocen como matrices de proyecci
on pues
Pj ~x = ej h
ej , ~xi,
es decir, proyectamos ~x a lo largo de ej .
Teorema 1.5 (Descomposici
on espectral). Sea A Mn (C) hermtica. Entonces
A=

n
X

j Pj ,

j=1

donde j es el j-esimo autovalor de A y Pj son matrices de proyeccion.


Observaci
on 1.10. Sea A Mn (C) hermtica, entonces
A2 =

n X
n
X
j=1 k=1

j k Pj Pk =

n X
n
X

j k Pj Pk =

n X
n
X

j=1 k=1

j=1 k=1

Analogamente,
k

A =

n
X

kj Pj .

j=1

Por otro lado, dada f : C C analtica, sabemos que


f (x) =

ak xk .

k=0

Definiendo
f (A) :=

X
k=0

ak Ak ,

j k Pj jk =

n
X
j=1

2j Pj .

14

Descomposici
on Espectral

con
0

A =

n
X

0j Pj

j=1

sigue que
f (A) =

X
n=0

ak

n
X
j=1

kj Pj

n
X

Pj = I,

j=1

n X

X
j=1 k=0

ak kj Pj

n
X
j=1

f (j )Pj .

Captulo 2

Polinomios Ortogonales
Considereremos el espacio vectorial
C ([a, b]) = {f : [a, b] R : f es continua}.
Sobre el podemos definir un producto interno dado por
Z
hf, giw =

f (x)g(x)w(x)dx,
a

donde w(x) es una funci


on de peso, es decir, w C ([a, b]) y w 0.


Observaci
on 2.1. En C ([a, b]), el conjunto B = 1, x, x2 , x3 , . . . constituye una base. Cada
elemento de B tiene norma finita.

2.1.

Polinomios de Legendre



Tomemos [a, b] = [1, 1] y w(x) = 1. A partir de B = 1, x, x2 , x3 , . . . , mediante el procedimiento de Gram-Schmidt, generaremos una base ortogonal
B 0 = {p0 (x), p1 (x), p2 (x), . . .}
tal que pn (1) = 1, n N. La familia de polinomios (pn )nN se conoce como los polinomios
de Legendre.

16

F
ormula de Recurrencia

Tenemos que2.1
p0 (x) = 1,
p1 (x) = x,
1
p2 (x) = (3x2 1),
2
1
p3 (x) = (5x3 x),
2
1
p4 (x) = (35x4 30x2 + 3),
8
..
.

2.2.

(2.1)

F
ormula de Recurrencia

Denotaremos el coeficiente de xn para n (x) como kn , es decir,


n (x) = kn xn + . . . .
Teorema 2.1. Sea (n )nN una sucesion de polinomios ortonormales, entonces
n+1 (an x + bn ) n + cn n1 = 0,
donde
an =

kn+1
kn

cn =

an
an1

n N,

c0 = 0.

Demostraci
on. Escribamos
n (x) = kn xn + . . .

n+1 (x) = kn+1 xn+1 + . . .

Luego,
n+1 (x)

kn+1
xn (x) = (x),
kn

con = n. As,
an =

kn+1
.
kn

Ademas, puede escribirse como una combinacion lineal de polinomios de orden menor igual
que n, es decir,
n
X
n+1 (x) an xn (x) =
j j (x).
j=0
2.1

Se deja como ejercicio al esforzado lector verificar que realmente estos son los polinomios y todos estos a
nos
de teora no est
an infundados.

Polinomios Ortogonales

17

Pero esta base es ortogonal, por lo tanto, tomando hj , i sigue que


aN hj , xn i = j .
Notemos que
Z

hj , xn i =

tj (t)n (t)dt = hxj , n i.

j (t)tn (t)dt =
1

Ahora, como xj es un polinomio de grado j + 1, se puede escribir como combinacion lineal de


0 , . . . , j+1 . Por lo tanto,
hxj , n i = 0, j n 2.
En consecuencia,
j = 0,

j n 2.

Por ende, denotando bn = n y cn = n1 obtenemos la recurrencia buscada.


Finalmente, para obtener la expresi
on para cn , notemos que
cn = an hn1 , xn i = an hxn1 , n i.
Pero

xn1 = kn1 xn + . . . =

1
kn1
n (x) +
(kn xn + . . .) =
kn
an1

n1
X

j j (x) .

j=0

Luego,
n1

cn =

X
an
an
hn (x) +
.
j j (x), n i =
an1
an1
j=0

2.3.

F
ormula de Christoffel-Darboux

Lema 2.1. Sea (n )nN una sucesi


on de polinomios ortonormales, entonces
n
X

j (x)j (y) =

j=0

kn n (y)n+1 (x) n+1 (y)n (x)


.
kn+1
xy

Demostraci
on. Sea
Sj =

kj j (y)j+1 (x) j+1 (y)j (x)


.
kj+1
xy

18

Teorema de Weierstrass

Usando el Teorema 2.1, tenemos que


kj j (y) ((aj x + bj ) j (x) cj j1 (x)) j (x) ((aj y + bj ) j (y) cj j1 (y))
kj+1
xy
kj j1 (y)j (x) j1 (x)j (y)
kj
=
aj j (x)j (t) + cj
kj+1
kj+1
xy
kj1 j1 (y)j (x) j1 (x)j (y)
= j (x)j (t) +
kj
xy

Sj =

= j (x)j (t) + Sj1 ,


es decir,
Sj Sj1 = j (x)j (y).
As, sumando sobre j = 1, . . . , n sigue que
Sn S0 =

n
X

j (x)j (y).

j=1

Pero S0 = 0 (x)0 (y). Finalmente,


Sn =

n
X

j (x)j (y).

j=0

2.4.

Teorema de Weierstrass

Teorema 2.2. Sea f C ([a, b]). Para cada  > 0, existe un polinomio p(x) tal que
sup |f (x) p(x)| < .
x[a,b]

Demostraci
on. Por simplicidad tomaremos [a, b] = [0, 1]. Sea
  
n
X
n k
j
x (1 x)nj .
Bn (x, f ) =
f
n
j

(2.2)

j=0

Mostraremos que Bn aproxima a f . Tenemos que


f (x) Bn (x, f ) = f (x)Bn (x, 1) Bn (x, f ) =

 
n  
X
n
j
f (x) f
xj (1 x)nj ,
j
n
j=0

pues
Bn (x, 1) =

n  
X
n
j=0

xj (1 x)nj = 1.

Polinomios Ortogonales

19

Luego, como f es continua en [0, 1] sigue que f es uniformemente continua. Por lo tanto, dado
 > 0 existe > 0 tal que



 




j
x < f (x) f j <  .



n
n 2
Ademas, f es acotada en [0, 1], es decir, M > 0 tal que |f (x)| < M, x [0, 1]. As,
 
n  
X
n
j j
x (1 x)nj
|f (x) Bn (x, f )|
f (x) f

n
j
j=0
 
 
X n
X n
j j
j j
nj
nj

f
(x)

f
x
(1

x)
+
f
(x)

f



x (1 x)
j
n
j
n
|x nj |<
|x nj |





X

n
j j
nj
< +
f
(x)

f
:=  + S.

x (1 x)
2
j
n
j
|x n |
Notemos que
X

S 2M

 
n j
x (1 x)nj
j

|x nj |
 


2M X
n j
j 2
nj
2
x (1 x)
x

j
n
j

x
| n|


n  
2M X n j
j 2
nj
2
.
x (1 x)
x

n
j
j=0

Luego, desarrollando el cuadrado de binomio y usando (2.2), sigue que


S


2M 2
x Bn (x, 1) 2xBn (x, x) + Bx (x, x2 ) .
2

Para calcular Bn (x, x) notemos que


n  
X
n j nj
(x + y) =
x y
.
j
n

j=0

As,
n1

x(x + y)

 
n  
n
X
x
xX n
j n j nj
n
j1 nj
=
((x + y) ) =
jx y
=
x y
.
n x
n
j
n j
j=0

Finalmente, tomando y = 1 x, concluimos que


Bn (x, x) = x.

j=0

20

Ceros de los polinomios ortogonales

Para calcular Bn (x, x2 ) notemos que


n1

(x + y)

+ (n 1)x(x + y)

n2

 
n
 X

j 2 n j1 nj
n1
=
x y
,
x(x + y)
=
x
n j
j=0

de lo cual sigue que


 
n
x(x + y)n1 (n 1)x2 (x + y)n2 X j 2 n j nj
x y
.
+
=
n
n
n2 j
j=0

Finalmente, tomando y = 1 x, concluimos que


Bn (x, x2 ) = x2 +

x(1 x)
.
n

Por lo tanto,
2M
S 2



x(1 x)
2M
2
x 2x + x +
=
x(1 x).
n
n 2
2

Pero, como 0 x 1, se tiene que


x(1 x)

1
4

y por ende, existe n0 > 0 tal que


S


M
< ,
2
2n
2

n n0 .

Finalmente,
sup |f (x) Bn (x, f )| < ,

n n0 .

x[0,1]

2.5.

Ceros de los polinomios ortogonales

Teorema 2.3. Sea (n )nN una sucesi


on de polinomios ortonormales. Entonces n tiene n ceros
reales en [a, b].

Demostraci
on. Por el Teorema Fundamental del Algebra,
sabemos que n tiene n ceros en
el plano complejo y adem
as, como n tiene coeficientes reales, sus ceros complejos deben ser
conjugados. Sean x1 , . . . , xk los ceros reales de n y supongamos que k < n. Notemos que
n (x) = (x x1 ) . . . (x xk ) (x z1 ) (x z1 ) . . . (x zk0 ) (x zk0 ) = (x x1 ) . . . (x xk ) n (x),
con n > 0.

Polinomios Ortogonales

21

Por otro lado,


b

n (x) (x x1 ) . . . (x xk ) w(x)dx = 0,
a

pues (x x1 ) . . . (x xk ) es un polinomio de grado k y por lo tanto,


(x x1 ) . . . (x xj ) =

k
X

j j (x).

j=0

Pero
Z

Z
n (x) (x x1 ) . . . (x xk ) w(x)dx =

(x x1 )2 . . . (x xk )2 n (x)w(x)dx > 0,

pues el integrando se anula en una cantidad finita de puntos y


(x x1 )2 . . . (x xk )2 n (x)w(x) > 0.
Lo cual nos muestra una contradicci
on y sigue que k = n.

2.6.

Cuadratura de Gauss

Sea f C ([a, b]). Consideremos (n )kN una sucesion de polinomios ortogonales. Por el Teorema
2.3, sabemos que existen x1 , . . . , xn tales que
( xj ) = 0,
Definamos
F (x) =

n
X

j = 1, . . . , n.

f (xj )

j=1

n (x)
.
(x xj ) 0n (xj )

(2.3)

Como n es un polinomio de orden n,


n (x)
(x xj )
es un polinomio de orden n 1 y por lo tanto, (2.3) define un polinomio F de grado n 1.
Ademas, calculando el lmite cuando x xj mediante la Regla de LHopital, sigue que
F (xj ) = f (xj ) ,

j = 1, . . . , n.

La ecuacion (2.3) se conoce como la f


ormula de interpolaci
on de Lagrange.
Supongamos ahora que f es un polinomio de grado 2n 1. Sea
r(x) =

F (x) f (x)
.
n (x)

22

Cuadratura de Gauss

Notemos que r(x) es un polinomio de orden n 1 y por lo tanto,


r(x) =

n1
X

j j (x).

j=0

Luego,
Z

Z b
(F (x) f (x)) w(x)dx =

F (x) f (x)
( x)

Z
n (x)w(x)dx =

r(x)n (x)w(x)dx = 0,
a

es decir,
Z

F (x)w(x)dx =

f (x)w(x)dx =
a

n
X

f (xj ).

j=1

Finalmente, definiendo las funciones de pesos de Christoffel como


b

Z
n,j =
a

n (x)w(x)
dx,
(x xj )0n (xj )

tenemos la f
ormula de cuadratura de Gauss:
Z b
n
X
f (x)w(x)dx =
f (xj )n,j .
a

(2.4)

j=1

Ejemplo 2.1. Calculemos


Z

dx
3+x

mediante (2.4). Sabemos que


Z

dx
= log(3 + x)|11 = log 4 log 2 = log 2 0,6930.
3+x

Como n usaremos los polinomios de Legendre mostrados en (2.1) y por ende, w(x) = 1.
Tomamos

1
2 (x) = P2 (x) =
3x2 1
2
y sigue que
1
1
x1 =
, x2 = .
3
3
Luego,
Z

2,1 =
1

2 (x)
dx =
(x x1 )0n (x1 )


Z 1
3x2 1
3
1

dx =
x + dx = 1.
1
6
2
3
1
x 3 23

1
2

Polinomios Ortogonales

23

Analogamente,
Z

2,2 =
1

2 (x)
dx =
(x x2 )0n (x2 )


Z 1
3x2 1
3
1

x dx = 1.
dx =
6
2 1
3
x + 13 2
3

1
2

Por lo tanto,
Z


f (x)w(x)dx f

2.7.



1
3
+
=
0,6923.
3
3

Espacios de Hilbert

Sea V un espacio vectorial con producto interno. Ya vimos que existe una norma inducida por
el producto interno dada por
p
kf k = hf, f i
y por ende, (V, k k) es un espacio vectorial normado.
Definici
on 2.1 (Sucesi
on de Cauchy). Sea V un espacio vectorial normado. Diremos que una
sucesion (xn )nN V es una sucesi
on de Cauchy si para cada  > 0 existe n0 tal que
kxn xm k < ,

n, m > n0 .

Definici
on 2.2 (Espacio de Hilbert). Sea V un espacio vectorial normado. Diremos que V es
un espacio de Hilbert si adem
as es completo, es decir, una sucesion es convergente si y solo
si es de Cauchy.
Ejemplo 2.2. Consideremos C[a, b] y el producto interno dado por
b

Z
hf, gi =

f (x)g(x)dx.
a

Este no es un espacio de Hilbert pues no es completo. Sin embargo, es posible completarlo y a


su completaci
on le se conoce como
2

L ([a, b]) =

Z
f : [a, b] R :


f (x)dx < ,
2

es decir, el espacio de las funciones cuadrado integrables.


Sean (n )nN una sucesi
on de polinomios ortonormales y f L2 ([a, b]). Entonces la proyeccion
de f sobre k est
a dada por
Z
ak = hf, k i =

f (x)k (x)w(x)dx.
a

24

Espacios de Hilbert

En un espacio de dimensi
on finita
2

kf k =

n
X

a2k ,

k=0

lo cual se conoce como el Teorema de Pit


agoras.
En un espacio de dimensi
on infinita
Z

f (x)
a

!2
ak k (x)

f 2 (x) 2f (x)

n
X

b
2

f (x)w(x)dx 2
a
b

f 2 (x)w(x)dx 2

=
a

n
X
k=0
n
X

n
X

n
X

aj ak k (x)j (x) w(x)dx

j,k=0
b

Z
ak

f (x)k (x)w(x)dx +
a

n
X

n
X

ak hf, k i +

aj ak

j,k=0

k=0
b

f (x)w(x)dx 2

ak k (x) +

k=0

=
Z

w(x)dx

k=0

=
Z

n
X

k (x)j (x)w(x)dx
a

aj ak hk , j i

j,k=0

a2k

n
X

a2k

= kf k

a2k ,

k=0

k=0

k=0

n
X

es decir,
0 kf

n
X

ak k k2 kf k2

k=0

n
X

a2k .

k=0

As, hemos concluido la Desigualdad de Bessel:


2

kf k

n
X

a2k .

k=0

Definici
on 2.3. Diremos que (n )nN es un conjunto completo cuando
lm

n
X

a2k = kf k2 .

k=0

Esto implica que


lm kf

n
X

ak k k2 = 0,

k=0

es decir, f es aproximable (en el sentido de la media) por (n ).


Ejemplo 2.3. Pn (x) es un conjunto completo en L2 ([1, 1], dx).

(2.5)

Polinomios Ortogonales

25

Observaci
on 2.2. Cuando f C ([a, b]), por el Teorema de Weiertrass, existe un polinomio
p(x) tal que supx[a,b] |f (x) p(x)| < . Luego,
2

|f (x) p(x)| w(x)dx < 

kf p(x)k =
a

w(x)dx = 2 .

Es decir, la convergencia uniforme es mas fuerte que la convergencia en el sentido de la media.

26

Espacios de Hilbert

Captulo 3

Polinomios Ortogonales Cl
asicos
En el captulo anterior introducimos una familia de polinomios ortogonales: los polinomios de
Legendre. Ahora veremos un metodo de obtencion que nos permitira deducir los polinomios de
Jacobi, Tchevychev, Laguerre y Hermite.
Consideremos el espacio de las funciones cuadrado integrables con respecto a un peso w(x) > 0
en [a, b]: L2 ([a, b], w(x)dx), es decir, f L2 ([a, b], w(x)dx) si
b

f 2 (x)w(x)dx < .

Como hemos visto, este espacio puede ser dotado del producto interno
Z
hf, gi =

f (x)g(x)w(x)dx.
a

3.1.

Polinomios de Jacobi

Consideremos [a, b] = [1, 1] y definamos la sucesion

n (x) =

1 dn
w(x) dxn

1 x2

n


w(x) .

Esta ecuacion se conoce como la f


ormula de Rodrigues para [1, 1].

(3.1)

28

Polinomios de Jacobi

En efecto, los polinomios n encontrados a partir de (3.1) son ortogonales pues, si k < n,


Z 1


1 dn
k
k
2 n
x
hx , n i =
1x
w(x) w(x)dx
w(x) dxn
1

Z 1
n1
n1

 1
n

k1 d
k d
2 n

x
=x
1

x
w(x)

k
1 x2 w(x) dx

n1
n1
dx
dx
1
1
..
.
Z 1 nk
n

d
k
= (1) k!
1 x2 w(x) dx = 0,
nk
1 dx
pues los terminos de borde siempre se anulan al tener un factor (1 x2 )j .
Sin embargo, no es evidente que realmente n sea un polinomio. De hecho, esto solo ocurrira para
un tipo particular de pesos w.
Para n = 0, de (3.1) tenemos que 0 (x) = 1.
Para n = 1, de (3.1) tenemos que
1 (x) =

1 d
w(x) dx



w0 (x)
1 x2 w(x) = 2x + (1 x2 )
.
w(x)

Como queremos que 1 (x) sea un polinomio de grado 1, imponemos que


2x + (1 x2 )

w0 (x)
= a + bx,
w(x)

para algunas constantes a, b. Reescribamos la restriccion como




w0 (x)
1
1
1

=
+
((b + 2)x + a) =
+
.
w(x)
2 1+x 1x
1x 1+x
Integrando a ambos lados,
log w(x) = log(1 x) + log(1 + x),
es decir,
w(x) = (1 x) (1 + x)
para , > 1. Luego,
n (x) =


dn 
1
n+
n+
(1

x)
(1
+
x)
.
(1 x) (1 + x) dxn

Usando la formula de Leibniz podemos escribir


n   k
nk
X
1
n d
n+ d
n (x) =
(1

x)
(1 + x)n+
k dxk
(1 x) (1 + x)
dxnk
k=0

Polinomios Ortogonales Cl
asicos

29

para ver que efectivamente, n (x) es un polinomio de grado n.


Finalmente, definimos los polinomios de Jacobi como
Jn,, (x) =


1
(1)n
dn 
n+
n+
(1

x)
(1
+
x)
.
2n n! (1 x) (1 + x) dxn

(3.2)

En el caso particular que = = 0, aparecen los ya conocidos polinomios de Legendre:


Pn (x) =

n
(1)n dn
1 x2 .
n
n
2 n! dx

(3.3)

Por otro lado, si = = 12 , obtenemos los polinomios de Tchebycheff :


n 1
dn
(1)n p
2
2
1 x2
1

x
.
n
n
2 n!
dx

Tn (x) =

3.2.

(3.4)

Polinomios de Laguerre

Consideremos [a, b] = [0, [ y definamos la sucesion


n (x) =

1 dn
(xn w(x)) .
w(x) dxn

(3.5)

Esta ecuacion se conoce como la f


ormula de Rodrigues para [0, [.
En efecto, los polinomios n encontrados a partir de (3.5) son ortogonales pues, si k < n,

Z 
1 dn
k
k
n
hx , n i =
x
(x w(x)) w(x)dx
w(x) dxn
0

Z
n1
n1

k d
k1 d
n

=x
(x
w(x))

k
x
(xn w(x)) dx

dxn1
dxn1
0

..
.
k

= (1) k!
0

dnk
(xn w(x)) dx = 0,
dxnk

ya que el termino de borde se anula pues w(x) 0 rapidamente cuando x .


Sin embargo, no es evidente que realmente n sea un polinomio. De hecho, esto solo ocurrira para
un tipo particular de pesos w.
Para n = 0, de (3.5) tenemos que 0 (x) = 1.
Para n = 1, de (3.5) tenemos que
1 (x) =

1 d
w0 (x)
(xw(x)) = 1 + x
.
w(x) dx
w(x)

30

Polinomios de Hermite

Como queremos que 1 (x) sea un polinomio de grado 1, imponemos que


1+x

w0 (x)
= a + bx,
w(x)

para algunas constantes a, b. Reescribamos la restriccion como


w0 (x)
a1
=
+ b.
w(x)
x
Integrando a ambos lados,
log w = bx + (a 1) log x + log k,
es decir,
w(x) = kxa1 ebx .
La constante k es arbitraria as tomaremos k = 1. Llamaremos = a 1 y para asegurar la
convergencia de las integrales exigiremos > 1. Finalmente, para que el decaimiento del peso
cuando x sea efectivamente r
apido, tomaremos b = 1. As,
w(x) = x ex .
Luego,


dn
xn+ ex .
n
dx
Usando la formula de Leibniz podemos escribir
n   k
X
n d n+ dnk x
x
e
n (x) = x ex
k dxk
dxnk
n (x) = x ex

k=0

para ver que efectivamente, n (x) es un polinomio de grado n.


Finalmente, definimos los polinomios generalizados de Laguerre como
Ln, (x) =


1 x dn
x e
xn+ ex .
n
n!
dx

(3.6)

En particular, cuando = 0, obtenemos los polinomios cl


asicos de Laguerre:
Ln (x) =

3.3.


1 x dn
e
xn ex .
n
n! dx

(3.7)

Polinomios de Hermite

Consideremos [a, b] =] , [ y definamos la sucesion


n (x) =

1 dn
w(x).
w(x) dxn

(3.8)

Polinomios Ortogonales Cl
asicos

31

Esta ecuacion se conoce como la f


ormula de Rodrigues para ] , [.
En efecto, los polinomios n encontrados a partir de (3.8) son ortogonales pues, si k < n,


Z
1 dn
k
k
hx , n i =
x
w(x) w(x)dx
w(x) dxn


Z
n1
n1

k d
k1 d

x
w(x)

k
w(x)dx
=x

dxn1
dxn1

..
.
Z nk
d
k
w(x)dx = 0,
= (1) k!
nk
dx

ya que el termino de borde se anula pues w(x) 0 rapidamente cuando x o x .


Sin embargo, no es evidente que realmente n sea un polinomio. De hecho, esto solo ocurrira para
un tipo particular de pesos w.
Para n = 0, de (3.8) tenemos que 0 (x) = 1.
Para n = 1, de (3.8) tenemos que
1 (x) =

1 d
w0 (x)
w(x) =
.
w(x) dx
w(x)

Como queremos que 1 (x) sea un polinomio de grado 1, imponemos que


w0 (x)
= a + bx,
w(x)
para algunas constantes a, b.
Como estamos trabajando en el intervalo ] , [, sin perdida de generalidad, podemos hacer
un traslado en las coordenadas y reescribir la restriccion como
w0 (x)
= bx.
w(x)
Integrando a ambos lados,
b

w(x) = ke 2 x .
La constante k es arbitraria y por lo tanto, tomaremos k = 1. Ademas, para que el decaimiento
del peso cuando x sea efectivamente rapido, tomaremos b = 1. As,
1 2

w(x) = e 2 x .
Luego,
1 2

n (x) = e 2 x

dn  1 x2 
e 2
.
dxn

32

Ecuaciones diferenciales de los polinomios ortogonales

Al igual que antes, es posible demostrar que efectivamente, n (x) es un polinomio de grado n.
Finalmente, definimos los polinomios de Hermite como

n 
1 2 d
12 x2
Hn (x) = (1)n e 2 x
e
.
dxn

3.4.

(3.9)

Ecuaciones diferenciales de los polinomios ortogonales

Todas las familias de polinomios ortogonales que hemos visto hasta ahora satisfacen ecuaciones
diferenciales lineales de segundo orden, que pueden ser interpretadas como ecuaciones de valores
y funciones propias. Revisaremos un metodo simple para deducir la ecuacion que satisfacen los
polinomios de Jacobi.
Este metodo se puede usar en forma similar para deducir la ecuacion que satisfacen las otras
dos familias de polinomios ortogonales que hemos visto: Laguerre generalizado y Hermite.
Denotemos por n al n-esimo polinomio de Jacobi y consideremos el operador diferencial lineal


d
2 d ()
L () :=
w(x)(1 x )
.
(3.10)
dx
dx
Luego, cuando tomamos w = (1 x) (1 + x) , se tiene que




d
2 dn
w(x)(1 x )
= w(x) 1 x2 00n (x) + [( ) ( + + 2) x) 0n (x) .
L (n ) =
dx
dx
Pero el termino entre parentesis corresponde a un polinomio de grado n, es decir, L lleva
polinomios de grado n en polinomios de grado n y por lo tanto, la ecuacion se traduce en
Ln (x) = w(x)

n
X

k k (x).

(3.11)

k=0

Si pudiesemos mostrar que k = 0 cuando k < n, esta ecuacion se transformara en una


ecuacion diferencial ordinaria de segundo orden para n . En efecto, multiplicando (3.11) por j
e integrando en [1, 1] sigue que


Z 1
Z 1
n
n
X
X
d
dn
j (x)
w(x)(1 x2 )
dx =
j w(x)
k k (x)dx =
k hj (x), k (x)i = j .
dx
dx
1
1
k=0

k=0

Pero, integrando por partes dos veces, tenemos que






Z 1
Z 1
dj
d
dn
d
j (x)
w(x)(1 x2 )
dx =
n (x)
w(x)(1 x2 )
dx,
dx
dx
dx
dx
1
1
pues los terminos de borde se anulan por la presencia del factor (1 x2 ). Notemos que


d
2 dj
Lj (x) =
w(x)(1 x )
dx
dx

(3.12)

Polinomios Ortogonales Cl
asicos

33

y por lo tanto, es un polinomio de grado j. Luego, la integral es nula cuando j < n.


En conclusion, tenemos que

1 x2 00n (x) + [( ) ( + + 2) x) 0n (x) = n n (x).
Para obtener el valor de n , miramos el coeficiente de grado mas alto del lado izquierdo. As si
n (x) = kn xn + . . ., tenemos que
[n(n 1) n ( + + 2)] kn = n kn ,
es decir,
n = [n(n 1) + n ( + + 2)] .
Finalmente, los polinomios de Jacobi satisfacen ecuacion diferencial ordinaria lineal de segundo
orden

1 x2 00n (x) + [( ) ( + + 2) x) 0n (x) + [n(n 1) + n ( + + 2)] n = 0. (3.13)
Ademas, como hemos dicho anteriormente, los polinomios de Legendre y los polinomios de
Tchebycheff son un caso particular de los polinomios de Jacobi para = = 0 y = = 12 ,
respectivamente. Por lo tanto, los polinomios de Legendre satisfacen

1 x2 Pn00 (x) 2xPn0 (x) + n(n + 1)Pn = 0,

(3.14)

mientras que los polinomios de Tchebycheff satisfacen



1 x2 Tn00 (x) xTn0 (x) + n2 Tn = 0.

(3.15)

Observaci
on 3.1. Recordando la definicion de L, la ecuacion (3.12) puede ser reescrita como
Z

j (x)Ln (x)dx =
1

n (x)Lj (x)dx,
1

es decir,
hj , Ln i = hLj , n i.
Por lo tanto, L es un operador hermtico.

3.5.

Funciones Generatrices y aplicaciones

Se define la funci
on generatriz de los polinomios de Hermite como
(x, t) =

X
Hn (x)
n=0

n!

tn ,

(3.16)

34

Funciones Generatrices y aplicaciones

donde
Hn (x) = (1)n e

x2
2

dn
dxn

x2
2


.

Luego, por el Teorema de Taylor, tenemos que




dn
Hn (x) = n (x, t) .
dt
t=0
Pero
(x, t) =

nt

(1)

n=0

n!

x2
2

dn
dxn



2
x2
e
,

donde, por el Teorema integral de Cauchy,


2


I
z2
x2
1
e
e 2 =
dz
2i (z x)n+1

1 dn
n! dxn



t
para una curva suave a trozos y tal que I(x, ) = 1. As, si zx
< 1,
(x, t) =

tn
(1)
2i
n

n=0

1
2i

x2

z2

e22
1
dz =
(z x)n+1
2i

2
x2
z2
2

e
1
1
dz =
t
z x 1 + zx
2i


z
x

e22 X
t n
dz
zx
zx
n=0

2
x2
z2
2

e
dz.
z (x t)

De donde, nuevamente por el Teorema integral de Cauchy, sigue que


t2

(x, t) = etx 2 .

(3.17)

Observaci
on 3.2. Por un lado,
2

(0, t) = e

t2

X
(1)n
n=0

2n n!

t2n .

Por el otro,
(x, t) =

X
Hn (x)
n=0

Igualando termino a termino, tenemos que

0
k
Hn (0) =
(2k)! (1)
k!
2k

n!

tn .

si

n = 2k + 1

si

n = 2k

(3.18)

Polinomios Ortogonales Cl
asicos

35

Observaci
on 3.3. Recordemos que en ] , [ estamos tomando
x2
2

w(x) = e
Por lo tanto,
Z

Hn (x)2 e

hHn , Hn i =

x2
2

dx.

Luego,
Z

(x, t)2 e

x2
2

X
X
(1)n+m tn+m
hHn , Hn i 2n
hHn , Hm i =
t .
n!m!
(n!)2

dx =

n,m=0

Pero
(x, t)2 e

x2
2

n=0

= e2txt e

x2
2

= e

(x2t)2
2

et .

As,
Z

2 x2

(x, t) e

t2

dx = e

(x2t)2
2

dx = e

t2

Finalmente,

u2

t2

du = e

2 =

X
n=0

hHn , Hn i = n! 2.

2 2n
t .
n!

(3.19)

Observaci
on 3.4. Notemos que

n=0

n=0

n=0

n=1

X Hn (x)
X xHn (x)
X Hn1 (x)
X xHn (x)
t2

= etx 2 (x t) =
tn
tn+1 =
tn
tn .
t
n!
n!
n!
(n 1)!
Pero tambien

n=0

n=0

X nHn (x) n1 X Hn+1 (x) n


=
t
=
t .
t
n!
n!
Luego,

X
xHn (x)
n=0

n!

tn

X
Hn1 (x)
n=1

(n 1)!

tn =

X
Hn+1 (x)
n=0

n!

tn .

Comparando termino a termino,


x
Hn1
Hn+1 (x)
Hn (x)
=
,
n!
(n 1)!
n!
es decir,
Hn+1 (x) xHn (x) + nHn1 (x) = 0 ,

xH0 (x) = H1 (x).

Observaci
on 3.5. Notemos que

n=0

n=1

X Hn (x)
X Hn1 (x)

= t =
tn+1 =
tn .
x
n!
(n 1)!

(3.20)

36

Funciones Generatrices y aplicaciones

Pero tambien

X Hn0 (x) n
=
t .
x
n!
n=0

Luego,

X
Hn1 (x)
n=1

Comparando termino

(n 1)!

tn =

X
H 0 (x)
n

n=0

n!

tn

Hn1 (x)
H 0 (x)
= n
,
(n 1)!
n!

es decir,
nHn1 (x) =

dHn (x)
dx

H00 (x) = 0.

(3.21)

Captulo 4

Series de Fourier
Sea f : [0, 1] R suave y tal que f (0) = f (1). Se dice que f tiene borde peri
odico. Copiando
y traslandado es posible extender f de forma periodica a todo R.

Consideremos el conjunto de funciones B = (sin (2nx))


n=1 (cos (2nx))n=0 . Se tiene que B es
un conjunto ortogonal de funciones seg
un el producto interno usual sobre [0, 1] con peso w 1.
Ademas, B es una base para funciones suaves y periodicas de perodo 1. Es decir,

lm a0 +

n
X

ak cos (2kx) + bk sin (2kx) = f (x).

k=1

De hecho, la convergencia es uniforme en [0, 1].


Para obtener los coeficientes ak , bk podemos proyectar f sobre los elementos de la base y sigue
que
Z
1

a0 =

f (x)dx,
0

ak = 2

f (x) cos(2kx)dx,

k 1,

f (x) sin(2kx)dx,

k 1.

Z
bk = 2

Luego,
Z

f (x) = lm

f (y)dy + 2

n 0

1+2

n 0

= lm

n 0

Z
cos(2kx)

k=1
1

= lm

n
X

n
X

Z
f (y) cos(2ky)dy + sin(2kx)

f (y) sin(2ky)dy
0

!
cos(2kx) cos(2ky) + sin(2kx) sin(2ky) f (y)dy

k=1
1

Dn (x, y)f (y)dy,

38

La funci
on de Riemann

donde Dn (x, y) se conoce como el n


ucleo de Dirichlet y es una aproximacion de .
Recordemos que
cos z =

eiz + eiz
2

sin z =

eiz eiz
.
2i

Entonces podemos escribir

f (x) =

ck e2ikx ,

(4.1)

k=

lo cual se conoce como la serie de Fourier de f .



Observaci
on 4.1. La familia e2inx nZ es ortonormal con respecto al producto interno complejo
Z 1
hf, gi =
f (x)g(x)dx.
0

Luego,
1

Z
ck =

f (x)e2ikx dx.

(4.2)

4.1.

La funci
on de Riemann

Se define la funci
on de Riemann como
(x) :=

en x .

(4.3)

n=

Notemos que si x , entonces (x) 1. Mientras que si x 0+ , (x) diverge y de hecho,


mostraremos que lo hace como 1x .
Sea

x (y) :=

e(n+y) x .

(4.4)

n=

Como

X
n=

(n+y)2 x

((n+1)+y)2 x

n=

n=

se tiene que
x (y) = x (y + 1),
es decir, es una funci
on peri
odica de perodo 1. Luego,
x (y) =

X
k=

ck e2iky ,

e(n+(y+1)) x ,

Series de Fourier

39

donde
1

Z
ck =

x (y)e

2iky

Z
dy =

!
(n+y)2 x

e2iky dy.

n=

Pero
e2ikt(y+n) = e2ikty .
As,
Z
ck =

(n+y)2 x 2ik(n+y)

0 n=
Z n+1
X

dy =

=e

e(n+y) x e2ik(n+y) dy

n= 0
2

eu x e2iku du =

eu x e2iku du

n= n
2
kx

Z
X

x(u+ xi k)

du = e

kx

k2
1
2
exu du = e x .
x

Finalmente,
x (y) =

X
k=

k2
1
e x e2iky .
x

(4.5)

Luego,
(x) = x (0) =

X
k=

k2
1
1 X k2
e x =
e x,
x
x
k=

es decir,
1
(x) =
x

 
1
,
x

(4.6)

lo cual se conoce como la Identidad de Jacobi. As,


 

1
= lm (x) = 1.
lm x(x) = lm
+
+
x
x
x0
x0
Por lo tanto, (x) diverge como

4.2.

1 .
x

La funci
on de Riemann

Se define la funci
on de Riemann como

X
1
.
(z) :=
nz
n=1

Notemos que (z) converge si y s


olo si <z > 1.

(4.7)

40

La funci
on de Riemann

Usando la continuaci
on analtica es posible extender a una funcion meromorfa en C con un
u
nico polo en z = 1. Hecho esto, se plantea la conjetura de Riemann:
1
(z) = 0 <z = .
2
Mostraremos un resultado m
as simple que este. Estamos interesados en calcular

X
1
.
(2) =
n2
n=1

Para ello usaremos que si


f (x) = a0 +

an cos (2nx) + bn sin (2nx) ,

n=1

entonces, usando que


Z
Z 1
cos (2nx) cos (2mx) dx =
0

1
sin (2nx) sin (2mx) dx = nm ,
2

se tiene que
kf k2 =

Z
0

1
f (x)2 dx = a20 +
2

a2n +

n=1

!
b2n

(4.8)

n=1

lo cual se conoce como la Identidad de Parseval.




Todo esto se puede trasladar a 12 , 21 . Sea

1 si 1 x < 0
2
f (x) =
1

1 si 0 x
2

Entonces, por un lado,


2

kf k =

1
2

f 2 (x)dx = 1.

12

Mientras que por el otro,


Z
a0 =

1
2

Z
an = 2

1
2

f (x) cos(2nx)dx = 0

12

Z
bn = 2

f (x)dx = 0

12

1
2

12

Z
f (x) sin(2nx)dx = 4
0

1
2

f (x) sin(2nx)dx =

4 (1 cos n)
2 (1 (1)n )
=
,
2n
n

Series de Fourier

41

es decir,
b2n = 0 ,

b2n+1 =

4
.
(2n + 1)

Luego, usando (4.8), tenemos que

1X
1=
2

n=0

es decir,

X
n=0

As,
(2) =

X
n=1

4
(2n + 1)

2
,

2
1
=
.
(2n + 1)2
8

n=0

n=1

X
1
1
1X 1
2
1
2
+
=
+
=
(2)
+
(2n)2
(2n + 1)2
4
n2
8
4
8

y por ende,
(2) =

2
.
6

42

La funci
on de Riemann

Captulo 5

Ecuaciones Diferenciales Parciales


En este captulo estudiaremos tres tipos de ecuaciones:
(a) La ecuaci
on de Ondas (hiperb
olica):
1 2u
= 4u.
C 2 t2

(5.1)

(b) La ecuaci
on de Poisson-Laplace (elptica):
4u = f.

(5.2)

u
= 4u.
t

(5.3)

(c) La ecuaci
on del Calor (parab
olica):

5.1.

Ecuaci
on de Ondas en 1D

La ecuacion est
a dada por
1 2u
2u
=
t 0, x R
C 2 t2
x2
u(x, 0) = f (x)
ut (x, 0) = g(x)
Las ecuaciones dos u
ltimas ecuaciones se denominan condiciones iniciales.
Notemos que si g 0, entonces
u(x, t) = f (x Ct)
es una soluci
on de (5.4).

(5.4)

44

Ecuaci
on de Ondas en 1D

La solucion general de (5.4) est


a dada por
u(x, t) =

1
1
(f (x + Ct) + f (x Ct)) +
2
2C

x+Ct

g(s)ds,

(5.5)

xCt

la cual se conoce como la soluci


on de DAlembert.
Notemos que (5.4) no tiene condiciones de borde, es decir, no hay condiciones para x fijo y
t libre. Supongamos que, por ejemplo, la cuerda es finita de largo L y esta fija en sus extremos,
es decir, el problema se transforma en
2u
1 2u
=
t 0, x R
C 2 t2
x2
u(x, 0) = f (x)
ut (x, 0) = g(x)

(5.6)

u(0, t) = 0
u(L, t) = 0
Este tipo de condiciones de borde se denominan del tipo Dirichlet. Para resolver (5.6) hay
dos alternativas: el m
etodo de DAlembert y el m
etodo de Bernoulli.

5.1.1.

M
etodo de DAlembert

Queremos usar la soluci


on (5.5) pero para ello es necesario extender el problema a todo R,
es decir, eliminar las condiciones de borde. Para ello extenderemos f y g a todo R de forma
sensata.
La funcion f est
a definida sobre [0, L]. Dado x [0, L], definamos
f (x) := f (x),
es decir, f se extiende como una funcion impar a [L, L]. Luego, extendemos a R en forma
periodica con perodo 2L.
Consideremos
u(x, t) =

1
(f (x + Ct) + f (x Ct)) .
2

Verifiquemos las condiciones de borde:


u(0, t) =

1
1
(f (Ct) + f (Ct)) = (f (Ct) f (Ct)) = 0,
2
2

pues f es impar y an
alogo para u(L, t).
Dejamos pendiente c
omo extender g.

Ecuaciones Diferenciales Parciales

5.1.2.

45

M
etodo de Bernoulli

Usaremos el metodo de separaci


on de variables. Supongamos una solucion de la forma
u(x, t) = h(x)p(t).

(5.7)

Tenemos que
2u
d2 p
=
h
= hp00
t2
dt2
Como u resuelve (5.6), tenemos que

2u
d2 h
=
p
= ph00 .
x2
dx2

1
hp00 = h00 p,
C2
es decir,

1 p00
h00
=
.
C2 p
h

(5.8)

Notemos que el lado izquierdo de (5.8) depende solo del tiempo mientras que el lado derecho
depende solo del espacio. Luego, ambos lados deben ser constantes, es decir,
1 p00
h00
=

=
,
C2 p
h
donde se conoce como una constante de separaci
on.
Por otro lado, si imponemos las condiciones de borde, tenemos que para todo t 0,
u(0, t) = h(0)p(t) = 0 h(0) = 0,
u(L, t) = h(L)p(t) = 0 h(L) = 0.
Luego, h satisface
d2 h
= h
dx2
h(0) = 0

(5.9)

h(L) = 0
Consideremos el operador diferencial lineal L : Cn Cn2 definido sobre las funciones cuadrado
integrables que satisfacen las condiciones de borde y dado por
L=

d2
.
dx2

Con esto, h satisface


Lh = h,
es decir, (5.12) se traduce en buscar autovalores y autovectores de L. Pero sabemos que h es de
la forma
 
 
h(x) = a sin
x + b sin
x

46

Ecuaci
on de Ondas en 1D

y como h(0) = 0 b = 0. Tambien,


h(L) = a sin


x = 0.

Como a 6= 0 (pues si no la soluci


on sera u 0), tenemos que
autovalores de L son
n2 2
, n N.
n =
L2

L = n y por lo tanto, los


(5.10)

Luego, los autovectores (normalizados) de L son


r
hn (x) =

 nx 
2
sin
,
L
L

n N.

(5.11)

Ademas, el espectro del operador L esta dado por


n2 2
L2


= {n : Lh = n h} =


.
nN

Por otro lado, p satisface


p00 + c2 p = 0.

(5.12)

As,
p(t) = a cos (t ) ,

con = c . Como > 0 (por (5.10)), tenemos que R y por lo tanto, p(t) es de perodo
2
. Finalmente, para cada valor propio n , tenemos una frecuencia asociada dada por
p
n = c n .
Observaci
on 5.1. Sean f, g L2 ([0, L]) y tales que satisfacen las condiciones de borde. Entonces, integrando por partes,
Z
hf, Lgi =
0

 2 
Z L
Z L 2 
d g
df dg
d f
f (x) 2 dx =
dx =
2 g(x)dx = hLf, gi,
dx
dx
0 dx dx
0

es decir, L es hermtico y por lo tanto, sus valores propios son reales. Ademas,
Z
hf, Lf i =
0

L

f
x

2
dx 0,

por lo tanto, L es positivo definido. As, cuando h es tal que Lh = h,


0 hh, Li = hh, hi = hh, hi.
y como hh, hi 0, sigue que 0.

Ecuaciones Diferenciales Parciales

47

Como el conjunto (hn )nN es completo para las funciones en L2 que satisfacen las condiciones
de borde, tenemos que
r
 nx 
X
2
u(x, t) =
sin
(an cos (n t) + bn sin (n t)) .
(5.13)
L
L
n=1

Pero con esto, u s


olo satisface las ecuaciones de borde. Ahora impondremos las condiciones
iniciales y con ello, encontraremos los valores de an y bn . Notemos que
r

 nx 
X
2
u(x, 0) =
an
sin
= f (x).
L
L
n=1

Por lo tanto,
r
an = hf, hn i =
Analogamente,
ut (x, 0) =

2
L

f (x) sin

 nx 

r
bn n

n=1

dx.

 nx 
2
sin
= g(x).
L
L

Por ende,
1
1
hg, hn i =
bn =
n
n
As,
u(x, t) =

X
n=1

5.2.

2
L

g(x) sin
0

 nx 
L

dx.



1
hn (x) hf, hn i cos (n t) +
hg, hn i sin (n t) .
n

(5.14)

Ecuaci
on de Ondas en 2D

Estudiaremos el problema
1 2u
= 4u
C 2 t2
u(~r, 0) = f (~r)

(5.15)

ut (~r, 0) = g(~r)
u| = 0
Es decir, la membrana se encuentra fija en sus bordes.

5.2.1.

Membrana Rectangular

Consideremos el rect
angulo = [0, a][0, b]. Queremos resolver el problema (5.15). Supongamos
una solucion de la forma
u(x, y, t) = h(x, y)p(t).
(5.16)

48

Ecuaci
on de Ondas en 2D

Llamando L = 4 y repitiendo el argumento visto en la seccion anterior, tenemos que


Lh = h

(5.17)

h| = 0

lo cual se conoce como la ecuaci


on de Helmholtz. Suponemos una solucion de la forma
h(x, y) = F (x)G(y)
y por lo tanto,

F 00 G + F G00 = F G,
es decir,
F 00
G00
=
.
F
G
Como el lado izquierdo s
olo depende de x, mientras que el derecho solo depende de y, concluimos
que
F 00 + F = 0
(5.18)
G00 + ( ) G = 0
para una nueva constante de separaci
on . Ademas, como h(0, y) = h(a, y) = 0, concluimos que
F (0) = F (a) = 0. An
alogamente, G(0) = G(b) = 0.
Resolviendo, concluimos que

F (x) = a1 sin



x + b1 cos x .

Pero F (0) = 0 b1 = 0 y
F (a) = 0 a1 sin

a = 0 a = n,

es decir,
=
Analogamente,
G(y) = a2 sin

n2 2
,
a2

n N.





y + b2 cos
x .

Pero G(0) = 0 b2 = 0 y
G(b) = 0 a2 sin

m2 2
b = 0 b = m =
.
b2

As, los autovalores de L est


an dados por
 2

m2
2 n
nm =
+ 2 ,
a2
b

n, m N,

(5.19)

Ecuaciones Diferenciales Parciales

49

mientras que los correspondientes autovectores son


 nx 
 my 
2
hnm (x, y) = sin
sin
,
a
b
ab

n, m N.

Estos autovectores forman una base ortonormal en L2 () bajo el producto


ZZ
hf, gi =
f (x, y)g(x, y)dxdy.

(5.20)

(5.21)

Por otro lado, p resuelve


p00 + c2 p = 0.
Luego,
p(t) = anm sin


p

p
nm ct + bnm cos
nm ct ,

n, m N.

Finalmente, reemplazando en (5.16) y sumando, tenemos que


u(x, y, t) =

con nm =
es decir,

 my 
 nx 
2
sin
,
anm sin (nm t) + bnm cos (nm t) sin
a
b
ab
n,m=1

(5.22)

nm c. Los coeficientes, al igual que antes, son obtenidos al proyectar sobre la base,
anm

2
= hf, hnm i =
ab

ZZ
f (x, y)hnm (x, y)dxdy

y
bn =

5.2.2.

1
nm c

hg, hnm i =

nm ab

ZZ
g(x, y)hnm (x, y)dxdy.

Membrana Circular

Consideremos el crculo = {(x, y) R2 : x2 + y 2 = R}. Queremos resolver el problema


(5.15). Supongamos una soluci
on de la forma (5.16). Debemos resolver (5.18). Desarrollamos el
laplaciano en polares
1
1
4h = hrr + hr + 2 h .
(5.23)
r
r
Supongamos una soluci
on de la forma
h(r, ) = F (r)G().
Entonces

es decir,

1
1
F 00 G + F 0 G + 2 F G00 = F G,
r
r
F 00
F0
G00
= r2
r .
G
F
F

50

Ecuaci
on de Ondas en 2D

Concluimos que

G00
=
G
r2

(5.24)

F 00
F0
+r
= r2
F
F

Por un lado, podemos escribir


G00 + G = 0,
cuya solucion es



+ b sin .

Como G debe ser de perodo 2, concluimos que = n. Por ende,


G() = a cos

G() = a cos (n) + b sin (n) ,

n N.

Por el otro, tenemos que



r2 F 00 + rF 0 + r2 n2 F = 0

(5.25)

lo cual se conoce como la ecuaci


on de Bessel. Escribamos


1 0
n2
00
F + F + 2 F = 0.
r
r

(5.26)

Esta ecuacion tiene dos tipos de soluciones linealmente independientes:


(a) Funciones de Bessel de primera especie: F (r) = Jn


r .

(b) Funciones de Neumann de primera especie: F (r) = Yn


r .

Para resolver esta ecuaci


on y encontrar el primer tipo, necesitamos el siguiente:
Teorema 5.1 (Frobenius). Consideremos la ecuacion
y 00 +

p0 (x) 0 p1 (x)
y +
y = 0,
x
x2

donde p0 , p1 son funciones analticas en torno a cero. Entonces


y(x) = x (x),

(5.27)

con analtica en torno a cero y donde p0 , p1 lo sean a la vez. Ademas, es resuelve


( 1) + p0 (0) + p1 (0) = 0,

(5.28)

lo cual se conoce como el polinomio caracterstico de la ecuacion.


Observaci
on 5.2. Las soluciones obtenidas mediante el metodo de Frobenius son linealmente
independientes para 1 y 2 si y s
olo si |1 2 | 6 Z.

Ecuaciones Diferenciales Parciales

51

Volvamos a nuestra ecuaci


on. Hagamos F (r) = y


r y la ecuacion se transforma en



y0
n2
y + + 1 2 y = 0,
r
r
00

(5.29)

lo cual se conoce como la ecuaci


on de Bessel normalizada.
Supongamos que n = 0, entonces
y 00 +

y0
+ y = 0,
r

(5.30)

y sigue que p0 (r) = 1 y p1 (r) = r2 las cuales son funciones enteras. Usamos Frobenius
y = r (r),
con entera. Tenemos que resuelve
( 1) + = 0,
es decir, = 0. Por lo tanto, s
olo hay una solucion por este metodo.
Como es entera,

y(r) = r0 (r) =

ck rk .

(5.31)

k=0

Reemplazando en (5.30), tenemos que

k(k 1)ck r

k2

k=2

kck r

k2

(k + 2)(k + 1)ck+2 rk +

(k + 2)(k + 1)ck+2 rk +

(k + 2)ck+2 rk +

(k + 2)ck+2 rk +

k=0

ck rk = 0

k=0

k=1

k=0

k=1

k=0

ck rk = 0

k=0

X
k=0

ck rk + c1

1
= 0.
r

Igualando coeficientes concluimos que c1 = 0. Luego,

X



(k + 2)2 ck+2 + ck rk = 0,

k=0

es decir,
ck+2 =

ck
.
(k + 2)2

Como c1 = 0, tenemos que c2k+1 = 0, k. Por otro lado, como c0 es arbitrario,


c2k = (1)k

c0
.
k
2 k!2

52

Ecuaci
on de Ondas en 2D

Finalmente,
y(x) = c0

X
1  x 2k
(1)k 2
.
k! 2
k=0

Si tomamos c0 = 1, obtenemos
J0 (x) =

X
1 2  x 2k
,
(1)k
k! 2

(5.32)

k=0

la cual se conoce como la funci


on de Bessel de primera especie de orden cero. Sus ceros
positivos se denotan j0,m .
As,

 
h(r, ) = J0
r

y como h(R, ) = 0, [0, 2[, tenemos que R = j0,m , es decir,



0,m =

j0,m
R

Escribimos
h0,m = J0

2
m N.

p

0,m r .

 
Observaci
on 5.3. La otra soluci
on, aquella proveniente de las funciones de Neumann, Y0
r ,
diverge logartmicamente en r = 0. Fsicamente no tiene mucho sentido un tambor circular que
diverge en su centro, sin embargo, si tiene sentido si el tambor es realmente una corona.
Volvamos a



y0
n2
y + + 1 2 y = 0.
x
x
00

Tenemos que p0 (x) = 1 y p1 (x) = x2 n2 . Luego,


( 1) + p0 (0) + p1 (0) = 0,
es decir, 2 n2 = 0. Por lo tanto,
= n,
pero como difieren en un entero, las soluciones que entregan son linealmente dependientes. As,
y(x) = x

ck xk .

k=0

Por conveniencia tomamos


c0 =

1
2n n!

Ecuaciones Diferenciales Parciales


y al resolver obtenemos
Jn (x) =

53

(1)k

k=0

 x 2k+n
1
.
k!(n + k)! 2

(5.33)

Ademas, jn,m es el m-esimo cero positivo de la funcion de Bessel Jn (x). Al igual que antes,
(
p
 sin(n)
hn,m = Jn
,
0,m r
cos(n)
donde

n,m =

jn,m
R

2
,

m N.

(5.34)

Observaci
on 5.4. A los lugares geometricos al interior del crculo donde la funcion hn,m cambia
de signo se les conocen como lneas nodales.
Ahora resolveremos la ecuaci
on de otra forma para encontrar las funciones de Neumann. Usaremos el m
etodo del Wronskiano: a partir de una solucion encontraremos otra.
Supongamos n = 0. Sean y1 , y2 dos soluciones tales que
y10
+ y1 =0
x
y0
y200 + 2 + y2 =0.
x

y100 +

Multiplicando la primera ecuaci


on por y2 , la segunda por y1 y luego restandolas, tenemos que
 1 0

y100 y2 y200 y1 +
y1 y2 y20 y1 = 0.
x
Definamos
W = y20 y1 y1 y2 ,
entonces (5.35) se transforma en
W0 +

1
W = 0,
x

es decir, (xW )0 = 0. Por lo tanto,


xW C
y sigue que

y20 y1 y10 y2
C 1
=
.
2
x y12
y1

Notando que el lado izquierdo corresponde a la derivada del cuociente, escribimos


 0
y2
C 1
=
.
y1
x y12

(5.35)

54

Ecuaci
on de Ondas en 2D

As,
Z
y2 (x) = y1 (x)
a

C
ds.
sy1 (s)2

Luego, como y1 = J0 resuelve nuestro problema cuando n = 0, tenemos que y2 es


Z x
ds
Y0 (x) = J0 (x)
,
2
a sJ0 (s)

(5.36)

la cual corresponde a la funci


on de Bessel de segunda especie de orden cero.
Observaci
on 5.5. Como habiamos dicho antes, Y0 (x) diverge logartmicamente cuando x
+
0 .
A partir de las funciones de Bessel, definimos la funci
on de Weber como
2
2
Y0 (x) = (log 2 ) J0 (x) + Y0 (x),

(5.37)

donde es la constante de Euler-Mascheroni dada por


= lm 1 +
n

1 1
1
+ + . . . + log n.
2 3
n

Observaci
on 5.6. Miremos el comportamiento de J0 (x) e Y0 (x) cuando x  1. Ya sabemos
que estas funciones satisfacen
1
y 00 + y 0 + y = 0.
x
u

Tomemos y = x . Reemplazando concluimos que u satisface




1
u + u 1 + 2 = 0.
4x
00

As, cuando x  1,
u00 + u = 0.
Es decir, u cos (x + ). Por lo tanto,
y

cos (x + )

.
x

Finalmente,
r
J0 (x) =



2 h

cos x
+ p(x) ,
x
4

donde p(x) es el termino de error. Ademas,


r

2 h 

J0 (x) =
sin x
+ q(x) .
x
4

(5.38)

(5.39)

Ecuaciones Diferenciales Parciales

5.2.3.

55

Propiedades de las funciones de Bessel

Teorema 5.2. Si y son ceros de J0 , es decir,


J0 (x)|x=1 = J0 () = 0,
entonces
Z

J0 (x)J0 (x)xdx =
0

0
1
J1 ()2
2

si

6=

si

Es decir, J0 (x) y J0 (x) son ortogonales en [0, 1] con respecto al peso w(x) = x y satisfacen
las condiciones de borde en x = 1.
Demostraci
on. Sabemos que J0 (x) resuelve
y 00 +

1 0
y + y = 0.
x

Por lo tanto, J0 (x) resuelve


y 00 +

1 0
y + 2 y = 0,
x

cuando es una constante.


Supongamos que y1 e y2 resuelven
xy100 + y10 + 2 xy1 = 0,
xy200 + y20 + 2 xy2 = 0.
Multiplicando la primera por y2 , la segunda por y1 y restandolas, tenemos que
(xW )0 + (2 2 )xy1 y2 = 0,
donde W = y10 y2 y20 y1 . Luego,
Z
0

(2 2 )xy1 y2 dx = xW |10 = W (1).

As, si y1 (x) = J0 (x) e y2 (x) = J0 (x), entonces W (1) = 0 y sigue que


Z

J0 (x)J0 (x)xdx = 0,
0

cuando 6= .
Volvamos a (5.40). Notemos que la primera ecuacion puede escribirse
0
xy10 + 2 xy1 = 0.

(5.40)

56

Ecuaci
on de Ondas en 2D

Multiplicando por 2xy10 sigue que


0
2xy10 xy10 + 22 x2 y1 y10 = 0,
es decir,


xy10

 2 0

+ 2 x2 y12

Pero si y1 (1) = 0, entonces


Z
Z 1


2 2
2 0
2 2
2 1
2
x y1 (x) dx = x y1 (x) 0 2

0

= 0.

1
2

xy1 (x) dx = 2

xy1 (x)2 dx.

Ademas,
1

2 1
2  0
dx = xy10 (x) = y10 (1)2 .
xy10 (x)
0

En consecuencia, poniendo y1 (x) = J0 (x), tenemos que


Z
0

1
xJ0 (x)2 dx =
22

Pero

dJ0 (x)
dx

2


.
x=1

dJ0 (x)
= J1 (x).
dx

Por lo tanto,
1

Z
0

1
xJ0 (x)2 dx = J1 ()2 .
2

Observaci
on 5.7. Toda funci
on f suave definida en [0, 1] con condicion de borde en x = 1 se
puede expandir en (J0 (j0,n x))nN , es decir,
f (x) =

an J0 (j0,n x) .

(5.41)

n=1

Esta expansi
on se conoce como la expansi
on de Fourier-Bessel. Usando el Teorema 5.2,
tenemos que
Z 1
2
an = 2
f (x)J0 (j0,n x) xdx.
(5.42)
J1 (j0,n ) 0
Proposici
on 5.1. La funci
on generatriz de (Jn )nN esta dada por
x
2

1
e (t t ) =

X
n=

con Jn (x) = (1)n Jn (x).

Jn (x)tn ,

Ecuaciones Diferenciales Parciales

57

Observaci
on 5.8. Sea t = ei . Entonces
t

1
= ei ei = 2i sin .
t

As, usando la Proposici


on 5.1, tenemos que
e

ix sin

Jn (x)ein .

n=

Tomando la parte real sigue que


cos (x sin ) = J0 + 2

J2n (x) cos (2n) ,

n=1

es decir, (J2n )nN son los coeficientes de la expansi


on de Bessel de cos (x sin ) . Por ende,
J0 (x) =

1
2

y
1
Jn (x) =

cos (x sin ) d

(5.43)

cos (n x sin ) d.

(5.44)

Proposici
on 5.2. La familia (Jn )nN satisface
1
(Jn1 (x) Jn+1 (x))
2

(5.45)

2n
Jn (x) = Jn1 (x) Jn+1 (x)
x

(5.46)

Jn0 (x) =
y

Observaci
on 5.9. Combinando (5.45) y (5.46), tenemos que
n
Jn + Jn0 .
x

Jn1 (x) =

Multiplicando por xn y reconociendo la derivada, obtenemos la relaci


on de bajada
xn Jn1 (x) =

d
(xn Jn (x)) .
dx

(5.47)

Pero tambien, podemos combinar (5.45) y (5.46) para obtener


Jn+1 (x) =

n
Jn0 (x).
x

Multiplicando por xn y reconociendo la derivada, obtenemos la relaci


on de subida
xn Jn+1 (x) =


d
xn Jn (x) .
dx

(5.48)

58

Ecuaci
on de Poisson-Laplace en 2D

Definici
on 5.1. Sea z C tal que <z > 0. Se define la funci
on Gamma como
Z
tz1 et dt.
(z) =

(5.49)

Notar que (n + 1) = n!.


A partir de ella, definimos la funci
on de Bessel compleja como
Jz (w) =

X
k=0

(1)k

 w 2k+z
1
,
k!(k + z + 1) 2

z, w C, <z > 0.

(5.50)

Luego, la funci
on de Bessel modificada es
In (x) = Jn (ix),

(5.51)

mientras que la funci


on de Neumann modificada esta dada por
Kn (x) = Yn (ix).

5.3.

(5.52)

Ecuaci
on de Poisson-Laplace en 2D

En R2 , consideremos = B (0, a). Queremos encontrar un potencial electroestatico , dado


V () en . Para ello resolveremos la ecuaci
on de Laplace
4 = 0
| = V ()

(5.53)

Dada la geometra del problema, usaremos el laplaciano en coordenadas polares


1
1
4 = rr + r + 2 4S 1 ,
r
r

(5.54)

donde 4S 1 = . Usamos separaci


on de variables: supongamos una solucion de la forma
(r, ) = F (r)G(),
entonces



1 0 r2 G00
00
F + F
+
= 0.
r
F
G

Por lo tanto, G satisface


G00 + 2 G = 0,
es decir,
G() = a sin + b cos .
Como queremos que G() = G( + 2) imponemos = n.

(5.55)

Ecuaciones Diferenciales Parciales

59

Luego, F satisface


1 0 r2
00
F + F
= n2 ,
r
F
es decir,
1
n2
F 00 + F 0 2 F = 0.
r
r
Esta no es una ecuaci
on de Bessel. Suponemos una solucion de la forma F (r) = r y al
reemplazar se tiene que = n. Por lo tanto,
F (r) = crn + drn .
Como no queremos que F tenga singularidades en r = 0, imponemos d = 0.
En consecuencia,
(r, ) =

rn (an sin n + bn cos n) .

(5.56)

n=0

Para imponer la condici


on de borde (a, ) = V () aprovechamos la ortogonalidad y encontramos an , bn .
Observaci
on 5.10. Consideremos el espacio de todas las funciones u L2 () que satisfacen
4u = u

(5.57)

u|u = 0
Consideremos el producto interno
ZZ
hf, gi =

f (x, y)g(x, y)dxdy.

Definamos L = 4. Notemos que si u y v resuelven (5.58), entonces


ZZ
ZZ
ZZ
v(x, y)Lu(x, y)dxdy =
v(x, y) (u(x, y)) dxdy =
Lv(x, y)u(x, y)dxdy

y
ZZ

(u(x, y))2 dxdy 0.

hu, Lui =

Por lo tanto, 4 es positivo y hermtico.

5.4.

Ecuaci
on de Poisson-Laplace en 3D

En R3 , consideremos = B (0, a). Queremos encontrar un potencial electroestatico , dado


V () en . Para ello resolveremos la ecuaci
on de Laplace
4 = 0
| = V (, )

(5.58)

60

Ecuaci
on de Poisson-Laplace en 3D

Dada la geometra del problema, usaremos el laplaciano en coordenadas esfericas


4 =
donde
4S 2 =

1 2 
1
r r r + 2 4S 2 ,
2
r
r

(5.59)

1
1
2 + sin (sin ) .
sin

Usamos separaci
on de variables: supongamos una solucion de la forma
(r, ) = F (r)G(, ),
entonces

(5.60)



2 0 r2 4S 2 G
00
F + F
+
= 0.
r
F
G

Por ende, F satisface

2
F 00 + F 0 2 F = 0,
r
r
cuyas soluciones son de la forma F (r) = r .
Los valores de quedan determinados por el siguiente problema espectral
4S 2 G = 2 G
cuya solucion es 2 = n(n + 1).
Observaci
on 5.11. En general, para
4S d G = 2 G
la solucion es 2 = n(n + (d 1)).
Por lo tanto, reemplazando concluimos que satisface
( 1) + 2 n(n + 1) = 0,
es decir, = n
o = (n + 1). Finalmente,
F (r) = arn + br(n+1) .

(5.61)

Bibliografa
[1] H. Hochstadt, The Functions of Mathematical Physics. Dover Pubs., NY, 1986

S-ar putea să vă placă și