Sunteți pe pagina 1din 115

Ecuaciones Diferenciales I

Artemio Gonz alez L opez


Madrid, enero de 2004

Indice general
1 Introducci on 1
1.1 Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 Tecnicas elementales de integraci on . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 y

= f(x) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Ecuaciones con variables separadas . . . . . . . . . . . . . . . . . 3
1.2.3 Ecuaciones homogeneas . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.4 Ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2.5 Ecuacion de Bernoulli . . . . . . . . . . . . . . . . . . . . . . . . 9
1.2.6 Ecuacion de Riccati . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.7 Ecuaciones exactas y factores integrantes . . . . . . . . . . . . . 12
1.3 Existencia y unicidad de soluciones . . . . . . . . . . . . . . . . . . . . . 16
1.3.1 Funciones lipschitzianas . . . . . . . . . . . . . . . . . . . . . . . 19
2 Ecuaciones y sistemas lineales 27
2.1 Estructura del espacio de soluciones . . . . . . . . . . . . . . . . . . . . 28
2.2 Wronskiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.1 Formula de AbelLiouville . . . . . . . . . . . . . . . . . . . . . 32
2.2.2 Metodo de variaci on de constantes de Lagrange . . . . . . . . . . 33
2.3 Sistemas con coecientes constantes . . . . . . . . . . . . . . . . . . . . 34
2.4 C alculo de la exponencial de una matriz . . . . . . . . . . . . . . . . . . 37
2.4.1 Polinomio interpolador de Lagrange . . . . . . . . . . . . . . . . 41
2.5 Ecuaciones de orden n . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.5.1 Ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 46
2.6 Ecuaciones lineales con coecientes constantes . . . . . . . . . . . . . . . 52
2.6.1 Soluci on de la ecuaci on inhomogenea . . . . . . . . . . . . . . . . 54
2.7 Estabilidad de sistemas y ecuaciones lineales . . . . . . . . . . . . . . . . 57
2.7.1 Criterio de RouthHurwitz . . . . . . . . . . . . . . . . . . . . . 62
3 Soluciones en forma de serie 65
3.1 Puntos regulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.1.1 Funciones analticas . . . . . . . . . . . . . . . . . . . . . . . . . 66
3.1.2 La ecuaci on de Hermite . . . . . . . . . . . . . . . . . . . . . . . 71
3.2 Puntos singulares regulares . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.2.1 La ecuaci on de Bessel . . . . . . . . . . . . . . . . . . . . . . . . 85
3.2.2 El punto del innito . . . . . . . . . . . . . . . . . . . . . . . . . 93
i

INDICE GENERAL ii
4 Sistemas dinamicos en el plano 97
4.1 Resultados generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.2 Sistemas din amicos lineales en R
2
. . . . . . . . . . . . . . . . . . . . . 103
4.3 Sistemas din amicos no lineales en R
2
. . . . . . . . . . . . . . . . . . . . 107
Captulo 1
Introduccion
1.1 Preliminares
En general, una ecuacion diferencial es una expresi on que relaciona el valor de una
funcion (o funciones) inc ognita(s) en cada punto con el de sus derivadas parciales en el
mismo punto. Por ejemplo, la expresi on
u
x
(x, y) +
u
y
(x, y) = 0 (1.1)
es una ecuaci on diferencial. Las soluciones de la ecuaci on anterior, es decir las funciones
u(x, y) para las cuales dicha ecuaci on se verica identicamente (en todos los puntos (x, y)
pertenecientes a un abierto D R
2
), son las funciones de la forma
u(x, y) = f(x y) ,
donde f es una funcion derivable arbitraria.
Ejemplo 1.1. La ecuaci on
u
x
(x, y) +
u
y
(y, x) = 0
no es una ecuaci on diferencial, ya que las derivadas parciales de u no est an evaluadas
en el mismo punto.
Una ecuaci on como (1.1), en la que la funcion inc ognita u depende de m as de una
variable, se denomina ecuacion en derivadas parciales. Por el contrario, si u es una
funcion de una variable la ecuaci on diferencial se dice ordinaria. Son estas ecuaciones las
que nos interesaran fundamentalmente en este curso, por lo que daremos a continuaci on
una denicion m as cuidadosa de ellas.
Denicion 1.2. Un sistema de ecuaciones diferenciales ordinarias (EDOs) es un
sistema de ecuaciones del tipo
F
_
x, y, y

, . . . , y
(n)
_
= 0 , (1.2)
donde F = (F
1
, . . . , F
p
) : R R
m
R
m
. .
n+1 veces
R
p
es una funcion denida en un
abierto U. Una solucion de (1.2) es una funcion u : R R
m
n veces derivable en un
intervalo abierto D R que verica
F
_
x, u(x), u

(x), . . . , u
(n)
(x)
_
= 0 , x D.
1
CAP

ITULO 1. INTRODUCCI

ON 2
Notaci on:
u
(k)
=
d
k
u
dx
k
p = n umero de ecuaciones del sistema (el sistema F = 0 es equivalente a las p ecua-
ciones F
1
= = F
p
= 0, donde F
i
es la i-esima componente de F).
m = n umero de funciones inc ognitas (la funcion inc ognita vectorial y : R R
m
es
equivalente a las m funciones inc ognitas escalares y
1
, . . . , y
m
: R R, donde y
i
es la
i-esima componente de y). Generalmente, p = m .
n = orden del sistema. Se supone que alguna derivada parcial
F
i
y
(n)
j
no es identica-
mente cero, para que alguna derivada n-esima de y aparezca en el sistema.
Ejemplo 1.3.
y
1

= B(y
1
, y
2
) y
2

y
2

= B(y
1
, y
2
) y
1

(donde B(y
1
, y
2
) es una funcion dada) es un sistema de dos ecuaciones de orden 2
(describe el movimiento de una partcula de carga unidad en el plano (y
1
, y
2
) bajo la
accion de un campo magnetico de intensidad B(y
1
, y
2
) perpendicular a dicho plano).
1.2 Tecnicas elementales de integracion
Comenzaremos estudiando el caso m as sencillo de una ecuacion escalar de primer
orden (n = m = p = 1)
F(x, y, y

) = 0 .
Muchas veces es posible despejar y

en funcion de (x, y) de la ecuaci on anterior, obte-


niendose as la ecuaci on escalar de primer orden en forma normal
y

= f(x, y) .
1.2.1 y

= f(x)
Si f es continua en un intervalo abierto D, la ecuaci on se resuelve integrando ambos
miembros a partir de un punto cualquiera x
0
D:
y =
_
x
x
0
f(s) ds +c ,
donde c = y(x
0
) es una constante arbitraria.
La soluci on general de la ecuaci on anterior depende de una constante arbitraria c R
(el punto x
0
se ja de antemano).
El problema de valor inicial
y

= f(x) , y(x
0
) = y
0
tiene la soluci on unica y =
_
x
x
0
f(s) ds +y
0
.
CAP

ITULO 1. INTRODUCCI

ON 3
1.2.2 Ecuaciones con variables separadas
y

=
f(x)
g(y)
, (1.3)
con f, g continuas en sendos intervalos abiertos U, V , y g(y) ,= 0 para todo y V .
Soluci on. Toda soluci on y(x) satisface
g
_
y(s)
_
y

(s) = f(s) =
_
x
x
0
g
_
y(s)
_
y

(s) ds =
_
x
x
0
f(s) ds .
Haciendo el cambio de variable t = y(s) en la primera integral se obtiene
_
y(x)
y(x
0
)
g(t) dt =
_
x
x
0
f(s) ds .
Si y
0
es un punto arbitrario (pero jo) de V , vemos que toda soluci on y(x) ha de satisfacer
la ecuacion implcita
_
y
y
0
g(s) ds =
_
x
x
0
f(s) ds +c , (1.4)
donde c =
_
y(x
0
)
y
0
g(s) ds es una constante arbitraria. Recprocamente, derivando (1.4)
(considerando a y como funcion de x) se comprueba que toda funcion y(x) que verique
(1.4) es soluci on de (1.3). Se dice que la expresi on (1.4) es la solucion general de (1.3).
Estudiemos m as detenidamente la soluci on general (1.4). Es de la forma
(x, y) = c , con (x, y) =
_
y
y
0
g(s) ds
_
x
x
0
f(s) ds . (1.5)
La ecuaci on (1.5) dene implcitamente una familia a un parametro de curvas planas.
Cada curva de la familia (que se obtiene jando el valor del par ametro c) tiene la
propiedad de que su pendiente y

en un punto cualquiera (x, y) de la curva satisface


la ecuaci on (1.3), es decir y

= f(x)/g(y). Este tipo de curvas se denominan curvas


integrales de la ecuaci on (1.3). Notese que una soluci on de (1.3) no es m as que una
funcion cuya gr aca est a contenida en una curva integral.
Sea (a, b) U V un punto del plano, por el que pasa la curva de la familia (1.5)
con c = (a, b). Por el teorema de la funci on implcita, la relaci on (1.5) dene en un
entorno del punto (a, b) una funci on y(x) tal que y(a) = b si

y
(a, b) = g(b) ,= 0 ,
condici on que se cumple por la hip otesis hecha sobre g. (Notese que es de clase C
1
(U
V ), por lo que el teorema es aplicable.) Esta funcion es soluci on de la ecuaci on diferencial
(1.3) (ya que satisface la relaci on implcita (1.5)) con la condici on inicial y(a) = b. El
teorema de la funcion implcita garantiza que esta soluci on es unica localmente (en
un entorno de a), ya que dicho teorema garantiza la unicidad local de la funcion y(x)
que satisface la relaci on implcita (1.5) junto con la condici on y(a) = b. Por tanto, el
problema de valor inicial asociado a la ecuaci on (1.3) tiene soluci on unica local si los
datos iniciales est an en el abierto U V .
CAP

ITULO 1. INTRODUCCI

ON 4
3
2
1
0
1
2
3
y
3 2 1 1 2 3
x
Figura 1.1: Curvas integrales de la ecuaci on y

= x/y.
Ejemplo 1.4. Consideremos la ecuaci on
y

=
x
y
, (1.6)
que es del tipo anterior con f(x) = x, U = R, g(y) = y. Como g se anula en 0, como
intervalo V podemos tomar o bien V
+
= R
+
(n umeros reales positivos) o bien V

= R

,
pero no V = R. La integraci on de esta ecuaci on es inmediata, siendo la soluci on general
y
2
+x
2
= c , (1.7)
con c > 0 una constante arbitraria. Las curvas integrales son pues circunferencias de
radio

c (g. 1.4). Si hemos tomado V = R
+
, entonces y > 0, y por tanto de (1.7) se
sigue que
y =
_
c x
2
, (1.8)
que est a denida (y es derivable) en el intervalo abierto (

c,

c). Por el contrario, si


tomamos V = R

entonces y < 0, y la soluci on general es entonces


y =
_
c x
2
,

c < x <

c . (1.9)
As, en este caso cada curva integral (1.7) da lugar a dos soluciones (tiene dos ramas).
Utilizando las expresiones (1.8) y (1.9) es facil probar que el problema de valor inicial
y(x
0
) = y
0
para la ecuaci on (1.6) tiene soluci on unica para todo (x
0
, y
0
) con y
0
,= 0.
La ecuaci on diferencial (1.6) no tiene sentido en el eje horizontal, ya que ah se anula el
denominador del miembro derecho. En cuanto a las soluciones (1.8)(1.9), ambas tienen
lmite cero cuando x

c , pero su derivada tiende a innito en estos puntos.


Ejemplo 1.5. Sea ahora la ecuaci on con variables separadas
y

= y
2
cos x. (1.10)
Ahora f(x) = cos
2
x, U = R, g(y) =
1
y
2
, V = R
+
o V = R

. Sin embargo, n otese que


ahora el miembro derecho de la ecuaci on tiene sentido (es continuo, de hecho C

) en
CAP

ITULO 1. INTRODUCCI

ON 5
4
2
0
2
4
y
10 8 6 4 2 2 4 6 8 10
x
Figura 1.2: Soluciones de la ecuaci on y

= y
2
cos x.
todo el plano (x, y). De hecho, en este caso y(x) = 0 es obviamente soluci on de (1.10).
Si y ,= 0 la ecuaci on se integra de la forma usual (dividiendo por y
2
):
y

y
2
= cos x =
1
y
= sen x c y =
1
c sen x
, (1.11)
con c R constante arbitraria. Notese que la soluci on y = 0 no est a contenida en la
expresi on anterior para ning un valor de nito de c (formalmente, se obtendra haciendo
c ). Tambien es evidente que ninguna de las soluciones (1.11) corta a la soluci on
y = 0.
El comportamiento de las soluciones (1.11) depende de que [c[ 1 o [c[ > 1. En
este ultimo caso el denominador de (1.11) nunca se anula, por lo que las soluciones con
[c[ > 1 est an denidas en todo R (g. 1.5). Sin embargo, si [c[ 1 entonces
c = sen x x = arc sen c + 2k o x = arc sen c + (2k + 1) , k Z,
por lo que el denominador se anula innitas veces, y la soluci on y = (c sen x)
1
tiene innitas asntotas verticales (cf. g. 1.5). Mas propiamente, si [c[ 1 la expresi on
(1.11) dene innitas soluciones, cada una de ellas con intervalo de denicion (x
i
, x
i+1
)
limitado por dos ceros sucesivos de la ecuaci on sen x = c. En este caso tanto la soluci on
como sus(s) derivada(s) tienden a innito cuando nos aproximamos a los lmites de dicho
intervalo.
Notese que tanto en este ejemplo (para [c[ 1) como en el anterior las soluciones
no est an denidas en toda la recta real. En el ejemplo anterior, esto era debido a que
eventualmente toda soluci on se aproxima a la recta y = 0, en que el miembro derecho de
la ecuaci on (1.6) es discontinuo (tiende a innito, si x ,= 0). Sin embargo, en este caso
las soluciones tienen singularidades en puntos en que el miembro derecho de la ecuaci on
diferencial es continuo (en este caso, el miembro derecho de (1.10) es continuo, de hecho
C

, en todo el plano). Dicho de otro modo, no es posible averiguar la existencia y


la posici on de estas singularidades estudiando las singularidades del miembro derecho
de (1.10). Estas singularidades aparecen no porque el miembro derecho de (1.10) sea
discontinuo, sino porque la derivada de la soluci on crece cada vez m as r apido, de forma
que la soluci on explota en un tiempo nito.
CAP

ITULO 1. INTRODUCCI

ON 6
Ejercicio. Probar que el problema de valor inicial y(x
0
) = y
0
para la ecuaci on (1.10)
tiene soluci on unica para todo (x
0
, y
0
), dada por
y =
y
0
1 +y
0
(sen x
0
sen x) .
Notese que esta expresi on contiene a la soluci on y = 0 (se obtiene para y
0
= 0).
1.2.3 Ecuaciones homogeneas
Se trata de ecuaciones de primer orden
y

= f(x, y) , (1.12)
en que la funcion f es continua en un abierto U R
2
y homogenea de grado cero, es
decir
f(tx, ty) = f(x, y) , x, y U , t R, t ,= 0 .
Este tipo de ecuaciones se resuelven transformandolas en una ecuaci on de variables
separadas mediante el cambio
y = xz , (1.13)
valido para x ,= 0. En efecto,
y

= xz

+z = f(x, xz) = f(1, z) = z

=
f(1, z) z
x
. (1.14)
La ecuaci on anterior tiene soluciones constantes z = para toda raz de la ecuaci on
= f(1, ) .
En la variable y estas son soluciones lineales y = x, mientras que las dem as soluciones
se obtienen integrando (1.14), es decir son de la forma
log [x[ +c =
_
y/x
dz
f(1, z) z
.
Ejemplo 1.6.
y

=
3xy + 2y
2
x
2
+xy
. (1.15)
Es una ecuaci on homogenea (tanto el numerador como el denominador son homogeneos
de grado 2), con
f(1, z) =
3z + 2z
2
1 +z
=f(1, z) z =
z(z + 2)
z + 1
.
Las soluciones lineales son por tanto y = 0 e y = 2x. Las dem as soluciones est an dadas
por
log [x[ +c =
_
z + 1
z(z + 2)
dz =
_
1
2
_
1
z
+
1
z + 2
_
dz =
1
2
log [z(z + 2)[ ,
de donde
z(z + 2) = Cx
2
CAP

ITULO 1. INTRODUCCI

ON 7
6
4
2
2
4
6
2 1 1 2
y = x x

1 +x
2
y = 2x
y = x +x

1 +x
2
y = x +x

1 x
2
y = x x

1 x
2
Figura 1.3: Soluciones de la ecuaci on (1.15).
con C = e
2c
constante no nula. Resolviendo esta ecuaci on cuadratica en z y sustitu-
yendo z = y/x obtenemos nalmente
y = x x
_
1 +Cx
2
. (1.16)
Esta soluci on est a denida para todo x si C > 0, y para [x[ < 1/
_
[C[ si C < 0
(cf. g. 1.3). En este caso f es singular en las rectas x = 0 y x + y = 0, por lo que
el abierto U estar a contenido en una de las cuatro regiones abiertas determinadas por
la intersecci on de estas rectas. En cada una de estas regiones el signo del radical en la
formula anterior est a bien determinado: por ejemplo, si x < 0 y x+y > 0 deber a tomarse
el signo . Finalmente, n otese que haciendo C = 0 en la formula (1.16) obtenemos
las dos soluciones lineales de la ecuaci on (1.15).
1.2.4 Ecuaciones lineales
y

= a(x) y +b(x) , (1.17)


donde a y b son funciones continuas en un intervalo abierto U. La ecuaci on se dice
homogenea si b 0, e inhomogenea (o completa) en caso contrario. La ecuacion lineal
homogenea
y

= a(x) y (1.18)
es de variables separadas, y por tanto se resuelve facilmente. En efecto, y = 0 es soluci on,
y si y ,= 0 se tiene
y

y
= a(x) =log [y[ =
_
x
x
0
a(s) ds +c
0
= y = c e
_
x
x
0
a(s) ds
,
donde c = e
c
0
es una constante real arbitraria (si c = 0 obtenemos la soluci on particular
y = 0 excluida al principio). Observese que el conjunto de todas las soluciones de la
ecuaci on homogenea (1.18) es un espacio vectorial de dimension uno.
CAP

ITULO 1. INTRODUCCI

ON 8
Para hallar la soluci on de la ecuaci on completa utilizaremos el metodo de variacion
de las constantes, debido a Lagrange, que consiste en expresar la soluci on en la forma
y = c(x) e
_
x
x
0
a(s) ds
, (1.19)
evidentemente basada en la soluci on general de la homogenea. Sustituyendo en la ecua-
cion diferencial se obtiene
y

a(x) y b(x) = c

(x) e
R
x
x
0
a(s) ds
+c(x) a(x) e
R
x
x
0
a(s) ds
a(x) c(x) e
R
x
x
0
a(s) ds
b(x)
= 0 c

(x) = b(x) e

_
x
x
0
a(s) ds
,
de donde se obtiene
c(x) = c +
_
x
x
0
b(t) e

_
t
x
0
a(s) ds
dt ,
donde c R es una constante arbitraria. Utilizando la ecuaci on (1.19) llegamos a la
siguiente expresi on para la soluci on general de la ecuaci on lineal completa (1.17):
y = c e
_
x
x
0
a(s) ds
+ e
_
x
x
0
a(s) ds
_
x
x
0
b(t) e

_
t
x
0
a(s) ds
dt ,
o, equivalentemente,
y = c e
_
x
x
0
a(s) ds
+
_
x
x
0
b(t) e
_
x
t
a(s) ds
dt . (1.20)
De nuevo, la soluci on depende del par ametro arbitrario c.
Notese que la expresi on anterior tiene la estructura
y = c e
_
x
x
0
a(s) ds
+y
p
(x) ,
donde el primer termino es la soluci on general de la ecuaci on homogenea e y
p
(x) es
una soluci on particular de la ecuaci on completa. Recprocamente, si se conoce cualquier
soluci on particular y
1
(x) de la ecuaci on completa entonces y y
1
(x) es soluci on de la
ecuaci on homogenea para toda soluci on y de la ecuaci on completa, por lo que
y = c e
_
x
x
0
a(s) ds
+y
1
(x) .
De (1.20) se deduce que una soluci on particular y
1
(x) de la ecuaci on completa puede
calcularse a partir de una soluci on cualquiera no trivial (no identicamente nula) y
H
(x)
de la ecuaci on homogenea mediante la formula
y
1
(x) = y
H
(x)
_
x
x
0
b(t)
y
H
(t)
dt ,
por lo que la soluci on general de (1.17) se puede escribir como sigue:
y = c y
H
(x) +y
H
(x)
_
x
x
0
b(t)
y
H
(t)
dt .
CAP

ITULO 1. INTRODUCCI

ON 9
Ejemplo 1.7.
y

=
x + 2y
x
. (1.21)
Esta ecuaci on (que tiene sentido s olo si x ,= 0, es decir si x pertenece a las semirrectas
R
+
o R

) es lineal (inhomogenea), ya que se puede escribir


y

=
2
x
y + 1 .
La ecuaci on anterior es homogenea, por lo que podra resolverse utilizando el proce-
dimiento explicado en la Secci on 1.2.3; sin embargo, en esta secci on la resolveremos
trat andola como una ecuaci on lineal.
Soluci on general de la homogenea:
y

y
=
2
x
=log [y[ = 2 log [x[ +c
0
=y = c x
2
, c R.
Soluci on particular de la completa:
y
p
(x) = x
2
_
x
dt
t
2
= x
2
(x
1
) = x.
Por tanto, la soluci on general de la ecuaci on (1.21) es
y = c x
2
x
(familia de par abolas tangentes a la recta y = x en el origen). Notese que, aunque la
ecuaci on es singular en x = 0, las funciones anteriores son C

en el origen.
1.2.5 Ecuacion de Bernoulli
y

= a(x) y +b(x) y
r
, r R, r ,= 0, 1 , (1.22)
con a, b continuas en un intervalo abierto U (los valores r = 0 y r = 1 corresponden
a ecuaciones lineales, ya resueltas). (Notese que, en general, y
r
s olo tiene sentido para
y > 0.) Esta ecuaci on se integra reduciendola a una ecuaci on lineal mediante un cambio
de variable dependiente del tipo
z = y
p
,
con p ,= 0 escogido apropiadamente. En efecto, sustituyendo y = z
1/p
en la ecuaci on
(1.22) y operando se obtiene la siguiente ecuaci on para z:
z

= p
_
a(x) z +b(x) z
1+
r1
p
_
,
que es lineal si
1 +
r 1
p
= 0, 1 .
El ultimo caso hay que descartarlo (ya que r ,= 1), por lo que queda p = 1 r , y la
ecuaci on anterior se convierte en la ecuaci on lineal
z

= (1 r)
_
a(x) z +b(x)

(y = z
1
1r
) .
CAP

ITULO 1. INTRODUCCI

ON 10
Ejemplo 1.8.
y

=
2xy y
2
x
2
. (1.23)
Se trata de una ecuaci on de Bernoulli con r = 2, ya que puede escribirse
y

=
2
x
y
1
x
2
y
2
.
Haciendo el cambio z = 1/y se obtiene por la ecuaci on lineal en z
z

=
2
x
z +
1
x
2
. (1.24)
La soluci on general de la ecuaci on homogenea es
z =
c
x
2
.
Una soluci on particular de la ecuaci on (1.24) es
z
p
(x) =
1
x
2
_
x
dt =
1
x
.
Por tanto, la soluci on general de (1.24) es
z =
x +c
x
2
,
y la de la ecuaci on propuesta (1.23)
y =
x
2
x +c
.
Ejercicio. Resolver la ecuaci on (1.23) considerandola como una ecuaci on homogenea.
1.2.6 Ecuacion de Riccati
y

= a(x) +b(x) y +c(x) y


2
, (1.25)
con a, b, c continuas en un intervalo abierto U. (Si c 0 la ecuaci on de Riccati se reduce
a una ecuaci on lineal, y si a 0 a una de Bernoulli.)
Esta ecuaci on, de gran importancia en Fsica Matematica, en general no se puede
resolver por cuadraturas (es decir, no es posible obtener una expresi on explcita para la
soluci on general de la ecuaci on en terminos de los coecientes a, b, c y sus primitivas). Sin
embargo, si conocemos una soluci on particular y
0
(x) de la ecuaci on podemos reducirla
mediante el cambio de variable
u =
1
y y
0
(x)
a una ecuaci on lineal, que ya hemos visto como resolver en la secci on 1.2.4. En efecto,
efectuando el cambio anterior obtenemos
u

=
y

y
0

(x)
_
y y
0
(x)
_
2
=
b(x)
_
y y
0
(x)
_
+c(x)
_
y
2
y
0
(x)
2
_
_
y y
0
(x)
_
2
= b(x) u c(x)
y +y
0
(x)
y y
0
(x)
=
_
b(x) + 2c(x)y
0
(x)

u c(x) . (1.26)
CAP

ITULO 1. INTRODUCCI

ON 11
Ejemplo 1.9.
y

= cos x y
senx
cos
2
x
y
2
.
Es una ecuaci on de Riccati, con soluci on particular y
0
(x) = cos x. Efectuando el cambio
de variable
u =
1
y cos x
obtenemos
u

=
y

+ sen x
(y cos x)
2
= u
2
_
senx cos x +y +
sen x
cos
2
x
y
2
_
= u
2
_
sen x +
1
u
+
sen x
cos
2
x
_
1
u
2
+
2 cos x
u
+ cos
2
x
__
,
y por tanto u verica la ecuaci on lineal
u

= (1 + 2 tan x)u +
sen x
cos
2
x
. (1.27)
La soluci on general de la ecuaci on homogenea es
u = c
e
x
cos
2
x
,
con c constante. Una soluci on particular de la ecuaci on completa es
e
x
cos
2
x
_
x
e
t
sent dt =
1
2
e
x
cos
2
x
e
x
(sen x + cos x) =
senx + cos x
2 cos
2
x
.
Por tanto la soluci on de la ecuaci on lineal (1.27) es
u = c
e
x
cos
2
x

sen x + cos x
2 cos
2
x
,
y la de la ecuaci on de partida
y = cos x +
2 cos
2
x
Ce
x
sen x cos x
,
donde C = 2c es una constante arbitraria.
Si c no es identicamente nula, la ecuaci on de Riccati (1.25) se linealiza mediante el
cambio de variable
y =
1
c(x)
z

z
,
que la transforma en una ecuaci on lineal de segundo orden en z. En efecto,
y

=
1
c(x)
z

z
+
c

(x)
c(x)
2
z

z
+
1
c(x)
z

2
z
2
= a(x)
b(x)
c(x)
z

z
+
1
c(x)
z
2
z
2
y por tanto z es soluci on de
z

_
b(x) +
c

(x)
c(x)
_
z

+a(x)c(x)z = 0 . (1.28)
CAP

ITULO 1. INTRODUCCI

ON 12
Veremos en el captulo siguiente que la soluci on general de esta ecuaci on puede expresarse
en la forma
z = k
1
z
1
(x) +k
2
z
2
(x) ,
con k
1
, k
2
R y z
1
, z
2
dos soluciones particulares linealmente independientes. Si con-
seguimos hallar explcitamente la soluci on general de la ecuaci on lineal (1.28), la de la
ecuaci on de Riccati de partida est a dada por
y =
1
c(x)
k
1
z

1
(x) +k
2
z

2
(x)
k
1
z
1
(x) +k
2
z
2
(x)
.
Notese que esta soluci on depende de una s ola constante arbitraria (el cociente k
1
/k
2
o k
2
/k
1
).
Ejercicio. La soluci on general de la ecuaci on de Riccati
y

= x +
y
x
+
y
2
x
.
es
y = x tan(x c) , c R.
Obtener esta soluci on linealizando la ecuaci on dada y resolviendo la ecuaci on lineal
correspondiente. [Ayuda: la soluci on general de la ecuaci on z

+z = 0 es z = k
1
cos x +
k
2
sen x.]
La estrecha relaci on entre la ecuaci on de Riccati (1.25) y la ecuaci on lineal (1.28) da
lugar a multitud de importantes propiedades de las soluciones de la ecuaci on de Riccati.
As, por ejemplo, si y
i
(x) (1 i 4) son cuatro soluciones distintas de la ecuaci on de
Riccati entonces puede probarse que la raz on cu adruple
(y
4
y
2
)(y
3
y
1
)
(y
4
y
1
)(y
3
y
2
)
(1.29)
es constante. En particular, si se conocen tres soluciones particulares distintas y
1
, y
2
, y
3
de la ecuaci on de Riccati (1.25) entonces su soluci on general y(x) se obtiene despejando
y de la ecuaci on
(y y
2
)(y
3
y
1
)
(y y
1
)(y
3
y
2
)
= c , c R. (1.30)
1.2.7 Ecuaciones exactas y factores integrantes
Una ecuaci on diferencial de primer orden de la forma
P(x, y) +Q(x, y) y

= 0 , (1.31)
con P, Q funciones continuas en un abierto U R
2
y Q(x, y) ,= 0 para todo (x, y) U,
se dice exacta en U si existe una funcion f : U R tal que
P(x, y) = f
x
(x, y) , Q(x, y) = f
y
(x, y) , (x, y) U . (1.32)
En otras palabras, la ecuaci on (1.31) es exacta si
(P, Q) = f en U .
CAP

ITULO 1. INTRODUCCI

ON 13
Por tanto, una ecuaci on exacta (1.31) puede escribirse
f
x
(x, y) +f
y
(x, y) y

= 0 .
Si y(x) es una soluci on cualquiera de dicha ecuaci on entonces
f
x
_
x, y(x)
_
+f
y
_
x, y(x)
_
y

(x) =
d
dx
_
f
_
x, y(x)
_
= 0 .
De esto se deduce que la soluci on general de la ecuaci on exacta (1.31)(1.33) est a dada
implcitamente por
f
_
x, y
_
= c .
Por el teorema de la funcion implcita, la ecuaci on anterior dene localmente a y como
funcion de x en un entorno de cada punto de U (ya que f
y
(x, y) = Q(x, y) no se anula
en U por hip otesis).
Observese que si (1.31) es una ecuaci on exacta y P, Q son de clase C
1
(U) entonces
P
y
(x, y) = Q
x
(x, y) , (x, y) U , (1.33)
ya que (lema de Schwarz) ambos miembros son iguales a f
xy
(x, y). Recprocamente, pue-
de probarse que si se cumple la condici on (1.33) en un abierto simplemente conexo
U entonces la ecuaci on es exacta. (Un abierto de R
2
es conexo si dos puntos cuales-
quiera de dicho abierto se pueden unir por una curva continua enteramente contenida
en el abierto. Un abierto conexo es simplemente conexo si toda curva cerrada continua
contenida en el abierto puede deformarse de forma continua a un punto sin salirse del
abierto. Intuitivamente, un abierto es simplemente conexo si es conexo (consta de una
s ola pieza) y no tiene agujeros. Ejemplos de abiertos simplemente conexos son el con-
junto R
2
, un disco abierto, un rect angulo abierto, un tri angulo abierto, etc. Los abiertos
estrellados y, en particular, convexos de R
2
son simplemente conexos. Un abierto no
simplemente conexo es, por ejemplo, R
2
menos un punto, un disco abierto menos uno
de sus puntos, o un anillo.)
Probemos que la condici on (1.33) es suciente para que la ecuaci on (1.31) sea exacta
si U = (a, b) (c, d) es un rect angulo abierto (en particular, si U = R
2
). En efecto, sea
(x
0
, y
0
) un punto jo de U. Integrando la ecuaci on f
x
= P respecto de x obtenemos
f(x, y) =
_
x
x
0
P(s, y) ds +g(y) ,
donde la funcion g s olo puede depender de y. (Notese que los puntos de la forma (s, y)
pertenecen a U si y (c, d) y s (a, b).) Imponiendo la segunda ecuaci on f
y
= Q y
aplicando la relaci on (1.33) obtenemos una ecuaci on diferencial para g:
f
y
(x, y) = g

(y) +
_
x
x
0
P
y
(s, y) ds = g

(y) +
_
x
x
0
Q
x
(s, y) ds = g

(y) +Q(x, y) Q(x


0
, y)
= Q(x, y) g

(y) = Q(x
0
, y) .
Por tanto,
g(y) =
_
y
y
0
Q(x
0
, s) ds +c ,
y
f(x, y) =
_
x
x
0
P(s, y) ds +
_
y
y
0
Q(x
0
, s) ds +c . (1.34)
CAP

ITULO 1. INTRODUCCI

ON 14
a b
c
d
U

(x
0
, y
0
)
(x, y) (x
0
, y)
Figura 1.4: Caminos que unen (x
0
, y
0
) con (x, y) en U.
(De nuevo, el segmento vertical (x
0
, s) con s (c, d) est a contenido en U.)
La funcion f est a denida a menos de una constante arbitraria. Notese que la formula
(1.34) se puede escribir como la integral de lnea
f(x, y) =
_

0
(P, Q) dr
_

0
[P(x, y) dx +Q(x, y) dy] ,
donde
0
es el camino quebrado de la g. 1.4. Como la condici on (1.33) garantiza la
independencia del camino de la integral de lnea
_

(P dx +Qdy), para toda curva C


1
a
trozos U, tambien podemos escribir
f(x, y) =
_

[P(x, y) dx +Q(x, y) dy] ,


donde es cualquier curva contenida en U que una el punto jo (x
0
, y
0
) U con el
punto variable (x, y) U. Por ejemplo, si es el segmento que une (x
0
, y
0
) con (x, y),
es decir
(t) = (x
0
, y
0
) +t(x x
0
, y y
0
) , t [0, 1] ,
entonces dx = (x x
0
) dt, dy = (y y
0
) dt, y por tanto
f(x, y) =
_
1
0
_
(x x
0
)P
_
x
0
+t(x x
0
), y
0
+t(y x
0
)
_
+ (y y
0
)Q
_
x
0
+t(x x
0
), y
0
+t(y x
0
)
_
dt .
Ejemplo 1.10.
12x + 5y 9 + (5x + 2y 3)y

= 0 . (1.35)
Se trata de una ecuaci on exacta, ya que
P = 12x + 5y 9 , Q = 5x + 2y 3 = P
y
= Q
x
= 5 .
La funcion f tal que f = (P, Q) se encuentra facilmente:
f
x
= 12x + 5y 9 =f = 6x
2
+ 5xy 9x +g(y) ;
f
y
= 5x +g

(y) = 5x + 2y 3 g

(y) = 2y 3
g(y) = y
2
3y + const.
CAP

ITULO 1. INTRODUCCI

ON 15
Por tanto, la soluci on general de la ecuaci on propuesta est a dada implcitamente por la
ecuaci on
6x
2
+ 5xy +y
2
9x 3y = c .
(Se trata de una familia de hiperbolas.)
Observese que si (x, y) es una funcion no nula en U la ecuaci on (1.31) es equivalente
a la ecuaci on
(x, y)P(x, y) +(x, y)Q(x, y)y

= 0 . (1.36)
A toda funcion tal que la ecuaci on anterior sea exacta se le llama un factor integrante
para la ecuaci on de partida (1.31). La ecuaci on que ha de cumplir el factor integrante
es por tanto (si U es, de nuevo, un abierto simplemente conexo del plano)
(P)
y
= (Q)
x
,
que se puede escribir como la siguiente ecuaci on lineal en derivadas parciales de primer
orden para :
P(x, y)
y
Q(x, y)
x
+
_
P
y
(x, y) Q
x
(x, y)

= 0 . (1.37)
Si se conoce un factor integrante cualquiera de la ecuaci on (1.31) dicha ecuaci on se
resuelve integrando la ecuaci on exacta (1.36). Se puede probar que la ecuaci on (1.37)
tiene (localmente) innitas soluciones si P, Q son, por ejemplo, de clase C
1
en U. Por
tanto, toda ecuaci on de la forma (1.31) posee un factor integrante. El problema es que, en
general, no hay ninguna forma sistematica para encontrar dicho factor integrante, ya que
la ecuaci on en derivadas parciales (1.37) es casi siempre mucho m as difcil de resolver que
la ecuaci on diferencial ordinaria de partida (1.31). S olo si P
y
Q
x
es particularmente
sencillo se puede dar alguna regla pr actica para calcular el factor integrante . Por
ejemplo, si
P
y
Q
x
Q
g(x)
s olo depende de x entonces (1.31) admite un factor integrante (x) funcion s olo de x, ya
que en este caso haciendo
y
= 0 en la ecuaci on (1.37) se obtiene la ecuaci on diferencial
ordinaria en x

(x) = g(x) (x) = (x) = c e


_
x
g(t) dt
.
Analogamente, si
P
y
Q
x
P
h(y)
la ecuaci on (1.31) posee el factor integrante funcion de y unicamente:
(y) = c e

_
y
h(t) dt
.
Ejercicio. Probar que la ecuaci on (1.31) posee un factor integrante (r) funcion de
r =
_
x
2
+y
2
si y s olo si
P
y
Q
x
yP xQ
= g(r) ,
y que en tal caso puede calcularse por la formula
(r) = c e

_
r
t g(t) dt
.
CAP

ITULO 1. INTRODUCCI

ON 16
Ejemplo 1.11. Consideremos la ecuaci on
y
2
(x
2
+y
3
)y

x = 0 . (1.38)
Aqu
P
y
= 0 , Q
x
= 2xy
2
, =
P
y
Q
x
P
= 2y
2
= h(y) .
La ecuaci on posee por tanto el factor integrante
(y) = e

_
y
2t
2
dt
= e

2
3
y
3
.
Para integrar la ecuaci on hallamos una funcion f tal que f = e

2
3
y
3
(P, Q), es decir
f
x
= xe

2
3
y
3
=f =
1
2
x
2
e

2
3
y
3
+g(y) ;
f
y
= x
2
y
2
e

2
3
y
3
+g

(y) = (x
2
y
2
+y
5
) e

2
3
y
3
=g

(y) = y
5
e

2
3
y
3
.
Por tanto (omitiendo la constante arbitraria)
g(y) =
_
y
5
e

2
3
y
3
dy =
1
3
_
y
3
t e

2
3
t
dt =
1
4
_
2y
3
+ 3
_
e

2
3
y
3
,
de donde
f(x, y) =
_
1
2
x
2
+
1
4
_
2y
3
+ 3
_
_
e

2
3
y
3
.
La soluci on general de la ecuaci on de partida es pues
x
2
+y
3
= c e
2
3
y
3

3
2
.
(Notese que en este caso puede despejarse x en funcion de y.)
Ejercicio. Resolver la ecuaci on (1.38) convirtiendola en una de variables separadas me-
diante el cambio z = x
2
+y
3
.
1.3 Existencia y unicidad de soluciones
Hemos visto en la secci on anterior que el problema de valor inicial
y

= f(x, y) (1.39)
y(x
0
) = y
0
(1.40)
asociado a la ecuaci on diferencial de primer orden (1.39) tena soluci on unica, salvo para
datos iniciales (1.40) en que la funcion f no era sucientemente regular. En esta secci on
vamos a estudiar en detalle el problema de la existencia y unicidad de soluciones del
problema (1.39)(1.40), intentando precisar bajo que condiciones sobre la funcion f y
los datos iniciales (x
0
, y
0
) la soluci on es unica. Consideraremos el caso m as general en
que la variable dependiente (funci on inc ognita) y toma valores en R
n
:
y = (y
1
, . . . , y
n
) R
n
, (1.41)
CAP

ITULO 1. INTRODUCCI

ON 17
por lo que la funcion f ha de ser una funcion vectorial que tome valores en R
n
y denida
en un abierto U de R
n+1
:
f = (f
1
, . . . , f
n
) : U R
n+1
R
n
, U abierto . (1.42)
La ecuaci on (1.39) es por tanto un sistema de n ecuaciones diferenciales de primer orden
en forma normal
_

_
y
1

= f
1
(x, y
1
, . . . , y
n
)
.
.
.
y
n

= f
n
(x, y
1
, . . . , y
n
) ,
y el dato inicial (1.40) es equivalente a las n condiciones
y
1
(x
0
) = y
01
, . . . , y
n
(x
0
) = y
0n
,
si y
0
=
_
y
01
, . . . , y
0n
_
.
La ventaja de considerar a y como una funcion vectorial es que la soluci on del
problema (1.39)(1.40) implica la soluci on de otros problemas interesantes. En efecto,
consideremos la ecuaci on escalar m as general de orden n en forma normal
u
(n)
= F
_
x, u, u

, . . . , u
(n1)
_
, (1.43)
donde u : R R. Esta ecuaci on se puede escribir como un sistema de primer orden
introduciendo (por ejemplo) las variables
y
i
= u
(i1)
, 1 i n, (1.44)
(u
(0)
u) convirtiendose entonces en la ecuaci on vectorial (1.39) con
f(x, y) =
_
y
2
, . . . , y
n
, F(x, y
1
, . . . , y
n
)
_
. (1.45)
(Mas precisamente, y(x) es soluci on de la ecuaci on (1.39)(1.45) si y s olo si y(x) =
_
u(x), u

(x), . . . , u
(n1)
(x)
_
, con u(x) soluci on de (1.43).) La condici on inicial (1.40) se
escribe en terminos de la funcion inc ognita original u como sigue:
u
(i)
(x
0
) = y
0,i+1
, 0 i n 1 .
En otras palabras, en este caso se asignan valores iniciales (en x = x
0
) a la funcion u
y a sus primeras n 1 derivadas. La soluci on del problema (1.39)(1.40) conlleva por
tanto la soluci on del problema de valor inicial para una ecuaci on normal de orden n
u
(n)
= F
_
x, u, u

, . . . , u
(n1)
_
(1.46)
u
(i)
(x
0
) = u
0i
, 0 i n 1 . (1.47)
La existencia local de soluciones del problema de valor inicial (1.39)(1.40) est a ga-
rantizada si la funcion f es continua en su abierto de denicion, seg un arma el siguiente
teorema, debido al matem atico italiano G. Peano (18581932):
CAP

ITULO 1. INTRODUCCI

ON 18
Teorema de existencia de Peano. Sea f : U R
n
continua en el abierto U, y
sea (x
0
, y
0
) U. Entonces el problema (1.39)(1.40) tiene (al menos) una soluci on
y(x) denida en un intervalo de la forma (x
0
h, x
0
+h), para h > 0 sucientemente
peque no.
(El n umero h, que es funcion (x
0
, y
0
), se puede estimar explcitamente, y depende esen-
cialmente de lo grande que sea el valor de |f(x, y)| en U.)
Es facil convencerse de que la continuidad de f en U no garantiza la unicidad (ni
siquiera local) del problema de valor inicial (1.39)(1.40) con datos iniciales en U. Un
ejemplo muy sencillo es el de la ecuaci on
y

= 3 y
2/3
, (1.48)
para la cual f(x, y) = 3 y
2/3
es continua en U = R
2
. El teorema de Peano garantiza por
tanto la existencia de por lo menos una soluci on del problema de valor inicial asociado a
la ecuaci on (1.48) para cualquier dato inicial (x
0
, y
0
). Notese, sin embargo, que no existe
la derivada parcial de primer orden de f respecto de y en el eje horizontal y = 0. (En
particular, f no es derivable en dicho eje.)
Una soluci on de (1.48) es la funcion y(x) = 0, denida en todo R. Si y ,= 0, integrando
la ecuaci on (es de variables separadas) obtenemos
y = (x +c)
3
, (1.49)
funcion tambien denida en toda la recta real (g. 1.5). (Se demuestra que la soluci on
10
8
6
4
2
0
2
4
6
8
10
2 1 1 2
Figura 1.5: Soluciones de la ecuaci on y

= 3 y
2/3
.
particular y = 0, que no se obtiene de (1.49) para ning un valor de c R, es la envolvente
de la familia de par abolas c ubicas (1.49).) Es facil ver que el problema de valor inicial
para la ecuaci on (1.48) con la condici on inicial
y(x
0
) = 0 (1.50)
no tiene soluci on unica, ni siquiera localmente. Por ejemplo, las funciones y(x) = 0 e
y(x) = (x x
0
)
3
son dos soluciones de dicho problema que no coinciden en ning un
intervalo abierto centrado en x
0
.
CAP

ITULO 1. INTRODUCCI

ON 19
1.3.1 Funciones lipschitzianas
Introduciremos a continuaci on una condici on sobre la funcion f m as fuerte que la con-
tinuidad, que ser a suciente para que el problema de valor inicial (1.39)(1.40) tenga
soluci on unica local. Comenzaremos con el caso sencillo de funciones de una variable.
Denicion 1.12. Una funcion f : I R (siendo I un intervalo) es lipschitziana si
existe una constante positiva L > 0 (constante de Lipschitz) tal que
[f(x
1
) f(x
2
)[ L[x
1
x
2
[ , x
1
, x
2
I . (1.51)
f lipschitziana en I =f uniformemente continua en I.
Sin embargo, f lipschitziana en I , = f derivable en I. Por ejemplo, f(x) = [x[ es
lipschitziana en cualquier intervalo (con constante de Lipschitz igual a 1), ya que de la
desigualdad triangular se deduce que
[[x
1
[ [x
2
[[ [x
1
x
2
[ .
La derivabilidad de f no implica en general su lipschitzianidad. Por ejemplo, la funcion
f(x) = x
2
no es lipschitziana en I = R. En efecto, si lo fuera existira L > 0 tal que

x
2
1
x
2
2

= [x
1
+x
2
[ [x
1
x
2
[ L[x
1
x
2
[ , x
1
, x
2
R,
lo que implicara el resultado absurdo
[x
1
+x
2
[ L, x
1
,= x
2
.
Proposici on 1.13. Si f es derivable en un intervalo I y f

est a acotada en I, entonces


f es lipschitziana en I.
Demostraci on. En efecto, si [f

(x)[ L para todo x I aplicando el teorema del valor


medio se obtiene
[f(x
1
) f(x
2
)[ =

()

[x
1
x
2
[ L[x
1
x
2
[ ,
ya que
_
min(x
1
, x
2
), max(x
1
, x
2
)
_
I. Q.E.D.
Corolario 1.14. f : I R de clase C
1
en un intervalo compacto I =f lipschitziana
en I.
Demostraci on. Si f C
1
(I) con I intervalo compacto, f

es continua en el intervalo
compacto I, por lo que f

es necesariamente acotada en dicho conjunto (alcanza, de


hecho, sus valores m aximo y mnimo en I). La proposici on anterior implica entonces
que f es lipschitziana en I. Q.E.D.
Pasemos a continuaci on al caso que en realidad nos interesa, en el que f : RR
n

R
n
.
CAP

ITULO 1. INTRODUCCI

ON 20
Denicion 1.15. Sea f : I D R
n
, siendo I R un intervalo y D R
n
(no
necesariamente abierto). Diremos que f es lipschitziana en la segunda variable (o
en el segundo argumento) en I D si existe L > 0 (de nuevo llamada constante de
Lipschitz) tal que
_
_
f(x, y
1
) f(x, y
2
)
_
_
L
_
_
y
1
y
2
_
_
, x I , y
1
, y
2
D. (1.52)
En la formula anterior, || denota la norma euclidiana en R
n
, es decir
v = (v
1
, . . . , v
n
) R
n
=|v| =
_
v
2
1
+ +v
2
n
.
La denicion 1.15 es an aloga a la 1.12, considerando a la variable x como un par ametro
y cambiando el valor absoluto por la norma.
Proposici on 1.16. Sea f : I D R
n
, con D abierto convexo. Si las derivadas
parciales
f
i
y
j
(1 i n) existen, son continuas y est an acotadas en I D, entonces f
es lipschitziana en I D.
Demostraci on. Sean (x, y
1
), (x, y
2
) I D. Aplicando el teorema del valor medio a
cada componente f
i
de f obtenemos
f
i
(x, y
1
) f
i
(x, y
2
) = f
i
(x,
i
) (y
1
y
2
) ,
para alg un punto
i
del segmento que une y
1
con y
2
(contenido en D por ser dicho
conjunto convexo), donde el gradiente est a tomado respecto de las variables (y
1
, . . . , y
n
).
Por la desigualdad de CauchySchwarz,

f
i
(x, y
1
) f
i
(x, y
2
)

_
_
f
i
(x,
i
)
_
_
_
_
y
1
y
2
_
_

nM
_
_
y
1
y
2
_
_
siendo M una cota superior de los valores absolutos de las derivadas parciales
f
i
y
j
en
I D. De esta desigualdad se sigue que
_
_
f(x, y
1
) f(x, y
2
)
_
_
nM
_
_
y
1
y
2
_
_
Por tanto, f es lipschitziana en I D, y se puede tomar L = nM. Q.E.D.
Si las derivadas parciales de f(x, y) respecto de las variables y
i
son continuas en un
abierto U R
n+1
entonces f es localmente lipschitziana en cada punto de U. Esto
quiere decir que para todo (x
0
, y
0
) U la funcion f es lipschitziana en cualquier cilindro
compacto [x
0
, x
0
+] B
r
(y
0
) contenido en U, donde
B
r
(y
0
) = y R
n
: |y y
0
| < r , B
r
(y
0
) = y R
n
: |y y
0
| r
denotan respectivamente la bola abierta o cerrada de centro y
0
y radio r. En efecto, al ser
f
i
y
j
continua en el compacto [x
0
, x
0
+] B
r
(y
0
) U autom aticamente est a acotada
en dicho compacto, y por tanto puede aplicarse la proposici on anterior.
Repasemos a continuaci on algunos resultados relativos a la nocion de convergencia
uniforme, que ser an fundamentales para la demostracion del teorema de PicardLindelof.
Una sucesion de funciones g
k
: R
m
R
n
(k N) se dice uniformemente conver-
gente a la funcion g en U R
m
si para todo > 0 existe N N tal que
k N =|g(x) g
k
(x)| < , para todo x U .
CAP

ITULO 1. INTRODUCCI

ON 21
Notese que N s olo puede depender de , no del punto x U.
Analogamente, la serie de funciones

k=1
g
k
converge uniformemente en U si para
todo > 0 existe N N tal que
_
_
_
_
_

k=N+1
g
k
(x)
_
_
_
_
_
< , para todo x U .
Obviamente, la convergencia uniforme de una funcion (o serie de funciones) en U
implica su convergencia puntual en cada punto de U, pero el recproco no tiene por
que ser cierto.
Criterio M de Weierstrass: si |g
k
(x)| M
k
para todo x U R
m
y k N, y la
serie numerica

k=1
M
k
es convergente, entonces la serie de funciones

k=1
g
k
converge
uniformemente en U.
Si la sucesion de funciones g
k
: R
m
R
n
(k N) converge uniformemente en
U R
m
, y cada g
k
es continua en U, entonces el lmite de la sucesion g = lim
k
g
n
es una funcion continua en U. Un resultado an alogo vale para la suma de una serie
uniformemente convergente de funciones continuas (enunciarlo).
Si la sucesion de funciones g
k
: [a, b] R R (k N) converge uniformemente
en [a, b], y cada g
k
es una funcion integrable en [a, b], entonces lim
k
g
k
es integrable en
[a, b], y se tiene
lim
k
_
b
a
g
k
(t) dt =
_
b
a
_
lim
k
g
k
(t)
_
dt .
Un resultado an alogo vale para series uniformemente convergentes de funciones integra-
bles en un intervalo.
Teorema de PicardLindelof. Sea f : A [x
0
a, x
0
+a] B
b
(y
0
) RR
n
R
n
(con a > 0, b > 0) continua y lipschitziana con respecto a la segunda variable en el
conjunto A. Entonces el problema de valor inicial (1.39)(1.40) tiene una soluci on
unica y(x) denida en el intervalo [x
0
, x
0
+], siendo
= min(a, b/M)
y M el supremo de |f| en A.
Demostraci on. (Notese, antes de empezar, que la existencia de M est a garantizada por
ser f continua en el conjunto compacto A.) La demostracion est a basada en un argu-
mento muy sencillo de aproximaciones sucesivas (de Picard) a la soluci on del problema
(1.39)(1.40). Por sencillez, nos restringiremos al caso n = 1 (ecuaci on escalar), en que
A es un rect angulo cerrado
A = [x
0
a, x
0
+a] [y
0
b, y
0
+b]
y |f(x, y)| = [f(x, y)[.
CAP

ITULO 1. INTRODUCCI

ON 22
i) En primer lugar, podemos transformar el problema de valor inicial en una ecuacion
integral integrando la ecuaci on diferencial entre x
0
y x (con x [x
0
a, x
0
+ a]),
obteniendo
y(x) = y
0
+
_
x
x
0
f
_
t, y(t)
_
dt . (1.53)
Mas precisamente, la funcion y(x) es soluci on del problema de valor inicial (1.39)(1.40)
si y s olo si y(x) es una soluci on continua de la ecuaci on integral (1.53). (Ejercicio:
pruebese esto en detalle.)
ii) A continuaci on construimos recursivamente una familia de funciones y
k
: [x
0
, x
0
+
] [y
0
b, y
0
+ b] (k = 0, 1, . . . ) diferenciables en el intervalo [x
0
, x
0
+ ] de la
forma siguiente. En primer lugar, denimos
y
0
(x) = y
0
, x [x
0
, x
0
+] .
A continuaci on denimos
y
1
(x) = y
0
+
_
x
x
0
f
_
t, y
0
_
dt , x [x
0
, x
0
+] .
La funcion y
1
est a claramente denida y es diferenciable en [x
0
, x
0
+ ] (por la
continuidad de f en A). Ademas, se tiene
[y
1
(x) y
0
[

_
x
x
0

f
_
t, y
0
_

dt

M[x x
0
[ M b , x [x
0
, x
0
+] .
(1.54)
Procediendo recursivamente, supongamos que hemos denido las funciones diferenciables
y
0
, . . . , y
k
: [x
0
, x
0
+] [y
0
b, y
0
+b]. Entonces se dene
y
k+1
(x) = y
0
+
_
x
x
0
f
_
t, y
k
(t)
_
dt , x [x
0
, x
0
+] . (1.55)
Por hip otesis de induccion, y
k
es diferenciable en [x
0
, x
0
+] e y
k
(t) [y
0
b, y
0
+b]
para t [x
0
, x
0
+]. Esto implica que f
_
t, y
k
(t)
_
es continua si t [x
0
, x
0
+],
y por tanto (teorema fundamental del C alculo) y
k+1
es diferenciable en [x
0
, x
0
+].
Utilizando de nuevo la hip otesis de induccion (y
k
(t) [y
0
b, y
0
+b]) se obtiene
[y
k
(x) y
0
[

_
x
x
0

f
_
t, y
k
(t)
_

dt

M[x x
0
[ M b , x [x
0
, x
0
+] .
iii) Probaremos a continuaci on por induccion la importante desigualdad
[y
k+1
(x) y
k
(x)[
M L
k
[x x
0
[
k+1
(k + 1)!
, x [x
0
, x
0
+] , k = 0, 1, . . . ,
(1.56)
donde L > 0 es una constante de Lipschitz de f en A. En efecto, para k = 0 la de-
sigualdad ya est a probada (vease (1.54)). Supuesta la desigualdad anterior cierta para
k = 0, 1, . . . , m1 con m 1, utilizando la hip otesis de induccion y la lipschitzianidad
CAP

ITULO 1. INTRODUCCI

ON 23
de f en la variable y obtenemos
[y
m+1
(x) y
m
(x)[ =

_
x
x
0
_
f
_
t, y
m
(t)
_
f
_
t, y
m1
(t)
_
dt

_
x
x
0

f
_
t, y
m
(t)
_
f
_
t, y
m1
(t)
_

dt

_
x
x
0
[y
m
(t) y
m1
(t)[ dt

L
M L
m1
m!

_
x
x
0
[t x
0
[
m
dt

=
M L
m
m!

_
x
x
0
(t x
0
)
m
dt

=
M L
m
m!

[x x
0
[
m+1
(m + 1)
=
M L
m
[x x
0
[
m+1
(m+ 1)!
.
Esto prueba la desigualdad (1.56) para k = m, completando as el proceso de induccion.
iv) Probemos a continuaci on que la sucesion de funciones y
k
(k N) converge unifor-
memente en [x
0
, x
0
+] a una funcion continua y. En efecto, consideremos la serie
telesc opica
y
0
+

k=0
[y
k+1
y
k
] , (1.57)
cuya convergencia uniforme es equivalente a la de la sucesi on de funciones y
k
(k N)
(ejercicio). Utilizando la desigualdad (1.56) se obtiene
x [x
0
, x
0
+] =[y
k+1
(x) y
k
(x)[
M L
k

k+1
(k + 1)!
=
M
L
(L)
k+1
(k + 1)!
.
Como la serie numerica

k=0
(L)
k+1
(k + 1)!
= e
L
1
es convergente, la serie (1.57) y, por tanto, la sucesion y
k
, converge uniformemente en
[x
0
, x
0
+ ] (criterio M de Weierstrass). Al ser las funciones y
k
continuas en el
intervalo [x
0
, x
0
+] y uniformemente convergentes a y en dicho intervalo, la funcion
y es continua en [x
0
, x
0
+].
v) Probaremos a continuaci on que la funcion y(x) denida por
y(x) = lim
k
y
k
(x) , x [x
0
, x
0
+] . (1.58)
es soluci on del problema de valor inicial. En efecto, pasando al lmite cuando k en
la desigualdad [y
k
(x) y
0
[ b se obtiene [y(x) y
0
[ b, para todo x [x
0
, x
0
+].
La convergencia uniforme de la sucesion y
k
(k N) a la funcion y en [x
0
, x
0
+ ]
tambien garantiza que la sucesion de funciones g
k
: [x
0
, x
0
+] R denida por
g
k
(t) = f
_
t, y
k
(t)
_
converge uniformemente a la funcion g(t) = f
_
t, y(t)
_
para t [x
0
, x
0
+ ], ya que
(aplicando de nuevo la lipschitzianidad de f)
[g(t) g
k
(t)[ =

f
_
t, y(t)
_
f
_
t, y
k
(t)
_

L [y(t) y
k
(t)[
CAP

ITULO 1. INTRODUCCI

ON 24
De esto se deduce que
lim
k
_
x
x
0
f
_
t, y
k
(t)
_
dt =
_
x
x
0
f
_
t, y(t)
_
dt .
Tomando por tanto el lmite cuando k en la igualdad (1.55) vemos que y es soluci on
de la ecuaci on integral (1.53). Como y es continua en [x
0
, x
0
+], esto implica que y
es soluci on del problema de valor inicial (1.39)(1.40). (Notese que el teorema de Peano
garantizaba la existencia de por lo menos una soluci on de dicho problema.)
vi) Probemos, por ultimo, la unicidad. A tal efecto, supongamos que z : [x
0
, x
0
+]
[y
0
b, y
0
+b] es soluci on del problema de valor inicial (1.39)(1.40). Demostremos por
induccion que si y
k
(k N) es una de las funciones construidas anteriormente entonces
se tiene la importante desigualdad
[z(x) y
k
(x)[
M L
k
[x x
0
[
k+1
(k + 1)!
, x [x
0
, x
0
+] , k = 0, 1, 2, . . . . (1.59)
En efecto, la desigualdad es claramente cierta para k = 0, ya que al ser z soluci on de la
ecuaci on integral (1.53) se tiene:
[z(x) y
0
[ =

_
x
x
0
f
_
t, z(t)
_
dt

M[x x
0
[ .
Supongamos la desigualdad cierta para k = 0, . . . , m 1 (con m 1). Entonces la
desigualdad para k = m se obtiene como obtuvimos (1.56) para k = m, sin m as que
reemplazar y
m+1
por z, ya que
z(x) y
m
(x) =
_
x
x
0
_
f
_
t, z(t)
_
f
_
t, y
m1
(t)
_
dt .
Esto prueba por induccion las desigualdades (1.59). Finalmente, tomando el lmite cuan-
do k en (1.59) se obtiene
[z(x) y(x)[ lim
k
M
L
(L[x x
0
[)
k+1
(k + 1)!
= 0 , x [x
0
, x
0
+] ,
lo cual implica que z = y en [x
0
, x
0
+]. (Recuerdese que para todo t R se tiene
lim
m
t
m
/m! = 0.) Esto concluye la demostracion. Q.E.D.
Comentarios
Las funciones y
k
(x) (k N) construidas en la demostracion del teorema de Picard
Lindelof, cuyo lmite es la soluci on y(x) del problema de valor inicial (1.39)(1.40), se
denominan aproximantes de Picard de la soluci on y(x). De (1.59) con z = y se obtiene
una estimaci on del error cometido al aproximar y(x) por su k-esimo aproximante:
|y(x) y
k
(x)|
M L
k
[x x
0
[
k+1
(k + 1)!
, x [x
0
, x
0
+] , k = 0, 1, 2, . . . . (1.60)
Notese que, aunque para x jo el miembro derecho tiende a cero cuando k , para k
jo la aproximacion (1.60) s olo es buena si [x x
0
[ es sucientemente peque no. Ademas,
el calculo del aproximante y
k
requiere calcular k integrales denidas. Esto hace que, en
CAP

ITULO 1. INTRODUCCI

ON 25
la pr actica, los aproximantes de Picard no tengan excesiva utilidad, aunque su valor
teorico es indudable.
Ni la continuidad ni la lipschitzianidad de f son condiciones necesarias para la existen-
cia o la unicidad de soluciones del problema de valor inicial (1.39)(1.40). Por ejemplo,
la funcion
f(x, y) =
_
2
y
x
+ 4 x, x ,= 0
0 , x = 0
es discontinua en el eje vertical x = 0. La soluci on general de la ecuaci on lineal y

=
f(x, y) se calcula facilmente, y es igual a
y(x) = x
2
+
c
x
2
.
Por tanto, el problema de valor inicial para la ecuaci on y

= f(x, y) con la condici on


inicial y(0) = 0 tiene la soluci on unica y(x) = x
2
. Notese, sin embargo, que si la condici on
inicial es y(0) = y
0
,= 0 entonces el problema (1.39)(1.40) no tiene soluci on, ya que la
unica soluci on de la ecuaci on diferencial denida en x = 0 es y(x) = x
2
.
En la pr actica, en lugar del teorema de PicardLindelof se aplican sus dos corolarios
siguientes:
Proposici on 1.17. Si f : A I R
n
R
n
(siendo I R un intervalo) es continua y
lipschitziana respecto de la segunda variable en A, entonces para todo x
0
I el problema
de valor inicial (1.39)(1.40) tiene una soluci on unica en el intervalo I.
Demostraci on. Repasando la demostracion del teorema de PicardLindelof se observa
que la restriccion b/M s olo es necesaria para asegurar que y
k
(x) B
b
(y
0
). Al
reemplazar B
b
(y
0
) por R
n
, esta condici on deja de ser necesaria. Q.E.D.
Proposici on 1.18. Si la funci on f : U R
n
y sus derivadas parciales
f
i
y
j
(1
i, j n) son continuas en el abierto U R R
n
, entonces para todo (x
0
, y
0
) U el
problema de valor inicial (1.39)(1.40) tiene una soluci on unica en un intervalo de la
forma
_
x
0
, x
0
+
_
, con > 0 (dependiente de (x
0
, y
0
)) sucientemente peque no.
Demostraci on. Basta tomar a, b > 0 lo sucientemente peque nos para que el compacto
A = [x
0
a, x
0
+ a] B
b
(y
0
) este contenido en U. Al ser f continua y lipschitziana
respecto de la segunda variable A (por el comentario que sigue a la Proposici on 1.16),
podemos aplicar el teorema de PicardLindelof a f en dicho conjunto. Q.E.D.
Corolario 1.19. Si f : U RR
n
R
n
es de clase C
1
en el abierto U, el problema de
valor inicial (1.39)(1.40) tiene soluci on unica local para todo dato inicial (x
0
, y
0
) U.
Ejemplo 1.20. Hallemos los aproximantes de Picard para el problema
y

= xy , y(0) = 1 , (1.61)
cuya soluci on exacta es
y(x) = e
x
2
/2
. (1.62)
En este caso la funcion f(x, y) = xy es C

y lipschitziana respecto de la segunda variable


en todo JRpara todo intervalo compacto J R, por lo que los aproximantes de Picard
CAP

ITULO 1. INTRODUCCI

ON 26
est an denidos (y convergen a la soluci on) en todo R (ver los comentarios anteriores).
Como y
0
= 1 se tiene
y
1
(x) = 1 +
_
x
0
t dt = 1 +
x
2
2
y
2
(x) = 1 +
_
x
0
t
_
1 +
t
2
2
_
dt = 1 +
x
2
2
+
x
4
8
,
y, en general,
y
k
(x) =
k

n=0
x
2n
2
n
n!
. (1.63)
En efecto, asumiendo esta formula cierta para k = 0, 1, . . . , m 1 (m 1) y aplicando
la denicion de y
m
se obtiene
y
m
(x) = 1 +
_
x
0
t
m1

n=0
t
2n
2
n
n!
dt = 1 +
m1

n=0
x
2n+2
2
n
(2n + 2) n!
= 1 +
m1

n=0
x
2(n+1)
2
n+1
(n + 1)!
,
que es (1.63) con k = m. Esto prueba (1.63) por induccion.
Notese que en este caso y
k
no es otra caso que el polinomio de Taylor de orden
2k de la soluci on exacta. Esto, sin embargo, no es general; por ejemplo, considerese el
problema y

= y
2
, y(0) = 1.
Captulo 2
Ecuaciones y sistemas lineales
Un sistema lineal de primer orden es un sistema de n ecuaciones diferenciales
ordinarias en n funciones inc ognitas (y
1
, . . . , y
n
) y de la forma
y

= A(x) y +b(x) , (2.1)


donde b = (b
1
, . . . , b
n
) : R R
n
es una funcion vectorial (el termino inhomogeneo
de la ecuaci on (2.1)) y A : R M
n
(R) es una funcion matricial. En otras palabras,
para cada x
A(x) =
_
_
_
a
11
(x) . . . a
1n
(x)
.
.
.
.
.
. . . .
a
n1
(x) . . . a
nn
(x)
_
_
_ (2.2)
es una matriz n n con coecientes reales a
ij
(x) (1 i, j n). Si b 0 diremos que el
sistema (2.1) es homogeneo, e inhomogeneo en caso contrario.
Nota: El conjunto M
n
(R) es un espacio vectorial real de dimension n
2
. Una base de
dicho espacio es la formada por las matrices E
ij
(1 i, j n) cuyo unico elemento de
matriz no nulo es un 1 en la posici on ij. En el espacio vectorial M
n
(R) se suele denir
la norma del supremo
|A| = max |Av| : |v| = 1 , A M
n
(R) ,
en terminos de la cual
|Aw| |A| |w| , w R
n
.
Un calculo sencillo muestra que si |v| = 1 entonces |Av|
2

n
i,j=1
a
2
ij
, por lo que
|A|
_
n

i,j=1
a
2
ij
_1
2
n max [a
ij
[ : 1 i, j n .
Notese, nalmente, que una funcion matricial A : R M
n
(R) es continua en x R si
y s olo si sus n
2
elementos de matriz a
ij
: R R (1 i, j n) son funciones continuas
en x.
Utilizando el teorema de PicardLindelof es inmediato probar el siguiente teorema
de existencia y unicidad para el problema de valor inicial asociado al sistema lineal (2.1):
Teorema 2.1. Si b : I R
n
y A : I R
n
son continuas en el intervalo I R,
entonces para todo x
0
I y para todo y
0
R
n
el problema de valor inicial (2.1) con la
condici on inicial y(x
0
) = y
0
tiene una unica soluci on en el intervalo I.
27
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 28


Demostraci on. Basta probar (por que?) la existencia y unicidad del problema planteado
en todo intervalo compacto J I. Por la Proposici on 1.17, es suciente probar que la
funcion f : J R
n
R
n
denida por
f(x, y) = A(x) y +b(x)
es continua y lipschitziana respecto de la segunda variable en J R
n
. La continuidad
de f en J R
n
es inmediata a partir de la de las funciones A y b en J I, ya que para
todo (x
1
, y
1
) J R
n
se tiene
f(x
2
, y
2
) f(x
1
, y
1
) = A(x
2
)(y
2
y
1
) +
_
A(x
2
) A(x
1
)

y
1
+b(x
2
) b(x
1
) 0
si (x
2
, y
2
) (x
1
, y
1
). La lipschitzianidad de f respecto de la variable y es tambien
inmediata de establecer, ya que si (x, y
1
), (x, y
2
) J R
n
se tiene
|f(x, y
2
) f(x, y
1
)| = |A(x)(y
2
y
1
)| |A(x)| |y
2
y
1
)| nM |y
2
y
1
| ,
si
M = max [a
ij
(x)[ : 1 i, j n, x J .
(La existencia de M se deduce de la continuidad de las n
2
funciones a
ij
en el compacto
J.) Q.E.D.
En particular, las soluciones de un sistema lineal (2.1) con coecientes constantes
est an denidas en toda la recta real.
2.1 Estructura del espacio de soluciones
Llamaremos espacio de soluciones del sistema lineal (2.1) al conjunto o formado por
todas sus soluciones, es decir
o =
_
y : I R R
n

(x) = A(x) y +b(x) , x I


_
C
1
(I) .
(Ejercicio: justifquese esta ultima inclusion.) Una de las propiedades fundamentales de
los sistemas lineales homogeneos
y

= A(x) y , y R
n
, (2.3)
es que si
1
y
2
son soluciones del sistema, entonces
1
+
2
es soluci on para todo
, R, ya que
(
1
+
2
)

(x) =
1
(x)+
2
(x) = A(x)
1
(x)+A(x)
2
(x) = A(x)
_

1
(x)+
2
(x)
_
.
En otras palabras:
Teorema 2.2. El espacio de soluciones de un sistema homogeneo es un espacio vectorial
real.
Para sistemas lineales inhomogeneos el resultado anterior admite una generalizaci on
inmediata. En efecto, si y
p
es una soluci on particular ja del sistema e y es cualquier
soluci on entonces y y
p
es soluci on del sistema homogeneo (2.3) asociado a (2.1). Si
llamamos o
0
al espacio de soluciones del sistema homogeneo (2.3) entonces y y
p
o
0
,
o equivalentemente y y
p
+o
0
. Recprocamente, si y
H
es cualquier soluci on del sistema
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 29


homogeneo (2.3) entonces y
p
+y
H
es claramente una soluci on de (2.1). Esto prueba que
el espacio de soluciones o del sistema (2.1) es el espacio afn
o = y
p
+o
0
. (2.4)
Hemos probado por tanto el siguiente
Teorema 2.3. El espacio de soluciones del sistema lineal inhomogeneo (2.1) es un
espacio afn paralelo al espacio de soluciones del sistema homogeneo asociado.
Estudiemos a continuaci on cu al es la dimension del espacio de soluciones del sistema
homogeneo (2.3). Para ello, llamemos Y
i
(x) a la soluci on del problema de valor inicial
Y
i
= A(x)Y
i
, Y
i
(x
0
) = e
i
,
siendo x
0
I un punto jo pero arbitrario, y e
i
el i-esimo vector de la base can onica
de R
n
(de hecho, para el razonamiento que sigue podramos tomar cualquier otra base).
Sea ahora y(x) una soluci on cualquiera del sistema lineal homogeneo, y llamemos
y
0
= y(x
0
) (y
01
, . . . , y
0n
) =
n

i=1
y
0i
e
i
.
Entonces la funcion
y(x) =
n

i=1
y
0i
Y
i
(x)
es soluci on del sistema (2.3) (por ser combinaci on lineal de soluciones) y verica la
condici on inicial
y(x
0
) =
n

i=1
y
0i
e
i
= y
0
= y(x
0
) .
Por el teorema de unicidad, y = y en I. En otras palabras, toda soluci on del sistema
homogeneo (2.3) puede expresarse como una combinaci on lineal
y =
n

i=1
y
0i
Y
i
de las n soluciones Y
i
. Esto prueba, en particular, que
dimo
0
n.
Para probar que, de hecho, la dimension del espacio de soluciones del sistema (2.3) es
exactamente igual a n basta probar que las n soluciones Y
i
(1 i n) son linealmente
independientes. Para ello, supongamos que existieran n constantes reales
i
(1 i n)
tales que
n

i=1

i
Y
i
= 0 ,
es decir
n

i=1

i
Y
i
(x) = 0 , x I .
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 30


En particular, haciendo x = x
0
en la igualdad anterior obtenemos
0 =
n

i=1

i
e
i
=
1
= =
n
= 0 ,
por la independencia lineal de los vectores de la base can onica. Hemos probado por tanto
el siguiente resultado fundamental:
Teorema 2.4. El espacio de soluciones del sistema homogeneo y

= A(x) y (con
y : R R
n
) es un espacio vectorial real de dimensi on n.
2.2 Wronskiano
Llamaremos sistema fundamental de soluciones del sistema homogeneo (2.3) a toda
base de su espacio de soluciones, es decir a todo conjunto de n soluciones linealmente
independientes y
1
, . . . , y
n
. (Por ejemplo, las n soluciones Y
1
, . . . , Y
n
forman un sistema
fundamental de soluciones.) Por denicion, toda soluci on de (2.3) es una combinaci on
lineal de las soluciones y
1
, . . . , y
n
. En otras palabras, si y(x) es soluci on de (2.3) entonces
y(x) =
n

i=1
c
i
y
i
(x) , x I ,
para ciertas constantes reales c
1
, . . . , c
n
. Igualando la k-esima componente de ambos
miembros obtenemos las n igualdades escalares
y
k
(x) =
n

i=1
y
i
k
(x) c
i
, 1 k n,
equivalentes a la igualdad matricial
y(x) = Y (x)c (2.5)
con c = (c
1
c
n
)
t
y
Y (x) =
_
y
1
(x) y
2
(x) . . . y
n
(x)
_

_
_
_
y
1
1
(x) . . . y
n
1
(x)
.
.
.
.
.
.
.
.
.
y
1
n
(x) . . . y
n
n
(x)
_
_
_.
Recprocamente, es inmediato comprobar que si y(x) est a dada por (2.5) entonces es
soluci on del sistema homogeneo (2.3) cualquiera que sea el vector constante c R
n
.
Denicion 2.5. Una matriz fundamental del sistema (2.3) es cualquier funcion ma-
tricial x Y (x) M
n
(R) cuyas columnas forman un sistema fundamental de solucio-
nes.
En general, dadas n soluciones
1
, . . . ,
n
del sistema homogeneo (2.3) (no necesa-
riamente independientes), consideremos la matriz
(x) =
_

1
(x)
2
(x) . . .
n
(x)
_
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 31


asociada a dichas soluciones. Notese que la matriz (x) es soluci on de la ecuaci on ma-
tricial

(x) = A(x)(x) . (2.6)


En efecto, operando con matrices columna se tiene

(x) =
_

1
(x)
2
(x) . . .
n
(x)
_
=
_
A(x)
1
(x) A(x)
2
(x) . . . A(x)
n
(x)
_
= A(x) (x) .
De la misma forma se demuestra que si la matriz n n (x) satisface la ecuaci on (2.6)
entonces cada una de las n columnas de es soluci on del sistema (2.3).
Denicion 2.6. Llamaremos wronskiano de las soluciones
1
, . . . ,
n
al determinante
de la matriz (x), es decir
W[
1
, . . . ,
n
](x) = det (x) =

1
1
(x) . . .
n
1
(x)
.
.
.
.
.
.
.
.
.

1
n
(x) . . .
n
n
(x)

.
Escribiremos a partir de ahora W(x) cuando quede claro del contexto a que soluciones

i
(1 i n) nos estamos reriendo.
Si las soluciones
k
(1 k n) son linealmente dependientes (como funciones)
entonces los vectores
_

1
(x), . . . ,
n
(x)
_
son linealmente dependientes en cada punto
x I, por lo que el determinante de la matriz (x) cuyas columnas son dichos vectores
es identicamente nulo. En otras palabras,
_

1
, . . . ,
n
_
linealmente dependientes =W[
1
, . . . ,
n
](x) = 0 , x I .
Recprocamente, si el wronskiano de las soluciones
_

1
, . . . ,
n
_
se anula identicamente
entonces dichas soluciones son linealmente dependientes. De hecho, probaremos que si
W(x
0
) = 0 para alg un x
0
I entonces las soluciones
_

1
, . . . ,
n
_
son linealmente
independientes. En efecto, n otese que la anulaci on de W(x
0
) implica que los vectores

k
(x
0
) , 1 k n.
son linealmente dependientes, es decir que existen constantes
k
(1 k n) tales que
n

k=1

k

k
(x
0
) = 0 .
Pero entonces la funcion
y(x) =
n

k=1

k
(x)
es soluci on del sistema homogeneo (2.3) con dato inicial y(x
0
) = 0. Por la unicidad de
soluciones de (2.3), de esto se deduce que y(x) = 0 para todo x I, lo cual prueba la
dependencia lineal de las soluciones
_

1
, . . . ,
n
_
. Hemos pues demostrado el siguiente
resultado fundamental:
_

1
, . . . ,
n
_
linealmente dependientes W[
1
, . . . ,
n
](x) = 0 , x I . (2.7)
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 32


Si
k
(1 k n) son soluciones del sistema homogeneo (2.3), entonces o bien
W(x) = 0 para todo x I, o bien W(x) ,= 0 para todo x I.
En efecto, si las soluciones son linealmente dependientes entonces su wronskiano se
anula identicamente, mientras que si son independientes de la demostracion del resultado
anterior se deduce que el wronskiano no se puede anular en ning un punto.
Una funci on matricial : I M
n
(R) es una matriz fundamental del sistema (2.3)
si y s olo si
i )

(x) = A(x) (x), para todo x I


ii ) det (x) ,= 0, para todo x I.
Notese que la condici on ii) es equivalente a pedir que det (x
0
) ,= 0 para alg un x
0
I.
Observese que si
_

1
, . . . ,
n
_
son funciones (diferenciables) arbitrarias la anulaci on
de su wronskiano en todos los puntos no implica la dependencia lineal. Por ejemplo, las
funciones

1
(x) = (sen x, x) ,
2
(x) = (x senx, x
2
)
son linealmente independientes, aunque su wronskiano se anula para todo x R.
Ejercicio. Son las funciones

1
(x) = (1, x) ,
2
(x) = (x, 1 x
2
)
soluci on de alg un sistema lineal homogeneo (con coecientes continuos) en I = R?
Soluci on. El wronskiano de las funciones
_

1
,
2
_
es igual a
W(x) =

1 x
x 1 x
2

= 1 2 x
2
.
Dicho wronskiano se anula en los puntos x = 1/

2, y es distinto de cero en los dem as


puntos. Como W ni es identicamente nulo ni tampoco es distinto de cero en R, las
funciones dadas no pueden ser soluci on de ning un sistema lineal homogeneo en R.
El wronskiano de
1
y
2
no se anula en los intervalos (, 1/

2), (1/

2, 1/

2)
y (1/

2, ), por lo que no est a descartado que dichas funciones puedan ser soluci on de
alg un sistema lineal homogeneo si nos restringimos a estos intervalos. De hecho, puede
probarse que en dichos intervalos
1
y
2
son soluciones (linealmente independientes)
del sistema homogeneo
y

=
1
1 2x
2
_
x 1
1 +x
2
3x
_
y .
2.2.1 Formula de AbelLiouville
Sean, de nuevo,
k
(x) (1 k n) n soluciones del sistema homogeneo (2.3). Derivando
su wronskiano W(x) respecto de x obtenemos
W

(x) =
n

i=1

1
1
(x) . . .
n
1
(x)
. . . . . . . . . . . . . . . . . . .

1
i

(x) . . .
n
i

(x)
. . . . . . . . . . . . . . . . . . .

1
n
(x) . . .
n
n
(x)

. (2.8)
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 33


Dado que

k
i

(x) =
n

j=1
a
ij
(x)
k
j
(x) , x I , 1 i, k n,
la i-esima la del i-esimo determinante en (2.8) es igual a
a
ii
(x)
i
(x) +
n

j=1
j=i
a
ij
(x)
j
(x)
(donde
j
denota la j-esima la de ). De esto se sigue que el i-esimo determinante que
aparece en (2.8) es igual a
a
ii
(x) W(x) ,
puesto que un determinante no vara al a nadir a una la cualquier combinaci on lineal
de las restantes. Obtenemos as la igualdad
W

(x) = W(x)
n

i=1
a
ii
(x) tr A(x) W(x) .
Integrando esta ecuaci on diferencial lineal ordinaria de primer orden en W(x) obtenemos
la f ormula de AbelLiouville
W(x) = W(x
0
) e
_
x
x
0
tr A(t) dt
, x I , (2.9)
donde x
0
es un punto cualquiera de I. De esta formula se sigue inmediatamente el
resultado sobre el wronskiano probado anteriormente (W(x) = 0 para todo x I
o W(x) ,= 0 para todo x I).
2.2.2 Metodo de variacion de constantes de Lagrange
Los resultados de esta secci on se reeren al sistema homogeneo (2.3). Sin embargo, si se
conoce una matriz fundamental de dicho sistema homogeneo podemos hallar la soluci on
general del sistema inhomogeneo (2.1) aplicando el metodo de variaci on de constantes
de Lagrange. En efecto, la formula (2.5) para la soluci on general del sistema homogeneo
sugiere expresar una soluci on cualquiera del sistema inhomogeneo mediante
y(x) = Y (x)z(x) ,
siendo Y una matriz fundamental del sistema homogeneo y z : I R
n
la nueva funcion
inc ognita. Sustituyendo en (2.1) se obtiene
y

= Y (x) z

+Y

(x) z = Y (x) z

+A(x)Y (x) z = A(x)y +b(x) z

= Y (x)
1
b(x) .
(Notese que Y (x) es invertible en cada punto, ya que su determinante es el wronskiano
de n soluciones linealmente independientes de la ecuaci on homogenea (2.3), y por tanto
no se anula en ning un punto.) Integrando esta ecuaci on entre x
0
I y x obtenemos
z(x) =
_
x
x
0
Y (t)
1
b(t) dt +c ,
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 34


(con c R
n
constante) de donde se obtiene la siguiente formula para la soluci on general
del sistema inhomogeneo (2.1):
y(x) = Y (x) c +Y (x)
_
x
x
0
Y (t)
1
b(t) dt = Y (x) c +
_
x
x
0
Y (x)Y (t)
1
b(t) dt . (2.10)
Notese que el primer termino (Y (x) c) es la soluci on general del sistema homogeneo
asociado, mientras que el termino restante proporciona una expresi on explcita de una
soluci on particular del sistema inhomogeneo en terminos de la matriz fundamental Y (x)
y el termino inhomogeneo b(x).
2.3 Sistemas con coecientes constantes
En general (a diferencia de lo que ocurre para una ecuaci on lineal escalar) no es po-
sible dar un metodo general para hallar una matriz fundamental de un sistema lineal
homogeneo en funcion de sus coecientes. De hecho, s olo en muy contados casos en
que dichos coecientes son funciones particularmente sencillas de x es posible calcular
explcitamente una matriz fundamental del sistema (2.3) (y, por variaci on de constantes,
obtener as la soluci on general del sistema inhomogeneo (2.1)).
Un caso muy importante en que se puede calcular la matriz fundamental del sistema
lineal (2.3) es aquel en que la matriz de coecientes del sistema es constante. En otras
palabras, en este caso el sistema (2.3) adopta la forma sencilla
y

= Ay , A M
n
(R) . (2.11)
Formalmente, la soluci on de este sistema con la condici on inicial y(0) = y
0
es
y = e
xA
y
0
.
Pero que sentido tiene la exponencial de la matriz xA en esta formula?
Para responder a esta pregunta, recuerdese que para todo t R se dene e
t
como
la suma de la serie de potencias
e
t
=

k=0
t
k
k!
.
Se demuestra que la serie anterior es absolutamente convergente para todo t R, siendo
la convergencia uniforme en cada intervalo compacto de la recta real. Guiados por lo
anterior, denamos
e
B
=

k=0
B
k
k!
, B M
n
(R) , (2.12)
donde B
0
= 1 denota la matriz identidad. Para que la denicion tenga sentido, debemos
probar que la serie anterior converge en el espacio vectorial M
n
(R) para toda matriz
B M
n
(R). Para probar este resultado, n otese primero que
_
_
_B
k
_
_
_ |B|
k
, k N,
puesto que si v R
n
con |v| = 1 por denicion de la norma del supremo se tiene
_
_
_B
k
v
_
_
_ |B|
_
_
_B
k1
v
_
_
_ |B|
2
_
_
_B
k2
v
_
_
_ |B|
k
|v| = |B|
k
.
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 35


La convergencia (absoluta) de la serie (2.12) para toda matriz B M
n
(R) se deduce
del criterio de Cauchy. En efecto, si N > m se verica
_
_
_
_
_
N

k=m+1
B
k
k!
_
_
_
_
_

k=m+1
_
_
B
k
_
_
k!

N

k=m+1
|B|
k
k!

m,N
0 ,
en virtud de la convergencia de la serie numerica de e
B
. En particular, por lo que
acabamos de demostrar la serie de potencias (con coecientes matriciales)
e
xA
=

k=0
x
k
A
k
k!
(2.13)
converge para todo x R, para cualquier matriz A M
n
(R). Ademas, la convergencia
de esta serie es uniforme en todo intervalo compacto por el criterio M de Weierstrass,
ya que si x [a, b] se tiene
_
_
_
_
x
k
A
k
k!
_
_
_
_

[x[
k
|A|
k
k!

(M|A|)
k
k!
_
M = max([a[ , [b[)
_
,
siendo la serie numerica

k=0
(M|A|)
k
k!
= e
MA
convergente. Derivando termino a termino la serie (2.13) se obtiene la serie

k=1
k x
k1
A
k
k!
=

k=1
x
k1
A
k
(k 1)!
= A

k=0
x
k
A
k
k!
=
_

k=0
x
k
A
k
k!
_
A.
Esta ultima serie es uniformemente convergente en todo intervalo compacto, por lo visto
anteriormente. Por tanto, en todo intervalo compacto de la recta real la funcion matricial
e
xA
es derivable, siendo su derivada la serie anterior. En denitiva, hemos probado la
formula
d
dx
e
xA
= Ae
xA
= e
xA
A, x R. (2.14)
Esta formula demuestra que las n columnas de la matriz e
xA
son soluciones del
sistema (2.11). Estas soluciones son linealmente independientes, ya que su wronskiano
en x = 0 es igual a
det(e
0
) = det 1 = 1 ,= 0 .
Hemos probado por tanto el siguiente resultado:
Teorema 2.7. La matriz e
xA
es una matriz fundamental del sistema homogeneo con
coecientes constantes y

= Ay.
En otras palabras, la soluci on general del sistema (2.11) est a dada por
y(x) = e
xA
c , (2.15)
con c R
n
un vector constante. (Notese que, como ya sabamos por uno de los corolarios
del teorema de PicardLindelof, las soluciones de (2.11) est an denidas para todo x R.)
En particular, dado que e
0
es la matriz identidad, la soluci on del problema de valor inicial
y

= Ay , y(0) = y
0
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 36


es simplemente
y(x) = e
xA
y
0
.
La funcion exponencial matricial verica las siguientes propiedades:
i) e
(s+t)A
= e
sA
e
tA
, s, t R
ii) e
A
es invertible, siendo (e
A
)
1
= e
A
iii) Para toda matriz invertible P se tiene P e
A
P
1
= e
PAP
1
En efecto, la primera propiedad se deduce (como para la funcion exponencial en R)
manipulando adecuadamente la serie de e
(s+t)A
, lo cual es posible dado que esta serie
converge absolutamente. La segunda propiedad es consecuencia de la primera y de la
identidad e
0
= 1. Por ultimo,
P e
A
P
1
= P
_

k=0
A
k
k!
_
P
1
=

k=0
PA
k
P
1
k!
=

k=0
(PAP
1
)
k
k!
= e
PAP
1
.
En relaci on con la propiedad i), n otese que si A, B M
n
(R) son dos matrices que
conmutan, es decir satisfacen la igualdad
[A, B] AB BA = 0 ,
entonces se puede probar que
e
A+B
= e
A
e
B
= e
B
e
A
.
Sin embargo, esta ultima igualdad no es cierta, en general, para matrices A y B arbi-
trarias
Por lo dicho en la secci on anterior, la soluci on general del problema de valor inicial
para el sistema homogeneo
y

= Ax +b(x) (2.16)
es
y = e
xA
c +
_
x
x
0
e
(xt)A
b(t) dt , (2.17)
con c R
n
un vector constante. La soluci on de (2.16) con la condici on inicial y(x
0
) = y
0
se calcula resolviendo la ecuaci on matricial
y
0
= e
x
0
A
c c = e
x
0
A
y
0
.
Utilizando la propiedad ii) se obtiene
y = e
(xx
0
)A
y
0
+
_
x
x
0
e
(xt)A
b(t) dt .
Ejercicio. Pruebese la formula det(e
A
) = e
tr A
, valida para toda matriz A M
n
(R).
Soluci on. Al ser las columnas de e
xA
soluci on del sistema lineal (2.11), det(e
xA
) es el
wronskiano de dichas soluciones. Aplicando la formula de AbelLiouville obtenemos
det(e
xA
) = det(e
0
) e
R
x
0
tr Adt
= e
x tr A
.
Haciendo x = 1 se obtiene la formula propuesta.
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 37


2.4 Calculo de la exponencial de una matriz
Estudiaremos en esta secci on algunos metodos pr acticos para calcular la exponencial de
una matriz. Por lo visto en la secci on anterior, esto nos permitira encontrar la soluci on
general de un sistema homogeneo con coecientes constantes va la formula (2.15) (o,
m as generalmente, la soluci on del sistema inhomogeneo (2.16) va la ecuaci on (2.17)).
Recordemos, en primer lugar, que toda matriz A M
n
(R) es semejante a una matriz
diagonal por bloques (en general con elementos de matriz complejos)
J = P
1
AP =
_
_
_
_
_
J
1
J
2
.
.
.
J
m
_
_
_
_
_
,
donde cada bloque de Jordan J
i
es de la forma
J
i
=
i
1 +N
i
,
siendo N
i
una matriz nilpotente del tipo
N
i
=
_
_
_
_
_
N[n
i
]
N[n

i
]
.
.
.
N
_
n
(s
i
1)
i

_
_
_
_
_
.
En esta formula n
i
n

i
n
(s
i
1)
i
, y N[k] M
k
(R) denota la matriz nilpotente
elemental de orden k
N[k] =
_
_
_
_
_
_
_
_
0
1 0
1
.
.
.
.
.
.
.
.
.
1 0
_
_
_
_
_
_
_
_
.
De la igualdad
det(J t 1) = det(P
1
AP t 1) = det[P
1
(At 1)P] = det(At 1)
se deduce que
det(A t 1) = (
1
t)
r
1
(
m
t)
rm
,
donde los enteros r
i
= n
i
+n

i
+ +n
(s
i
1)
i
son las multiplicidades algebraicas de los
autovalores
i
. Los m n umeros distintos
1
, . . . ,
m
C, denominados los autovalores
de la matriz A, son por tanto las m races distintas de la ecuaci on
p
A
(t) det(At 1) = 0 .
Al polinomio (de grado n) p
A
(t) se le denomina polinomio caracterstico de la matriz
A.
La matriz N[k] es una matriz nilpotente de orden k, es decir N[k]
j
se anula si y s olo
si j k. De esto se deduce que las matrices N
i
son matrices nilpotentes de orden n
i
(el
ndice del autovalor
i
), es decir
N
n
i
1
i
,= 0, N
n
i
i
= 0 , 1 i m. (2.18)
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 38


A la matriz J M
n
(C) (que es unica salvo por el orden de los bloques) se le llama la
forma canonica de Jordan de la matriz A. Notese que N[1] = 0, y por tanto que
J es una matriz diagonal (cuyos elementos de matriz diagonales son los autovalores de
la matriz A, repetidos tantas veces cuanta sea su multiplicidad algebraica) si y s olo si
n
1
= . . . n
m
= 1.
El calculo de la exponencial de la matriz xA se reduce a la de xJ, ya que
e
xA
= e
P(xJ)P
1
= P e
xJ
P
1
.
(Notese que, aunque J y P pueden ser complejas, e
xA
es real si A es real.) Para calcular
la exponencial de xJ, observese que de las igualdades
J
k
=
_
_
_
_
_
J
k
1
J
k
2
.
.
.
J
k
m
_
_
_
_
_
, k N,
se deduce que
e
xJ
=
_
_
_
_
_
e
xJ
1
e
xJ
2
.
.
.
e
xJm
_
_
_
_
_
.
El problema se reduce por tanto a calcular la exponencial de cada bloque xJ
i
. Pero esto
es inmediato, ya que al conmutar las matrices
i
1 y N
i
se tiene
e
xJ
i
= e
x
i
1
e
xN
i
= e

i
x
e
xN
i
.
Por ultimo, de la nilpotencia de N
i
(ec. (2.18)) se deduce que la serie de e
xN
i
se reduce
a la suma nita
e
xN
i
=
n
i
1

k=0
x
k
k!
N
k
i
.
Notese que e
xN
i
se puede calcular por bloques mediante la formula
e
xN
i
=
_
_
_
_
_
_
e
xN[n
i
]
e
xN[n

i
]
.
.
.
e
xN
_
n
(s
i
1)
i

_
_
_
_
_
_
, (2.19)
donde
e
xN[k]
=
_
_
_
_
_
_
_
_
_
_
1
x 1
x
2
2!
x 1
x
3
3!
x
2
2!
x 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x
k1
(k1)!
x
k2
(k2)!
. . .
x
2
2!
x 1
_
_
_
_
_
_
_
_
_
_
. (2.20)
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 39


En denitiva, la exponencial de la matriz xA M
n
(R) est a dada por la siguiente
formula:
e
xA
= P
_
_
_
_
_
e

1
x
e
xN
1
e

2
x
e
xN
2
.
.
.
e
mx
e
xNm
_
_
_
_
_
P
1
,
donde e
xN
i
se calcula utilizando las ecuaciones (2.19) y (2.20).
Las columnas de la matriz P forman una base de C
n
respecto de la cual la matriz
del operador lineal v Av adopta su forma can onica J (base de Jordan de A).
Notese que la matriz Pe
xJ
(que es m as facil que calcular que e
xA
= Pe
xJ
P
1
, ya que
para su calculo no se necesita conocer la inversa de la matriz P) es tambien una matriz
fundamental del sistema lineal homogeneo (2.11). En efecto, de las igualdades
_
Pe
xJ
_
e
i
=
_
Pe
xJ
P
1
_
(Pe
i
) = e
xA
(Pe
i
) , 1 i n,
se deduce que las columnas de Pe
xJ
son soluciones del sistema. Ademas, el wronskiano
de estas soluciones es no nulo, ya que
det
_
Pe
xJ
_
= det P det
_
e
xJ
_
,= 0 ,
al ser P y e
xJ
matrices invertibles. Sin embargo (a diferencia de e
xA
, que es siempre
real si A es real) la matriz Pe
xJ
puede ser compleja, por lo que para obtener a partir de
ella una matriz fundamental real habra que tomar, en general, combinaciones lineales
adecuadas de sus columnas.
Si es un autovalor de A y v un autovector correspondiente a este autovalor, e
x
v
es una soluci on del sistema (2.11), ya que
d
dx
_
e
x
v
_
= e
x
(v) = e
x
(Av) = A
_
e
x
v
_
.
Si R la soluci on e
x
v es real (pues el autovector v se puede tomar real). Si = a+i b
con b ,= 0, al ser la matriz A real posee tambien el autovalor con autovector v. Sumando
y restando las dos soluciones e
x
v y e
x
v e
x
v se obtienen las dos soluciones reales
Re
_
e
x
v
_
e Im
_
e
x
v
_
, dadas respectivamente por
e
ax
_
cos(b x) Re v sen(b x) Imv

, e
ax
_
cos(b x) Imv + sen(b x) Re v

. (2.21)
Si A es diagonalizable entonces
J =
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
(donde ahora no suponemos que los n umeros
i
son distintos dos a dos) y por tanto
Pe
xJ
=
_
P
1
P
2
. . . P
n
_
_
_
_
_
_
e

1
x
e

2
x
.
.
.
e
nx
_
_
_
_
_
=
_
e

1
x
P
1
e

2
x
P
2
. . . e
nx
P
n
_
.
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 40


En otras palabras, si A es diagonalizable las funciones
e

i
x
P
i
, 1 i n , (2.22)
donde
i
es un autovalor de A y P
i
es un autovector correspondiente a este autovalor,
son soluciones fundamentales del sistema homogeneo (2.11). Si alguno de los autovalores

i
es complejo, por lo visto anteriormente podemos reemplazar las soluciones e

i
x
P
i
y
e

i
x
P
i
por dos soluciones reales del tipo (2.21) (con a = Re
i
, b = Im
i
, v = P
i
).
Sean ahora P
l+1
, . . . , P
l+k
v
1
, . . . , v
k
los vectores de la base can onica de C
n
correspondientes a un bloque de Jordan elemental
1
k
+N[k] .
Entonces las columnas l + 1, . . . , l +k de la matriz Pe
xJ
est an dadas por
_
v
1
. . . v
k
_
e
x
e
xN[k]
= e
x
_
v
1
. . . v
k
_
_
_
_
_
_
_
_
_
_
_
1
x 1
x
2
2!
x 1
x
3
3!
x
2
2!
x 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
x
k1
(k1)!
x
k2
(k2)!
. . .
x
2
2!
x 1
_
_
_
_
_
_
_
_
_
_
.
Por tanto las k funciones vectoriales
e
x
j

i=0
x
i
i!
v
kj+i
, 0 j k 1 , (2.23)
son soluciones del sistema homogeneo (2.11). Estas soluciones son todas reales si el
autovalor R (ya que en una matriz real los autovectores propios generalizados
correspondientes a un autovalor real se pueden siempre escoger reales). Si el autovalor
es complejo, al ser la matriz A real el complejo conjugado de es tambien autovalor
de A. Se demuestra en el curso de

Algebra Lineal que la matriz A tiene un bloque de
Jordan asociado a este autovalor de la forma
1
k
+N[k] ,
pudiendose tomar como vectores de la base can onica de Jordan asociados a este autovalor
los vectores v
1
, . . . , v
k
. Por tanto el sistema (2.11) posee en este caso junto con (2.23)
las k soluciones
e
x
j

i=0
x
i
i!
v
kj+i
, 0 j k 1 (2.24)
complejas conjugadas de las anteriores. Si = a+i b (con a, b R), sumando y restando
las soluciones (2.23) y (2.24) se obtienen las 2k soluciones reales
e
ax
j

i=0
x
i
i!
_
cos(b x) Re v
kj+i
sen(b x) Imv
kj+i

,
e
ax
j

i=0
x
i
i!
_
cos(b x) Imv
kj+i
+ sen(b x) Re v
kj+i

, 0 j k 1 .
(2.25)
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 41


Estas observaciones demuestran el siguiente teorema:
Teorema 2.8. Las soluciones del sistema homogeneo con coecientes constantes y

=
Ay (A M
n
(R)) son combinaciones lineales (con coecientes en R
n
) de funciones
de la forma
x
j
e
ax
cos(b x) , x
k
e
ax
sen(b x) . (2.26)
En esta f ormula a + i b (con b 0) recorre todos los autovalores de la matriz A, y los
exponentes j, k han de ser menores que el ndice del autovalor a + i b.
2.4.1 Polinomio interpolador de Lagrange
Uno de los metodos m as efectivos para el calculo de la exponencial de una matriz (o, en
general, de una funcion matricial) es el basado en el polinomio interpolador de Lagrange,
que describiremos a continuaci on. El metodo es consecuencia del teorema de Cayley
Hamilton, seg un el cual
p
A
(A) = 0 , A M
n
(R) .
Por denicion, el polinomio mnimo de la matriz A es el polinomio m onico de grado
mnimo
A
que anula a la matriz A, es decir tal que

A
(A) = 0 . (2.27)
Se demuestra que tal polinomio es unico, y est a dado por

A
(t) = (t
1
)
n
1
(t
2
)
n
2
(t
m
)
nm
, (2.28)
siendo de nuevo n
i
el ndice del autovalor
i
de A. Es tambien facil probar que si P es
un polinomio que anula a A entonces P es divisible por
A
.
Sea ahora f : R R una funcion analtica real denida por la serie de potencias
f(t) =

k=0
a
k
t
k
, [t[ < R,
donde R > 0 es el radio de convergencia de la serie (R = en el caso de la exponencial).
Igual que se hizo al principio de este captulo con la funci on exponencial, se demuestra
que la serie matricial
f(X) =

k=0
a
k
X
k
, X M
n
(R) ,
es convergente si |X| < R. Para calcular f(A) para una matriz concreta A M
n
(R)
con |A| < R, observese que la igualdad (2.27) permite expresar cualquier potencia de
la matriz A de exponente mayor o igual al grado
d(A) = n
1
+ +n
m
del polinomio mnimo de A en terminos de potencias con exponentes menores que d(A).
Esto demuestra que existe un polinomio P
f,A
(dependiente de f y de A) de grado menor
o igual que d(A) 1 tal que
f(A) = P
f,A
(A) . (2.29)
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 42


Tal polinomio es unico, ya que si f(A) = Q(A) con deg Q d(A) 1 entonces P
f,A
Q
es un polinomio de grado menor o igual al del polinomio mnimo de A que anula a la
matriz A, y por tanto P
f,A
Q = 0. Al polinomio P
f,A
de grado d(A) 1 denido por
(2.29) se le denomina el polinomio interpolador de Lagrange de la matriz A para la
funcion f. Para el calculo de P
f,A
se suele utilizar en la pr actica el siguiente resultado:
Proposici on 2.9. El polinomio interpolador P
f,A
est a unvocamente determinado por
las d(A) ecuaciones lineales en los coecientes de P
f,A
P
(k)
f,A
(
i
) = f
(k)
(
i
) , 0 k n
i
1 , i = 1, . . . , m, (2.30)
siendo n
i
el ndice del autovalor
i
de A (es decir, la dimensi on del mayor bloque
elemental de Jordan correspondiente al autovalor
i
).
Aunque no intentaremos dar una demostracion rigurosa de este resultado, es facil
dar una justicaci on heurstica del mismo observando que f(A) = P
f,A
(A) si y s olo si
f(A) v = P
f,A
(A) v para todo v perteneciente a la base de Jordan de A. Esta ultima
condici on es equivalente a las ecuaciones (2.30), ya que si v
k
es un vector de la base
can onica de Jordan de A correspondiente al autovalor
i
entonces
(A
i
)
j
v
k
= v
k+j
, 0 j m1 ; (A
i
)
m
v
k
= 0
para alg un n umero natural m n
i
. Escribiendo
f(t) P
f,A
(t) =

j=0
b
j
(t
i
)
j
(la serie es convergente para [t[ sucientemente peque no) se tendra
_
f(A) P
f,A
(A)

v
k
=

j=0
b
j
(A
i
)
j
v
k
=
m1

j=0
b
j
v
k+j
,
que es cero si y s olo si
b
j
=
1
j!
(f P
f,A
)
(j)
(
i
) = 0 , 0 j m1 .
Ejemplo 2.10. Calculemos por el metodo anterior e
xA
, siendo A M
3
(R) la matriz
A =
_
_
3 9 7
4 9 6
4 8 5
_
_
.
El polinomio caracterstico de A es
p
A
(t) =

3 t 9 7
4 9 t 6
4 8 5 t

= (t 1)
2
(t + 1) .
Los autovalores son por tanto
1
= 1 y
2
= 1 (doble), y la forma can onica de Jordan
de A es
J =
_
_
1 0 0
0 1 0
0 1
_
_
.
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 43


En esta formula = 0 si n
2
= 1 (es decir, hay dos bloques elementales de Jordan
de dimension 1 correspondientes al autovalor
2
= 1) o = 1 si n
2
= 2 (hay un
unico bloque elemental de dimension 2 correspondiente a dicho autovalor). Notese que
el n umero total de bloques elementales de Jordan de una matriz cualquiera A M
n
(R)
correspondientes a un autovalor es igual a la dimension de ker(A), que a su vez es
igual a n rank(A ). Por tanto,
= 0 dimker(A 1) = 2 rank(A 1) = 1
= 1 dimker(A 1) = 1 rank(A 1) = 2 .
Como
A1 =
_
_
4 9 7
4 8 6
4 8 6
_
_

_
4 9 7
4 8 6
_

_
4 9 7
0 1 1
_
tiene rango 2, concluimos que n
2
= 2, y
J =
_
_
1 0 0
0 1 0
0 1 1
_
_
.
El ndice n
1
es claramente igual a 1, por ser
1
autovalor simple. El polinomio mnimo
de la matriz A es por tanto

A
(t) = (t + 1)(t 1)
2
,
siendo su grado d(A) = 3. Por lo visto anteriormente, llamando f(t) = e
x t
(donde x se
trata como un par ametro y t es la variable independiente) se tiene
e
xA
= P(A) ,
siendo P(t) = + t + t
2
un polinomio de grado menor o igual que 2. Las ecuaciones
que determinan este polinomio son:
f(1) = P(1)
f(1) = P(1)
f

(1) = P

(1) .
Sustituyendo en estas ecuaciones f(t) = e
x t
y la expresi on para P se obtiene
e
x
= +
e
x
= + +
xe
x
= + 2 .
La soluci on de este sistema es
=
1
2
(senh x + 2 cosh x xe
x
) , = senh x, =
1
2
(xe
x
senhx) .
Por tanto
e
xA
=
1
2
(senh x + 2 cosh x xe
x
) 1 + senh xA+
1
2
(xe
x
senh x)A
2
=
=
_
_
2e
x
e
x
5e
x
+ (5 x)e
x
4e
x
+ (x 4)e
x
2e
x
2e
x
5e
x
+ 2(3 x)e
x
4e
x
+ 2(x 2)e
x
2e
x
2e
x
5e
x
+ (5 2x)e
x
4e
x
+ (2x 3)e
x
_
_
.
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 44


Un sistema fundamental de soluciones del sistema y

= Ay es el dado por las columnas


de esta matriz, es decir
y
1
= e
x
(2, 2, 2) + e
x
(1, 2, 2)
y
2
= e
x
(5, 5, 5) + e
x
(5, 6, 5) +xe
x
(1, 2, 2)
y
3
= e
x
(4, 4, 4) + e
x
(4, 4, 3) +xe
x
(1, 2, 2) .
La soluci on general del sistema es una combinaci on lineal arbitraria c
1
y
1
+c
2
y
2
+c
3
y
3
de
estas soluciones fundamentales. Notese que, de acuerdo con el Teorema 2.8, las soluciones
del sistema y

= Ay son combinaciones lineales con coecientes en R


3
de las funciones
e
x
, e
x
, xe
x
.
Por ejemplo, la soluci on del problema de valor inicial
y

= Ay , y(0) = (0, 1, 1)
es
y(x) = e
xA
_
_
0
1
1
_
_
=
_
_
e
x
+ e
x
e
x
+ 2 e
x
e
x
+ 2 e
x
_
_
= e
x
(1, 1, 1) + e
x
(1, 2, 2) .
Ejercicio. Hallar la soluci on del problema
_

_
x

= x y
y

= 2 x y
x(0) = 1 , y(0) = 2 .
Soluci on. En este caso las variables dependientes son (x, y), por lo que la variable inde-
pendiente ser a denotada por t. El sistema de ecuaciones que hay que resolver es lineal
homogeneo con coecientes constantes, ya que se puede escribir en la forma
_
x

_
= A
_
x
y
_
con
A =
_
1 1
2 1
_
.
Los autovalores de la matriz A se hallan facilmente:
p
A
() =
_
1 1
2 1
_
= (1 +)
2
+ 2 = 0 = 1 i

2 .
Por tanto en este caso la matriz A es diagonalizable, y

A
() = p
A
() = (1 +)
2
+ 2 .
La matriz e
tA
es igual al polinomio interpolador de primer grado P() = + para
la funcion f() = e
t
, donde los coecientes y se calculan a partir de las ecuaciones
f(1 i

2) = e
t
e
i

2 t
= P(1 i

2) = +(1 i

2) .
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 45


La soluci on de estas ecuaciones es
= e
t
cos(

2t) +
e
t

2
sen(

2 t) , =
e
t

2
sen(

2 t) .
Por tanto la matriz fundamental del sistema es
e
tA
= e
t
_
cos(

2t) +
1

2
sen(

2 t)
_
1 +
e
t

2
sen(

2 t) A
= e
t
_
cos(

2 t)
1

2
sen(

2 t)

2 sen(

2 t) cos(

2 t)
_
. (2.31)
Finalmente, la soluci on del problema propuesto es
_
x(t)
y(t)
_
= e
t
_
cos(

2 t)
1

2
sen(

2 t)

2 sen(

2 t) cos(

2 t)
_
_
1
2
_
= e
t
_
cos(

2 t)

2 sen(

2 t)
2 cos(

2 t) +

2 sen(

2 t)
_
.
2.5 Ecuaciones de orden n
En general, una ecuacion escalar de orden n en forma normal es una expresi on
de la forma
u
(n)
= F
_
x, u, u

, . . . , u
(n1)
_
, (2.32)
donde x R, u : R R y F : RR
n
R. Una ecuaci on de este tipo siempre se puede
reescribir como un sistema de n ecuaciones de primer orden mediante la introducci on
de la variable
y =
_
u, u

, . . . , u
(n1)
_
R
n
.
En efecto, la ecuaci on (2.32) es equivalente al sistema
y

= f(x, y)
con
f(x, y) =
_
y
2
, . . . , y
n
, F(x, y)
_
. (2.33)
Notese que las condiciones iniciales adecuadas para el sistema (2.33)
y(x
0
) = y
0
se traducen en las condiciones
u
(k)
(x
0
) = u
k
0
, 0 k n 1 , (2.34)
sobre las derivadas de orden n 1 de la funcion escalar u en el punto x
0
. La funcion
f es continua, derivable, de clase C
1
, etc. si y s olo si la funcion F lo es. En cuanto a la
condici on de Lipschitz, n otese que, al ser
_
_
f(x, y
1
) f(x, y
2
)
_
_
2
=
n

i=2
(y
1
i
y
2
i
)
2
+
_
F(x, y
1
) F(x, y
2
)

2
,

_
_
y
1
y
2
_
_
2
+
_
F(x, y
1
) F(x, y
2
)

2
.
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 46


si la funcion F es lipschitziana respecto al segundo argumento en un conjunto tambien
lo ser a f, pues de la ecuaci on anterior y

F(x, y
1
) F(x, y
2
)

M
_
_
y
1
y
2
_
_
se deduce que
_
_
f(x, y
1
) f(x, y
2
)
_
_

_
M
2
+ 1
_
_
y
1
y
2
_
_
.
Por tanto, son validos todos los teoremas de existencia y unicidad que dedujimos en el
Captulo 1 sin m as que sustituir la funcion f por F y los datos iniciales y(x
0
) = y
0
por
las condiciones (2.34) sobre las derivadas de u en x
0
. Los resultados que aplicaremos
m as a menudo son los siguientes:
Teorema 2.11. Si F : U R R
n
R es continua en el abierto U, entonces
para todo (x
0
, u
0
, . . . , u
(n1)
0
) U el problema de valor inicial (2.32)(2.34) tiene al
menos una soluci on u(x) denida en un intervalo de la forma (x
0
, x
0
+ ), con

_
x
0
, u
0
, . . . , u
(n1)
0
_
> 0.
Teorema 2.12. Si F : U RR
n
R y sus derivadas parciales
F
u
(i)
, 0 i n1,
son continuas en el abierto U (en particular, si F es de clase C
1
(U)), entonces para to-
do (x
0
, u
0
, . . . , u
(n1)
0
) U el problema de valor inicial (2.32)(2.34) tiene una soluci on
unica en un intervalo de la forma (x
0
, x
0
+), con
_
x
0
, u
0
, . . . , u
(n1)
0
_
> 0.
Teorema 2.13. Si F : A = I R
n
R (con I R un intervalo) es continua
y lipschitziana respecto de la segunda variable en A, entonces para todo x
0
I el
problema de valor inicial (2.32)(2.34) tiene una soluci on unica en el intervalo I.
2.5.1 Ecuaciones lineales
Consideraremos a continuaci on el caso en que la funcion F es lineal (o, hablando con
m as propiedad, afn) en u y sus derivadas. La ecuaci on (2.32) se puede entonces escribir
como sigue:
u
(n)
+a
n1
(x) u
(n1)
+ +a
1
(x) u

+a
0
(x) u = b(x) , (2.35)
donde las funciones a
i
: R R (0 i n 1) y b : R R se suponen continuas en
un intervalo I R. La ecuaci on (2.35) se dir a homogenea si b(x) = 0 para todo x I,
e inhomogenea (o completa) en caso contrario. El sistema de primer orden asociado a
la ecuaci on (2.35) es tambien lineal, ya que puede escribirse en la forma
y

= A(x) y +b(x) e
n
(2.36)
con
A(x) =
_
_
_
_
_
_
_
_
0 1 0 . . . 0
0 0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
.
.
. 1
a
0
(x) a
1
(x) a
2
(x) . . . a
n1
(x)
_
_
_
_
_
_
_
_
. (2.37)
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 47


A la matriz n n (2.37) se le llama matriz compa nera de la ecuaci on lineal de orden
n (2.35). Notese, en particular, que
tr A(x) = a
n1
(x) , x I . (2.38)
Al ser continuos en el intervalo I los coecientes del sistema lineal (2.36) (por la
hip otesis hecha sobre las funciones a
i
y b), el problema de valor inicial asociado a dicho
sistema posee una unica soluci on en I para todo dato inicial en I R
n
. Por tanto:
Teorema 2.14. Si las funciones a
i
: I R (1 i n) y b : I R son continuas
en un intervalo I, el problema de valor inicial (2.34)(2.35) posee una unica soluci on
en I para todo x
0
I.
Es evidente que si u
1
y u
2
denotan dos soluciones de la ecuaci on homogenea
u
(n)
+a
n1
(x) u
(n1)
+ +a
1
(x) u

+a
0
(x) u = 0 , (2.39)
entonces cualquier combinaci on lineal u
1
+ u
2
(con , R) es tambien soluci on
de dicha ecuaci on. El espacio de soluciones de la ecuaci on homogenea (2.39) es por
tanto un subespacio vectorial del espacio C
n
(I). Ademas, si
1
, . . . ,
m
son soluciones
linealmente independientes de (2.39) entonces las m soluciones del sistema lineal de
primer orden asociado a (2.39)
y
i
=
_

i
,

i
, . . . ,
(n1)
i
_
, 1 i m,
son obviamente linealmente independientes. Recprocamente, si las funciones
_
y
1
, . . . , y
m
_
son linealmente independientes tambien lo son las soluciones
1
, . . . ,
m
, ya que deri-
vando n 1 veces la igualdad

1
+ +
m

m
= 0 (
i
R, 1 i m)
se deduce que

1
y
1
+ +
m
y
m
= 0 ,
de donde se sigue que
i
= 0 para 1 i m por la independencia lineal de
_
y
1
, . . . , y
m
_
.
Utilizando este hecho y las propiedades de los sistemas lineales de primer orden se
deducen facilmente los siguientes resultados:
El espacio o
0
de las soluciones u(x) de la ecuaci on lineal homogenea (2.39) es un
subespacio vectorial de dimensi on n del espacio C
n
(I).
El espacio o de las soluciones u(x) de la ecuaci on lineal completa (2.35) es un subes-
pacio afn paralelo al subespacio vectorial o
0
. En otras palabras, las soluciones de (2.35)
son de la forma
u(x) = u
0
(x) +u
p
(x) ,
donde u
p
es una soluci on particular arbitraria (pero ja) de (2.35), y u
0
o
0
es cualquier
soluci on del sistema homogeneo asociado.
Ejemplo 2.15. Consideremos la ecuaci on de segundo orden
u

+
2
u = 0 , (2.40)
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 48


con > 0. El sistema de primer orden asociado es
y

=
_
0 1

2
0
_
y Ay
siendo y = (u, u

). Los autovalores de la matriz A son las soluciones de la ecuaci on

=
2
+
2
= 0 = i .
Por lo visto anteriormente, dos soluciones reales linealmente independientes de la ecua-
cion est an dadas por
y
1
= Re(e
ix
v) , y
2
= Im(e
ix
v) ,
siendo v un autovector correspondiente al autovalor i . Tomando v = (1, i ) se obtiene
y
1
=
_
cos(x), sen(x)
_
, y
2
=
_
sen(x), cos(x)
_
.
Por tanto un sistema fundamental de soluciones de la ecuaci on (2.40) es el formada por
las funciones
cos(x) , sen(x) .
Si
1
, . . . ,
n
son n soluciones de la ecuaci on homogenea de orden n (2.39), el wrons-
kiano W[
1
, . . . ,
n
](x) de dichas soluciones es por denicion el wronskiano de las so-
luciones correspondientes del sistema lineal de primer orden asociado a (2.39), es decir
W[
1
, . . . ,
n
](x) =

1
(x) . . .
n
(x)

1
(x) . . .

n
(x)
. . . . . . . . . . . . . . . . . . . . . . . . . .

(n1)
1
(x) . . .
(n1)
n
(x)

. (2.41)
Muchas veces escribiremos abreviadamente W(x) en lugar de W[
1
, . . . ,
n
](x). Diremos
que
1
, . . . ,
n
forman un sistema fundamental de soluciones de (2.39) si son
linealmente independientes, y por lo tanto forman una base del espacio de soluciones de
dicha ecuaci on. Si
1
, . . . ,
n
forman un sistema fundamental de soluciones de (2.39)
entonces cualquier soluci on u(x) de dicha ecuaci on puede expresarse en la forma
u(x) =
n

i=1
c
i

i
(x)
para ciertas constantes reales c
i
(1 i n).
Si
1
, . . . ,
n
son linealmente independientes entonces las n soluciones del sistema
lineal de primer orden asociado a (2.39)
_
y
1
, . . . , y
n
_
tambien son linealmente indepen-
dientes, por lo que
W[
1
, . . . ,
n
](x) = W[y
1
, . . . , y
n
](x) ,= 0 , x I .
Recprocamente, si W[
1
, . . . ,
n
](x
0
) ,= 0 para alg un x
0
I entonces W[y
1
, . . . , y
n
](x
0
) ,=
0, por lo que las funciones
_
y
1
, . . . , y
n
_
, y por tanto tambien
1
, . . . ,
n
, son lineal-
mente independientes. Hemos probado por tanto el siguiente resultado:

1
, . . . ,
n
linealmente independientes W[
1
, . . . ,
n
](x
0
) ,= 0 para alg un x
0
I
W[
1
, . . . ,
n
](x) ,= 0 para todo x I.
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 49


De nuevo, n otese que estas equivalencias s olo son ciertas, en general, si
1
, . . . ,
n

son soluciones de una ecuaci on lineal homogenea de orden n (2.39).


Sean, como antes,
1
, . . . ,
n
soluciones (no necesariamente independientes) de la
ecuaci on homogenea (2.39). Aplicando la formula de AbelLiouville y teniendo en cuenta
la formula (2.38) se obtiene la identidad
W(x) = W(x
0
) e

_
x
x
0
a
n1
(t) dt
. (2.42)
En particular, el wronskiano es constante si a
n1
es identicamente cero.
Veamos ahora como construir la soluci on general de la ecuaci on inhomogenea de
orden n (2.35) a partir de un sistema fundamental de soluciones
1
, . . . ,
n
de la
ecuaci on homogenea asociada. Para ello, consideremos la matriz fundamental
(x) =
_
_
_
_

1
(x) . . .
n
(x)

1
(x) . . .

n
(x)
. . . . . . . . . . . . . . . . . . . . . . . . . .

(n1)
1
(x) . . .
(n1)
n
(x)
_
_
_
_
del sistema de primer orden asociado a la ecuaci on homogenea (2.39). La soluci on general
del sistema lineal (2.36) asociado a (2.35) es (por variaci on de constantes)
y(x) = (x)c +
_
x
x
0
b(t) (x) (t)
1
e
n
dt . (2.43)
La primera componente del miembro derecho es por tanto la soluci on general de (2.35).
Para escribir esta soluci on m as explcitamente, n otese que la primera componente de
(x) (t)
1
e
n
es igual a
n

i=1

1i
(x)
_
(t)
1

in
=
n

i=1

i
(x)(1)
i+n
M
ni
(t)
W(t)
=
1
W(t)

1
(t) . . .
n
(t)

1
(t) . . .

n
(t)
. . . . . . . . . . . . . . . . . . . . . . . . .

(n2)
1
(t) . . .
(n2)
n
(t)

1
(x) . . .
n
(x)

,
donde M
ni
(t) denota el menor asociado al elemento de matriz ni de la matriz (t).
Sustituyendo esta formula en (2.43) se obtiene nalmente la siguiente expresi on para la
soluci on general de la ecuaci on (2.35):
u(x) =
n

i=1
c
i

i
(x) +
_
x
x
0

1
(t) ... n(t)

1
(t) ...

n
(t)
.
.
.
.
.
.
.
.
.

(n2)
1
(t) ...
(n2)
n
(t)

1
(x) ... n(x)

b(t)
W(t)
dt . (2.44)
Por ejemplo, para la ecuaci on lineal de segundo orden
u

+a
1
(x) u

+a
0
(x) u = b(x) (2.45)
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 50


se tiene
u(x) = c
1

1
(x) +c
2

2
(x) +
_
x
x
0

1
(t)
2
(t)

1
(x)
2
(x)

b(t)
W(t)
dt . (2.46)
En otras palabras, la funcion
u
p
(x) =
_
x
x
0

1
(t)
2
(t)

1
(x)
2
(x)

b(t)
W(t)
dt (2.47)
es una soluci on particular de la ecuaci on inhomogenea (2.45). Notese que esta soluci on
particular tiene como condiciones iniciales en x
0
u
p
(x
0
) = u

p
(x
0
) = 0 .
Ejemplo 2.16. Consideremos la ecuaci on de segundo orden
u

+
2
u = F(x) , > 0 , (2.48)
que describe el movimiento de un oscilador arm onico sometido a una fuerza externa
F(x) (movimiento forzado). Tomando

1
(x) = cos(x) ,
2
(x) = sen(x)
se tiene
W(x) =

cos(x) sen(x)
sen(x) cos(x)

= .
(Notese que W(x) es constante; esto es consecuencia de la formula de AbelLiouville
(2.42), ya que en este caso a
n1
a
1
= 0.) Como

1
(t)
2
(t)

1
(x)
2
(x)

cos(t) sen(t)
cos(x) sen(x)

= sen (x t)
la soluci on general de (2.48) es
u(x) = c
1
cos(x) +c
2
sen(x) +
1

_
x
0
sen (x t) F(t) dt ,
que tambien se puede escribir
u(x) = c
1
cos(x) +c
2
sen(x) +
1

_
x
0
sen(s) F(x s) ds .
Supongamos, por ejemplo, que la fuerza externa es de tipo sinusoidal:
F(x) = F
0
sen(x) , > 0 .
Entonces
_
x
0
sen(s) F(x s) ds = F
0
_
x
0
sen(s) sen (x s) ds
=
F
0
2
_
x
0
_
cos
_
( +)s x
_
cos
_
( )s +x
_
ds
=
F
0
2( +)
_
sen(x) + sen(x)
_

F
0
2
_
x
0
cos
_
( )s +x
_
ds .
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 51


Si ,= (es decir, la frecuencia de la fuerza externa no es igual a la frecuencia natural
del sistema) entonces
_
x
0
cos
_
( )s +x
_
ds =
1

_
sen(x) sen(x)

.
Por tanto la soluci on general de la ecuaci on (2.48) es en este caso de la forma
u = C
1
cos(x) +C
2
sen(x) +
F
0

2
sen(x) ,
con C
1
, C
2
constantes. Todas las soluciones de (2.48), aunque no son peri odicas a menos
que / Q, son en este caso acotadas. Por el contrario, si = se tiene
_
x
0
cos
_
( )s +x
_
ds =
_
x
0
cos( x) ds = x cos(x) ,
y por tanto en este caso la soluci on de (2.48) es
u = C
1
cos(x) +C
2
sen(x)
F
0
2
xcos(x) .
En particular, en este caso ninguna soluci on est a acotada cuando x , debido al
ultimo termino. Este es el conocido fenomeno de la resonancia.
En general, no es posible expresar la soluci on general de una ecuaci on lineal de
orden n en terminos de sus coecientes y de las primitivas de dichos coecientes. Sin
embargo, en el caso de la ecuaci on de segundo orden (2.45) si se conoce una soluci on
(no identicamente nula) de la ecuaci on homogenea se puede hallar la soluci on general
de la ecuaci on de partida. En efecto, si (x) es una soluci on particular de la ecuaci on
homogenea asociada a (2.45), y denotamos por u(x) a una soluci on cualquiera de dicha
ecuaci on, entonces la formula de AbelLiouville proporciona la identidad
(x)u

(x) u = k e

_
x
x
0
a
1
(t) dt
siendo k = W[, u](x
0
). Integrando esta ecuaci on diferencial de primer orden para u
obtenemos facilmente
u(x) = c (x) +k (x)
_
x
x
0
1

2
(t)
e

_
t
x
0
a
1
(s) ds
dt .
Esta es la soluci on general de la ecuaci on homogenea asociada a (2.45). En particular,
n otese que (x) y
(x) = (x)
_
x
x
0
1

2
(t)
e

_
t
x
0
a
1
(s) ds
dt (2.49)
forman un sistema fundamental de soluciones de dicha ecuaci on, ya que (por construc-
cion) W[, ](x
0
) = 1 ,= 0.
En el caso de una ecuaci on homogenea (2.39) de orden n > 2, el conocimiento de una
soluci on particular (x) permite reducir la ecuaci on a otra ecuaci on lineal homogenea
de orden n 1 mediante el cambio de variable dependiente
z =
_
u
(x)
_

.
En este caso, tambien se puede probar que si se conocen n 1 soluciones linealmente
independientes de la ecuaci on entonces se puede hallar la soluci on general de la misma.
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 52


2.6 Ecuaciones lineales con coecientes constantes
Veremos en esta secci on como hallar la soluci on general de la ecuaci on lineal (2.35)
cuando los coecientes a
i
(0 i n 1) son constantes. Para ello, consideremos en
primer lugar la ecuaci on homogenea
u
(n)
+a
n1
u
(n1)
+ +a
1
u

+a
0
u = 0 , (2.50)
donde a
0
, . . . , a
n1
son n constantes reales. La matriz compa nera de esta ecuaci on es la
matriz constante
A =
_
_
_
_
_
_
_
_
0 1 0 . . . 0
0 0 1 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0
.
.
. 1
a
0
a
1
a
2
. . . a
n1
_
_
_
_
_
_
_
_
. (2.51)
El polinomio caracterstico de la matriz A se calcula facilmente desarrollando el deter-
minante de A por la ultima la, obteniendose
p
A
() = (1)
n
(
n
+a
n1

n1
+ +a
1
+a
0
) = 0 . (2.52)
Por denicion, al polinomio
p() =
n
+a
n1

n1
+ +a
1
+a
0
(2.53)
se le llama polinomio caracterstico de la ecuaci on (2.50). Los autovalores de la
matriz A son por tanto las races del polinomio caracterstico p(). Sean
1
, . . . ,
m
dichos autovalores (tomados distintos dos a dos), y sea r
i
la multiplicidad algebraica del
autovalor
i
, es decir
p() = (
1
)
r
1
(
m
)
rm
, r
1
+ +r
m
= n.
Es facil ver que el ndice n
i
del autovalor
i
de la matriz A es igual en este caso a su
multiplicidad algebraica r
i
. En efecto, n otese que la igualdad n
i
= r
i
es equivalente a
que el bloque de Jordan del autovalor
i
conste de un s olo bloque de Jordan elemental
J
i
=
_
_
_
_
_

i
1
i
.
.
.
.
.
.
1
i
_
_
_
_
_
M
r
i
(C).
A su vez, esta ultima condici on equivale a que dimker(A
i
) = 1. Pero esto es evi-
dente dada la forma de la matriz A, puesto que la ecuaci on (A
i
)v = 0 determina
completamente las componentes v
2
, . . . , v
n
de v en terminos de v
1
. En efecto,
ker(A
i
) = R
_
1,
i
, . . . ,
n1
i
_
. (2.54)
Por tanto, el sistema lineal y

= Ay asociado a la ecuaci on (2.50) tiene un sistema


fundamental de soluciones (complejas, en general) de la forma
e

i
x
k

j=0
x
j
v
i
r
i
k+j
, 0 k r
i
1 , 1 i m,
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 53


donde los n vectores constantes (en general complejos) v
i
l
(1 l r
i
, 1 i m) forman
una base de Jordan de la matriz A, siendo adem as v
i
r
i
un autovector de A de autovalor

i
. Tomando la primera componente de cada una de las funciones anteriores obtenemos
un sistema fundamental de soluciones de la ecuaci on (2.50) de la forma
e

i
x
k

j=0
x
j
c
i
r
i
k+j
, 0 k r
i1
, 1 i m. (2.55)
donde la constante c
i
l
es la primera componente del vector v
i
l
. Notese que ninguna de
las constantes c
i
r
i
puede anularse, en virtud de (2.54). Utilizando esta propiedad es facil
demostrar por induccion a partir de (2.55) que las n funciones
x
k
e

i
x
, 0 k r
i1
, 1 i m , (2.56)
forman un sistema de generadores del espacio de soluciones de (2.50). Al ser la dimension
de dicho espacio tambien igual a n, las funciones (2.56) forman un sistema fundamental
de soluciones de la ecuaci on homogenea (2.50).
Si
i
R, las r
i
soluciones de la forma anterior correspondientes a este autovalor
son reales. Si
i
= a
i
+ i b
i
con b
i
,= 0, podemos sustituir las 2r
i
soluciones complejas
asociadas a los autovalores
i
y

i
por la parte real y la parte imaginaria de las soluciones
correspondientes al autovalor
i
, obteniendose as las soluciones
x
k
e
a
i
x
cos(b
i
x) , x
k
e
a
i
x
sen(b
i
x) , 0 k r
i
1 . (2.57)
En resumen, hemos probado el siguiente resultado:
La ecuaci on (2.50) tiene un sistema fundamental de soluciones reales formado por
funciones de la forma (2.56) si
i
es una raz real de multiplicidad r
i
del polinomio
caracterstico (2.53), o de la forma (2.57) si a
i
+i b
i
(con b
i
> 0) es una raz compleja
del polinomio caracterstico, tambien de multiplicidad r
i
.
Este resultado se puede probar directamente observando que la ecuaci on (2.50) se puede
escribir en la forma
p(D) u = 0 ,
siendo D el operador derivada:
D =
d
dx
.
De la igualdad
(D )
_
f(x) e
x
_
= f

(x) e
x
se sigue que
(D )
k
_
f(x) e
x
_
= f
(k)
(x) e
x
.
Si
i
es una raz de p de multiplicidad r
i
entonces
p() = q() (
i
)
r
i
,
siendo q() un polinomio de grado nr
i
con q(
i
) ,= 0. Entonces p(D) = q(D)(D
i
)
r
i
,
y por tanto
p(D)(x
k
e

i
x
) = q(D)
_
e

i
x
d
r
i
dx
r
i
x
k
_
= 0 , 0 k r
i
1 ,
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 54


lo que prueba que las funciones (2.56) son soluciones de la ecuaci on (2.50). La indepen-
dencia lineal de las soluciones (2.56)(2.57) tambien se puede probar directamente de
forma sencilla.
Ejemplo 2.17. Hallemos la soluci on general de la ecuaci on de tercer orden con coe-
cientes constantes
u
(IV )
+u

+u

+u = 0 . (2.58)
El polinomio caracterstico asociado a esta ecuaci on es
p() =
4
+
3
+ + 1 = ( + 1)
2
(
2
+ 1) .
Los autovalores son por tanto
1
= 1 (de multiplicidad r
1
= 2) y las races de la
ecuaci on

2
+ 1 = 0 ,
es decir

2,3
=
1
2
_
1 i

3
_
,
de multiplicidad r
2
= r
3
= 1. La soluci on general de la ecuaci on (2.58) es por tanto
u(x) = e
x
(c
1
+c
2
x) + e
x
2
_
c
3
cos
_

3
2
x
_
+c
4
sen
_

3
2
x
_
_
, (2.59)
con c
1
, . . . , c
4
constantes arbitrarias.
2.6.1 Solucion de la ecuacion inhomogenea
Consideremos a continuaci on la ecuaci on inhomogenea con coecientes constantes
u
(n)
+a
n1
u
(n1)
+ +a
1
u

+a
0
u = b(x) . (2.60)
Por supuesto, una vez hallada la soluci on general de la ecuaci on homogenea (2.50) por el
procedimiento que acabamos de explicar, la soluci on general de la ecuaci on homogenea
(2.60) se puede calcular cualquiera que sea el termino inhomogeneo b(x) utilizando
la formula (2.44). Sin embargo, para ciertas formas sencillas, pero que se presentan
frecuentemente en la pr actica, del miembro derecho de la ecuaci on (2.60), el metodo de
los coecientes indeterminados que describiremos a continuaci on permite calcular una
soluci on particular de (2.60) de manera m as sencilla. La soluci on general de (2.60) se
halla entonces sumando a esta soluci on particular la soluci on general de la ecuaci on
homogenea.
Supongamos, en primer lugar, que
b(x) = q(x) e
x
, (2.61)
donde q(x) es un polinomio. Si r es la multiplicidad de como raz del polinomio
caracterstico (2.53) de la ecuaci on homogenea (2.50) (r = 0 si p() ,= 0), entonces
p() = p
0
( )
r
+p
1
( )
r+1
+ + ( )
n
,
con p
i
R (o C, si es complejo) para i = 0 , . . . , n r 1 y p
0
,= 0. Por tanto
p(D)
_
q(x) e
x
_
=
_
p
0
q
(r)
(x) +p
1
q
(r+1)
(x) + + q
(n)
(x)
_
e
x
.
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 55


Luego en este caso la ecuaci on (2.60)(2.61) tiene una soluci on particular de la forma
u
p
(x) = x
r
Q(x) e
x
, (2.62)
con
Q(x) = Q
0
+Q
1
x + +Q
d
x
d
, d = gr q (2.63)
un polinomio de grado igual al grado de q cuyos coecientes se calculan igualando los
coecientes de las potencias de x en la ecuaci on
p
0
(x
r
Q)
(r)
+p
1
(x
r
Q)
(r+1)
+ + (x
r
Q)
(n)
= q .
En efecto, la ecuaci on anterior proporciona un sistema lineal de d + 1 ecuaciones en los
d+1 coecientes de Q, que puede demostrarse siempre es compatible. En la pr actica no
es preciso recordar la ecuaci on anterior, ya que el polinomio Q se calcula simplemente
sustituyendo (2.62) en la ecuaci on (2.60).
Ejemplo 2.18. Hallemos una soluci on particular de la ecuaci on
u
(IV )
+u

+u

+u = xe
x
. (2.64)
Aqu = 1 es un autovalor del polinomio caracterstico de la ecuaci on homogenea
de multiplicidad 2, y q(x) = x es un polinomio de grado 1. Buscamos por tanto una
soluci on particular de la forma
u
p
(x) = x
2
(a +b x) e
x
.
Para calcular p(D) u
p
es conveniente desarrollar p(D) en potencias de D + 1, ya que
(D + 1)
k
_
f(x) e
x
_
= f
(k)
(x) e
x
. Utilizando la formula de Taylor se obtiene
p() = ( + 1)
2
_
3 3( + 1) + ( + 1)
2

.
Por tanto
p(D) u
p
=
_
3(2a + 6bx) 3 6b

e
x
= xe
x
3(2a + 6bx) 18b = x,
lo que conduce a las ecuaciones
6a 18b = 0 , 18b = 1 .
La soluci on particular buscada es por tanto
u
p
(x) =
1
18
(x
3
+ 3 x
2
) e
x
. (2.65)
La soluci on general de la ecuaci on (2.64) es la suma de esta soluci on particular y la
soluci on (2.59) de la ecuaci on homogenea.
Ejemplo 2.19. Hallemos ahora una soluci on particular de la ecuaci on
u
(IV )
+u

+u

+u = x + cos
2
x . (2.66)
Aparentemente, no se puede aplicar el metodo de los coecientes indeterminados a esta
ecuaci on. Sin embargo, podemos escribir el miembro derecho de la misma como
x +
1
2
_
1 + cos(2x)
_
.
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 56


Por linealidad, una soluci on particular de (2.66) es la suma de una soluci on particular
de cada una de las ecuaciones
u
(IV )
+u

+u

+u = x +
1
2
. (2.67)
y
u
(IV )
+u

+u

+u =
1
2
cos(2x) . (2.68)
El miembro derecho de la ecuaci on (2.67) es de la forma (2.61), con = 0, r = 0 (ya
que 0 no es raz del polinomio caracterstico de (2.58)) y q(x) = x +
1
2
. Debemos buscar
por tanto una soluci on particular de la forma
u
1
(x) = a +b x,
lo que conduce a la ecuaci on
b + (a +bx) = x +
1
2
a =
1
2
, b = 1 .
Por tanto, la primera soluci on particular es
u
1
(x) = x
1
2
.
Para encontrar una soluci on particular de (2.68), observese que si u(x) es una soluci on
de
u
(IV )
+u

+u

+u =
1
2
e
2ix
. (2.69)
entonces u
2
= Re u es una soluci on de (2.68). El miembro derecho de (2.69) es de nuevo
de la forma (2.61), con = 2 i, r = 0 y q(x) =
1
2
. Esta ecuaci on posee por tanto una
soluci on particular de la forma
u(x) = c e
2ix
.
Sustituyendo en la ecuaci on se obtiene
(16 8i + 2i + 1)c =
1
2
,
de donde
c =
1
2(17 6i)
=
17 + 6i
650
.
Por tanto
u(x) =
17 + 6i
650
e
2ix
y
u
2
(x) = Re u(x) =
1
650
_
17 cos(2x) 6 sen(2x)

.
Una soluci on particular de la ecuaci on (2.66)es por tanto
u
p
(x) = u
1
(x) +u
2
(x) = x
1
2
+
1
650
_
17 cos(2x) 6 sen(2x)

.
Esta claro, en denitiva, que aplicando el metodo de los coecientes indeterminados
se puede hallar de manera sencilla una soluci on particular de (2.60) si b(x) es de la forma
b(x) =
N

i=1
_
q
i
(x) e

i
x
+r
i
(x) e
a
i
x
cos(b
i
x) +s
i
(x) e
c
i
x
sen(d
i
x)

,
siendo
i
, a
i
, b
i
, c
i
, d
i
constantes reales y q
i
, r
i
, s
i
polinomios.
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 57


2.7 Estabilidad de sistemas y ecuaciones lineales
Consideraremos en esta secci on el problema de valor inicial para un sistema de ecuaciones
diferenciales de primer orden (no necesariamente lineal)
y

= f(x, y)
y(x
0
) =
(2.70)
Supongamos que para = y
0
el problema (2.70) tiene una soluci on unica Y (x; y
0
) en la
semirrecta [x
0
, ). Diremos que dicha soluci on es estable si:
i) Existe un R > 0 tal que si | y
0
| < R el problema (2.70) tiene una soluci on
unica Y (x; ) en el intervalo [x
0
, )
ii) Para todo > 0 existe 0 < < R tal que
| y
0
| < = |Y (x; ) Y (x; y
0
)| < , x x
0
. (2.71)

y
0
+
y
0

y
0
Y (x; y
0
)
x
0
x
Figura 2.1: Estabilidad de la soluci on Y (x; y
0
).
La soluci on Y (x; y
0
) se dice asint oticamente estable si es estable, y adem as existe
0 < r < R tal que
| y
0
| < r = lim
x
|Y (x; ) Y (x; y
0
)| = 0 . (2.72)
Nota. En general, la condici on (2.72) por si s ola no basta para garantizar la estabilidad
asintotica de la soluci on Y (x; y
0
), ya que (2.72) no implica en general (2.71) (excepto
si f es una funcion afn de y, o si y R y f es continua y lipschitziana respecto de la
segunda variable).
Aunque la denicion de estabilidad es valida para un sistema de ecuaciones diferen-
ciales de primer orden arbitrario, las propiedades de estabilidad de las soluciones de los
sistemas lineales son particularmente sencillas, y por ello merecen un estudio especial.
La propiedad fundamental de los sistemas lineales es que todas sus soluciones tienen
el mismo tipo de estabilidad:
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 58

y
0
+
y
0

y
0
Y (x; y
0
)
x
0
x
Figura 2.2: Estabilidad asintotica ( r).
Proposici on 2.20. Una soluci on cualquiera del sistema lineal
y

= A(x) y +b(x) (2.73)


(con A : I M
n
(R), b : I R
n
continuas en el intervalo I = [x
0
, )) es estable
(resp. asint oticamente estable) si y s olo si la solucion trivial y(x) = 0 del sistema
homogeneo asociado es estable (resp. asint oticamente estable).
Demostraci on. En primer lugar, la continuidad de A y b en el intervalo [x
0
, ) garantiza
la existencia y unicidad de soluciones del problema de valor inicial asociado al sistema
(2.73) para todo dato inicial y(x
0
) = . Sea Y (x; ) la soluci on de (2.73) con dato inicial
Y (x
0
; ) = , y denotemos por Y
0
(x; ) la soluci on del problema de valor inicial para
el sistema homogeneo correspondiente a (2.73) con la condici on inicial Y
0
(x
0
; ) = .
Entonces Y (x; ) Y (x; y
0
) es una soluci on del sistema homogeneo asociado a (2.73)
con dato inicial
Y (x
0
; ) Y (x
0
; y
0
) = y
0
.
Por unicidad,
Y (x; ) Y (x; y
0
) = Y
0
(x; y
0
) ,
de donde se sigue el enunciado. Q.E.D.
Debido a este resultado, diremos que un sistema lineal es estable (resp. asintoti-
camente estable) si todas sus soluciones son estables (resp. asint oticamente estables)
o, equivalentemente, si la soluci on trivial del sistema homogeneo asociado es estable
(resp. asint oticamente estable). Notese, en particular, que un sistema lineal tiene el mis-
mo tipo de estabilidad que el sistema homogeneo asociado.
Proposici on 2.21. El sistema lineal homogeneo
y

= A(x) y (2.74)
es estable si y s olo si todas sus soluciones son acotadas en [x
0
, ).
Demostraci on.
=) Si el sistema es estable, la soluci on trivial es estable, y por tanto existe > 0
tal que (por ejemplo)
|Y
0
(x; )| < 1 , x x
0
, || < .
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 59


Entonces para todo x x
0
se tiene
|Y
0
(x; y
0
)| =
_
_
_
_
Y
0
_
x;
y
0
1 +|y
0
|
1 +|y
0
|

_
_
_
_
_
=
1 +|y
0
|

_
_
_
_
Y
0
_
x;
y
0
1 +|y
0
|
_
_
_
_
_
<
1 +|y
0
|

.
=) Si todas las soluciones son acotadas para todo x x
0
se tiene
|Y
0
(x; e
i
)| < M
i
, 1 i n.
Pero entonces se tiene
|Y
0
(x; )| =
_
_
_
_
_
n

i=1

i
Y
0
(x; e
i
)
_
_
_
_
_

i=1
[
i
[ M
i

_
n

i=1
M
i
_
|| .
Esto implica facilmente que la soluci on trivial del sistema, y por tanto dicho sistema, es
estable. Q.E.D.
Nota. Si el sistema homogeneo (2.74) es estable y sus coecientes son continuos en R,
de modo que las soluciones de dicho sistema est an denidas en todo R, dichas soluciones
no tienen por que estar acotadas en el intervalo (, x
0
].
Ejercicio. Probar que un sistema lineal con coecientes continuos es asintoticamente
estable si y s olo si toda soluci on y(x) del sistema homogeneo asociado tiende a 0 cuando
x .
La Proposici on 2.21 no es cierta para sistemas m as generales, ni siquiera para sis-
temas lineales inhomogeneos (2.73). Las propiedades de estabilidad del sistema lineal
inhomogeneo (2.73) se pueden resumir en los siguientes enunciados:
i) La estabilidad de (2.73) no implica la acotacion de sus soluciones. Sin embargo, si
(2.73) es estable entonces o bien todas sus soluciones son acotadas, o bien todas
ellas son no acotadas.
ii) Si todas las soluciones de (2.73) son acotadas, entonces el sistema es estable.
Estos resultados se prueban facilmente teniendo en cuenta que cualquier soluci on de
(2.73) es la suma de una soluci on particular m as una soluci on arbitraria del sistema
homogeneo asociado (2.74).
Estudiemos a continuaci on la estabilidad de un sistema lineal con matriz de coe-
cientes constante
y

= Ay +b(x) . (2.75)
La estabilidad de este sistema depende, por la Proposici on 2.20, de la estabilidad de la
soluci on trivial del sistema homogeneo con coecientes constantes
y

= Ay . (2.76)
Por el Teorema 2.8, la soluci on general de (2.76) se puede escribir
y(x) =
m

i=1
n
i
1

k=0
v
ik
x
k
e

i
x
, (2.77)
donde
1
, . . . ,
m
C son los autovalores de la matriz A, n
i
es el ndice del autovalor

i
, y v
ik
C
n
. Los vectores v
ik
con 0 k n
i
1 son reales si el autovalor
i
es real, y
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 60


v
ik
= v
jk
para k = 0 , . . . , n
i
1 = n
j
1 si
i
=

j
es un par de autovalores complejos
conjugados. Aplicando la desigualdad triangular se obtiene
|y(x)|
m

i=1
n
i
1

k=0
|v
ik
| [x[
k
e
(Re
i
)x
. (2.78)
En esta formula | | denota la norma en C
n
, denida por
|z| =
_
n

i=1
[z
i
[
2
_
1/2
,
donde z = (z
1
, . . . , z
n
) C
n
y [z
i
[ es el m odulo de z
i
. De (2.78) se sigue que si
Re
i
< 0 , i = 1, . . . , m ,
entonces todas las soluciones de (2.76) son acotadas para x x
0
, y adem as se tiene
lim
x
|y(x)| = 0 .
Esto implica que la soluci on trivial de (2.76), y por tanto el sistema (2.75), es asint oti-
camente estable.
Supongamos a continuaci on que
Re
i
> 0 , para alg un i = 1, . . . , m .
Entonces (2.76) tiene una soluci on de la forma
y(x) = v e

i
x
, si
i
R,
o
y(x) = e
(Re
i
)x
_
v cos(Im
i
x) +w sen(Im
i
x)
_
, si Im
i
,= 0
(con v, w R
n
, v
2
+w
2
,= 0). Como y(x) no est a acotada en [x
0
, ) (al ser Re
i
> 0),
el sistema homogeneo (2.76), y por tanto tambien (2.75), es inestable.
Supongamos ahora que
Re
i
= 0 para i = 1, . . . , j y Re
i
< 0 para i = j + 1, . . . , m .
Si
n
i
= 1 , i = 1, . . . , j ,
entonces (2.78) se reduce a
|y(x)|
j

i=1
|v
i0
| +
m

i=j+1
n
i
1

k=0
|v
ik
| [x[
k
e
(Re
i
)x
. (2.79)
Esto muestra que toda soluci on de (2.76) est a acotada, y por tanto el sistema (2.75) es
estable. Sin embargo, (2.75) no es asintoticamente estable, ya que si i = 1, . . . , j posee
soluciones de la forma
v cos(Im
i
x) +w sen(Im
i
x) (v, w R
n
, v
2
+w
2
,= 0)
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 61


(esta soluci on se reduce a una constante si Im
i
= 0), que no tienden a 0 si x .
Por el contrario, si
n
i
> 1 para alg un i = 1, . . . , j
entonces el sistema (2.75) es inestable. En efecto, en este caso el sistema homogeneo
(2.76) posee alguna soluci on no acotada de la forma
n
i
1

k=0
x
k
k!
_
u
ik
cos(Im
i
x) +w
ik
sen(Im
i
x)

(u
ik
, w
ik
R
n
, u
2
ik
+w
2
ik
,= 0)
(i 1, . . . , j), en virtud de la ecuaci on (2.25). (Notese que u
2
ik
+ w
2
ik
,= 0 porque
w
ik
+ i u
ik
pertenece a la base de Jordan de A.)
Esto prueba por tanto el siguiente resultado:
i ) Si todos los autovalores de la matriz A tienen parte real negativa, el sistema
(2.75) es asint oticamente estable
ii ) Si alg un autovalor de A tiene parte real positiva, el sistema (2.75) es inestable
iii ) Si todos los autovalores de A tienen parte real no positiva, el sistema (2.75) es
estable (pero no asintoticamente estable) si los ndices de todos los autovalores
con parte real nula son iguales a uno, e inestable en caso contrario.
Nota. Observese que la condici on n
i
= 1 es equivalente a que la multiplicidad algebraica
del autovalor
i
sea igual a su multiplicidad geometrica (es decir, a que J
i
=
i
1).
Se dene la estabilidad de las soluciones de una ecuaci on escalar de orden n en
terminos de las correspondientes soluciones del sistema de primer orden asociado. En
particular, para la ecuaci on lineal
u
(n)
+a
n1
(x) u
(n1)
+ +a
1
(x) u

+a
0
(x) u = b(x)
(con a
i
, b : I R continuas en I = [x
0
, )) una soluci on es estable (resp. asintoticamen-
te estable) si y s olo si lo es la soluci on trivial del sistema homogeneo correspondiente.
Podemos hablar por tanto de ecuaciones lineales estables, asintoticamente estables, o
inestables. Si todos los coecientes a
i
(0 i n 1) son constantes, el resultado que
acabamos de probar para un sistema lineal de primer orden con matriz de coecientes
constante implica que en este caso la ecuaci on es asint oticamente estable si todas las
races del polinomio caracterstico tienen parte real negativa, estable (pero no asintoti-
camente estable) si todas las races tienen parte real no positiva, y los que tienen parte
real cero son simples, e inestable en cualquier otro caso (en particular, si alguna raz
tiene parte real positiva). En efecto, hemos visto en la Secci on 2.6 que el ndice de los
autovalores del sistema lineal de primer orden asociado a una ecuaci on lineal homogenea
con coecientes constantes de orden n es igual a la multiplicidad de dichos autovalores
como races del polinomio caracterstico.
Ejemplo 2.22. Estudiemos la estabilidad del sistema
y

1
= y
2
y

2
= y
1
y

3
= y
4
y

4
= 2y
1
+y
3
.
(2.80)
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 62


La matriz de coecientes es en este caso
A =
_
_
_
_
0 1 0 0
1 0 0 0
0 0 0 1
2 0 1 0
_
_
_
_
.
El polinomio caracterstico es
p
A
() =

1 0 0
1 0 0
0 0 1
2 0 1

1
1

1
1

= (
2
+ 1)
2
,
por tanto los autovalores son

1
= i ,
2
= i ,
ambos de multiplicidad algebraica 2. El sistema no puede ser asintoticamente esta-
ble (ning un autovalor tiene parte real negativa), y ser a estable s olo si la multiplicidad
geometrica de cada uno de los autovalores es 2, es decir si
dimker(A i) = 2 ,
o, equivalentemente, si y s olo si
rank(A i) = 4 2 = 2 ,
Como (por ejemplo)
A i =
_
_
_
_
i 1 0 0
1 i 0 0
0 0 i 1
2 0 1 i
_
_
_
_

_
_
_
_
i 1 0 0
0 0 0 0
0 0 i 1
0 2i 1 i
_
_
_
_

_
_
i 1 0 0
0 2i 1 i
0 0 i 1
_
_
,
la matriz A i tiene rango 3, y por tanto el sistema (2.80) es inestable.
2.7.1 Criterio de RouthHurwitz
El criterio de estabilidad de un sistema o ecuaci on lineal con coecientes constantes que
acabamos de deducir requiere conocer las races del polinomio caracterstico del siste-
ma o ecuaci on considerado. Aunque el calculo aproximado de estas races no presenta
ning un problema, el calculo exacto es difcil para polinomios de grado 3 y 4, y en general
imposible para polinomios de grado superior. Sera por tanto deseable disponer de alg un
criterio de estabilidad formulado exclusivamente en terminos de los coecientes del sis-
tema o ecuaci on, particularmente cuando dichos coecientes dependen de par ametros.
El caso m as interesante en la pr actica, y por tanto el m as estudiado, es el de estabi-
lidad asintotica. Diremos por tanto que un polinomio es estable si todas sus races
tienen parte real negativa. En lo que queda de secci on s olo consideraremos polinomios
m onicos, lo que no supone ninguna perdida de generalidad y simplica los criterios que
formularemos a continuaci on.
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 63


Es facil deducir una condici on necesaria para que un polinomio sea estable. En efecto,
si las races (no necesariamente distintas) son
1
, . . . ,
r
y
1
i
1
, . . . ,
s
i
s
con
i
> 0,
i
> 0,
i
R y r +s = n, entonces el polinomio se puede escribir
p(t) = (t +
1
) (t +
r
)[(t +
1
)
2
+
2
1
] [(t +
s
)
2
+
2
s
]
= (t +
1
) (t +
r
)(t
2
+ 2
1
t +
2
1
+
2
1
) (t
2
+ 2
s
t +
2
s
+
2
s
) . (2.81)
Es evidente de esta formula que todos los coecientes de p son estrictamente positivos.
Por tanto, una condici on necesaria para que el polinomio
p(t) = t
n
+a
n1
t
n1
+ +a
1
t +a
0
(2.82)
sea estable es que
a
i
> 0 , i = 0, 1, . . . , n 1 .
Esta condici on no es, en general, suciente (excepto para polinomios de grado 2). El cri-
terio que formularemos a continuaci on proporciona una condici on necesaria y suciente
para la estabilidad del polinomio (2.82):
Criterio de RouthHurwitz. Una condici on necesaria y suciente para que el poli-
nomio (2.82) sea estable es que todos los menores principales del siguiente determinante
sean positivos:

a
n1
1 0 0 . . . 0 0
a
n3
a
n2
a
n1
1 . . . 0 0
a
n5
a
n4
a
n3
a
n2
. . . 0 0
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
0 0 0 0 . . . a
1
a
2
0 0 0 0 . . . 0 a
0

. (2.83)
Adem as, si alguno de dichos menores es negativo el polinomio (2.82) tiene alguna raz
con parte real positiva.
El criterio de RouthHurwitz proporciona condiciones necesarias y sucientes de
estabilidad muy sencillas para valores peque nos de n. Por ejemplo, para n = 2 dichas
condiciones se reducen a
a
1
> 0 ,

a
1
1
0 a
0

= a
0
a
1
> 0 ,
es decir
a
0
> 0 , a
1
> 0 .
Para n = 3 el determinante (2.83) es

a
2
1 0
a
0
a
1
a
2
0 0 a
0

,
y por tanto el criterio de RouthHurwitz proporciona las condiciones
a
2
> 0 , a
1
a
2
a
0
> 0 , a
0
(a
1
a
2
a
0
) > 0 ,
o bien
a
0
> 0 , a
2
> 0 , a
1
a
2
a
0
> 0 . (2.84)
CAP

ITULO 2. ECUACIONES Y SISTEMAS LINEALES 64


Es claro que estas condiciones implican que a
1
> 0. Finalmente, para n = 4 hay que
considerar el determinante

a
3
1 0 0
a
1
a
2
a
3
1
0 a
0
a
1
a
2
0 0 0 a
0

,
y las condiciones de RouthHurwitz son por tanto
a
3
> 0 , a
2
a
3
a
1
> 0 , H a
1
(a
2
a
3
a
1
) a
0
a
2
3
> 0 , a
0
H > 0
o bien
a
0
> 0 , a
3
> 0 , a
2
a
3
a
1
> 0 , a
1
a
2
a
3
a
2
1
a
0
a
2
3
> 0 .
De nuevo, es facil ver que estas condiciones implican que a
1
, a
2
> 0.
Ejemplo 2.23. Consideremos el sistema lineal
x

= 2x +y
y

= z
z

= a x 5z ,
(2.85)
donde (x, y, z) son las variables dependientes, a R es un par ametro, y denotaremos
por t a la variable independiente. El polinomio caracterstico del sistema es

2 1 0
0 1
a 0 5

=
3
7
2
10 a .
Para determinar la estabilidad del sistema (2.85), debemos por tanto estudiar el polino-
mio
p() =
3
+ 7
2
+ 10 +a . (2.86)
Una condici on necesaria para que haya estabilidad asintotica es por tanto que el par ame-
tro a sea positivo. Las condiciones de RouthHurwitz (2.84), necesarias y sucientes para
la estabilidad asintotica del sistema, son en este caso
0 < a < 70 . (2.87)
La regi on de estabilidad (asintotica) en el espacio de par ametros (la recta real) es por
tanto el intervalo (0, 70). Del criterio de RouthHurwitz tambien se sigue que si a < 0
o a > 70 el sistema es inestable. Si a = 0 el polinomio (2.86) tiene una raz simple
igual a 0 y 2 races reales negativas, y por tanto el sistema (2.85) es estable (pero
no asintoticamente estable). Si a = 70, ha de haber alguna raz de p con parte real
nula. En efecto, si no fuera este el caso habra alguna raz con parte real positiva, ya
que el sistema no puede ser asintoticamente estable para a = 70 por no cumplirse las
condiciones necesarias y sucientes de estabilidad asint otica (2.87). Dicha raz tendra
entonces parte real negativa para a < 70 y positiva para a = 70, por lo que sera una
funcion discontinua de a para a = 70, lo cual es imposible. En efecto, se demuestra que
las races de un polinomio son funciones continuas de los coecientes de dicho polinomio
para todos los valores de dichos coecientes para los cuales las races son simples (teorema
de la funcion implcita). (Notese que para a = 70 las races de p son todas simples, ya
que p y p

no tienen races comunes para dicho valor de a.) Como 0 no es raz de p para
a = 70, en este caso p tiene dos races complejas conjugadas i y una raz real < 0
( no puede ser positiva por el razonamiento anterior). Por tanto, para a = 70 el sistema
(2.85) es estable (pero no asintoticamente estable).
Captulo 3
Soluciones en forma de serie
3.1 Puntos regulares
Nos dedicaremos en este captulo al estudio de la ecuaci on lineal homogenea de segundo
orden
u

+a
1
(x) u

+a
0
(x) u = 0 , (3.1)
aunque los metodos que vamos a introducir a continuaci on se generalizan sin dicultad
a ecuaciones lineales homogeneas de orden n > 2. En general, salvo en casos muy
particulares (por ejemplo, si los coecientes a
i
son constantes), es imposible resolver
exactamente la ecuaci on (3.1), es decir expresar su soluci on general en terminos de sus
coecientes y las primitivas de dichos coecientes.
Ejemplo 3.1. La ecuaci on de Schr odinger (independiente del tiempo) para una partcu-
la cu antica unidimensional de masa m sometida a un potencial V (s) en un estado esta-
cionario de energa E es


2
2m

(s) +
_
V (s) E
_
(s) = 0 , (3.2)
siendo 1,055 10
34
J s la constante de Planck reducida y (s) la amplitud de la
densidad de probabilidad (en general compleja) de la partcula. En otras palabras, la
probabilidad de encontrar la partcula en el intervalo [a, b] es
_
b
a
[(s)[
2
ds. La ecuaci on
anterior es una ecuaci on lineal homogenea de segundo orden, que se puede escribir en la
forma reducida

(s) +
_
U(s)
_
(s) = 0 , (3.3)
siendo
=
2mE

2
, U(s) =
2m

2
V (s) . (3.4)
Supongamos, en primer lugar, que la partcula se mueve en un campo de fuerzas cons-
tante F > 0. Entonces V (s) = Fs, y por tanto
U(s) = U
0
s , U
0
=
2mF

2
> 0 .
Efectuando el cambio de variable
x = U
2/3
0
( +U
0
s) , u(x) = (s)
65
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 66


(el signo menos se debe a razones hist oricas) se obtiene la ecuaci on de Airy
u

xu = 0 . (3.5)
Esta ecuaci on no se puede resolver en terminos de funciones elementales. De hecho, su
soluci on general se expresa en terminos de funciones de Airy (que a su vez se pueden
escribir en terminos de funciones de Bessel).
Consideremos ahora el oscilador arm onico cu antico, para el cual el potencial es
V (s) =
1
2
m
2
s
2
.
La ecuaci on de Schr odinger reducida es por tanto

+
_

_
m

_
2
s
2
_
= 0 .
Efectuando el cambio
x =
_
m

s , u(x) = (s)
se obtiene la ecuaci on de Weber
u

+ ( x
2
)u = 0 , (3.6)
siendo
=

m
=
2E

.
De nuevo, para valores arbitrarios de la soluci on general de la ecuaci on anterior no es
expresable en terminos de funciones elementales, sino a traves de funciones cilndricas
parabolicas. Sin embargo, si = 2m + 1 con m = 0, 1, 2, . . . entonces la ecuaci on (3.6)
tiene una soluci on particular de la forma
u(x) = e

x
2
2
P
m
(x) ,
siendo P
m
un polinomio de grado m llamado el m-esimo polinomio de Hermite. Observese
que si = 2m+ 1 entonces
E =
_
m+
1
2
_

es la energa del (m + 1)-esimo estado ligado (de energa bien denida) del oscilador.
3.1.1 Funciones analticas
Recuerdese que una funcion f : R R se dice analtica en el punto x
0
R si f es la
suma de una serie de potencias convergente en la variable x x
0
, es decir si
f(x) =

i=0
c
i
(x x
0
)
i
, (3.7)
siendo el radio de convergencia R de la serie anterior positivo. En lo que sigue utiliza-
remos las siguientes propiedades bien conocidas de las series de potencias:
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 67


La serie de potencias (3.7) converge absolutamente en su intervalo de convergencia
(x
0
R, x
0
+ R), siendo la convergencia uniforme en cada subintervalo cerrado
contenido en el intervalo de convergencia.
Una serie de potencias es innitas veces derivable en su intervalo de convergencia,
y sus derivadas se pueden calcular derivando termino a termino la serie. De esta
propiedad se deduce facilmente la f ormula de Taylor para los coecientes de la
serie:
c
k
=
f
(k)
(x
0
)
k!
, k = 0, 1, 2, . . . . (3.8)
De la propiedad anterior se sigue inmediatamente que una funcion f : R R es
analtica en x
0
si es C

en un entorno de x
0
, y la serie de Taylor de f converge a
f en un entorno de dicho punto.
Si f, g : R R son analticas en x
0
, las funciones f + g (con , R) y f g
son analticas en x
0
. Si, adem as, g(x
0
) ,= 0, el cociente f/g es analtico en x
0
.
Ejemplo 3.2. La funcion f(x) = x

(con R) s olo es analtica en x = 0 si


N 0. En efecto, para cualquier otro valor de las derivadas de la funcion de orden
mayor que son singulares en el origen. De hecho, f no est a ni siquiera bien denida
para x < 0 a menos que no sea un racional p/q con p, q Z primos entre s y q impar.
La funcion g(x) = [x[

est a denida en toda la recta real para 0, pero no es C

(y
por tanto tampoco analtica) en x = 0 si no es un entero no negativo par.
Ejemplo 3.3. Existen funciones C

que no son analticas. Por ejemplo, la funcion


f : R R dada por
f(x) =
_
e
1/x
2
, x ,= 0
0 , x = 0
es C

en R, pero no es analtica en el origen (todas sus derivadas en el origen se anulan).


Denicion 3.4. Diremos que x
0
R es un punto regular de la ecuaci on (3.1) si los
coecientes a
0
(x) y a
1
(x) son funciones analticas en el punto x
0
.
En otras palabras, tanto a
0
como a
1
admiten desarrollos en serie de potencias de xx
0
a
k
(x) =

i=0
a
k,i
(x x
0
)
i
, k = 0, 1 ,
con radios de convergencia positivos R
0
y R
1
, respectivamente. Tomando, por tanto,
R = min(R
0
, R
1
) > 0 ambas series convergen simult aneamente para [x x
0
[ < R.
Ejemplo 3.5. Si los coecientes de la ecuaci on (3.1) son polinomios en la variable
independiente todo punto es regular para dicha ecuaci on. Esto es lo que ocurre, por
ejemplo, para las ecuaciones de Airy y de Hermite.
Ejemplo 3.6. Estudiemos cu ales son los puntos regulares de la ecuaci on lineal ho-
mogenea de segundo orden
(e
x
1)u

+x
2
u

+ sen xu = 0 . (3.9)
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 68


Para ello, debemos primero escribir la ecuaci on en la forma (3.1), es decir
u

+
x
2
e
x
1
u

+
sen x
e
x
1
u = 0 .
Los coecientes de la ecuaci on son por tanto
a
0
(x) =
sen x
e
x
1
, a
1
(x) =
x
2
e
x
1
.
En primer lugar, ambas funciones son C

en R 0, ya que si x R e
x
1 s olo se
anula en x = 0. Como el numerador y el denominador que denen a a
0
y a
1
son funciones
analticas en todo punto, y el cociente de funciones analticas es una funcion analtica
en los puntos donde no se anula el denominador, concluimos que a
0
y a
1
son analticas
en cualquier punto x
0
,= 0. Por tanto x
0
,= 0 es un punto regular de la ecuaci on (3.9).
En cuanto al punto x = 0, aunque el denominador e
x
1 se anula en este punto,
ocurre lo mismo con los numeradores sen x y x
2
. De hecho, deniendo (como es habitual)
a
0
(0) = lim
x0
a
0
(x) = lim
x0
cos x
e
x
= 1 , a
1
(0) = lim
x0
a
1
(x) = lim
x0
2x
e
x
= 0 ,
los coecientes a
k
son funciones analticas en x = 0. En efecto,
a
0
(x) =

i=0
(1)
i
x
2i+1
(2i + 1)!

i=1
x
i
i!
=

i=0
(1)
i
x
2i
(2i + 1)!

i=0
x
i
(i + 1)!
,
siendo tanto el numerador como el denominador funciones analticas en R (series con-
vergentes de potencias de x con radio de convergencia innito; aplquese, por ejemplo, el
criterio del cociente). Como la serie en el denominador no se anula (vale 1) para x = 0,
el cociente a
0
(x) es analtico en x = 0. Analogamente,
a
1
(x) =
x
2

i=1
x
i
i!
=
x

i=0
x
i
(i + 1)!
,
es de nuevo el cociente de dos series de potencias de x convergentes en toda la recta
real, con denominador distinto de cero en el origen. Luego tambien el origen es un
punto regular de la ecuaci on (3.9), y por tanto todos los puntos son regulares para esta
ecuaci on.
Cual es el radio de convergencia de las series de Taylor de a
0
y a
1
centradas en
el punto x
0
? En principio parece difcil responder a esta pregunta, ya que no es facil
obtener la expresi on general de los coecientes en estos desarrollos. Sin embargo, para
calcular el radio de convergencia lo mejor es considerar a las funciones a
0
y a
1
en el
plano complejo, es decir
a
0
(z) =
sen z
e
z
1
, a
1
(z) =
z
2
e
z
1
, z C,
ya que puede probarse que el radio de convergencia de una serie de potencias en R no
vara cuando se considera dicha serie en el plano complejo. Las funciones a
0
y a
1
(con
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 69


a
0
(0) y a
1
(0) denidos como antes) son analticas en todo el plano complejo excepto en
los puntos
z
k
= 2ki , k Z 0 ,
pues en estos puntos se anula el denominador en las expresiones que denen a
0
y a
1
,
mientras que el numerador es distinto de cero. El radio de convergencia del desarrollo
de a
i
(z) en serie de potencias de z z
0
(i = 0, 1, z
0
C) es la distancia de z
0
a la
singularidad m as pr oxima de la funcion a
i
, ya que a
k
no est a acotada en un entorno de
dicha singularidad. Aplicando este resultado a un punto x
0
R obtenemos facilmente
las formulas
R
0
= R
1
=
_
4
2
+x
2
0
,
ya que las singularidades m as pr oximas de las funciones a
0
o a
1
a un punto del eje real
son los puntos 2i. Por tanto en este caso R = min(R
0
, R
1
) est a dado por la formula
anterior. En particular, para x
0
= 0 obtenemos R = 2.
Teorema 3.7. Si x
0
es un punto regular de la ecuaci on (3.1), toda soluci on de dicha
ecuaci on es una funci on analtica en el punto x
0
, siendo el radio de convergencia de
su serie de Taylor centrada en el punto x
0
mayor o igual que el mnimo de los radios
de convergencia de las series de Taylor centradas en x
0
para a
0
y a
1
.
En otras palabras, si x
0
es un punto regular para la ecuaci on (3.1) y R es el mnimo
de los radios de convergencia de las series de Taylor centradas en x
0
de los coecientes
de dicha ecuaci on, toda soluci on u(x) admite un desarrollo en serie de potencias
u(x) =

i=0
c
i
(x x
0
)
i
(3.10)
convergente para [x x
0
[ < R. Los coecientes c
i
R (i = 0, 1, . . . ) de este desarrollo
se calculan sustituyendo la serie anterior en la ecuaci on diferencial e igualando a cero los
coecientes de las potencias de x en la expresi on resultante. Notese que para calcular u

y u

podemos derivar la serie (3.10) termino a termino, por las propiedades de las series
de potencias. Por ejemplo, el teorema anterior permite asegurar que las soluciones de la
ecuaci on (3.9) son analticas en el origen con radio de convergencia 2, es decir pueden
representarse por una serie de Maclaurin
u(x) =

i=0
c
i
x
i
convergente para [x[ < 2.
Ejemplo 3.8. Consideremos la ecuaci on con coecientes constantes
u

u = 0 . (3.11)
Todo punto x
0
R es regular para esta ecuaci on, con radio de convergencia R = (ya
que los coecientes son funciones constantes). Por tanto las soluciones de esta ecuaci on
son funciones analticas en todo R. Desarrollemos, por ejemplo, alrededor de x
0
= 0.
Sustituyendo la serie (3.10) (con x
0
= 0) en la ecuaci on (3.11) obtenemos

i=2
i(i 1)c
i
x
i2

i=0
c
i
x
i
=

i=0
[(i + 2)(i + 1)c
i+2
c
i
] x
i
= 0 .
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 70


Igualando a cero el coeciente de x
i
en esta expresi on obtenemos la siguiente relaci on
de recurrencia que han de satisfacer los coecientes c
i
:
(i + 2)(i + 1)c
i+2
= c
i
, i = 0, 1, 2, . . . . (3.12)
La relaci on anterior determina los coecientes pares en terminos de c
0
y los impares
en terminos de c
1
, ya que relaciona c
i
con c
i+2
(n otese que el coeciente de c
i+2
en
(3.12) no se anula para ning un i = 0, 1, . . . ). Los coecientes c
0
= u(0) y c
1
= u

(0)
quedan completamente indeterminados por la relaci on de recurrencia (3.12), lo cual es
razonable, dado que la ecuaci on (3.11) debe tener una soluci on para todo valor de las
condiciones iniciales u(0) = c
0
y u

(0) = c
1
. La relaci on de recurrencia (3.12) se resuelve
facilmente. En efecto, si c
0
,= 0 podemos escribir
c
2k
c
0
=
c
2k
c
2k2
c
2k2
c
2k4
. . .
c
2
c
0
=
1
2k(2k 1)
1
(2k 2)(2k 3)
. . .
1
2 1
=
1
(2k)!
= c
2k
=
c
0
(2k)!
,
expresi on que es obviamente valida tambien si c
0
= 0. Analogamente, si c
1
,= 0 entonces
c
2k+1
c
1
=
c
2k+1
c
2k1
c
2k1
c
2k3
. . .
c
3
c
1
=
1
(2k + 1)(2k)
1
(2k 1)(2k 2)
. . .
1
3 2
=
1
(2k + 1)!
= c
2k+1
=
c
1
(2k + 1)!
,
que de nuevo vale tambien para c
1
= 0 en virtud de (3.12). La soluci on general de la
ecuaci on (3.12) es por tanto
u(x) = c
0

k=0
x
2k
(2k)!
+c
1

k=0
x
2k+1
(2k + 1)!
= c
0
cosh x +c
1
senhx.
Ejemplo 3.9. Consideremos a continuaci on la ecuaci on de Airy (3.5), para la cual todos
los puntos son regulares y con radio de convergencia innito (pues los coecientes son
polinomios). Desarrollando de nuevo alrededor de x
0
= 0 obtenemos la ecuaci on

i=2
i(i 1)c
i
x
i2

i=0
c
i
x
i+1
= 2c
2
+

i=1
[(i + 2)(i + 1)c
i+2
c
i1
] x
i
= 0 .
Igualando a cero los coecientes de las potencias de x obtenemos
c
2
= 0 (3.13)
junto con la relaci on de recurrencia
(i + 2)(i + 1)c
i+2
= c
i1
, i = 1, 2, . . . . (3.14)
Notese que ahora la relaci on de recurrencia relaciona c
k
con c
k+3
. De esta propiedad y
la ecuaci on (3.13) se sigue que
c
3k+2
= 0 , k = 0, 1, 2, . . . . (3.15)
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 71


Ahora c
0
determina todos los coecientes de ndice m ultiplo de 3, mientras que c
1
de-
termina los coecientes c
3k+1
con k = 0, 1, 2 . . . . Mas concretamente, para calcular c
3k
reescribamos la relaci on de recurrencia (3.14) en la forma
3
2
k
_
k
1
3
_
c
3k
= c
3k3
.
Si c
0
,= 0 se tiene
c
3k
c
0
=
c
3k
c
3k3
c
3k3
c
3k6
. . .
c
3
c
0
=
3
2
k
_
k
1
3
_
3
2
(k 1)
_
k
4
3
_
3
2
1
2
3
= c
3k
=
3
2k
c
0
k!
2
3

5
3

_
k
1
3
_ ,
relaci on valida tambien para c
0
= 0. Analogamente, de (3.14) se sigue que
3
2
k
_
k +
1
3
_
c
3k+1
= c
3k2
,
y por tanto si c
1
,= 0 se verica
c
3k+1
c
1
=
c
3k+1
c
3k2
c
3k2
c
3k5
. . .
c
4
c
1
=
3
2
k
_
k +
1
3
_
3
2
(k 1)
_
k
2
3
_
3
2
1
4
3
= c
3k+1
=
3
2k
c
1
k!
4
3

7
3

_
k +
1
3
_ .
Por consiguiente la soluci on general de la ecuaci on de Airy est a dada por
u(x) = c
0

k=0
x
3k
3
k
k! 2 5 (3k 1)
+c
1
x

k=0
x
3k
3
k
k! 4 7 (3k + 1)
. (3.16)
Como los coecientes de la ecuaci on de Airy son funciones analticas en todo R (poli-
nomios), el radio de convergencia de las series (3.16) que denen a u(x) es innito.
3.1.2 La ecuacion de Hermite
Si en la ecuaci on de Weber

+ ( x
2
) = 0
efectuamos el cambio de variable dependiente
(x) = e

x
2
2
u(x)
obtenemos la ecuaci on de Hermite
u

2xu

+ 2u = 0 , (3.17)
donde 2 = 1 es un par ametro real. Como los coecientes de esta ecuaci on son
polinomios, todo punto es regular, y el radio de convergencia de la serie de Taylor
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 72


centrada en cualquier punto de las soluciones de la ecuaci on es innito. Desarrollando
alrededor del origen
u(x) =

i=0
c
i
x
i
y sustituyendo en la ecuaci on obtenemos la identidad

i=2
i(i 1)c
i
x
i2
2

i=1
i c
i
x
i
+ 2

i=0
c
i
x
i
= 0
que podemos reescribir como sigue:

i=0
[(i + 2)(i + 1) c
i+2
+ 2( i) c
i
] x
i
= 0 .
De esta ecuaci on se obtiene la relaci on de recurrencia
(i + 2)(i + 1) c
i+2
= 2(i ) c
i
, i = 0, 1, . . . . (3.18)
Como el coeciente de c
i+2
no se anula para ning un i = 0, 1, . . . , la relaci on anterior
determina todos los coecientes pares (impares) en terminos de c
0
(c
1
). Para calcular
los coecientes pares escribimos (3.18) para i = 2k 2 (k = 1, 2, . . . ), obteniendo
2k(2k 1) c
2k
= 2( 2k + 2) c
2k2
, k = 1, 2, . . . . (3.19)
Por tanto (suponiendo que c
0
,= 0, ya que si c
0
= 0 todos los coecientes pares se anulan)
c
2n
c
0
=
c
2n
c
2n2
c
2n2
c
2n4

c
2
c
0
=
2( 2n + 2)
2n(2n 1)
2( 2n + 4)
(2n 2)(2n 3)

2
2 1
=
(2)
n
(2n)!
( 2) . . . ( 2n + 2)
y
c
2n
=
(2)
n
(2n)!
( 2) . . . ( 2n + 2) c
0
, n = 0, 1, . . . . (3.20)
Analogamente, para los coecientes impares c
2k+1
la relaci on de recurrencia se escribe
(2k + 1)(2k) c
2k+1
= 2( 2k + 1) c
2k1
, k = 1, 2, . . . ,
por lo que (si c
1
,= 0)
c
2n+1
c
1
=
c
2n+1
c
2n1
c
2n1
c
2n3

c
3
c
1
=
2( 2n + 1)
(2n + 1)(2n)
2( 2n + 3)
(2n 1)(2n 2)

2( 1)
3 2
=
(2)
n
(2n + 1)!
( 1)( 3) . . . ( 2n + 1) .
Por tanto
c
2n+1
=
(2)
n
(2n + 1)!
( 1)( 3) . . . ( 2n + 1) c
1
, n = 0, 1, . . . , (3.21)
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 73


expresi on obviamente valida tambien si c
1
= 0. Por tanto la soluci on general de la
ecuaci on de Hermite (3.17) es
u(x) = c
0
u
0
(x) +c
1
u
1
(x) ,
donde
u
0
(x) =

n=0
( 2) . . . ( 2n + 2)
(2)
n
(2n)!
x
2n
(3.22)
y
u
1
(x) =

n=0
( 1)( 3) . . . ( 2n + 1)
(2)
n
(2n + 1)!
x
2n+1
, (3.23)
siendo estas series convergentes para todo x R. Las funciones u
k
(x) (k = 0, 1) son
ambas soluciones de la ecuaci on de Hermite (3.17), siendo u
0
una funcion par y u
1
impar,
es decir
u
k
(x) = (1)
k
u
k
(x) , k = 0, 1 . (3.24)
Las condiciones iniciales satisfechas por las funciones u
k
(x) son
u
0
(0) = 1, u

(0) = 0 ; u
1
(0) = 0, u

1
(0) = 1 . (3.25)
Las funciones u
0
y u
1
, que como hemos visto anteriormente forman un sistema fun-
damental de soluciones de la ecuaci on de Hermite, se reducen a polinomios para ciertos
valores del par ametro que aparece en la ecuaci on. En efecto, la soluci on par u
0
(x) se
reduce a un polinomio si se anula el coeciente c
2n
para alg un valor de n = 1, 2, . . . , es
decir si
( 2) . . . ( 2n + 2) = 0
para alg un n. Esto s olo es posible si = 2N (N = 0, 1, . . . ) es igual a un entero par no
negativo. En tal caso c
2N+2
es proporcional a
( 2) . . . ( 2N) = 0
y todos los coecientes pares c
2k
con k N + 1 se anulan, ya que contienen el factor
2N. Por tanto si = 2N (con N = 0, 1, . . . ) la soluci on u
0
se reduce al polinomio
de grado 2N
P
2N
(x) =
N

n=0
(1)
n
N!
(N n)!
(2x)
2n
(2n)!
( = 2N) .
Notese que ninguno de los coecientes en este desarrollo se anula. Por el contrario, si
= 2N la soluci on impar u
1
no es polin omica, ya que
(2N 1)(2N 3) . . . (2N 2n + 1) ,= 0 , n = 1, 2, . . . .
La soluci on u
1
ser a sin embargo polin omica si = 2N + 1 (N = 0, 1, . . . ) es igual a un
entero impar ya que entonces
c
2N+3
( 1)( 3) . . . ( 2N 1) = 0 ,
lo cual implica (por la relaci on de recurrencia) que c
2k+3
= 0 para k N. En este caso
la soluci on u
1
se reduce al polinomio de grado 2N + 1
P
2N+1
(x) =
1
2
N

n=0
(1)
n
N!
(N n)!
(2x)
2n+1
(2n + 1)!
( = 2N + 1) .
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 74


De nuevo, para estos valores de la soluci on par u
0
no se reduce a un polinomio.
Puede probarse que si no es un entero no negativo, en cuyo caso ninguna de las
soluciones u
k
(x) se reduce a un polinomio, cualquier soluci on no nula de la ecuaci on de
Hermite se comporta como e
x
2
para x o x . Ello se debe, esencialmente, a
que las funciones u
k
(x) verican
c
i+2
c
i

i
2
i
,
mientras que
e
x
2
=

i=0
x
2i
i!

j=0
b
2j
x
2j
cumple
b
i+2
b
i
i=2j
=
1/(j + 1)!
1/j!
=
1
j + 1

j
1
j
=
2
i
.
Esto implica (teniendo en cuenta la paridad de u
k
) que si no es un entero no negativo
se tiene
u
0
(x)
|x|
A
0
e
x
2
, u
1
(x)
|x|
A
1
sig xe
x
2
,
para ciertas constantes no nulas A
0
y A
1
, y por tanto el comportamiento de cualquier
soluci on no nula de la ecuaci on de Hermite para distinto de un entero no negativo es
como e
x
2
en + o en . Pero entonces el comportamiento de una soluci on no nula
de la ecuaci on de Weber (x) = e
x
2
/2
u(x) cuando x + o x es como e
x
2
/2
.
En particular, para estos valores de ninguna soluci on no nula de la ecuaci on de Weber
verica la condici on
_

(x)
2
dx < . (3.26)
Por tanto, si no es un entero no negativo el oscilador cu antico no puede tener un
estado ligado de energa
E =

2
=
_
+
1
2
_
.
Por el contrario, si = m es un entero no negativo, la ecuaci on de Hermite tiene una
soluci on polin omica P
m
(x), y por tanto la ecuaci on de Weber para = 2m + 1 tiene
una soluci on de la forma
(x) = P
m
(x) e

x
2
2
que verica obviamente la condici on de normalizacion (3.26). De esto se deduce que
las energas de los estados ligados del oscilador arm onico cu antico est an dadas por la
formula
E =
_
m+
1
2
_
, m = 0, 1, . . . .
Esta formula fue deducida empricamente por Planck en 1900 para explicar la distri-
buci on de frecuencias del espectro de radiaci on de un cuerpo negro, y con ella puede
decirse que comenz o la Mecanica Cu antica.
Los polinomios de Hermite H
k
(x) (k = 0, 1, . . . ) son proporcionales a los polino-
mios P
k
(x) que acabamos de introducir. En la pr actica, los polinomios de Hermite se
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 75


suelen denir mediante las formulas
H
2m
(x) = (1)
m
(2m)!
m!
P
2m
(x) =
m

n=0
(1)
n+m
(2m)!
(2n)! (mn)!
(2x)
2n
=
m

i=0
(1)
i
(2m)!
i! (2m2i)!
(2x)
2m2i
y
H
2m+1
(x) = 2(1)
m
(2m + 1)!
m!
P
2m+1
(x) =
m

n=0
(1)
n+m
(2m + 1)!
(2n + 1)! (mn)!
(2x)
2n+1
=
m

i=0
(1)
i
(2m + 1)!
i! (2m + 1 2i)!
(2x)
2m+12i
.
Ambas formulas se pueden englobar en la siguiente:
H
k
(x) =
[k/2]

i=0
(1)
i
k!
i! (k 2i)!
(2x)
k2i
, k = 0, 1, . . . , (3.27)
donde [x] denota la parte entera de x (mayor entero menor o igual que x). Al ser H
k
proporcional a P
k
para todo k = 0, 1, . . . , H
k
es soluci on de la ecuaci on de Hermite con
= k, es decir
H

k
2xH

k
+ 2k H
k
= 0 , k = 0, 1, . . . . (3.28)
Los primeros polinomios de Hermite son:
H
0
(x) = 1
H
1
(x) = 2 x
H
2
(x) = 4 x
2
2
H
3
(x) = 8 x
3
12 x
H
4
(x) = 16 x
4
48 x
2
+ 12 .
Se dene la funcion generatriz de los polinomios de Hermite como la funcion
F(x, z) =

k=0
H
k
(x)
k!
z
k
. (3.29)
Procediendo formalmente se obtiene
F(x, z) =

k=0
[k/2]

i=0
(1)
i
i! (k 2i)!
(2x)
k2i
z
k
=

j=0

i=0
(1)
i
i! j!
(2x)
j
z
j+2i
=

j=0
(2xz)
j
j!

i=0
(z
2
)
i
i!
= e
2xz
e
z
2
= e
2xzz
2
. (3.30)
Como, por denicion de F,
H
k
(x) =

k
z
k
F(x, z)

z=0
,
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 76


utilizando la formula anterior para F(x, z) se obtiene
H
k
(x) =

k
z
k
_
e
(zx)
2
e
x
2
_
z=0
= e
x
2
k
z
k
e
(zx)
2

z=0
= e
x
2 d
k
dw
k
e
w
2

w=x
= (1)
k
e
x
2 d
k
ds
k
e
s
2

s=x
,
es decir
H
k
(x) = (1)
k
e
x
2 d
k
dx
k
e
x
2
. (3.31)
La identidad anterior es la llamada f ormula de Rodrigues para los polinomios de Hermite.
Derivando la denicion (3.29) de la funcion generatriz respecto de z y x y utilizando
(3.30) se obtienen propiedades importantes de los polinomios de Hermite. En efecto,
derivando parcialmente respecto de z se obtiene

z
e
2xzz
2
= 2(x z) e
2xzz
2
=

k=0
2xH
k
(x)
k!
z
k

k=0
2 H
k
(x)
k!
z
k+1
=

j=0
_
2xH
j
(x) 2j H
j1
(x)

z
j
j!
,
que por (3.29) ha de ser igual a

k=1
H
k
(x)
(k 1)!
z
k1
=

j=0
H
j+1
(x)
z
j
j!
.
Igualando los coecientes de z
j
en ambas expresiones se obtiene la identidad
H
j+1
(x) = 2xH
j
(x) 2j H
j1
(x) , j = 0, 1, . . . , (3.32)
que puede ser utilizada para calcular recursivamente los polinomios de Hermite a partir
de H
0
(x) = 1. Analogamente, derivando la funcion generatriz respecto de x se obtiene

x
e
2xzz
2
= 2z e
2xzz
2
=

k=0
2 H
k
(x)
k!
z
k+1
=

j=0
2 jH
j1
(x)
z
j
j!
=

j=0
H

j
(x)
z
j
j!
,
de donde se deduce la relaci on
H

j
(x) = 2j H
j1
(x) , j = 0, 1, . . . . (3.33)
Notese que combinando las relaciones (3.32) y (3.33) se deduce facilmente que el poli-
nomio H
j
es soluci on de la ecuaci on de Hermite con = j, ya que
H

j
(x) = 2jH

j1
(x) =
d
dx
_
2xH
j
(x) H
j+1
(x)

= 2xH

j
(x) + 2H
j
(x) H

j+1
(x)
= 2xH

j
(x) + 2H
j
(x) 2(j + 1) H
j
(x) = 2xH

j
(x) 2j H
j
(x) .
Otra de las propiedades importantes de los polinomios de Hermite es su ortogona-
lidad en la recta real respecto de la funcion peso e
x
2
, es decir
_

H
n
(x) H
m
(x) e
x
2
dx = 0 , m ,= n . (3.34)
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 77


Para probar esta relaci on, basta recordar que las funciones
k
(x) = H
k
(x) e

x
2
2
verican
la ecuaci on de Weber con = 2k + 1, es decir

k
(x) + (2k + 1 x
2
)
k
(x) = 0 , k = 0, 1, . . . .
De esta ecuaci on se deduce que
0 =
n
_

m
+(2m+1x
2
)
m

m
_

n
+(2n+1x
2
)
n

=
n

n
2(nm)
n

m
,
es decir
d
dx
_

n
_
= 2(n m)
n

m
.
Integrando esta igualdad entre y + se obtiene (3.34), ya que
lim
x

n
(x)

m
(x) = lim
x
_
H

m
(x) xH
m
(x)
_
H
n
(x) e
x
2
= 0 .
En Mecanica Cu antica es tambien de gran interes el calculo de la integral (3.34) para
m = n. Para evaluar dicha integral, multipliquemos (3.32) por H
j+1
e
x
2
e integremos
entre y +. Aplicando las relaciones de ortogonalidad (3.34) se obtiene
_

H
2
j+1
(x) e
x
2
dx =
_

d
dx
_
e
x
2
_
H
j
(x) H
j+1
(x) dx
=
_
e
x
2
H
j
(x) H
j+1
(x)

+
_

e
x
2 d
dx
_
H
j
(x) H
j+1
(x)

dx.
Utilizando de nuevo las relaciones de ortogonalidad (3.34) y la identidad (3.33) queda
_

H
2
j+1
(x) e
x
2
dx =
_

e
x
2
_
H

j
(x) H
j+1
(x) +H
j
(x) H

j+1
(x)

dx
=
_

_
2j H
j1
(x) H
j+1
(x) + 2(j + 1) H
2
j
(x)

e
x
2
dx
= 2(j + 1)
_

H
2
j
(x) e
x
2
dx, j = 0, 1, . . . .
De esta igualdad se deduce facilmente que
_

H
2
n
(x) e
x
2
dx = 2
n
n!
_

H
2
0
(x) e
x
2
dx = 2
n
n!
_

e
x
2
dx.
Como la ultima integral es igual a

, se tiene nalmente
_

H
2
n
(x) e
x
2
dx = 2
n
n!

. (3.35)
Ejercicio.
i) Probar que si a
0
es una funcion par y a
1
es impar (y ambas son continuas), entonces
u(x) es soluci on de la ecuaci on (3.1) si u(x) es soluci on.
ii) Deducir que las soluciones u
k
(x) de la ecuaci on (3.1) denidas por las condiciones
iniciales (3.25) tienen la paridad de (1)
k
, es decir satisfacen (3.24).
iii) Concluir que, si el punto x = 0 es regular y u(x) es soluci on de la ecuaci on (3.1)
con las condiciones iniciales u(0) = c
0
, u

(0) = c
1
, entonces u admite un desarrollo
en serie de potencias de la forma
u(x) = c
0

i=0

i
x
2i
+c
1

i=0

i
x
2i+1
.
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 78


3.2 Puntos singulares regulares
Consideremos de nuevo la ecuaci on lineal homogenea de segundo orden
u

+a
1
(x) u

+a
0
(x) u = 0. (3.36)
Estudiaremos en esta secci on el comportamiento de las soluciones de (3.36) en las proxi-
midades de un punto x
0
que no es regular para dicha ecuaci on. Diremos en tal caso que
x
0
es un punto singular para la ecuaci on (3.36). En estas notas s olo vamos a considerar
un tipo especial (aunque muy importante) de puntos singulares de la ecuaci on (3.36),
las llamadas singularidades aisladas.
Denicion 3.10. Diremos que el punto x
0
R es una singularidad aislada de la
funcion f : R R si f no es analtica en x
0
, pero existe r > 0 tal que f es analtica
si 0 < [x x
0
[ < r. El punto x
0
es una singularidad aislada de la ecuaci on (3.36) si es
una singularidad aislada de uno de sus coecientes a
0
o a
1
, siendo singularidad aislada
o punto regular del otro coeciente.
Por ejemplo, las funciones 1/x,
_
[x[, log [x[ y e
1/x
2
tienen una singularidad aislada
en x = 0, y la ecuaci on
u

+ log [x[ u

+ sen xu = 0
tiene una singularidad aislada en x = 0.
Las deniciones anteriores tienen sentido si x es una variable compleja, sin m as que
interpretar [x x
0
[ como el m odulo del n umero complejo x x
0
o, lo que es lo mismo,
la distancia entre los puntos x
0
y x en el plano complejo. Sin embargo, si x C es una
variable compleja las funciones log x y x
r
e
r log x
con r / Z no tienen una singularidad
aislada en x = 0, ya que son ambas discontinuas en una semirrecta que parte del origen.
Se suele decir que log x y x
r
(r / Z) tienen un punto de ramicaci on en el origen.
Supongamos que x
0
es una singularidad aislada de la ecuaci on (3.36). En tal caso el
punto x
0
no es regular para la ecuaci on (3.36), por lo que no es aplicable el Teorema
3.7. El matem atico alem an L. Fuchs probo en 1868 que una ecuaci on lineal homogenea
(3.36) (con x C) con una singularidad aislada en x
0
C tiene la propiedad de que
toda soluci on suya u(x) denida en las proximidades de x
0
satisface la condici on
lim
xx
0
_
(x x
0
)
M
u(x)

= 0 (3.37)
para alguna constante M si y s olo si los coecientes de la ecuaci on son de la forma
a
1
(x) =
p(x)
x x
0
, a
0
(x) =
q(x)
(x x
0
)
2
, x ,= x
0
, (3.38)
con p y q funciones analticas en x
0
.
Denicion 3.11. Diremos que una singularidad aislada x
0
de la ecuaci on (3.36) es un
punto singular regular de dicha ecuaci on si los coecientes de la ecuaci on son de la
forma (3.38), siendo p y q funciones analticas en x
0
.
En otras palabras, para que una singularidad aislada x
0
sea un punto singular regular
las funciones p y q denidas por
p(x) = (x x
0
) a
1
(x) , q(x) = (x x
0
)
2
a
0
(x) (3.39)
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 79


para x ,= x
0
y
p(x
0
) = lim
xx
0
_
(x x
0
)a
1
(x)

, q(x
0
) = lim
xx
0
_
(x x
0
)
2
a
0
(x)

deben ser analticas en x


0
.
Ejemplo 3.12. Consideremos la ecuaci on
xu

+u

+ log [x[ u = 0 . (3.40)


Todo punto x
0
,= 0 es un punto regular de la ecuaci on (3.40), ya que los coecientes de
la ecuaci on
a
1
(x) =
1
x
, a
0
(x) =
log [x[
x
son funciones analticas en x
0
,= 0. En efecto,
1
x
=
1
(x x
0
) +x
0
=
1
x
0
1
1 +
xx
0
x
0
=

k=0
(1)
k
x
k+1
0
(x x
0
)
k
, [x x
0
[ < [x
0
[ .
Por otra parte,
log|x|
x
es analtica en x
0
,= 0, al ser el producto de dos funciones analticas
en x
0
(1/x y log [x[). Recuerdese que log [x[ es analtica en todo punto x
0
,= 0, ya que
log [x[ = log [x
0
[ + log

1 +
x x
0
x
0

|xx
0
|<|x
0
|
= log [x
0
[ + log
_
1 +
x x
0
x
0
_
= log [x
0
[ +

k=1
(1)
k+1
k x
k
0
(x x
0
)
k
, [x x
0
[ < [x
0
[ .
El punto x
0
= 0 es una singularidad aislada de la ecuaci on (3.40), ya que es singularidad
aislada de ambos coecientes de la ecuaci on. Para que dicho punto sea un punto singular
regular de la ecuaci on, las funciones
p(x) = xa
1
(x) = 1 , q(x) = x
2
a
0
(x) = xlog [x[
han de ser analticas en 0. Pero esto es falso, ya que aunque p es analtica (constante)
en R, y existe
lim
x0
q(x) = 0 ,
q no es ni siquiera una vez derivable en el origen. Por tanto, 0 es un punto singular
irregular de la ecuaci on (3.40).
Para tener una idea aproximada acerca de que tipos de comportamiento cabe esperar
para las soluciones de la ecuaci on (3.36) en las proximidades de un punto singular regular
x
0
, empezaremos estudiando la ecuaci on m as sencilla que tiene una singularidad de este
tipo. Para ello tomamos (por sencillez) x
0
= 0 e imponemos que las funciones p(x) y q(x)
se reduzcan a sendas constantes p
0
y q
0
, respectivamente, lo que conduce a la ecuacion
de Euler de segundo orden
x
2
u

+p
0
xu

+q
0
u = 0 . (3.41)
Esta ecuaci on se resuelve facilmente mediante el cambio de variable dependiente
t = log [x[ , x ,= 0.
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 80


En efecto, si hacemos
y(t) = u(x)
entonces
dx
dt
= x para todo t, por lo que
dy
dt
= u

(x)
dx
dt
= xu

(x) ,
d
2
y
dt
2
= x
2
u

(x) +xu

(x) ,
y por tanto y(t) satisface la ecuaci on lineal homogenea de coecientes constantes
d
2
y
dt
2
+ (p
0
1)
dy
dt
+q
0
y = 0 . (3.42)
Notese que el polinomio caracterstico de esta ecuaci on es
p(r) = r
2
+ (p
0
1) r +q = r(r 1) +p
0
r +q
0
. (3.43)
Si r
i
(i = 1, 2) son las dos races (posiblemente complejas) del polinomio caracterstico,
la soluci on general de la ecuaci on (3.42) est a dada por
y(t) =
_

_
c
1
e
r
1
t
+c
2
e
r
2
t
, si r
1
,= r
2
, r
1
, r
2
R
(c
1
+c
2
t) e
rt
, si r
1
= r
2
r R
_
c
1
cos( t) +c
2
sen( t)
_
e
t
, si r
1,2
= i C.
Por tanto, la soluci on general de la ecuaci on de Euler (3.41) es
u(x) =
_

_
c
1
[x[
r
1
+c
2
[x[
r
2
, si r
1
,= r
2
, r
1
, r
2
R
(c
1
+c
2
log [x[) [x[
r
, si r
1
= r
2
r R
_
c
1
cos( log [x[) +c
2
sen( log [x[)
_
[x[

, si r
1,2
= i C.
(3.44)
Observese que para ciertos valores de las races r
1
y r
2
(o, lo que es lo mismo, de los
coecientes p
0
y q
0
), algunas o incluso todas las soluciones de la ecuaci on de Euler (3.41)
pueden ser analticas en x = 0, aunque los coecientes de la ecuaci on no lo sean. Mas
concretamente, si r
1
,= r
2
son enteros no negativos entonces todas las soluciones son
analticas en x = 0, mientras que si r
1
= r
2
r es un entero no negativo entonces hay
una s ola soluci on linealmente independiente que es analtica en x = 0, a saber u(x) = x
r
.
(Por que se puede sustituir [x[
r
i
por x
r
i
en (3.44) si r
i
es un entero?) En cualquier caso,
cualquiera que sean r
1
y r
2
es evidente que existe una constante M sucientemente
grande tal que
lim
x0
_
x
M
u(x)
_
= 0
para toda soluci on u(x) de (3.41), incluso si interpretamos x en la formula anterior como
una variable compleja.
En general, si x
0
es un punto singular regular de la ecuaci on (3.36) deniremos p
0
y
q
0
mediante
p
0
= p(x
0
) = lim
xx
0
_
(x x
0
)a
1
(x)

, q
0
= q(x
0
) = lim
xx
0
_
(x x
0
)
2
a
0
(x)

. (3.45)
Se dene tambien el polinomio indicial de la ecuaci on (3.36) mediante
F(r) = r(r 1) +p
0
r +q
0
, (3.46)
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 81


con p
0
y q
0
dados por la formula anterior.
El siguiente teorema, debido a G. Frobenius (1874), es de gran importancia pr actica,
ya que describe con gran precision el comportamiento de las soluciones de la ecuaci on
lineal homogenea (3.36) en las proximidades de un punto singular regular x
0
. Por sen-
cillez, supondremos que x
0
= 0 (lo que siempre puede conseguirse con el cambio de
variable independiente t = x x
0
), y por tanto escribiremos la ecuaci on (3.36) en la
forma
x
2
u

+xp(x) u

+q(x) u = 0 , (3.47)
con
p(x) =

i=0
p
i
x
i
, q(x) =

i=0
q
i
x
i
, [x[ < R. (3.48)
Teorema de Frobenius. Sean r
1
y r
2
las races del polinomio indicial (3.46) de
(3.47), numeradas de forma que
Re r
1
Re r
2
. (3.49)
Entonces se tiene:
i ) Si r
1
,= r
2
y r
1
r
2
/ N, la ecuaci on (3.47) tiene un sistema fundamental de
soluciones de la forma
u
i
(x) = [x[
r
i
v
i
(x) , i = 1, 2 , (3.50)
con v
i
analtica en 0, y v
i
(0) = 1.
ii ) Si r
1
= r
2
r, (3.47) admite un sistema fundamental de soluciones
u
1
(x) = [x[
r
v
1
(x) , u
2
(x) = u
1
(x) log [x[ +[x[
r
v
2
(x) , (3.51)
con v
i
analtica en 0, v
1
(0) = 1 y v
2
(0) = 0.
iii ) Si r
1
r
2
n N, (3.47) posee el sistema fundamental de soluciones
u
1
(x) = [x[
r
1
v
1
(x) , u
2
(x) = (sig x)
n
c u
1
(x) log [x[ +[x[
r
2
v
2
(x) , (3.52)
con v
i
analtica en 0, v
i
(0) = 1 y c R constante (posiblemente nula).
En todos los casos, el radio de convergencia de la serie de Maclaurin de v
i
(i = 1, 2)
es mayor o igual que R.
Notese que en el caso i) las races pueden ser complejas, es decir r
1,2
= i . En tal caso
es conveniente reemplazar las soluciones complejas (3.50) por el sistema fundamental de
soluciones reales
[x[

_
w
1
(x) cos( log [x[) +xw
2
(x) sen( log [x[)

,
[x[

_
w
1
(x) sen( log [x[) xw
2
(x) cos( log [x[)

,
(3.53)
donde de nuevo w
i
es (real) y analtica con radio de convergencia al menos R en 0, y
w
1
(0) = 1.
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 82


Demostraci on. Nos limitaremos a dar a continuaci on una justicaci on heurstica del
teorema de Frobenius, evitando entrar en detalles tecnicos (como, por ejemplo, la veri-
cacion de la convergencia de las series que utilizaremos). La idea de la prueba es ensayar
una soluci on del tipo
u(x) = [x[
r

i=0
c
i
x
i
, con c
0
,= 0 (3.54)
e intentar calcular el exponente r y los coecientes c
i
sustituyendo (3.54) en la ecuaci on
(3.47). Para jar ideas, supondremos en lo que sigue que x > 0. Sustituyendo entonces
(3.54) en (3.47) se obtiene

i=0
(i+r)(i+r1) c
i
x
i+r
+
_

j=0
p
j
x
j
__

i=0
(i+r) c
i
x
i+r
_
+
_

j=0
q
j
x
j
__

i=0
c
i
x
i+r
_
=

i=0
_
(i +r)(i +r 1) c
i
+
i

k=0
_
(k +r)p
ik
+q
ik
_
c
k
_
x
i+r
= 0 .
Igualando a cero los coecientes de las potencias de x se deduce la relaci on de recurrencia
(i +r)(i +r 1) c
i
+
i

k=0
_
(k +r)p
ik
+q
ik

c
k
= 0 , i = 0, 1, . . . . (3.55)
Haciendo i = 0 se obtiene la ecuaci on
_
r(r 1) +p
0
r +q
0

c
0
= F(r) c
0
= 0 ,
de donde se sigue que
F(r) = 0 . (3.56)
La ecuaci on (3.56) implica que r s olo puede ser igual a una de las dos races r
1,2
del
polinomio indicial. Si i = 1, 2, . . . reescribimos (3.55) como
_
(i +r)(i +r 1) + (i +r) p
0
+q
0

c
i
=
i1

k=0
_
(k +r)p
ik
+q
ik

c
k
, i = 1, 2, . . . .
Teniendo en cuenta la denicion del polinomio indicial (3.46) queda nalmente
F(r +i) c
i
=
i1

k=0
_
(k +r)p
ik
+q
ik

c
k
, i = 1, 2, . . . . (3.57)
Si r = r
1
, es facil ver que la ecuaci on anterior determina todos los coecientes c
i
con
i = 1, 2, . . . en terminos de c
0
. En efecto, la condici on necesaria y suciente para que
esto ocurra es que c
i
se pueda despejar de (3.57) en terminos de c
0
, . . . , c
i1
para todo
i = 1, 2, . . . . A su vez, esto es equivalente a que
F(r
1
+i) ,= 0 , i = 1, 2, . . . .
Si esto no se cumpliera para alg un i = 1, 2, . . . entonces F tendra la raz r
2
= r
1
+ i
con Re r
2
= Re r
1
+ i > Re r
1
, en contra de la denicion (3.49) de r
1
. Esto demuestra
que la ecuaci on (3.47) siempre posee una soluci on no trivial de la forma
u
1
(x) = x
r
1
v
1
(x) (x > 0) (3.58)
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 83


con
v
1
(x) =

i=0
c
i
x
i
,
donde los coecientes c
i
se determinan en funcion de c
0
mediante la relaci on de recu-
rrencia (3.57). Se demuestra que la serie de potencias que dene a v
1
tiene radio de
convergencia mayor o igual que R, y que por tanto v
1
es analtica en 0. Ademas, pode-
mos suponer sin perdida de generalidad que c
0
= 1, es decir v(0) = 1. Si r
1
r
2
/ N, se
cumple tambien la condici on
F(r
2
+i) ,= 0 , i = 1, 2, . . . .
Por tanto en este caso la ecuaci on (3.47) posee tambien una soluci on de la forma
u
2
(x) = x
r
2
v
2
(x) (x > 0)
con v
2
analtica en 0 y v
2
(0) = 1. Si r
2
,= r
1
es obvio que esta soluci on es linealmente
independiente de la anterior, ya que el cociente de ambas soluciones no es constante (es
de la forma x
r
2
r
1
por una funcion analtica que vale 1 en el origen). Con esto queda
por tanto probado el primer apartado.
Supongamos a continuaci on que
r
1
r
2
= n con n = 0, 1, . . . .
Utilizando la soluci on (3.58) podemos construir una segunda soluci on linealmente inde-
pendiente de la ecuaci on aplicando la formula (2.49), es decir
u
2
(x) = u
1
(x)
_
x
t
2r
1
v
2
1
(t)
e

R
t
a
1
(s) ds
dt . (3.59)
Al ser el origen un punto singular regular de la ecuaci on (3.47) se tiene
_
t
a
1
(s) ds =
_
t
p(s)
s
ds = p
0
log t +(t)
siendo
(t) =
_
t

i=1
p
i
s
i1
ds =

i=1
p
i
i
t
i
una funcion analtica en el origen con (0) = 0. Sustituyendo en la formula (3.59) se
obtiene
u
2
(x) = u
1
(x)
_
x
t
p
0
2r
1
e
(t)
v
2
1
(t)
dt u
1
(x)
_
x
t
p
0
2r
1
(t) dt , (3.60)
con
(t) =
e
(t)
v
2
1
(t)

i=0
b
i
t
i
analtica en el origen (cociente de dos funciones analticas con denominador no nulo en
0) y
b
0
= (0) = e
(0)
= 1 ,= 0 .
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 84


De la denicion (3.46) del polinomio indicial F(r) se sigue que
r
1
+r
2
= 1 p
0
=p
0
2r
1
= r
2
r
1
1 = n 1 .
De (3.60) se deduce por tanto que
u
2
(x) = u
1
(x)
_
x
t
n1
(t) dt = u
1
(x)
_
x

i=0
b
i
t
in1
dt
= b
n
u
1
(x) log x +u
1
(x)

i=0
i=n
b
i
i n
x
in
b
n
u
1
(x) log x +x
r
2
w(x) , (3.61)
con
w(x) = v
1
(x)

i=0
i=n
b
i
i n
x
i
una funcion analtica en el origen, y
w(0) =
_
_
_
0 , n = 0

b
0
n
=
1
n
,= 0 , n = 1, 2, . . . .
Esto demuestra los dos ultimos apartados del teorema de Frobenius, ya que si n = 0 el
coeciente del termino u
1
(x) log x es b
0
,= 0. Q.E.D.
Igual que en un punto regular, los coecientes de las funciones analticas v
i
que
aparecen en el teorema de Frobenius se obtienen sustituyendo en la ecuaci on diferencial
(3.47) las expresiones (3.50)(3.52). Sin embargo, si las races de la ecuaci on indicial
dieren en un entero aparece la dicultad adicional de la posible presencia de un termino
logartmico, que es segura si la ecuaci on indicial tiene una raz doble.
Si r
1
r
2
= n N , lo primero es determinar si aparece o no un termino logartmico
en la segunda soluci on u
2
(x). Para ello lo m as eciente es empezar asumiendo que dicho
termino no aparece, y buscar por tanto una soluci on del tipo
x
r
2

i=0
c
i
x
i
(x > 0) (3.62)
con c
0
,= 0. Como F(r
2
+ i) ,= 0 para i = 1, 2, . . . , n 1, la relaci on de recurrencia
(3.57) determina los coecientes c
1
, . . . , c
n1
en funcion de c
0
. Para i = n, sin embargo,
F(r
2
+n) = F(r
1
) = 0, y por tanto la relaci on de recurrencia se reduce a la ecuaci on
n1

k=0
_
(k +r)p
nk
+q
nk

c
k
= 0 . (3.63)
Si los coecientes c
0
, . . . , c
n1
calculados precedentemente no verican la ecuaci on ante-
rior, hemos llegado a una contradicci on, y por tanto ha de haber un termino logartmico
en la segunda soluci on (es decir, c ,= 0 en (3.52)). Por el contrario, si se cumple (3.63)
la relaci on de recurrencia permite calcular c
i
con i > n, ya que F(r
2
+ i) ,= 0 para
i > n. Notese que el coeciente c
n
es arbitrario; pero esto es logico, ya que c
n
multiplica
a x
r
2
+n
= x
r
1
, y el coeciente de este termino se puede asignar a voluntad a nadiendo
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 85


un m ultiplo adecuado de la primera soluci on (3.58). Por tanto, si se cumple la condi-
cion (3.63) hay una segunda soluci on del tipo (3.62), es decir sin termino logartmico.
Esto prueba que (3.63) es la condici on necesaria y suciente para que no haya termino
logartmico en la segunda soluci on de (3.47).
Supongamos a continuaci on que r
1
= r
2
r , por lo que la presencia del termino
logartmico est a garantizada. Para calcular la segunda soluci on en este caso, sean c
i
(s)
(i = 1, 2, . . . ) los coecientes determinados por la relaci on de recurrencia
F(s +i) c
i
(s) =
i1

k=0
_
(k +s)p
ik
+q
ik

c
k
(s) , i = 1, 2, . . . . (3.64)
junto con la condici on c
0
= 1. Notese que esta relaci on de recurrencia determina los
coecientes c
i
(s) si r s / N, ya que F s olo se anula en r; en particular, podemos tomar
[s r[ < 1. Como s no tiene por que ser una raz del polinomio indicial, la funcion
u(x, s) = x
s

i=0
c
i
(s) x
i
(x > 0)
no es soluci on de la ecuaci on (3.47). En efecto, teniendo en cuenta la forma en que se
obtuvo la relaci on de recurrencia (3.57) es facil ver que
L
_
u(x, s)

x
2
u

+xp(x) u

+q(x) u = F(s) x
s
.
Derivando esta ecuaci on respecto de s y haciendo s = r se obtiene:

s=r
L
_
u(x, s)

= L
_

s

s=r
u(x, s)
_
= F

(r) x
r
+F(r) x
r
log x = 0 ,
ya que r es por hip otesis una raz doble de F. Por lo tanto, la funcion

s=r
u(x, s) = u(x, r) log x +x
r

i=0
c

i
(r) x
i
u
1
(x) log x +x
r

i=0
c

i
(r) x
i
es soluci on de la ecuaci on lineal homogenea (3.47).
3.2.1 La ecuacion de Bessel
La ecuaci on
x
2
u

+xu

+ (x
2

2
) u = 0 , x > 0 , (3.65)
donde 0 es un par ametro real, recibe el nombre de ecuacion de Bessel. El origen
es un punto singular regular de esta ecuaci on, ya que es de la forma (3.47) con
p(x) = 1 , q(x) = x
2

2
(3.66)
funciones analticas en 0 (polinomios). En este caso
p
0
= 1 , q
0
=
2
, (3.67)
y por tanto el polinomio indicial es
F(r) = r(r 1) +r
2
= r
2

2
. (3.68)
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 86


Las races del polinomio indicial son en este caso reales:
r
1
= , r
2
= (3.69)
(recuerdese que r
1
siempre designa a la raz de parte real mayor), siendo su diferencia
r
1
r
2
= 2 . (3.70)
Busquemos, en primer lugar, la soluci on del tipo (3.54), que en este caso ser a de la
forma
u
1
(x) =

i=0
c
i
x
i+
(x > 0) .
Sustituyendo en la ecuaci on de Bessel se obtiene

i=0
_
(i +)(i + 1) + (i +)
2
)

c
i
x
i+
+

i=0
c
i
x
i++2
= (1 + 2)c
1
x
+1
+

i=2
_
i(i + 2)c
i
+c
i2

x
i+
= 0 .
Igualando a cero los coecientes de las potencias de x obtenemos la ecuaci on
c
1
= 0 (3.71)
junto con la relaci on de recurrencia
i(i + 2)c
i
= c
i2
, i = 2, 3, . . . . (3.72)
Como (3.72) relaciona el coeciente c
i
con c
i2
, los coecientes pares (impares) son
proporcionales a c
0
(c
1
), de donde se deduce que
c
2k+1
= 0 , k = 0, 1, . . . . (3.73)
Llamando
c
2k
= b
k
, k = 0, 1, . . . ,
la relaci on de recurrencia (3.72) se transforma en
4k(k +) b
k
= b
k1
, k = 1, 2, . . . . (3.74)
Como el coeciente de b
k
no se anula para ning un k > 0 (ya que 0), esta relaci on de
recurrencia determina todos los coecientes b
k
con k = 1, 2, . . . en terminos de b
0
. En
efecto, de (3.74) se obtiene facilmente
b
k
=
(1)
k
2
2k
k! ( +k)( +k 1) ( + 1)
b
0
, k = 1, 2, . . . . (3.75)
Tomando b
0
= 2

obtenemos la siguiente soluci on de la ecuaci on de Bessel:


u
1
(x; ) =

n=0
(1)
n
n!( +n) ( + 2)( + 1)
_
x
2
_
2n+
. (3.76)
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 87


Por el teorema de Frobenius, la serie que dene esta funcion es convergente para todo
x R, ya que los coecientes p y q son polinomios. (Esto tambien se puede comprobar
directamente en este caso utilizando el criterio del cociente.)
Para simplicar los coecientes en la formula anterior utilizaremos la funcion gam-
ma de Euler, denida por
(z) =
_

0
t
z1
e
t
dt . (3.77)
El argumento z en esta formula es complejo, y la integral converge absolutamente (y, por
tanto, (z) est a bien denida) si Re z > 0. Integrando por partes se prueba facilmente
la relaci on funcional fundamental satisfecha por la funcion :
(z + 1) = z (z) . (3.78)
Como
(1) =
_

0
e
t
dt = 1 ,
de la relaci on funcional se deduce inmediatamente que
(n + 1) = n! n = 0, 1, . . . .
Por tanto la funcion es una generalizaci on del factorial. La funcion se extiende
facilmente al semiplano izquierdo utilizando la relaci on funcional (3.78). Por ejemplo, si
1 < Re z < 0 entonces se dene
(z) =
(z + 1)
z
.
De esta forma se obtiene una funcion analtica en todo el plano complejo, excepto en
los puntos z = 0, 1, 2, . . . , donde se prueba que tiene polos simples (es decir,
diverge como (z + k)
1
cuando z k, con k = 0, 1, . . . ). Por ultimo, se demuestra
que la funcion no tiene ceros en el plano complejo. Por tanto, la funcion 1/ es entera
(analtica en todo el plano complejo), y se anula s olo en los enteros negativos y en el
origen.
Utilizando la relaci on funcional (3.78) repetidamente se obtiene
( +n + 1) = ( +n) ( + 2)( + 1)( + 1) .
Multiplicando la soluci on u
1
(x; ) por la constante no nula (ya que 0) 1/( + 1)
se llega a la soluci on
J

(x) =

n=0
(1)
n
n! ( +n + 1)
_
x
2
_
2n+
, (3.79)
que se denomina funcion de Bessel de primera especie y orden . Si
2 ,= 0, 1, . . . , (3.80)
por el teorema de Frobenius la segunda soluci on de la ecuaci on de Bessel es
J

(x) =

n=0
(1)
n
n! (n + 1)
_
x
2
_
2n
. (3.81)
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 88


-4 -2 2 4
-15
-10
-5
5
10
15
(x)
x
Figura 3.1: Gr aca de la funcion (x).
Por tanto, si 2 ,= 0, 1, . . . la soluci on general de la ecuaci on de Bessel est a dada por
u(x) = C
1
J

(x) +C
2
J

(x) ,
con C
1
y C
2
constantes arbitrarias. Notese que J
0
(0) = 1, mientras que para > 0 la
funcion J

(x) se anula en el origen:


J

(0) = 0 , > 0 .
Sin embargo, si 0 J

s olo es analtica en x = 0 si = 0, 1, . . . , ya que x

s olo
es analtica en el origen para estos valores de . Ademas, si ,= 1, 2, . . . entonces
1/(1 ) ,= 0, y por tanto J

(x) diverge cuando x 0 si ,= 0, 1, . . . :


J

(x)
x0
2

(1 )
x

( ,= 0, 1, . . . ) . (3.82)
5 10 15 20 25 30
-0.4
-0.2
0.2
0.4
0.6
0.8
1
x
J0(x)
5 10 15 20 25 30
-0.2
0.2
0.4
x
J

2
(x)
5 10 15 20 25 30
-0.8
-0.6
-0.4
-0.2
0.2
0.4
x
J

2
(x)
Figura 3.2: Gr aca de las funciones J
0
y J

2
.
Si
2 = 0, 1, . . . ,
es necesario calcular la segunda soluci on linealmente independiente u
2
(x) de la ecuaci on
de Bessel. En particular, si 2 = 1, 2, . . . debemos determinar si aparece o no un termino
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 89


logartmico (que debe aparecer forzosamente para = 0). Si
=
1
2
,
3
2
, . . .
(es decir, si es semientero), no hay termino logartmico. Esto se puede ver estudiando la
relaci on de recurrencia para la segunda raz () de la ecuaci on indicial, o m as facilmente
observando que en este caso J

sigue siendo soluci on de la ecuaci on de Bessel (ya que


dicha ecuaci on no cambia si se sustituye por ), y no es proporcional a J

(x). En
efecto, ya hemos visto que J

se anula en el origen para > 0, mientras que, al ser


1/(1 ) ,= 0 para = 1/2, 3/2, . . . , la soluci on J

diverge en 0 como x

(vease la
ec. (3.82)). De hecho, se puede probar que si m Z entonces
J
m+
1
2
(x) = A
m
_
1

x
_
cos x +B
m
_
1

x
_
sen x, (3.83)
con A
m
y B
m
polinomios. Por ejemplo,
J1
2
(x) =
_
2
x
sen x, J

1
2
(x) =
_
2
x
cos x. (3.84)
Por el contrario, si
= 1, 2, . . .
entonces la segunda soluci on contiene un termino logartmico. Una indicaci on de este
hecho es que si N la funcion J

es proporcional a J

. En efecto, en este caso


1
(n + 1)
= 0 , n = 0, 1, . . . , 1 .
Por tanto
J

(x) =

n=
(1)
n
n! (n + 1)
_
x
2
_
2n
=

k=0
(1)
k+
(k +)! (k + 1)
_
x
2
_
2k+
=

k=0
(1)
k+
(k + + 1) k!
_
x
2
_
2k+
= (1)

(x) , = 1, 2, . . . .
Para ver con m as detalle que en este caso ( N) hay un termino logartmico, n otese
que la relaci on de recurrencia para la hipotetica soluci on
u
2
(x) = x

i=0
c
i
x
i
es simplemente (3.71) y (3.72) con reemplazado por , es decir
i(i 2) c
i
= c
i2
, i = 2, 3, . . . .
De nuevo, todos los coecientes impares son cero, y los coecientes pares b
k
= c
2k
se
determinan por
4k(k ) b
k
= b
k1
, k = 1, 2, . . . .
Esta relaci on determina b
1
, . . . , b
1
en terminos de b
0
, siendo todos estos coecientes
no nulos si b
0
,= 0. Sin embargo, en este caso la relaci on que debera determinar b

se
reduce a
0 = b
1
,
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 90


que es contradictoria, ya que b
1
,= 0 si b
0
,= 0 .
Calculemos a continuaci on la segunda soluci on linealmente independiente de la ecua-
cion de Bessel para = 0. De acuerdo con el teorema de Frobenius, escribimos
u
2
(x) = J
0
(x) log x +v
2
(x) J
0
(x) log x +

i=1
c
i
x
i
(n otese que podemos tomar c
0
= 0) y sustituimos esta expresi on en la ecuaci on de Bessel
para = 0, obteniendo
(xJ

0
+ J

0
+xJ
0
) log x + 2 J

0
+xv

2
+v

2
+xv
2
= 0 ,
o bien, ya que J
0
es soluci on de la ecuaci on de Bessel para = 0,
xv

2
+v

2
+xv
2
+ 2 J

0
= 0 . (3.85)
Notese que en esta expresi on no aparece ya ning un termino logartmico, lo que ocurre
tambien en el caso general. Sustituyendo el desarrollo en serie de potencias de v
2
en esta
ultima ecuaci on multiplicada por x se obtiene facilmente

i=0
_
i(i 1) +i]c
i
x
i
+

i=0
c
i
x
i+2
+ 2x

n=1
(1)
n
n
n!
2
_
x
2
_
2n1
= 0 ,
es decir
c
1
x +

i=2
_
i
2
c
i
+c
i2
) x
i
+ 4

n=1
(1)
n
n
n!
2
_
x
2
_
2n
= 0 . (3.86)
De esta relaci on se deduce en primer lugar que c
1
= 0. Como la ultima serie no contiene
m as que potencias pares, la relaci on de recurrencia para las potencias impares
(2k + 1)
2
c
2k+1
+c
2k1
= 0 , k = 1, 2, . . .
implica que todos los coecientes impares son nulos:
c
2k+1
= 0 , k = 0, 1, . . . . (3.87)
Deniendo b
n
= c
2n
e igualando a cero el coeciente de x
2n
en (3.86) se obtiene la
relaci on de recurrencia para los coecientes pares:
n
2
b
n
=
1
4
b
n1
+
(1)
n
n
4
n
n!
2
, n = 1, 2, . . . . (3.88)
Multiplicando ambos miembros de esta relaci on por (4)
n
(n 1)!
2
y llamando
k
=
(4)
k
k!
2
b
k
se obtiene

n
=
n1
+
1
n
, n = 1, 2, . . . .
La soluci on de esta relaci on de recurrencia es inmediata:

n
=
1
n
+
1
n 1
+ + 1 +
0
, n = 1, 2, . . . .
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 91


Al ser
0
= b
0
= c
0
= 0 se tiene nalmente
b
n
=
(1)
n+1
4
n
n!
2
_
1 +
1
2
+ +
1
n
_
, n = 1, 2, . . . .
Hemos probado por tanto que la segunda soluci on linealmente independiente de la ecua-
cion de Bessel de orden 0 est a dada por
N
0
(x) = J
0
(x) log x

n=1
(1)
n
n!
2
_
1 +
1
2
+ +
1
n
_
_
x
2
_
2n
. (3.89)
La funcion N
0
se denomina funci on de Neumann de orden cero. Notese que la funcion
N
0
, a diferencia de la otra soluci on J
0
, no es analtica en el origen, donde se comporta
como log x:
N
0
(x)
x0
log x.
En la pr actica, en lugar de la funcion de Neumann N
0
se suele escoger como segunda
soluci on linealmente independiente la combinaci on lineal de J
0
y N
0
dada por
Y
0
(x) =
2

_
N
0
(x) (log 2 )J
0
(x)

,
donde
= lim
n
_
1 +
1
2
+ +
1
n
log n
_
0,577216
es la llamada constante de EulerMascheroni. La funcion Y
0
(que tambien diverge lo-
gartmicamente en el origen) se suele denominar funci on de Bessel de segunda especie
de orden 0. La soluci on general de la ecuaci on de Bessel de orden 0 es por tanto
u(x) = C
1
J
0
(x) +C
2
Y
0
(x) ,
con C
1
y C
2
constantes reales.
Para m = 1, 2, . . . , un calculo parecido al anterior pero algo m as complicado
demuestra que una segunda soluci on de la ecuaci on de Bessel de orden m linealmente
independiente de J
m
est a dada por la funcion de Neumann de orden m
N
m
(x) = J
m
(x) log x
1
2
m1

n=0
(mn 1)!
n!
_
x
2
_
2nm

1
2

n=0
(1)
n
n!(n +m)!
_
1 +
1
2
+ +
1
n
+ 1 +
1
2
+ +
1
n +m
_
_
x
2
_
2n+m
(3.90)
(donde se sobreentiende que el sumatorio 1+
1
2
+ +
1
n
desaparece si n = 0). De nuevo,
es m as habitual usar como segunda soluci on de la ecuaci on de Bessel de orden m la
funcion de Bessel de segunda especie y orden m denida por
Y
m
(x) =
2

_
N
m
(x) (log 2 )J
m
(x)

,
en terminos de la cual la soluci on general de la ecuaci on de Bessel de orden m = 0, 1, . . .
est a dada por
u(x) = C
1
J
m
(x) +C
2
Y
m
(x) , C
1
, C
2
R.
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 92


Nota: Si se dene
Y

(x) =
cos() J

(x) J

(x)
sen()
, ,= 0, 1, . . . ,
entonces J

e Y

forman un sistema fundamental de soluciones de la ecuaci on de Bessel


de orden tambien para ,= 0, 1, . . . . Se demuestra que
Y
m
(x) = lim
m
Y

(x) , m = 0, 1, . . . .
El comportamiento asntotico (para x ) de las funciones de Bessel de primera y
segunda especie est a dado por la formula
J

(x)
x
_
2
x
cos
_
x

2


4
_
,
Y

(x)
x
_
2
x
sen
_
x

2


4
_
.
En particular, las funciones de Bessel de primera y segunda especie tienen innitos
ceros en el eje real positivo, y presentan un comportamiento oscilatorio amortiguado
para x .
Las funciones de Bessel satisfacen ciertas relaciones de recurrencia, que se pueden
deducir de las dos identidades
(x

= x

J
1
(3.91)
(x

= x

J
+1
. (3.92)
Para probar la primera de estas identidades basta utilizar el desarrollo en serie (3.79)
de J

, que proporciona
(x

=
d
dx

n=0
(1)
n
2

n! (n + + 1)
_
x
2
_
2(n+)
=

n=0
(1)
n
2

(n +)
n! (n + + 1)
_
x
2
_
2n+21
= x

J
1
.
La identidad (3.92) se prueba de forma semejante. Las funciones de Bessel de segunda
especie Y

satisfacen tambien las identidades (3.91)(3.92), aunque aqu no demostra-


remos esta resultado. Sumando y restando las identidades (3.91)(3.92) multiplicadas
por x

y x

, respectivamente, se obtienen las siguientes relaciones entre funciones de


Bessel de distintos ndices y sus derivadas:
J
1
J
+1
= 2J

(3.93)
J
1
+J
+1
=
2
x
J

. (3.94)
La segunda de estas identidades se puede utilizar para calcular de forma recursiva las
funciones de Bessel de ndice +k (k = 1, 2, . . . ) a partir de J

y J
1
. Por ejemplo, las
funciones de Bessel de ndice entero positivo se pueden expresar en terminos de J
0
y J
1
.
Del mismo modo, la expresi on (3.83) para las funciones de Bessel de orden semientero se
deduce facilmente de la relaci on (3.94) y la ecuaci on (3.84). Notese, por ultimo, que las
funciones de Bessel de segunda especie tambien satisfacen las relaciones (3.93)(3.94),
ya que estas son consecuencia de (3.91)(3.92).
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 93


3.2.2 El punto del innito
Supongamos que los coecientes de la ecuaci on lineal homogenea (3.36) est an denidos
para [x[ > R. Para estudiar el comportamiento de las soluciones de esta ecuaci on en el
punto del innito o, con mayor propiedad, para [x[ , efectuamos en la ecuaci on
el cambio de variable
t =
1
x
y estudiamos el comportamiento de la ecuaci on resultante para
y(t) = u(x) u(1/t)
para t 0. Como u(x) = y(1/x) se tiene
u

(x) =
1
x
2
y

(1/x) , u

(x) =
1
x
4
y

(1/x) +
2
x
3
y

(1/x) ,
sustituyendo en la ecuaci on diferencial (3.36) se obtiene la ecuaci on lineal homogenea
de segundo orden
y

+A
1
(t) y

+A
0
(t) y = 0 , (3.95)
donde los coecientes A
i
(t) est an dados por
A
1
(t) =
2
t

1
t
2
a
1
(1/t), A
0
(t) =
1
t
4
a
0
(1/t) . (3.96)
Denicion 3.13. Diremos que el punto del innito es regular (resp. singular regular)
para la ecuaci on original (3.36) si el origen es un punto regular (resp. singular regular)
para la ecuaci on (3.95)
Supongamos, por ejemplo, que el punto del innito es un punto regular para la
ecuaci on (3.36). Esto signica que las funciones A
i
(t) (i = 0, 1) son analticas en el
origen con series de Maclaurin convergentes para [t[ < r, y por tanto (teorema de
Fuchs) toda soluci on y(t) de (3.95) admite el desarrollo
y(t) =

i=0
b
i
t
i
, [t[ < r .
Por consiguiente, cualquier soluci on u(x) = y(1/x) de la ecuaci on original (3.36) admite
un desarrollo en serie en potencias negativas de x
u(x) =

i=0
b
i
x
i
, [x[ >
1
r
. (3.97)
Analogamente, el punto del innito ser a un punto singular regular para la ecuaci on
(3.36) si no es un punto regular, pero las funciones t A
1
(t) y t
2
A
0
(t) son analticas en
t = 0, es decir si
1
t
a
1
(1/t),
1
t
2
a
0
(1/t) (3.98)
son analticas en el origen.
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 94


Ejemplo 3.14. Consideremos la ecuacion de Legendre
(1 x
2
)u

2xu

+( + 1) u = 0 , (3.99)
donde
1
2
es un par ametro real. En este caso
a
1
(x) =
2x
x
2
1
, a
0
(x) =
( + 1)
1 x
2
,
y por tanto los coecientes A
i
est an dados por
A
1
(t) =
2
t

1
t
2
2
t
1
t
2
1
=
2t
t
2
1
, A
0
(t) =
( + 1)
t
2
(t
2
1)
.
El coeciente A
0
es divergente en t = 0 si ,= 0, por lo que el punto del innito no es
regular para la ecuaci on de Legendre si ,= 0. Sin embargo, las funciones
p(t) t A
1
(t) =
2t
2
t
2
1
, q(t) t
2
A
0
(t) =
( + 1)
t
2
1
son analticas en t = 0, siendo sus series de Maclaurin convergentes para [t[ < 1 (distancia
a la singularidad m as pr oxima en el plano complejo). Por tanto, el origen es un punto
singular regular para la ecuaci on de Legendre para ,= 0. (Claramente, el origen es un
punto regular de (3.99) si = 0.) Para estudiar el comportamiento de las soluciones de
esta ecuaci on para [x[ , estudiamos la ecuaci on (3.95), que en este caso se escribe
t
2
(t
2
1)y

+ 2t
3
y

+( + 1)y = 0 , (3.100)
en t = 0. Para esta ecuaci on,
p
0
= 0 , q
0
= ( + 1) ,
y por tanto el polinomio indicial es
F(r) = r(r 1) ( + 1) = (r +)(r 1) .
Las races de la ecuaci on indicial son por tanto
r
1
= + 1 , r
2
= .
Notese que la numeracion de las races es la correcta, ya que
r
1
r
2
= 2 + 1 0 .
Por el teorema de Frobenius, si
1
2
y 2 ,= 1, 0, 1, . . . la ecuaci on de Legendre
(3.99) tiene un sistema fundamental de soluciones de la forma
u
1
(x) =
1
[x[
+1

k=0
c
k
x
k
, u
2
(x) = [x[

k=0
d
k
x
k
, (3.101)
con c
0
= d
0
= 1, siendo las series anteriores convergentes para [x[ > 1. Analogamente,
si =
1
2
un sistema fundamental de soluciones de la ecuaci on de Legendre es de la
forma
u
1
(x) =
1
_
[x[

k=0
c
k
x
k
, u
2
(x) = u
1
(x) log [x[ +
1
_
[x[

k=1
d
k
x
k
, (3.102)
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 95


con c
0
= 1, siendo de nuevo ambas series convergentes para [x[ > 1.
Si = 0, el punto t = 0 es regular para la ecuaci on (3.100), por lo que dicha
ecuaci on posee una sistema fundamental de soluciones analticas en (1, 1). Por tanto
las soluciones de la ecuaci on de Legendre para = 0 admiten un desarrollo de la forma
(3.97) para [x[ > 1.
Nota. De hecho, la ecuaci on de Legendre para = 0 es una ecuaci on lineal de primer
orden en u

, y por tanto se integra facilmente. Su soluci on general es


u(x) = C
1
log

1 x
1 +x

+C
2
,
con C
1
, C
2
constantes arbitrarias.
Ejercicio. Probar que si = 1, 2, . . . la ecuaci on de Legendre tiene dos soluciones li-
nealmente independientes de la forma (3.101), mientras que para = 1/2, 3/2, . . . hay
una base de soluciones de la forma
u
1
(x) =
1
[x[
+1

k=0
c
k
x
k
, u
2
(x) = c u
1
(x) log [x[ +[x[

k=0
d
k
x
k
,
con c
0
= d
0
= 1 y c ,= 0.
Soluci on.
Sea 2 + 1 = n + 1 con n = 1, 2, . . . , de modo que las races de la ecuaci on indicial
son r
1
=
n
2
+ 1 y r
2
=
n
2
. El teorema de Frobenius garantiza entonces la existencia de
una soluci on de la forma
y
1
(t) = t
n
2
+1

i=0
c
i
t
i
,
donde hemos supuesto, por sencillez, que t > 0. Debemos ahora determinar si la ecuaci on
(3.100) posee una soluci on de la forma
y
2
(t) =

i=0
d
i
t
i
n
2
con d
0
,= 0. Sustituyendo en la ecuaci on diferencial (3.100) se obtiene inmediatamente
t
2
(t
2
1)

i=0
d
i
_
i
n
2
__
i
n
2
1
_
t
i
n
2
2
+2

i=0
d
i
_
i
n
2
_
t
i
n
2
+2
+
n
2
_
n
2
+1
_

i=0
d
i
t
i
n
2
= nd
1
t
1
n
2
+

i=2
_
i(n i + 1)d
i
+
_
i
n
2
1
__
i
n
2
2
_
d
i2
_
t
i
n
2
= 0 .
De esta forma se obtiene la condici on
nd
1
= 0 (3.103)
junto con la relaci on de recurrencia
i(n i + 1)d
i
=
_
i
n
2
1
__
i
n
2
2
_
d
i2
i = 2, 3, . . . . (3.104)
Si n = 2m es un entero positivo par la relaci on de recurrencia tiene soluci on. En efecto,
si n = 2m con m = 1, 2, . . . entonces todos los coecientes pares est an determinados por
CAP

ITULO 3. SOLUCIONES EN FORMA DE SERIE 96


la relaci on de recurrencia en funcion de d
0
, ya que 2m + 1 i no se anula para ning un
entero par i. Ahora d
1
= 0, y por tanto la relaci on de recurrencia implica que
d
3
= = d
2m1
= 0 .
Haciendo i = 2m+ 1 en la relaci on de recurrencia se obtiene
0 d
2m+1
= 0 ,
lo cual implica que d
2m+1
no est a determinado. (Esto es razonable, ya que si a nadimos a
y
2
(t) un m ultiplo cualquiera de y
1
(t) seguimos teniendo una soluci on.) Sin embargo, dado
que 2m + 1 i no se anula para i = 2m + 3, 2m + 5, . . . , todos los coecientes impares
a partir de d
2m+1
est an determinados por este (en particular, se anulan si tomamos
d
2m+1
= 0).
Veamos ahora que ocurre si n = 2m 1 con m = 1, 2, . . . . En este caso todos los
coecientes impares son nulos, ya que d
1
= 0 y 2m i no es cero para i impar. Como
2m i tampoco se anula para i = 2, . . . , 2m 2, los coecientes pares d
2
, . . . , d
2m2
est an determinados por la relaci on de recurrencia en funcion de d
0
. Ninguno de dichos
coecientes se puede anular si d
0
,= 0, ya que el factor
_
i m
1
2
_ _
i m
3
2
_
no
se anula para ning un entero i. Sin embargo, la relaci on de recurrencia para i = 2m
proporciona la ecuaci on
0 =
_
m
1
2
__
m
3
2
_
d
2m2
,
que es contradictoria. Por tanto, la segunda soluci on contiene en este caso un termino
logartmico.
Captulo 4
Sistemas dinamicos en el plano
4.1 Resultados generales
Un sistema dinamico en R
n
es un sistema autonomo de n ecuaciones diferenciales
de primer orden
x = f(x) . (4.1)
Notese que la funcion vectorial f : R
n
R
n
no depende del tiempo (variable indepen-
diente) t. La notaci on que utilizaremos en este captulo es la siguiente:
x = (x
1
, . . . , x
n
) , x =
dx
dt
.
Notese que un sistema arbitrario (es decir, no necesariamente aut onomo)
dy
dt
= g(t, y) (4.2)
puede convertirse facilmente en un sistema din amico. En efecto, si x = (t, y) entonces
x = f(x), siendo
f(x) =
_
1, g(x)
_
.
Recprocamente, las soluciones de este sistema con la condici on inicial t(0) = 0 son de
la forma (t, y(t)), con y(t) soluci on de (4.2).
Si la funcion f es de clase C
1
en un abierto U R
n
entonces f, considerada como
funcion de RR
n
R
n
independiente de la variable t, es localmente lipschitziana en
RU respecto de la variable x. Por tanto, dado cualquier dato inicial x
0
U localmente
hay una unica soluci on x(t; t
0
, x
0
) del sistema din amico satisfaciendo dicho dato inicial
en el instante t = t
0
:
x(t
0
; t
0
, x
0
) = x
0
.
Si t
0
= 0, escribiremos normalmente x(t; x
0
) en lugar de x(t; 0, x
0
).
Historicamente, el primer ejemplo de sistema din amico es el que describe el mo-
vimiento de un sistema clasico aislado de N partculas. En efecto, si las coordenadas
espaciales de la i-esima partcula las denotamos por X
i
=
_
X
i1
, X
i2
, X
i3
_
entonces las
ecuaciones de Newton del sistema son de la forma

X
i
= F
i
(X
1
, . . . , X
N
,

X
1
, . . . ,

X
N
) , i = 1, 2, . . . , N , (4.3)
97
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 98
siendo F
i
=
_
F
1
, F
2
, F
3
_
la fuerza por unidad de masa que act ua sobre la i-esima partcu-
la. Introduciendo la velocidad P
i
=

X
i
y llamando
x =
_
X
1
, . . . , X
N
, P
1
, . . . , P
N
_
R
6N
,
las ecuaciones de Newton (4.3) se convierten en el sistema din amico (4.1) con f : R
6N

R
6N
dada por
f(x) =
_
x
3N+1
, . . . , x
6N
, F
1
(x), . . . , F
N
(x)
_
.
Una trayectoria de un sistema din amico es la gr aca
_
t, x(t)
_
de cualquier soluci on
x(t) (t I, siendo I R un intervalo). Notese por tanto que las trayectorias son curvas
en R U R
n+1
, parametrizadas adem as de una forma especial (es decir, utilizando
la primera coordenada como par ametro de la curva). Una orbita del sistema din amico
(4.1) es una curva U R
n
(considerada como conjunto de puntos) que se puede
parametrizar con una soluci on x(t) del sistema (4.1), es decir tal que
= x(t) : t I , (4.4)
para alguna soluci on x(t) del sistema. Por lo tanto, la proyeccion de una trayectoria
(t, x(t)) R U sobre U R
n
es una orbita, y recprocamente toda orbita se puede
parametrizar de modo que sea la proyeccion sobre U de una trayectoria. Se suele llamar
espacio de fases del sistema din amico n-dimensional (4.1) al abierto U R
n
en que f
est a denida (y es de clase C
1
), mientras que al cilindro RU R
n+1
se le denomina
espacio de fases ampliado. Llamaremos tambien mapa de fases del sistema din amico
(4.1) al conjunto de todas sus orbitas.
Ejemplo 4.1. Consideremos el sistema din amico plano (es decir, n = 2)
x
1
= x
2
, x
2
= x
1
. (4.5)
Este es un sistema lineal homogeneo de coecientes constantes x = Ax, siendo
A =
_
0 1
1 0
_
.
La soluci on general del sistema es por tanto
x(t) = e
tA
x
0
=
_
cos t sen t
sen t cos t
__

_
=
_
cos t + sen t, sen t + cos t
_
,
con (, ) R
2
. Las trayectorias del sistema son por tanto las helices
t (t, cos t + sen t, sent + cos t
_
R
3
, t R.
Notese que las trayectorias son curvas en R
3
. Las orbitas del sistema son las proyecciones
de las helices anteriores sobre las dos ultimas coordenadas, es decir las curvas planas
parametrizadas por
t
_
cos t + sent, sen t + cos t
_
.
Las ecuaciones parametricas de las orbitas son por tanto
x
1
= cos t + sen t , x
2
= sen t + cos t .
Eliminando el par ametro t obtenemos la ecuaci on implcita de las orbitas
x
2
1
+x
2
2
=
2
+
2
.
Se trata, por tanto, de circunferencias de centro el origen y radio
_
a
2
+
2
.
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 99
La propiedad fundamental de un sistema aut onomo (en el que la funcion f no de-
pende explcitamente del tiempo t) es la siguiente:
Proposici on 4.2. Si x(t) es una soluci on de (4.1) y c R entonces x(t + c) sigue
siendo soluci on de (4.1).
Demostraci on. Si y(t) = x(t +c) entonces
y(t) = x(t +c) = f
_
x(t +c)
_
= f
_
y(t)
_
.
Q.E.D.
Por el teorema de unicidad, si f C
1
(U) dos trayectorias del sistema no se pueden
cortar, ya que en caso contrario las soluciones correspondientes a dichas trayectorias
tendran ambas el mismo dato inicial (el punto de corte). Este resultado es cierto tam-
bien para sistemas no aut onomos. Sin embargo, los sistemas aut onomos satisfacen una
condici on m as fuerte:
Proposici on 4.3. Las orbitas del sistema din amico (4.1) no se cortan.
Demostraci on. Supongamos, en efecto, que dos orbitas distintas (localmente)
1
y
2
se
cortaran en el punto x
0
U. Sean x
1
(t) y x
2
(t) dos soluciones del sistema correspon-
dientes a dichas orbitas. entonces existiran dos tiempos t
1
y t
2
tales que
x
1
(t
1
) = x
2
(t
2
) = x
0
. (4.6)
Por el resultado anterior, las funciones y
1
(t) = x
1
(t +t
1
) e y
2
(t) = x
2
(t +t
2
) son ambas
soluci on del sistema, y por (4.6) satisfacen la condici on inicial
y
1
(0) = y
2
(0) = x
0
.
Por el teorema de unicidad, y
1
(t) = y
2
(t) en un entorno de t = 0, y por tanto las funciones
x
1
y x
2
parametrizan la misma curva en un entorno de x
0
(pues x
1
(t) = x
2
(t +t
2
t
1
)
en un entorno de t = t
1
). Q.E.D.
De la demostracion anterior tambien se sigue que si es una orbita de (4.1) y x(t) es
una soluci on del sistema que parametriza , entonces las unicas soluciones del sistema
que parametrizan a la orbita son de la forma x(t + c) con c R constante. En otras
palabras, la parametrizaci on de cualquier orbita de un sistema din amico est a determina-
da salvo por una traslaci on temporal. (En lo anterior se sobreentiende que nos referimos
a parametrizaciones de las orbitas con soluciones del sistema.) En particular, el sentido
de recorrido (orientaci on) de las orbitas est a bien determinado, ya que x(t) y x(t +c)
ambas determinan la misma orientacion.
Geometricamente, el sistema din amico (4.1) admite la siguiente interpretacion sen-
cilla. La funcion f : U R
n
R
n
que dene el sistema es un campo de vectores
en U R
n
, ya que a cada punto x de U le asigna un vector f(x) R
n
(piensese, por
ejemplo, en el caso n = 3). Si es una orbita del sistema y x
0
es un punto cualquiera
de , el vector f(x
0
) es tangente a en x
0
, y su sentido coincide con la orientaci on de
. En efecto, si x(t) es una soluci on de (4.1) que parametriza a entonces x
0
= x(t
0
)
para alg un t
0
, y por tanto (al ser x(t) soluci on del sistema) x(t
0
) = f
_
x(t
0
)
_
= f(x
0
).
Las orbitas cerradas de un sistema aut onomo (de clase C
1
) han de ser necesariamente
curvas cerradas simples (sin autointersecciones). En efecto, si una orbita cerrada del
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 100


sistema (4.1) se autointersecara en un punto x
0
entonces por dicho punto pasaran en
realidad dos orbitas distintas del sistema.
Proposici on 4.4. Una orbita del sistema (4.1) es cerrada si y s olo si las soluciones
del sistema que la parametrizan son funciones peri odicas.
Demostraci on. Notese que la condici on del enunciado tiene sentido, ya que acabamos
de ver que las soluciones que parametrizan una orbita dieren en una traslaci on en el
tiempo. Si x(t) es una soluci on de (4.1) de perodo T > 0, la orbita que parametriza
es una curva cerrada, ya que obviamente
= x(t)) : t
0
t < t
0
+T
y x(t
0
) = x(t
0
+ T). Recprocamente, supongamos que es una orbita cerrada del
sistema, y sea x(t) una soluci on del sistema que parametrice . Si x(t) est a denida en
t = a, por ser la curva cerrada existe un mnimo valor de b > a tal que x(a) = x(b).
Entonces x(t) y x(t + b a) son dos soluciones del sistema que verican la misma
condici on inicial en t = a. Por el teorema de unicidad, x(t) = x(t + b a) para todo t,
y por tanto la soluci on x tiene perodo b a. Q.E.D.
Por denicion, el perodo de una orbita cerrada del sistema (4.1) es el (menor)
perodo de cualquier soluci on del sistema que parametrice dicha curva.
Ejemplo 4.5. Las curvas del sistema din amico (4.5) se pueden escribir como sigue:
x(t) = r
_
cos(t t
0
), sen(t t
0
)
_
siendo r =
_

2
+
2
y
= r cos t
0
, = r sent
0
.
Otra parametrizacion de la misma orbita es x(t) = r(cos t, sen t). Las orbitas son por
tanto circunferencias centradas en el origen y orientadas en sentido horario. En este caso,
todas las orbitas del sistema son cerradas y tienen el mismo perodo (2). En general, sin
embargo, dos orbitas cerradas distintas de un sistema din amico tienen distinto perodo.
Es posible encontrar la ecuaci on cartesiana (o implcita) de las orbitas de un sistema
sin hallar antes sus soluciones. Para ello parametrizamos la orbita utilizando como
par ametro una de las coordenadas, por ejemplo la primera. Por el teorema de la funcion
inversa, esto podremos hacerlo localmente en un entorno de cualquier punto en que
x
1
,= 0, es decir en que f
1
(x) ,= 0. La orbita vendra por tanto descrita localmente con
una parametrizacion de la forma x
1

_
x
1
, x
2
(x
1
), . . . , x
n
(x
1
)
_
. Para determinar las
funciones x
i
(x
1
) (2 i n), observese que
dx
i
dx
1
=
x
i
x
1
=
f
i
(x
1
, x
2
, . . . , x
n
)
f
1
(x
1
, x
2
, . . . , x
n
)
, i = 2, 3, . . . , n.
La ecuaci on diferencial de las orbitas en esta parametrizacion es por tanto el siguiente
sistema no aut onomo de orden n 1:
dx
i
dx
1
=
f
i
(x
1
, x
2
, . . . , x
n
)
f
1
(x
1
, x
2
, . . . , x
n
)
, i = 2, 3, . . . , n. (4.7)
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 101


Observese que esta parametrizacion s olo tiene sentido en puntos en que f
1
(x) ,= 0. Por
ejemplo, en el caso de un sistema plano, que normalmente escribiremos
_
x = f(x, y)
y = g(x, y) ,
(4.8)
las ecuaciones de las orbitas son
dy
dx
=
g(x, y)
f(x, y)
, si f(x, y) ,= 0 (4.9)
o
dx
dy
=
f(x, y)
g(x, y)
, si g(x, y) ,= 0 . (4.10)
Por ejemplo, para el sistema lineal
_
x = y
y = x
estudiado anteriormente, la ecuaci on de las orbitas tomando a x como variable indepen-
diente es
dy
dx
=
x
y
, y ,= 0 ,
que es de variables separadas y se integra facilmente:
x
2
+y
2
= c , c 0 R.
Como ya vimos anteriormente, las orbitas son circunferencias centradas en el origen.
Los unicos puntos del espacio de fases en que no es posible parametrizar las orbi-
tas tomando como par ametro alguna de las coordenadas son los puntos en que todas
las funciones f
i
se anulan. Estos puntos, de importancia fundamental para entender el
comportamiento cualitativo del sistema din amico correspondiente, reciben el nombre de
puntos crticos o equilibrios del sistema:
Denicion 4.6. Un punto x
0
R
n
es un punto crtico o equilibrio del sistema (4.1)
si f(x
0
) = 0 .
Si x
0
es un punto crtico del sistema (4.1), dicho sistema posee obviamente la soluci on
constante x(t) = x
0
, para todo t R. Esta es la raz on por la cual a los puntos crticos
de un sistema din amico se les llama tambien equilibrios. Visto de otra forma, un punto
crtico es una orbita del sistema din amico (4.1) que se reduce a un punto. Por la Propo-
sici on 4.3, ninguna orbita del sistema puede contener a un punto crtico x
0
. Observese,
sin embargo, que una orbita x(t) puede entrar en el equilibrio (si lim
t
x(t) = x
0
) o
salir de el (si lim
t
x(t) = x
0
).
En un sistema din amico, los equilibrios son los puntos m as interesantes. En efecto,
si x
0
R
n
no es un equilibrio (f(x
0
) ,= 0) se puede probar que es posible realizar un
cambio de variables local y = Y (x) de forma que en la variable y el sistema din amico
(4.1) se escriba
y
1

= 1 , y
2

= = y
n

= 0 .
En las nuevas coordenadas y
1
, . . . , y
n
, las orbitas del sistema en las proximidades del
punto y
0
= Y (x
0
) son simplemente rectas paralelas al eje y
1
.
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 102


Denicion 4.7. Sea x
0
un punto crtico del sistema din amico (4.1).
i) x
0
es un punto crtico aislado si el sistema no tiene ning un punto crtico en el
entorno perforado 0 < |x x
0
| < , con > 0 sucientemente peque no.
ii) x
0
es un punto crtico elemental (simple, no degenerado) si det Df(x
0
) ,= 0 .
iii) x
0
es un punto crtico hiperbolico si todos los autovalores de Df(x
0
) tienen parte
real distinta de cero.
Proposici on 4.8. x
0
punto crtico hiperb olico = x
0
punto crtico elemental = x
0
punto crtico aislado.
Demostraci on. La primera implicaci on es trivial, ya que si det Df(x
0
) = 0 alg un autova-
lor de Df(x
0
) es igual a cero, y por tanto x
0
no es un punto crtico hiperb olico. En cuanto
a la segunda, por el teorema de la funcion inversa existe un entorno V = B

(x
0
) de x
0
en que f es invertible. Por tanto, si x V y f(x) = 0 = f(x
0
) entonces x = x
0
. Q.E.D.
Ejemplo 4.9. Estudiemos como son los puntos crticos del sistema din amico lineal
x = Ax (4.11)
en terminos de la matriz A. En primer lugar, x
0
es un punto crtico de (4.11) si y s olo si
Ax
0
= 0. Por tanto, 0 es siempre un punto crtico de (4.11), y es el unico punto crtico si
y s olo si la matriz A es no degenerada (det A ,= 0). El origen es un punto crtico aislado
si y s olo si det A ,= 0. En efecto, si det A ,= 0 entonces 0 es el unico punto crtico, y si
det A = 0 entonces las soluciones de Ax
0
= 0 forman un subespacio lineal (en n ucleo de
la matriz A) que contiene a 0.
Como f(x) = Ax, se tiene que Df(x
0
) = A para todo x
0
. Por tanto, x
0
es un punto
crtico elemental de (4.11) si y s olo si det A ,= 0. En otras palabras, si det A ,= 0 el unico
punto crtico es 0, que es aislado y elemental, y si det A = 0 entonces hay innitos puntos
crticos, que forman un subespacio lineal y son no aislados (y, por tanto, no elementales).
Por ultimo, si det A ,= 0 el origen es un punto crtico hiperb olico si y s olo si todos los
autovalores de A tienen parte real no nula.
La importancia de los sistemas din amicos lineales estriba en que un sistema din amico
arbitrario se puede aproximar por un sistema lineal apropiado en las proximidades de
cualquier equilibrio x
0
. En efecto, por denicion de derivada
f(x) = f(x
0
) +Df(x
0
) (x x
0
) +(x) = Df(x
0
) (x x
0
) +(x) ,
siendo |(x)| muy peque no frente a |x x
0
|:
lim
xx
0
|(x)|
|x x
0
|
= 0 .
Es razonable por tanto pensar que el sistema din amico (4.1) se pueda aproximar (en
un sentido que precisaremos a continuaci on) en las proximidades del equilibrio x
0
por
el sistema lineal
y = Df(x
0
) y , (4.12)
siendo y = x x
0
la desviaci on del equilibrio. Diremos que (4.12) es la aproxima-
cion lineal de (4.1) en el punto crtico x
0
. El mapa de fases de (4.1) en un entorno de
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 103


x
0
y el de su aproximacion lineal (4.12) en un entorno del origen deberan ser cualitati-
vamente semejantes. En general, sin embargo, esto s olo es cierto si el punto crtico x
0
es
hiperb olico
1
. Por ejemplo, si x
0
es un punto crtico hiperb olico de (4.1) su estabilidad
puede determinarse estudiando la estabilidad de la aproximacion lineal en x
0
:
Teorema 4.10. Si x
0
es un punto crtico hiperb olico del sistema din amico (4.1),
entonces x
0
tiene el mismo tipo de estabilidad para (4.1) que la aproximaci on lineal
de (4.1) en x
0
.
En otras palabras, x
0
es asint oticamente estable si todos los autovalores de Df(x
0
)
tienen parte real negativa, e inestable si alg un autovalor de Df(x
0
) tiene parte real
positiva.
4.2 Sistemas dinamicos lineales en R
2
Consideremos el sistema din amico lineal
_
x
y
_
= A
_
x
y
_
, A =
_
a b
c d
_
. (4.13)
Llamaremos
= tr A a +d , d = det A ad bc . (4.14)
Supondremos que la matriz A es no degenerada, es decir d ,= 0 , y por tanto el origen
es un punto crtico elemental del sistema lineal (4.13). El polinomio caracterstico de A
es
p
A
() =
2
+ d , (4.15)
con discriminante
=
2
4d . (4.16)
Sea X = (x, y), y efectuemos un cambio de variables dependientes real X = P Z , con
det P ,= 0. Entonces

X = P

Z = AX =

Z = P
1
AX =
_
P
1
AP
_
Z
y por tanto Z(t) es soluci on del sistema lineal

Z =
_
P
1
AP
_
Z . (4.17)
Si los autovalores de la matriz A son ambos reales, se puede escoger P de modo que sus
columnas de P formen una base de Jordan de A, en cuyo caso
P
1
AP = J =
_

1
0

2
_
, (4.18)
siendo
1

2
los dos autovalores de A, y 0, 1, con = 0 si
1
,=
2
o si A
es proporcional a la identidad. Notese que los mapas de fases de (4.13) y (4.17) son
1
Intuitivamente, esto se debe a que si el punto crtico es hiperbolico una peque na perturbacion del
sistema lo transformara en un punto crtico hiperbolico. La hiperbolicidad de un punto crtico es por
tanto generica.
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 104


linealmente equivalentes, ya que se pasa de uno al otro mediante el cambio de variable
lineal X = P Z. Observese tambien que
=
1
+
2
, d =
1

2
. (4.19)
Se pueden dar los siguientes casos:
I) Los autovalores de A son reales, es decir

2
4d 0 . (4.20)
I.a) d < 0
Notese que d < 0 =
2
4d > 0. En este caso los dos autovalores tienen signos
opuestos, es decir

1
< 0 <
2
.
Si Z = (z
1
, z
2
), la soluci on general del sistema en Z es
z
1
= c
1
e

1
t
, z
2
= c
2
e

2
t
, (4.21)
con c
1
y c
2
constantes arbitrarias. La ecuaci on cartesiana de las orbitas se deduce facil-
mente de la anterior:
z
2
= c [z
1
[

1
, c R, (4.22)
junto con z
1
= 0 (en realidad, se trata de las dos orbitas z
1
= 0, z
2
> 0 y z
1
= 0, z
2
< 0).
Notese que las dos soluciones
Z(t) = (1, 0)e

1
t
parametrizan el eje z
1
(menos el origen) y entran en el punto crtico (el origen), al ser

1
negativo, mientras que las soluciones
Z(t) = (0, 1)e

2
t
parametrizan el eje z
2
y salen del origen (
2
> 0). Si efectuamos la transformacion
lineal X = P Z para pasar a las variables originales X = (x, y), el mapa de fases es
semejante. En particular, los ejes z
1
y z
2
se transforman en dos rectas, dirigidas en la
direcci on de los dos autovectores linealmente independientes de la matriz A. En este
caso se dice que el origen es un punto de silla del sistema (4.13).
I.b) d > 0
Notese que las desigualdades d > 0 y
2
4d 0 implican que ,= 0. En este caso
los dos autovalores tienen el mismo signo, igual al signo de . Es conveniente distinguir
los siguientes subcasos:
I.b.1)
2
4d > 0 , d > 0
Los dos autovalores son distintos, y del mismo signo. La soluci on del sistema y la
ecuaci on de las orbitas todava est an dados por (4.21) y (4.22), respectivamente. Sin
embargo, al ser los dos autovalores del mismo signo, todas las soluciones tienden al
origen para t si < 0, y por tanto
1
<
2
< 0, o para t si > 0 y
0 <
1
<
2
. Notese adem as que si > 0 y c
1
,= 0
lim
t
z
2
(t)
z
1
(t)
= lim
t

2
c
2

1
c
1
e
(
2

1
)t
= 0 ,
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 105


Por tanto, si > 0 todas las orbitas menos la recta z
1
= 0 salen del origen con pendiente
cero. Analogamente, si < 0 y c
2
,= 0 todas las orbitas menos z
2
= 0 entran en el origen
tangentes al eje z
2
.
En las coordenadas originales X = (x, y), todas las orbitas entran o salen del origen
seg un sea < 0 o > 0. Dichas orbitas entran o salen del origen tangentes a la recta
paralela al autovector correspondiente al menor autovalor en valor absoluto, excepto la
recta paralela al otro autovector. Diremos que el origen es un nodo estable si < 0, y
un nodo inestable si > 0.
I.b.2)
2
4d = 0 (d > 0) , A = 1
Las soluciones son las rectas X = v e
t
, con v R
2
y = /2. De nuevo, si > 0
las orbitas salen del origen, y entran en el origen si < 0. Se dice en este caso que el
origen es un nodo propio (estable si < 0, inestable si > 0).
I.b.3)
2
4d = 0 (d > 0) , A ,= 1
En este caso la forma can onica de Jordan de A es
J =
_
0
1
_
, =

2
.
Notese que en este caso la matriz A tiene un s olo autovector linealmente independiente,
que est a dado por la segunda columna de P. La soluci on del sistema (4.17) es ahora
z
1
= c
1
e
t
, z
2
= (c
1
t +c
2
) e
t
(c
1
, c
2
R) .
La ecuaci on de las orbitas es
z
2
= z
1
_
1

log [z
1
[ +c
_
, c R,
junto con z
1
= 0. De nuevo, todas las orbitas entran en el origen (resp. salen del origen)
si < 0 (resp. > 0). Ademas, si c
1
,= 0
z
2
(t)
z
1
(t)
=
c
1
t + (c
1
+c
2
)
c
1
= t +
_
c
2
c
1
+
1

t
,
por lo que todas las orbitas entran o salen del origen tangentes al eje z
2
. En las coor-
denadas de partida x, las orbitas entran o salen del origen (seg un sea < 0 o > 0)
tangentes a la recta paralela al autovector de la matriz A. Se dir a que el origen es un
nodo de una tangente (estable si < 0, inestable si > 0).
II)
2
4d < 0
En este caso hay dos autovalores complejos conjugados
1,2
= i , con > 0.
Existe por tanto un vector v C
2
tal que
Av = ( + i )v .
Tomando la parte real e imaginaria de esta igualdad compleja obtenemos las dos igual-
dades reales
A Re v = Re v Imv , A Imv = Imv + Re v .
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 106


Por tanto, si P =
_
Re v Imv
_
se tiene
P
1
AP =
_


_
Como la traza y el determinante son invariantes bajo transformaciones lineales se tiene
= 2, d =
2
+
2
. (4.23)
Efectuando el cambio X = P Z obtenemos el sistema en Z
z
1
= z
1
+ z
2
z
2
= z
1
+z
2
.
(4.24)
Pasando a coordenadas polares
z
1
= r cos , z
2
= r sen
obtenemos:
r
2
= z
2
1
+z
2
2
=r r = z
1
z
1
+z
2
z
2
= r
2
z
1
= z
1
+ z
2
= r cos (r sen )

= z
1
z
2

=

= .
El sistema en coordenadas polares es
r = r ,

= , (4.25)
con soluci on general
r = r
0
e
t
, =
0
t ; r
0
,
0
R. (4.26)
La ecuaci on de las orbitas es por tanto
r = r
0
e

(
0
)
. (4.27)
Se trata de una familia de espirales logartmicas, si ,= 0 (es decir, ,= 0), o circunfe-
rencias centradas en el origen, si = 0 ( = 0). En el plano (x, y), las orbitas siguen
siendo espirales para ,= 0, y son elipses centradas en el origen para = 0. En el
primer caso ( ,= 0) se dice que el origen es un foco, estable para < 0 e inestable para
> 0, mientras que si = 0 el origen es un centro. Si > 0, las espirales tienden
al origen para t , mientras que si < 0 esto ocurre para t . El sentido de
giro alrededor del origen de las espirales o las circunferencias se determina facilmente
observando cu al es la direcci on del vector velocidad AX cuando la orbita cruza uno de
los ejes. Por ejemplo, la componente x del vector velocidad para x = 0 es f(0, y) = b y.
Por tanto, el sentido de giro es horario (antihorario) si b > 0 (b < 0). Del mismo modo,
como g(x, 0) = c x el sentido de giro es horario si c < 0, y antihorario si c > 0. Notese
que

2
4d = (a +d)
2
4(ad bc) = (a d)
2
+ 4bc < 0 =bc < 0 .
En el plano de los par ametros (, d), el conjunto
2
4d = 0 representa una par abola.
El tipo de punto crtico que el sistema lineal (4.13) tiene en el origen (punto de silla,
nodo, foco o centro) est a determinado por la posici on del punto (, d) en el espacio de
par ametros en relaci on con esta par abola y con los ejes coordenados (g. 4.1).
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 107

2
4d = 0
d
FOCO INEST.
NODO INEST.
NODO INEST.

PTO. DE SILLA PTO. DE SILLA


FOCO EST.
NODO EST.
NODO EST.
CENTRO
Figura 4.1: Tipos de puntos crticos del sistema lineal (4.13).
4.3 Sistemas dinamicos no lineales en R
2
Consideremos a continuaci on el sistema din amico plano
_
x = f(x, y)
y = g(x, y) ,
(4.28)
donde las funciones f y g se supondran como mnimo de clase C
1
en un abierto U R
2
,
y supongamos que (x
0
, y
0
) es un punto crtico de (4.28). La aproximacion lineal del
sistema (4.28) en el punto crtico (x
0
, y
0
), es el sistema lineal

X = a X +b Y

Y = c X +d Y ,
(4.29)
siendo (X, Y ) = (x x
0
, y y
0
),
_
a b
c d
_
= D(f, g)(x
0
, y
0
) =
_
f
x
(x
0
, y
0
) f
y
(x
0
, y
0
)
g
x
(x
0
, y
0
) g
y
(x
0
, y
0
)
_
. (4.30)
El siguiente teorema relaciona el comportamiento del sistema no lineal (4.28) en las
proximidades de un punto crtico elemental (x
0
, y
0
) con el de su aproximacion lineal
(4.29) en un entorno del origen. Dicho teorema arma esencialmente que si f y g son
sucientemente regulares en (x
0
, y
0
), y dicho punto crtico es hiperb olico, entonces el
sistema original (4.28) y su aproximacion lineal (4.29) tienen el mismo tipo de punto
crtico en (x
0
, y
0
) y en el origen, respectivamente.
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 108


Teorema 4.11. Sea (x
0
, y
0
) un punto crtico elemental del sistema (4.28), es decir
f(x
0
, y
0
) = g(x
0
, y
0
) = 0 , det D(f, g)(x
0
, y
0
) =

f
x
(x
0
, y
0
) f
y
(x
0
, y
0
)
g
x
(x
0
, y
0
) g
y
(x
0
, y
0
)

,= 0 .
Entonces se verica:
i ) Si (f, g) C
1
y la aproximaci on lineal (4.29) tiene un foco o un punto de silla
en el origen, entonces el sistema (4.28) tiene resp. un foco del mismo tipo (es
decir, estable o inestable) o un punto de silla en (x
0
, y
0
).
ii ) Si (f, g) C
2
y la aproximaci on lineal (4.29) tiene un nodo en el origen, en-
tonces el sistema (4.28) tiene un nodo del mismo tipo (estable o inestable, de
una tangente) en (x
0
, y
0
).
iii ) Si f y g son analticas en (x
0
, y
0
) y la aproximaci on lineal (4.29) tiene un centro
en el origen, entonces el sistema (4.28) puede tener un centro o un foco en
(x
0
, y
0
).
Nota. Si la aproximacion lineal tiene un nodo en el origen y (f, g) s olo es de clase C
1
,
el sistema no lineal (4.28) puede tener un foco en (x
0
, y
0
). Por ejemplo, esto es lo que
ocurre para el sistema
_

_
x = x
y
log r
y = y +
x
log r
en el origen. Analogamente, si la aproximacion lineal tiene un centro en el origen y (f, g)
es de clase C
k
(con 1 k < ), el sistema no lineal (4.28) puede tener un centro-foco
en el origen. Considerese, por ejemplo, el sistema
_
x = y +xr
k+1
sen(1/r)
y = x +y r
k+1
sen(1/r)
en el origen.
Seg un el teorema anterior, si la aproximacion lineal (4.29) tiene un centro en el
origen el sistema original puede tener en dicho punto un centro o un foco (a un cuando
las funciones f y g sean analticas en el punto crtico). Para determinar en este caso
que tipo de punto crtico tiene el sistema (4.28) en (x
0
, y
0
) se pueden usar muchas veces
consideraciones elementales de simetra. En efecto, si probamos que el mapa de fases del
sistema (4.28) en un entorno de (x
0
, y
0
) es simetrico respecto de alguna recta que pase
por dicho punto entonces (x
0
, y
0
) ha de ser forzosamente un centro, ya que una curva de
tipo espiral no es simetrica respecto de ninguna recta.
La simetra m as facil de caracterizar es la simetra respecto de los ejes coordenados.
Por ejemplo, determinemos una condici on suciente para que las orbitas sean simetricas
respecto del eje x, suponiendo que (x
0
, y
0
) = (x
0
, 0) y que el origen es un centro de la
aproximacion lineal en este punto. En primer lugar, para que el campo de vectores (f, g)
sea continuo en el eje x las orbitas deben cortar dicho eje con tangente vertical, es decir
f(x, 0) = 0 (4.31)
para [x x
0
[ sucientemente peque no. En segundo lugar, la simetra respecto del eje
horizontal implica que si
_
x, y(x)
_
es una orbita entonces (x, y(x)) tambien lo es. Esto
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 109


signica que si la funcion y(x) es soluci on de
y

=
g(x, y)
f(x, y)
tambien lo ser a la funcion y(x). Imponiendo esta condici on se obtiene
d
dx
_
y(x)
_
= y

(x) =
g
_
x, y(x)
_
f
_
x, y(x)
_ =
g
_
x, y(x)
_
f
_
x, y(x)
_
para todo x. Esto se cumplira si
g(x, y)
f(x, y)
=
g(x, y)
f(x, y)
.
Por tanto, una condici on suciente para que las orbitas de (4.28) sean simetricas respecto
del eje horizontal es
g(x, y)
f(x, y)
=
g(x, y)
f(x, y)
, f(x, 0) = 0 . (4.32)
En particular, ambas condiciones se cumpliran si
f(x, y) = f(x, y) , g(x, y) = g(x, y) , (4.33)
es decir si f es impar en y y g es par en dicha variable. Analogamente, las orbitas de
(4.28) son simetricas respecto del eje y si
g(x, y)
f(x, y)
=
g(x, y)
f(x, y)
, g(0, y) = 0 (4.34)
o, en particular, si
f(x, y) = f(x, y) , g(x, y) = g(x, y) . (4.35)
Ejemplo 4.12. Consideremos el sistema
x = y
y = x x
3
.
(4.36)
En este ejemplo, las funciones
f(x, y) = y , g(x, y) = x x
3
son analticas en todo R
2
. Los puntos crticos del sistema son las soluciones de las
ecuaciones
y = x x
3
= 0 ,
es decir
(0, 0), (1, 0), (1, 0) . (4.37)
La matriz jacobiana de (f, g) es
D(f, g)(x, y) =
_
0 1
1 3x
2
0
_
.
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 110


Como el determinante de esta matriz, que es igual a 3x
2
1, no se anula en ninguno de
los puntos crticos, todos ellos son elementales. En el origen, la aproximacion lineal de
(4.36) es
_

X

Y
_
= A
_
X
Y
_
, A =
_
0 1
1 0
_
. (4.38)
Al ser det A = 1 < 0, el origen es un punto de silla de la aproximacion lineal (4.38), y
por tanto del sistema original (4.36). Para estudiar el mapa de fases de dicho sistema en
las proximidades del origen, hacemos lo propio con el mapa de fases de la aproximacion
lineal (4.38). Los autovalores de la matriz A son las soluciones de la ecuaci on

1
1

=
2
1 = 0 ,
es decir = 1. Los autovectores (X, Y ) correspondientes al autovalor = 1 son las
soluciones de
_
1 1
1 1
__
X
Y
_
=
_
0
0
_
.
Se trata, por tanto, de la recta Y = X. Analogamente se prueba que los autovectores
correspondientes al autovalor = 1 est an sobre la recta Y = X. El mapa de fases
del sistema lineal (4.38) tiene por tanto el aspecto de la gura 4.2. Volviendo al sistema
original (4.36) en el origen, las dos rectas Y = X se transforman en dos curvas llamadas
separatrices, que salen o entran del origen con pendiente respectivamente igual a 1 o
1 (gura 4.3).
6
4
2
0
2
4
6
6 4 2 2 4 6
x
y
Figura 4.2: Mapa de fases del sistema lineal (4.38).
En los dos puntos crticos (1, 0), la matriz de la aproximacion lineal es igual a
_
0 1
2 0
_
.
La ecuaci on de autovalores de esta matriz es
2
+2 = 0, por lo que el origen es un centro
de la aproximacion lineal de (4.36) tanto en (1, 0) como en (1, 0). Al ser las funciones
f y g analticas, el sistema (4.36) puede tener un centro o un foco en (1, 0). Pero en
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 111


este caso el mapa de fases es simetrico respecto del eje horizontal, ya que f(x, y) = y es
impar en y, y g(x, y) = xx
3
es par en dicha variable (al ser independiente de y). Como
ambos puntos crticos (1, 0) est an sobre el eje horizontal, dichos puntos son centros del
sistema (4.36).
1
0.4
0
0.4
1
1.6 0.4 0.4 1 1.6 1
x
y
Figura 4.3: Mapa de fases del sistema (4.36).
El mapa de fases del sistema (4.36) tiene el aspecto de la gura 4.3. Esto se puede
ver facilmente, por ejemplo, teniendo en cuenta que x = y es siempre positivo en el
semiplano superior y negativo en el inferior. Por tanto, en el semiplano superior las
orbitas se recorren hacia la derecha, mientras que en el inferior el sentido de recorrido es
hacia la izquierda. Por otra parte, y = x(1 +x)(1 x) es negativa para x > 1, positiva
para 0 < x < 1, negativa para 1 < x < 0, y positiva para x < 1. Por ejemplo, la
separatriz con pendiente 1 en el origen se mueve hacia la derecha y hacia arriba para
0 < x < 1. Al llegar a x = 1 el signo de y cambia, por lo que el movimiento es hacia
abajo y hacia la derecha hasta que esta orbita corta el eje x. Al pasar al semiplano
inferior x = y < 0, y el movimiento es hacia la izquierda y hacia abajo (ya que x > 1)
hasta llegar a x = 1, en que de nuevo y se hace positiva. Entre este punto y el origen
(al que esta orbita llega como la segunda separatriz, pues de otra forma cortara a otra
orbita) el movimiento es hacia la izquierda y hacia arriba.
En este ejemplo, podemos hacer armaciones m as precisas sobre las orbitas resol-
viendo su ecuaci on diferencial
dy
dx
=
x x
3
y
,
que es exacta y se integra facilmente:
1
2
y
2
+
1
4
x
4

1
2
x
2
= c
1
, c
1
R,
o, equivalentemente,
(x
2
1)
2
+ 2y
2
= c , c 0 . (4.39)
De esta ecuaci on se deduce que el mapa de fases es simetrico respecto de ambos ejes, y
todas las orbitas son acotadas y cerradas. (La simetra respecto del eje y del mapa de
fases se podra haber deducido sin necesidad de hallar la ecuaci on de las orbitas, ya que
CAP

ITULO 4. SISTEMAS DIN

AMICOS EN EL PLANO 112


g es impar y f par en x, resp.) Los puntos crticos, por ejemplo, se obtienen para c = 0.
Las separatrices son las dos orbitas que pasan por el origen (en realidad, tienden al
origen para t . Sustituyendo por tanto x = y = 0 en la ecuaci on anterior se
obtiene c = 1, por lo que las separatrices son las curvas
(x
2
1)
2
+ 2y
2
= 1 y = x
_
1
x
2
2
.

S-ar putea să vă placă și