Sunteți pe pagina 1din 152

UNIVERSIDAD DE SANTIAGO DE CHILE

Topicos I.
1. Introduccion
Profesor : Mara Angelica Vega U.
El proposito de estos m odulos es entregar los conceptos te oricos necesarios y las aplica-
ciones en forma dirigida, de modo que el estudiante pueda participar en forma activa,
en el proceso ense nanza - aprendizaje, elaborando su propio material de estudio. El
logro deseable es que el estudiante aprenda a aprender.
1.1. Error.
En el analisis de un algoritmo, es necesario considerar el error en la aproximacion obtenida a
la solucion del problema. Este error puede producirse por varios factores, en el ejemplo 1.1 por
redondeo de la aritmetica y termino del proceso innito. Estos errores son parte inevitable del
proceso de solucion y no deben confundirse con los errores cometidos por el usuario, como falla en
el algoritmo o error en la programacion.
Para cada algoritmo podemos conocer una cota de error, esto es una cota sobre el error en la
solucion calculada.
Una cota que no depende de la solucion y puede ser calculada previamente, se llama cota de error
a priori. Cuando una cota no puede ser calculada hasta despues de la completacion de la parte
principal de los calculos es llamada una cota a posteriori. La cota de error es mas grande que el
error, por tal razon debemos desarrollar metodos alternativos de estimacion de error para algunos
problemas. Las cotas de error y estimativos son a menudo calculables y nos dan informacion tanto
del comportamiento asintotico del error como del mejoramiento de las aproximaciones.
Existen dos formas de medir o cuanticar la magnitud de un error.
Denicion 1.1 . Sea x

una aproximaci on del valor exacto x. Un indicador natural es la distancia


entre el valor exacto y el aproximado.
Denimos,
El error absoluto como la distancia,
E
A
(x

) = |x x

|
Observamos que el error absoluto no permite comparar la precisi on entre aproximaciones de
diferentes ordenes de magnitudes.
El error relativo como,
E
R
(x

) =
E
A
(x

)
|x|
=
|x x

|
|x|
Este error es m as signicativo para comparar aproximaciones.
El error porcentual es el error relativo multiplicado por 100,
E
P
(x

) = 100 E
R
(x

)
Estos conceptos de error tienen s olo un valor formal,puesto que no se conoce el valor exacto x. En
la pr actica, se determina una cota o estimativo del error.
Otro concepto importante es el de intervalo precisi on, diremos que [a, b] es un intervalo precisi on
de x, que denotaremos por I(x), si
P(x [a, b]) = 1
es decir, la probabilidad que x este en el intervalo de precision es la cierta.
Relaci on entre error absoluto e intervalo de precision
Dada una cota del error absoluto de x

, es posible determinar el intervalo de precision de x.


Sea una cota del error absoluto,
E
A
(x

) |x x

| x

x x

+
es decir, x [x

, x

+ ] , luego I(x) = [x

, x

+ ].
Inversamente, dado I(x) = [a, b] un intervalo de precision de x, es posible determinar una
cota del error absoluto de cualquier aproximacion x

en [a, b].
Sea x

[a, b] |x x

| max (x

a, b x

) =
de donde,
E
A
(x

) .
Si x

=
a+b
2
=
ba
2
.
Observamos que el error absoluto no es signicativo, a menos que tengamos alg un conocimiento
de la magnitud de x. A menudo se usa el error relativo en termino de porcentajes.
Otro punto importante de considerar al seleccionar un algoritmo es la eciencia, que se mide de
acuerdo al n umero de operaciones aritmeticas basicas requeridas para dar una exactitud en el
resultado.
1.2. Dgitos signicativos.
El uso de la aritmetica de las computadoras lleva al concepto de dgitos signicativos. El dgito
principal o mas signicativo de un n umero real x = 0, es el dgito no nulo mas a la izquierda
de su expresion decimal. Todos los dgitos, incluyendo los ceros a la derecha del dgito signicativo
principal, son signicativos y el ultimo de la serie es el menos signicativo. Sin embargo, los ceros
a la izquierda del dgito signicativo principal no son signicativos. Por ejemplo, si x = 0,0670 el
dgito signicativo principal es 6 y el dgito menos signicativo es el cuarto de izquierda a derecha
cero.
Denicion 1.2 Diremos que x

aproxima a x con k dgitos signicativos (o cifras) ssi k es el


entero m as grande no negativo tal que:
|x x

|
|x|
< 5 10
k
o |x x

| < 5 10
k
|x|. (1)
Ejemplo 1.1 Para que x

aproxime a 1000 con cuatro cifras signicativas, debe satisfacer :


|x

1000|
|1000|
< 5 10
4
. (2)
Es decir, 999,5 < x

< 1000,5
Ejemplo 1.2 Aproxime con 4 dgitos signicativos de precisi on el cero de la funci on f(x) =
x cos(x) que se encuentra en el intervalo [0,
pi
2
], usando metodo de Newton.Raphson.
sol. Gracamos en el intervalo [0,
pi
2
]
Figura 1: f(x) = x cos(x) x [0,

2
]
Algoritmo de Newton-Raphson: Dada una aproximaci on inicial x
0
, generamos una sucesi on
{x
n
)}

n=1
, tal que x
n
se determina por:
x
k+1
= x
k

(f(x
k
)
f

(x
k
)
. (3)
Observando el gr aco podemos seleccionar x
0
= 0,7854, presentamos los resultados de cada it-
eraci on en la siguiente tabla
n x
n
|x
n+1
x
n
|
|x
n+1
|
< 5 10
4
0 0,7854
1 0,7395361684 0,06201702305 > 0,0005
2 0,7390851781 0,0006102007094 > 0,0005
3 0,7390851332 0,0000006075078226 < 0,0005
Luego la aproximaci on requerida es x
3
= 0,7390851
Actividades Libres 1.1
1. Use el metodo de Newton para aproximar con precisi on 10
4
las races de
x 0,8 0,2 sin (x) = 0 en [0,

2
].
2. Aproxime con precisi on 10
5
las races de
e
x
+ 2
x
+ 2cos(x) 6 = 0.
1.3. Polinomios de Taylor
Teorema 1.1 Sean
i) f C
n
[a, b] y f
(n+1)
existe en [a, b).
ii) x
0
[a, b]
entonces para toda x [a, b] existe (x) entre x
0
y x tal que :
f(x) = P
n
(x) + R
n
(x)
donde:
P
n
(x) = f(x
0
) + f

(x
0
)(x x
0
) + f

(x
0
)
(x x
0
)
2
2!
+ f

(x
0
)
(x x
0
)
3
3!
+
+f
(
n)(x
0
)
(x x
0
)
n
n!
y
R
n
(x) = f
(n+1)
((x))
(x x
0
)
(n+1)
(n + 1)!
P
n
(x) se llama el polinomio de Taylor de grado n para f alrededor de x
0
y R
n
(x) se llama
el residuo o error de truncamiento asociado con P
n
(x). La serie innita que se obtiene al
tomar el lmite de P
n
(x), cuando n se denomina serie de Taylor para f alrededor de x
0
.
El termino de error de truncamiento se reere generalmente al error involucrado al usar sumas
nitas o truncadas para aproximar la suma de una serie innita.
1.3.1. Formula de Euler
Un metodo numerico para de resolver el Problema de valor inicial :
P.V.I.

= f(x, y)
y(x
0
) = y
0
.
es el metodo de Euler. Si escribimos la serie de Taylor, con respecto a alg un punto x
i
de la solucion
y(x), entonces tenemos:
y(x) = y
i
+ y

i
(x x
i
) + y

i
(x x
i
)
2
2!
+ y

i
(x x
i
)
3
3!
+
Entonces, podemos aproximar la solucion en x
i+1
por:
y
i+1
= y
i
+ y

i
h + y

i
h
2
2!
+ y

i
h
3
3!
+
donde, h = x
i+1
x
i
. Es claro que mientras mas terminos se consideren en el desarrollo de Taylor
mejor sera la aproximacion. Si consideramos dos terminos del desarrollo, obtenemos:
y
i+1
= y
i
+ y

i
h y
i+1
= y
i
+ f(x
i
, y
i
)h i = 0, 1, 2, (4)
Observese que (4) es el metodo de Euler, con un error de orden O(h
2
), esto signica que los terminos
no considerados contienen potencias de h con exponente mayor o igual que 2.
Error de local del metodo de Euler.
Consideramos:
y
i+1
= y
i
+ hf(x
i
, y
i
)
y suponemos y(x) en serie de Taylor con segunda derivada continua en un intervalo que contiene
a x
i
y(x
i+1
) = y(x
i
) + y

(x
i
)h + y

()
h
2
2!
(5)
donde (x
i
, x
i+1
). Restando ambas ecuaciones :
y(x
i+1
) y
i+1
= y(x
i
) y
i
+ h[f(x
i
, y(x
i
)) f(x
i
, y
i
)] +
(h
2
)
2
y

()
suponiendo y
i
= y(x
i
), obtenemos la formula para el error local:
e
i+1
= y(x
i+1
) y
i+1
=
(h
2
)
2
y

(). (6)
Como generalmente no se conoce el valor de , aunque teoricamente exista, no se puede calcular
este error , pero es posible determinar un estimativo, acotando esta expresion por el maximo que
alcanza la segunda derivada en el intervalo, es decir
|e
i+1
| M
h
2
2!
(7)
con
M = max
x(xi,xi+1)
|y

(x)|
Observemos que el maximo M no depende de h, luego si se reduce h en un factor de
1
2
, la cota
derror se reduce en
1
4
y una reduccion de h en un factor de
1
10
, la cota derror se reduce en
1
100
.
Actividades 1.1 Para el problema de valor inicial siguiente
y

= 0,2xy , y(1) = 1
Use el metodo de Euler para obtener una aproximaci on a y(1,5) usando h = 0,1 y h = 0,05.
Resuelva esta ecuaci on analticamente usando alguno de los metodos ya estudiados y elabore una
tabla que incluya en los puntos seleccionados (Use h = 0,1 ) el valor exacto, el valor aproximado
y el error relativo para cada aproximaci on .
2. Ecuaciones No lineales.
Modulo 2
Prof. M.Angelica Vega
2.1. Metodo de Biseccion
Problema 1. Dada una funcion f(x) no lineal y continua en el intervalo [a, b]. Determinar una
raz [a, b] de la ecuacion f(x) = 0.
Ante el problema planteado surgen las siguientes interrogantes :
1. Existe solucion?
2. Si existe solucion . Es unica ?
3. Como determinarla ?
1.- Existencia : Teorema de Bolzano.
La existencia de solucion esta garantizada por el teorema de Bolzano, cuyo enunciado arma que
bajo las hipotesis :
i) f continua en [a, b].
ii) f(a) y f(b) de distinto signo. (es decir, f(a) f(b) < 0 )
entonces,
existe (a, b) tal que f() = 0.
2.- Unicidad :
La existencia de una unica solucion en el intervalo de precici on queda garantizada por el siguiente
teorema visto en Calculo Diferencial .
Teorema 2.1 Si f es una funci on que satisface las hip otesis :
i) f continua en [a, b].
ii) f(a) f(b) < 0.
iii) f es diferenciable en (a, b)
iv) Signo de f

(x) es constante en (a, b) entonces,


existe un unico (a, b) tal que, f() = 0.
Metodo de Biseccion. Se basa en el teorema de Bolzano, por lo tanto se supone :
i) f continua en I() = [a, b].
ii) f(a) f(b) < 0
Algoritmo de la Biseccion .
1.- Dividir el intervalo de precision I() por la mitad, obteniendose:
x
1
=
(a + b)
2
8
2.- Analizar f(x
1
)
Si f(x
1
) = 0 , entonces = x
1
y detener el proceso.
Si f(x
1
) = 0 , entonces
Si f(x
1
) f(a) < 0 , f(x) tiene un cero en el intervalo [a, x
1
].
Si f(x
1
) f(a) > 0 , f(x) tiene un cero en[x
1
, b].
3.- Repitiendo los pasos 1 y 2 se genera una sucesion de aproximaciones, hasta que se satisfaga una
condicion de termino.
Ventajas y desventajas.
Es posible demostrar que si f(x) es continua en [a, b] y f(a)f(b) < 0, el procedimiento de bisecci on
genera una sucesion que converge a la raz y
|x
n
|
(b a)
2
n
. (8)
Sin embargo este metodo tiene la desventaja que la convergencia es lenta .
Del resultado anterior, se puede deducir una formula para determinar el n umero de iteraciones,
dada una cierta tolerancia .
n
ln
((ba)

ln(2)
. (9)
Actividades 2.1
Demuestre que de (8) puede obtener (9).
Sea f(x) = x
3
+ 4x
2
10, encuentre una raz aproximada.
a) C omo podra vericar si es la unica?
b) Determine I(x).
c) C uantas iteraciones se deben realizar para que la aproximaci on sea correcta a lo menos
en 4 cifras signicativas?
2.2. Metodo de la secante.
Se basa en encontrar una aproximacion a la raz mediante rectas secantes a la gr aca de f(x), de
modo que, si (x
k1
, f(x
k1
)) y (x
k
, f(x
k
)) son dos puntos de la graca de f(x) una aproximaci on
a la raz es, x
k+1
interseccion de la recta secante que une los puntos mencionados con el eje X.
De donde se deduce :
x
k+1
= x
k

(f(x
k
) (x
k
x
k1
))
(f(x
k
) f(x
k1
))
. (10)
9
Figura 2:
Algoritmo de la Secante .
1.- Dadas dos aproximaciones x
0
y x
1
.
2.- Generamos una sucesion de aproximaciones {x
k+1
} denida por:
x
k+1
= x
k

(f(x
k
) (x
k
x
k1
))
(f(x
k
) f(x
k1
))
.
Metodo de la Regula Falsi.
Este algoritmo es una mezcla de los metodos de biseccion y secante.
1.- Si [a, b] es el intervalo de precision, unimos (a, f(a)) y (b, f(b)) para obtener x
1
como intersecci on
de la recta secante que pasa por los puntos precedentes y el eje X.
2.- Trazamos la recta secante por (x
1
, f(x
1
)) y (b, f(b)) cuya intersecci on sobre el eje X determina
dos subintervalos, escogemos aquel que contiene a la raz, vericando :
Si f(x
1
) f(b) < 0 , la raz esta en [x
1
, b] , de lo contrario la raz pertenece al intervalo [a, x
1
] .
3.- Supongamos que f(x
1
) f(b) < 0 , repetimos el paso 1 considerando el intervalo [x
1
, b] , de
modo que se obtiene la aproximacion x
2
, como interseccion de la secante y el eje X.
4.- Procediendo as sucesivamente obtenemos la sucesion {x
k+1
} denida por :
x
k+1
= x
k

(f(x[k]) (b x
k
))
(f(b) f(x
k
))
(11)
Gracamente,
Actividades 2.2
10
Figura 3:
Usando el metodo de la secante, obtener el cero de
f = x 2 sen x
que est a en el intervalo [1,5, 2]
Dada f = x
3
+ x
2
3x 3 , determine en forma aproximada la raz que se encuentra en el
intervalo [0,3] .
Metodo de Newton-Raphson.
El metodo de Newton-Raphson es uno de los metodos numericos m as conocidos en la resoluci on
del problema de b usqueda de races de la ecuacion :
f(x) = 0
Existen tres formas de derivar este metodo, un enfoque basado en el polinomio de Taylor, como
un procedimiento para obtener una convergencia mas rapida que la que se obtiene con los otros
metodos y el metodo graco.
Discutiremos este ultimo. Geometricamente consiste en dada una funci on dos veces continuamente
diferenciable, nos aproximamos a la raz mediante rectas tangentes, de modo que si ((x
k
, f(x
k
)) es
un punto de la graca de f(x), trazamos la recta tangente en este punto y donde la tangente corta
al eje X obtenemos la aproximacion x
k+1
, es decir, geometricamente
de donde deducimos
x
k+1
= x
k

(f(x
k
))
(f

(x
k
))
. (12)
11
Figura 4:
Actividades 2.3 Use el metodo de Newton-Raphson para determinar una aproximacion de la
mayor raz negativa de la ecuaci on f(x) = 0 con
f(x) = x
5
+ 0,85x
4
+ 0,70x
3
3,45x
2
1,10x + 1,265
use como aproximaci on inicial x
0
= 0,1.
2.3. Estudio de la convergencia del metodo de Newton-Raphson.
Denicion 2.1 Si {x
n
} es una sucesi on de n umeros reales que converge a la raz r, diremos que
la raz on de convergencia es de orden si existen dos constantes C y y un entero N tal que,
|x
n+1
r| C|x
n
r|

, n N o lm
n
|x
n+1
r|
|x
n
r|

= C. (13)
Observacion 2.1 i) Si usamos la notaci on |e
n+1
| = |x
n+1
r| (error absoluto cometido en la
(n+1)- esima aproximaci on), el lmite puede abreviarse por
lm
n
|e
n+1
|
|e
n
|

= C.
ii) Si C < 1 y N es un entero tal que
|x
n+1
r| C|x
n
r| n N
diremos que la convergencia es a lo menos lineal .
12
iii) Si existen C no necesariamente menor que 1 y un entero N tal que
|x
n+1
r| C|x
n
r|
2
n N
diremos que la convergencia es a lo menos cuadr atica.
2.4. Velocidad de convergencia del metodo de Newton- Raphson
Comentamos antes, que otra forma de obtener Newton-Raphson consiste en derivarlo a partir del
desarrollo en serie de Taylor de la funcion f(x).
En efecto, supongamos que desarrollamos en serie la funcion no lineal f(x) en torno del punto x
k
f(x) = f(x
k
) + f

(x
k
)(x x
k
) +
f

()
2!
(x x
k
)
2
evaluamos en x
k+1
f(x
k+1
) = f(x
k
) + f

(x
k
)(x
k+1
x
k
) +
f

()
2!
(x
k+1
x
k
)
2
.
(14)
donde, (x
k
, x
k+1
). Truncando el tercer termino, queda
f(x
k+1
) = f(x
k
) + f

(x
k
)(x
k+1
x
k
). (15)
En la interseccion con el eje X, f(x
k+1
) = 0, luego
0 = f(x
k
) + f

(x
k
)(x
k+1
x
k
). (16)
Ordenando, se obtiene
x
k+1
= x
k

f(x
k
)
f

(x
k
)
. (17)
La formula del metodo de Newton.
Ademas este desarrollo permite estimar el error de la formula y la velocidad de convergencia del
metodo.
En efecto, supongamos que en el desarrollo anterior x
k+1
es x
r
el valor exacto, entonces f(x
r
) = 0.
y
0 = f(x
k
) + f

(x
k
)(x
r
x
k
) +
f

()
2!
(x
r
x
k
)
2
. (18)
Restando (16) y (18) se obtiene :
0 = f

(x
k
)(x
r
x
k+1
) +
f

()
2!
(x
r
x
k
)
2
0 = e
k+1
f

(x
k
) +
f

()
2!
(e
k
)
2
.
e
k+1
=
f

(x
k
)
2f

(x
k
)
e
2
k
De esta ultima igualdad se deduce que el error es casi proporcional al cuadrado del error anterior
lo que signica que el n umero de cifras decimales correctas se duplica en cada iteraci on.
13
Tomando valor absoluto y lmite cunado k , se tiene que
lm
k
|e
k+1
|
|e
k
|
2
=
|f

()|
2|f

(x
k
)|
. (19)
De aqu deducimos que el metodo converge cuadraticamente, si f

(x
k
) = 0, es decir si la raz es
simple.
Teorema 2.2 Si f C
2
[a, b] y r es una raz es simple en [a, b] (es decir, f(r) = 0 y f

(r) = 0 )
entonces, existe un > 0 tal que el metodo de Newton-Raphson generar a una sucesi on que converge
cuadr aticamente a r para cualquier aproximaci on inicial x
0
[r , r + ] .
Observacion 2.2 Deducimos que no ocurre necesariamente convergencia cuadr atica si la
raz no es simple.
El metodo de Newton-Raphson en general es muy eciente, sin embargo hay situaciones en
que no es aplicable o se comporta en forma deciente. Uno de estos casos es cuando la funci on
posee races m ultiples.
La siguiente gura muestra gr acamente, un ejemplo donde no es posible aplicar Newton-
Raphson. Podra explicar porque ?
Figura 5: f(x) = x cos(x) x [0,

2
]
Actividades 2.4 Los problemas que se presentan a continuaci on son 2 casos especiales, donde no
es posible aplicar Newton-Raphson
14
Dada la funci on
f(x) =
1
2
x
3
+
5
2
x
aproxime la raz positiva, use como aproximaci on inicial x
0
= 1. y realice 6 iteraciones.
Que sucede ? Porque ocurre esto ?
Dada la funci on
f(x) = (x 1)
3
(x 2)
aproxime la menor raz, use como aproximaci on inicial x
0
= 1,75
Que sucede ? A que atribuye este hecho ?
Races m ultiples.
Las races m ultiples presentan algunas dicultades para los metodos que hemos analizado.
i) Si una funcion no cambia de signo en races m ultiples pares impide el uso de los metodos
cerrados que usan intervalos y los metodos abiertos tienen la limitaci on que pueden ser
divergentes.
ii) Otra dicultad que puede presentarse, es el hecho que f(x) y f

(x) tiendan a cero. En estos


casos, hay dicultades con el metodo de Newton-Raphson y el de la secante (aproximaci on
de f

(x)) que provocan una division por cero.


iii) Ralston y Rabinowitz demostraron que los metodos de Newton-Raphson y secante conver-
gen linealmente cuando hay races m ultiples y han propuesto algunas modicaciones que se
obtienen a partir del metodo de newton-Raphson para problemas con funciones que tienen
races m ultiples.
iv) El siguiente metodo es una modicacion de Newton-Raphson, tiene convergencia cuadr atica:
x
k+1
= x
k
m
f(x
k
)
f

(x
k
)
. (20)
donde, m es la multiplicidad de la raz, es decir m = 2 si la raz tiene multiplicidad 2.
v) Otra modicacion de Newton-Raphson, se obtiene deniendo una nueva funci on
u(x) =
f(x)
f

(x)
,
que tiene races en las mismas proporciones que la funcion original. Se sustituye u(x) en (17)
y se obtiene:
x
k+1
= x
k

f(x
k
) f

(x
k
)
[f

(x
k
)]
2
f(x
k
) f

(x
k
)
. (21)
15
Actividades 2.5 Usar metodo de Newton-Raphson y el modicado (21)para aproximar la raz
m ultiple de :
f(x) = x
3
5x
2
+ 7x 3
use como aproximaci on inicial x
0
= 0. Realice a lo menos 5 iteraciones con el metodo de Newton-
Raphson.
Nota 2.1 El material bibliogr aco usado para la elaboraci on de este taller :
An alisis Numerico. R.L. Burden-J.D. Faires
Metodos numericos. S.C. Chapra- R.P. Canale
16
2.5. Metodos de punto jo.
Modulo 3
Prof: Mara Angelica Vega U.
Sea f(x) = 0 una ecuacion no lineal. Los metodos para determinar una raz de esta ecuaci on, que
se expresan en la forma
x = g(x)
se denominan Metodos de Iteracion Funcional o Metodos de punto jo. Una soluci on de
esta ecuacion se llama punto jo de g y la funcion g(x) se llama funci on de iteraci on . Frente
al problema de buscar los puntos jos de la ecuacion x = g(x), surgen las siguientes interrogantes :
1.- C uando una funcion g(x) tiene un punto jo ?
2.- Si existe, es unico ?
3.- Como determinarlo ?
Las respuestas a la primera y segunda interrogante, es el resultado que veremos a continuaci on
formalizado como Teorema de existencia y unicidad.
Teorema 2.3 Teorema de Existencia y unicidad. Si
i) g(x) es continua en [a, b].
ii) g(x) pertenece a [a, b], para todo x que pertenece al intervalo [a, b]. entonces, existe un punto
jo para g(x) en (a, b).
Si adem as,
iii) g(x) es diferenciable en (a, b)
iv) |g(x)| k < 1 , para todo x perteneciente al intervalo (a, b), entonces , g(x) tiene un unico
punto jo en [a, b].
Demostracion.
1) Existencia. Si g(a) = a y g(b) = b la existencia de un punto jo es trivial.
Suponemos entonces,
a < g(a) y b > g(b) (Por hip otesis g(x) [a, b]).
Denimos:
h(x) = g(x) x
observamos que,
i) h(x) es continua en [a, b]
ii)
h(a) = g(a) a > 0
h(b) = g(b) b < 0

h(a) h(b) < 0.


17
Por teorema de Bolzano existe p (a, b) tal que
h(p) = 0 g(p) p = 0 p = g(p)
, luego p es punto jo.
2) Unicidad. Supongamos que p y q son dos puntos jos distintos. Por Teorema del Valor Medio,
( f continua y diferenciable, existe (p, q) tal que f

() =
f(b)f(a)
ba
.) Tenemos,
|p q| = |g(p) g(q)| = |g

()||p q| < k|p q| < |p q|.


Contradicci on de suponer p = q, luego p = q en [a, b].
Algoritmo de punto jo.
1.- Dada una aproximacion inicial x
0
,
2.- Generamos una sucesion de aproximaciones {x
n
} denida por :
x
n
= g(x
n1
)
. Situacion graca de algunas funciones.
Figura 6: x = (1/3)
x
+ 0,2 Figura 7: x = x
(
1/3)
Actividades 2.6 La ecuaci on x
3
+ 4x
2
10 = 0 tiene una raz en [1, 2], obtenga al menos 5
funciones de iteraci on.
Convergencia
Teorema 2.4 Bajo las hip otesis del teorema de existencia y unicidad, si p
0
[a, b] la sucesi on
denida por
p
n
= g(p
n1
)
18
Figura 8: x = (3/2)
x
converge al unico punto jo. Adem as se cumple
i)|p
n
p|
k
n
1 k
|p
0
p
1
| n 1.
ii)|p
n
p| k
n
|p
0
p| k
n
max {p
0
a, b p
0
},
puesto que, p [a, b].
Demostracion. Hacerla como ejercicio. Se utilizan las hip otesis del Teorema de existencia y
unicidad y el Teorema del Valor Medio.
Actividades 2.7 Sea g(x) =
(x
2
1)
3
en [1, 1] . Demostrar que g(x) tiene un unico punto jo en
(1, 1).
Velocidad de Convergencia.
Teorema 2.5 Sea p un punto jo de g(x), tal que p I y sea
x
k
= g(x
k1
) para k = 1, 2, ...
i) Si g C
1
(I(p)) y g

(p) = 0, entonces
|x
k+1
x
k
| g

(p)|x
k
x
k1
|
de modo que, si x
0
I(p) entonces,
{x
k
} converge linealmente a p con C = g

(p) si 0 < |g

(p)| < 1.
19
{x
k
} diverge linealmente a p con C = g

(p) si |g

(p)| > 1.
ii) Si g

(x) es continua y g

(p) = 0 entonces,
|x
k+1
x
k
|
1
2
g

(p)|x
k
x
k1
|
si x
0
I(p) entonces,
{x
k
} converge cuadraticamente a p con C =
1
2
g

(p).
Si g

(p) = 1 , {x
k
} puede converger o diverger muy lentamente.
Demostracion. Consultar An alisis Numerico de M.J.Maron-R.J.L opez.
2.6. Convergencia del Metodo de Newton-Raphson
Teorema 2.6 Si es una raz simple de f(x) = 0, entonces el algoritmo de Newton Raphson
tiene convergencia Cuadr atica.
Sol. raz simple de f(x) = 0 implica que:
f(x) = (x ) h(x) con h() = 0
f

(x) = h(x) + (x ) h

(x)
f

() = h() = 0
Desarrollando f(x) en serie de Taylor alrededor de x = se tiene :
f(x) = f() + f

()(x ) +
f

()(x )
2
2!
+
f

()(x )
2
3!
Para alg un en un entorno de . Consideremos el algoritmo de Newton-Raphson:
x
n+1
= x
n

f(x
n
)
f

(x
n
)
x
n+1
= x
n

1
f

(x
n
)

()(x
n
) +
f

()(x
n
)
2
2!
+
f

()(x
n
)
3
3!

x
n+1
=
(x
n
)
2
f

(x
n
)

(x
n
) f

()
(x
n
)

f

()
2!

f

()(x
n
)
3!

lm
n
|x
n+1
|
|x
n
|
2
=

1
f

()
(f

()
f

()
2
)

1
2f

()

= cte
(22)
Luego el metodo de Newton tiene orden de convergencia 2 para raz simple.
Teorema 2.7 Si es una raz multiplicidad p de f(x) = 0, entonces el algoritmo de Newton
Raphson tiene convergencia lineal.
Dem. raz simple de f(x) = 0 implica que:
20
f(x) = (x )
p
g(x) con g() = 0
f

(x) = p(x )
p1
g(x) + (x )
p
g

()
En efecto,
x
n+1
= x
n

f(x
n
)
f

(x
n
)
x
n+1
= x
n

(x
n
)
p
g(x
n
)
p(x
n
)
p1
g(x
n
) + (x
n
)
p
g

(x
n
)
x
n+1
= (x
n
)
(x
n
)
p
g(x
n
)
(x
n
)
p1
(pg(x
n
) + (x
n
) g

(x
n
))
x
n+1
= (x
n
)

1
g(x
n
)
pg(x
n
) + (x
n
)g

(x
n
)

lm
n
|x
n+1
|
|x
n
|
2
= lm
n

1
g

()
pg()

g() = 0
= 1
1
p
=
p 1
p
, con p > 1
(23)
Luego el metodo de Newton-Raphson tiene orden convergencia 1 o lineal para raz m ultiple.
Actividades 2.8
1. Considere la ecuaci on:
e
x
2
2x = 0 (24)
i) Verifque la ecuaci on (24) tiene una raz en el intervalo [4, 5].
ii) Demuestre que en el intervalo [4, 5] est a la mayor raz positiva de la ecuaci on (24).
iii) Para obtener la raz que est a en [4, 5], se propone el siguiente algoritmo de punto jo:
x
k+1
=
e
x
k
2
2
(25)
Determine justicadamente , si es posible garantizar la convergencia del algoritmo para
hallar la raz . Usando (25) y una aproximaci on x
0
, adecuada, trate de obtener una
aproximaci on de la citada raz.
iv) Proponga un algoritmo de punto jo convergente, y uselo con x
0
conveniente, para
determinar una aproximaci on de la raz de (24) en [4, 5].
2. Puede demostrarse que la forma que adopta un cable suspendido de sus extremos es catenaria.
Una ecuaci on de una catenaria est a dada por:
y = cosh
x
a
21
donde a es una constante por determinar. El eje Y equidista de sus puntos extremos. Un
cable telef onico est a suspendido, a la misma altura, de dos postes que est an a 200 pies uno
del otro. El cable tiene una cada m axima de 10 pies en el punto medio del cable. Determine
el valor de a. (Recuerde que cosh0 = 1.)
Nota 2.2 El material bibliogr aco usado para la elaboraci on de este taller :
An alisis Numerico. R.L. Burden-J.D. Faires
An alisis Numerico. M.J. Maron - R.J. L opez.
22
3. Ceros de las funciones Polinomicas.
Una expresion de la forma:
P
n
(x) = a
n
x
n
+ a
n1
x
n1
+ a
1
x + a
0
donde, los a
i
son constantes, a
n
= 0, se llama polinomio de grado n.
Recordamos el metodo de Horner:
Teorema 3.1 Metodo de Horner.
Sea
P
n
(x) =
n

k=0
a
k
x
k
, a
n
n
eq
0 , a
n
= b
n
i) Si b
k
= a
k
+ b
k+1
x
0
, k = n 1, 1, 0 entonces
P(x
0
) = b
0
ii) Adem as si,
Q
n1
(x) = b
n
x
n1
+ b
n1
x
n2
+ b
2
x + b
1
entonces
P
n
(x) = (x x
0
)Q
n1
(x) + b
0
Dem.
ii) Desarrollamos Q(x) en la expresi on :
(x x
0
)Q
n1
(x) + b
0
= (x x
0
)(b
n
x
n1
+ b
n1
x
n2
+ b
2
x + b
1
) + b
0
= b
n
x
n
+ b
n1
x
n1
+ b
2
x
2
+ b
1
x) (b
n
x
0
x
n1
+ b
n1
x
0
x
n2
+ b
2
x
0
x + b
1
x
0
) + b
= b
n
x
n
+ (b
n1
b
n
x
0
)x
n1
+ + (b
2
b
3
x
0
)x
2
+ (b
1
b
2
x
0
)x + (b
0
b
1
x
0
)
= a
n
x
n
+ a
n1
x
n1
+ a
1
x + a
0
= P
n
(x).
i) Usando ii)
P
n
(x) = (x x
0
)Q
n1
(x) + b
0
P(x
0
) = b
0
Corolario. P

(x
0
) = Q(x
0
)
Dem.
P(x) = (x x
0
)Q(x) + b
0
= Q(x) + (x x
0
)Q

(x)
P

(x
0
) = Q(x
0
)
Observacion 3.1 Si se usa el metodo de Newton - Raphson para determinar las races de un
polinomio P(x), para evaluar P(x
k
) y P

(x
k
) puede usarse el metodo de Horner.
23
Ejemplo 3.1 Usando Newton - Raphson y Metodo de Horner, aproximar la mayor raz negativa
de
2x
4
3x
2
3x 4
Usando x
0
= 2 como aproximaci on inicial, relizar 3 iteraciones.
Solucion .
Primera iteracion.
i) C alculo de P(x
0
)
a
i
a
4
a
3
a
2
a
1
a
0
2 0 3 3 4
4 8 10 14
b
i
2 4 5 7 10
Por teorema de Horner:
P(2) = 10 y Q(x) = 2x
3
4x
2
+ 5x 7
ii) C alculo de P

(x
0
)
Para determinar P

(2) = Q(2), usamos nuevamente metodo de Horner.


2 4 5 7
4 16 42
2 8 21 49
Luego P

(2) = 49 Usamos Metodo de Newton-Raphson


x
1
= 2
10
49
1,796
Segunda y Tercera iteracion.
Actividades 3.1 Separar las races de los siguientes polinomios:
a) P
3
(x) = 3x
3
+ 2x 1
c) P
4
(x) = x
4
2x
2
+ 1
24
UNIVERSIDAD DE SANTIAGO DE CHILE
CALCULO NUMERICO
Ecuaciones No lineales.
Modulo 5
Prof: Mara Angelica Vega U.
3.1. Sistemas de Ecuaciones No lineales.
Un sistema de n ecuaciones con n incognitas x
1
, x
2
, ..., x
n
se dice no lineal si una o m as ecuaciones
es no lineal.
Notacion.
f
1
(x
1
, ..., x
n
) = 0
f
2
(x
1
, ..., x
n
) = 0
.
.
. =
.
.
.
f
n
(x
1
, ..., x
n
) = 0
_

_
o
f
1
(x) = 0
f
2
(x) = 0
.
.
. =
.
.
.
f
n
(x) = 0
_

_
donde x =
_
_
_
_
_
x
1
x
2
.
.
.
x
n
.
_
_
_
_
_
Este sistema puede escribirse abreviadamente como,

F(

X) =

0 (o F(x) = 0 .) N otese que la
solucion es un vector que debe satisfacer simultaneamente todas las ecuaciones del sistema.
Ejemplo 3.2 Analizar, si es posible determinar la soluci on de :
i)
ye
x
2 = 0
x
2
+ y 4 = 0
ii)
xe
y
x
5
+ y + 3 = 0
x + y + tanx sen y = 0
Solucion.
i) Seg un la notaci on anterior:
f
1
(x, y) = ye
x
2 = 0
f
2
(x, y) = x
2
+ y 4 = 0
25
Figura 9: x = (1/3)
x
+ 0,2
Gr acamente, Una forma simple de resolver este sistema es, usar los metodos empleados en la
resoluci on de sistemas lineales, es decir, despejar y en ambas ecuaciones, obteniendose:
x
2
+ 2e
x
4 = 0
Usando cualquier metodo para aproximar races de ecuaciones no lineales se obtiene:
x
1
(0,6, 3,7)
T
y x
2
(1,9, 0,4)
T
ii) Es posible usar el metodo anterior para determinar una soluci on de:
f
1
(x, y) = xe
y
x
5
+ y + 3 = 0
f
2
(x, y) = x + y + tanx sen y = 0
Justicar la respuesta.
3.2. Metodo de Newton- Raphson Generalizado.
La idea es ahora extender el metodo de Newton- Raphson, visto para funciones de una variable
real a funciones de dos o mas variables, para resolver el sistema:
F(x) = 0
_
f(x, y) = 0
g(x, y) = 0
(26)
Analizaremos el caso mas simple, es decir, funciones de dos variables. Para ello recordamos el
teorema de Taylor, para funciones de 2 variables .
Sea u = f(x, y) y todas sus derivadas parciales de orden menor o igual a (n + 1) continuas en
una region D = {(x, y)/a x b c y d}. Sea (x
0
, y
0
) D, para todo (x, y) D existen
26
(x, x
0
) y (y, y
0
) tal que:
P
n
(x, y) = f(x
0
, y
0
) + (x x
0
)
f
x
(x
0
, y
0
) + (y y
0
)
f
y
(x
0
, y
0
)+
=
(x x
0
)
2
2!

2
f
x
2
(x
0
, y
0
) +
(x x
0
)(y y
0
)
2!

2
f
xy
(x
0
, y
0
)+
=
(y y
0
)
2
2!

2
f
y
2
(x
0
, y
0
) + +
=
1
n!
n

j=0
_
n
j
_
(x x
0
)
nj
(y y
0
)
j

n
f
x
nj
y
j
(x
0
, y
0
)+
=
1
(n + 1)!
n+1

j=0
_
n + 1
j
_
(x x
0
)
n+1j
(y y
0
)
j

n+1
f
x
n+1j
y
j
(, ).
(27)
P
n
(x, y) se llama Polinomio de Taylor de grado n en dos variables para la funci on f alrededor
de (x
0
, y
0
). El ultimo termino corresponde al termino de error.
Deduccion del metodo.
Aplicamos (27) para desarrollar las funciones no lineales f y g del sistema (26) en torno del punto
(x
k
, y
k
).
f(x, y) = f(x
k
, y
k
) + (x x
k
)
f
x
(x
k
, y
k
) + (y y
k
)
f
y
(x
k
, y
k
)+
=
(x x
k
)
2
2

2
f
x
2
(, ) +
(x x
k
)(y y
k
)
2

2
f
xy
(, )+
=
(y y
k
)
2
2

2
f
y
2
(, ) +
g(x, y) = g(x
k
, y
k
) + (x x
k
)
g
x
(x
k
, y
k
) + (y y
k
)
g
y
(x
k
, y
k
)+
=
(x x
k
)
2
2

2
g
x
2
(, ) +
(x x
k
)(y y
k
)
2

2
g
xy
(, )+
=
(y y
k
)
2
2

2
g
y
2
(, ) +
(28)
Evaluando en (x
k+1
, y
k+1
) y trucando el termino de error se tiene:
f(x
k+1
, y
k+1
) = f(x
k
, y
k
) + (x
k+1
x
k
)
f
x
(x
k
, y
k
) + (y
k+1
y
k
)
f
y
(x
k
, y
k
)
g(x
k+1
, y
k+1
) = g(x
k
, y
k
) + (x
k+1
x
k
)
g
x
(x
k
, y
k
) + (y
k+1
y
k
)
g
y
(x
k
, y
k
).
(29)
27
Como la aproximacion (x
k+1
, y
k+1
) corresponde donde,
f(x
k+1
, y
k+1
) = 0 = g(x
k+1
, y
k+1
),
reordenando se obtiene:
(x
k+1
x
k
)
f
x
(x
k
, y
k
) + (y
k+1
y
k
)
f
y
(x
k
, y
k
) = f(x
k
, y
k
)
(x
k+1
x
k
)
g
x
(x
k
, y
k
) + (y
k+1
y
k
)
g
y
(x
k
, y
k
) = g(x
k
, y
k
).
(30)
Con el fn de simplicar la notacion, escribimos el sistema en forma matricial
J
k
= x
k
. (31)
donde,
J
k
=
_
_
_
f
x
(x
k
)
f
y
(x
k
)
g
x
(x
k
)
g
y
(x
k
)
_
_
_
es la matriz jacobiana, en
x
k
=
_
x
k
y
k
_
para x
k
=
_
f(x
k
)
g(x
k
)
_
y =
_
x
y
_
=
_
x
k+1
x
k
y
k+1
y
k
_
De (31) podemos escribir
= J
1
F(x
k
)
x
k+1
= x
k
J
1
F(x
k
)
(32)
Esta ultima ecuacion es una generalizacion de la formula de Newton-Raphson para funciones no
lineales de una variable real.
Ejemplo 3.3 Resolver el ejemplo 1.1 i) usando metodo de Newton.Raphson gene ralizado.
Solucion. Consideremos:
f(x, y) = ye
x
2 = 0
g(x, y) = x
2
+ y 4 = 0
(33)
sabemos que tiene dos races, aproximaremos la raz positiva, usando
x
0
=
_
0,6
3,7
_
Determinamos:
F(x) =
_
ye
x
2
x
2
+ y 4
_
, J =
_
ye
x
e
x
2x 1
_
28
Evaluando en el dato inicial x
0
, tenemos
F(x
0
) =
_
3,7e
0,6
2
(0,6)
2
+ 3,7 4
_
, J
0
=
_
3,7e
0,6
e
0,6
2(0,6) 1
_
de donde,
_
2,03060 0,548812
1,2 1
_

_
x
y
_
=
_
0,0306031
0,006
_
De aqu
_
x
y
_
=
1
2,68917
_
1 0,548812
1,2 2,03060
_

_
0,0306031
0,006
_
luego,
_
x
y
_
=
_
0,000865
0,05896
_
Como
x
1
x
0
=
x0
x
1
= x
0
+
x0
entonces,
x
1
=
_
0,6
3,7
_
+
_
0,000865
0,05896
_
=
_
0,599135
3,64104
_
Si realizamos una segunda iteraci on, se obtiene:
x
2
= x
1
+
x1
=
_
0,599125
3,64105
_
Actividades 3.2 Use el metodo de Newton-Raphson para determinar la aproximaci on x
3
de la
soluci on del sistema no lineal

x +
1
2
cosz = ln
1
y
y ln 4x + 1 = 2z + e
z
4x + y sen z = 1
(34)
use como aproximaci on inicial
x
0
=
_
_
_
_
_
_
1
3
1
3

6
_
_
_
_
_
_
Ayuda. Programando el algoritmo de Newton Raphson generalizado, en MAPLE se obtiene:
x
1
=
_
_
,2399765202
,3506602354
,551268419 10
1
_
_
, x
2
=
_
_
0,2497429663
0,3672616918
0,26800671 10
3
_
_
, x
3
=
_
_
0,2499999723
0,3678789014
0,1485685 10
6
_
_
x
4
=
_
_
0,2500000000
,3678794411
,1098834 10
9
_
_
, x
5
=
_
_
0,2500000000
0,3678794411
,7324581877 10
10
_
_
29
Nota 3.1 Observese que el metodo converge a
x =
_
_
_
_
_
_
1
4
1
e
0
_
_
_
_
_
_
30
Mtodo de Mller
Es un mtodo de interpolacin que aproxima la funcin f(x) cuya raz interesa por un
polinomio cuadrtico.
Para determinar dicho polinomio se consideran tres puntos cercanos a la raz de la ecuacin
f(x) = 0.
Sean
2
0 0 1 1 2 2
( , ) , ( , ) .( , ) dichos puntos y sea ( ) el polinomio
que interpola a ( ) en dichos puntos.
A x f B x f y C x f P u au bu c
f x

Para simplificar la obtencin del polinomio cuadrtico se supone que el origen pasa por el
punto que esta en medio de los otros dos.
Sea
1 1 0 2 0 2
2
0 0
2
1 1 1 1
Sea ,
Los coeficientes , , del polinomio ( ) se determinan resolviendo el sistema
(0) (0) (0)
( )
h x x h x x
a b c P u
P f a b c f
P h f ah bh c



1
2
2 2 2 2 2
2 0 1 0
2
1
1 0
0
( )
( en este desarrollo se considera , es decir, es el punto del medio)
Se obtiene,con :
(1 )
,
f
P h f ah bh c f
x x x x
h
d
h
d f d f
c f a



2
2 1 0 1
2
1 1
2

,
(1 )
Con los valores determinados de , , se resuelve ( ) 0
f f f a h
b
d d h h
a b c P u au bu c


eligiendo la raz ms cercana a
0
x . Este valor es:

0
2
2

4
El signo del denominador se toma de modo que coincida con el de : si 0 se considera el signo + y
si 0 se elig
c
r x
b b ac
b b
b

r
!
e el signo - en el denominador.
De ese modo el denominador toma su mayor valor absoluto.
El valor calculado es uno de los tres puntos a considerar en el siguiente paso,es decir,
si queda a la derecha
r
r
0 0 1 0
0 2
0
de x se toman los puntos , , y si queda a la izquierda de ,
los puntos a considerar son , , .
En ambos casos los puntos se redefinen de modo que sea el punto del medio de los tres esco
x x r r x
x x r
x gidos.
Ejemplo:
:= y ( ) sin x
1
2
x
Su grfica es:
La raz est entre x2 =1.8 y x1 = 2.2. Tomando x0 =2.0 entre x2 y x1
:= x0 2.0
:= x1 2.2
:= x2 1.8
los correspondientes valores de f(x), h1, h2 y d son:
:= y0 -.0907025732
:= y1 -.2915035962
:= y2 .0738476309
:= h1 .2
:= h2 .2
:= d 1.000000000
Resolviendo el sistema se obtienen los coeficientes del polinomio cuadrtico:
:= a -.4531352362

:= b -.9133780680
:= c -.0907025732
Por ser b < 0 se considera el signo (-) en el denominador de la expresin para r, raz del
polinomio ( r es una primera aproximacin a la raz de f(x) )
:= r 1.895252107
La raz r del polinomio se encuentra a la izquierda de x0. Los nuevos valores son
:= x00 1.895252107
:= x11 2.0
:= x22 1.8
:= h11 .104747893
:= h22 .095252107
:= d1 .9093462816
y los nuevos valores de la funcin son:
:= y00 .0001983067
:= y11 -.0907025732
:= y22 .0738476309
Los valores de los nuevos coeficientes del polinomio son:
:= a1 -.4730106876
:= b1 -.8182594122
:= c1 .0001983067
Con dichos valores se obtiene una nueva aproximacin a la raz resolviendo el polinomio
cuadrtico:
:= r1 1.895494425
El valor de la funcin en r1 es:
:= y3 -.1294 10
-6
y la solucin exacta (obtenida con Maple) de la ecuacin propuesta es:
:= rexac 1.895494267
La magnitud del error absoluto en r1 es:
:= er .158 10
-6
Ejemplo 2: Calcular la raz en el segundo cuadrante de la ecuacin:
:= y ( ) 1 x ( ) sin x 1
= 0
:= x2 2.8
:= x0 2.9
:= x1 3.0
:= h1 .1
:= h2 .1
:= d 1.000000000
:= y2 1.726773367
:= y0 -.0669276161
:= y1 -.4355199676
:= a 71.25543160
:= b -10.81146668
:= c -.0669276161
:= r 2.894043416
:= y3 -.0458478202
:= x22 2.894043416
:= x00 2.9
:= x11 3.0
:= h11 .1
:= h22 .005956584
:= d1 .05956584000
:= y22 -.0458478202
:= y00 -.0669276161
:= y11 -.4355199676
:= a1 -1.387518017
:= b1 -3.547171713
:= c1 -.0669276161
Una segunda aproximacin a la raz es r1 y la raz "exacta" es rexac:
:= r1 2.880990772
:= rexac 2.880986321
El valor de la funcin en x = r1 es:
:= y33 -.0000155441
M odulo 6
Prof. M.Angelica Vega U.
4. Sistemas de Ecuaciones Lineales.
4.1. Metodos directos
Estos metodos consisten en sustituir la matriz A por una sucesion de matrices elementales, de
manera que se obtiene un sistema sea mas facil de resolver.
4.1.1. Metodo de Gauss.
El metodo de eliminaci on gaussiana es uno de los metodos directos clasico para resolver el sistema
Ax = b, consiste de dos etapas.
Etapa 1. Triangularizacion.
Para efectos de la operatoria, resulta mas simple, efectuar las operaciones sobre la matriz aumen-
tada

A en lugar de A.
El metodo consiste en obtener una sucesion de sistemas equivalentes
A
(k)
x = b
(k)
, (k = 1, 2, ... , n)
mediante operaciones elementales de la, tal que para cada k = 2, 3 , . . . , n.

A
(k)
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
a
(1)
11
a
(1)
12
. . . . . . . . . . . . a
(1)
1 n
.
.
. a
(1)
1 n+1
0 a
(2)
22
. . . . . . . . . . . . a
(2)
2n
.
.
. a
(2)
2 n+1
0 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 . . . a
(k)
kk
a
(k)
k k+1
. . . a
(k)
k n
.
.
. a
(k)
k n+1
0 0 . . . a
(k)
k+1 k
a
(k)
k+1 k+1
. . . a
(k)
k+1 n
.
.
. a
(k)
k+1 n+1
.
.
.
.
.
. . . .
.
.
.
.
.
. . . .
.
.
.
.
.
.
0 0 . . . a
(k)
n k
a
(k)
n k+1
. . . a
(k)
n n
.
.
. a
(k)
n n+1
.
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
(35)
donde,
b
(k)
=
_
_
_
_
_
_
_
_
_
a
(1)
1 n+1
.
.
.
a
(k)
n n+1
.
.
.
a
(k)
n n+1
.
_
_
_
_
_
_
_
_
_
(36)
con
A
(1)
=

A ,
31

A
(k)
= (a
(k)
ij
) se obtiene de la siguiente manera:
a
(k)
ij
=
_

_
a
(k1)
ij
si, i = 1, 2, . . . k 1 ; j = 1, 2, . . . n + 1
0 si, i = k, k + 1, . . . n ; j = 1 . . . k 1 ,
a
(k1)
ij

a
(k1)
i k1
a
(k1)
k1 k1
a
(k1)
k1 j
sii = k, k + 1 . . . n ; j = k, k + 1 . . . n + 1 ..
(37)
El proceso termina cuando

A
(n)
es triangular superior, teniendose el sistema A
(n)
x = b
(n)
.
Notese que en esta etapa solo se obtiene una matriz triangular superior. En la etapa siguiente, se
resuelve el sistema.
Etapa 2. Retrosustitucion.
Resolvemos la n-esima ecuacion
x
n
=
a
(n)
n n+1
a
(n)
n n
.
Usando x
n
se puede despejar x
n1
de la n 1-ecuacion
x
n1
=
a
(n1)
n1 ,n+1
a
(n1)
n1 n
x
n
a
n1 n1
;
continuando con este proceso, se tiene que, para cada
i = n 1, n 2, . . . , 2, 1 ,
x
i
=
a
i
i ,n+1
a
i
i n
x
n
a
i
i n1
x
n1
a
i
i i+1
x
i+1
a
ii
=
a
i
i ,n+1

n
j=i+1
a
i
ij
x
j
a
ii
(38)
Nota 4.1 Denotaremos por :
m
i k
=
a
i k
a
k k
al n umero que produce un cero en la la i columna k, denominado multiplicador y a los elementos
a
i i
le llamaremos elementos pivotes.
Observemos que, a
(k)
i j
, se obtiene de :
a
(k)
i j
= a
(k1)
i j
m
k1
i k1
a
(k1)
k1 j
Actividades 4.1
i) Ejemplo 4.1 Use eliminaci on de Gauss para resolver:
3x
1
0,1x
2
0,2x
3
= 7,85 ,
0,1x
1
+ 7x
2
0,3x
3
= 19,4 ,
0,3x
1
0,2x
2
+ 10x
3
= 71,4 ,
efectuar los c alculos con 6 cifras signicativas.
32
Soluci on : la matriz aumentada es

A =
_
_
3 0,1 0,2 7,85
0,1 7 0,3 19,4
0,3 0,2 10 71,4
_
_
luego,los multiplicadores que producen ceros en la primera columna son :
m
2 1
=
a
2 1
a
1 1
=
0,1
3
= 0,03333333
y
m
3 1
=
a
3 1
a
1 1
=
0,3
3
= 0,09999999
ii) Ejemplo 4.2 Use eliminaci on de Gauss para resolver los siguientes sistemas: a)
0,0003x
1
+ 3,0000x
2
= 2,0001 ,
1,0000x
1
+ 1,0000x
2
= 1,0000 ,
b)
1,0000x
1
+ 1,0000x
2
= 1,0000 ,
0,0003x
1
+ 3,0000x
2
= 2,0001 ,
c) Compare los resultados de a) y b) al considerar 3, 4 y 5 cifras signicativas. A que con-
clusi on llega ?
4.1.2. Eliminaci on gaussiana con y sin pivoteo.
De la Actividad I.ii), se observa que pueden surgir dicultades en algunos casos, como cuando el
pivote es peque no en relacion a los otros elementos de la columna a la que pertenece el elemento
pivote. Una forma de mejorar las soluciones se usa como estrategia pivotear. El llamado pivoteo
parcial consiste en seleccionar el elemento de mayor valor absoluto ubicado en la misma columna
que el pivote, bajo la diagonal e intercambiar las. Al procedimiento de buscar el elemento de
mayor valor absoluto tanto en las columnas como en las las y luego intercambiar se conoce como
pivoteo total.
El pivoteo completo o total no es muy usado puesto que el intercambio de columnas implica un
intercambio de las incognitas, lo que agrega complejidad injusticada.
Actividades 4.2 1. Use eliminaci on de Gauss para resolver el sistema :
x
1
+ x
2
x
3
= 3 ,
6x
1
+ 2x
2
+ 2x
3
= 2 ,
3x
1
+ 4x
2
+ x
3
= 1 ,
usando,
33
Gauss simple.
Eliminaci on gaussiana con pivoteo parcial.
Eliminaci on gaussiana con pivoteo total.
2. Para k = 0, 1, 2, ..., sea x
(k)
= [x
k
, y
k
, z
k
]
T
generada por :
4x
k+1
= x
k
y
k
+ 2 ,
6y
k+1
= +2x
k
+ y
k
z
k
1 ,
4x
k+1
= x
k
+ y
k
z
k
+ 4 ,
a) Demuestre que la sucesi on de vectores {x
(k)
}

k=1
es convergente para cualquier vector
inicial x
(0)
.
b) Determine el vector x al cu al converge usando Gauss con pivote parcial.
c) Encuentre el vector x iterando el sistema dado.
3. Suponga que trabaja con una m aquina que redondea a dos decimales para resolver el siguiente
sistema :
0,10 10
1
x + y = 1
x y = 0
Use el metodo de eliminaci on de Gauss para encontrar la soluci on.
Efect ue un pivoteo parcial y compare con la soluci on anterior. La soluci on exacta del
sistema es x = y =
100
101
.
34
4.2. Factorizacion LU
A = LU
Una primera interrogante es Existe tal factorizacion? . Un primer resultado que garantiza la
existencia de esta factorizacion dice,
Teorema 4.1 Si puede aplicarse la eliminaci on gaussiana al sistema Ax = b sin intercambio de
las, entonces la matriz A puede factorizarse como
A = LU ,
donde
U =
_
_
_
_
_
_
_
_
_
a
(1)
11
a
(1)
12
. . . a
(1)
1n
0 a
(2)
22
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
a
(n1)
n1 n1
0 . . . 0 a
(n)
nn
y
_
_
_
_
_
_
_
_
_
L =
_
_
_
_
_
_
1 0 . . . 0
m
21
1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0
m
n1
. . . m
n n1
1
_
_
_
_
_
_
(39)
Notese que al factorizar A en LU,
Ax = b L(Ux) = b
entonces, es posible resolver el sistema utilizando dos sistemas que involucran matrices triangulares,
se resuelve primero Ly = b y luego Ux = y. De modo que si L = (l
ij
), entonces se obtiene el
vector y por sustitucion hacia adelante,
y
1
=
b
1
l
11
y los y
i
para cada i = 2, 3, . . . n, mediante
y
i
=
1
l
ii
_
b
i

i1

j=1
l
ij
y
j
_
.
As conociendo el vector y podemos obtener en el sistema Ux = y el vector x por retrosustitucion.
El Teorema 1 proporciona una factorizacion de la matriz A, observe que los elementos de la matriz
L son los elementos multiplicadores m
i j
que se obtuvieron al realizar la eliminacion gaussiana,
excepto los elementos de la diagonal principal que son 1. Esta factorizacion se conoce como Fac-
torizacion de Doolitle.
Queda analizar una segunda interrogante . si A admite una factorizacion LU, esta sera unica?
35
Analicemos el problema general, el factorizar A como LU, signica que hay que resolver las ecua-
ciones
_
_
_
_
_
a
11
a
12
. . . a
1n
a
21
a
22
. . . a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
. . . a
nn
_
_
_
_
_
=
_
_
_
_
_
_
_
l
11
0 0 . . . 0
l
21
l
22
0 . . . 0
l
31
l
32
l
33
. . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
l
n1
l
n2
l
n3
. . . l
nn
_
_
_
_
_
_
_

_
_
_
_
_
_
_
u
11
u
12
u
13
. . . u
1n
0 u
22
u
23
. . . u
2n
0 0 u
33
. . . u
3n
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . u
nn
.
_
_
_
_
_
_
_
(40)
Notemos que las ecuaciones anteriores, no determinan a L y a U en forma unica. Para cada i se
puede asignar un valor no nulo l
ii
o u
ii
(pero no a ambos). Porque ? Justique . Por ejemplo, si
l
ii
= 1 para i = 1, 2, . . . , n, es la descomposicion de Doolitle que se obtiene como vimos al aplicar
eliminacion gaussiana. Otra eleccion simple es u
ii
= 1 para cada i en este caso la factorizacion es
la de Crout, o bien asumir que l
ii
= u
ii
en cual caso tenemos la factorizacion de Choleski
Actividades 4.3
i) Descomponer la matriz A usando la factorizaci on de Crout, en el sistema :
x
1
+ x
2
x
3
= 3 ,
6x
1
+ 2x
2
+ 2x
3
= 2 ,
3x
1
+ 4x
2
+ x
3
= 1 ,
ii) Problema N

3 de la PEP1 (Sem II-2000) Para determinar la temperatura en cuatro puntos


interiores equidistantes de una barra, hay que resolver la ecuaci on :
At
k+1
= t
k
, k = 0, 1, 2, ...
donde,
A =
_
_
_
_
3 1 0 0
1 3 1 0
0 1 3 1
0 0 1 3
_
_
_
_
, t
0
=
_
_
_
_
10
12
12
10
_
_
_
_
(41)
(t
k
es la distribuci on de la temperatura en los puntos interiores de la barra en el instante k.
a) Mediante el metodo de Gauss (sin pivote) determine t
1
.
b) Obtenga t
2
y t
3
, usando una descomposici on A = LU.
iii) Resolver el sistema
_
_
_
_
x
1
+ 2x
2
+ 3x
3
+ x
4
= 1
2x
1
4x
2
5x
3
x
4
= 0
3x
1
+ 8x
2
+ 8x
3
+ x
4
= 2
x
1
+ 2x
2
6x
3
+ 4x
4
= 1
_
_
_
_
(42)
iv) Investigue c omo a partir de la factorizaci on de Doolitle puede obtener la factorizaci on de
Crout ? Ilustre el metodo con un ejemplo.
36
4.2.1. Matrices denidas positivas.
Denicion 4.1 Una matriz A simetrica es denida positiva si y s olo si
x
T
Ax > 0 , x R
n
{0} (43)
Ejemplo 4.3 Verique si la matriz dada es denida positiva.
_
_
2 1 0
1 2 1
0 1 2
_
_
(44)
En la practica puede resultar difcil determinar si una matriz es denida positiva a partir de la
denicion, el siguiente resultado constituye un criterio de gran utilidad para este proposito.
Teorema 4.2 A es simetrica y denida positiva, si y s olo si D
k
> 0 , k = 1, ..., n, donde D
k
es
el determinante:
D
k
=

a
11
a
1k
.
.
.
.
.
.
.
.
.
a
k1
a
kk

Dem. Consultar, Introduction to Numerical Analysis de Stoer - Bulirsch.


Teorema 4.3 Si A es simetrica y denida positiva, entonces :
i) A es no singular
ii) a
ii
> 0, para cada i = 1, 2, ..., n.
Dem.
i) Supongamos A no invertible, entonces exite x = 0 tal que el sistema Ax = 0, de donde
x
T
Ax = 0, lo que contradice el hecho de A denida positiva. Por tanto, A es no singular.
ii) Ejercicio
Teorema 4.4 Si A es una matriz real, simetrica y denida positiva, entonces A = LL
T
, donde L
es una matriz triangular inferior con diagonal positiva.
Dem. Consultar An alisis Numerico de Burden - Faires o Kincaid - Cheney
4.2.2. Matrices diagonal dominante.
Denicion 4.2 Sea A una matriz cuadrada de orden n, diremos que A es diagonal dominante
si
|a
ii
|
n

j=1
j=i
|a
ij
|, i, 1 i n (45)
Veamos algunos resultados importantes,
37
Teorema 4.5 Si A es diagonal dominante, entonces A es invertible.
Teorema 4.6 Si A es diagonal dominante y todos los elementos de la diagonal son reales positivos
, entonces la parte real de cada valor propio es positiva. Dem.

Algebra Lineal. Grossman. Mc Graw
Hill.
Teorema 4.7 Si A es simetrica, diagonal dominante, con los coecientes diagonales positivos,
entonces A es denida positiva.
Dem. Usando el teorema anterior, si
i
> 0 deduciremos que x
t
Ax > 0. Como A es simetrica,
tiene un conjunto de autovectores ortonormales (teorema espectral), entonces cualquier vector x
puede escribirse como una combinaci on lineal de ellos,
x = c
1
x
1
+ c
2
x
2
+ ... + c
n
x
n
,
entonces
Ax = c
1
Ax
1
+ c
2
Ax
2
+ ... + c
n
Ax
n
= c
1

1
x
1
+ c
2

2
x
2
+ ... + c
n

n
x
n
.
De la ortogonalidad y la normalizaci on x
t
i
x
i
= 1. Luego,
x
t
Ax = (c
1
x
t
1
+ c
2
x
t
2
+ ... + c
n
x
t
n
)(c
1

1
x
1
+ c
2

2
x
2
+ ... + c
n

n
x
n
)
= c
2
1

1
x
1
+ c
2
2

2
x
2
+ ... + c
2
n

n
x
n
como
i
> 0, se tiene que i x
t
Ax > 0.
Observacion 4.1 El recproco del teorema anterior es falsa, es decir existen matrices simetricas
denidas positivas que no son diagonal dominante. De un contraejemplo.
38
Modulo 7
Prof : Mara Angelica Vega U.
5. Metodos iterativos.
5.1. Normas vectoriales y matriciales.
5.1.1. Preliminares.
Actividades 5.1
i) Si V es un espacio vectorial, Que es una norma sobre V ? , C omo se dene la distancia
entre dos vectores ? Cu ando una sucesi on de vectores es convergente ?
ii) Sea V = IR
n
, las normas de uso frecuente en IR
n
son,
x
1
=

n
i=1
|x
i
| , llamada norma 1
x
2
=
_
n
i=1
x
2
i
_
1/2
, llamada norma eucldea o norma 2
x

= max
1in
|x
i
| , llamada norma innito o del m aximo.
Ejemplo 5.1 Compare la longitud de los siguientes tres vectores en IR
4
, usando cada una de las
normas anteriores.
x = (4, 4, 4, 4)
T
y = (0, 5, 5, 5)
T
w = (6, 0, 0, 0)
T
Denicion 5.1 Diremos que dos normas son equivalentes si existen dos n umeros y positivos
tales que
v
q
v
p
v
q
.
Demuestre las siguientes armaciones.(Haga una en clases ).
iv) Las normas v

y v
1
son equivalentes, en efecto
v

v
1
nv

v) Las normas v

y v
2
son equivalentes
v

v
2

nv

o
1

n
v
2
v

v
2
.
vi) Las normas v
1
y v
2
son equivalentes
v
2
v
1

nv
2
.
Observacion 5.1 Por que es importante que las normas estudiadas sean equivalentes ?
Porque se puede utilizar cualquiera de ellas. As si, por ejemplo, se tiene una sucesion de vectores
que tiende a v para una cierta norma, entonces la sucesion tambien converge a v para las otras
normas (equivalentes).
40
5.1.2. Normas matriciales
Denicion 5.2 Sea A
n
el conjunto de las matrices de orden n, con las operaciones habituales,
denidas sobre IR (o CI ). Deniremos una norma matricial como una aplicaci on
: A
n
IR
que verica las siguientes propiedades :
i) A 0 , A A
n
y A = 0 A = 0
ii) A = ||A , IR y A A
n
iii) A + B A +B , A, B A
n
iv) AB AB , A, B A
n
.
Comentarios:
i) A
n
puede ser considerado como un espacio vectorial de dimension n
2
, As las cosas, las tres
primeras propiedades son similares a las correspondientes de una norma vectorial; mientras
que la ultima propiedad es propia de las normas matriciales.
ii) Un concepto importante para nuetros propositos es norma matricial inducida, puesto que
permite relacionar las normas vectoriales con las normas matriciales, pilar fundamental para
el estudio de convergencia y analisis de error en el calculo numerico.
Denicion 5.3 Sean A una matriz nn y
v
una norma vectorial denida en IR
n
, llamaremos
norma matricial inducida o norma matricial subordinada, con respecto a la norma vectorial dada
al n umero:
A = sup
v=0
Av
v
v
v
= sup
v=1
Av.
Actividades 5.2 Investigue, como demostrar los siguientes resultados importantes.
i) Para toda norma matricial inducida, se cumple
Ax
v
Ax
v
, x IR
n
. (46)
En este caso se dice que la norma matricial y la norma vectorial son compatibles.
ii) Sea A = (a
ij
) una matriz cuadrada real, entonces
A
1
= sup
Av
1
v
1
= max
1jn
n

i=1
|a
ij
|
A
2
= sup
Av
2
v
2
=
_
(A
T
A) =
_
(AA
T
) = A
T

2
(norma espectral)
A

= sup
Av

= max
1in
n

j=1
|a
ij
| (norma del m aximo.)
41
Nota 5.1 Si A es una matriz de orden n, (A) denota el radio espectral de A, es decir
(A) = max

i
(A)
|
i
|
Observacion 5.2 Existen normas matriciales que no son subordinadas a ninguna norma vectorial,
por ejemplo, la norma
A
E
=
_
_

i,j
|a
ij
|
2
_
_
1/2
= (tr(A

A))
1/2
es una norma matricial no subordinada.
Nota 5.2 La matriz aumentada de un sistema lineal Ax = b en general se almacena con un error
de redondeo, si la soluci on calculada se obtiene usando una estrategia de pivoteo que limita el error,
entonces la soluci on calculada y la soluci on exacta son iguales hasta alrededor de la exactitud de
la m aquina usada. Por lo tanto es util saber si la matriz de los coecientes est a mal condicionada.
Se entiende por matriz mal condicionada si peque nos cambios en los elementos de la matriz

A, pueden producir grandes cambios en el vector soluci on.


Un indicador de mal condicionamiento es el llamado n umero de condicion de la matriz A que
se dene como
K(A) = A A
1

Este n umero tiene la propiedad que, K(A) 1, luego un n umero de condicion de una matriz
cercano a 1 es indicador de buen condicionamiento y un n umero de condicion muy grande, es
indicador de mal condicionamiento.
Actividades 5.3
i) Determine x , A y A
1
para las
1
y

, si
x =
_
_
2
5
3
_
_
y A =
_
_
1 1 4
2 2 0
3 3 2
_
_
(47)
ii) Cu al es el n umero de condici on de la matriz A.
iii) Determine la norma espectral de A. (Para entretenerse fuera de la clase ).
5.1.3. Otros resultados importantes para el estudio de los metodos iterativos.
Si A es una matriz real de orden n, se tiene
i) (A) A, para cualquier norma .
42
ii) Diremos que A es una matriz convergente, si
lm
k
(a
k
)
ij
= 0 para cada i = 1, 2, ..., n y j = 1, 2, ..., n.
Las siguientes armaciones son equivalentes:
i) A es una matriz convergente.
ii) lm
n
(A
n
) = 0, para alguna norma natural .
iii) (A) < 1.
iv) lm
n
A
n
x = 0.
Actividades 5.4 ! Entretengase ! , demuestre que A es una matriz convergente si
A =
_
1
2
0
1
4
1
2
_
(48)
Teorema 5.1 Las siguientes armaciones son equivalentes:
i) A es una matriz convergente.
ii) lm
n
(A
n
) = 0, para alguna norma natural .
iii) (A) < 1.
iv) lm
n
A
n
x = 0.
5.2. Metodos iterativos.
Los metodos directos requieren alrededor de 2n
3
/3 operaciones aritmeticas para resolver un sistema
lineal de nn, lo que limita el tama no de los sistemas que pueden ser resueltos de manera directa.
Por ejemplo cuando se resuelven numericamente ecuaciones diferenciales pueden surgir sistemas
de 20000 variable.
Una alternativa que puede lograr gran exactitud para n grande son los metodos iterativos.
Para obtener un metodo iterativo procedemos como antes, re-escribimos el sistema de ecuaciones
como una iteracion de punto jo. Es decir,
Ax = b. (49)
lo escribimos, en la forma
x
(k+1)
= Mx
(k)
+c para cadak 1. (50)
donde la matriz M, se llama matriz de iteraci on. Relacionando nuestros conocimientos sobre
normas con estos metodos, existen algunos resultados importantes que garantizan la convergencia
de estos metodos. ( Se sugiere cosultar la demostracion en los textos de la bibliografa entregada.)
43
1) El radio espectral de la matriz M, (M) cumple
(M) M
para cualquier norma matricial inducida.
2) Sea M matriz n n, el proceso iterativo (61) converge para cada k 1 y c = 0 a la unica
solucion si y solo si (M) < 1.
Para transformar (49) en un problema de punto jo, se descompone la matriz A en la suma,
A = L + D + U
donde, D es la diagonal principal de A, L es la parte diagonal inferior de la matriz A y U es la
parte triangular superior de A con ceros en las diagonales.
5.2.1. Metodo de Jacobi.
i) Forma matricial
Transformamos el sistema,
Ax = b (D + L + U)x = b
Dx = b (L + U)x
x = D
1
[b (L + U)x]
x = D
1
(L + U)x + D
1
b
x = M
JAC
x +c.
(51)
De aqu que la matriz de de iteracion de Jacobi es,
M
JAC
= D
1
(L + U).
y c = D
1
b.
ii) Forma en terminos de las componentes
La i-esima componente del vector correspondiente a (k + 1)-esima iteracion es,
x
(k+1)
i
=
1
a
ii
_
_
_b
i

j=1
j=i
a
ij
x
(k)
j
_
_
_ . (52)
44
5.3. Metodo de Gauss-Seidel.
i) Forma matricial
En este caso se hace la transformacion,
Ax = b (D + L + U)x = b
(D + L)x = b Ux
x = (D + L)
1
[b Ux]
x = (D + L)
1
Ux + (D + L)
1
b
x = M
GS
x +c.
(53)
De aqu que la matriz de de iteracion de Gauss-Seidel es,
M
GS
= (D + L)
1
U.
y el vector c = (D + L)
1
b.
ii) Forma en terminos de las componentes
Este metodo es un mejoramiento del metodo de Jacobi, que consiste en calcular la compo-
nente x
(k)
i
a partir de las componentes de x
(k1)
en la forma siguiente, para i > 1, han
sido calculadas las x
(k)
1
, ..., x
(k)
i1
que supuestamente son mejores aproximaciones que las
x
(k1)
1
, ..., x
(k1)
i1
a las componentes x
1
, ..., x
i1
, de la solucion real , por lo tanto se usa esta
idea al resolver la i-esima ecuacion,
x
(k)
i
=

i1
j=1
_
a
ij
x
(k)
j
_

n
j=i+1
_
a
ij
x
(k1)
j
_
+ b
i
a
ii
para i = 1, 2, ..., n.
Actividades 5.5
i) Dado el sistema lineal:
_
_
x
1
0x
2
+ 3x
3
= 2
5x
1
+ x
2
+ 2x
3
= 5
x
1
+ 6x
2
+ 2x
3
= 11
_
_
(54)
a) Es Denida positiva la matriz A. Justique.
b) Determine la soluci on exacta del sistema.
c) Comenzando con x
(0)
= 0 determine cuatro iteraciones usando el metodo de Jacobi y
cuatro iteraciones usando Gauss-Seidel
ii) El metodo iterativo de Jacobi puede expresarse como :
x
(k+1)
= M
JAC
x
(k)
+c. (55)
donde = M
JAC
es la correspondiente matriz de iteraci on.
45
a) Verique que (55) puede escribirse como:
x
(k+1)
= x
(k)
+z
(k)
. (56)
donde,
z
(k)
= c B
JAC
x
(k)
con B
JAC
= I M
JAC
(z
(k)
se llama vector de correcci on)
b) Para obtener un metodo de relajaci on, se introduce en (56) el coeciente para obtener
:
x
(k+1)
= x
(k)
+ z
(k)
. (57)
Use el metodo (57) con = 0,5 para estimar la aproximaci on x
(2)
del sistema :
_
_
_
_
3 1 0 0
1 3 1 0
0 1 3 1
0 0 1 3
_
_
_
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
=
_
_
_
_
10
12
12
10
_
_
_
_
(58)
con x
(0)
= 0.
5.4. Metodo de sobrerelajacion
Estos metodos se obtienen modicando el metodo de Jacobi o el de Gauss-Seidel, introduciendo
un parametro llamado par ametro de relajaci on.
i) Forma matricial
En efecto, la forma matricial del esquema, se obtiene considerando la siguiente descomposicion
para la matriz A.
A =
D

+ L
_
(1 )

D
_
+ U. (59)
donde :
es un parametro
D,L,U son las matrices diagonal y triangulares inferior y superior denidas anteri-
ormente.
sustituyendo (59) en Ax = b, se tiene :
D

x + Lx +
_
(1 )

D + U
_
x = b. (60)
multiplicando (60) por :
Dx + Lx + [(1 )D + U]x = b
46
y de aqu :
x = (D + L)
1
[(1 )D U]x + (D + L)
1
b
que en forma recursiva puede expresarse en la forma :
x
(k)
= M

x
(k1)
+c (1)
con :
M

= (D + L)
1
[(1 )D U]
c = (D + L)
1
b
ii) En termino de componentes
Para nes computacionales la ecuacion matricial, puede escribirse:
x
(k)
i
= (1 )x
(k1)
i
+

a
ii
_
_
b
i

i1

j=1
a
ij
x
(k)
j

n

j=i+1
a
ij
x
(k1)
j
_
_
, (2)
para i = 1, 2, ..., n.
Si = 1 , tenemos el metodo de Gauss-Seidel.
Si 0 < < 1, los metodos de relajacion se denominan metodos de sub-relajaci on y se pueden usar
en sistemas que no son convergentes por el metodo de Gauss-Seidel.
Si > 1 los metodos se denominan metodos de sobre-relajaci on y se pueden usar para acelerar la
convergencia en sistemas que son convergentes mediante el metodo de Gauss-Seidel.
5.5. Resultados importantes
i) Para cualquier x
(0)
R
n
, la sucesion denida por
x
(k+1)
= Mx
(k)
+c para cadak 1. (61)
converge a la solucion unica si y solo si (M) < 1.
ii) Si M < 1 para cualquier norma matricial subordinada, la sucesion generada por (61)
converge para cualquier x
(0)
R
n
y se satisafacen las cotas de error:
x x
(k)
M
k
x
(0)
x
x x
(k)

M
k
1 M
x
(1)
x
(0)

iii) Si A es diagonal dominante, entonces para cualquier eleccion de x


(0)
los metodos de Jacobi
y Gauss-Seidel convergen a la solucion exacta del sistema.
iv) Si A es denida positiva y 0 < < 2, entonces el metodo SOR converge para cualquier
aproximacion inicial.
v) Si A es denida positiva y tridiagonal, entonces (M
GS
) = (M
JAC
)
2
< 1 y la eleccion
optima de , es
=
2
1 +
_
1 (M
JAC
)
2
.
47
5.6. Analisis de error y N umero de Condicion
Consideremos el sistema A

x =

b y supongamos que A es una matriz invertible, analicemos las
siguientes situaciones:
1. Si se perturba la matriz A
1
para obtener una nueva matriz B la solucion x = A
1
b resulta
perturbada y la escribiremos x = Bb. Nos preguntamos Que tan grande es la solucion
perturbada en terminos absolutos y relativos ? sol. Consideremos || ||
p
una norma vectorial
y su correspondiente norma matricial subordinada, determinamos
i) el error absoluto
||x x|| = ||x Bb|| = ||x BAx|| = ||(I BA)x|| ||I BA|| ||x||
ii) el error relativo
||x x||
||x||
||I BA||
representan las medidas de los errores en terminos absolutos y relativos.
2. Consideremos ahora que se perturba el vector b para obtener el vector

b. Si x y x satisfacen
respectivamente Ax =

b y A x =

b. En cuanto diere x y x en terminos absolutos y
relativos ?
i) En terminos absolutos
||x x|| = A
1
b A
1

b = A
1
(b

b) A
1
b

b
ii) En terminos relativos
||x x|| ||A
1
|| ||b

b|| = ||A
1
|| ||b

b||
||b||
||b||
||A
1
|| ||Ax||
||b

b||
||b||
||x x||
||x||
||A
1
|| ||A||
||b

b||
||b||
es decir, el error relativo de la solucion x esta acotado por (A) veces el error relativo de

b .
Observacion 5.3
i) El n umero de condici on depende de la norma vectorial seleccionada.
48
ii) Si (A) es peque no, entonces peque nas perturbaciones en

b conducen a peque nas perturba-
ciones en x.
Ejemplo 5.2 Analizar el condicionamiento de la matriz A =
_
1 1 +
1 1
_
con > 0.
Sol. Determinamos A
1
A
1
=
_
1 1
1 + 1
_
Usando norma innito, tenemos,
||A||

= 2 + , ||A
1
||

=
2
(2 + )
(A) =
_
(2 + )

_
2
=
4 + 4 +
2

2
>
4

2
Si 0,01, entonces (A) 40000. Esto signica que una peque na perturbaci on sobre b puede
inducir una perturbaci on o error relativo de 40000 veces mayor en la soluci on del sistema Ax = b.
Observacion 5.4 En el caso de los metodos iterativos, podemos medir que tan buena es la soluci on
aproximada x, calculando
i) A x
ii) y r = b A x. Este vector se denomina vector residual.
Observamos adem as que la diferencia e = x x se llama vector residual.
Podemos resumir una relacion importante entre vector error y vector residual.
Teorema 5.2 Si x es la soluci on exacta de A x =

b, donde

b = b r implica r =

b.
1
A)
||r||
||b||

||e||
||x||
(A)
||r||
||b||
Criterios de parada.
Se dene el vector el residual r
(k)
= b Ax
(k)
y el vector error e
(k)
= x x
(k)
.
Criterio 1. Dada una tolerancia , iterar hasta que,
r
(k)

r
(0)

< .
Criterio 2. Sean, b , x , x
(0)
R
n
y A una matriz no singular, entonces:
e
(k)

e
(0)

(A)
r
(k)

r
(0)

.
donde, (A) es el n umero de condicion de la matriz A.
49
Criterio 3. El criterio 1, depende del valor inicial x
(0)
, de modo que si la aproximacion inicial
no es buena, los resultados pueden ser grotescos. Se recomienda usar en su lugar,
r
(k)

b
< .
Actividades 5.6
i) Demuestre el teorema anterior
ii) Demuestre que si ||A|| < 1 entonces
I A es invertible.
||(I + A)
1
|| (1 ||A||)
1
(I + A)
1
= I A + A
2
A
3
+
||(I + A)
1
||
1
1 +||A||
Teorema 5.3 El radio espectral
(A) = inf
||.||
||A||
es el nmo sobre todas las normas matriciales subordinadas.
Actividades 5.7
1) Contra los deseos de su corredor Jeanette compra x ttulos de acciones de ENDESA, y ttulos
de acciones de CTC Chile y z ttulos de acciones de Chilgener . A inicios de Enero, Febrero
y Marzo, las acciones de ENDESA valan $5,18 , $3,14 y $3,01 por ttulo, las acciones de
CTC Chile $2,10 , $6,03 y $2,18 por ttulo y las acciones de Chilgener, $2,90 , $2,80 y $5,53
por ttulo, respectivamente.
a) Determine el vector (x
(2)
, y
(2)
, z
(2)
) mediante el metodo de Gauss-Seidel, si Jeanette
gast o en total $2945,30 , $4113,85 y $3417,00 en Enero, Febrero y Marzo, respectiva-
mente. (x
(0)
= (150, 150, 150)
T
).
(Justique).
b) Determine una estimaci on del error absoluto de la aproximaci on anterior.
c) De acuerdo a lo obtenido en a), Cu antos ttulos de cada empresa adquiri o Jeanette ?
2) El sistema de ecuaciones Ax = b, donde
A =
_
3 2
1 2
_
, x =
_
x
1
x
2
_
, b =
_
1
2
_
(62)
puede resolverse mediante el siguiente metodo iterativo :
x
(k+1)
= x
(k)
+ (Ax
(k)
b),
x
(0)
=
_
1
1
_
, (63)
50
a) Determinar todos los valores de para los cuales se puede garantizar la convergencia
del algoritmo.
b) Determinar si para = 0,4 el algoritmo es convergente.
51
1
2
Aproximacion de funciones.
Modulo 10
Prof. Mara Angelica Vega U.
El prop osito de estos m odulos es entregar los conceptos te oricos b asicos
necesarios y algunas aplicaciones en forma dirigida, de modo que el estudian-
te pueda participar en forma activa, en el proceso ense nanza - aprendizaje,
elaborando su propio material de estudio. El logro deseable es que el estudian-
te aprenda a aprender. Es claro que este material debe ser complementado
con el apoyo de la bibliografa sugerida.
2.1 Interpolacion Polinomica.
El Problema :
Dado el conjunto de (n + 1) puntos, del graco de una funcion f, deno-
tados por
(x
0
, f(x
0
)) , (x
1
, f(x
1
)) . . . (x
x
, f(x
n
)),
se requiere encontrar una funcion polinomica P(x) al que llamaremos poli-
nomio interpolante para f , de a lo mas grado n que satisfaga la condicion
de interpolacion, expresada por
P(x
i
) = f(x
i
) , i = 0, 1, ...n. (2.1)
Soluciones al Problema :
Inspirandonos en el criterio de Taylor, de acuerdo a (2.1), observemos
que el polinomio de Taylor es combinacion lineal de los elementos de la base
{1, (x x
0
), (x x
0
)
2
, (x x
0
)
3
...(x x
0
)
n
...}
para el espacio vectorial de los polinomios de una variable real sobre IR. Es
obvio que los polinomios de Taylor son utiles para aproximar una funci on
sobre intervalos peque nos alrededor del punto x
0
, pero en la practica este no
siempre es el caso y es necesario usar un metodo mas eciente que incluya
informacion en otros puntos.
2.1. INTERPOLACI

ON POLIN

OMICA. 3
2.1.1 Metodo de los coecientes indeterminados.
Tomando en cuenta lo anterior, podemos proponer que el polinomio inter-
polante sea una combinacion lineal de los elementos de la base canonica del
espacio de los polinomios por la sencillez en los calculos, es decir
P
n
(x) =
n

i=0
a
i
x
i
= a
0
+a
1
x +a
2
x
2
+... +a
n
x
n
. (2.2)
As el problema se reduce a encontrar los coecientes de las potencias de
x, de donde se obtiene un sistema de ecuaciones cuyas incognitas son estos
coecientes. Veamos estas ideas aplicadas a un problema practico.
Actividad I.
Suponga que una empresa contrata servicios y entrega la siguiente infor-
macion exacta,
Piezas Vendidas (en millones) 1 2 3 4 5
Ganancia Neta (en millones) 11.2 15.3 17.1 16.9 15.0
Tabla 1.
se pide determinar cuantas piezas deben venderse para maximizar la
ganancia neta, dejando estipulado en las bases del contrato que no habra
futuras contrataciones si la respuesta es equvoca . Se debe hacer una re-
comendacion y justifcarla.
Consideraciones sobre el metodo.
Este metodo que resulta muy simple en este caso, presenta la dicultad
que la matriz de los coecientes asociada al sistema de ecuaciones que se
obtiene al aplicar la condicion de interpolacion, es la matriz de Vandermonde,
que se caracteriza por volverse rapidamente mal condicionada cuando n, el
orden de la matriz crece en funcion del grado del polinomio, por tanto este
metodo no es conveniente para hallar polinomios interpolantes.
De aqu que es importante estudiar otra forma de escribir este polinomio,
de modo de obviar el que tengamos que resolver un sistema de ecuaciones
lineales mal condicionado. Los metodos de Lagrange y de Newton son los
que tradicionalmente se estudian en cualquier curso de calculo numerico,
ambos se basan en escribir el polinomio de interpolacion como combinaci on
lineal de elementos de alguna base del espacio vectorial de los polinomios
distinta de la canonica.
4
2.1.2 Metodo de Lagrange.
Sea P
n
(x) el polinomio que interpola a la funcion f en los (n + 1) puntos
(x
0
, f(x
0
)) , (x
1
, f(x
1
)) , (x
2
, f(x
2
)) , , (x
n
, f(x
n
))
y supongamos que seg un una cierta base
{l
0
(x), l
1
(x), ..., l
n
(x)},
para el espacio vectorial de los polinomios, el polinomio interpolante se es-
cribe :
P
n
(x) =
n

i=0
f(x
i
)l
i
(x) = f(x
0
)l
0
(x) +... +f(x
n
)l
n
(x). (2.3)
Si resolvemos de esta forma el problema, nuestro trabajo consistir a en en-
contrar los polinomios l
i
(x) de modo que se verique
f(x
i
) = P
n
(x
i
) = f(x
0
)l
0
(x
i
) + +f(x
i
)l
i
(x
i
) + +f(x
n
)l
n
(x
i
). (2.4)
Observemos que para que se verique la condicion (2.4) para cada i, es
suciente que el polinomio l
i
(x) verique que:
l
i
(x
j
) = 0 0 j n , i = j (2.5)
l
i
(x
i
) = 1 (2.6)
De la condicion (2.5) se deduce que las races del polinomio l
i
(x) son los
x = x
j
, 0 j n , i = j ,
por lo tanto podramos escribir este polinomio como :

l
i
(x) = (x x
0
)...((x x
i1
)(x x
i+1
)...(x x
n
). (2.7)
Pero este polinomio no cumple con la condicion (2.6), puesto que si lo eval-
uamos en el nodo x
i
vale:

l
i
(x
i
) = (x
i
x
0
)...((x
i
x
i1
)(x
i
x
i+1
)...(x
i
x
n
). (2.8)
Luego si dividimos el polinomio

l
i
(x) por el valor

l
i
(x
i
), obtenemos el poli-
nomio :
l
i
(x) =
n

j=0 j=i
(x x
j
)
(x
i
x
j
)
=
(x x
0
)...((x x
i1
)(x x
i+1
)...(x x
n
)
(x
i
x
0
)...(x
i
x
i1
)(x
i
x
i+1
)...(x
i
x
n
)
.
(2.9)
Que por construccion cumple las condiciones (2.5)y (2.6).
Los polinomios l
i
(x) se conocen con el nombre polinomios de Lagrange,
mientras que P
n
(x) recibe el nombre de polinomio interpolante de Lagrange
para f(x) en los puntos (x
0
, f
0
) , (x
1
, f
1
) , ..., (x
n
, f
n
), que suele denotarse
generalmente L
n
(x).
Aplicaremos la idea de Lagrange al problema del ejemplo anterior con el
fn de obtener alg un tipo comparacion entre ambos metodos.
Actividad II.
Solucione el problema planteado en la actividad I, usando un polinomio
de Lagrange para interpolar la funcion representada por los datos dados.
2.1. INTERPOLACI

ON POLIN

OMICA. 5
Observaci on 2.1 Sabemos que si el polinomio interpolante existe, es
unico, por lo tanto es obvio pensar que el polinomio es el mismo usando
cualesquiera de los dos metodos anteriores, m as a un usando cualquier
otro metodo.
El metodo de Lagrange para determinar el polinomio interpolante com-
parado con el metodo de coecientes indeterminados, es un tanto labo-
rioso por la cantidad de c alculos involucrados al calcular los elementos
de la base, pero tiene un valor te orico importante en la deducci on de
otros metodos numericos, como por ejemplo f ormulas de integraci on
numerica, aproximaci on de soluciones de ecuaciones diferenciales, etc.
Si en la formula (2.3), n = 1 el polinomio interpolante adopta la forma,
P
1
(x) = f(x
0
)
(x x
1
)
(x
0
x
1
)
+f(x
1
)
(x x
0
)
(x
1
x
0
)
.
(2.10)
o (2.10) en forma simplicada,
P
1
(x) = f(x
0
)l
0
(x) +f(x
1
)l
1
(x) (2.11)
con,
l
0
(x) =
x x
1
(x
0
x
1
)
, l
1
(x) =
x x
0
(x
1
x
0
)
.
cuya graca es la recta que pasa por los puntos dados por lo que este prob-
lema se conoce como Interpolaci on lineal.
Otra situacion particular es el caso en que n = 2, es decir se tienen los
puntos,
(x
0
, f(x
0
)) , (x
1
, f(x
1
)) , (x
2
, f(x
2
)),
el polinomio P
2
(x) que interpola a la funcion f(x) en los tres puntos es
P
2
(x) = f(x
0
)
(x x
1
)(x x
2
)
(x
0
x
1
)(x
0
x
2
)
+f(x
1
)
(x x
0
)(x x
2
)
(x
1
x
0
)(x
1
x
2
)
+f(x
2
)
(x x
0
)(x x
1
)
(x
2
x
0
)(x
2
x
1
)
.
.
(2.12)
Simplicando la notacion igual que antes,
P
2
(x) = f(x
0
)l
0
(x) +f(x
1
)l
1
(x) +f(x
2
)l
2
(x) (2.13)
6
con,
l
0
(x) =
(x x
1
)(x x
2
)
(x
0
x
1
)(x
0
x
2
)
, l
1
(x) =
(x x
0
)(x x
2
)
(x
1
x
0
)(x
1
x
2
)
.
La graca corresponde a la parabola que pasa por los puntos dados, en
este caso hablamos de interpolaci on cuadr atica.
Consideraciones sobre el metodo.
Uno de los inconvenientes que tiene la forma de Lagrange para el poli-
nomio de interpolacion, es que al agregar otro punto de interpolacion o
nodo , los elementos de la base polinomios de Lagrange,
l
i
(x) , para i = 0, 1, ..., n + 1.
deben ser calculados nuevamente uno a uno. Surge entonces la inquietud
de como construir el polinomio de interpolacion en forma mas eciente, de
modo de aprovechar la informacion ya procesada al agregar nuevos nodos.
Este hecho amerita que busquemos otra forma de escribir el polinomio de
interpolacion, es decir expresarlo en otra base del espacio vectorial.
2.1. INTERPOLACI

ON POLIN

OMICA. 7
2.1.3 Forma de Newton para el Polinomio de Interpolacion
En la forma de Newton el polinomio interpolante P
n
(x) es escrito usando una
base parecida a la usada para expresar el polinomio de Taylor, observemos
ambas bases :
{1 , (x x
0
) , (x x
0
)
2
, , (x x
0
)
n
}. (2.14)
base usada para denir el polinomio de Taylor y
{1 , (xx
0
) , (xx
0
)(xx
1
) , , (xx
0
)(xx
1
) (xx
n1
)}. (2.15)
base usada para denir el polinomio de Newton. De aqu podemos expresar
el polinomio en la forma,
P
n
(x) = a
0
+a
1
(xx
0
)+a
2
(xx
0
)(xx
1
)+ a
n
(xx
0
)(xx
1
) (xx
n1
).
(2.16)
Notemos que por construccion este polinomio es de grado a lo mas n y
es logico pensar los coecientes a
i
, para i = 0, 1, ..., n deben determinarse
de modo que se verique la condicion de interpolacion. Para ello evaluamos
P
n
(x) en cada x
i
.
Para x
0
obtenemos:
P
n
(x
0
) = f(x
0
) = a
0
.
Analogamente si evaluamos P
n
(x) en x
1
tenemos:
a
1
=
f(x
1
) f(x
0
)
x
1
x
0
P
n
(x) evaluado en x
2
a
2
=
f(x
2
) f(x
0
)
(x
2
x
0
)(x
2
x
1
)

f(x
1
) f(x
0
)
(x
2
x
1
)(x
1
x
0
)
.
As obtenemos sucesivamente los otros valores de las constantes a
3
, , a
n
.
Para simplicar la escritura de los coecientes a
i
, introducimos el con-
cepto de diferencias divididas lo que permite escribir el polinomio de Newton
en una forma mas simple.
Diferencias Divididas
Consideremos (n+1) puntos cualesquiera P
i
(x
i
, f(x
i
)) , i = 0...n, no
necesariamente equiespaciados, denimos :
1. diferencias divididas de orden cero por:
f[x
i
] = f(x
i
).
2. Si consideramos un par de puntos indexados cualesquiera
P
i
(x
i
, f(x
i
)) y P
i+1
(x
i+1
, f(x
i+1
))
8
denimos la primera diferencia dividida o diferencia dividida de orden
1 como el n umero :
f[x
i
, x
i+1
] =
f(x
i+1
) f(x
i
)
x
i+1
x
i
.
Al relacionar f[x
i
, x
i+1
] con su signicado geometrico, sabemos que
corresponde a la pendiente del segmento lineal que une P
i
y P
i+1
,
entonces si f[x
i
, x
i+1
] > 0 implica que f(x) es creciente en [x
i
, x
i+1
]
y si f[x
i
, x
i+1
] < 0 implica que f(x) es decreciente en [x
i
, x
i+1
]. Es
decir, este concepto nos proporciona informacion adicional acerca de
la graca de la funcion.
3. Consideremos ahora un tro de puntos consecutivos
P
i
(x
i
, f(x
i
)) , P
i+1
(x
i+1
, f(x
i+1
)) y P
i+2
(x
i+2
, f(x
i+2
))
denimos la segunda diferencia dividida o diferencia dividida de orden
2 como el n umero :
f[x
i
, x
i+1
, x
i+2
] =
f[x
i+1
, x
i+2
] f[x
i
, x
i+1
]
x
i+2
x
i
.
Como f[x
i
, x
i+1
, x
i+2
] es el cuociente entre el cambio de pendiente y
el cambio en x, de modo que si f[x
i
, x
i+1
, x
i+2
] > 0 geometricamente
la graca de f(x) es concava hacia arriba y si f[x
i
, x
i+1
, x
i+2
] < 0 la
graca de f(x) es concava hacia abajo en el intervalo [x
i
, x
i+2
].
O sea, tenemos ademas informacion acerca de la concavidad de la
funcion.
4. En general considerando los n + 1 puntos consecutivos
(x
i
, f
i
) , (x
i+1
, f
i+1
) , ..., (x
i+n
, f
i+n
)
podemos denir recursivamente la n-esima diferencia dividida o difer-
encia dividida de orden n por :
f[x
i
, ..., x
i+n
] =
f[x
i+1
, x
i+n
] f[x
i
, x
i+n1
]
x
i+n
x
i
.
Vemos que hay una relacion entre las diferencias divididas y el valor de
los coecientes del polinomio de Newton (2.16).
Los calculos para determinar las diferencias divididas pueden facilitarse
mucho, si estas se representan abreviadamente en una tabla.
2.1. INTERPOLACI

ON POLIN

OMICA. 9
x
i
f[x
i
] f[x
i
, x
i+1
] f[x
i
, x
i+1
, x
i+2
] f[x
i
, x
i+1
, x
i+2
, x
i+3
]
x
0
f[x
0
]
f[x
0
, x
1
]
x
1
f[x
1
] f[x
0
, x
1
, x
2
]
f[x
1
, x
2
] f[x
0
, x
1
, x
2
, x
3
]
x
2
f[x
2
] f[x
1
, x
2
, x
3
]
f[x
2
, x
3
] f[x
1
, x
2
, x
3
, x
4
]
x
3
f[x
3
] f[x
2
, x
3
, x
4
]
f[x
3
, x
4
] f[x
2
, x
3
, x
4
, x
5
]
x
4
f[x
4
] f[x
3
, x
4
, x
5
]
f[x
4
, x
5
]
x
5
f[x
5
]
f[x
5
, x
6
]
x
6
f[x
6
]
Tabla 2. Diferencias Divididas
Al observar la tabla 2 podemos darnos cuenta que las diferencias divididas
que aparecen en la diagonal que va desde el extremo superior izquierdo al
extremo inferior derecho son precisamente los coecientes de (2.16), usando
este hecho el polinomio interpolante puede expresarse en forma simplicada
como:
P
n
(x) = f[x
0
] +f[x
0
, x
1
](x x
0
) +f[x
0
, x
1
, x
2
](x x
0
)(x x
1
) +
+f[x
0
, x
1
, ..., x
n
](x x
0
)(x x
1
) (x x
n1
).
Actividad III.
Consideremos nuestro ejemplo modelo y construyamos el polinomio in-
terpolante en la forma de Newton.
Como medimos que tan buena es la aproximacion ?
Cuando en calculo diferencial se estudia el polinomio de Taylor de grado
n para aproximar una funcion f C
(n+1)
[a, b] en un punto x
0
[a, b] su de-
sarrollo involucra el termino R
n
(x) llamado residuo o error de truncamiento
y que se dene como :
R
n
(x) =
f
(n+1
)()
(n + 1)!
(x x
0
)
(n+1)
, (x
0
, x). (2.17)
Cabe pensar entonces que al aproximar una funcion mediante un polinomio
de interpolacion usando mas de un punto, tambien existe un termino de error
involucrado y de hecho es una extension de (2.17). En el siguiente resultado
formalizamos este hecho.
Teorema 2.1 Si x
0
, x
1
, ..., x
n
son (n + 1) puntos distintos en [a, b] y f
C
(n+1)
[a, b] entonces, para cada x [a, b] existe un (x) en (a, b) tal que :
10
E(x) = f(x) P
n
(x) =
f
(n+1
)()
(n + 1)!
(x x
0
)(x x
1
)...(x x
n
). (2.18)
donde P
n
(x) es el polinomio interpolante de Lagrange.
Demostracion. Se deja como inquietud, sin embargo podemos comentar
que se usa como parte del argumento el teorema de Rolle.
Observaci on 2.2 Es posible obtener una relaci on entre diferencia di-
vidida y el termino
f
(n+1
)()
(n + 1)!
,
de modo que podemos expresar la f ormula de error en terminos de
diferencias divididas. Para ello consideremos :
P
n
(x) = f[x
0
] +f[x
0
, x
1
](x x
0
) +f[x
0
, x
1
, x
2
](x x
0
)(x x
1
) +
+f[x
0
, x
1
, ..., x
n
](x x
0
)(x x
1
) (x x
n1
)
si agregamos un punto m as (x
n+1
, f(x
n+1
)) de modo que ahora tenemos
(n + 2) puntos y usamos la notaci on :
x
n+1
= x , f(x
n+1
) = f( x) x = x
i
i = 0, ..., n
entonces de la f ormula de Newton
f( x) = P
n+1
( x) = P
n
( x) +f[x
0
, x
1
, ..., x
n
, x]w( x)
o
f( x) P
n
( x) = f[x
0
, x
1
, ..., x
n
, x]w( x)
de aqu y (2.18), obtenemos
f[x
0
, x
1
, ..., x
n
, x] =
f
(n+1)
()
(n + 1)!
para alg un I
luego reemplazando f[x
0
, x
1
, ..., x
n
, x] en (2.18) tenemos,
E( x) = f( x) P
n
( x) = f[x
0
, x
1
, ..., x
n
, x]w( x). (2.19)
que es otra forma de expresar el error de interpolaci on.
El polinomio de Newton puede expresarse para datos equiespaciados,
usando el concepto de diferencias progresivas y regresivas, para may-
ores detalles consultar la bibliografa recomendada al nal.
2.1. INTERPOLACI

ON POLIN

OMICA. 11
2.1.4 El problema de Hermite
El problema mas simple de Hermite es encontrar el polinomio H(x) del
menor grado posible, tal que interpole a la funcion f(x) y a su derivada
f

(x) en (n + 1) puntos x
0
, , x
n
, es decir, el polinomio debe satisfacer
H(x
i
) = f(x
i
) , i = 0, ..., n
H

(x
i
) = f

(x
i
) , i = 0, ..., n
y el Problema General consiste en suponer que :
1. En el nodo i se conocen los valores
p
(j)
(x
i
) , p
(j1)
(x
i
) , p

(x
i
) , p(x
i
).
2. Sea k
i
el n umero de condiciones de interpolacion sobre el nodo x
i
.
3. Si x
0
, ..., x
n
son los nodos entonces
p
(j)
(x
i
) = f
(j)
(x
i
) , j = 0, 1, k
i1
, i = 0, ..., n
De los dos problemas presentados estudiaremos el caso simple, aquellos
polinomios que geometricamente se parecen a la funcion en los puntos de
interpolacion (x
i
, f(x
i
)) en el sentido que las rectas tangentes al polinomio
y a la funcion tienen el mismo valor, es decir poseen misma derivada en una
vecindad del punto de interpolacion.
2.1.5 Como obtener el polinomio de Hermite ?
Podemos determinar el polinomio de Hermite basandonos en la forma de
Lagrange o extendiendo la forma de Newton.
1. Polinomio de Hermite basado en la forma de Lagrange.
Consideremos los nodos x
0
, ..., x
n
y supongamos que en cada nodo ten-
emos:
p(x
i
) = f(x
i
) , i = 0, ..., n
p

(x
i
) = f

(x
i
) , i = 0, ..., n
Observemos que tenemos (n+1) condiciones sobre f(x) y (n+1) condiciones
sobre f

(x) en total (2n + 2) condiciones, por lo que el polinomio es de


grado (2n + 1). Procediendo en forma similar a la usada para determinar la
forma del polinomio interpolante de Lagrange, se propone que la forma del
polinomio de Hermite es :
H
2n+1
(x) =

n
i=0
f(x
i
)h
i
(x) +

n
i=0
f

(x
i
)

h
i
(x). (2.20)
12
Con h
i
(x) y

h
i
(x) elementos de una base para el espacio vectorial de los
polinomios, tales que,
h
i
(x
j
) =
ij
,

h
i
(x
j
) = 0.
h

i
(x
j
) = 0 ,

h

i
(x
j
) =
ij
.
(2.21)
Al aplicar las condiciones de interpolacion y las relaciones (2.21) el lector
puede comprobar que se obtiene que :
h
i
(x) = [1 2(x x
i
) l

i
(x
i
)]l
2
i
(x) , i = 0, ..., n

h
i
(x) = (x x
i
) l
2
i
(x) , i = 0, ..., n.
(2.22)
N otese aqu, que h
i
(x) y

h
i
(x) son de grado (2n + 1) y como antes l
i
(x)
es el polinomio de Lagrange de grado n denido anteriormente, por:
l
i
(x) =
n

j=0 j=i
(x x
j
)
(x
i
x
j
)
.
Resumiendo estas ideas el El polinomio de Hermite de grado (2n+1) que
interpola a una funcion f(x) y a su derivada en (n + 1) puntos es :
H
2n+1
(x) =

n
i=0
f(x
i
)h
i
(x) +

n
i=0
f

(x
i
)

h
i
(x). (2.23)
con,
h
i
(x) = [1 2(x x
i
) l

i
(x
i
)]l
2
i
(x) , i = 0, ..., n.

h
i
(x) = (x x
i
) l
2
i
(x) , i = 0, ..., n.
(2.24)
Que podemos decir del error cometido ?
Debera deducirse en forma analoga a como se obtiene el error del poli-
nomio interpolante de Lagrange. En efecto,
Si x
0
, ..., x
n
son (n + 1) puntos distintos en [a, b] y f C
(2n+2)
[a, b] y
H(x) es el polinomio de grado (2n + 1) tal que :
H(x
i
) = f(x
i
) , i = 0, ..., n
H

(x
i
) = f

(x
i
) , i = 0, ..., n
entonces, a cada x [a, b] le corresponde (x) [a, b] tal que,
E(x) = f(x) H(x) =
f
(2n+2)
((x))
(2n + 2)!
n

i=0
(x x
i
)
2
. (2.25)
2.1. INTERPOLACI

ON POLIN

OMICA. 13
Observaci on 2.3 Es conveniente se nalar que en el caso particular que ex-
iste un s olo nodo x
0
, se conoce la funci on f(x) y sus n derivadas el polinomio
de Hermite es el polinomio de Taylor, es decir
H(x) = P(x)
= P(x
0
) +P

(x
0
)(x x
0
) +P

(x
0
)
(x x
0
)
2
2!
+ +P
(n)
(x
0
)
(x x
0
)
n
n!
.
(2.26)
2. Polinomio de Hermite basado en la forma de Newton.
La idea es ahora extender el metodo de las diferencias divididas de New-
ton para resolver el problema de interpolacion de Hermite. Ello se logra
construyendo la tabla como antes, con la variante de incluir un nodo en la
tabla tantas veces como condiciones dadas existan sobre el. Para ilustrar
esta situacion consideraremos a modo de ejemplo el caso en que se tienen
dos puntos de interpolacion x
0
y x
1
y se conocen los valores de la funcion y
su derivada. Inspirandonos en el polinomio de Taylor podemos intuir que el
polinomio que interpola la funcion y su derivada en los nodos dados es de la
forma :
H
3
(x) = a
0
+a
1
(x x
0
) +a
2
(x x
0
)
2
+a
3
(x x
0
)
2
(x x
1
). (2.27)
donde obviamente los coecientes a
0
, a
1
, a
2
y a
3
se pueden obtener de la
siguiente tabla :
x
i
f[x
i
] f[x
i
, x
i+1
] f[x
i
, x
i+1
, x
i+2
] f[x
i
, x
i+1
, x
i+2
, x
i+3
]
x
0
f[x
0
]
f[x
0
, x
0
] = f

(x
0
)
x
0
f[x
0
] f[x
0
, x
0
, x
1
]
f[x
0
, x
1
] f[x
0
, x
0
, x
1
, x
1
]
x
1
f[x
1
] f[x
0
, x
1
, x
1
]
f[x
1
, x
1
] = f

(x
1
)
x
1
f[x
1
]
Tabla 4. Diferencias Divididas para el polinomio de Hermite
Veremos ahora porque,
f[x
0
, x
0
] = f

(x
0
) y f[x
1
, x
1
] = f

(x
1
).
En efecto,
f[x
0
, x
0
] = lim
xx
0
f[x
0
, x] = lim
xx
0
f(x) f(x
0
)
x x
0
= f

(x
0
). (2.28)
14
Un razonamiento similar es valido para:
f[x
1
, x
1
] = lim
xx
1
f[x
1
, x] = lim
xx
1
f(x) f(x
1
)
x x
1
= f

(x
1
). (2.29)
De donde el polinomio de Hermite es,
H
3
(x) = f(x
0
)+f

(x
0
)(xx
0
)+f[x
0
, x
0
, x
1
](xx
0
)
2
+f[x
0
, x
0
, x
1
, x
1
](xx
0
)
2
(xx
1
).
(2.30)
Observaci on 2.4 En general se puede demostrar que, si los puntos x
i
son
distintos y f
(n)
(x) es continua en el nodo x
k
, entonces :
lim
x
k+n
x
k
f[x
k
, , x
k+n
] =
f
(n)
(x
k
)
n!
, x
k
= x
k+1
= = x
k+n
. (2.31)
Actividad I.
1) Encuentre un polinomio p(x) de grado menor o igual que 4 que cumpla
con las condiciones :
f(0) = 0 , f

(0) = 0 , f(2) = 16 , f

(2) = 32 , f

(2) = 48
Usando
el primer nodo como pivote
el ultimo nodo como pivote.
2) PEP 2 (Problema 3). Segundo Semestre del 2000.
Un automovil recorrio 160 km en un camino que une dos ciudades, y
empleo, en este trayecto, 2 hora y 20 minutos. Use los datos de la
tabla adjunta para determinar :
a) La distancia recorrida en los primeros 45 minutos de viaje. (Use
un polinomio c ubico.)
b) El tiempo empleado en llegar a la mitad del camino recorrido.
Tiempo (en min) Distancia (en Km)
0 0.00
10 8.00
30 27.00
60 58.00
90 100.00
120 145.00
140 160.00
3 ) PEP 2 (Problema 1). Segundo Semestre del 2001.
Considere la funcion f(x) = e
x
+ senx + 2 denida en [0, ].
2.1. INTERPOLACI

ON POLIN

OMICA. 15
a) Aproxime la funcion dada, utilizando interpolacion lineal por
tramos y los puntos x
i
=
i
4
, i=0,1,2,...,4.
b) Mediante la aproximacion encontrada en el punto anterior, estime
el valor de la funcion en el punto x = 1.25 y determine su error
absoluto comparando el valor aproximado con el exacto.
4) PEP 2 (Problema 2). Segundo Semestre del 2001. Usando mnimos
cuadrados, se desea determinar una funcion que represente los datos
de la siguiente tabla:
k 0 1 2 3 4
x
k
1 3 6 9 15
f(x
k
) 5.12 3.00 2.48 2.34 2.18
a) Encuentre una aproximacion de mnimos cuadrados usando la
funcion
h(x) = +

x
b) Utilizando los datos de la tabla y la aproximacion anterior, calcule
:
max{|h(x
k
) f(x
k
)|/k = 0, 1, ..., 4}
Que interpretacion puede darle a este n umero ?
5) Determine un polinomio P(x) tal que
p(1) = 10 , p

(1) = 11 , p

(1) = 22 , p(3) = 18 , p

(3) = 83.
Modulo 11
Prof. Mara Angelica Vega U.
9.2. Polinomios de Tchebyshev y economizacion de series.
El estudio de lo polinomios de Tchebyshev conduce a los resultados siguientes:
i) Permiten una colocacion optima de los puntos de interpolacion para minimizar el error en la
interpolacion de lagrange.
ii) Permiten reducir el grado del interpolante con una perdida mnima de precisi on.
Denicion 9.1 Se denen los polinomios de Tchebyshev por
T
n
(x) = cos(n arc cos (x)) 1 x 1 y n = 0, 1, 2, (142)
la sustituci on = arc cos (x) implica que:
T
n
(x) = cos(n ) 1 x 1 (143)
Usando identidades trigonometricas la ecuacion 143 se transforma en
T
n+1
(x) = 2xT
n
(x) T
n1)
(x) para cada n = 1, 2, y x [1, 1] (144)
con T
0
(x) = 1 y T
1
(x) = x. Esta relacion de recurrencia implica que para cada n 1, T
n
es un
polinomio de grado n con coeciente principal 2
n1
.
9.2.1. Propiedades o Teoremas importantes
Propiedad 9.1 El polinomio de Tchebyshev T
n
d egrado n 1 tiene n ceros simplesn en [1, 1]
x
k
= cos

(2k 1)
(2n)

para k = 1, 2, , n. (145)
Adem as tiene extremos absolutos en
x
k
= cos

(k)
(n)

para k = 0, 1, , n. (146)
con
T
n
(x
k
) = cos

(k)
(n)

para k = 0, 1, , n. (147)
Las gracas de algunos polinomios de Tchebyshev se presentan en la siguiente gura: En estos
gracos se puede observar las siguientes 3 propiedades de los polinomios de Chebyshev:
1. |T
n
(x)| 1 1 x 1.
81
Figura 11: Gracas de T
1
, ..., T
5
2. T
n
tiene n ceros reales distintos en el interior de [1, 1].
3. |T
n
(x)| alcanza su maximo modulo de 1 en [1, 1] en n+1 puntos, incluyendo ambos extremos
1 y T
n
(x) toma los valores 1 alternadamente en estos puntos.
Observacion 9.1 i) Los polinomios m onicos (coeciente inicial 1)

T
n
de Tchebyshev, se
pueden deducir de los polinomio de Tchebyshev T
n
, dividiendo por 2
n1
,

T
0
(x) = 1 ,

T
n
(x) = 2
1n
T
n
(x) para cada n 1.
ii) Estos polinomios satisfacen la relaci on de recurrencia,

T
2
(x) = x

T
1
(x)
1
2

T
0
(x) ,

T
n+1
(x) = x

T
n
(x)
1
4

T
n1
(x)
para cada n 2.
iii) Debido a la relaci on lineal entre

T
n
y T
n
la propiedad 8.1, implica que los ceros de

T
n
ocurren
tambien en,
x
k
= cos

(2k 1)
(2n)

para k = 1, 2, , n. (148)
y que los valores extremos de los

T
n
ocurren en
x
k
= cos

k
(n)

para k = 0, 1, , n. (149)
82
iv) En estos valores extremos para n 1

T
n
(x
k
) =
(1)
k
2
n1
para cada k = 0, 1, 2, , n
De esto ultimo, se deduce la siguiente propiedad
Propiedad 9.2 Los polinomios de la forma

T
n
, cuando n 1, tienen la propiedad
1
2
n1
= max
x[1,1]
|

T
n
(x)| max
x[1,1]
|P
n
(x)| para toda P
n

n
En esta ultima expresion, se produce la igualdad si y solo s P
n
=

T
n
Observacion 9.2 1. La respuesta a la interrogante d onde colocar los nodos interpolantes para
minimizar el error en la interpolaci on de Lagrange? Recordemos que: Si f C
n+1
[1, 1] y
x 0, , x
n
son n umeros distintos en el intervalo [1, 1], entonces para cada x [1, 1]
existe (x) en (1, 1) tal que,
f(x) = P(x) +
f
(n+1)
((x))
(n + 1)!
(x x
0
)(x x
1
) (x x
n
), (150)
donde P es el poinomio interpolante de Lagrange. Vimos que una alternativa de minimizar
el error es ubicar los nodos de una forma optima, lo equivale a encontrar los nodos que
minimizan la expresi on.
|(x x
0
)(x x
1
) (x x
n
)|
sobre todo el intervalo [1, 1]. Como
(x x
0
)(x x
1
) (x x
n
). (151)
es un polinomio m onico de grado (n + 1), la propiedad anterior implica que este mnimo se
obtiene ss
(x x
0
)(x x
1
) (x x
n
) =

T
n+1
(x). (152)
Luego si se escoge x
k
como el (k + 1) cero de

T
n+1
para cada k = 0, 1, n, es decir cuando
x
k
se escoja como
x
k+1
= cos

(2k + 1)
(2(n + 1))

para k = 1, 2, , n. (153)
el valor m aximo de |(x x
0
)(x x
1
) (x x
n
)| ser a minimizado. Como,
max
x[1,1]
|

T
n+1
(x)| = 2
n

1
2
n
= max
x[1,1]
|(x x
0
)(x x
1
) (x x
n+1
)|
max
x[1,1]
|(x x
0
)(x x
1
) (x x
n
)|.
(154)
para cualquier elecci on de x
0
, x
1
, , x
n
en el intervalo [1, 1]
83
2. Esta tecnica de elecci on de puntos que minimizan el error interpolante puede extenderse
f acilmente a un intervalo cerrado general [a, b] usando el cambio de variables
x =
1
2
[(b a)x + a + b]
para transformar los n umeros x
k
, en el intervalo [1, 1] en los n umeros correspondientes x
k
en el intervalo [a, b].
Ejemplo 9.1 Sea f(x) = xe
x
en [0, 1,5]. Construir dos polinomios interpolantes de grado a lo m as
tres.
i) Usando los nodos igualmente espaciados x
0
= 0, x
1
= 0,5, x
2
= 1, x
3
= 1,5
ii) Usando los nodos de Tchebyshev.
iii) Hacer una tabla comparativa entre los valores exactos de la funci on, el polinomio usando
nodos igualmente espaciados y el polinomio de Tchebyshev

T
4
y entre los errores absolutos
de los dos polinomios.
Sol.
i) Usando los nodos igualmente espaciados se obtiene:
l
0
(x) = 1,3333x
3
+ 4,0000x
2
3,6667x + 1,
l
1
(x) = 4,000x
3
10,000x
2
+ 6,0000x,
l
2
(x) = 4,000x
3
+ 8,0000x
2
3,0000x,
l
3
(x) = 1,3333x
3
2,0000x
2
+ 0,66667x.
De aqu el polinomio interpolante es
P
3
(x) = 1,3875x
3
+ 0,057570x
2
+ 1,2730x.
ii) Usando los nodos de Tchebyshev. Transformamos los ceros x
k
= cos(
(2k+1)
8
, k = 0, 1, 2, 3
de

T
4
de [1, 1] a [0, 1,5], usando la transformaci on lineal
x
k
= 0,75 + 0,75 x
k
obteniendose,
x
0
= 1,44291 , x
1
= 1,03701 , x
2
= 0,46299 , x
3
= 0,05709
Los polinomios de Lagrange para estos nodos son:

l
0
(x) = 1,8142x
3
2,8249x
2
+ 1,0264x 0,049728,

l
1
(x) = 4,3799x
3
+ 8,5977x
2
3,4026x + 0,16705,

l
2
(x) = 4,3799x
3
11,112x
2
+ 7,1738x 0,37415,

l
3
(x) = 1,8142x
3
+ 5,3390x
2
4,7976x + 1,2568.
y el polinomio interpolante de grado a lo m as 3 es:

P
3
(x) = 1,3811x
3
+ 0,044445x
2
+ 1,3030x 0,014357.
84
7. Integracion Numerica.
M odulo 7
Prof. Mara Angelica Vega U.
7.1. Formulas de Newton-Cotes.
Problema. Se trata de encontrar el valor de

b
a
f(x)dx
especialmente cuando no puede ser resuelta por metodos analticos.
Se obtiene aproximando f(x) en [a, b] mediante un polinomio de interpolaci on, es decir,
f(x) = P
n
(x) + E(x) , entonces

b
a
f(x)dx =

b
a
P
n
(x)dx +

b
a
E(x)dx
de modo que si
P
n
(x) =
n

i=0
f(x
i
)l
i
(x)
es el polinomio interpolante de Lagrange,

b
a
f(x)dx =
n

i=0
f(x
i
)

b
a
p
i
(x)dx. (106)
En general, si el integrando es:

b
a
w(x)f(x)dx =
n

i=0
H
i
(x)f(x
i
) + E
int
. (107)
donde w(x) es una funcion peso, los H
i
(x) se determinan imponiendo que E
c
, el error de cuadratura
sea cero, si f es un polinomio de grado menor o igual que n.
7.1.1. Metodo del Trapecio.
Si en la formula, (??), n=1 entonces los puntos de interpolacion son x
0
y x
1

x
1
x
0
f(x)dx =
1

i=0
H
i
(x)f(x
i
) = H
0
f(x
0
) + H
1
f(x
1
).
luego hay que calcular, H
0
y H
1
, en efecto
H
0
=

x
1
x
0
l
0
(x)dx =

x
1
x
0
x x
1
x
0
x
1
dx =
1
h

x
1
x
0
(x x
1
)dx =
h
2
.
Analogamente resulta:
H
1
=
h
2
.
Luego,

x
1
x
0
f(x)dx =
h
2
[f(x
0
) + f(x
1
)]. (108)
denominada Regla del trapecio.
Que representa gracamente esta formula ?
Error de cuadratura
Que podemos decir del error cometido ? Para ello integramos el error de la aproximacion polino-
mial, en efecto
E = f(x) P
1
(x) =
f

()
2
(x a)(x b)
utilizando el teorema del valor medio para integrales, se tiene que
E
T
=

b
a
E(x)dx =
1
12
(b a)
3
f

(). (109)
Notese aqu que ba = h es la longitud del intervalo y que la formula (??) proporciona un resultado
exacto para polinomios de grado a lo mas 1. Esta formula se conoce con elnombre de metodo del
trapecio simple.
Una forma de disminuir el error de cuadratura, es considerar mas puntos de interpolacion por
ejemplo (n + 1), en este caso el intervalo [a, b]lo dividimos en n subintervalos de longitud h y en
cada subintervalo aplicamos el metodo anterior , obteniendose,

b
a
f(x)dx =
b a
2n
[f(x
0
) + f(x
n
) + 2
n1

i=1
f(x
0
+ ih)]. (110)
denominada metodo del trapecio generalizada y el termino de error
E
T
=
1
12
h
3
n
2
f

()
de donde un estimativo del error es :
|E
T
|
h
3
12n
2
max
axb
|f

(x)|
7.1.2. Metodo de Simpson.
Si en la formula, (??), n=2 entonces los puntos de interpolacion son x
0
, x
1
y x
2
y

x
2
x
0
f(x)dx =
2

i=0
H
i
(x)f(x
i
) = H
0
f(x
0
) + H
1
f(x
1
) + H
2
f(x
2
).
luego hay que calcular, H
0
, H
1
y H
2
, en efecto

x
1
x
0
f(x)dx =

x
2
x
0
(
(x x
1
)(x x
2
)
(x
0
x
1
)(x
0
x
2
)
f(x
0
) +
(x x
0
)(x x
2
)
(x
1
x
0
)(x
1
x
2
)
f(x
1
))dx
+

x
2
x
0
(x x
0
)(x x
1
)
(x
2
x
0
)(x
2
x
1
)
f(x
2
)dx +

x
2
x
0
(x x
0
)(x x
1
)(x x
2
)
6
f
(3)
((x))dx.
evaluando las integrales (Consultar Analisis Numerico de Burden-Faires.) se obtiene :

x
1
x
0
f(x)dx =
h
3
[f(x
0
) + 4f(x
1
) + f(x
2
)]
h
5
90
f
(4)
.
denominada Regla de Simpson simple. Como la derivada involucrada en el error es de cuarto
orden, entonces la formula sera exacta para polinomios de grado menor que 4.
Observemos que si queremos generalizar este metodo a n subintervalos, el metodo requiere de dos
intervalos consecutivos, por lo que n debe ser par. Generalizamos deniendo: n = 2m , h =
b a
2m
tenemos
a = x
0
< x
1
< ... < x
2m
= b , x
i
= x
0
+ ih , i = 0, ..., 2m
entonces

b
a
f(x)dx =
h
3

+f(x
0
) + 2
m1

i=1
f(x
2i
) + 4
m

i=1
f(x
2i1
) + f(x
2m
)

h
5
90
m

i=1
f
(4)
(
i
).
(111)
Un concepto importante, es saber determinar el grado de exactitud o de precision de una formula
de cuadratura. El grado de exactitud o precisi on de una formula de cuadratura es el entero
positivo n tal que E(P
k
) = 0, para todos los polinomios P
k
de grado menor o igual que n, pero
E(P
n+1
) = 0 para alg un polinomio de grado (n + 1).
Actividades 7.1 Problema 1. (PEP N
o
3. Sem I - 2000) Una partcula con masa m = 20 kg se
mueve a traves de un uido y est a sometida a una resistencia viscosa dada por:
R(v) = v
3/2
donde v es su velocidad. La relaci on entre el tiempo t, la velocidad v, y la resistencia R est a dada
por:
t =

v(t)
v
0
m
R(v)
dv (en segundos)
donde v
0
es la velocidad inicial.
a) Suponiendo que v
0
= 15 m/seg y usando cuatro intervalos de igual longitud, determinar el
tiempo T que se requiere para que la partcula llegue a v(T) = 7,0 m/seg.
b) Estime el error cometido en (a)
Problema 2. Considere la siguiente f ormula de integraci on numerica:

2
2
f(x)dx =
2
9
[5f(2

0,6) + 8f(0) + 5f(2

0,6)] (1)
a) Usando la f ormula (1), estime el valor de la siguiente integral:

1
0
2[0,2969

x 0,126x 0,3516x
2
+ 0,2843x
3
0,1015x
4
]dx
b) Determine el polinomio de mayor grado para el que la f ormula (1) es exacta.
7.2. Cuadratura Gaussiana.
Recordamos que las formulas de Newton-Cotes se obtuvieron al integrar los polinomios inter-
polantes de Lagrange. Como el termino de error en el polinomio interpolante involucra la derivada
de orden (n + 1) de la funcion que se esta aproximando, la formula es exacta cuando se aproxima
cualquier polinomio de grado menor o igual a n. Luego las formulas de Newton-Cotes tienen grado
de precision de a lo menos n.
Todas las formulas de Newton-Cotes requieren que se conozcan los valores de la funci on que se
va a integrar, en puntos equiespaciados ( datos tabulados), sin embargo si la funci on est a dada
explcitamente, los puntos para evaluar la funcion pueden escogerse de modo que la aproximaci on
tenga una mayor precision.
La cuadratura Gaussiana consiste en escoger los puntos de evaluaci on de la funci on de modo
que la aproximacion sea optima.
Problema. Se trata de escoger los puntos x

0
, x

1
, ..., x

n
en [a, b] y las constantes H
0
, H
1
, ..., H
n
de
modo que el error obtenido en:

b
a
f(x)dx
n

i=0
H
i
f(x

i
)
sea mnimo, para cualquier f. La mejor eleccion es la que maximice el grado de precisi on de la
formula.
Como los valores de los H
i
son arbitrarios y los x

i
solo a que la funci on cuya integral se esta
aproximando, debe estar denida en estos puntos , hay (2n + 2) par ametros involucrados. Si los
coecientes de un polinomio se consideran tambien como parametros, entonces la clase m as grande
de polinomios para la cual es exacta la formula sera 2n + 1.
Actividades 7.2 Se considera la f ormula de cuadratura:

1
1
f(x)dx = A[f(x
1
) + f(x
2
) + f(x
3
)) + E
i) Determinar las ecuaciones que permiten calcular A , x
1
, x
2
, x
3
de modo que la f ormula
sea exacta para polinomios del mayor grado posible.
ii) Si en la f ormula anterior se impone x
2
= 0. Determinar A , x
2
, x
3
. Cu al es el mayor
grado del polinomio para el que la f ormula obtenida es exacta?
Sol.
x
2
= 0 , x
1
=

2
2
, x
3
=

2
2
, A =
2
3
.
La f ormula es exacta para polinomios de grado 3.
De la actividad anterior , es claro que para aplicar cuadratura Gaussiana, necesitaremos algunos
conceptos relacionados con conjuntos ortogonales de funciones.
Denicion 7.1 Diremos que un conjunto de funciones {
0
,
1
, ,
n
} es ortogonal en [a, b],
con respecto a la funcion peso w(x) 0, si

b
a

0
k
j
w(x)dx = 0 , cuando j = k y

b
a

0
k
j
w(x)dx > 0 , cuando j = k
Algunas Propiedades importantes.
1) Si {
0
,
1
, ,
n
} es un conjunto ortogonal de polinomios denidos en [a, b] y
i
es de
grado i para cada i = 0, 1, , n, entonces para cualquier polinomio Q(x) de grado a lo m as
n, existen constantes unicas
0
,
1
, ,
n
}, tales que:
Q(x) =
n

i=0

i
(x)
2) Si {
0
,
1
, ,
n
} es un conjunto ortogonal de polinomios denidos en [a, b] con respecto a
una funcion de peso continua w y
k
es un polinomio de grado k para cada k = 0, 1, , n,
entonces
k
tiene k races en el intervalo (a, b).
Resumen Polinomios Ortogonales.
Polinomios de Legendre.
i) Son ortogonales con respecto a la funcion peso w(x) = 1 en [a, b] = [1, 1]
ii) Formula Recursiva.
P
n+1
=

2n + 1
n + 1

xP
n
(x)

n
n + 1

P
n1
(x)
para todo n 1, P
0
(x) = 1, P
1
(x) = x.
iii) Formula para los pesos.
W
j
=
2
(n + 1)P
n+1
(x
j
)P

n
(x
j
)
, j = 1, ..., n
En esta formula n representa el grado del polinomio.
iv) Formula para el error.
E(f) =
2
2n+1
(n!)
4
(2n + 1)[(2n)!]
3
f
(2n)
().
con [1, 1] y n grado del polinomio.
Polinomios de Laguerre.
i) Son ortogonales con respecto a la funcion peso w(x) = e
x
en [a, b] = [0, )
ii) Formula Recursiva.
L
n+1
=

1
n + 1

(2n + 1 x)Ln(x)

n
n + 1

L
n1
(x)
para todo n 1, L
0
(x) = 1, L
1
(x) = 1 x.
iii) Formula para los pesos.
W
j
=
[(n)!]
2
L
n+1
(x
j
)L

n
(x
j
)
.
iv) Formula para el error.
E(f) =
(n!)
2
f
(2n)
()
(2n)!
.
con [0, ).
Polinomios de Hermite.
i) Son ortogonales con respecto a la funcion peso w(x) = e
x
2
en [a, b] = (, )
ii) Formula Recursiva.
H
n+1
= 2xH
n
(x) 2nH
n1
(x)
para todo n 1, H
0
(x) = 1, H
1
(x) = 2x.
iii) Formula para los pesos.
W
j
=
2
(n+1)
(n)!

[H

n
(x
j
)]
2
.
iv) Formula para el error.
E(f) =
n!

f
(2n)
()
2
n
[(2n)!]
.
con (, ).
Polinomios de Tchebyshev.
i) Son ortogonales con respecto a la funcion peso w(x) = (1 x
2
)
1/2
en [a, b] = [1, 1]
ii) Formula Recursiva.
T
n+1
(x) = 2xT
n
(x) T
n1
(x)
para todo n 1, T
0
(x) = 1, T
1
(x) = x.
iii) Formula para los pesos.
W
j
=

n
.
donde n representa el n umero de ceros del polinomio.
iv) Formula para el error.
E(f) =
2
2
2n
(2n)!
f
(2n)
().
con (1, 1).
Actividades 7.3 1. Estimar

3
1
dx
x
usando un polinomio de Legendre de grado 3. Estimar adem as el error.
Sol.
x
0
=

(
3
5
) , x
1
= 0 , x
2
=

(
3
5
)
H
0
=
5
9
, H
1
=
8
9
, H
2
=
5
9
g(y) =
1
y + 2
, I 1,098039 , |E| < 0,045714
2. Estimar

e
x
2
x
2
dx ,
usando un polinomio de Hermite de grado 2.
Sol.
x
1
=

2
2
, x
2
=

2
2
, H
1
= H
2
=

2
, I =
sqrt
2
3. Calcular :

1
1
cosx

1 x
2
dx
uasndo un polinomio de Tchebyshev de grado 2.
Sol. I 2,38884
4. La f ormula de Gauss - Tchebyshev,

1
1
f(x)

1 x
2
dx approx

n
n

i=1
f(x
i
)
es exacta para polinomios de grado 2n-1.
a) Demuestrelo para el caso n=3.
b) Aproxime usando lo anterior:


0
cosx

2
x
2
dx.
7.3. Integrales Indenidas
Supongamos que desamos evaluar la integral:
F(x) =
_
x
a
f(t)dt. (112)
para a x b. Podemos escoger un adecuado paso de h para aproximar el lado derecho de (112),
para x = a + h , x = a + 2h , ... cada integral puede estimarse por alguna regla de cuadratura por
ejemplo trapecio. Los valores intermedios de F(x) pueden estimarse por interpolaci on.
Otro metodo es reemplazar f por alg un polinomio de aproximacion p y aproximar F integrando p.
Si |f(x) p(x)| < para a x b entonces,

F(x)
_
x
a
p(t)dt

<
_
x
a
dx (b a)
para a x b. Tomando [a, b] como [1, 1] una adecuada eleccion de p es la serie de Tchebyshev
b

r=0

r
T
r
(x). (113)
donde,

r
=
2
N
N

j=0
f(x
j
)T
r
(x
j
). (114)
y x
j
= cos(
j
N
), con N > n. Para integrar la expresion (113), es necesario integrar T
r
(x), cuya
integral indenida es un polinomio de grado r+1. Por lo tanto, queda una suma de T
0
, T
1
, ..., T
r+1
.
Para evaluar en general la integral de T
r
(x) es mas facil usar t = cos(), de modo que:
_
T
r
(x)dx =
_
cosr sin d
=
1
2
_
[sin (r 1) sin (r + 1)]d
=
1
2
_
cos(r + 1)
r + 1

cos(r 1)
r 1
_
+ C
Si r = 1, escogemos C de modo que se cumpla la condicion T
r
(1) = (1)
r
, de modo que:
_
x
1
T
r
(t)dt =
1
2
_
T
r+1
(x)
r + 1

T
r1
(x)
r 1
_
+
(1)
r+1
r
2
1
. (115)
donde r > 1. Ademas,
_
x
1
T
0
(t)dt =
1
4
T
1
(x) + 1
_
x
1
T
1
(t)dt =
1
4
T
1
(x)
1
4
Luego integrando (113), tenemos:
_
x
1
_
n

r=0

r
T
r
(t)
_
dt =
n+1

j=0

j
T
j
(x). (116)
De (115) se deduce que :

j
=
1
2j
(
j+1

j1
) , 1 j n 1. (117)
y

0
=
1
2

1
4

1
+
n

r=2
(1)
r+1

r
r
2
1
Si se dene
n+1
=
n+2
= 0, la expresion (117) se cumple para j = n y n + 1.
7.4. Integrales Impropias
Recordando como se denen las integrales impropias de primera y segunda clase, tenemos los dos
problemas siguientes:
i) Estimar
_
b
a
f(x)dx, donde f tiene una singularidad en x = b, entonces denimos sobre el
intervalo [a, b ], con 0 < < b a. Suponemos que
lm
0
_
b
a
f(x)dx
existe. Por ejemplo,
_
1
0
(1 x)
1
2
dx
ii) Estimar
_

a
f(x)dx, donde f esta denida sobre cualquier intervalo [a, b] y
lm
b
_
b
a
f(x)dx
existe. Por ejemplo,
_

1
x
2
dx
Una tecnica que es util algunas veces en ambos casos es hacer un cambio de variables adecuado.
As la sustitucion t = (1x
2
)
1
2
transforma la integral impropia i)
_
1
0
(1x)

1
2
sin xdx en la integral
propia 2
_
1
0
sin 1 t
2
dt que puede estimarse usando alguna regla de cuadratura estandard .
Otra tecnica usada es remocion de la singularidad. Consideremos la integral impropia
I =
_
1
0
x
p
cosxdx , 0 < p < 1
con singularidad en x = 0. Podemos aproximar cosx por el primer termino de la serie de Taylor
alrededor de x = 0, nos da
I =
_
1
0
x
p
dx +
_
1
0
x
p
(cosx 1)dx.
La primera integral tiene el valor (1 p)
1
. La segunda integral puede calcularse mediante un
metodo numerico, puesto que su integrando no tiene singularidad, ya que cosx 1 se comporta
como
1
2
x
2
en x = 0. Sin embargo, x
p
(cosx 1) se comporta como
1
2
x
2p
, cuya segunda
derivada y las derivadas de orden superior son singulares en x = 0. Por lo tanto no es posible
garantizar que la integracion numerica de resultados exactos.
Ejemplo 7.1
7.5. Integrales M ultiples
Dscutiremos integrales sobre una region rectangular. Mediante un cambio de variables, el rect angulo
puede transformarse en cuadrado. Usando cualquier cuadratura en una dimensi on, tenemos :
_
b
a
_
_
b
a
f(x, y)dx
_
dy =
_
b
a
_

N
i=0

i
f(x
i
, y)
_
dy
=

N
i=0

i
_
b
a
f(x
i
, y)dy
=

N
i=0

i
_

N
j=0

j
f(x
i
, y
j
)
_
,
donde, en realidad x
i
= y
i
. Los n umeros x
i

i
representan los puntos y los pesos respectivamente,
en una dimension. Luego para dos dimensiones tenemos:
_
b
a
_
_
b
a
f(x, y)dx
_
dy =
N

i,j=0

j
f(x
i
, y
j
). (118)
denominada unaregla de integracion del producto. Por ejemplo, para un producto con la regla
de Simpso compuesta en dos dimensiones con 4 subintervalos en cada direcci on, el valor relativo a
los pesos 1, 4, 2, 4, 2, 1, son multiplicados, los resultados de muestran en la siguiente tabla:
Tabla relativa a los pesos de un producto usando Simpson
1 4 2 4 1
4 16 8 16 4
2 8 4 8 2
4 16 8 16 4
1 4 2 4 1
La suma de los n umeros en la tabla es (1 + 4 + 2 + 4 + 1)
2
Consideraremos la funci on f(x, y) 1,
por lo tanto la regla integrara la funcion sobre la region con area (b a)
2
, cada n umero en la tabla
debe ser multiplicado por
(b a)
2
144
para obtener los pesos
i

j
de (118).
El estimativo de error de las reglas del producto, da un error estimado para la regla unidimensional.
Se puede obtener una cota de error basados en la regla de Simpson , con paso h. Si R denota la
region cuadrada a x b , a y b, entonces:
_
b
a
f(x, y)dx =
N

i,j=0

i
f(x
i
, y) (b a)
h
4
180
f
(iv)
x
(
y
, y). (119)
7.6. Diferenciacion Numerica
Se trata de encontrar metodos para aproximar f

dados los valores de x en ciertos puntos. Si p


es una aproximacion polinomial a f, podemos usar p

como una aproximaci on a f

. Sin embargo,
puede ocurrir que el modulo maximo de f

(x) p

(x) sobre el intervalo [a, b] puede ser mucho m as


grande que el modulo maximo de f(x) p(x). Por lo tanto se buscaran otros metodos. La f ormula
del error es:
f(x) p
n
(x) =

n+1
(x)
f
(n+1)
(
x
)
(n + 1)!
. (120)
donde,

n+1
(x) = (x x
0
) (x x
n
). Derivando,
f

(x) p

n
(x) =

n+1
(x)
f
(n+1)
(
x
)
(n + 1)!
+

(n+1)
(x)
(n + 1)!
d
dx
f
(n+1)
(
x
). (121)
Recordamos la formula de diferencias avanzadas:
p
n
(x) = p
n
(x
0
+ sh) = f
0
+
_
s
1
_
f
0
+ +
_
s
n
_

n
f
0
(122)
De x = x
0
+ sh se tiene
dx
ds
= h, por lo tanto,
p

n
(x) =
ds
dx
d
ds
p
n
(x
0
+ sh) =
1
h
d
ds
p
n
(x
0
+ sh). (123)
As
p

n
(x) =
1
h
_
f
0
+
1
2
(2s 1)
2
f
0
+ +
d
ds
_
s
n
_

n
f
0
_
. (124)
Para calcular

n+1
(x
r
) escribimos:

n+1
(x) = (x x
r
)
j=r
(x x
j
). (125)
De aqu obtenemos:

n+1
(x) =
_
d
dx
(x x
r
)
_

j=r
(x x
j
) + (x x
r
)
d
dx

j=r
(x x
j
). (126)
En x = x
r
, el segundo termino sera cero y obtenemos:

n+1
(x
r
) =

j=r
(x
r
x
j
) = (1)
nr
h
n
r!(n r)!. (127)
ya que x
r
x
j
= (r j)h. Por lo tanto, (121) puede expresarse como:
f

(x
r
) p

n
(x
r
) = (1)
nr
h
n
r!(n r)!
(n + 1)!
f
(n+1)
(
x
)r. (128)
De aqu podemos deducir algunas reglas:
Con n = 1 en (124) obtenemos:
p

1
(x) =
f
1
f
0
h
. (129)
y con r = 0 en (128) tenemos:
f

(x
0
) =
1
h
f
0
=
f
1
f
0
h

1
2
hf

(
0
). (130)
Con n = 2 en (124) y r = 1 obtenemos la derivada centrada en x
1
, interpolando los puntos x
0
, x
1
y x
2
, si x = x
1
entonces s = 1 y la formula (124) se transforma en :
p

2
(x
1
) =
1
h
[f
0
+
1
2

2
f
0
] =
f
2
f
0
2h
. (131)
Esta es una aproximacion a f

(x
1
), con error (128).
f

(x
1
)
f
2
f
0
2h
=
1
6
h
2
f

(
1
). (132)
Se pueden obtener las formulas de diferencia progresiva , centrada y regresiva respectivamente:
f

(x)
f(x + h) f(x)
h
. (133)
y
f

(x)
f(x + h) f(x h)
2h
. (134)
f

(x)
f(x + h) f(x h)
2h
. (135)
Las derivadas de orden superior de f son aproximadas por las derivadas de orden superior del
polinomio interpolante p
n
. Si procedemos como antes, tenemos:
p

n
(x) =
1
h
2
d
2
ds
2
p
n
(x
0
+ sh)
y de (124) tenemos:
p

n
(x) =
1
h
2
_

2
f
0
+
d
2
ds
2
_
s
3
_

3
f
0
+ +
d
2
ds
2
_
s
n
_

n
f
0
_
. (136)
donde x = x
0
+ sh y n 2. Para n = 2 encontramos que:
p

2
(x) =
1
h
2

2
f
0
Consideramos esto como una aproximacion a f

(x) en x = x
1
. As
f

(x
1
)
f
2
2f
1
+ f
0
h
2
. (137)
Generalizando esta estrategia para cualquier k n obtenemos:
p
(k)
n
(x) =
1
h
k
_
d
k
ds
k
_
s
k
_

k
f
0
+ +
d
k
ds
k
_
s
n
_

n
f
0
_
. (138)
De aqu se obtiene,
f
(k)
(x)

k
f
0
h
k
. (139)
Si consideramos la formula (139) para aproximar f
(k)
(x) para un x centrado en el intervalo [x
0
, x
k
]
y si k = 2m, entonces tenemos:
f
(2m)
(x
m
)

2m
f
0
h
2m
. (140)
Si k = 2m1, el intervalo [x
0
, x
2m1
] no tiene un punto central tabulado, en este caso se generaliza
el procedimiento adaptado para la estimacion de la primera derivada. Usamos (140) con n = k+1 =
2m, encontrando
f
(2m1)
(x
m
)
1
h
2m1
(
2m1
f
0
+
1
2

2m
f
0
). (141)
Ya que,

2m
f
0
= (
2m1
f
0
) =
2m1
f
1

2m1
f
0
. (142)
obtenemos:
f
(2m1)
(x
m
)

2m1
f
0
+
2m1
f
1
2h
2m1
. (143)
De (143) y (140) se pueden obtener aproximaciones para la tercera y cuarta derivada:
f
(3)
(x
2
)
1
h
3
(f
4
2f
3
+ 2f
1
f
0
). (144)
y
f
(4)
(x
2
)
1
h
4
(f
4
4f
3
+ 6f
2
4f
1
+ f
0
). (145)
Se pueden obtener otras reglas de derivacion considerando mas terminos en (138)
y de (154) tenemos:
p

n
(x) =
1
h
2
_

2
f
0
+
d
2
ds
2
_
s
3
_

3
f
0
+ +
d
2
ds
2
_
s
n
_

n
f
0
_
. (166)
donde x = x
0
+ sh y n 2. Para n = 2 encontramos que:
p

2
(x) =
1
h
2

2
f
0
Consideramos esto como una aproximacion a f

(x) en x = x
1
. As
f

(x
1
)
f
2
2f
1
+ f
0
h
2
. (167)
Generalizando esta estrategia para cualquier k n obtenemos:
p
(k)
n
(x) =
1
h
k
_
d
k
ds
k
_
s
k
_

k
f
0
+ +
d
k
ds
k
_
s
n
_

n
f
0
_
. (168)
De aqu se obtiene,
f
(k)
(x)

k
f
0
h
k
. (169)
Si consideramos la formula (169) para aproximar f
(k)
(x) para un x centrado en el intervalo [x
0
, x
k
]
y si k = 2m, entonces tenemos:
f
(2m)
(x
m
)

2m
f
0
h
2m
. (170)
Si k = 2m1, el intervalo [x
0
, x
2m1
] no tiene un punto central tabulado, en este caso se generaliza
el procedimiento adaptado para la estimacion de la primera derivada. Usamos (170) con n = k+1 =
2m, encontrando
f
(2m1)
(x
m
)
1
h
2m1
(
2m1
f
0
+
1
2

2m
f
0
). (171)
Ya que,

2m
f
0
= (
2m1
f
0
) =
2m1
f
1

2m1
f
0
. (172)
obtenemos:
f
(2m1)
(x
m
)

2m1
f
0
+
2m1
f
1
2h
2m1
. (173)
De (173) y (170) se pueden obtener aproximaciones para la tercera y cuarta derivada:
f
(3)
(x
2
)
1
h
3
(f
4
2f
3
+ 2f
1
f
0
). (174)
y
f
(4)
(x
2
)
1
h
4
(f
4
4f
3
+ 6f
2
4f
1
+ f
0
). (175)
Se pueden obtener otras reglas de derivacion considerando mas terminos en (168)
90
M odulo de clases
Prof. Mara Angelica Vega U.
9.7. Mnimos cuadrados Discretos.
Consiste en buscar una una funcion aproximada que ajuste la forma de la tendencia que siguen los
datos sin pasar necesariamente por los puntos dados. Un modo de hacer esto es determinar una
curva que minimice la diferencia entre los puntos dados y la curva. Este metodo se conoce como
regresi on por mnimos cuadrados. El caso mas simple de una aproximacion por mnimos cuadrados
es el ajuste de las observaciones mediante una lnea recta. La gura siguiente muestra la mejor
lnea recta.
Regresion lineal. Este problema clasico puede enunciarse : Dada una funcion continua f sobre
un intervalo [a, b] y un conjunto de n observaciones (x
1
, y
1
), (x
2
, y
2
), , (x
n
, y
n
), buscamos una
lnea recta de ecuacion
f(x) = a
0
+ a
1
x
tal que la diferencia entre el valor real de y y el valor aproximado obtenido por f(x) sea el menor
posible. Recordemos que se denio el error o residuo entre la funcion y) y su aproximacion como :
e = y a
0
a
1
x.
Como obtener la recta de regresi on ? La regresion lineal es un metodo poderoso en el sentido
que ajusta los datos a la mejor lnea. Sabemos que este es un problema de optimizacion y debemos
encontrar los valores a
0
y a
1
de f(x) = a
0
+ a
1
x de modo que la suma
E
r
=
n

i=1
(e
i
)
2
=
n

i=1
(y
i
f(x
i
))
2
. (176)
sea mnima. Para ello derivamos la ecuacion (176) con respecto a cada coeciente e igualamos a
cero, de donde tenemos :
E
r
a
0
= 2

n
i=1
(y
i
a
0
a
1
x
i
) = 0
E
r
a
1
= 2

n
i=1
(y
i
a
0
a
1
x
i
)x
i
= 0
De aqu se tiene el sistema de ecuaciones lineales, escrito en la forma Aa = b:
_
n
i=1
1

n
i=1
x
i

n
i=1
x
i

n
i=1
x
2
i
__
a
0
a
1
_
=
_
n
i=1
y
i

n
i=1
x
i
y
i
_
o equivalentemente
_
n

n
i=1
x
i

n
i=1
x
i

n
i=1
x
2
i
__
a
0
a
1
_
=
_
n
i=1
y
i

n
i=1
x
i
y
i
_
Resolviendo el sistema matricial obtenemos los valores de a
0
y a
1
.
91
Ejemplo 9.2 Ajuste a una lnea recta los siguientes cinco puntos. Que puede decir del error que
se obtiene
P
1
(1, 5,12) , P
2
(3, 3) , P
3
(6, 2,48) , P
4
(9, 2,34) , P
5
(15, 2,18).
Soluci on. Determinamos cada uno de los terminos que aparecen en (9.7)
C alculo de las sumas.
n = 5 ,

5
i=1
x
i
= 34

5
i=1
x
i
= 34 ,

5
i=1
y
i
= 15,12

5
i=1
y
i
= 15,12 ,

5
i=1
x
i
y
i
= 82,76

5
i=1
x
2
i
= 352 ,

5
i=1
y
2
i
= 51,5928
de donde tenemos el sistema de ecuaciones :
Sistema de ecuaciones
_
5 34
34 352
__
a
0
a
1
_
=
_
15,12
82,76
_
Usando eliminaci on gaussiana encontramos los valores del vector a
a
0
= 4,15298 , a
1
= 0,166027.
de donde la ecuaci on de la recta es:
L(x) = 4,15 0,17 x
Actividades 9.4
i) Encuentre el sistema matricial que se obtiene al ajustar, usando:
f(x) = P(x) = a
0
+ a
1
x + a
2
x
2
.
ii) Dado un conjunto de m observaciones (x
1
, y
1
), ..., (x
m
, y
m
). aproximar los datos con un poli-
nomio de grado n, usando el procedimiento de mnimos cuadrados. Observe que el polinomio
es ahora
f(x) = P(x) =
n

i=1
a
i
x
i
.
Problema 2. Supongamos que queremos ajustar n datos, P
1
(x
1
, y
1
), , P
n
(x
n
, y
n
) con una fun-
cion g(x) de dos parametros
1
y
2
, es decir
g(x) =
1

1
(x) +
2

2
(x).
Notemos que
1
(x) y
(
x) son funciones conocidas elementales de x que no son necesariamente
elementos de una base para los polinomios. Obviamente para encontrar la g(x) que minimiza el
cuadrado de los errores hay que determinar los parametros
1
y
2
. En efecto,
E(g) =
n

i=1
(y
i
g(x
i
))
2
. (177)
92
Derivando parcialmente con respecto a
1
y
2
, igualando a cero y reordenando se obtiene el
siguiente sistema de ecuaciones en forma matricial A = b
_
n
i=1

1
(x
i
)
1
(x
i
)

n
i=1

2
(x
i
)
1
(x
i
)

n
i=1

1
(x
i
)
2
(x
i
)

n
i=1

2
(x
i
)
2
(x
i
)
__

1

2
_
=
_
n
i=1

1
(x
i
)y
i

n
i=1

2
(x
i
)y
i
_
Las ecuaciones del sistema se denominan ecuaciones normales y cualquier modelo lineal (suma
ponderada de dos funciones) de dos parametros pueden ajustarse a un sistema de ecuaciones
lineales. El error en este caso puede determinarse luego de encontrar
1
y
2
, usando:
E(g) =
n

i=1
(y
i
)
2

1
n

i=1

1
(x
i
)y
i
+
2
n

i=1

2
(x
i
)y
i
_
(178)
Para ilustrar este modelo, tomemos el ejemplo 0.2 y ajustemos los datos usando una funcion de
dos parametros como sigue.
Ejemplo 9.3 Ajustar mediante el metodo de mnimos cuadrados, los datos del ejemplo 1.15 con
una hiperbola desplazada del tipo g(x) =
1
+

2
x
. Determine el error cometido al ajustar los datos
con la recta y con la par abola.
9.8. Algo sobre Normas de funciones.
Denicion 9.2 La norma de una funci on f que pertenece a alguna clase de funciones continuas
C es una funci on de C al conjunto de los n umeros reales no negativos :
|| || : C R
+
f ||f|| 0
tal que verica las siguientes propiedades :
i) ||f|| > 0 , ||f|| = 0 f = 0
ii) R y fC ||f|| = |||f||
iii) f, g C ||f + g|| |||f|| +||g||
Algunas normas conocidas con fC
i)
||f||

= max
axb
|f(x)|. (179)
Esta norma denida sobre [a, b] es llamada norma del maximo, norma innito o norma
de Tchebyshev. Vericar como ejercicio que satisface las propiedades de una norma.
93
ii)
||f||
p
=
_
_
b
a
|f(x)|
p
dx
_1
p
. (180)
conocida como p norma, donde f C[a, b] y p 1. Obviamente cada valor de p 1 es
una norma, aunque en la practica se utiliza p = 1 y p = 2.
Normas Discretas (es decir para fC(X))
i)
||f||

= max
0iN
|f(x
i
)|. (181)
llamada norma innito discreta.
ii)
||f||
p
=
_

N
i=0
|f(x
i
)|
p
dx
_
1
p
. (182)
conocida como p norma discreta, siendo p 1.
La desigualdad triangular es difcil de demostrar para esta ultima norma, excepto para p = 1 y
p = 2.
Nota 9.1 i) Observemos que se ha usado ||f||

para denotar dos normas diferentes (179) sobre


C[a, b] y (181) an alogamente sucede con ||f||
p
.
ii) Existe la siguiente relaci on entre la norma (181) y las p normas (182) dada por :
lm
p
_

N
i=0
|f(x
i
)|
p
dx
_
1
p
= max
0ixN
|f(x
i
)|. (183)
iii) La mejor aproximaci on respecto a la norma innito se llama aproximacion minimax,
puesto que esta aproximaci on minimiza el error m aximo ||f q||

sobre todo q P
n
(x)
iv) La mejor aproximaci on respecto a la norma 2 se llama aproximacion mnimo cuadrado.
94
M odulo N

9
Profesores : Edgard Shipley - Mara Angelica Vega U.
Erklarungen: Zusammengestohlen aus Verschiedenem diesem und jenem
Ludwig van Beethoven.
9.9. Aproximacion de Mnimos Cuadrados Continuos.
Problema 2. Sea f C[a, b] , queremos determinar un polinomio P
n
de grado n que minimice
el error :
_
b
a
(f(x) P
n
(x))
2
dx
Sean P
n
(x) =
n

k=0
a
k
x
k
y E(a
0
, ..., a
n
) =
_
b
a
(f(x) P
n
(x))
2
dx. (184)
es decir, la funcion error es,
E(a
0
, ..., a
n
) =
_
b
a
(f(x)
n

k=0
a
k
x
k
)
2
dx. (185)
Para determinar los coecientes a
k
, k = 0, 1, 2, ..., n, debemos resolver el siguiente sistema:
E
a
j
= 0 para j = 0, 1, 2, ..., n.
De (??), obtenemos
E(a
0
, ..., a
n
) =
_
b
a
f(x)
2
dx 2
n

k=0
a
k
_
b
a
f(x)x
k
dx +
_
b
a
_
n

k=0
a
k
x
k
_
2
dx. (186)
Luego,
E
a
j
= 2
_
b
a
f(x)x
j
dx +
_
b
a
2
_
n
k=0
a
k
x
k
_
x
j
dx
= 2
_
b
a
f(x)x
j
dx + 2

n
k=0
a
k
_
b
a
x
j+k
dx = 0 , j = 0, 1, ..., n.
De aqu el sistema es:
n

k=0
a
k
_
b
a
x
j+k
dx =
_
b
a
f(x)x
j
dx , j = 0, 1, ..., n. (187)
Las ecuaciones (??) son las ecuaciones normales y tienen solucion unica si f C[a, b]. La matriz
de los coecientes de este sistema es:
H = (h
i,j
) =
_
b
j+k+1
a
j+k+1
j + k + 1
_
95
que es una matriz de Hilbert mal condicionada que produce dicultades con el error de redondeo.
Observemos que al dar valores a j en (??), se obtiene:
j = 0, 2
_
_
b
a
f(x)dx +
_
b
a
_
n
k=0
a
k
x
k
_
dx
_
= 0
j = 1, 2
_
_
b
a
f(x)xdx +
_
b
a
_
n
k=0
a
k
x
k
_
xdx
_
= 0
.
.
.
.
.
.
j = n, 2
_
_
b
a
f(x)x
n
dx +
_
b
a
_
n
k=0
a
k
x
k
_
x
n
dx
_
= 0
Ejemplo 9.4 (Burden) Determinar el polinomio de grado dos que aproxima por mnimos cuadra-
dos a la funci on f(x) = sin (x) en el intervalo [0, 1].
Sol. El sistema (??) queda:
_
_
_
_
_
_
1
1
2
1
3
1
2
1
3
1
4
1
3
1
4
1
5
_
_
_
_
_
_
_
_
_
_
_
_
a
0
a
1
a
2
_
_
_
_
_
_
=
_
_
_
_
_
_
_
_
1
0
sin xdx
_
1
0
xsin xdx
_
1
0
x
2
sin xdx
_
_
_
_
_
_
_
=
_
_
_
_
_
_
2

2
4

3
_
_
_
_
_
_
El polinomio aproximante de grado dos para f(x) = sin (x) en el intervalo [0, 1] es
P
2
(x) = 0,050465 + 4,12251x 4,12251x
2
9.9.1. Metodo Generalizado
Podemos usar en lugar de la base canonica para polinomios,{1, x, x
2
, ..., x
n
} , cualquier base de
familia de polinomios ortogonales en el intervalo [a, b] respecto de una funcion peso w(x). Para ello
debemos tener presente los siguientes conceptos:
Denicion 9.3 Un espacio con producto interno (E.P.I.) es un (E, , ) donde:
f, h = h, f
f, ah + bg = af, h + bf, g
f, f = ||f||
2
> 0
96
Propiedad 9.1 Algunas propiedades importantes en un E.P.I.

n
1
a
i
f
i
, g =

n
1
a
i
f
i
, g
||f + g||
2
= ||f||
2
+ 2f, g +||g||
2
Si fg ||f + g||
2
= ||f||
2
+||g||
2
|f, g| = ||f||||g||
||f + g||
2
+||f g||
2
= 2(||f||
2
+||g||
2
)
Teorema 9.1 Sea G un subespacio de un espacio con producto interno E. Para toda f E , g G
son equivalentes las proposiciones:
i) g es una mejor aproximaci on a f G
ii) f g G si f g, h = 0
Denicion 9.4 Si B = {
0
,
1
,
2
, ...,
n
} es una base de los polinomios ortogonales en [a, b]
respecto de w(x) se cumple:

j
,
k
=
_
b
a
w(x)
j
(x)
k
(x)dx =
_
0, si j = k

k
, si j = k
Observacion 9.1 Recordemos que,
Un conjunto de funciones
0
,
1
, ...,
n
es linealmente independiente en [a, b] si
n

j=0
c
j

j
= 0 c
j
= 0 para cada j = 0, 1, ..., n
De lo contrario decimos que el conjunto es linealmente dependiente.
Sea
j
un polinomio de grado j para cada j = 0, 1, ..., n y sea
0
,
1
, ...,
n
un conjunto lin-
ealmente independiente. Si
n
es el conjunto de todos los polinomios de grado n, entonces
cualquier polinomio de
n
puede expresarse como
P
n
(x) =
n
j=0
c
j

j
(x)
.
De modo que el problema de determinar un polinomio P
n
(x) =

n
j=0
c
j

j
(x) de grado n que
minimice el error
E(c
0
, ..., c
n
) =
_
b
a
w(x)[f(x) P
n
(x)]
2
dx. =
_
b
a
w(x)
_
_
f(x)
n

j=0
c
j

j
_
_
2
dx. (188)
97
se reduce a determinar la solucion del sistema de ecuaciones lineales obtenido mediante
E
c
i
= 0
_
b
a
w(x)
_
f(x)

n
j=0
c
j

j
(x)
_

i
(x)dx = 0
E
c
i
= 0

n
j=0
c
j

j
,
i
= f,
i
c
i

i
= f,
i
, i = 0, 1, ..., n
Por tanto los coecientes de P
n
(x) estan dados por:
c
j
=
f,
j

j
=
_
b
a
(x)f(x)
j
(x)dx
_
b
a
(x)
2
j
(x)dx
j = 0, 1, ..., n.. (189)
El producto interior denido por f, g =
_
b
a
(x)f(x)g(x)dx permite denir la llamada Norma-2
que esta dada por
||f||
2
=
_
f, f =
_
_
b
a
(x)f(x)
2
dx
_1
2
.[a, b] (190)
Con lo anterior,el problema de minimizar el error (??), puede expresarse como:
Problema 2. Determinar
mn ||f P
n
||
2
, con P
n

n
donde
n
es el espacio de los polinomios generados por B.
Ejemplo 9.5 Sean
0
(x) = 3 ,
1
(x) = x + 2 ,
2
(x) = x
2
+ 4x 6. Expresar
P(x) = a + bx + cx
2
como
n
j=0
c
j

j
(x) En efecto,
1
3

0
(x) = 1 , x =
1
(x) 2 =
1
(x)
2
3

0
(x)
y
x
2
=
2
(x) 4(
1
(x)
2
3

0
(x)) + 2
0
(x)
Luego,
P(x) = a
_
1
3

0
(x)
_
+ b
_

1
(x)
2
3

0
(x)
_
+ c
_

2
(x) 4
1
(x) +
14
3

0
(x)
_
y
P(x) =
1
3
(a 2b + 14)
0
(x) + (b 4c)
1
(x) c
2
(x)
Proceso de Gramm-Schmidt
Existe un metodo para generar una familia de polinomios ortogonales en un intervalo dado, respecto
de una funcion peso (x). Este metodo es el llamado metodo de Gramm-Schmidt que consiste en
determinar los polinomios de la siguiente manera:
98
1.
0
(x) = 1 ,
1
(x) = (x B
1
)
0
(x)
2. B
1
se determina de modo que
1
,
0
= 0. Se obtiene ;
B
1
=
_
b
a
(x)x
0
(x)
2
dx
_
b
a
(x)
2
0
(x)dx
3. Para k 2,
k
(x) = (x B
k
)
k1
C
k

k2
B
k
=
_
b
a
(x)x
2
k1
(x)dx
_
b
a
(x)
2
k1
(x)dx
, C
k
=
_
b
a
(x)x
k1
(x)
k2
dx
_
b
a
(x)
2
k2
(x)dx
Ejemplo 9.6 Los polinomios de Legendre son ortogonales en [1, 1] con funci on peso (x) = 1 y
se dene
0
(x) = 1. Aplicando la f ormula anterior recursivamente, se obtiene

1
(x) = x ,
2
(x) = x
2

1
3
,
3
(x) = x
2

3
5
x
.
Ejemplo 9.7 Encontrar la aproximaci on de mnimos cuadrados de grado dos, de la funci on f(x) =
e
x
con x [1, 1] usando polinomios de Legendre.
Sol.: Sea P
2
(x) = a
0
(x) + b
1
(x) + c
2
(x) el polinomio que minimiza ||f P
2
||
2
2
. En este caso
las ecuaciones que determinan los coecientes son:
a =
_
1
1
e
x

0
(x)dx
_
1
1

2
0
(x)dx
=
1
2
[e
x
]
1
1
=
1
2
(e e
1
)
b =
_
1
1
e
x

1
(x)dx
_
1
1

2
1
(x)dx
=
_
1
1
e
x
xdx
_
1
1
x
2
dx
=
3(2)
2e
=
3
e
= 3e
1
c =
_
1
1
e
x

2
(x)dx
_
1
1

2
2
(x)dx
=
_
1
1
e
x
(x
2

1
3
)dx
_
1
1
(x
2

1
3
)
dx =
15
4
(e 7e
1
)
El polinomio cuadr atico que minimiza la aproximaci on por mnimos cuadrados es:
P
2
(x) = a
0
(x) + b
1
(x) + c
2
(x)
=
1
2
(e e
1
)
0
(x) 3e
1

1
(x) +
15
4
(e 7e
1
)
2
(x)
En el gr aco, se muestra la funci on y su aproximaci on : El error es 0,001440569656, luego ||e
x

P
2
(x)||
2
= 0,3795483706e
1
99
Figura 11: f(x) = e
x
Ejemplo 9.8 Encontrar las aproximaciones por mnimos cuadrados a
y(t) = t
2
en (0, 1), usando polinomios de Legendre de grado 1.
Sol.
1) El polinomio de Legendre de grado 0 es P
0
(x) = 1 y P
1
(x) = x
2) Transformaci on del intervalo (0, 1) a (1, 1).
Consideremos la recta x = at + b, si t = 0 x = 1 b = 1
luego x = at 1 y si t = 1 x = 1 a = 2
luego, la recta de transformaci on es x = 2t 1 t =
x+1
2
, es decir (0, 1) (1, 1) y
y =
(x + 1)
2
4
adem as P
0
(x) = 1 P
1
(x) = x
Usando (4)
a
k
=
2k + 1
2
_
1
1
y(x)P
k
(x)dx
a
0
=
1
2
_
1
1
(x + 1)
2
4
dx =
1
3
a
1
=
3
2
_
1
1
(x + 1)
2
4
xdx =
1
2
.
Luego,
y(x) =
1
3
P
0
(x) +
1
2
P
1
(x) =
1
3
+
x
2
100
y
y(t) = t
1
6
Ejemplo 9.9 Dada f(x) = e
2x
en [1, 3]. Determinar la mejor aproximaci on a
g(x) = a + bx
2
+ cx
4
.
Sol. La base {1, x
2
, x
4
} genera el subespacio G E, consideremos g G , f E y recordemos
que
f g, h = 0 f, h = g, h.
Si h = 1, x
2
, x
4
entonces,
h = 1 , e
2x
, 1 = a + bx
2
+ cx
4
, 1
_
3
1
e
2
dx = a, 1 +bx
2
dx, 1 +cx
4
, 1
=
_
3
1
adx +
_
3
1
bx
2
dx +
_
3
1
cx
4
dx
e
2x
2

3
1
= 2a + b
x
3
3

3
1
+ c
x
5
5

3
1
.
0,0664 = 2a +
26
3
b + 48,4c
h = x
2
, e
2x
, x
2
= a + bx
2
+ cx
4
, x
2

_
3
1
e
2
x
2
dx = a, x
2
+bx
2
dx, x
2
+cx
4
, x
2

= a
_
3
1
x
2
dx + b
_
3
1
x
4
dx + c
_
3
1
cx
6
dx
0,153 =
26
3
a + 48,4b + 312,92c
h = x
4
, e
2x
, x
4
= a + bx
2
+ cx
4
, x
4

_
3
1
e
2
x
4
dx = a
_
3
1
x
4
dx + b
_
3
1
x
6
dx + c
_
3
1
cx
8
dx
0,4967 = 48,4a + 312,24b + 2186,8c
Resolviendo el sistema
a = 0,144 , b = 0,045 , c = 0,0034
Luego g(x) = 0,144 0,045x
2
+ 0,0034x
4
.
9.9.2. Sistemas Ortonormales.
Existe otro enfoque de los problemas de aproximaci on en un E.P.I, que consiste en construir
un sistema ortonormal.
101
Denicion 9.5 Un conjunto {
1
, ,
n
} es ortonormal ssi
i
,
j
=
i
j
Teorema 9.2 Sea {
1
,
2
, ,
n
} un sistema ortonormal en un E.P.I. que denotaremos (E, , ).
La mejor aproximaci on a f mediante un elemento

n
i=1
c
i

i
se obtiene ssi c
i
= f,
i
.
f
n

i=1
c
i

i
,
j
= f,
j

n

i=1
c
i

i
,
j
= f,
i
c
i
= 0
Es decir, la mejor aproximaci on de f(x) se puede escribir en la forma
f(x) =
n

i=1
f(x),
i
(x)
i
(x) con {
i
(x)} base ortonormal.
El procedimiento sugerido de estos conceptos para aproximar elementos de un espacio E mediante
elementos de un subespacio G es :
i) Obtener una base ortonormal {
1
,
2
, ...,
n
}. para G
ii) Determinar la mejor aproximacion a partir de
n

i=1
c
i

i
,
j
=
n

i=1
c
i

i
Ejemplo 9.10 Obtener la aproximaci on de la forma g(x) = c
1
+ c
2
x
2
+ c
3
x
3
, a f(x) = sen (x),
usando la base ortonormal:
_
_
_
x
_
2
3
,
5x
3
3x
_
2
7
,
63x
5
70x
3
+ 15x
_
2
11
_
_
_
Sol.
i) Determinamos cada c
i
, i = 1, 2, 3
c
1
=
_
3
2
_
1
1
xsen (x)dx = 2
_
3
2
(sen (1) cos(1))
c
2
=
_
7
2
_
1
1
(5x
3
3x) sen (x)dx = 2
_
7
2
(18 sen (1) 28cos(1))
c
3
=
_
11
2
_
1
1
(63x
5
70x
3
+ 15x) sen (x)dx = 2
_
11
2
(4320 sen (1) 6728cos(1))
ii) La mejor aproximaci on es
g(x) = 2
_
3
2
(sen (1)cos(1))x+2
_
7
2
(18 sen (1)+28cos(1))x
2
+2
_
11
2
(4320 sen (1)6728cos(1)).
Actividades 9.5 Determina la mejor aproximaci on de la funci on f(x) = sen (x) mediante un
polinomio g(x) = c
1
x + c
2
x
3
+ c
3
x
5
en [1, 1]. (Usando || ||

).
102
9.9.3. Proceso de ortonormalizaci on de Gramm-Schmidt.
1. Denimos
u
1
=
v
1
||v
1
||
, luego ||u
1
|| = 1 , w
1
= u|
2. Se dene w
2
= v
2
v
2
, u
1
u
1
w
2
, u
1
= v
2
v
2
, u
1
u
1
, u
1

= v
2
, u
1
v
2
, u
1
u
1
, u
1

1
= 0 w
2
u
1
.
w
2
u
1
, pero w
2
no tiene necesariamente norma 1. Por tanto ,
u
2
=
w
2
||w
2
||
=
v
2
v
2
, u
1
u
1
v
2
v
2
, u
1
u
1
3. Se dene w
3
= v
3
v
3
, u
1
u
1
v
3
, u
2
u
2
ortogonal a u
1
y u
2
.
w
3
, u
1
= v
3
v
3
, u
1
u
1
v
3
, u
2
u
2
, u
1

= v
3
, u
1
v
3
, u
1
u
1
, u
1
v
3
, u
2
u
2
, u
1

w
3
, u
1
= v
3
, u
1
v
3
, u
1
= 0.
Luego w
3
u
1
y w
3
u
2
se comprueba en forma analoga. Como w
3
u
1
y w
3
u
2
, denimos
u
3
=
w
3
||w
3
||
Por tanto {u
1
, u
2
, u
3
} son ortonormales.
4. Generalizamos a u
n
=
w
n
||w
n
||
con
w
n
= v
n
v
n
, u
1
u
1
v
n
, u
2
u
2
v
n
, u
n1
u
n1
.
Ejemplo 9.11 Ilustrativo. Sea f(x) = e
2x
con x [1, 3] encontrar la mejor aproximaci on a f(x)
i) respecto de la base = {x, 3x
2
+ 1} con w(x) = 1 en || ||
2
.
ii) respecto de la base

= {x + 1, x
2
} con w(x) = e
x
en || ||

.
Sol. i) Nuestro prop osito es encontrar g(x) =

f(x), g
i
(x)g
i
(x). Para ello
Se debe ortonormalizar, para obtener g
1
(x) y g
2
(x) respecto a = {v
1
(x) = x, v
2
(x) =
3x
2
+ 1}
103
g
1
(x) =
v
1
(x)
||v
1
(x)||
2
, y
||v
1
(x)||
2
2
= v
1
(x), v
1
(x) =
_
3
1
1 (v
1
(x))
2
dx =
_
3
1
x
2
dx =
x
3
3
|
3
1
=
26
3
de donde, ||v
1
(x)||
2
=
_
26
3
y
g
1
(x) =
x
_
26
3
=
_
3
26
x
g
2
(x) =
w
2
(x)
||w
2
(x)||
2
, donde w
2
(x) = v
2
(x) v
2
(x), g
1
(x)g
1
(x)
v
2
(x), g
1
(x) =
_
3
1
(3x
2
+ 1)
_
3
26
xdx = 21,74
Luego, w
2
(x) = (3x
2
+1)21,74
_
3
26
x es ortonormal a g
1
(x), perono necesariamente unitario.
Falta determinar
||w
2
(x)||
2
2
=
_
3
1
(w
2
(x))
2
dx =
_
3
1
[(3x
2
+ 1) 21,74
_
3
26
x]
2
dx = 16,98
Luego, ||w
2
(x)||
2
=

16,98 y
g
2
(x) =
(3x
2
+ 1) 21,74
_
3
26
x
4,12
Luego,

= {g
1
(x), g
2
(x)} es ortonormal seg un la norma || ||
2
y la mejor aproximaci on es
g(x) = f(x), g
1
(x)g
1
(x) +f(x), g
2
(x)g
2
(x)
y
f(x), g
1
(x) =
_
3
1
e
2x
_
3
26
xdx = 0,033
f(x), g
2
(x) =
_
3
1
e
2x
(3x
2
+ 1) 21,74
_
3
26
x
4,12
xdx = 0,045
,
entonces la mejor aproximaci on es:
g(x) = 0,033
_
3
26
x 0,045
_
_
(3x
2
+ 1) 21,74
_
3
26
x
4,12
_
_
104
M odulo N

10
Profesores : Mara Angelica Vega U.
Erklarungen: Zusammengestohlen aus Verschiedenem diesem und jenem
Ludwig van Beethoven.
10. Aproximacion Minimax.
10.0.4. Caso Discreto.
Problema Este problema no es directo como el metodo de mnimos cuadrados. Por ejemplo si
queremos encontrar el polinomio minimax P
1
(x) = a
0
+ a
1
x que aproxima a f(x) = x
1
2
en un
intervalo [
1
4
, 1]
E = mn
[a
0
,a
1
]
max
1
4
x1
|x
1
2
(a
0
+ a
1
x)|
La mejor lnea recta es aquella para la cual el error maximo ocurre en x =
1
4
, x = 1 y en alg un
punto interior x = . Entonces
a
0
+
a
1
4
(
1
4
)
1
2
= E
a
0
+ a
1

1
2
= E
a
0
+ a
1
1 = E.
Observamos que hay 3 ecuaciones y 4 incognitas, a
0
, a
1
, E y . La cuarta ecuacion se obtiene del
hecho que la derivada es cero en x = para el error E = f(x) (a
0
+ a
1
x). Es decir,
1
2

1
2
b = 0
Ya que E en x =
a
0
+
a
1
4
(
1
4
)
1
2
= E
a
0
+ a
1
1 = E.
De aqu,
b =
2
3
, =
9
16
, a =
17
48
, E =
1
48
Luego la mejor aproximacion es y(x) =
17
48
+
2
3
x, que aproxima con un error no mejor que
1
48
.
10.1. Algoritmo de Remez.
Permite construir aproximaciones minimax, debido al matematico ucraniano E.Ya. Remez.
Algoritmo de Remez Calcula iterativamente el polinomio minimax p P
n
, para f C[a, b] en
un conjunto de (n+2) puntos. La sucesion de polinomios p converge al polinomio minimax p

P
n
y la sucesion de conjuntos X converge a X

sobre el cual f p

es equioscilante.
105
Paso 1. Escoger un conjunto X = {x
1
, x
2
, ..., x
n+2
}.
Paso 2. Resolver el sistema de ecuaciones lineales,
f(x
i
) p(x
i
= (1)
i
e , 1 i n + 2 (191)
para determinar un n umero real e y un polinomio p P
n
.
Paso 3. Cambiar el conjunto X, de la siguiente manera:
Cuando [a, b] es [1, 1], una forma com un de elegir el conjunto X en paso 1 es el con-
junto de puntos extremos de T
n+1
. Para este conjunto inicial, el paso 2 da el polinomio
minimax inmediatamente cuando f(x) = x
n+1
. En el caso general las ecuaciones lineales
del paso 2 siempre tienen una unica solucion.
Para llevar a cabo el paso 3, necesitamos primero estimar ||f p||

, donde p P
n
es
el polinomio que ha sido calculado en el paso 2.
Si ||f p||

es sucientemente cercana a |e| entonces por teorema 4.3 p es proximo al


polinomio minimax y terminamos el proceso iterativo.
De otra forma, sea un punto tal que
|f() p()| = ||f p||

.
Incluimos el punto en el conjunto X y borramos uno de los puntos existentes de modo
que f p tenga signos alternados sobre los (n + 2) puntos de X.
Si esta entre a y x
1
, descartamos x
1
o x
n+2
y anaalogamente si esta entre x
n+2
y b,
descartamos x
1
o x
n+2
. De otra forma, esta entre dos x
i
consecutivos y en este caso
descartamos uno de ellos apropiadamente.
Ejemplo 10.1 Encontrar el polinomio minimax de grado 2, para f(x) = (
3
8
x +
5
8
)
1
2
en [1, 1].
Sol. Escogemos X = {1, 0,5, 0,5, 1} inicialmente, los puntos extremos de T
3
y resolvemos el
sistema de ecuaciones lineales (??) de donde obtenemos:
p(x) = 0,79188 + 0,24665x 0,04188x
2
, |e| = 0,00335 (192)
con 5 cifras decimales.
Evaluando f p en intervalos intervalos de 0,01, encontramos que hay m aximo y mnimo local en
1 , 0,61 , 0,40 y 1 y f p tiene signos alternados en estos puntos, los que tomamos como el
nuevo conjunto X. Resolviendo el sistema(??) nos d a otra vez
p(x) = 0,79196 + 0,24650x 0,04196x
2
, |e| = 0,00350 (193)
Encontramos que ||f p||

= 0,00350 con 5 cifras decimales y por lo tanto aceptamos este p como


polinomio minimax.
106
10.1.1. Caso Continuo.
En los espacios con Producto Interno (E.P.I.)se pueden denir las siguientes normas:
1. Norma uniforme o norma minimax o norma de Tchebyshev.
||f|| = ||f||

= max
axb
|f(x)|
.
2. Norma Euclideana o norma 2.
||f||
2
=

_
b
a
w(x)f
2
(x)dx.
3. Norma 1.
||f||
1
=
_
b
a
w(x)|f(x)|dx.
4. Norma minimax ponderada. ||f|| = max
axb
w(x)|f(x)|
Recordemos que, p P
n
es una mejor aproximaci on de f C con respecto a una norma
dada si
||f g|| = inf
qP
n
||f g||
Las aproximaciones con respecto a la norma innito se denominan aproximaciones
minimax, porque es la mejor aproximaci on que minimiza el error maximo ||f
q||

q P
n
Problema 10.1 i) Determinar ||

x||
2
.
ii) Hallar un polinomio g(x) = a
0
+ a
1
x ortogonal a f(x) = 1.
iii) Encontrar el polinomio minimax para f(x) =

1 + x
2
en [0, 1].
Sol.
i)
||

x||
2
=

x,

x =
_
e
1
xln|x|dx =
e
2
2

e
2
4
+
1
4
.
ii)
g(x)f(x) g(x), f(x) = 0
a
0
+ a
1
x, 1) = 0 a
0
, 1 + a
1
x, 1 = 0

_
e
1
a
0
1 ln|x|dx + a
1
_
e
1
x 1 ln|x|dx = 0
a
0
_
e
1
ln|x|dx + a
1
_
e
1
xln|x|dx = 0
a
0
+ a
1
_
e
2
2

e
2
4
+
1
4
_
= 0
107
Tenemos innitas soluciones. En terminos de a
0
,
a
0
= a
1
_
e
2
2

e
2
4
+
1
4
_
a
0
= a
1
_
e
2
4

e
2
2

1
4
_
,
luego g(x) = a
1
_
e
2
4

e
2
2

1
4
_
+ a
1
x es ortogonal a 1.
iii) Polinomio minimax. De (??).
a
1
=
f(1) f(0)
1
=

2 1
a
0
=
1 + f(c)
2
(

2 1)
_
c
2
_
donce c es tal que, f

(c) = a
1
f

(x) =
x

1 + x
2
f

(c) =
c

1 + c
2
luego,
c

1 + c
2
=

2 1
c

1 + c
2
= 0,42 c = 0,455 f(c) = 1,0986
luego,
a
0
=
_
1 + 1,0986
2
_
(

2 1)
_
1,0986
2
_
= 0,955
Por tanto, la aproximaci on minimax lineal a f(x) en [0, 1] es:
P
1
(x) = 0,955 + (

2 1)x.
Observacion 10.1 Observamos que puede haber m as de una mejor aproximaci on a f.
Determinar la mejor aproximaci on polinomial a f L

[a, b] equivale a resolver el


problema : minimizar max |f(x) p
n
(x)| si x [a, b] y p
n

n
, es decir, se debe
determinar el polinomio de grado n que minimiza el valor m aximo de |f(x) p
n
(x)|.
Proposicion 10.1 Existe una unica mejor aproximaci on que resuelve el problema mni-
max.
Teorema 10.1 (Teorema de la alternancia para polinomios) Para cualquier funci on
f(x) C[a, b] existe una unica mejor aproximaci on polinomial mnimax p
n
(x) que
est a caracterizada por la propiedad alternante de que hay (a lo menos) n+2 puntos en
[a, b] en los cuales f(x) p
n
(x) obtiene sus valores m aximos absolutos (nominalmente
||f p
n
||

) con signos alternados.


108
Este teorema se atribuye a Tchebyshev. Pero Borel (1905) establecio que la condicion
de alternancia es una condici on necesaria y suciente y que existe solo un polinomio
que cumple con dicha caracterizaci on
Ejemplo 10.2 La funci on f(x) = x
2
se aproxima por f

= p
1
(x) = x 0,125 en [0, 1].
Entonces, el error f(x) p
1
(x) = x
2
x + 0,125 tiene un valor m aximo absoluto en
los puntos 0, 0,5 y 1 y alcanza los valores 0,125, 0,125, 0,125 que tienen signos alterna-
dos. Por lo tanto, es la unica aproximaci on mnimax. La gr aca de la funci on y la
aproximaci on es:
Figura 12: f(x) = x
2
109
10.2. Propiedad mnimax de los polinomios de Tchebyshev
Los polinomios de Tchebyshev, T
n
(x) con x = cos tiene (n+1) valores extremos en los
puntos x = y
k
= cos
_
k
n
_
con k = 0, 1, 2, ..., n
Proposicion 10.2 Los polinomios de Tchebyshev alcanzan su valor m aximo en mag-
nitud igual a 1 en [1, 1] en los (n + 1) puntos x = y
k
= cos
_
k
n
_
con k = 0, 1, 2, ..., n y
presenta signos alternados en dichos puntos.
La proposicion evoca el teorema de la alternancia y se puede aplicar de la siguiente
forma:
Sea f(x) = x
n
y sea p
n1
(x) su aproximaci on polinomial mnimax de grado n1 en
el intervalo [1, 1]. Por el teorema de la alternancia f(x) p
n1
(x) = x
n
p
n1
(x),
debe tener dicha propiedad en n + 1 puntos.
El coeciente principal de T
n
(x) es 2
n1
de modo que 2
1n
T
n
(x) es de la misma
forma que f(x)p
n1
(x) = x
n
p
n1
(x) y con la misma propiedad de la alternancia.
Se sigue de lo anterior que
x
n
p
n1
(x) = 2
1n
T
n
(x)
Claramente 2
1n
T
n
(x) es un polinomio m onico de grado n. Del Teorema de la alter-
nancia y de lo anterior es el siguiente corolario.
Corolario 10.1 La aproximaci on polinomial mnimax de grado n 1 a la funci on
f(x) = x
n
en [1, 1] es p
n1
(x) = 2
1n
T
n
(x)
Corolario 10.2 (Propiedad mnimax de T
n
(x) ) La aproximaci on polinomial mnimax
en [1, 1] mediante un polinomio m onico de grado n a la funci on cero es 2
1n
T
n
(x)
Ejemplo 10.3 . La aproximaci on mnimax a la funci on cero en [1, 1], mediante un
polinomio m onico de grado 4 es,
2
3
T
4
(x) = 2
3
(8x
4
8x
2
+ 1) = x
4
x
2
+ 0,125
Este polinomio tiene la propiedad de la alternancia y tiene valores extremos
0,125 , 0,125 , 0,125 , 0,125 y 0,125 respectivamente, en los cinco puntos dados por
y
k
= cos

4
, k = 0, 1, 2, 3, 4
De aqu,
y
k
= 1 ,
1
_
(2)
, 0 ,
1
_
(2)
, 1
Tambien por el corolario 1, la aproximaci on mnimax por un polinomio c ubico a la
funci on f(x) = x
4
es p
3
(x) = x
4
(x
4
x
2
+ 0,125) = x
2
0,125.
110
El error f(x)p
3
(x) tiene la propiedad alternante en los puntos y
k
, obtenidos anterior-
mente. Se debe destacar que x
2
0,125 es una aproximaci on polinomial cuadr atica a la
funci on x
4
en [1, 1] y tambien presenta cinco extremos. El teorema de la alternancia
se cumple en n + 3 puntos.
El teorema se nala que la alternancia de los signos se cumple para a lo menos n + 2
puntos.
Si el intervalo de aproximaci on es [0, 1] en vez de [1, 1], se debe redenir los polinomios
de Tchebyshev a dicho intervalo. Estos polinomios trasladados se denotan por T

n
(x) y
su recorrido es [0, 1]. Para obtener T

n
(x) a partir de T
n
(x) se debe efectuar un cambio
de intervalo, usando la transformaci on:
s = 2x 1 o bien x =
1
2
(1 + s) , x [0, 1] , s [1, 1]
Se obtiene:
T

n
(x) = T
n
(s) = T
n
(2x 1)
Luego:
T

0
(x) = 1 , T

1
(x) = x , T

2
(x) = 8x
2
8x + 1 , T

3
(x) = 32x
3
48x
2
+ 18x 1
y as sucesivamente. En general el polinomio m onico de aproximacion mnimax de
grado n a cero es
2
12n
T

n
(x)
Por ejemplo el polinomio de aproximaci on mnimax de grado dos a la funcion cero en
[0, 1] es:
2
3
T

2
(x) = 2
3
(8x
2
8x + 1) = x
2
x + 0,125
Ejemplo 10.4 Ilustrativo.(Aproximaci on Minimax en una base ortonormal.)
Sea f(x) = e
2x
con x [1, 3] encontrar la mejor aproximaci on a f(x) respecto de la
base

= {x + 1, x
2
} con w(x) = e
x
en || ||

.
Sol.
Se debe ortonormalizar, para obtener g
1
(x) y g
2
(x) respecto a

.
g
1
(x) =
v
1
(x)
||v
1
(x)||

=
x + 1
||v
1
(x)||

, y
||v
1
(x)||

= max
x[1,3]
|v
1
(x)| = 4 g
1
(x) =
x + 1
4
g
2
(x) =
w
2
(x)
||w
2
(x)||

, donde w
2
(x) = v
2
(x) v
2
(x), g
1
(x)g
1
(x)g
1
(x)
v
2
(x), g
1
(x) =
_
3
1
e
x
x
2
x + 1
4
dx =
17
4
e
3
+
1
4
e = 86,04
111
Luego, w
2
(x) = x
2
86,04
x + 1
4
.
Falta determinar
||w
2
(x)||

= max
x[1,3]
|w
2
(x)| = max
x[1,3]
|x
2
86,04
x
4

86,04
4
|
Sea p
2
(x) = x
2
86,04
x
4

86,04
4
entonces
p

2
(x) = 2x
86,04
4
= 0 x = 10,755
p

2
(10,755) > 0 (10,755, f(10,755) es un mnimo. El m aximo se alcanza en x = 1.
Luego
||w
2
(x)||

= |1
86,04
4

86,04
4
| = 42
y
g
2
(x) =
x
2
86,04
x + 1
4
42
Luego, la mejor aproximaci on es
g(x) = f(x), g
1
(x)g
1
(x) + f(x), g
2
(x)g
2
(x)
f(x), g
1
(x) =
_
3
1
e
2x
e
x
x + 1
4
dx = 0,21
f(x), g
2
(x) =
_
3
1
e
2x
e
x
x
2
86,04
x+1
4
42
dx = 0,41
entonces la mejor aproximaci on es:
g(x) = 0,21
x + 1
4
x 0,41
_
x
2
86,04
x+1
4
42
_
112
10.3. Potencias de x
n
en terminos de {T
n
(x)}
Se puede demostrar que:
x
n
= 2
1n
k=[
n
2
]

k=0
_
n
k
_
T
n2k
(x). (194)
donde [m] representa la parte entera de m y se nala que el k-esimo termino de la suma
debe dividirse por dos si n es par y k =
n
2
.
Ejemplo 10.5 Ilustrar para el caso n = 4. En efecto, tenemos
x
4
= 2
3

2
k=0
_
4
k
_
T
42k
(x)
= 2
3
[T
4
(x) +
_
4
1
_
T
2
(x) +
1
2
_
4
2
_
T
0
(x)
=
1
8
T
4
(x) +
1
2
T
2
(x) +
3
8
T
0
= (x)
Esto ultimo se usa en la Economizaci on de Tchebyshev cuando una funcion se aproxi-
ma por Taylor (Maclaurin) hasta un cierto grado y se rebaja dicho grado manteniendo
un cierto orden de exactitud.
Ejemplo 10.6 f(x) = e
(x)
en [1, 1], con un error tolerable de 0,05, reemplazando el
termino del desarrollo que contiene a x
4
por los polinomios de Tchebyshev de grado
menor o igual a 4.
113
Metodo de Diferencias Finitas
Prof: Mara Angelica Vega U.
Modulo 12
12. Resolucion Numerica del Problema de Valor
de Contorno de orden 2.
Hemos visto dos metodos para determinar la solucion particular y
p
de la
solucion general de una ecuacion diferencial no homogenea con coecientes
constantes y = y
c
+ y
p
. Ambos metodos tienen sus ventajas y desventajas,
ademas de no ser aplicables para cualquier expresion de g(x).
El metodo que analizaremos ahora denominado Metodo de diferen-
cias nitas, tiene la ventaja de ser aplicable a cualquier problema de con-
torno, desde no lineal a ecuaciones diferenciales parciales para las que no
siempre existe un metodo analtico para determinar su solucion, pero tiene la
desventaja de dar un valor aproximado de la solucion exacta en algunos pun-
tos del dominio de denicion de la solucion que son elegidos por el usuario.
Problema. Se trata de resolver el siguiente Problema de Valor de Con-
196
torno (P.V.C)
y

(x) = P(x)y

(x) + Q(x)y(x) + r(x) , 0 x 1


y(0) = 0.
y(1) = 0.
(211)
con P(x), Q(x), r(x), funciones continuas en un intervalo abierto I.
Observemos que en el problema (211), la ecuacion diferencial es no ho-
mogenea con coecientes variables.
12.1. Metodo de diferencias nitas.
Este metodo consiste en
Dividir el intervalo [0, 1] en N + 1 subintervalos de igual longitud, de
modo que:
x
i
= i h , i = 0, 1, , N + 1 (212)
donde,
h =
1
N + 1
En cada nodo x
i
, se aproximan las derivadas de la ecuacion:
y

(x
i
) = P(x
i
)y

(x
i
) + Q(x
i
)y(x
i
) + r(x
i
) , i = 0, 1, , N + 1.
(213)
197
Existen varias formas de aproximar las derivadas, pero es recomend-
able usar diferencias centradas , puesto que resulatan aproximaciones
mejores,
y

(x
i
) =
y(x
i+1
) 2y(x
i
) + y(x
i1
)
h
2
y

(x
i
) =
y(x
i+1
) y(x
i1
)
2h
.
(214)
Reemplazamos las expresiones de (214) en (213), simplicamos la no-
tacion escribiendo y
i
en lugar de y(x
i
) y reordenamos los terminos de
la ecuacion en la siguiente forma :
r(x
i
)h
2
=

1 +
h
2
p(x
i
)

y
i1
+(2+h
2
Q(x
i
))y
i

1
h
2
p(x
i
)

y
i+1
, i = 1, , N.
(215)
Observacion 12.1 Observemos que (215) es un sistema de ecua-
ciones lineales, cuyas inc ognitas son los valores de la soluci on aproxi-
mada evaluada en los siguientes puntos (extremos de intervalos),
x
i
, i = 1, , N.
Ejemplo 12.1 Use el metodo de diferencias nitas para resolver el
(P.V.C.):
y

=
2
t
(y

2) , y(
1
2
) = 3 , y(1) = 3
198
Solucion. Notemos que en esta ecuaci on P(t) =
2
t
, Q(t) = 0 , r(t) =
4
t
.
La ecuaci on (215) en forma discreta queda,

2 2
h
t
i

y
i1
(4 + 2h
2
0)y
i
+

2 + 2
h
t
i

y
i+1
=
8h
2
t
i
, i = 1, , N.
(216)
Si tomamos h = 0,1, tenemos que t
0
= 0,5 , t
1
= 0,6 , t
2
= 0,7 , t
3
= 0,8 y
t
4
= 0,9 , t
5
= 1,0. Sustituimos en (216) y obtenemos el sistema matricial :

4
7
3
0 0
12
7
4
16
7
0
0
7
4
4
9
4
0 0
16
9
4

y
1
y
2
y
3
y
4

8
60
2(
5
6
) 3
8
70
8
80
8
90
2(
10
9
) 3

73
15
4
35
1
10
269
45
.

(217)
De aqu la soluci on aproximada es,
y
1
=
43
15
, y
2
=
16
7
, y
3
=
57
20
, y
4
=
262
90
Actividades 12.1
Escriba el sistema de ecuaciones (215) en la forma matricial Ay = b
Dado el P.V.C.
y

+ y + x = 0 , 0 < x < 1 con


y(0) = y(1) = 0.
Determine la soluci on exacta del problema.
199
Use el metodo de diferencias nitas, con N=3, para obtener una
soluci on aproximada del problema.
Resuelva el P.V.C.
y

= 3y

+ 2y + 2x + 3 , 0 < x < 1 con


y(0) = 2.
y(1) = 1.
use h=0.25 y compare los resultados con la soluci on exacta.
200
Metodos Numericos para resolver Ecuaciones Diferenciales
Parciales.
Prof. Mara Angelica Vega U.
Modulo 14
Observacion 15.2 Este tema ha sido desarrollado, usando el texto Metodos
Numericos para Ingenieros. Steven C. Chapra - Raymond P.Canale
16. Ecuaciones elpticas.
Se usan para caracterizar problemas en estado estacionario con valores
en la frontera.
16.1. La ecuacion de Laplace
La ecuacion de Laplace, se utiliza para modelar diversos problemas que
tienen que ver con el potencial de una variable desconocida. Se usara una
placa calentada para deducir y resolver esta EDP elptica. En la gura se
muestra la placa y un elemento sobre la cara de una placa rectangular del-
gada de espezor z. La placa esta totalmente aislada excepto en sus ex-
tremos, donde la temperatura puede ajustarse a un nivel preestablecido. El
aislamiento y el espesor de la placa permiten que la transferencia de calor
222
Figura 12: Placa delgada de espesor z
esta limitada solamente a las dimensiones de x y y. En estado estacionario el
ujo de calor hacia el elemento en una unidad de tiempo t debe ser igual
al ujo de salida , es decir,
q(x)yzt + q(y)xzt = q(x + x)yzt + q(y + y)xzt
(247)
donde q(x) y q(y) son los ujos de calor en x y y, respectivamente [
cal
cm
2
s
]
Dividiendo entre z y t y reagrupando terminos, se obtiene
[q(x) q(x + x)]y + [q(y) q(y + y)]x = 0
Multiplicando el primer termino por
x
x
y el segundo por
y
y
se obtiene
q(x) q(x + x)
x
xy +
q(y) q(y + y)
y
yx = 0 (248)
223
Dividiendo entre xy y tomando lmite, se llega a

q
x

q
y
= 0 (249)
La ecuacion (249) es una ecuacion diferencial parcial, que es una expresion
de la conservacion de la energa en la placa. Sin embargo no puede resolverse,
a menos que se especiquen los ujos de calor en los extremos de la placa.
Debido a que las condiciones de frontera se dan para la temperatura, la
ecuacion (249) debe reformularse en terminos de la temperatura. la relacion
entre ujo y temperatura esta dada por la ley de Fourier de conduccion
del calor, que se representa como,
q
i
= kC
T
t
(250)
donde,
q
i
es el ujo de calor en la direccion de la dimension i [
cal
cm
2
s
]
k es el coeciente de difusividad termica
cm
2
s
es la densidad del material
g
cm
3
C es la capacidad calorica del material [
cal
g

C
]
T es la temperatura del material

C que se dene por
T =
H
CV
224
donde,
H es el calor (cal)
V es el volumen en cm
3
Algunas veces, el termino que esta multiplicando a la derivada parcial en la
ecuacion (250) se trata como un solo termino.
k

= kC (251)
donde, k

es el coeciente de conductividad termica [


cal
scm

C
]. En ambos
casos k y k

son parametros que determinan, que tan bien el material conduce


calor.
La ley de Fourier se conoce tambien como ecuacion constitutiva, de-
bido a que proporciona un mecanismo que dene las interacciones internas
del sistema. Inspeccionando la ecuacion (250) indica que la ley de Fourier es-
pecica que el ujo de calor perpendicular al eje i es proporcional a gradiente
o pendiente de la temperatura en la direccion i. El signo negativo asegura
que un ujo positivo en la direccion i resulta de una pendiente negativa de
alta a baja temperatura. En la gura 13 se ilustra la representacion graca
de un gradiente de temperatura, recpordamos que el calor se transere hacia
abajo, desde una temperatura alta a una baja, el ujo en a) va de izquierda
225
a derecha en la direccion i y en este caso la pendiente es negativa, es decir
un gradiente negativo se relaciona con un ujo positivo. En la gura 14 se
representa el caso inverso, donde el gradiente positivo se relaciona con un
ujo de calor negativo de derecha a izquierda. Sustituyendo, (250) en (249)
Figura 13:
T
i
< 0 Figura 14:
T
i
> 0
se obtiene,

2
T
x
2
+

2
T
y
2
= 0 (252)
conocida como ecuacion de Laplace. En el caso donde hay fuentes o perdi-
das de calor, dentro del dominio bidimensional, tenemos la ecuacion

2
T
x
2
+

2
T
y
2
= f(x, y) (253)
226
donde la funcion f(x, y) describe las fuentes o perdidas de calor. La ecuacion
(253) se conoce como ecuacion de Poisson.
16.2. Solucion Numerica
La solucion numerica, se basa en el metodo de diferencias nitas. En el
caso bidimensional tratamos la placa como una malla de puntos discretos.
-
6
(x
0
, y
0
)
x
1
x
i1
x
i
x
i+1 (x
m+1
, y
0
)
X
(x
i
, y
j
)
(x
i
, y
j1
)
(x
i
, y
j+1
)
y
j
y
j1
y
j+1
.
.
.
(x
0
, y
n+1
)
(x
m+1
, y
n+1
)
Y








Luego aproximamos las derivadas parciales en cada punto de la malla
transformando la ecuacion diferencial en una ecuacion algebraica en difer-
encias.
227
16.2.1. La Ecuacion de Laplace.
Las diferencias centrales basadas en la malla de la gura son:

2
T
x
2
=
T
i+1,j
2T
i,j
+ T
i1,j
x
2
(254)
y

2
T
y
2
=
T
i,j+1
2T
i,j
+ T
i,j1
y
2
(255)
las cuales tienen errores de O(x
2
) y O(y
2
) respectivamente. Sustituyendo
en la ecuacion (252) se obtiene,
T
i+1,j
2T
i,j
+ T
i1,j
x
2
+
T
i,j+1
2T
i,j
+ T
i,j1
y
2
= 0 (256)
En la malla cuadrada de la gura anterior, x = y, reagrupando terminos
la ecuacion queda,
T
i+1,j
+ T
i1,j
+ T
i,j+1
+ T
i,j1
4T
i,j
= 0 (257)
Esta relacion, que se satisface por todos los puntos interiores de la placa, se
conoce como ecuacion laplaciana en diferencias. Debemos ademas es-
pecicar las condiciones de frontera en los extremos de la placa para obtener
una solucion unica. El caso mas simple es aquel donde la temperatura en la
frontera es un valor jo. Este tipo de condicion se denomina condicion de
frontera de Dirichlet. En la gura siguiente , se tiene una placa con este
tipo de condicion. En esta gura un balance en el nodo (1, 1) es de acuerdo
228
Figura 15: Condicion Dirichlet
con la ecuacion (257), se obtiene
T
21
+ T
01
+ T
12
+ T
10
4T
11
= 0 (258)
Sin embargo, T
01
= 75 y T
10
= 0, por lo tanto (258) se expresa como
4T
11
+ T
12
+ T
21
= 75
Analogamente, se pueden desarrollar ecuaciones para los otros interiores.
229
El resultado es el sistema siguiente de nueve ecuaciones y nueve incognitas:+
4T
11
T
21
T
12
= 75
T
11
+4T
21
T
31
T
22
= 0
T
21
+4T
31
T
32
= 50
T
11
+4T
12
T
22
T
13
= 75
T
21
T
12
+4T
22
T
32
T
23
= 0
T
31
T
22
+4T
32
T
33
= 50
T
12
4T
13
T
23
= 175
T
22
T
13
+4T
23
T
33
= 100
T
32
T
23
+4T
33
= 150
(259)
16.2.2. El metodo de Liebmann.
En la mayora de las soluciones numericas de la ecuacion de Laplace se
tienen sistemas que son muchos mas grandes, por ejemplo para una mal-
la de 10 por 10 nodos se tiene un sistema de 100 ecuaciones lineales. El
metodo com unmente usado es el de Gauss-Seidel, que cuando se aplica a las
ecuaciones diferenciales parciales, tambien se conoce como el metodo de
Liebmann.
230
Con este metodo la ecuacion la ecuacion (258) se expresa como
T
ij
=
T
i+1,j
+ T
i1,j
+ T
i,j+1
+ T
i,j1
4
(260)
que se resuelve de manera iterativa para j = 1...n y i = 1...m. Como la matris
asociada al sistema (257) es diagonal dominante, la sucesion de aproxima-
ciones convergeraa a una solucion estable.
Como en el metodo coveccional de Gauus- Seidel las iteraciones se repiten
hasta alcanzar una presicion estipulada.
Ejemplo 16.1 Usando metodo de Liebmann, calcular la temperatura de la
placa calentada de la gura 15. Use sobrerrelajaci on con = 1,5 e itere
hasta que e = 1 %.
Sol. La ecuaci on (260) para i = 1 , j = 1 es
T
ij
=
0 + 75 + 0 + 0
4
= 18,75, (261)
aplicando sobrerrelajaci on se obtiene,
T
11
= 1,5(18,75) + (1 1,5)0 = 28,125 (262)
Para i = 2 , j = 1
T
21
=
0 + 28,125 + 0 + 0
4
= 7,03125
T
21
= 1,5(7,03125) + (1 1,5)0 = 10,54688
(263)
231
Para i = 3 , j = 1
T
31
=
50 + 10,54688 + 0 + 0
4
= 15,13672
T
31
= 1,5(15,13672) + (1 1,5)0 = 22,70508
(264)
calculando sucesivamente se obtiene
T
12
= 38,67188 T
22
= 18,45703 T
32
= 34,18579
T
13
= 80,12696 T
23
= 74,46900 T
33
= 96,99554
(265)
Como los T
ij
son cero, inicialmente entonces los errores en la primera it-
eraci on ser a 100 % En la segunda iteraci on los resultados son:
T
11
= 32,51953 T
21
= 22,35718 T
31
= 28,60108
T
12
= 57,95288 T
22
= 61,63333 T
32
= 71,86833
T
13
= 75,21973 T
23
= 87,95872 T
33
= 67,68736
(266)
El error T
1,1
se estima como sigue
|e
11
| = |
32,51953 28,12500
32,51953
|100 % = 13,5 % (267)
La novena iteraci on da como resultado:
T
11
= 4300061 T
21
= 33,29755 T
31
= 33,88506
T
12
= 63,21152 T
22
= 56,11238 T
32
= 52,33999
T
13
= 78,58718 T
23
= 76,06402 T
33
= 69,71050
(268)
donde el error m aximo es 0,71 % En la gura siguiente se muestran los
resultados.
232
Figura 16: Distribucion de temperatu-
ra
16.3. Condiciones en la frontera.
La condicion de frontera ja o de Dirichlet es una alternativa com un en
las ecuaciones diferenciales parciales, otro tipo de condicion es la condici on
de frontera de Newmann la que se tiene como dato la derivada en la frontera.
En el caso de la placa calentada, esto corresponde a especicar el ujo de
calor, mas que la temperatura en la frontera.
Un ejemplo es el caso donde el extremo esta aislado, en tal caso que
denominamos condici on de frontera natural la derivada es cero. Esta con-
clusion se obtiene de la ecuacion (250), ya que aislar una frontera signica
233
que el ujo de calor debe ser cero.
El esquema siguiente muestra un nodo (0, j) en el extremo izquierdo de
una placa calentada, aplicando la ecuacion (257) se obtiene
T
1,j
+ T
1,j
+ T
0,j+1
+ T
0,j1
4T
0,j
= 0 (269)
Observese que para aesta ecuacion se necesita un punto (1, j) que esta fuera
de la placa. Aunque parezca un pun to cticio sirve para incorporar la deriva-
da de la condicion de frontera en el problema, lo que se logra representando
la primera derivada en la dimension x en (0, j) por la diferencia dividida
nita
T
x
=
T
1,j
T
1,j
2x
2
(270)
despejando
T
1,j
= T
1,j
2x
T
x
(271)
Ahora tenemos una relacion para T
1,j
que incluye la derivada, sustituyendo
en la relacion (269) se obtiene
2T
1,j
2x
T
x
+ T
0,j+1
+ T
1,j1
4T
0,j
= 0 (272)
De esta forma se ha incorporado la derivada a la ecuacion.
234
Ecuaciones Hiperbolicas.
Prof. Mara Angelica Vega U.
Modulo 16
18. La ecuacion de ondas.
La ecuacion de ondas es un ejemplo de una ecuacion en derivadas par-
ciales

2
u
t
2
= c
2

2
u
x
2
para 0 < x < a y 0 < t < b (293)
o en forma mas simple
u
tt
(x, t) = c
2
u
xx
(x, t) para 0 < x < a y 0 < t < b (294)
con las condiciones de contorno,
u(0, t) = 0 u(a, t) = 0 0 t b,
u(x, 0) = f(x) 0 x a,
u
t
(0, t) = g(x) 0 < x a,
(295)
La ecuacion de ondas modela el desplazamiento u desde su posicion de equi-
librio de una cuerda elastica vibrante cuyos extremos, de coordenadas x = 0
y x = a estan jos. Aunque es posible determinar la solucion de ondas
por medio de las series de Fourier, se usara este problema como modelo de
ecuaciones hiperbolicas.
248
18.1. Construccion de la ecuacion en diferencias.
Hacemos una particion del rectangulo R = {(x, t)/0 x a , 0 t
b} en una malla que consta de n1 por m1 rectangulos de lados x = h
y t = k, como la gura,
-
6
x
i1
x
i
x
i+1
x
n X
t
j
t
j1
t
j+1
.
.
.
t
m
t

comenzamos por la la de abajo, donde t = t


1
= 0 y sabemos que la
solucion es u(x
i
, t
1
) = f(x
i
). Ahora usaremos una ecuacion en diferencias
para calcular, en las las sucesivas, las aproximaciones a la solucion exacta,
que en los puntos de la malla u(x
i
, t
j
). Denotaremos para cada j = 2, 3, m
u
ij
u(x
i
, t
j
)
Usaremos para aproximar u
tt
(x, t) y u
xx
(x, t) las formulas:
u
tt
(x, t) =
u(x, t + k) 2u(x, t) + u(x, t k)
k
2
+O(k
2
) (296)
249
y
u
xx
(x, t) =
u(x + h, t) 2u(x, t) + u(x h, t)
h
2
+O(h
2
) (297)
El espaciado entre los puntos de la malla es uniforme en todas las las
x
i+1
= x
i
+ h y x
i1
= x
i
h
y tambien uniforme en todas las columnas
t
j+1
= t
i
+ k y t
j1
= t
j
k
Sustituyendo (295) y (296) y usando la notacion mencionada tenemos,
u
i,j+1
2u
i,j
+ u
i,j1
k
2
= c
2
u
i+1,j
2u
i,j
+ u
i1,j
h
2
(298)
que es la ecuacion en diferencias que se usara como aproximacion a la
ecuacion diferencial (293) o (294). Llamemos r =
ck
h
, luego tenemos:
u
i,j+1
2u
i,j
+ u
i,j1
= r
2
(u
i+1,j
2u
i,j
+ u
i1,j
) (299)
Reordenando los terminos, determinaremos las aproximaciones a la solucion
en los puntos de la la (j + 1)-esima de la malla, supuesto que conocemos
las aproximaciones a la solucion en los puntos de los puntos de las dos las
anteriores, la j-esima y la (j 1)-esima.
u
i,j+1
= (2 2r
2
)u
i,j
+ r
2
(u
i+1,j
+ u
i1,j
) u
i,j1
(300)
250
para i = 2, 3, , n 1. En la gura siguiente se muestra la posicion en la
malla de los cuatro valores conocidos , que aparecen en el miembro derecho
de (298) que se usan para determinar la aproximacion u
i,j+1
r
2
u
i+1,j
u
i,j1
(2 2r
2
)u
i,j
u
i,j1
r
2
u
i1,j

18.2. Condiciones Iniciales


Si se desea usar (296) para calcular las aproximaciones en los puntos de
la tercera la de la malla, se necesitan las aproximaciones en los puntos de
la primera y segunda la.
Los valores de la primera la vienen dados por la funcion f(x), pero
no as los valores de la segunda la, por lo que se usa la funcion g(x) para
determinar las aproximaciones en dichos puntos. Supongamos que x = x
i
en la frontera inferior de R, aplicando teorema de Taylor de orden 1, para
251
desarrollar u(x, t) alrededor de (x
i
, 0) para el valoru(x
i
, k) , se verica
u(x
i
, k) = u(x
i
, 0) + u
t
(x
i
, 0)k +(k
2
) (301)
Ahora se usa u
x
i
,0
= f(x
i
) = f
i
y u
x
i
,0
= g(x
i
) = g
i
en (301) para obtener
las aproximaciones numericas en los puntos de la segunda la t
2
= k
u
i,2
= f
i
+ kg
i
para i = 2, 3, , n 1 (302)
En general, u(x
i
, t
2
) = u
i,2
por lo que el error introducido al usar (302)
se propagara a toda la malla cuando se use el esquema dado por (299).
Para contrarrestar esta situacion es aconsejable escoger un tama no de k
muy peque no. Com unmente se da el caso de que la funcion f(x) dada en el
contorno es dos veces derivable en el intervalo, con lo cual u
xx
(x, 0) = f

(x).
Esta igualdad nos permite usar la formula de Taylor de orden 2 para obtener
una aproximacion mejorada a los valores de la segunda la de la malla. Para
ello volvemos a la ecuacion de ondas y usamos la relacion entre las derivadas
parciales segundas, obteniendo:
u
tt
(x
i
, 0) = c
2
u
xx
(x
i
, 0) = c
2
f

(x
i
) = c
2
f
i+1
2f
i
+ f
i1
h
2
+O(h
2
) (303)
Recordamos que la formula de Taylor de orden 2 es
u(x, k) = u(x, 0) + u
t
(x, 0)k +
u
tt
(x, 0)k
2
2
+O(k
2
) (304)
252
y aplicando (304), (303)y (302) en el punto x = x
i
se obtiene:
u(x
i
, k) = f
i
+ kg
i
+
c
2
k
2
2h
2
(f
i+1
2f
i
+ f
i1
) +O(k
2
) +O(k
3
) (305)
Como r =
ck
h
, la ecuacion (305) se puede simplicar obteniendose la sigu-
iente formula que proporciona aproximaciones numericas mejoradas a los
elementos de la segunda la.
u
i,2
= (1 r
2
)f
i
+ kg
i
+
r
2
2
(f
i+1
+ f
i1
), para i = 2, 3, n 1 (306)
Ejemplo 18.1 Se ilustrar a el metodo de diferencias nitas en la resoluci on
de la ecuaci on de ondas de una cuerda vibrante.
u
tt
(x, t) = 4u
xx
(x, t). para 0 < x < 1sn 1 y 0 < t < 0,5 (307)
con las condiciones de contorno:
u(0, t) = 0 y u(1, t) = 0 0 t 0,5,
u(x, 0) = f(x) = sin (x) + sin (2x) 0 x 1,
u
t
(x, 0) = g(x) = 0 0 x 1,
(308)
Por conveniencia tomaremos h = 0,1 y k = 0,05. Como c = 2 entonces
r =
2(0,05)
0,1
= 1. Como g(x) = 0 y r = 1, la f ormula (306) para calcular los
valores de la segunda queda
u
i,2
=
f
i1
+ f
i+1
2
, para i = 2, 3, 9 (309)
253
Sustituyendo r = 1 en la ecuaci on (299) obtenemos la ecuaci on en diferen-
cias ya simplicada
u
i,j+1
= u
i+1,j
+ u
i1,j
u
i,j1
) (310)
Usando (309) y (310) generamos las aproximaciones a los valores de u(x, t)
que aparecen en la tabla de aproximaciones para 0 < x
i
< 1 y 0 t
j
0,50
que coinciden en m as de seis cifras decimales con los correspondientes a la
soluci on exacta
u(x, t) = sin (x)cos(2t) + sin (2x)cos(4t) (311)
Tabla de aproximaciones
254
t
j
x
2
x
3
x
4
x
5
x
6
x
7
x
8
0,00 0,896802 1,538842 1,760074 1,538842 1,000000 0,363271 0,142040
0,05 0,769421 1,328438 1,538842 1,380037 0,951056 0,428980 0,000000
0,10 0,431636 0,769421 0,948401 0,951056 0,809017 0,587785 0,360616
0,15 0,000000 0,051599 0,181636 0,377381 0,587785 0,740653 0,769421
0,20 0,380037 0,587785 0,519421 0,181636 0,309017 0,769421 1,019421
0,25 0,587785 0,951056 0,951056 0,587785 0,000000 0,587785 0,951056
0,30 0,571020 0,951056 1,019421 0,769421 0,309017 0,181636 0,519421
0,35 0,363271 0,639384 0,769421 0,740653 0,587785 0,377381 0,181636
0,40 0,068364 0,181636 0,3606161 0,587785 0,809017 0,951056 0,948401
0,45 0,181636 0,210404 0,000000 0,428980 0,951056 0,380037 0,538842
0,50 0,278768 0,363271 0,142040 0,363271 1,000000 1,538842 1,760074
255
Ecuaciones Parabolicas.
Prof. Mara Angelica Vega U.
Modulo 15
17. La ecuacion de conduccion de calor.
Analogamente a la deduccion de la ecuacion de Laplace, se puede uti-
lizar la conservacion del calor para desarrollar un balance de calor en una
barra larga aislada como en la siguiente gura Ademas de examinar el ca-
Figura 17: Barra aislada excepto en los
extremos.
235
so estacionario , este balance tambien considera la cantidad de calor que
se almacena en el elemento en el periodo t. El balance entonces es de la
forma:
Entradas - Salida = Acumulacion
es decir,
q(x)yzt q(x +x)yzt = xyzCT (273)
dividiendo por xyz y t se obtiene
q(x) q(x +x)
x
= C
T
t
(274)
tomando lmite,

q
x
= C
T
t
(275)
Sustituyendo la ley de Fourier para la conduccion del calor, se obtiene
k

2
T
x
2
=
T
t
(276)
que es la ecuacion del calor.
En el caso de una ecuacion parabolica en dos variables independientes,
la malla esta abierta en los extremos en la dimension temporal.
236
-
6
6 6 6 6 6 6
(x
0
, y
0
)
x
i1
x
i
x
i+1 (x
m+1
, y
0
)
X
(x
i
, y
j
)
(x
i
, y
j1
)
(x
i
, y
j+1
)
y
j
y
j1
y
j+1
Y








Analogamente al caso elptico, las ecuaciones parabolicas se resuelven
sustituyendo las derivadas parciales por diferencias nitas. La diferencia rad-
ica en que las ecuaciones elpticas estan acotadas en todas las dimensiones,
las ecuaciones parabolicas estan abiertas en la variable temporal
17.0.1. Metodos Explcitos
Usamos una diferencia centrada para aproximar la segunda derivada
espacial,

2
T
x
2
=
T
j
i+1
2T
j
i
+ T
j
i+1

2
(277)
que tiene un error O(x
2
) y los superndices denotan el tiempo. La derivada
en tiempo la aproximamos por un diferencia progresiva:
T
t
=
T
j+1
i
T
j
i
t
(278)
237
que tiene un error O(t). Sustituyendo en la ecuacion (276) se obtiene
k
T
j
i+1
2T
j
i
+ T
j
i1
x
2
=
T
j+1
i
T
j
i
t
. (279)
de donde resulta
T
j+1
i
= T
j
i
+ (T
j
i+1
2T
j
i
+ T
j
i1
) (280)
donde = k
t
(x)
2
. Esta ecuacion permite calcular explcitamente los val-
ores de la funcion en cada nodo para un tiempo posterior j + 1 a partir
de la informacion en el nodo j y los nodos vecinos. Observemos que este
metodo es un analogo del metodo de Euler para resolver sistemas de ecua-
ciones diferenciales ordinarias. Un esquema de lo que ocurre en los nodos
esta representado en la siguiente gura,
Ejemplo 17.1 Usando em metodo explcito determine la distribuci on de
temperatura en una barra larga y delgada que tiene una longitud de 10 cm
y los siguientes valores k

= 0,49 [
cal
segcm

C
], x = 2 cm y t = 0,1 seg.
En t = 0 la temperatura de la barra es cero y las condiciones de frontera
en T(0) = 100

C y T(10) = 50

C. Considere que la barra es de aluminio


con C = 0,2174 [
cal
g

C
] y = 2,7
g
cm
3
. Por lo tanto, k =
0,49
2,7 0,2174
=
0,835

cm
2
seg

y = 0,835
0,1
2
2
= 0,020875
238
Figura 18: Metodo Explcito
Sol. Aplicando la ecuaci on (280) se obtiene el siguiente valor en t = 0,1
seg para el nodo en x = 2 cm
T
1
1
= 0 + 0,020875(0 2(0) + 100) = 2,0875
En los otros nodos interiores, x = 4,6 y 8 cm, los resultados son
T
1
2
= 0 + 0,020875(0 2(0) + 0) = 0
T
1
3
= 0 + 0,020875(0 2(0) + 0) = 0
T
1
2
= 0 + 0,020875(50 2(0) + 0) = 1,0438
239
En t = 0,2 se obtiene para los cuatro nodos interiores
T
2
1
= 2,0875 + 0,020875(0 2(2,0875) + 100) = 4,0878
T
2
2
= 0 + 0,020875(0 2(0) + 2,0875) = 0,043577
T
2
3
= 0 + 0,020875(1,0438 2(0) + 0) = 0,021788
T
2
4
= 1,0438 + 0,020875(50 2(1,0438) + 0) = 2,0439
El aumento general de la temperatura con el tiempo indica que la difusion
del calor desde las fronteras al interior de la barra.
17.0.2. Convergencia y estabilidad
La Convergencia signica que si x y y tienden a cero, entonces los
valores obtenidos por el metodo se aproximan a la solucion exacta.
La Estabilidad signica que los errores en cualquier etapa del calculo, no
se amplican en etapas posteriores sino disminuyen.
Un resultado importante es que el meetodo explcito es convergente y
estable si
1
2
o
t
1
2
x
2
k
(281)
17.0.3. Aproximaciones temporales de orden superior
La idea general es volver expresar la EDP como un sistema de EDO se
denomina metodo de lneas. En efecto, una manera de mejorar el metodo
240
de Euler usado antes sera emplear un esquema de integracion mas exacto
para resolver las EDO. Por ejemplo, el metodo de Heun puede utilizarse
para obtener una exactitud temporal de segundo orden.
17.1. Un metodo implcito simple
Las formulas explcitas por diferencias nitas tienen problemas con la
estabilidad. Los metodos implcitos son mas estables, pero usan algoritmos
mas complicados.
La diferencia fundamental entre ambos metodos radica en la forma de
tomar los nodos, se ilustra en la siguiente gura
Figura 19: Puntos malla
241
En un esquema explcito, aproximamos la derivada espacial para un nivel
de tiempo j, (gura a) en cambio en los esquemas implcitos la derivada
espacial se aproxima en un nivel de tiempo posterior j + 1 (gura b). Por
ejemplo la segunda derivada se aproximara por

2
T
x
2
=
T
j+1
i+1
2T
j+1
i
+ T
j+1
i1
(x)
2
(282)
que tiene una exactitud de segundo orden. Al sustituir en la ecuacion origi-
nal, se obtiene
k
T
j+1
i+1
2T
j+1
i
+ T
j+1
i1
(x)
2
=
T
j+1
i
T
j
i
t
(283)
que se puede escribir como
T
j+1
i1
+ (1 + 2)T
j+1
i
T
j+1
i+1
= T
j
i
(284)
donde =
kt
(x)
2
. Esta ecuacion se aplica a todos los nodos excepto al
primero y al ultimo de los nodos interiores, los cuales se modican al con-
siderar las condiciones de frontera. La condicion de frontera en el extremo
izquierdo de la barra (i = 0) se expresa:
T
j+1
0
= f
0
(t
j+1
) (285)
donde f
0
(t
j+1
) es una funcion que describe como cambia con el tiempo
la temperatura de la frontera. Sustituyendo (285) en (284) se obtiene la
ecuacion en diferencias para el primer nodo interior (i = 1)
(1 + 2)T
j+1
1
T
j+1
2
= T
j
1
+ f
0
(t
j+1
) (286)
242
Analogamente para (i = m)
T
j+1
m1
+ (1 + 2)T
j+1
m
= T
j
m
+ f
m+1
(t
j+1
) (287)
donde f
m+1
(t
j+1
) describe los cambios especcos de temperatura en el ex-
tremo derecho de la barra (i = m+1). observamos que el sistema resultante
de m ecuaciones lineales con m incognitas es tridiagonal.
Ejemplo 17.2 Resolver el ejemplo anterior usando diferencias nitas im-
plcitas. Para este caso = 0,020875 .
para t = 0 la ecuaci on para el primer nodo interior es
1,04175T
1
1
0,020875T
1
2
= 0 + 0,020875(100)
o
1,04175T
1
1
0,020875T
1
2
= 2,0875
An alogamente,

1,04175 0,020875 0 0
0,020875 1,04175 0,020875 0
0 0,020875 1,04175 0,020875
0 0 0,020875 1,04175

T
1
1
T
1
2
T
1
3
T
1
4

2,0875
0
0
1,04375

243
En t = 0,1 seg
T
1
1
= 2,0047
T
1
2
= 0,0406
T
1
3
= 0,0209
T
1
4
= 1,0023
En t = 0,2 seg
T
2
1
= 3,9305
T
2
2
= 0,1190
T
2
3
= 0,0618
T
2
4
= 1,9653
El metodo implcito descrito es estable y convergente, pero tiene la desventa-
ja que la aproximacion en diferencias temporal tiene una exactitud de primer
orden y con diferencia espacial de oreden 2. Hay que mencionar que aunque
este metodo es incondicionalmente estable hay un lmite de exactitud para
el uso de pasos tiempo grande. Por tanto no es mucho mas eciente que los
metodos explcitos para la mayora de los problemas variables en el tiempo.
17.2. El metodo de Crank-Nicholson
El metodo de Crank-Nicholson es un esquema implcito alternativo que
tiene una exactitud de segundo orden, tanto para la aproximacion espacial,
244
como para la temporal. Para alcanzar esta exactitud en el tiempo se desar-
rollan diferencias en el punto medio del incremento tiempo, por lo tanto la
primera derivada temporal se aproxima en t
j+
1
2
por
T
t
=
T
j+1
i
T
j
i
t
(288)
La segunda derivada en el espacio puede determinarse en el punto medio
promediando las aproximaciones por diferencias al principio t
j
y al nal
t
j+1
del incremento del tiempo.

2
T
x
2
=
1
2

T
j
i+1
2T
j
i
+ T
j
i1
(x)
2
+
T
j+1
i+1
2T
j+1
i
+ T
j+1
i1
(x)
2

(289)
sustituyendo las ecuaciones (288) y (289) en la ecuacion wwwwwww , se
obtiene
T
j+1
i+1
+ 2(1 + )T
j+1
i
T
j+1
i1
= T
j
i+1
+ 2(1 )T
j
i
+ T
j
i1
(290)
donde =
kt
(x)
2
. Como en el caso del metodo implcito simple, se determi-
nan las condiciones de fronteea T
j+1
0
= f
0
(t
j+1
) y T
j+1
m+1
= f
m+1
(t
j+1
) para
obtene las ecuaciones para los nodos interiores primero y ultim o.
Para el primer nodo interior se obtiene
2(1 + )T
j+1
1
)T
j+1
2
= f
0
(t
j
) + 2(1 )T
j
1
+ T
j
2
+ f
0
(t
j+1
) (291)
245
y para el ultimo nodo interior
T
j+1
m1
+ 2(1 + )T
j+1
m
= f
m+1
(t
j
) + 2(1 )T
j
m
+ T
j
m1
+ f
m+1
(t
j+1
)
(292)
observamos que los sistemas de ecuaciones involucrados son tridiagonales,
lo que hace eciente el proceso.
Ejemplo 17.3 Resolver el ejemplo anterior, usando el metodo de Crank-
Nicholson.

2,04175 0,020875 0 0
0,020875 2,04175 0,020875 0
0 0,020875 2,04175 0,020875
0 0 0,020875 2,04175

T
1
1
T
1
2
T
1
3
T
1
4

4,175
0
0
2,0875

En t = 0,1 seg
T
1
1
= 2,0450
T
1
2
= 0,0210
T
1
3
= 0,0107
T
1
4
= 1,0225
246
De las ecuaciones se obtiene
T
2
1
= 4,0073
T
2
2
= 0,0826
T
2
3
= 0,0422
T
2
4
= 2,0036
247

S-ar putea să vă placă și