Documente Academic
Documente Profesional
Documente Cultură
Tema 1
1
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049
2 Cálculo Numérico I
ver que f ′ (x) = 2x + b se anula en el punto x = −b/2, siendo f ′ (x) < 0 en el intervalo
(−∞, −b/2), y f ′ (x) > 0 en el intervalo (−b/2, +∞). En consecuencia, f (x) es estrictamente
decreciente en (−∞, −b/2), y estrictamente creciente en el intervalo (−b/2, +∞).
Por otra parte,
−b b2 b2 b2 −b2 + 4c
f( )= − +c=− +c= < 0,
2 4 2 4 4
y
lı́m f (x) = lı́m [x(x + b) + c] = +∞.
x→+∞ x→+∞
En consecuencia existe un β1 > −b/2 tal que f (β1 ) > 0, y por tanto, por el teorema de
Bolzano, existe un x1 ∈ (−b/2, +∞) tal que f (x1 ) = 0. Además, teniendo en cuenta que f
es estrictamente creciente en el intervalo (−b/2, +∞), podemos afirmar que x1 es la única
solución de la ecuación x2 + bx + c = 0 en dicho intervalo.
Finalmente,
lı́m f (x) = lı́m [x(x + b) + c] = +∞,
x→−∞ x→−∞
y en consecuencia, existe un β2 < −b/2 tal que f (β2 ) > 0, con lo que, razonando como en
el caso anterior, podemos concluir la existencia de un único punto x2 ∈ (−∞, −b/2) que es
solución de la ecuación x2 + bx + c = 0 en este intervalo.
Ası́ pues, hemos demostrado, de manera no constructiva, en el caso a 6= 0, b2 − 4ac > 0,
la existencia de dos únicas soluciones reales de la ecuación ax2 + bx + c = 0.
Otra forma, bien conocida, de resolver el problema precedente consiste en dividir la
ecuación por a, y a continuación sumar y restar b2 /4a2 , con lo que la ecuación se tranforma
en la ecuación
b b2 b2 c
x2 + x + 2 − 2 + = 0,
a 4a 4a a
es decir, 2
b2
b c
x+ − 2 + = 0,
2a 4a a
o lo que es lo mismo, 2
b2 − 4ac
b
x+ = ,
2a 4a2
con lo que se obtiene √
b b2 − 4ac
x+ =± ,
2a 2a
y por consiguiente √
−b ±
b2 − 4ac
x= , (1.1)
2a
con lo cual hemos demostrado, esta vez de manera constructiva, la existencia de dos solu-
ciones distintas de la ecuación de segundo grado dada.
c) Otros algoritmos finitos son el que se aplica para conocer si un número natural es o no
primo, o el algoritmo de Euclides para determinar el m.c.d. de dos números naturales.
2. Reseña histórica
Con anterioridad al siglo XIX, la mayor parte de los trabajos en Matemáticas consistı́an
en la búsqueda de soluciones de problemas concretos. De esta forma, se obtuvieron éxitos
espectaculares, como la predicción de eclipses de sol y de luna, la aparición de cometas en
el firmamento, etc...; dichos resultados se lograban calculando de manera aproximada las
soluciones de problemas matemáticos que eran modelos de los correspondientes fenómenos.
La figura culminante de este modo de proceder es L. Euler (1707-1783). Sus obras com-
pletas, más de setenta volúmenes, están llenas de algoritmos y fórmulas, siendo de destacar
el uso frecuente que hace de los desarrollos en serie de potencias.
Durante el siglo XIX, decrece la fe en la utilidad numérica de los algoritmos. Esto fue
debido, entre otras razones, a la apertura de un periodo de construcción lógica en el que
la preocupación esencial era fundamentar los progresos realizados. También fue debido a
que la complejidad de los problemas a tratar hicieron inviables los métodos constructivos y,
finalmente, porque los métodos constructivos que se lograron desarrollar fueron inaplicables
por la cantidad de operaciones que exigı́a su puesta en práctica.
De todas maneras, en los siglos XVIII y XIX se abordan problemas como la resolución de
ecuaciones no lineales (método de Newton), la resolución de sistemas de ecuaciones lineales
(método de Gauss), y se elaboran algunas técnicas de aproximación de funciones (Tcheby-
cheff). A principios del siglo XX se desarrollaron los primeros métodos para la resolución
aproximada de ecuaciones diferenciales ordinarias.
El avance decisivo en el campo de los métodos numéricos se produce con el desarrollo
de las calculadoras electrónicas. La aparición del ordenador supuso un cambio radical en la
forma de abordar muchos problemas, y se pasó a la formalización de métodos conocidos más
o menos empı́ricamente. El Cálculo Numérico se convirtió en Análisis Numérico, una rama
de las Matemáticas con entidad propia desde los años 50 del siglo pasado.
4 Cálculo Numérico I
A = (aij )1≤i≤M,1≤j≤N
Ax = b (3.4)
Este tipo de sistemas se presentan con gran frecuencia en las aplicaciones (por ejemplo
en el estudio de circuitos eléctricos, ver [1]), siendo en general M ≤ N , es decir, el
número de incógnitas suele ser igual o superior al de ecuaciones.
En este curso abordaremos algunos métodos básicos de resolución aproximada de sis-
temas como (3.2) en el caso en el que M = N (igual número de incógnitas que de
ecuaciones). En este caso, la matriz A es cuadrada, y si, por simplificar, suponemos
que su determinante |A| es distinto de cero, entonces para cada b ∈ RN dado existe una
y sólo una solución, que se puede hallar, por ejemplo, por la fórmula de Cramer. Desde
el punto de vista teórico, en este caso de M = N y |A| = 6 0, el problema (3.2) queda
resuelto. Pero, salvo cuando N es pequeño, la fórmula de Cramer (que en realidad es
un método direct) es impracticable desde el punto de vista numérico.
En efecto, denotemos por kN el número de operaciones algebraicas que hace falta
realizar para calcular el determinante de una matriz real N × N . Evidentemente,
k2 = 3,
y por otra parte, para todo N > 2, si A = (aij )1≤i,j≤N , sabemos que
kN = (kN −1 + 1)N + N − 1 = N kN −1 + 2N − 1.
Con estas fórmulas, se puede comprobar que, por ejemplo, k10 = 9864099, es decir el
número de operaciones necesarias para calcular el determinante de una matriz 10 × 10
es, en principio, de casi diez millones. Por otra parte, si queremos resolver un sistema
lineal de N ecuaciones y N incógnitas aplicando la regla de Cramer, el número CN de
operaciones necesarias vendrá dada por el cálculo de N + 1 determinantes de matrices
N × N , y N divisiones, es decir,
CN = (N + 1)kN + N,
6 Cálculo Numérico I
para todo n ≥ 1.
iii) La resolución aproximada de ecuaciones y sistemas de ecuaciones no lineales.
Un problema que se presenta con gran frecuencia en las aplicaciones (ver [1] para un
ejemplo en el problema de tiro oblicuo) consiste en, dada una función f (x) real definida
en un intervalo I de R, hallar aquellos valores x ∈ I tales que f (x) = 0. Si f no es de
la forma f (x) = ax + b, por ejemplo si f es un polinomio de grado mayor que uno,
entonces decimos que la ecuación f (x) = 0 es no lineal. En general, la resolución exacta
de una tal ecuación no es posible, siendo necesario la elaboración de algoritmos para
el cálculo aproximado de la o las soluciones. Problemas de este tipo serán tratados en
el tema 4 de este Curso.
Más generalmente, se pueden considerar sistemas de ecuaciones no lineales de la forma
f1 (x1 , x2 , ..., xN ) = 0,
f2 (x1 , x2 , ..., xN ) = 0,
................................, (3.5)
................................,
fM (x1 , x2 , ..., xN ) = 0,
Ahora bien, un resultado debido a Liouville afirma que, en general, el cálculo de una
primitiva de una función continua en términos de combinaciones finitas de funciones
elementales conocidas es algo imposible (tal es el caso, por ejemplo, para las funciones
2
ex y (sin x)/x). Cuando tal cosa sucede, a efectos prácticos la regla de Barrow no
es aplicable para el cálculo efectivo de la integral definida, siendo por ello necesario
desarrollar métodos numéricos de cálculo aproximado de la misma.
A este respecto, obsérvese que el uso de tales métodos numéricos permite a veces
calcular
Z 2de manera aproximada el valor de una función en un punto. Ası́ por ejemplo,
1
como dx = log 2, si conocemos un procedimiento de cálculo aproximado de la
1 x
integral, el mismo nos permite hallar de manera aproximada el valor de log 2.
v) La interpolación de funciones:
Dada una cantidad finita de datos (pares de valores), que pueden provenir por ejemplo
de la experimentación, se plantea la necesidad de obtener una función “que pase por”
(interpole a) dichos pares de valores. Dentro de lo distintos tipos de interpolación,
en este curso veremos una introducción a la interpolación mediante polinomios. En
concreto veremos algunos métodos numéricos para resolver el siguiente problema:
“Dados una serie de datos (xi , yi ) con i = 0, . . . , n (con xi distintos entre si), nos
planteamos construir un polinomio p(x) de grado ≤ n que interpola dichos valores, es
decir, tal que p(xi ) = yi para todo i = 0, . . . , n”.
vi) La resolución aproximada de ecuaciones diferenciales.
4. Tipos de errores
Un aspecto importante, aunque no uno de los objetivos fundamentales del Cálculo Numéri-
co, es el estudio de los errores, es decir, la valoración de la precisión de los resultados de un
cálculo concreto. Dicha precisión viene en general limitada por tres tipos de errores:
a) Errores en la toma de los datos
Son errores que proceden de la toma de datos reales y que están fuera del control del
Cálculo Numérico. Podrán disminuir hasta cierto punto mejorando, por ejemplo, las
mediciones experimentales. Este tipo de errores se conocen también con el nombre de
ruidos.
8 Cálculo Numérico I
b) Errores de aproximación
Se producen porque, aunque se realicen las operaciones de forma exacta, la solución de
un problema se aproxima por una familia de problemas dependientes de un parámetro
∞
X 1
h → 0 (o N → +∞). Ası́ por ejemplo, si para calcular e = , se toma como valor
k=0
k!
N
X 1
aproximado eN = , se comete un error que viene dado por
k=0
k!
∞
X 1
e − eN =
k=N +1
k!
Este tipo de errores recibe también otros nombres, como error de convergencia, error
de truncamiento, error de discretización, etc..., dependiendo del problema de que se
trate.
c) Errores de redondeo
Los ordenadores tienen una precisión limitada, generalmente entre ocho y dieciséis
cifras significativas. De modo que cualquier número real que se maneje debe ser apro-
ximado por uno de la máquina, cometiéndose en consecuencia con esta aproximación
un error que se denomina error local de redondeo
Ası́ por ejemplo, la multiplicación exacta de dos números de seis cifras, tiene doce cifras.
Una calculadora que maneje 8 cifras significativas no comete en este caso errores en
los datos, pero sı́ los comete al efectuar el producto.
Otro ejemplo lo proporciona el caso de un número irracional o racional periódico. En
este caso, el número debe ser aproximado al introducirlo en la máquina, cometiéndose
un error inicial de redondeo.
Ligados a estos tipos de errores hay tres conceptos importantes: convergencia, consistencia
y estabilidad. Pasamos a describir estos conceptos, que ponen de manifiesto propiedades
básicas que debe cumplir cualquier algoritmo numérico.
La propiedad de convergencia está ligada al error de aproximación, y consiste en que
la solución del problema aproximado debe converger en algún sentido, cuando h → 0 (o
N → +∞), a la solución del problema (P ) de partida.
La consistencia también está ligada al error de aproximación, y consiste en que la solución
del problema (P ) debe verificar la ecuación que define asintóticamente la de (Ph ) si h → 0
(ver [1], páginas 43-44).
La propiedad de estabilidad se relaciona con los errores de aproximación y de redondeo.
Hay tres tipos de estabilidad:
que evidentemente tiene por soluciones α1 = −1, α2 = −2, . . . , α19 = −19 y α20 = −20.
La ecuación anterior también puede ser escrita
y se puede ver que si se cambia el coeficiente 210 que multiplica a x19 , por 210 + 2−23
(2−23 ≃ 12 × 10−8 = 0,00000012), entonces las raı́ces mayores de la nueva ecuación
varı́an tan sólo ligeramente respecto de las αk correspondientes, pero, por ejemplo, la
raı́z α20 se convierte en −20′ 8, y las raı́ces α16 y α17 se convierten en un par de raı́ces
imaginarias conjugadas: −16′ 7 ± 2′ 8i. Un ejemplo más simple será visto en problemas.
La estabilidad numérica:
Esta propiedad significa que el algoritmo es inmune al efecto acumulativo de los errores
de redondeo (esto es, si lo errores de redondeo son todos pequeños, el error acumulado
al operar con el algoritmo es también pequeño). Es este un concepto cualitativo, de
manera que un mismo algoritmo puede ser numéricamente estable o inestable si se
escribe de una forma u otra.
Por ejemplo, si se considera el algoritmo
x0 = 1, x1 = 1 ,
3
1
n = (13xn−1 − 4xn−2 ) ,
∀ n ≥ 2,
3
10 Cálculo Numérico I
y se calculan con esta fórmula los dieciséis primeros términos de la sucesión, usando
para ello seis decimales, se obtiene
Sin embargo, es fácil comprobar que la sucesión xn viene también definida por
n
1
xn = ,
3
y si usamos esta última expresión obtenemos
En relación con la teorı́a de errores, dos conceptos de interés son los siguientes:
Definición 4.1 Sea x ∈ R un número y x ∈ R una aproximación de éste. Se denomina
error absoluto a la cantidad |x − x|. Si x 6= 0, se denomina error relativo a la cantidad
|x − x|
.
|x|
c) Estudio teórico de (Ph ): Dicho estudio consta, en general, de dos aspectos esenciales:
Una vez se han completado las cuatro etapas precedentes, desde el punto de vista de las
aplicaciones prácticas, ha de procederse a la implementación efectiva en el ordenador de los
algoritmos previamente construidos.
Referencias
[1] J. M. Viaño: Lecciones de Métodos Numéricos: introducción general y análisis de errores,
Tórculo, Santiago de Compostela, 1995.
[2] A. Aubanell, A. Benseny & A. Delshams, Útiles básicos de Cálculo Numérico, Labor,
Barcelona 1993.
[4] K.E. Atkinson, An introduction to Numerical Analysis, Wiley, New York 1978.
[5] F. Garcı́a & A. Nevot, Métodos Numéricos, Universidad Pontificia de Comillas, Madrid,
1997.
[8] A. Ralston & P. Rabinowitz, A First Course in Numerical Analysis, (second edition),
MacGraw-Hill, New York, 1978.
[9] Numerical Analysis in the 20th Century, Journal of Computational and Applied Mat-
hematics, 2000 y 2001.
Tema 2
si n ≥ 5, se sabe que no existen fórmulas como las anteriores y, en general, las raı́ces
de estos polinomios no pueden ser calculadas de manera exacta.
1
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049
2 Cálculo Numérico I.
x log x − 1 = 0,
teniendo en cuenta que para que esté definido el logaritmo como un número real, x ha de
ser estrictamente positivo, dicha ecuación puede ser escrita de varias maneras equivalentes.
Por ejemplo en la forma
log x − 1/x = 0,
o también en la forma de ecuación de punto fijo (véase más adelante) dada por x = 1/ log x,
o en la forma log x = 1/x, que es del tipo g(x) = h(x).
En los dos primeros casos, el problema de hallar la solución x de f (x) = 0 puede ser
interpretado geométricamente como el de encontrar la abscisa del punto de corte de la curva
de ecuación en el plano cartesiano y = f (x) con el eje OX, es decir con la recta y = 0. En
el caso en que la ecuación se escribe en forma g(x) = x, se puede interpretar de manera
geométrica el problema como el de hallar la abscisa del punto de corte de la curva y = g(x)
con la bisectriz del primer cuadrante, es decir, la recta y = x. Finalmente, si la ecuación se
ha escrito en la forma g(x) = h(x), el significado geométrico consiste en hallar la abscisa del
punto de corte de las curvas de ecuaciones y = g(x) e y = h(x).
g(x) = x. (EP F )
Hagamos notar que existen muchas maneras de escribir una ecuación dada en la forma
(EP F ):
siendo h cualquier función real continua en todo R tal que h(x) 6= 0 para todo x ∈ R.
Desde el punto de vista del Análisis Numérico, estas cuatro formas no son equivalentes.
Con unas se aproxima la solución buscada de manera más rápida y con menos coste de
cálculos que con otras.
Definición 1.3 Sean (a, b) ⊂ R un intervalo abierto, f : (a, b) → R una función continua
en (a, b) y m ≥ 1 un número entero. Se dice que α ∈ (a, b) es un cero de f de multiplicidad
m, si la función f puede ser escrita en la forma
Proposición 1.5 Sean f ∈ C 1 (a, b)1 y α ∈ (a, b). La función f tiene un cero simple (i.e.
de multiplicidad 1) en α, si y sólo si
4 Cálculo Numérico I.
Demostración. Supongamos en primer lugar que f tiene un cero simple en α. En tal caso,
evidentemente f (α) = 0. Además, f puede ser escrita en la forma (1.3), y en consecuencia,
la función
f (x)
q(x) = , x ∈ (a, b) \ {α},
x−α
con lo que, teniendo en cuenta que f (α) = 0, se tiene
f (x) − f (α)
0 6= lı́m q(x) = lı́m = f ′ (α).
x→α x→α x−α
Recı́procamente, supongamos que se satisface (1.4). Consideremos la función qb definida
por
f (x)
qb(x) = , x ∈ (a, b) \ {α}.
x−α
Evidentemente se satisface
f (x) = (x − α)b
q (x), x ∈ (a, b) \ {α}.
Además,
f (x) − f (α)
lı́m qb(x) = lı́m = f ′ (α) 6= 0,
x→α x→α x−α
de donde se obtiene el resultado.
La propiedad anterior puede ser generalizada al caso m ≥ 2:
Proposición 1.6 Sean m ≥ 2 entero, f ∈ C m (a, b) y α ∈ (a, b). La función f tiene un cero
en α de multiplicidad m si y sólo si
Es importante resaltar que en este curso nos vamos a limitar a la aproximación de raı́ces
simples de ecuaciones no lineales.
En cualquier proceso de cálculo de raı́ces de una ecuación no lineal se distinguen tres
fases: localización, separación y aproximación.
2. La separación consiste en encontrar subintervalos que contengan una y sólo una solución
de la ecuación, ello es fundamental en el caso de raı́ces muy próximas. En general, se
puede conseguir la separación combinando el teorema de Bolzano y la Proposición 1.10.
Cuando se ha conseguido esto, se dice que la solución está aislada. Ello no siempre se
puede conseguir, ası́ por ejemplo si consideramos la función
x sen(1/x), si x 6= 0,
f (x) =
0, si x = 0;
Teorema 1.8 Sean a, b ∈ R, con a < b, y f : [a, b] → R una función continua en [a, b] tal
que f (a)f (b) ≤ 0. Entonces, existe α ∈ [a, b] tal que f (α) = 0.
6 Cálculo Numérico I.
Definición 1.12 Un método iterativo es un proceso constructivo que genera una sucesión
{xk }k≥0 . Supongamos dados x0 ∈ R un punto y G : D ⊆ R → R una función. Un método
iterativo de un paso (o de un punto inicial) es un método iterativo que genera una sucesión
por recurrencia mediante la fórmula
(
x0 ∈ R dado,
(1.5)
xk+1 = G(xk ), ∀k ≥ 0.
Ası́ pues, un método iterativo de un paso depende de la fórmula (1.5) que se utilice, y
también del punto inicial x0 que se tome. Cuando lo planteamos, el método iterativo debe
dar respuesta a las siguientes cuestiones:
1. Bien definido: El primer problema que se presenta con todo método iterativo de
un paso es saber si partiendo de x0 , con el esquema (1.5) se construye una verdadera
sucesión. Ası́ por ejemplo, si consideramos la sucesión definida por recurrencia mediante
la fórmula
3
xk+1 = 3 − , k ≥ 0,
xk
(G(x) = 3 − 3/x) y partimos de x0 = 2, es inmediato ver que se van obteniendo
sucesivamente, x1 = 3/2, x2 = 1, x3 = 0, y en consecuencia x4 no está definida. En
consecuencia, en este caso diremos que el método iterativo está mal definido.
2. Convergencia del método: Una vez que el método iterativo proporciona una suce-
sión {xk }k≥0 cabe plantearse si la sucesión es convergente. Por ejemplo, si consideramos
x0 = −1 y consideramos (1.5) con
(1 + x)π
G(x) = cos ,
2
En este Tema vamos estudiar dos métodos iterativos de un paso para los que responde-
remos a estas cuestiones.
Observación 1.13 Es importante resaltar que el método iterativo (1.5) está bien definido
cuando se puede demostrar que los puntos xk que va generando están en el dominio de G
para cualquier k ≥ 0. En particular el método iterativo de un paso estará bien definido si la
función G satisface imag (G) ⊆ dom (G) ≡ D.
Definición 1.14 1. Se dice que el método iterativo dado por la fórmula (1.5) tiene la
propiedad de convergencia global hacia α ∈ R en D ⊂ R, si para todo dato inicial
x0 ∈ D la sucesión {xk }k≥0 está bien definida, {xk }k≥0 ⊂ D y es convergente hacia α.
2. Se dice que el método iterativo (1.5) tiene la propiedad de convergencia local hacia
α ∈ R si existe un número δ > 0 tal que para cualquier x0 ∈ [α − δ, α + δ] ∩ D la
sucesión {xk }k≥0 está bien definida, {xk }k≥0 ⊂ [α − δ, α + δ] ∩ D y es convergente
hacia α.
3. Se dice que α es un punto atractivo para el método iterativo (1.5) si el método iterativo
tiene convergencia, al menos local, en D hacia el cero α. En caso contrario, diremos
que α es un punto repulsivo para dicho método.
Obsérvese que distintas raı́ces de una misma ecuación pueden ser unas atractivas y otras
repulsivas para un mismo método iterativo (veremos ejemplos de ello en clase de problemas).
Otra propiedad importante de los métodos iterativos es el llamado orden de conver-
gencia del método. En cierto sentido, el orden de convergencia proporciona una medida de
la velocidad de convergencia de la sucesión construida con el método hacia su lı́mite.
8 Cálculo Numérico I.
Definición 1.15 Sean {xk }k≥0 una sucesión de números reales, p > 0 un número real y
α ∈ R tal que lı́m xk = α. Se dice que la sucesión tiene orden de convergencia al menos p si
existen un número entero k0 ≥ 0 y un número real C > 0 (0 < C < 1 si p = 1) tales que
Observación 1.16 Es interesante resaltar que no toda sucesión convergente tiene asignado
un orden de convergencia en el sentido de la definición anterior. Por ejemplo, la sucesión
1 1 1 1 1 1
0, 1, 1, , 2 , , 3 , ..., , n , ...,
2 2 3 3 n n
converge a cero, pero
|x2k+1 | 1/(k + 1)
= ,
|x2k |p 1/k pk
sucesión que converge a +∞ cuando k → ∞, cualquiera que sea p > 0.
Proposición 1.17 Sean {xk }k≥0 una sucesión de números reales, p > 0 un número real y
α ∈ R tal que lı́m xk = α y con xk 6= α para todo k ≥ 0. Entonces, la sucesión {xk }k≥0 tiene
orden de convergencia al menos p si y sólo si
|xk+1 − α|
lı́m sup = L < +∞ (L < 1 si p = 1). (1.6)
|xk − α|p
|xk+1 − α|
≤C para todo k ≥ k0 .
|xk − α|p
En consecuencia
|xk+1 − α|
lı́m sup =L≤C
|xk − α|p
de donde deducimos (1.6).
Recı́procamente, supongamos que se tiene (1.6). Fijemos ε > 0 (con L + ε < 1 si p = 1).
Entonces, utilizando las propiedades de los lı́mites superiores, existe un entero k0 (ε) ≥ 1 tal
que
|xk+1 − α|
≤ L + ε para todo k ≥ k0 (ε).
|xk − α|p
Basta tomar C = L + ε para deducir que {xk }k≥0 tiene orden de convergencia al menos p.
Esto acaba la prueba.
|xk+1 − α|
Obsérvese que en el caso en que exista lı́m , la proposición anterior afirma que
|xk − α|p
la sucesión {xk }k≥0 tiene orden de convergencia al menos p si y sólo si
|xk+1 − α|
lı́m = L < +∞ (L < 1 si p = 1).
|xk − α|p
Definición 1.18 Sean {xk }k≥0 ⊂ R una sucesión, p > 0 un número real y α ∈ R tal que
lı́m xk = α. Supongamos que xk 6= α para cualquier k ≥ 0. Entonces, se dice que la sucesión
tiene orden de convergencia (exactamente) p si existe
|xk+1 − α|
lı́m = L ∈ (0, +∞) (L ∈ (0, 1) si p = 1). (1.7)
|xk − α|p
En tal caso, a la constante L definida por (1.7) se le denomina la constante asintótica del
error.
Observación 1.19 Obsérvese que si una sucesión {xk }k≥0 converge hacia α con orden de
convergencia p (y xk 6= α para cualquier k ≥ 0), entonces para cualquier q > 0 existe
|xk+1 − α| +∞ si q > p,
lı́m = L si q = p,
|xk − α|q
0 si q < p.
Por otro lado, dada una sucesión {xk }k≥0 convergente hacia α, en general ésta no tiene
un orden de convergencia en el sentido de la Definición 1.18 (ver ejemplos más abajo).
2. Consideremos ahora la sucesión {xk }k≥1 con xk = 21k . Es fácil comprobar que la sucesión
converge hacia 0 con orden de convergencia exactamente 1. Efectivamente
|xk+1 | 1
lı́m = ∈ (0, 1).
|xk | 2
Como ya hemos dicho, el orden de convergencia de una sucesión mide la velocidad de con-
vergencia de la sucesión hacia su lı́mite. En el siguiente ejemplo pondremos de manifiesto
este hecho:
10 Cálculo Numérico I.
Ejemplo 1.21 Consideremos la sucesión {xk }k≥0 definida por recurrencia (algoritmo de
Heron para x = 1),
x2 + 1
x0 = 2, xk+1 = k , ∀k ≥ 0.
2xk
1. En primer lugar, es fácil ver que la sucesión {xk }k≥0 está bien definida. Efectivamente,
por inducción no es difı́cil probar que
xk > 0, ∀k ≥ 0.
2. Veamos que {xk }k≥0 es convergente probando que la sucesión es monótona y acotada.
Obsérvese que
1 − x2k
xk+1 − xk = , ∀k ≥ 0,
2xk
ası́, para comprobar la monotonı́a de la sucesión, estudiemos la cantidad 1−x2k . Ası́, si k ≥ 1,
2 2
x2k−1 + 1 x2k−1 − 1
1− x2k =1− =− .
2xk−1 2xk−1
Utilizando las igualdades anteriores es fácil ver (por inducción) que la sucesión es monóto-
na decreciente. Por otro lado, de la segunda igualdad también deducimos
1 ≤ xk ≤ x0 = 2, ∀k ≥ 0,
|xk+1 − 1| 1 1
lı́m 2
= lı́m = .
|xk − 1| 2xk 2
Como hemos dicho anteriormente este orden de convergencia mide la velocidad con la que
la sucesión se acerca hacia su lı́mite. Veremos esto en el siguiente punto.
4. Calculemos cuántas iteraciones k son necesarias para que el error |xk − 1| sea menor que
10−4 . Teniendo en cuenta que xk ≥ 1 para todo k ≥ 0, es fácil ver la desigualdad
|xk − 1| 1 1
2
= ≤ , ∀k ≥ 1,
|xk−1 − 1| 2xk−1 2
es decir,
1
|xk − 1| ≤ |xk−1 − 1|2 , ∀k ≥ 1.
2
11 1 1 2k−1 1 1 1
|xk − 1| ≤ 2 ··· k−2 |x1 − 1| = 2k−1 −1 2k = , ∀k ≥ 1.
23(2 )−1
2
22 22 22 2 2 k−1
Basta por tanto tomar k = 4. Ası́, en la cuarta iteración del método podemos asegurar que
el error cometido es menor que 10−4 . (En este ejemplo tan sencillo es posible calcular el error
exacto que, de hecho, es mejor que la cota obtenida:
x1 = 1, 25 y |x1 − 1| = 0′ 25,
x
2 = 1, 025 y |x3 − 1| = 0′ 25 · 10−1 ,
x3 = 1, 0003048780488 · · · y |x3 − 1| = 0′ 3049 · 10−3 ,
x4 = 1′ 00000004647 . . . y |x4 − 1| = 0′ 4647 · 10−7 ).
2. Método de bisección
El método de bisección (o de dicotomı́a) es un método de aproximación de raı́ces de una
función que está basado en el Teorema de Bolzano. Para presentarlo supongamos dados un
intervalo cerrado [a, b] ⊂ R (con a < b) y una función f : [a, b] → R continua en [a, b] y
consideremos la ecuación (1.1). Supondremos en esta sección las hipótesis
Hipótesis: Supongamos que f es continua en [a, b] y f (a)f (b) < 0. Como aplicación del
Teorema de Bolzano (Teorema 1.8), sabemos que existe un punto α ∈ (a, b) tal que f (α) = 0.
Supongamos que dicho cero α es el único cero de f en [a, b].
Bajo las condiciones precedentes, vamos a construir una sucesión de intervalos encajados
que siempre contienen al punto α. Para ello razonamos del siguiente modo:
Etapa 1. Tenemos que f (a0 )f (b0 ) = f (a)f (b) < 0. Sea
a0 + b0
x0 = .
2
12 Cálculo Numérico I.
Tanto en el caso a) como en el b), el intervalo [a1 , b1 ] construido satisface [a1 , b1 ] ⊂ [a0 , b0 ],
f (a1 )f (b1 ) < 0 (y por tanto, α ∈ (a1 , b1 )) y
1 1
b1 − a1 = (b0 − a0 ) = (b − a).
2 2
ak−1 + bk−1
xk−1 = .
2
Si f (xk−1 ) = 0, ya hemos encontrado la solución α = xk−1 .
Si f (xk−1 ) 6= 0, entonces se pueden presentar dos casos:
b) Si f (ak−1 )f (xk−1 ) > 0, entonces f (xk−1 )f (bk−1 ) < 0, y tomamos ak = xk−1 y bk = bk−1 .
1
bk − ak = (bk−1 − ak−1 ), ∀k ≥ 1.
2
En particular, deducimos que la sucesión {ak }k≥0 es monótona creciente, {bk }k≥0 es monótona
decreciente y
1 1
0 ≤ α − ak ≤ k
(b − a) y 0 ≤ bk − α ≤ k (b − a) ∀k ≥ 0.
2 2
Por tanto lı́m ak = α y lı́m bk = α.
Después de haber efectuado k pasos, se puede tomar como aproximación de la raı́z α de
ak + b k
f en (a, b) el valor xk = que, evidentemente satisface lı́m xk = α. De hecho, podemos
2
acotar el error absoluto cometido por
1
|xk − α| ≤ (b − a).
2k+1
Tenemos ası́ descrito el método de bisección o dicotomı́a.
Observación 2.1 El método de bisección presenta varios inconvenientes. Es lento (de he-
cho, la convergencia del algoritmo no llega a ser lineal), ya que no aprovecha ninguna otra
propiedad de f que no sea el signo de la misma. Es un método en que pasa desapercibido si
se acerca uno mucho o no a la solución, y es computacionalmente costoso, ya que hay que
efectuar muchas comparaciones.
Sin embargo, el método de bisección presenta también algunas ventajas. Ası́, es siempre
convergente en el intervalo en el que se aplica. Además, tiene una expresión explı́cita de la
cota del error (lo que permite saber a priori el número de etapas k a aplicar para obtener
una aproximación de la raı́z α con una precisión ε > 0 prefijada).
x = g(x). (EP F )
Definición 3.1 Sea α ∈ [a, b]. Se dice que α es un punto fijo de g si g(α) = α, es decir, si
α es solución de la ecuación (EP F ).
Los puntos fijos de g geométricamente corresponden a las abcisas de los puntos de corte
entre la gráfica de la recta y = x y la gráfica y = g(x).
Ası́, el método de las aproximaciones sucesivas (M AS) aplicado a la ecuación (EP F )
tiene la forma: (
x0 ∈ [a, b] dado,
(M AS)
xk+1 = g(xk ), ∀k ≥ 0.
Obsérvese en primer lugar que para que (M AS) esté bien definido se debe tener que xk ∈ [a, b]
para cualquier k ≥ 0.
Comencemos analizando la existencia y/o unicidad de puntos fijos de la función g. Se
tiene:
Observación 3.3 Es fácil comprobar que una condición suficiente para que se satisfaga (3.8)
es que g([a, b]) ⊆ [a, b].
14 Cálculo Numérico I.
Demostración. Supongamos que α1 , α2 ∈ [a, b] son dos puntos fijos distintos de g en [a, b].
Entonces,
0 < |α1 − α2 | = |g(α1 ) − g(α2 )| ≤ L|α1 − α2 | < |α1 − α2 |,
donde L ∈ [0, 1) es una constante de contractividad de g en [a, b]. Evidentemente esto es
absurdo.
Una condición suficiente para que una función sea contractiva en un intervalo [a, b], viene
dada en la siguiente proposición:
Proposición 3.8 Sea g : [a, b] → R una función continua en el intervalo [a, b] y derivable
en (a, b). Supongamos que satisface la condición
Demostración. Sean x, y ∈ [a, b]. Aplicando el Teorema del Valor Medio a la función g
deducimos que existe un punto z ∈ (a, b) tal que
2. El método de aproximaciones sucesivas (M AS) está bien definido en [a, b], i.e., para
todo x0 ∈ [a, b] se tiene que {xk }k≥0 ⊂ [a, b].
Lk
|xk − α| ≤ |x1 − x0 | ∀k ≥ 1 y ∀x0 ∈ [a, b] (cota a posteriori). (3.12)
1−L
Demostración. En primer lugar, al ser g una función contractiva en el intervalo [a, b]
deducimos que g es también continua en [a, b]. Veamos la prueba de los puntos del enunciado:
El primer punto es consecuencia directa de las Proposiciones 3.2 y 3.7 (véase la Obser-
vación 3.3). Por otro lado, teniendo en cuenta la hipótesis g([a, b]) ⊆ [a, b], es fácil deducir
que para cualquier x0 ∈ [a, b] el método está bien definido y satisface
16 Cálculo Numérico I.
Obsérvese que en la desigualdad anterior estamos usando de manera reiterada que, para
cualquier k ≥ 0, xk ∈ [a, b] y que g es contractiva en [a, b].
Teniendo en cuenta que L ∈ [0, 1), deducimos que lı́m xk = α y, por tanto, tenemos que
el método (M AS) es globalmente convergente en el intervalo [a, b]. Por otro lado, tenemos
De aquı́ deducimos que el método tiene orden de convergencia al menos 1. Tenemos probado
el punto 3 y la desigualdad (3.11).
Para finalizar probemos la estimación (3.12). Sea m ≥ 0 un número natural. Entonces,
(de nuevo hemos usado que, para cualquier k ≥ 0, xk ∈ [a, b] y que g es contractiva en
[a, b]). Por otro lado, si tomamos k, m ∈ N con m > k, aplicamos la desigualdad triangular
y tenemos en cuenta la desigualdad anterior, podemos escribir
|xm − xk | ≤ |xm − xm−1 | + |xm−1 − xm−2 | + · · · + |xk+2 − xk+1 | + |xk+1 − xk |
k
L − Lm
m−1 m−2 k+1 k
≤ L +L + ··· + L + L |x1 − x0 | = |x1 − x0 |
1−L
Lk
≤ |x1 − x0 |.
1−L
Sabemos que lı́mm→∞ xm = α, ası́, si en la desigualdad precedente tomamos lı́mm→∞ obten-
dremos la estimación (3.12). Esto finaliza la prueba.
Observación 3.10 Las acotaciones del error dadas en las desigualdades (3.11) y (3.12)
muestran que la convergencia del método será mejor cuanto más próxima esté la constante
de contractividad L a 0.
Ejemplo 3.11 Consideremos la ecuación de punto fijo e−x = x en el intervalo [1/2, log 2]
y veamos que este intervalo es un intervalo de convergencia global para (M AS), es decir,
comprobemos que g(x) = e−x satisface en [1/2, log 2] las condiciones del Teorema 3.9.
En primer lugar, la función g ∈ C 1 [1/2, log 2], es decir, g es continua y derivable en
[1/2, log 2] y g ′ es continua en [1/2, log 2]. De hecho,
g([1/2, log 2]) = [g(log 2), g(1/2)] = [1/2, e−1/2 ] ⊂ [1/2, log 2].
Tenemos ası́ una de las hipótesis del Teorema 3.9 que hay que comprobar.
Veamos ahora que g es contractiva en [1/2, log 2] y calculemos una constante de contrac-
tividad asociada. Para ello, aplicaremos la Proposición 3.8:
Ası́, garantizamos que el error sea menor que 10−3 si calculamos k tal que
√ √
2− e −3 (2 − e) 103
√ ≤ 10 ⇐⇒ k ≥ 2 log √ = 11′ 2 . . .
2( e − 1)ek/2 2( e − 1)
En concreto, si tomamos k = 12 y aproximamos α por
x12 = 0′ 567067351853728 . . .
|g ′ (α)| < 1.
Entonces, α es un punto atractivo para (M AS), es decir, existe ρ ∈ (0, δ) tal que para
cualquier x0 ∈ [α − ρ, α + ρ] (M AS) está bien definido y genera una sucesión {xk }k≥0 que
satisface lı́m xk = α. Además, existe una constante L ∈ [0, 1) (que depende de ρ y |g ′ (α)|)
tal que
|xk − α| ≤ Lk |x0 − α| ∀k ≥ 0 y ∀x0 ∈ [α − ρ, α + ρ],
Lk
|xk − α| ≤ |x1 − x0 | ∀k ≥ 1 y ∀x0 ∈ [α − ρ, α + ρ].
1−L
Demostración. La prueba es una consecuencia del Teorema 3.9 aplicado en un intervalo
(que tendremos que encontrar) [α − ρ, α + ρ]. Como |g ′ (α)| < 1, existe ρ ∈ (0, δ) tal que
g ∈ C 1 ([α − ρ, α + ρ]) y
|g ′ (x)| < 1, ∀x ∈ [α − ρ, α + ρ].
Como consecuencia de la Proposición 3.8 obtenemos que g es contractiva en el intervalo
[α − ρ, α + ρ] y
18 Cálculo Numérico I.
Proposición 3.13 Sea I ⊂ R un intervalo abierto y g : I → R una función tal que existe
α ∈ I verificando g(α) = α. Supongamos que existe δ > 0 tal que (α − δ, α + δ) ⊂ I y
g ∈ C 1 (α − δ, α + δ). Supongamos también que para una constante C > 1 se tiene
|g ′ (x)| ≥ C ∀x ∈ (α − δ, α + δ).
Obsérvese que podemos seguir aplicando el razonamiento anterior (la sucesión satisface
{xk }k≥0 ⊂ [α − ρ, α + ρ]), obteniendo
Al ser C > 1 y x0 6= α obtenemos que lı́m |xk − α| = ∞ y esto es, evidentemente absurdo.
Tenemos ası́ la prueba.
Como hemos comentado anteriormente, (M AS) es un método iterativo de orden de con-
vergencia al menos 1 (lineal). En algunos casos el orden de convergencia es mayor. Veamos
esto en el siguiente resultado:
1. Si m ≥ 2, g ∈ C m (I) y
2. Si m ≥ 1, g ∈ C m (I),
(con |g ′ (α)| < 1 si m = 1), entonces la sucesión {xk }k≥0 generada por el (M AS)
cumple que, o bien existe k0 ≥ 0 tal que xk = α para todo k ≥ k0 , o bien xk 6= α para
todo k ≥ 0 y dicha sucesión tiene orden de convergencia exacta m hacia α.
20 Cálculo Numérico I.
Sea h : [a, b] → R una función definida en [a, b] tal que h(x) 6= 0 en el intervalo [a, b].
Evidentemente la ecuación (1.1) equivale a
es decir, equivale a (EP F ) para la función g : [a, b] → R dada por g(x) = x − h(x)f (x).
La idea del método de Newton consiste en determinar h de tal modo que al aplicar el
(M AS) a la ecuación (EP F )h , resulte un método convergente de al menos segundo orden.
Para ello, teniendo en cuenta el Teorema 3.14, parece natural pedir que se tenga g ∈ C 2 [α −
ρ, α + ρ] (con ρ > 0 tal que [α − ρ, α + ρ] ⊆ [a, b]) y g ′ (α) = 0. Teniendo en cuenta que
g ′ (x) = 1 − h′ (x)f (x) − h(x)f ′ (x) y que f (α) = 0, deducimos que h ha de satisfacer
h(α)f ′ (α) = 1.
Si suponemos que f ′ (x) 6= 0 para cualquier x en [a, b], basta tomar como función h(x) =
1/f ′ (x). Ası́, la anterior ecuación (EP F )h se escribe
f (x)
x− = x,
f ′ (x)
2. Obsérvese que para poder aplicar el método de Newton en el intervalo [a, b] es necesario
que la función f sea al menos derivable en [a, b] y que f ′ (x) 6= 0 para todo x ∈ [a, b].
Teorema 4.2 (Convergencia global del (M N )) Sean a, b ∈ R, con a < b, y f ∈ C 2 ([a, b])
tal que
(iii) el signo de f ′′ (x) es constante en [a, b] (es decir, o f ′′ (x) ≥ 0 para todo x ∈ [a, b], o
f ′′ (x) ≤ 0 para todo x ∈ [a, b]),
|f (c)|
≤ b − a.
|f ′ (c)|
Entonces se tiene:
1. La función f tiene una única raı́z α en [a, b], i.e., existe un único α ∈ [a, b] tal que
f (α) = 0.
2. El (M N ) está bien definido, i.e. para todo x0 ∈ [a, b] se tiene {xk }k≥0 ⊂ [a, b].
3. El (MN) es globalmente convergente en [a, b] hacia α, i.e., para todo x0 ∈ [a, b] se tiene
que existe lı́m xk = α.
M2
|xk+1 − α| ≤ |xk − α|2 , ∀k ≥ 0, (4.15)
2m1
M2
|xk+1 − α| ≤ |xk+1 − xk |2 , ∀k ≥ 0. (4.16)
2m1
22 Cálculo Numérico I.
A partir de ahora supondremos que f (a) < 0, f (b) > 0 y f ′′ (x) ≤ 0 para todo x ∈ [a, b].
En tal caso, por (ii) obtenemos que f ′ (x) > 0 para todo x ∈ [a, b] y, al ser f ′′ (x) ≤ 0, f ′ es
no creciente en [a, b]. Deducimos que la hipótesis (iv) se reescribe: c = b y
f (b)
≤ b − a. (4.17)
f ′ (b)
f (a)
g(a) = a − > a,
f ′ (a)
Si x ∈ [α, b], entonces g(b) ≤ g(x) ≤ g(α) = α < b. Como c = b, de (4.17) deducimos
f (b)
g(b) = b − ≥ a.
f ′ (b)
También en este caso deducimos que a ≤ g(x) ≤ α < b para cada x ∈ [α, b].
y está acotada superiormente. Efectivamente, si x0 ∈ [a, b], usando (4.18) obtenemos que
x1 = g(x0 ) ∈ [a, α]. Utilizando de nuevo (4.18) y un razonamiento de inducción conseguimos
f (xk )
xk+1 = g(xk ) = xk − ≥ xk .
f ′ (xk )
En la fórmula anterior hemos utilizado que {xk }k≥1 ⊂ [a, α] y que f (x) ≤ 0 en [a, α].
Resumiendo, la sucesión {xk }k≥1 ⊂ [a, α] es monótona creciente y está acotada superior-
mente. Ası́, existe el lı́mite
lı́m xk := α ≤ α.
En tal caso, tomando lı́mites en la igualdad
f (xk )
xk+1 = xk − ,
f ′ (xk )
obtenemos
f (α)
α=α− ,
f ′ (α)
es decir, f (α) = 0 o, equivalentemente, α = α. Obtenemos ası́ la prueba del tercer punto del
enunciado.
4. Estudiemos el orden de convergencia. Aunque g ′ (α) = 0 (lo que sugiere que el orden
de convergencia del método será al menos cuadrático), no podemos aplicar el Teorema 3.14
pues, en principio g no pertenece a C 2 ([a, b]). Estudiaremos directamente el error absoluto
del método:
De la expresión de xk+1 deducimos
Por otra parte, realizando un desarrollo de Taylor de f (α) hasta el orden 2 (obsérvese que
f ∈ C 2 ([a, b]) también obtenemos:
1
0 = f (α) = f (xk ) + f ′ (xk )(α − xk ) + f ′′ (θk )(α − xk )2 , ∀k ≥ 0,
2
donde θk es un punto situado entre α y xk (y, por tanto en [a, b]). Restando las dos expresiones
obtenemos
1
f ′ (xk )(α − xk+1 ) + f ′′ (θk )(α − xk )2 = 0.
2
Despejando xk+1 − α, tomando valores absolutos y usando (4.14) deducimos (4.15). En
particular esta desigualdad (4.15) prueba que el método de Newton (M N ) es de orden al
menos cuadrático.
24 Cálculo Numérico I.
donde θbk+1 es un punto intermedio entre xk+1 y la raı́z α. Igualando estas dos fórmulas y
despejando xk+1 − α obtenemos:
f ′′ (θ̄k )
xk+1 − α = (xk+1 − xk )2
b
2f (θk+1 )
′
Tomando valores absolutos y usando (4.14) obtenemos (4.16). Esto finaliza la prueba del
resultado.
Corolario 4.4 (Regla de Fourier) Consideremos una función f ∈ C 2 ([a, b]) tal que sa-
tisface las hipótesis (i), (ii) y (iii) del Teorema 4.2. Sea x0 = a o x0 = b tal que se tiene2
Entonces, la sucesión {xk }k≥0 generada por el método (M N ) está bien definida, es monótona,
{xk }k≥0 ⊂ [a, b] y es convergente hacia α (la única raı́z de f en [a, b]) con orden de conver-
gencia al menos cuadrática. Además, se tienen las estimaciones de error (4.15) y (4.16).
f (x)
g(x) = x − , ∀x ∈ [a, b].
f ′ (x)
f (x)
g(x) = x − , ∀x ∈ (α − δ, α + δ),
f ′ (x)
26 Cálculo Numérico I.
Observación 4.6 Observemos que si en la parte final del resultado anterior tuviéramos
f ′′ (α) = 0, cabrı́a esperar “mayor convergencia” , del tipo al menos p con p > 2. Si fuera el
caso, serı́a convergencia supercuadrática.
Concretamente, si f ∈ C 3 , la convergencia serı́a de orden al menos 3. En efecto, de la
prueba anterior se deduce que
xk+1 − α 1 f ′′ (ξk )
=
(xk − α)2 2 f ′ (xk )
con ξk entre xk y α. Por tanto, |ξk − α| ≤ |xk − α|. Además, por el teorema del valor medio,
f ′′ (ξk ) = f ′′ (ξk ) − 0 = f ′′ (ξk ) − f ′′ (α) = f ′′′ (ck )(ξk − α),
donde ck es un valor entre ξk y α. Por tanto, de ambas expresiones concluimos que
|xk+1 − α| 1 |f ′′′ (ck )(ξk − α)| |f ′′′ (α)|
lı́m sup = lı́m sup ≤ .
|xk − α|3 2 |f ′ (xk )(xk − α)| 2|f ′ (α)|
Terminamos el Tema presentando dos variantes del método de Newton (M N ). Se trata
del método de la secante y del método regula falsi. Pasemos a describirlos brevemente sin
realizar un análisis de su convergencia:
Método de la secante: Este algoritmo es un método iterativo de dos pasos. Se trata
de una variación del método de Newton donde se construye el punto xk+1 como la
abscisa del punto de corte entre el eje OX y la recta secante a la curva y = f (x)
que pasa por los puntos (xk , f (xk )) y (xk−1 , f (xk−1 )) (recordemos que en el método
de Newton el punto xk+1 es la abscisa del punto de corte entre el eje OX y la recta
tangente que pasa por el punto (xk , f (xk ))). Ası́, este método tiene la forma:
x0 , x1 dados,
xk − xk−1 (M S)
xk+1 = xk − f (xk ) , ∀k ≥ 1.
f (xk ) − f (xk−1 )
Regula falsi: Se trata de una variante del método anterior y, en algún sentido, recuerda
al método de dicotomı́a (bisección). Supongamos dados x0 y x1 tales que x0 < x1 y
f (x0 )f (x1 ) < 0 y calculemos x2 como la abscisa del punto de corte entre el eje OX y la
secante a f que pasa por los puntos (x0 , f (x0 )) y (x1 , f (x1 )). Utilizando los tres puntos
x0 , x1 y x2 (x0 < x2 < x1 ) seleccionamos el subintervalo ([x0 , x2 ] ó [x2 , x1 ]) donde haya
un cambio de signo de f en los extremos. El nuevo punto x3 se construirı́a repitiendo
en el nuevo intervalo el proceso anterior. Evidentemente este nuevo algoritmo es un
método iterativo de dos pasos.
Referencias
[1] A. Aubanell, A. Benseny & A. Delshams, Útiles básicos de Cálculo Numérico, Labor,
Barcelona 1993.
[2] F. Garcı́a & A. Nevot, Métodos Numéricos, Universidad Pontificia de Comillas, Madrid,
1997.
[3] P. Henrici: Elementos de Análisis Numérico, John Wiley and Sons-Ed. Trillas, México,
1972.
[5] K.E. Atkinson, An introduction to Numerical Analysis, Wiley, New York 1978.
[6] R.L. Burden & J.D. Faires, Métodos Numérico, International Thomson Editores Spain
Paraninfo, Madrid, 2004.
Tema 3
1 Introducción
En este tema se estudian algunos métodos de resolución de sistemas de ecuaciones
lineales con el mismo número de ecuaciones que de incógnitas.
En concreto, vamos a tratar sobre la resolución de sistemas de ecuaciones de la
forma
a11 u1 + a12 u2 + ... + a1n un = b1 ,
a21 u1 + a22 u2 + ... + a2n un = b2 ,
.................................................., (1.1)
..................................................,
a u + a u + ... + a u = b ,
n1 1 n2 2 nn n n
donde Ae = (aeij )1≤i,j≤n , con los aeij números complejos, y eb es un vector de n com-
ponentes que son también números complejos.
En tal caso, la o las soluciones u que se buscan son también vectores cuyas n
componentes son números complejos.
El sistema (1.4) puede ser escrito como uno de 2n ecuaciones con coeficientes
reales y 2n incógnitas reales. Para ello, basta tener en cuenta que la matriz Ae y el
vector eb pueden ser escritos de manera única en la forma
Ae = A1 + A2 i, e
b = b1 + b2 i,
(A1 + A2 i)(u1 + u2 i) = b1 + b2 i,
es decir,
A1 u1 − A2 u2 + (A1 u2 + A2 u1 )i = b1 + b2 i,
sistema que es equivalente a
! !
A1 −A2 u1 b1
= .
A2 A1 u2 b2
A partir de ahora, todas las matrices que consideremos en este Tema serán
matrices reales, es decir, matrices de números reales. Recordemos que una matriz
n × n, A, se dice que es regular si su determinante |A| es distinto de cero, lo cual
recordemos que es equivalente a la existencia de la matriz inversa A−1 . A este
respecto, tenemos el resultado siguiente:
Cn = (n + 1)kn + n,
dn = n2 kn−1 + (2n − 1) + n2 ,
b) Se dice que el sistema (1.1) es triangular inferior si aij = 0 para todo 1 ≤ i <
j ≤ n, es decir, si todos los elementos aij de la matriz A que estén por encima
de la diagonal principal son nulos.
a11 u1 + a12 u2 + ... + a1,n−1 un−1 + a1n un = b1 ,
a22 u2 + ... + a2,n−1 un−1 + a2n un = b2 ,
..............................................,
(1.5)
..............................................,
an−1,n−1 un−1 + an−1,n un = bn−1 ,
ann un = bn ,
que tiene por matriz
a11 a12 ... a1,n−1 a1n
0 a22 ... a2,n−1 a2n
. .. .. ..
A=
.. . ... . . .
0 0 . . . an−1,n−1 an−1,n
0 0 ... 0 an,n
Evidentemente, |A| = a11 a22 . . . an−1,n−1 ann 6= 0, y por tanto aii 6= 0, para todo
1 ≤ i ≤ n. Por otra parte, está claro que la solución de (1.5) viene dada por el
siguiente algoritmo:
bn
un = ,
ann
1
un−1 = (bn−1 − an−1,n un ),
an−1,n−1
.................................................,
(1.6)
.................................................,
1
u2 = (b2 − a23 u3 − . . . − a2,n un ),
a22
1
u1 = (b1 − a12 u2 − . . . − a1,n un ).
a11
Al algoritmo (1.6) se le denomina algoritmo de subida o ascenso. Para llevarlo a
n(n − 1)
cabo hay que efectuar 1 + 2 + ... + (n − 1) = sumas, 1 + 2 + ... + (n − 1) =
2
n(n − 1)
productos, y n divisiones. En consecuencia, el número de operaciones que
2
n(n − 1)
necesita este algoritmo viene dado por 2 + n = n2 . Ası́ por ejemplo, si
2
n = 10, sólo hacen falta 100 operaciones para llevarlo a cabo.
Lo que hemos dicho del sistema triangular superior, puede ser dicho de manera
análoga del sistema triangular inferior
a11 u1 = b1 ,
a21 u1 + a22 u2 = b2 ,
..............................................,
(1.7)
..............................................,
an−1,1 u1 + an−1,2 u2 + ... + an−1,n−1 un−1 = bn−1 ,
an,1 u1 + an,2 u2 + ... + an,n−1 un−1 + ann un = bn ,
b1
u1 = ,
a11
1
u2 = (b2 − a21 u1 ),
a22
.............................................,
(1.8)
.............................................,
1
un−1 = (bn−1 − an−1,1 u1 − an−1,2 u2 − ... − an−1,n−2 un−2 ),
an−1,n−1
1
un = (bn − an,1 u1 − an,2 u2 − ... − an,n−1 un−1 ).
ann
Observación 1.5 Las matrices de coeficientes que suelen aparecer en las aplica-
ciones prácticas son, o llenas pero no grandes, o matrices huecas. De manera algo
imprecisa, por una matriz llena se entiende una en la que la mayor parte de sus
coeficientes son no nulos, y diremos que no es grande si es de orden menor que 30.
Una matriz hueca (sparse en inglés) es aquélla, siendo grande o no, en que la mayor
parte de sus coeficientes son nulos, estando la mayor parte de los no nulos en o por
encima de la diagonal principal.
Las matrices llenas pero no grandes aparecen en una gran variedad de problemas
de Estadı́stica, Fı́sica, Ingenierı́a, etc..., mientras que las huecas aparecen general-
mente en la resolución numérica de ecuaciones diferenciales.
En general, los métodos directos suelen estar bien adaptados a ambos tipos de
matrices, mientras que los métodos iterativos están mejor adaptados a las matrices
huecas.
2 El método de Gauss
Para el estudio del método de Gauss, procedemos en varias etapas.
etapa, lo primero que se hace es, mediante cambio de orden si hace falta, escribir el
sistema de tal manera que el coeficiente que multiplica a x1 en la primera ecuación
(el elemento a11 en la matriz asociada) sea no nulo, y a continuación, efectuando
la correspondiente combinación lineal con la primera ecuación, escribir un sistema
equivalente al de partida tal que los coeficientes que multiplican a x1 en la segunda
y posteriores ecuaciones (los elementos ai1 , 2 ≤ i ≤ n en la nueva matriz asociada)
sean todos nulos.
De esta forma, en una segunda etapa, se vuelve cambiar el orden en que se
escriben las n − 1 últimas ecuaciones, si es preciso, de tal forma que se obtenga
que el coeficiente que multiplica a x2 en la segunda ecuación (el elemento a22 en
la correspondiente matriz asociada) sea no nulo, y a continuación, efectuando la
correspondiente combinación lineal con la segunda ecuación, se obtiene un sistema
equivalente al de partida tal que los coeficientes que multiplican a x2 en la tercera
y posteriores ecuaciones (los elementos ai2 , 3 ≤ i ≤ n en la nueva matriz asociada)
sean todos nulos.
De manera general, en la etapa r ≤ n − 1 se vuelve cambiar el orden en que
se escriben las n − (r − 1) últimas ecuaciones, si es preciso, de tal forma que se
obtenga que el coeficiente que multiplica a xr en la r-ésima ecuación (el elemento
arr en la correspondiente matriz asociada) sea no nulo, y a continuación, efectuando
la correspondiente combinación lineal con la r-ésima ecuación, se escribe un sistema
equivalente al de partida tal que los coeficientes que multiplican a xr en la (r + 1)-
ésima y posteriores ecuaciones (los elementos air , r + 1 ≤ i ≤ n en la nueva matriz
asociada) sean todos nulos.
Procediendo de esta manera, al cabo de n − 1 etapas (como máximo) se obtiene
un sistema triangular superior, equivalente al de partida, que podemos resolver
mediante un algoritmo de subida.
Ası́ por ejemplo, consideremos el sistema
3u2 + 2u3 = 12
5u1 − 6u2 + 2u3 = −1
−4u1 + 2u2 + u3 = 3
Intercambiando la primera y la segunda ecuaciones, obtenemos
5u1 − 6u2 + 2u3 = −1
3u2 + 2u3 = 12
−4u1 + 2u2 + u3 = 3
sistema que ya tiene el primer coeficiente de la segunda ecuación nulo. Para conseguir
que el primer coeficiente de la tercera ecuación sea también nulo, basta sumarle a la
tercera ecuación la primera multiplicada por 4/5, obteniéndose como nuevo sistema,
equivalente al de partida,
5u1 − 6u2 + 2u3 = −1
3u2 + 2u3 = 12
14 13 11
− u2 + u3 =
5 5 5
Ahora, como el coeficiente de x2 en la segunda ecuación de este último sistema
es 3, no nulo, basta sumarle a la tercera ecuación la segunda multiplicada por (1/3) ·
(14/5), para obtener finalmente el sistema triangular superior
5u1 − 6u2 + 2u3 = −1
3u2 + 2u3 = 12
67 67
u3 =
15 5
que, en este sencillo caso, conduce a u3 = 3, u2 = 2 y u1 = 1.
Las operaciones que hemos efectuado en el ejemplo precedente pueden ser es-
critas, en términos de matrices, de la siguiente manera.
Para comenzar, partimos del sistema Au = b, siendo
0 3 2 12
(A|b) = 5 −6 2 −1
−4 2 1 3
Denotemos (A(1) |b(1) ) = (A|b). En una primera etapa, hemos efectuado dos opera-
(1)
ciones; una primera operación ha consistido en, dado que a11 , el elemento de la fila
1 y columna 1 de A(1) , es nulo, hemos intercambiado la primera ecuación con otra
(1)
en la que el primer coeficiente sea no nulo, en concreto, como a22 = 5 6= 0, hemos
escrito el sistema Ae(1) u = eb(1) , donde
5 −6 2 −1
e(1) e(1)
(A |b ) = 0 3 2 12
−4 2 1 3
Después, en una segunda etapa, y dado que el sistema ahora resultante tiene en la
(2)
segunda ecuación como coeficiente de u2 un número no nulo, es decir, dado que a22
Proposición 2.1 Sea A ∈ Mn×n (IR) una matriz regular. Entonces, dado cualquier
b ∈ IRn , el sistema Ax = b se puede transformar equivalentemente en otro con
matriz de coeficientes triangular superior, esto es, existen U ∈ Mn×n (IR) matriz
regular triangular superior, con det(A) = ±det(U ), y b̃ ∈ IRn tales que la única
solución de Ax = b es la solución de U x = b̃. Dicha transformación de (A|b) en
(U |b̃) se puede llevar a cabo en, a lo sumo, n − 1 pasos.
donde
1 0 0 ... 0 0
(1)
ae21
− 1 0 ... 0 0
(1)
ae11
.. .. .. . . .. ..
. . . . . .
(1)
E (1) = aen−1,1 .
− 0 0 ... 1 0
(1)
ae11
(1)
aen1
− (1)
0 0 ... 0 1
ae11
(2) (1)
con a11 = ae11 6= 0, y |A(2) | =
6 0.
Ahora, de manera general, supongamos que en la etapa r − 1 ≥ 1 se ha obtenido
el sistema A(r) u = b(r) , con A(r) matriz n × n tal que todos los elementos de las r − 1
primeras columnas que estén por debajo de la diagonal sean nulos, es decir, de la
forma,
(r) (r) (r) (r) (r)
a11 a12 ... a1,r−1 a1r ... a1n
(r) (r) (r) (r)
0 a22 ... a2,r−1 a2r ... a2n
. .. .. .. ..
.
. . ... . . ... .
(r) (r) (r)
0 0 . . . ar−1,r−1 ar−1,r ... ar−1,n
A(r) =
0 0 ... 0 a(r)
r,r ... a(r)
r,n
ar+1,n
(r) (r)
0 0 ... 0 ar+1,r ...
.. .. .. .. ..
. . ... . . ... .
0 0 ... 0 a(r)
n,r ... a(r)
n,n
(r)
Supongamos también que los elementos aii , para i = 1, ..., r − 1, son todos no
nulos, y que |A(r) | =
6 0.
En tal caso, como evidentemente
(r)
ar,r
. . . a(r)
r,n
(r) (r)
(r) (r) a . . . ar+1,n
|A(r) | = a11 . . . ar−1,r−1 r+1,r
. .. ,
.. ... .
(r)
an,r ... a(r)
n,n
(r)
está claro que al menos uno de los elementos ai,r , con i ≥ r, es no nulo.
10
(r)
Si arr denotamos (Ae(r) |eb(r) ) = (A(r) |b(r) ). Por el contrario, si a(r)
6= 0, rr = 0,
(r)
y air 6= 0, con i > r, entonces intercambiamos la fila r con la fila i de la matriz
(A |b ), y denotamos en este caso (Ae(r) |eb(r) ) a la matriz resultante. De esta forma,
(r) (r)
de nuevo, si denotamos
(r) e (r)
Ae(r) = (aeij ), b(r) = (ebi ),
siendo
Ir Θr×(n−r)
(r)
aer+1,r
0 ... − (r)
aerr
.. . . ..
E (r) =
. . . In−r
, (2.10)
a(r)
e
n,r
0 ... −
(r)
aerr
(r+1)
siendo aii 6= 0 para i = 1, ..., r, |A(r+1) | =
6 0.
Se observa, por tanto, que con este procedimiento la matriz A(n) es triangular
superior con determinante no nulo (de hecho, el determinante de A(n) es igual en
(n)
valor absoluto al determinante de A), con lo que en particular los aii son todos no
nulos, y se puede resolver el sistema A(n) u = b(n) por el algoritmo de subida.
Obsérvese también que la matriz A(r+1) se construye mediante las fórmulas
(r+1) (r)
aij = aeij , ∀ 1 ≤ i ≤ r, ∀ 1 ≤ j ≤ n, (2.11)
(r+1)
aij = 0, ∀ r + 1 ≤ i ≤ n, ∀ 1 ≤ j ≤ r, (2.12)
11
(r)
(r+1) (r) aei,r (r)
ai,j = aei,j − ae ,
(r) r,j
∀ r + 1 ≤ i ≤ n, ∀ r + 1 ≤ j ≤ n. (2.13)
aer,r
Análogamente, el vector b(r+1) se construye mediante las fórmulas
(r+1) (r)
bi = ebi , ∀ 1 ≤ i ≤ r, (2.14)
(r)
(r+1) (r) aei,r e(r)
bi = ebi − b ,
(r) r
∀ r + 1 ≤ i ≤ n. (2.15)
aer,r
12
13
con lo que si suponemos que se manejan tan sólo siete cifras decimales y que se
utiliza aproximación por redondeo, tanto 2 − 1/ε como 1 − 1/ε producen el número
−0.1 × 109 .
En tales circunstancias, el algoritmo (2.16) producirı́a u2 = 1, que es un valor
aproximado aceptable de dicha incógnita, pero entonces se obtendrı́a u1 = 0/ε = 0,
que es un valor muy alejado de la verdadera solución.
En este ejemplo, las dificultades desaparecen si se cambia de pivote, es decir, si
se intercambia primero el orden de las ecuaciones escribiendo el sistema
(
u1 + u2 = 2,
εu1 + u2 = 1,
y a continuación se aplica el método de Gauss, tomando como pivote 1, con lo que
obtenemos (
u1 + u2 = 2,
(1 − ε)u2 = 1 − 2ε,
y en consecuencia como algoritmo de subida
1 − 2ε
u2 = , u1 = 2 − u 2 ,
1−ε
que cuando ε es pequeño, por ejemplo como antes, produce u2 = 1, u1 = 1, que son
ambos valores aproximados aceptables de las verdaderas soluciones.
Para evitar situaciones como la del ejemplo precedente, es usual seguir alguna
estrategia en la elección del pivote.
Una de tales estrategias es la denominada de pivote parcial, que consiste en, en
cada etapa r, determinar ir ≥ r tal que
(r) (r)
|air r | = máx |air |,
r≤i≤n
(r)
e intercambiar (si ir > r) las filas r e ir , es decir, tomar como ae(r)
rr el elemento air r .
Para la mayor parte de los sistemas de ecuaciones lineales, la estrategia de pivote
parcial resulta ser suficiente.
Otra estrategia que se usa a veces es la de pivote total. Dicha estrategia consiste
en determinar en cada etapa r el elemento de mayor valor absoluto entre todos los
de la matriz A(r) que forman la submatriz formada por las filas y columnas entre la
r y la n. Es decir, se determinan r ≤ ir , jr ≤ n tales que
(r) (r)
|air jr | = máx |aij |,
r≤i,j≤n
14
A = LU (2.18)
3 El método de Gauss-Jordan
El método de Gauss-Jordan es una variante del método de Gauss, en el que se
busca llegar a un sistema de ecuaciones lineales, equivalente al de partida, tal que
15
la matriz de coeficientes sea diagonal, es decir tal que los únicos elementos no nulos
de la matriz sean los de la diagonal principal. Para ello, se procede de la manera
que describimos a continuación.
Al igual que en el método de Gauss, suponemos que queremos resolver el sistema
de n ecuaciones con n incógnitas Au = b, siendo A una matriz regular n × n de
coeficientes reales.
El método de Gauss-Jordan para llevar el sistema anterior a uno triangular su-
perior, se lleva a cabo en n etapas.
En una primera etapa, se actúa igual que en el método de Gauss, es decir, se
denota (A(1) |b(1) ) = (A|b), se elige i ≥ 1 tal que ai1 6= 0, y si i 6= 1, se intercambian la
fila 1 con la fila i de la matriz (A(1) |b(1) ), y se denota (Ae(1) |eb(1) ) a la matriz resultante.
A continuación, se define
(2) (1)
con a11 = ae11 6= 0, y |A(2) | =
6 0.
Ahora, de manera general, supongamos que en la etapa r − 1 ≥ 1 se ha obtenido
el sistema A(r) u = b(r) , con A(r) matriz n × n tal que todos los elementos de las r − 1
primeras columnas que no estén en la diagonal sean nulos, es decir, de la forma,
(r) (r) (r)
a11 0 ... 0 a1r ... a1n
(r) (r) (r)
0 a22 ... 0 a2r ... a2n
. .. .. .. ..
.
. . ... . . ... .
(r) (r) (r)
0 0 . . . ar−1,r−1 ar−1,r ... ar−1,n
A(r) = (r)
0 0 ... 0 a(r)
r,r ... ar,n
(r) (r)
0 0 ... 0 ar+1,r ... ar+1,n
.. .. .. .. ..
. . ... . . ... .
0 0 ... 0 a(r)
n,r ... a(r)
n,n
(r)
Supongamos también que los elementos aii , para i = 1, ..., r − 1, son todos no
nulos, y que |A(r) | =
6 0.
En tal caso, como evidentemente
(r)
ar,r
. . . a(r)
r,n
(r) (r)
(r) (r) a . . . ar+1,n
|A(r) | = a11 . . . ar−1,r−1 r+1,r
. .. ,
.. ... .
(r)
an,r ... a(r)
n,n
16
(r)
está claro que al menos uno de los elementos ai,r , con i ≥ r, es no nulo.
(r)
Se elige i ≥ r tal que ai,r 6= 0, se intercambian, si es preciso, la fila r con la fila i
de la matriz (A(r) |b(r) ), y se denota (Ae(r) |eb(r) ) a la matriz resultante. De esta forma,
de nuevo, si denotamos
(r) e (r)
Ae(r) = (aeij ), b(r) = (ebi ),
(r+1)
siendo aii 6= 0 para i = 1, ..., r, |A(r+1) | =
6 0.
Se observa por tanto, que con este procedimiento, la matriz A(n+1) es diagonal,
(n+1)
con todos los aii no nulos, y se puede resolver el sistema A(n+1) u = b(n+1) de
manera inmediata.
Obsérvese que si en una posible etapa n + 1 del método de Gauss-Jordan se mul-
(n+1)
tiplica cada fila i de (A(n+1) |b(n+1) ) por 1/aii , entonces el vector eb(n+1) resultante
es la solución del sistema Au = b.
17
Denotemos
2 1 −3 −1
(A|b) = −1 3 2 12
.
3 1 −3 0
Denotemos (A(1) |b(1) ) = (A|b), matriz que ya tiene el primer coeficiente de la
primera ecuación igual a 2, no nulo.
Sumando a la segunda fila la primera multiplicada por 1/2, y a la tercera fila la
primera multiplicada por −3/2, obtenemos la matriz
2 1 −3 −1
(2) (2)
(A |b ) = 0 7/2 1/2 23/2
.
0 −1/2 3/2 3/2
que en este sencillo caso conduce inmediatamente a la solución del sistema de partida,
u1 = 1, u2 = 3 y u3 = 2.
Dicha solución también se obtiene como la cuarta columna de la matriz (A(5) |b(5) )
obtenida dividiendo por 2 la primera fila de (A(4) |b(4) ), y dividiendo por 7/2 la
segunda y por 11/7 la tercera fila de la misma matriz, que conduce a
1 0 0 1
(5) (5)
(A |b ) = 0 1 0 3
0 0 1 2
18
Au(k) = e(k) 1 ≤ k ≤ n,
4 El método LU
Sabemos por la Proposición 2.2 que si A es una matriz regular n × n de coeficientes
reales tal que al aplicarle el método de Gauss, en cada etapa r el término a(r)
rr es
distinto de cero, entonces existe una matriz triangular inferior L, con la diagonal
principal formada por unos, y una matriz triangular superior U , de tal manera que
que se puede escribir como el producto de L por U , es decir, A = LU . En tal
caso, para resolver el sistema de ecuaciones lineales Au = b, se escribe LU u = b, y
denotando v = U u, se observa que lo que hay que hacer es resolver en primer lugar
por el algoritmo de descenso el sistema
Lv = b,
19
Pero L−1
2 L1 es una matriz triangular inferior con la diagonal principal formada por
unos, y U2 U1−1 es una matriz triangular superior, en consecuencia, de la última
igualdad, deducimos que
L−1 −1
2 L1 = U2 U1 = In ,
y por tanto L1 = L2 y U1 = U2 .
20
Donde A11 , L11 , U11 son matrices de dimensión n − 1 y A22 , L22 , U22 son escalares.
Por hipótesis de recurrencia, U11 es no singular, y la diagonal principal de L11
está formada por unos. La ecuación matricial (4.21) es equivalente a las siguientes
ecuaciones:
A11 = L11 U11
A12 = L11 U12
(4.22)
A21 = L21 U11
A22 = L21 U12 + L22 U22 .
Entonces para probar la descomposición para k = n hemos de resolver el sistema
anterior. Como A11 es de dimensión n − 1 y sus menores principales (que lo son
también de A) son no nulos, entonces, por hipótesis de inducción, se tiene A11 =
L11 U11 . Como L−1 −1
11 existe, (ya que su determinante es igual a 1) se tiene U12 = L11 A12
−1
y análogamente se tiene L21 = A21 U11 , ya que por hipótesis de recurrencia U11 es
no singular. Finalmente L22 = 1 ya que es un elemento de la diagonal de L y
U22 = A22 − L21 U12 . Por tanto el sistema (4.22) i.e. (4.21) tiene solución y se tiene
A = LU para k = n. !
L11 0
Observemos que la matriz L = es triangular inferior con diagonal
L21 L22
!
U11 U12
principal formada por unos, y la matriz U = es triangular superior
0 U22
no singular.
Según este argumento, la solución de (4.22) es única. De aquı́ se sigue la unicidad
de la descomposición A = LU .
21
A continuación, exponemos otro criterio para saber si una matriz admite facto-
rización LU de Doolittle.
Definición 4.5 Sea A = (aij ) una matriz cuadrada n × n. Se dice que A es diago-
nalmente dominante en sentido estricto si
n
X
|aii | > |aij | para toda fila i = 1, ..., n. (4.23)
j=1, j6=i
Demostración.-
a) Supongamos que |A| = 0. En tal caso, existe w ∈ IRn , w 6= 0, tal que Aw = 0.
Sea 1 ≤ k ≤ n tal que |wk | = máx |wj | =
6 0.
1≤j≤n
n
X
Como akj wj = 0, despejando tenemos
j=1,
n
X
akk wk = − akj wj ,
j=1, j6=k
y por lo tanto
n
X
|akk ||wk | ≤ |akj ||wj |,
j=1, j6=k
con lo que
n
X Xn
|wj |
|akk | ≤ |akj | ≤ |akj |,
j=1, j6=k |wk | j=1, j6=k
en contradicción con el hecho de que A es diagonalmente dominante en sentido
estricto.
b) Puesto que A es diagonalmente dominante en sentido estricto, es inmediato
que cada submatriz principal Ar es también diagonalmente dominante en sentido
estricto. Gracias entonces al apartado anterior, los determinantes principales son
todos no nulos, por lo que basta tener en cuenta el Teorema 4.3 para concluir con
este apartado.
22
1 0 ... 0 0 u11 u12 ... u1,n−1 u1n
l21 1 ... 0
0 0 u22 ... u2,n−1 u2n
.. .. .. .. . .. .. ..
.
..
= . . ... . ,
. ... . .
ln−1,1 ln−1,2 ... 1 0 0 0 . . . un−1,n−1 un−1,n
ln,1 ln,2 . . . ln,n−1 1 0 0 ... 0 un,n
identificando los elementos de la primera fila de A con los correspondientes de LU ,
y los de la primera columna de A con los correspondientes de LU , obtenemos
a1j
= u1j , j = 1, ..., n,
ai1
ai1 = li1 u11 ⇒ li1 = , i = 2, ..., n.
u11
Identificando a continuación los elementos de la segunda fila de A con los correspon-
dientes de LU , y los de la segunda columna de A con los correspondientes de LU ,
obtenemos
a2j
= l21 u1j + u2j ⇒ u2j = a2j − l21 u1j , j = 2, ..., n,
1
ai2 = li1 u12 + li2 u22 ⇒ li2 = (ai2 − li1 u12 ), i = 3, ..., n.
u22
Y en general, si suponemos conocidas las k−1 primeras filas de U y las k−1 primeras
columnas de L, entonces, identificando los elementos de la k-ésima fila de A con los
correspondientes de LU , y los de la k-ésima columna de A con los correspondientes
de LU , obtenemos
akj = lk1 u1j + ... + lk,k−1 uk−1,j + ukj
k−1
X
⇒ u = a − lkr urj , j = k, ..., n,
kj kj
r=1
aik = li1 u1k + ... + li,k−1 uk−1,k + lik ukk
!
k−1
X
1
⇒ lik =
aik − lir urk , i = k + 1, ..., n.
u kk r=1
Obsérvese que el cálculo anterior puede ser hecho en paralelo, lo cual redunda
en un ahorro considerable de tiempo. El número de operaciones necesarias para
llevar a cabo el método de cálculo expuesto es del mismo orden que en el de Gauss.
El método de Gauss suele ser el mejor para resolver un sistema concreto, pero el
método LU es preferible si se trata de resolver varios sistemas lineales con la misma
matriz A y distintos b, ya que una vez se factoriza A, todos los sistemas se resuelven
con un ahorro considerable de tiempo en los cálculos.
Como ejercicio, se propone que se encuentre la factorización LU de la matriz
6 2 1 −1
2 4 1 0
A=
.
1 1 4 −1
−1 0 −1 3
23
con
e = LD
L f−1
1 0 ... 0 0 u11 0 ... 0 0
l21 1 ... 0
0 0 u22 ... 0 0
.. .. .. .. . .. .. ..
= . . ... . . .
. . ... . .
ln−1,1 ln−1,2 ... 1 0 0 0 . . . un−1,n−1
ln,1 ln,2 . . . ln,n−1 1 0 0 ... 0 un,n
u11 0 ... 0 0
l u u22 ... 0 0
21 11
.. .. .. ..
=
. . ... . .
,
ln−1,1 u11 ln−1,2 u22 ... un−1,n−1 0
ln,1 u11 ln,2 u22 . . . ln,n−1 un−1,n−1 unn
24
A = LU ⇒ A = A∗ = (LU )∗ = U ∗ L∗ ,
y por tanto
e = U ∗,
L Ue = L∗ .
5 El método de Cholesky
En esta sección vamos a estudiar un caso particular de factorización LU , en el que
no vamos a pedir que los elementos de la diagonal principal de L sean unos, y U va
a coincidir con L∗ , la traspuesta de L.
A este respecto, observemos que se tiene el siguiente resultado.
Proposición 5.1 Sea A una matriz n × n simétrica y regular que admita factori-
zación LU . Entonces existe una matriz diagonal D tal que
A = LDL∗ . (5.24)
Si además dii > 0 para todo i = 1, .., n, entonces, denotando por D1/2 a la matriz
diagonal cuyos elementos de la diagonal principal sean las raı́ces (dii )1/2 , y definiendo
B = LD1/2 , (5.25)
se tiene que B es triangular inferior, y
A = BB ∗ . (5.26)
con lo que si definimos B por (5.25), esta matriz es triangular inferior y satisface
(5.26).
25
Definición 5.2 Sea A = (aij ) una matriz n × n de coeficientes reales. Diremos que
A es definida positiva si
n
X
aij ui uj > 0, para todo u ∈ IRn \ {0}. (5.27)
i,j=1
Observación 5.5 Una matriz diagonal es definida positiva si y sólo si todos los
elementos de la diagonal son estrictamente positivos (compruébese).
26
Demostración.-
a) Si A es singular, entonces existe u ∈ IRn \{0} tal que Au = 0, y en consecuencia
u∗ Au = 0, contra el hecho de que A es definida positiva. Ası́ pues, podemos afirmar
por ahora que toda matriz definida positiva tiene determinante no nulo.
Consideremos ahora la familia Aλ de matrices definida por
Demostración.-
a) Supongamos que A es definida positiva y B es regular. En tal caso, B ∗ también
es regular, y en consecuencia, si u ∈ IRn no es el cero, B ∗ u 6= 0, y por tanto
27
Demostración.-
a) Existencia de la factorización A = BB ∗ .
Por el Corolario 5.8, la matriz A posee factorización LU , y por ser A simétrica,
por la Proposición 5.1 la matriz A se puede escribir en la forma A = LDL∗ , con D
diagonal. Pero entonces, por la Proposición 5.11 la matriz D es definida positiva,
con lo que dii > 0 para todo i = 1, ..., n, y por tanto, nuevamente por la Proposición
5.1, si definimos B = LD1/2 , entonces
√ B es triangular inferior y tal que A = BB ∗ .
√ finalmente que bii = lii dii , con lo que si tomamos para cada i = 1, ..., n
Obsérvese
la raı́z dii con el mismo signo que el de lii , tendremos garantizado que bii > 0.
b) Unicidad de la factorización A = BB ∗ con bii √ > 0.
Por la libertad en la elección del signo para las dii , está claro la no unicidad
de la factorización A = BB ∗ , pero vamos ahora a obtener dicha unicidad con el
requerimiento adicional de que todos los bii sean positivos.
Sean B (1) y B (2) dos matrices n × n triangulares inferior tales que los elementos
(1) (2)
de la diagonal principal de ambas sean positivos, es decir, bii > 0, bii > 0, para
todo i = 1, ..., n, y satisfagan
En tal caso,
(B (2) )−1 B (1) = (B (2) )∗ ((B (1) )∗ )−1 = (B (2) )∗ ((B (1) )−1 )∗ = ((B (1) )−1 B (2) )∗ ,
con lo que al ser (B (2) )−1 B (1) triangular inferior y ((B (1) )−1 B (2) )∗ triangular superior,
f
(B (2) )−1 B (1) = ((B (1) )−1 B (2) )∗ = D, (5.29)
28
es decir,
(1) (2)
(bii )2 = (bii )2 , para todo i = 1, ..., n,
(1) (2)
con lo que, teniendo en cuenta que los bii y los bii son positivos, podemos afirmar
que
(1) (2)
bii = bii , para todo i = 1, ..., n,
y en consecuencia Df = I , la matriz identidad n × n, y nuevamente por (5.29),
n
obtenemos B (1) = B (2) .
A∗ = (BB ∗ )∗ = BB ∗ = A,
29
a1j
a1j = b11 bj1 ⇒ bj1 = , j = 2, ..., n,
b11
identificando a continuación los elementos de la segunda fila de A con los correspon-
dientes de BB ∗ , obtenemos
y en consecuencia,
q
b22
= a22 − b221 ,
1
bj2 = (a2j − b21 bj1 ), j = 3, ..., n,
b22
y en general si suponemos conocidas las k − 1 primeras columnas de B entonces,
identificando los elementos de la k-ésima fila de A con los correspondientes de BB ∗ ,
obtenemos
akj = bk1 bj1 + bk2 bj2 + ... + bkk bjk , j = k, ..., n,
30
y en consecuencia,
v
u k−1
u X
b = ta − b2kr ,
kk
kk
r=1
k−1
!
1 X
bjk
= akj − bkr bjr , j = k + 1, ..., n.
bkk r=1
Referencias
[1] R.L. Burden & J.D. Faires, Análisis Numérico, Grupo Editorial Iberoamérica,
México 1985.
[4] J. Stoer & R. Bulirsch, Introduction to Numerical Analysis, W.H. Freeman and
Co., San Francisco, 1975.
Tema 4
Introducción a la interpolación y
a la integración numérica
1. Introducción a la interpolación
Un problema que se presenta con frecuencia en las ciencias experimentales y en
ingenierı́a es tratar de construir una función (denominada “función interpolante”)
de la que se conoce una serie de valores en ciertos puntos (denominados “datos
de interpolación”). Estos datos pueden ser obtenidos, por ejemplo, a partir de ob-
servaciones realizadas en un determinado experimento. El objetivo será determinar
una función cuyos valores en los puntos considerados coincidan con los datos y que
además sea fácil de construir y manipular. Por su sencillez y operatividad los po-
linomios se usan frecuentemente como funciones interpolantes. En ocasiones, este
problema comprende también otros datos, especialmente los valores de las derivadas
de la función en ciertos puntos.
1.1. Generalidades
Un problema de interpolación en general puede enunciarse de la siguiente forma:
Dado un conjunto de datos, generalmente valores de una función y/o sus de-
rivadas en determinados puntos xi , i = 0, 1, · · · , n, que llamaremos nodos,
nuestro objetivo es construir otra función que coincida con la función dada en
los datos de interpolación.
f i) (x0 ), i = 0, 1, · · · , n.
2 Cálculo Numérico I
donde ψ0 (x), ψ1 (x), · · · , ψn (x), son funciones dadas que forman base del espacio
vectorial correspondiente y ai , i = 0, 1, · · · , n números reales a determinar.
Dependiendo del tipo de funciones que utilicemos como funciones interpolantes,
la interpolación se llamará polinómica, racional, trigonométrica, spline polinómi-
co,... Entre las diferentes funciones interpolantes, por su sencillez y facilidad para
operar, los polinomios son los utilizados con mayor frecuencia en problemas de in-
terpolación, en este caso las funciones de base son ψi (x) = xi , i = 0, 1, · · · , n. Sin
embargo, no siempre dan una respuesta satisfactoria, especialmente si la solución del
problema requiere el uso de polinomios de alto grado o, por ejemplo, si se observa
un comportamiento periódico en los datos de interpolación.
Por simplicidad, nos centraremos en este Tema en el estudio del caso particular
de la interpolación polinómica de Lagrange.
Pn (xi ) = f (xi ), i = 0, 1, · · · , n.
donde, para cada i ∈ {0, 1, · · · , n}, Li (x) es el polinomio de grado n definido por
n
Y x − xj
Li (x) = .
j=0
x i − x j
j6=i
Demostración.-
1. Existencia: Observemos que para cada i ∈ {0, 1, · · · , n},
x − x0 x − x1 x − xi−1 x − xi+1 x − xn
Li (x) = ··· ··· ,
xi − x0 xi − x1 xi − xi−1 xi − xi+1 xi − xn
Entonces, Li (xj ) = δij para cada j ∈ {0, 1, · · · , n}, siendo δij la delta de
Kronecker. En consecuencia, Pn (x) es un polinomio de grado n como máximo
y Pn (xj ) = f (xj ), para cada j ∈ {0, 1, · · · , n}.
2. Unicidad: Supongamos que existen Pn (x) y Qn (x) dos polinomios de grado
menor o igual que n, que verifican Pn (xi ) = f (xi ) = Qn (xi ), para cada
i = 0, 1, · · · , n. Entonces, el polinomio Dn (x) = Pn (x) − Qn (x) es también
un polinomio de grado menor o igual que n y satisface Dn (xi ) = Pn (xi ) −
Qn (xi ) = 0, para cada i = 0, 1, · · · , n.
Es decir, Dn (x) es un polinomio de grado menor o igual que n con n + 1 raı́ces
distintas, por tanto, por el teorema Fundamental del Álgebra, Dn (x) ≡ 0 de
donde se concluye que Pn (x) ≡ Qn (x).
Observación 1.2
La expresión (1.1) se conoce como fórmula de Lagrange del polinomio de in-
terpolación. El Teorema 1.1 proporciona un método constructivo para obtener
el polinomio de interpolación Pn (x) mediante la fórmula (1.1).
Ejemplo.- Obtener el polinomio que interpola a los valores (−1, 3), (2, 1), (3, 2),
(4, 4).
Si algún dato es f (xj ) = 0, no hace falta calcular Lj (x).
Los polinomios Lk (x) sólo dependen de los nodos de interpolación {x0 , x1 , · · · ,
xn }. De modo que, una vez calculado cada Lk (x) se construyen los polinomios
de interpolación poniendo los f (xk ) como coeficientes de una combinación
lineal, lo cual es una ventaja si queremos resolver varios problemas de interpo-
lación con los mismos nodos xk . En este sentido, {L0 (x), L1 (x), · · · , Ln (x)}
es una base del espacio vectorial de los polinomios de grado n de interpolación
asociados a los nodos {x0 , x1 , · · · , xn }.
n
X
Tomando f (x) = 1 en (1.1), se tiene, Li (x) = 1, para todo x ∈ IRN .
i=0
4 Cálculo Numérico I
Si i = 1, 2, · · · , n, tenemos
a2 = −a1 y b 2 = 1 − b1 .
Si i = 0, tenemos
f [ x1 , · · · , xn+1 ] − f [ x0 , · · · , xn ]
Cn+1 = = f [ x0 , x1 · · · , xn+1 ].
xn+1 − x0
6 Cálculo Numérico I
Usamos ahora (1.2) para deducir la expresión del error (1.3). Consideramos un punto
x ∈ [a, b] fijo distinto a x0 , x1 , · · · , xn , y el polinomio Qn+1 que interpola a f en los
nodos x0 , x1 , · · · , xn , x. Este polinomio viene dado por
Tomando y = x deducimos
Observación 1.5
Nuestro objetivo en esta sección es estimar este error. Para ello, notemos en
primer lugar que sin hipótesis adicionales, no podemos decir nada acerca de esta
cantidad pues podemos cambiar la función f en puntos que no sean los de interpo-
lación sin que cambie el polinomio.
No obstante, vamos a probar que cuando la función f es suficientemente regular,
podemos precisar el error que se comete en cada punto de interpolación en término
de las derivadas de f .
f n+1) (ξx )
En (x) = f (x) − Pn (x) = Πn+1 (x). (1.5)
(n + 1)!
8 Cálculo Numérico I
Por otra parte, la expresión (1.5) permite obtener una cota del error de interpo-
lación en norma uniforme:
Corolario 1.7 El polinomio de interpolación satisface la siguiente estimación de
error:
Mn+1
máx |f (x) − Pn (x)| ≤ máx |Πn+1 (x)|, (1.6)
a≤x≤b (n + 1)! a≤x≤b
siendo
Mn+1 = máx |f n+1) (x)|.
a≤x≤b
Observación 1.8
Existe un gran paralelismo entre la fórmula de error (1.5) y la expresión del
error para el polinomio de Taylor Tn (x), cuyas derivadas en un punto (ponga-
mos x0 ) hasta el orden n coinciden con las de f . El error en este caso es
f n+1) (ρx )
f (x) − Tn (x) = (x − x0 )n+1 ,
(n + 1)!
donde ρx es un punto intermedio entre x0 y x. Esta fórmula aparece como el
lı́mite formal del error para el polinomio de interpolación, cuando todos los
nodos xi tienden a x0 .
La estimación del error precedente es óptima en el sentido de que existe
una función para la que se da la igualdad. En efecto, si consideramos la función
n
Y
f (x) = Πn+1 (x) = (x − xi ),
i=0
Del corolario anterior podemos plantearnos condiciones bajo las cuales el poli-
nomio de interpolación convergerá a la función f cuando el número de nodos de
interpolación tienda a infinito. Es un problema de la misma naturaleza que la con-
vergencia del polinomio de Taylor cuando el orden del desarrollo tiende a infinito.
Según la estimación (1.6), podemos esperar convergencia cuando la función f
sea muy regular (en el sentido de que las derivadas sucesivas crezcan con suficiente
lentitud), al igual que ocurre con el polinomio de Taylor. En realidad, es necesario
que f sea analı́tica en un intervalo suficientemente grande respecto a [a, b] para que
haya convergencia del polinomio de interpolación de Lagrange.
Vh = {vh ∈ C 0 ([a, b]) tales que vh|[xi−1 ,xi ] ∈ IP1 ([xi−1 , xi ]), i = 1, · · · , n }
Vh está formado por funciones continuas en todo el intervalo [a, b] cuya restricción
a cada subintervalo [xi−1 , xi ] es un polinomio de grado a lo más uno.
El subı́ndice h representa el diámetro de ∆,
h = máx{xi − xi−1 , i = 1, · · · , n }.
10 Cálculo Numérico I
Por tanto,
f (xi ) − f (xi−1 )
fh (x) = (x − xi−1 ) + f (xi−1 ), ∀x ∈ [xi−1 , xi ]. (1.9)
xi − xi−1
De este modo la función fh está definida sobre todo el intervalo [a, b], y es un
polinomio de grado menor o igual que uno sobre cada subintervalo [xi−1 , xi ]. Basta
probar que es continua para concluir que pertenece a Vh y que, por tanto, es solución
de (P ).
Ahora bien, fh es continua en el interior de cada subintervalo [xi−1 , xi ], por
coincidir con un polinomio. Por otra parte, según la expresión (1.9), en cada nodo
interior xi , i = 1, · · · , n − 1 se tiene
y por tanto f es continua también en los nodos interiores. Por último, f es continua
en los extremos a = x0 y b = xn ya que coincide con un polinomio en [a, x1 ] y en
[xn−1 , b].
Para demostrar la unicidad de soluciones de (P ), consideremos dos posibles so-
luciones fh , gh ∈ Vh . Entonces la diferencia eh = fh − gh ∈ Vh se anula en todos los
nodos xi , i = 0, 1, · · · , n. Esto significa que eh satisface la expresión (1.9), con valo-
res de interpolación f (xi ) = 0, i = 0, 1, · · · , n. Por tanto, eh es idénticamente nula
en cada subintervalo, y entonces es la función nula en todo [a, b]. Por consiguiente,
gh = fh .
Para demostrar la expresión (1.7), observemos en primer lugar que existe una
única función φi ∈ Vh que satisface las condiciones (1.8), ya que estas condiciones
constituyen un problema de interpolación (P ) con datos f (xj ) = δij , j = 0, 1, · · · , n.
Por otra parte, para probar (1.7) bastará demostrar que la función
n
X
gh (x) = f (xi ) φi (x) ∈ Vh
i=0
Observación 1.10
La expresión (1.9) proporciona explı́citamente el valor del interpolante fh en
cada punto de [a, b].
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049
12 Cálculo Numérico I
Observación 1.12
siendo F una primitiva de la función f en el intervalo [a, b], es decir, F ′ (x) = f (x),
∀ x ∈ [a, b]. Sin embargo, en muchos casos esto no es posible, dado que:
donde n
X
Pn (x) = f (xi ) Li (x), x ∈ [a, b]
i=0
es el polinomio de interpolación de f en los n+1 puntos distintos, xi , i = 0, 1, · · · , n,
del intervalo [a, b]. Integrando esta expresión en [a, b] obtenemos
Z b Xn
Pn (x) dx = ci f (xi ),
a i=0
siendo Z b
ci = Li (x) dx,
a
para i = 0, 1, · · · , n. Obsérvese que los coeficientes ci , i = 0, 1, · · · , n, son
independientes de f y, por tanto, una vez calculados proporcionan una fórmula que
se puede aplicar a cualquier función f : [a, b] → IR.
Además, será necesario estudiar el error que se comete en este tipo de fórmulas,
es decir, el valor de
Z b Z b Z b
Rn (f ) = f (x) dx − Pn (x) dx = En (x) dx.
a a a
con En (x) = f (x) − Pn (x). En este sentido, en el estudio del error de interpolación,
probamos que si f ∈ C n+1 ([a, b]), se tiene que
f n+1) (ξx )
En (x) = Πn+1 (x),
(n + 1)!
con Πn+1 (x) = (x − x0 ) (x − x1 ) · · · (x − xn ) y donde ξx es un punto intermedio
entre x0 , x1 , · · · , xn , x. En realidad, hay un ligero abuso de notación en la expresión
anterior, ya que ξx sólo está definido para los x ∈ [a, b] \ {xi }ni=0 ; no obstante, E
se anula en los nodos por propia construcción, y además se tiene que Πn+1 (xi ) = 0
para i = 0, ...n, y f n+1) está acotada, con lo que el valor de f n+1) (ξx ) en los nodos
no es importante y podemos considerar el convenio de que la expresión de arriba
está siempre definida (incluso en los nodos1 ).
Entonces, en este caso el error de integración que se comete es
Z b Z b n+1)
f (ξx )
Rn (f ) = En (x) dx = Πn+1 (x) dx.
a a (n + 1)!
1
En los casos que analizaremos más adelante, se puede comprobar de hecho que hay una exten-
sión continua de la aplicación [a, b] \ {xi }ni=0 ∋ x 7→ f n+1) (ξx ) ∈ R a todo el intervalo [a, b].
14 Cálculo Numérico I
Demostración: Supongamos que g(x) ≥ 0 para todo x ∈ [a, b] (si fuera al contrario,
la prueba es análoga) y supongamos que g 6≡ 0 (si no, el resultado serı́a trivial).
Como
mh g(x) ≤ h(x)g(x) ≤ Mh g(x)∀x ∈ [a, b]
donde mh = mı́n[a,b] h(x) y Mh = máx[a,b] h(x), integrando tenemos
Z b Z b Z b
mh g(x)dx ≤ h(x)g(x)dx ≤ Mh g(x)dx.
a a a
Por tanto, Z b Z b
h(x)g(x)dx g(x)dx ∈ [mh , Mh ].
a a
Por el Teorema
R de losValores Intermedios de Darboux, existe ξ ∈ [a, b] tal que
b R b
h(ξ) = a h(x)g(x)dx a
g(x)dx .
Por otro lado, es obvio que si f es un polinomio de grado menor o igual que
n, entonces f coincidirá con su polinomio de interpolación. En consecuencia, las
fórmulas de tipo interpolatorio sobre n + 1 puntos distintos son exactas para todos
los polinomios de grado menor o igual que n, en el sentido de que
Rn (f ) = 0.
En relación con esta observación, se tiene la siguiente definición:
Definición 2.2 Se llama orden o grado de precisión de un fórmula de integración
al mayor entero positivo m tal que la fórmula es exacta para todos los polinomios de
grado menor o igual que m.
En la práctica, para probar que una fórmula de integración es de orden m, es sufi-
ciente comprobar que
Rn (xk ) = 0, para k = 0, 1, · · · , m y Rn (xm+1 ) 6= 0.
donde hemos usado el Teorema del Valor Medio (TVM) para cada valor x. Ahora
en la última expresión podemos aplicar el Teorema del Valor Medio Generalizado,
con lo que existe ξ ∈ [a, b] tal que
Z b Z b
′ ′ (b − a)2
f (ξx )(x − a)dx = f (ξ) (x − a)dx = f ′ (ξ) .
a a 2
Observación 2.4
16 Cálculo Numérico I
Lema 2.5 Sea f ∈ C 2 ([a, b]). Entonces existe ξ ∈ [a, b] tal que
b
f ′′ (ξ)
Z
R0 (f ) = f (x)dx − f (c) (b − a) = (b − a)3 . (2.14)
a 24
f (x1 ) − f (x0 )
P1 (x) = f (x0 ) + f [x0 , x1 ] (x − x0 ) = f (x0 ) + (x − x0 ).
x1 − x0
Podemos entonces obtener la siguiente fórmula de integración numérica
Z b Z b
f (x1 ) − f (x0 )
f (x) dx ≃ f (x0 ) + (x − x0 ) dx
a a x1 − x0
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049
Lema 2.6 Sea f ∈ C 2 ([a, b]). Entonces existe ξ ∈ [a, b] tal que
b
b−a f ′′ (ξ)
Z
R1 (f ) = f (x) dx − (f (a) + f (b)) = − (b − a)3 . (2.16)
a 2 12
f ′′ (ξx )
f (x) − P1 (x) = Π1 (x),
2
con Π1 (x) = (x − a) (x − b). Dado que la función Π1 no cambia de signo en el
intervalo [a, b], el Teorema del Valor Medio Generalizado implica que existe ξ ∈ [a, b]
tal que
b b
f ′′ (ξx ) f ′′ (ξ) f ′′ (ξ)
Z Z
R1 (f ) = (x − a)(x − b)dx = (x − a)(x − b)dx = − (b − a)3 .
a 2! 2 a 12
Observación 2.7
La expresión del error nos asegura que la fórmula (2.15) es exacta para poli-
nomios de grado menor o igual que 1, pero inexacta para f (x) = x2 , por lo
que su orden es exactamente 1.
18 Cálculo Numérico I
La deducción del error en la fórmula (2.17) es un poco más laboriosa. Para ello, hay
que suponer que f ∈ C 4 ([a, b]), integrar el desarrollo de Taylor de orden 3 de la
función f en el punto x1 , obteniéndose que
f 4) (ξ)
R2 (f ) = − (b − a)5 ,
2880
Observación 2.8
Aplicando la expresión del error para la fórmula del rectángulo con el punto medio,
Z xi
f ′′ (ξi )
f (x) dx − (xi − xi−1 ) f (xi−/2 ) = (xi − xi−1 )3 ,
xi−1 24
Ahora bien,
de donde
RP M C (f )
m≤ h2
≤ M,
24
(b − a)
y por tanto, como f ′′ es continua en [a, b], existe un punto ξ ∈ [a, b] tal que
f ′′ (ξ)
RP M C (f ) = (b − a) h2 .
24
Z 16
Ejemplo.- Calcular un valor aproximado de la integral x1/3 dx aplicando la
10
fórmula del punto medio compuesta, dividiendo el intervalo en 3 partes iguales. Dar
una estimación del error cometido.
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049
20 Cálculo Numérico I
Agrupando términos,
" n−1
! #
h X
IT C (f ) = f (a) + 2 f (xj ) + f (b) .
2 j=1
Lema 2.10 Sea f ∈ C 2 ([a, b]). Entonces existe ξ ∈ [a, b] tal que
b
f ′′ (ξ) 2
Z
RT C (f ) = f (x)dx − IT C (f ) = − h (b − a).
a 12
La demostración es totalmente análoga a la del error para la fórmula del punto
medio compuesta.
Ejemplo.- Hallar, por el método del trapecio compuesto, un valor aproximado de
Z π/2
la integral sen x dx, dividiendo el intervalo en 4 partes. Dar una estimación
0
del error cometido.
Referencias
[1] A. Aubanell, A. Benseny & A. Delshams, Útiles básicos de Cálculo Numérico,
Labor, Barcelona 1993.