Sunteți pe pagina 1din 89

lOMoARcPSD|2722049

Apuntes, lecciones 1-4 - apuntes teoría completos

Cálculo Numérico I (Universidad de Sevilla)

StuDocu no está patrocinado ni avalado por ningún colegio o universidad.


Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

Tema 1

Introducción al Cálculo Numérico

1. Definiciones. Métodos constructivos y no construc-


tivos
El Cálculo Numérico o Análisis Numérico es la rama del Análisis Matemático que estudia
los métodos constructivos para la resolución de problemas matemáticos.
Un método constructivo es cualquier procedimiento que permite obtener en un número
finito de pasos, bien sea de manera exacta (métodos directos) bien de forma aproximada
(métodos iterados), una solución de un determinado problema matemático. En contraposi-
ción con esta noción, se denomina método no constructivo a todo aquel procedimiento que
permita afirmar la existencia de la o las soluciones de un determinado problema matemático,
sin que establezca la forma de obtenerlas, exacta o aproximadamente, de manera efectiva.
Un ejemplo de método no constructivo, tal vez el primero de la Historia, lo constituye
la demostración que hizo Euclides de la existencia de infinitos números naturales primos.
Supongamos que a1 , . . . , an son n números primos, distintos entre sı́, si probamos que existe
otro número primo distinto de cualquiera de estos Q n números primos, habremos demostrado
el resultado. Para ello, consideremos N = 1 + nk=1 ak . Si N es primo, ya tenemos un
número primo estrictamente mayor que cualquiera de los n dados. Si N no es primo, entonces
forzosamente tiene un factor primo distinto de los n dados.
Observamos que en el ejemplo precedente, no hemos indicado la forma en que dados los n
números primos, a1 , . . . , an , podemos encontrar otro, ya que si N no es primo (un ejemplo de
este caso: 2×3×5×7×11×13+1 = 30031 = 59×509), no hemos dicho cómo descomponerlo
en factores primos.
Para aplicar en un mismo ejemplo los dos tipos de métodos, constructivos y no construc-
tivos, consideremos el problema elemental siguiente. Sean a, b, c tres números reales tales
que a 6= 0 y b2 − 4ac > 0. Se pide justificar que en tal caso, la ecuación de segundo grado
ax2 + bx + c = 0, tiene exactamente dos soluciones reales distintas.
Una manera, en este caso no constructiva, de demostrar lo anterior, es usar el teorema
de Bolzano. Recordemos:
Teorema 1.1 Sean α, β ∈ R con α < β y f : [α, β] → R una función continua en [α, β] tal
que f (α) y f (β) tienen signos distintos (es decir, f (α)f (β) < 0). Entonces, existe al menos
un punto x ∈ (α, β) tal que f (x) = 0.
Supongamos sin pérdida de generalidad que a = 1 (en caso contrario se divide por a la
ecuación ax2 +bx+c = 0). Consideremos la función continua f (x) = x2 +bx+c. Es inmediato

1
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

2 Cálculo Numérico I

ver que f ′ (x) = 2x + b se anula en el punto x = −b/2, siendo f ′ (x) < 0 en el intervalo
(−∞, −b/2), y f ′ (x) > 0 en el intervalo (−b/2, +∞). En consecuencia, f (x) es estrictamente
decreciente en (−∞, −b/2), y estrictamente creciente en el intervalo (−b/2, +∞).
Por otra parte,
−b b2 b2 b2 −b2 + 4c
f( )= − +c=− +c= < 0,
2 4 2 4 4
y
lı́m f (x) = lı́m [x(x + b) + c] = +∞.
x→+∞ x→+∞

En consecuencia existe un β1 > −b/2 tal que f (β1 ) > 0, y por tanto, por el teorema de
Bolzano, existe un x1 ∈ (−b/2, +∞) tal que f (x1 ) = 0. Además, teniendo en cuenta que f
es estrictamente creciente en el intervalo (−b/2, +∞), podemos afirmar que x1 es la única
solución de la ecuación x2 + bx + c = 0 en dicho intervalo.
Finalmente,
lı́m f (x) = lı́m [x(x + b) + c] = +∞,
x→−∞ x→−∞

y en consecuencia, existe un β2 < −b/2 tal que f (β2 ) > 0, con lo que, razonando como en
el caso anterior, podemos concluir la existencia de un único punto x2 ∈ (−∞, −b/2) que es
solución de la ecuación x2 + bx + c = 0 en este intervalo.
Ası́ pues, hemos demostrado, de manera no constructiva, en el caso a 6= 0, b2 − 4ac > 0,
la existencia de dos únicas soluciones reales de la ecuación ax2 + bx + c = 0.
Otra forma, bien conocida, de resolver el problema precedente consiste en dividir la
ecuación por a, y a continuación sumar y restar b2 /4a2 , con lo que la ecuación se tranforma
en la ecuación
b b2 b2 c
x2 + x + 2 − 2 + = 0,
a 4a 4a a
es decir, 2
b2

b c
x+ − 2 + = 0,
2a 4a a
o lo que es lo mismo, 2
b2 − 4ac

b
x+ = ,
2a 4a2
con lo que se obtiene √
b b2 − 4ac
x+ =± ,
2a 2a
y por consiguiente √
−b ±
b2 − 4ac
x= , (1.1)
2a
con lo cual hemos demostrado, esta vez de manera constructiva, la existencia de dos solu-
ciones distintas de la ecuación de segundo grado dada.

La fórmula (1.1) constituye lo que se denomina un algoritmo para la resolución de la


ecuación de segundo grado. De manera general, un algoritmo es un conjunto de instruc-
ciones para efectuar operaciones matemáticas diseñadas para obtener de manera exacta o

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 1. Introducción al Cálculo Numérico. 3

aproximada la solución de un problema. Si el procedimiento exige un número finito de pasos,


se dice que el algoritmo es finito; en caso contrario, se dice que el algoritmo es infinito.
Ejemplos de algoritmos son los siguientes:

a) Los bien conocidos de las operaciones algebraicas.

b) El de la obtención de la raı́z cuadrada de un número positivo. Este es un ejemplo de un


algoritmo,
√ en general, infinito. Ası́, por ejemplo, la determinacion
√ de las cifras decimales
de 2 es un algoritmo constructivo infinito (se recuerda que 2 es irracional).

c) Otros algoritmos finitos son el que se aplica para conocer si un número natural es o no
primo, o el algoritmo de Euclides para determinar el m.c.d. de dos números naturales.

2. Reseña histórica
Con anterioridad al siglo XIX, la mayor parte de los trabajos en Matemáticas consistı́an
en la búsqueda de soluciones de problemas concretos. De esta forma, se obtuvieron éxitos
espectaculares, como la predicción de eclipses de sol y de luna, la aparición de cometas en
el firmamento, etc...; dichos resultados se lograban calculando de manera aproximada las
soluciones de problemas matemáticos que eran modelos de los correspondientes fenómenos.
La figura culminante de este modo de proceder es L. Euler (1707-1783). Sus obras com-
pletas, más de setenta volúmenes, están llenas de algoritmos y fórmulas, siendo de destacar
el uso frecuente que hace de los desarrollos en serie de potencias.
Durante el siglo XIX, decrece la fe en la utilidad numérica de los algoritmos. Esto fue
debido, entre otras razones, a la apertura de un periodo de construcción lógica en el que
la preocupación esencial era fundamentar los progresos realizados. También fue debido a
que la complejidad de los problemas a tratar hicieron inviables los métodos constructivos y,
finalmente, porque los métodos constructivos que se lograron desarrollar fueron inaplicables
por la cantidad de operaciones que exigı́a su puesta en práctica.
De todas maneras, en los siglos XVIII y XIX se abordan problemas como la resolución de
ecuaciones no lineales (método de Newton), la resolución de sistemas de ecuaciones lineales
(método de Gauss), y se elaboran algunas técnicas de aproximación de funciones (Tcheby-
cheff). A principios del siglo XX se desarrollaron los primeros métodos para la resolución
aproximada de ecuaciones diferenciales ordinarias.
El avance decisivo en el campo de los métodos numéricos se produce con el desarrollo
de las calculadoras electrónicas. La aparición del ordenador supuso un cambio radical en la
forma de abordar muchos problemas, y se pasó a la formalización de métodos conocidos más
o menos empı́ricamente. El Cálculo Numérico se convirtió en Análisis Numérico, una rama
de las Matemáticas con entidad propia desde los años 50 del siglo pasado.

3. Ejemplos de problemas del Cálculo Numérico


Como ejemplos de problemas del Cálculo Numérico, citemos los siguientes:

i) La resolución exacta o aproximada de grandes sistemas de ecuaciones lineales.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

4 Cálculo Numérico I

Se trata de la resolución de sistemas de ecuaciones de la forma




 a11 x1 + a12 x2 + ... + a1N xN = b1 ,
 21 x1 + a22 x2 + ... + a2N xN = b2 ,
a


................................, (3.2)
................................,




aM 1 x1 + aM 2 x2 + ... + aM N xN = bM ,

siendo aij y bi , para 1 ≤ i ≤ M , 1 ≤ j ≤ N , números reales dados, y xj ∈ R,


1 ≤ j ≤ N , las N incógnitas.
La formulación del sistema lineal (3.2) se puede hacer de forma más compacta. Para
ello, se introduce la notación vectorial, denotando en particular a los elementos de RN y
RM como vectores columna, es decir, como matrices N × 1 y M × 1 respectivamente.
Denotemos
   
x1 b1
 x2   b2 
x= .. , b= .. , (3.3)
   
 .   . 
xN bM
y sea A la matriz M × N de término general aij , es decir,

A = (aij )1≤i≤M,1≤j≤N

De esta forma, el sistema lineal (3.2) se escribe

Ax = b (3.4)

Este tipo de sistemas se presentan con gran frecuencia en las aplicaciones (por ejemplo
en el estudio de circuitos eléctricos, ver [1]), siendo en general M ≤ N , es decir, el
número de incógnitas suele ser igual o superior al de ecuaciones.
En este curso abordaremos algunos métodos básicos de resolución aproximada de sis-
temas como (3.2) en el caso en el que M = N (igual número de incógnitas que de
ecuaciones). En este caso, la matriz A es cuadrada, y si, por simplificar, suponemos
que su determinante |A| es distinto de cero, entonces para cada b ∈ RN dado existe una
y sólo una solución, que se puede hallar, por ejemplo, por la fórmula de Cramer. Desde
el punto de vista teórico, en este caso de M = N y |A| = 6 0, el problema (3.2) queda
resuelto. Pero, salvo cuando N es pequeño, la fórmula de Cramer (que en realidad es
un método direct) es impracticable desde el punto de vista numérico.
En efecto, denotemos por kN el número de operaciones algebraicas que hace falta
realizar para calcular el determinante de una matriz real N × N . Evidentemente,

k2 = 3,

y por otra parte, para todo N > 2, si A = (aij )1≤i,j≤N , sabemos que

|A| = a11 |A′11 | − a12 |A′12 | + ... + (−1)N +1 a1N |A′1N |,

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 1. Introducción al Cálculo Numérico. 5

siendo A′1j la matriz (N − 1) × (N − 1) obtenida eliminando de A la primera fila y la


columna j-ésima. Por ello, es sencillo ver que

kN = (kN −1 + 1)N + N − 1 = N kN −1 + 2N − 1.

Con estas fórmulas, se puede comprobar que, por ejemplo, k10 = 9864099, es decir el
número de operaciones necesarias para calcular el determinante de una matriz 10 × 10
es, en principio, de casi diez millones. Por otra parte, si queremos resolver un sistema
lineal de N ecuaciones y N incógnitas aplicando la regla de Cramer, el número CN de
operaciones necesarias vendrá dada por el cálculo de N + 1 determinantes de matrices
N × N , y N divisiones, es decir,

CN = (N + 1)kN + N,

con lo que, en particular C10 = 108505099, es decir, el número de operaciones necesarias


para resolver un sistema de diez ecuaciones y diez incógnitas aplicando la regla de
Cramer, resulta ser superior a los cien millones.
En el tema 3 de este Curso estudiaremos algunos métodos directos de resolución de
sistemas de ecuaciones lineales que reducen radicalmente el número de operaciones
necesarias respecto del obtenido con anterioridad.

ii) El cálculo aproximado de los autovalores y autovectores de una matriz cuadrada.


Otro problema de gran importancia que se presenta con frecuencia consiste en el cálculo
de los autovalores y autovectores de una matriz cuadrada dada. De nuevo, salvo si el
orden de la matriz es bajo, se hace imprescindible el desarrollo de métodos aproximados
de cálculo de los citados autovalores y autovectores.
Este problema, aparte de su interés en Fı́sica, posee muchas aplicaciones de tipo teórico.
Ası́ por ejemplo, supongamos que A es una matriz simétrica N × N de coeficientes
reales. Es conocido que A puede ser escrita en su forma de Jordan A = P DP −1 , siendo
P una matriz N × N de determinante no nulo, y D una matriz N × N diagonal (es
decir con todos los elementos que no pertenezcan a la diagonal nulos) cuyos elementos
vienen dados por los autovalores de A (cada uno repetido tantas veces como indique su
multiplicidad). En este caso es fácil obtener las potencias sucesivas de A. Efectivamente,

An = (P DP −1 )n = (P DP −1 )(P DP −1 )..n veces ..(P DP −1 ) = P Dn P −1 ,

y el cálculo de Dn es inmediato por ser D diagonal.


Expresiones de este tipo son útiles por ejemplo para hallar el término general de una
sucesión numérica definida mediante una fórmula de recurrencia lineal. Para ilustrar
esta última afirmación, considérese la sucesión {xn }n≥0 ⊂ R definida por el algoritmo

x0 , x1 ∈ R dados,
xn = axn−1 + bxn−2 , n ≥ 2,

con a y b números reales dados.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

6 Cálculo Numérico I

En tal caso, denotando yn = xn , zn = xn−1 para todo n ≥ 1, obtenemos



yn = ayn−1 + bzn−1 ,
xn = axn−1 + bxn−2 ⇐⇒
zn = yn−1
    
yn a b yn−1
⇐⇒ =
zn 1 0 zn−1
Denotando  
a b
A= ,
1 0
tenemos por tanto,
       
yn yn−1 2 yn−2 n−1 y1
=A =A = ... = A ,
zn zn−1 zn−2 z1
es decir,    
xn n−1 x1
=A ,
xn−1 x0
para todo n ≥ 1.
Como un sencillo ejercicio de aplicación de las consideraciones precedentes, se propone
al alumno que demuestre que el término general de la sucesión de Fibonacci

x0 = 1, x1 = 1,
xn = xn−1 + xn−2 , n ≥ 2,
viene dado por
√ !n+1 √ !n+1
 
1  1+ 5 1− 5
xn = √ − ,
5 2 2

para todo n ≥ 1.
iii) La resolución aproximada de ecuaciones y sistemas de ecuaciones no lineales.
Un problema que se presenta con gran frecuencia en las aplicaciones (ver [1] para un
ejemplo en el problema de tiro oblicuo) consiste en, dada una función f (x) real definida
en un intervalo I de R, hallar aquellos valores x ∈ I tales que f (x) = 0. Si f no es de
la forma f (x) = ax + b, por ejemplo si f es un polinomio de grado mayor que uno,
entonces decimos que la ecuación f (x) = 0 es no lineal. En general, la resolución exacta
de una tal ecuación no es posible, siendo necesario la elaboración de algoritmos para
el cálculo aproximado de la o las soluciones. Problemas de este tipo serán tratados en
el tema 4 de este Curso.
Más generalmente, se pueden considerar sistemas de ecuaciones no lineales de la forma


 f1 (x1 , x2 , ..., xN ) = 0,
 f2 (x1 , x2 , ..., xN ) = 0,


................................, (3.5)
................................,




fM (x1 , x2 , ..., xN ) = 0,

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 1. Introducción al Cálculo Numérico. 7

siendo fi , para 1 ≤ i ≤ M , funciones reales dadas, de las variables independientes (las


N incógnitas) xj ∈ R, 1 ≤ j ≤ N .
iv) Los problemas de integración numérica.
Sea f (x) una función real definida y continua en el intervalo cerrado [a, b]. La regla
Rb
de Barrow permite calcular la integral definida a f (x) dx, si conocemos una primitiva
F (x) de f (x) en [a, b], es decir, si F ′ (x) = f (x) para todo x ∈ [a, b], entonces
Z b
f (x) dx = F (b) − F (a).
a

Ahora bien, un resultado debido a Liouville afirma que, en general, el cálculo de una
primitiva de una función continua en términos de combinaciones finitas de funciones
elementales conocidas es algo imposible (tal es el caso, por ejemplo, para las funciones
2
ex y (sin x)/x). Cuando tal cosa sucede, a efectos prácticos la regla de Barrow no
es aplicable para el cálculo efectivo de la integral definida, siendo por ello necesario
desarrollar métodos numéricos de cálculo aproximado de la misma.
A este respecto, obsérvese que el uso de tales métodos numéricos permite a veces
calcular
Z 2de manera aproximada el valor de una función en un punto. Ası́ por ejemplo,
1
como dx = log 2, si conocemos un procedimiento de cálculo aproximado de la
1 x
integral, el mismo nos permite hallar de manera aproximada el valor de log 2.
v) La interpolación de funciones:
Dada una cantidad finita de datos (pares de valores), que pueden provenir por ejemplo
de la experimentación, se plantea la necesidad de obtener una función “que pase por”
(interpole a) dichos pares de valores. Dentro de lo distintos tipos de interpolación,
en este curso veremos una introducción a la interpolación mediante polinomios. En
concreto veremos algunos métodos numéricos para resolver el siguiente problema:
“Dados una serie de datos (xi , yi ) con i = 0, . . . , n (con xi distintos entre si), nos
planteamos construir un polinomio p(x) de grado ≤ n que interpola dichos valores, es
decir, tal que p(xi ) = yi para todo i = 0, . . . , n”.
vi) La resolución aproximada de ecuaciones diferenciales.

4. Tipos de errores
Un aspecto importante, aunque no uno de los objetivos fundamentales del Cálculo Numéri-
co, es el estudio de los errores, es decir, la valoración de la precisión de los resultados de un
cálculo concreto. Dicha precisión viene en general limitada por tres tipos de errores:
a) Errores en la toma de los datos
Son errores que proceden de la toma de datos reales y que están fuera del control del
Cálculo Numérico. Podrán disminuir hasta cierto punto mejorando, por ejemplo, las
mediciones experimentales. Este tipo de errores se conocen también con el nombre de
ruidos.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

8 Cálculo Numérico I

b) Errores de aproximación
Se producen porque, aunque se realicen las operaciones de forma exacta, la solución de
un problema se aproxima por una familia de problemas dependientes de un parámetro

X 1
h → 0 (o N → +∞). Ası́ por ejemplo, si para calcular e = , se toma como valor
k=0
k!
N
X 1
aproximado eN = , se comete un error que viene dado por
k=0
k!

X 1
e − eN =
k=N +1
k!

Este tipo de errores recibe también otros nombres, como error de convergencia, error
de truncamiento, error de discretización, etc..., dependiendo del problema de que se
trate.

c) Errores de redondeo
Los ordenadores tienen una precisión limitada, generalmente entre ocho y dieciséis
cifras significativas. De modo que cualquier número real que se maneje debe ser apro-
ximado por uno de la máquina, cometiéndose en consecuencia con esta aproximación
un error que se denomina error local de redondeo
Ası́ por ejemplo, la multiplicación exacta de dos números de seis cifras, tiene doce cifras.
Una calculadora que maneje 8 cifras significativas no comete en este caso errores en
los datos, pero sı́ los comete al efectuar el producto.
Otro ejemplo lo proporciona el caso de un número irracional o racional periódico. En
este caso, el número debe ser aproximado al introducirlo en la máquina, cometiéndose
un error inicial de redondeo.

Ligados a estos tipos de errores hay tres conceptos importantes: convergencia, consistencia
y estabilidad. Pasamos a describir estos conceptos, que ponen de manifiesto propiedades
básicas que debe cumplir cualquier algoritmo numérico.
La propiedad de convergencia está ligada al error de aproximación, y consiste en que
la solución del problema aproximado debe converger en algún sentido, cuando h → 0 (o
N → +∞), a la solución del problema (P ) de partida.
La consistencia también está ligada al error de aproximación, y consiste en que la solución
del problema (P ) debe verificar la ecuación que define asintóticamente la de (Ph ) si h → 0
(ver [1], páginas 43-44).
La propiedad de estabilidad se relaciona con los errores de aproximación y de redondeo.
Hay tres tipos de estabilidad:

La estabilidad del problema:


Significa que pequeños cambios en los datos producen pequeños cambios en la solución
exacta del problema (P ) de partida. De los problemas que no verifican esta propiedad,
se dice que están mal condicionados (ill-conditioned).

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 1. Introducción al Cálculo Numérico. 9

Un ejemplo de problema mal condicionado lo constituye el siguiente (Wilkinson). Con-


sideremos la ecuación

(x + 1)(x + 2)....(x + 19)(x + 20) = 0,

que evidentemente tiene por soluciones α1 = −1, α2 = −2, . . . , α19 = −19 y α20 = −20.
La ecuación anterior también puede ser escrita

x20 + 210x19 + a18 x18 + ... + a1 x + a0 = 0,

y se puede ver que si se cambia el coeficiente 210 que multiplica a x19 , por 210 + 2−23
(2−23 ≃ 12 × 10−8 = 0,00000012), entonces las raı́ces mayores de la nueva ecuación
varı́an tan sólo ligeramente respecto de las αk correspondientes, pero, por ejemplo, la
raı́z α20 se convierte en −20′ 8, y las raı́ces α16 y α17 se convierten en un par de raı́ces
imaginarias conjugadas: −16′ 7 ± 2′ 8i. Un ejemplo más simple será visto en problemas.

La estabilidad del algoritmo:


Este tipo de estabilidad consiste en que, supuestas operaciones exactas, pequeños cam-
bios en los datos deben producir cambios también pequeños en la solución que propor-
ciona el algoritmo.
Por ejemplo, si se considera que una sucesión de números viene dada por el algoritmo

x0 = A, x1 = B,
xn = 10,1xn−1 − xn−2 , ∀ n ≥ 2,

no es difı́cil comprobar que la sucesión viene dada por


−0,1A + B n 10A − B n
xn = 10 + 0,1 .
9,9 9,9

En consecuencia, la elección A = 10 y B = 1, proporciona la sucesión xn = 10−n+1 que,


evidentemente, converge a 0 si n → ∞. Sin embargo, si se toma A = 10 y B = 1 + ε,
la correspondiente sucesión, por pequeño que sea ε, es divergente. Por tanto, este
algoritmo no es estable.

La estabilidad numérica:
Esta propiedad significa que el algoritmo es inmune al efecto acumulativo de los errores
de redondeo (esto es, si lo errores de redondeo son todos pequeños, el error acumulado
al operar con el algoritmo es también pequeño). Es este un concepto cualitativo, de
manera que un mismo algoritmo puede ser numéricamente estable o inestable si se
escribe de una forma u otra.
Por ejemplo, si se considera el algoritmo

 x0 = 1, x1 = 1 ,

3
1
 n = (13xn−1 − 4xn−2 ) ,
 ∀ n ≥ 2,
3

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

10 Cálculo Numérico I

y se calculan con esta fórmula los dieciséis primeros términos de la sucesión, usando
para ello seis decimales, se obtiene

x0 = 1 x1 = 0,333333 x2 = 0,111111 x3 = 0,037037


x4 = 0,012346 x5 = 0,004117 x6 = 0,001379 x7 = 0,000486
x8 = 0,000267 x9 = 0,000509 x10 = 0,001850 x11 = 0,007338
x12 = 0,029331 x13 = 0,117317 x14 = 0,469266 x15 = 1,877063.

Sin embargo, es fácil comprobar que la sucesión xn viene también definida por
 n
1
xn = ,
3
y si usamos esta última expresión obtenemos

x0 = 1 x1 = 0,333333 x2 = 0,111111 x3 = 0,037037


x4 = 0,012346 x5 = 0,004115 x6 = 0,001372 x7 = 0,000457
x8 = 0,000152 x9 = 0,000051 x10 = 0,000017 x11 = 0,000006
x12 = 0,000002 x13 = 0,000001 x14 = 0,000000 x15 = 0,000000.

En consecuencia, está claro que el primer


 nalgoritmo propuesto es inestable numérica-
1
mente para el cálculo de la sucesión .
3

En relación con la teorı́a de errores, dos conceptos de interés son los siguientes:
Definición 4.1 Sea x ∈ R un número y x ∈ R una aproximación de éste. Se denomina
error absoluto a la cantidad |x − x|. Si x 6= 0, se denomina error relativo a la cantidad

|x − x|
.
|x|

5. Procedimiento general de resolución


De manera casi general, desde el punto de vista del Análisis Numérico el estudio teórico
de la resolución de un problema (P ) consta de las siguientes etapas.
a) Estudio teórico de (P ): Existencia y unicidad de la solución de (P ), caracterización
de la misma, propiedades cualitativas, etc.

b) Discretización de (P ): Construcción de problemas aproximados de (P ), que en ge-


neral se denotan (Ph ), con h > 0 número real destinado a decrecer a cero (o (PN ),
con N ≥ 1 número entero destinado a crecer a +∞), que se puedan resolver en una
etapa posterior. Estos problemas aproximados deben ser planteados de tal manera que
las soluciones converjan en un sentido adecuado, cuando h → 0 (o N → +∞), a la
solución exacta de (P ).

c) Estudio teórico de (Ph ): Dicho estudio consta, en general, de dos aspectos esenciales:

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 1. Introducción al Cálculo Numérico. 11

• de manera similar a la etapa a), estudio de la existencia y unicidad de la solu-


ción de los problemas aproximados (Ph ) (o (PN )), caracterización de la misma,
propiedades cualitativas, etc.
• análisis de las propiedades que tiene la aproximación cuando h → 0 (o N → +∞).

d) Resolución numérica de (Ph ): Hay que buscar un algoritmo eficiente de cálculo


de la solución discreta, es decir, de la solución de (Ph ) (o de (PN )) y estudiar su
convergencia y estabilidad mediante ejemplos test. Esto último se hace, bien porque
no se haya podido completar el estudio teórico en las etapas anteriores, bien como
verificación de que el algoritmo no introduce nuevas inestabilidades.

Una vez se han completado las cuatro etapas precedentes, desde el punto de vista de las
aplicaciones prácticas, ha de procederse a la implementación efectiva en el ordenador de los
algoritmos previamente construidos.

Referencias
[1] J. M. Viaño: Lecciones de Métodos Numéricos: introducción general y análisis de errores,
Tórculo, Santiago de Compostela, 1995.

[2] A. Aubanell, A. Benseny & A. Delshams, Útiles básicos de Cálculo Numérico, Labor,
Barcelona 1993.

[3] D. Kincaid & W. Cheney, Análisis Numérico, Addison-Wesley Iberoamericana, Wil-


mington, 1994.

Como referencias complementarias destacamos:

[4] K.E. Atkinson, An introduction to Numerical Analysis, Wiley, New York 1978.

[5] F. Garcı́a & A. Nevot, Métodos Numéricos, Universidad Pontificia de Comillas, Madrid,
1997.

[6] P. Henrici, Elementos de Análisis Numérico, Trillas, México, 1972.

[7] J. A. Infante y J. M. Rey, Métodos Numéricos: Teorı́a, problemas y prácticas con


MATLAB , Ediciones Pirámide, Madrid, 1999.

[8] A. Ralston & P. Rabinowitz, A First Course in Numerical Analysis, (second edition),
MacGraw-Hill, New York, 1978.

[9] Numerical Analysis in the 20th Century, Journal of Computational and Applied Mat-
hematics, 2000 y 2001.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2

Métodos de resolución de Ecuaciones


no Lineales

1. Generalidades. Orden de convergencia


Nos planteamos en este tema el problema de la resolución aproximada de Ecuaciones no
Lineales. Para plantear el problema, suponemos dada una función real de variable real f
definida en un conjunto D ⊆ R. El problema que queremos resolver se escribe:

Hallar x ∈ D tal que f (x) = 0, (1.1)

En general supondremos que D es un intervalo abierto de R y que la función f es, al menos,


continua en D.
Un caso particular importante de ecuación de la forma (1.1) es aquél en el que f es un
polinomio de grado n ≥ 2, en cuyo caso el problema adopta la forma

an xn + an−1 xn−1 + ... + a1 x + a0 = 0, (1.2)

siendo los ak , k = 0, 1, ..., n, números reales dados, y an 6= 0.


Este último tipo de ecuaciones ha sido muy estudiado y de él son bien conocidos los
siguientes hechos:

si n = 2, se tiene la fórmula de resolución, conocida de todos,


p
2 −a1 ± a21 − 4a2 a0
a2 x + a1 x + a0 = 0 ⇔ x = ,
2a2
que expresa el valor exacto de la solución. Desde el punto de vista del Análisis Numéri-
co, el único tipo de errores que se introducen con esta fórmula son los errores de
redondeo debidos a las operaciones aritméticas.

si n = 3 ó 4, existen también fórmulas que expresan el valor exacto de la o las solu-


ciones de (1.2), mediante sumas, productos y raı́ces de los coeficientes. Son fórmulas
complicadas y difı́cilmente aplicables en la práctica.

si n ≥ 5, se sabe que no existen fórmulas como las anteriores y, en general, las raı́ces
de estos polinomios no pueden ser calculadas de manera exacta.

1
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

2 Cálculo Numérico I.

En consecuencia, se hace necesario desarrollar procedimientos de cálculo aproximado de


las soluciones, tanto para las ecuaciones polinómicas, como, con mayor razón, para las no
lineales en general.
Antes que nada, hagamos notar que la ecuación (1.1) puede ser escrita de distintas formas
equivalentes, por ejemplo g(x) = x, o g(x) = h(x).

Ejemplo 1.1 Si consideramos la ecuación

x log x − 1 = 0,

teniendo en cuenta que para que esté definido el logaritmo como un número real, x ha de
ser estrictamente positivo, dicha ecuación puede ser escrita de varias maneras equivalentes.
Por ejemplo en la forma
log x − 1/x = 0,
o también en la forma de ecuación de punto fijo (véase más adelante) dada por x = 1/ log x,
o en la forma log x = 1/x, que es del tipo g(x) = h(x).
En los dos primeros casos, el problema de hallar la solución x de f (x) = 0 puede ser
interpretado geométricamente como el de encontrar la abscisa del punto de corte de la curva
de ecuación en el plano cartesiano y = f (x) con el eje OX, es decir con la recta y = 0. En
el caso en que la ecuación se escribe en forma g(x) = x, se puede interpretar de manera
geométrica el problema como el de hallar la abscisa del punto de corte de la curva y = g(x)
con la bisectriz del primer cuadrante, es decir, la recta y = x. Finalmente, si la ecuación se
ha escrito en la forma g(x) = h(x), el significado geométrico consiste en hallar la abscisa del
punto de corte de las curvas de ecuaciones y = g(x) e y = h(x).

En particular, denominaremos ecuación de punto fijo a una igualdad de la forma

g(x) = x. (EP F )

Hagamos notar que existen muchas maneras de escribir una ecuación dada en la forma
(EP F ):

Ejemplo 1.2 Si consideramos la ecuación polinómica x3 − 3x2 + x − 2 = 0, teniendo en


cuenta que la o las soluciones de la misma no pueden ser x = 0, ésta puede ser escrita de
manera equivalente en distintas formas de (EP F ). Por ejemplo

x = −x3 + 3x2 + 2, (EP F )1

o dividiendo por x, se obtiene x2 − 3x + 1 − 2/x = 0, con lo que despejando,


 
1 2 2
x= x +1− . (EP F )2
3 x

También, se puede dividir la ecuación de partida por x2 , obteniéndose x−3+1/x−2/x2 =


0, con lo que despejando,
1 2
x = 3 − + 2. (EP F )3
x x

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 3

Por supuesto, también se puede escribir la ecuación en la forma

x = x + (x3 − 3x2 + x − 2)h(x), (EP F )4

siendo h cualquier función real continua en todo R tal que h(x) 6= 0 para todo x ∈ R.
Desde el punto de vista del Análisis Numérico, estas cuatro formas no son equivalentes.
Con unas se aproxima la solución buscada de manera más rápida y con menos coste de
cálculos que con otras.

A continuación, vamos a realizar algunas consideraciones generales sobre el problema (1.1).


A cualquier solución de la citada ecuación, es decir, a cualquier x ∈ R tal que f (x) = 0, se
le denomina un cero o una raı́z de f .
Comencemos introduciendo el concepto de orden de multiplicidad de un cero de una
función f .

Definición 1.3 Sean (a, b) ⊂ R un intervalo abierto, f : (a, b) → R una función continua
en (a, b) y m ≥ 1 un número entero. Se dice que α ∈ (a, b) es un cero de f de multiplicidad
m, si la función f puede ser escrita en la forma

f (x) = (x − α)m q(x) ∀x ∈ (a, b) \ {α}, (1.3)

con q una función definida en (a, b) \ {α} tal que existe

lı́m q(x) ∈ R \ {0}.


x→α

En el caso m = 1 diremos que α es un cero simple de f .

Observación 1.4 Dados f : (a, b) → R una función y α ∈ (a, b) un cero de f , en general


no podemos asignarp un orden al cero α de f en los términos de la Definición 1.3. Basta
considerar f (x) = |x − 1| (función continua en R) y α = 1.

Respecto del concepto de orden de multiplicidad de un cero, se tienen los siguientes


resultados.

Proposición 1.5 Sean f ∈ C 1 (a, b)1 y α ∈ (a, b). La función f tiene un cero simple (i.e.
de multiplicidad 1) en α, si y sólo si

f (α) = 0 y f ′ (α) 6= 0. (1.4)


1
Recordemos que, dado n ≥ 0 un número entero, usaremos la notación
(
C 0 (a, b) = {f / f : (a, b) → R, y f es continua en (a, b)} si n = 0,
C n (a, b) = {f / f ∈ C 0 (a, b) y existen di f /dxi ∈ C 0 (a, b) ∀i : 1 ≤ i ≤ n} si n ≥ 1.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

4 Cálculo Numérico I.

Demostración. Supongamos en primer lugar que f tiene un cero simple en α. En tal caso,
evidentemente f (α) = 0. Además, f puede ser escrita en la forma (1.3), y en consecuencia,
la función
f (x)
q(x) = , x ∈ (a, b) \ {α},
x−α
con lo que, teniendo en cuenta que f (α) = 0, se tiene

f (x) − f (α)
0 6= lı́m q(x) = lı́m = f ′ (α).
x→α x→α x−α
Recı́procamente, supongamos que se satisface (1.4). Consideremos la función qb definida
por
f (x)
qb(x) = , x ∈ (a, b) \ {α}.
x−α
Evidentemente se satisface

f (x) = (x − α)b
q (x), x ∈ (a, b) \ {α}.

Además,
f (x) − f (α)
lı́m qb(x) = lı́m = f ′ (α) 6= 0,
x→α x→α x−α
de donde se obtiene el resultado.
La propiedad anterior puede ser generalizada al caso m ≥ 2:

Proposición 1.6 Sean m ≥ 2 entero, f ∈ C m (a, b) y α ∈ (a, b). La función f tiene un cero
en α de multiplicidad m si y sólo si

f (α) = f ′ (α) = ... = f m−1) (α) = 0, f m) (α) 6= 0.

Demostración. Se deja como ejercicio.

Ejemplo 1.7 Aplicando el resultado anterior deducimos que α = 0 es un cero simple de la


función f (x) = sen x. Del mismo modo α = 0 es un cero doble (de multiplicidad m = 2) de
la función g(x) = cos x − 1.

Es importante resaltar que en este curso nos vamos a limitar a la aproximación de raı́ces
simples de ecuaciones no lineales.
En cualquier proceso de cálculo de raı́ces de una ecuación no lineal se distinguen tres
fases: localización, separación y aproximación.

1. En la fase de localización se busca conocer un intervalo donde se encuentra una o


varias soluciones de la ecuación, haciendo uso para ello de métodos analı́ticos, tablas,
representación aproximada, etc.... El propio origen de la ecuación (fı́sico, técnico, ...)
puede dar indicaciones de dónde se encuentran las soluciones. Obsérvese que después
de esta fase habremos dado respuesta al problema de la existencia de raı́ces de la
ecuación (1.1).

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 5

2. La separación consiste en encontrar subintervalos que contengan una y sólo una solución
de la ecuación, ello es fundamental en el caso de raı́ces muy próximas. En general, se
puede conseguir la separación combinando el teorema de Bolzano y la Proposición 1.10.
Cuando se ha conseguido esto, se dice que la solución está aislada. Ello no siempre se
puede conseguir, ası́ por ejemplo si consideramos la función

x sen(1/x), si x 6= 0,
f (x) =
0, si x = 0;

la solución x = 0 de la ecuación f (x) = 0 no puede ser aislada.


Obsérvese que después de esta fase conoceremos el número de soluciones que posee
la ecuación (1.1).

3. En la fase de aproximación, se construye una sucesión de valores que converja hacia la


solución buscada, ello se realiza, habitualmente, mediante un método iterativo. Noso-
tros vamos a estudiar métodos iterativos de los denominados de un paso o un punto
inicial.

Para la primera fase (localización de raı́ces) utilizaremos el Teorema de Bolzano:

Teorema 1.8 Sean a, b ∈ R, con a < b, y f : [a, b] → R una función continua en [a, b] tal
que f (a)f (b) ≤ 0. Entonces, existe α ∈ [a, b] tal que f (α) = 0.

Es importante destacar que si cambiamos la hipótesis f (a)f (b) ≤ 0 por la condición


f (a)f (b) < 0 (siendo f una función continua en [a, b]), entonces podemos concluir que existe
α ∈ (a, b) tal que f (α) = 0.
En la fase de separación utilizaremos básicamente la monotonı́a de la función en su
dominio. Recordemos lo siguiente:

Definición 1.9 Sean I ⊂ R un intervalo no degenerado, i.e., un intervalo que no se reduce


a un punto, y f una función real definida en dicho intervalo.

a) Se dice que f es creciente (respectivamente, decreciente) en el intervalo I, si para


cualesquiera x1 , x2 ∈ I con x1 < x2 , se tiene f (x1 ) ≤ f (x2 ) (respectivamente, f (x1 ) ≥
f (x2 )). Se dice que f es monótona en I si es creciente en I o si decreciente en I.

b) Se dice que f es estrictamente creciente (respectivamente, estrictamente decreciente)


en el intervalo I, si para cualesquiera x1 , x2 ∈ I con x1 < x2 , se tiene f (x1 ) < f (x2 )
(respectivamente, f (x1 ) > f (x2 )). Se dice que f es estrictamente monótona en I si es
estrictamente creciente en I o estrictamente decreciente en I.

De la definición, deducimos el resultado siguiente

Proposición 1.10 Sean I ⊂ R un intervalo no degenerado y f : I → R una función real.


Si f es estrictamente monótona en I, entonces la ecuación (1.1) tiene a lo más una solución
en el intervalo I.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

6 Cálculo Numérico I.

Demostración. La prueba del resultado es directa: Por reducción al absurdo, supongamos


que f posee dos ceros distintos en I, α1 , α2 ∈ I, y, por fijar ideas, supongamos que f es
estrictamente creciente en I y α1 < α2 . De aquı́,
0 = f (α1 ) < f (α2 ) = 0
que, evidentemente, es absurdo.

Observación 1.11 Es bien conocido que si f es derivable en el intervalo I y f ′ (x) > 0


en todo punto x ∈ I, entonces f es estrictamente creciente en I. Análogamente, si
f ′ (x) < 0 en todo punto x ∈ I, entonces f es estrictamente decreciente en I.
En consecuencia, si f ′ es siempre positiva en I, o siempre negativa en I, entonces la
ecuación (1.1) tiene a lo más una solución en dicho intervalo.
Si f es monótona en I, pero no estrictamente monótona, entonces la ecuación (1.1)
puede tener infinitas soluciones en este intervalo.
Las consideraciones anteriores no son válidas para la ecuación de punto fijo g(x) = x.
La función g puede ser estrictamente monótona, pero la (EP F ) puede tener infinitas
soluciones. Ası́ por ejemplo, si consideramos la función g(x) = x + 21 sen x, su derivada
es g ′ (x) = 1 + 12 cos x > 0 en todo punto x ∈ R. En consecuencia, esta función g
es estrictamente creciente en I = R, pero la ecuación g(x) = x ⇔ sen x = 0, tiene
infinitas soluciones en R, dadas por xk = kπ, k ∈ Z.

En la fase de aproximación de raı́ces utilizaremos los llamados métodos iterativos de


un paso. Éstos se definen:

Definición 1.12 Un método iterativo es un proceso constructivo que genera una sucesión
{xk }k≥0 . Supongamos dados x0 ∈ R un punto y G : D ⊆ R → R una función. Un método
iterativo de un paso (o de un punto inicial) es un método iterativo que genera una sucesión
por recurrencia mediante la fórmula
(
x0 ∈ R dado,
(1.5)
xk+1 = G(xk ), ∀k ≥ 0.

Ası́ pues, un método iterativo de un paso depende de la fórmula (1.5) que se utilice, y
también del punto inicial x0 que se tome. Cuando lo planteamos, el método iterativo debe
dar respuesta a las siguientes cuestiones:

1. Bien definido: El primer problema que se presenta con todo método iterativo de
un paso es saber si partiendo de x0 , con el esquema (1.5) se construye una verdadera
sucesión. Ası́ por ejemplo, si consideramos la sucesión definida por recurrencia mediante
la fórmula
3
xk+1 = 3 − , k ≥ 0,
xk
(G(x) = 3 − 3/x) y partimos de x0 = 2, es inmediato ver que se van obteniendo
sucesivamente, x1 = 3/2, x2 = 1, x3 = 0, y en consecuencia x4 no está definida. En
consecuencia, en este caso diremos que el método iterativo está mal definido.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 7

2. Convergencia del método: Una vez que el método iterativo proporciona una suce-
sión {xk }k≥0 cabe plantearse si la sucesión es convergente. Por ejemplo, si consideramos
x0 = −1 y consideramos (1.5) con
 
(1 + x)π
G(x) = cos ,
2

obtenemos la sucesión xk = (−1)k+1 que, evidentemente, es oscilante.

3. Convergencia: Cuando usamos un método iterativo para aproximar una raı́z α de f ,


debemos analizar si la sucesión generada converge hacia ese cero α.

4. Velocidad de convergencia: Queremos determinar el número de iteraciones que hay


que hacer para que el error que se cometa sea menor que una cantidad ε > 0 prefijada.

5. Orden de convergencia: Queremos conocer cómo evoluciona el error en el curso de


las iteraciones.

En este Tema vamos estudiar dos métodos iterativos de un paso para los que responde-
remos a estas cuestiones.

Observación 1.13 Es importante resaltar que el método iterativo (1.5) está bien definido
cuando se puede demostrar que los puntos xk que va generando están en el dominio de G
para cualquier k ≥ 0. En particular el método iterativo de un paso estará bien definido si la
función G satisface imag (G) ⊆ dom (G) ≡ D.

En lo que sigue vamos a considerar una función f : D → R definida en D ⊆ R y α ∈ D


un cero de f en D (es decir, una solución de la ecuación (1.1)). Ası́, introducimos

Definición 1.14 1. Se dice que el método iterativo dado por la fórmula (1.5) tiene la
propiedad de convergencia global hacia α ∈ R en D ⊂ R, si para todo dato inicial
x0 ∈ D la sucesión {xk }k≥0 está bien definida, {xk }k≥0 ⊂ D y es convergente hacia α.

2. Se dice que el método iterativo (1.5) tiene la propiedad de convergencia local hacia
α ∈ R si existe un número δ > 0 tal que para cualquier x0 ∈ [α − δ, α + δ] ∩ D la
sucesión {xk }k≥0 está bien definida, {xk }k≥0 ⊂ [α − δ, α + δ] ∩ D y es convergente
hacia α.

3. Se dice que α es un punto atractivo para el método iterativo (1.5) si el método iterativo
tiene convergencia, al menos local, en D hacia el cero α. En caso contrario, diremos
que α es un punto repulsivo para dicho método.

Obsérvese que distintas raı́ces de una misma ecuación pueden ser unas atractivas y otras
repulsivas para un mismo método iterativo (veremos ejemplos de ello en clase de problemas).
Otra propiedad importante de los métodos iterativos es el llamado orden de conver-
gencia del método. En cierto sentido, el orden de convergencia proporciona una medida de
la velocidad de convergencia de la sucesión construida con el método hacia su lı́mite.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

8 Cálculo Numérico I.

Definición 1.15 Sean {xk }k≥0 una sucesión de números reales, p > 0 un número real y
α ∈ R tal que lı́m xk = α. Se dice que la sucesión tiene orden de convergencia al menos p si
existen un número entero k0 ≥ 0 y un número real C > 0 (0 < C < 1 si p = 1) tales que

|xk+1 − α| ≤ C|xk − α|p para todo k ≥ k0 .

Nótese que en la definición precedente, p no tiene que ser necesariamente un número


entero. En la terminologı́a clásica, si p = 1, 2 ó 3, se habla de convergencia al menos lineal,
cuadrática o cúbica, respectivamente. Si p < 1, o si p = 1 y C ≥ 1, se dice que la convergencia
es sublineal, y si p > 1 se dice que la convergencia es superlineal.

Observación 1.16 Es interesante resaltar que no toda sucesión convergente tiene asignado
un orden de convergencia en el sentido de la definición anterior. Por ejemplo, la sucesión
1 1 1 1 1 1
0, 1, 1, , 2 , , 3 , ..., , n , ...,
2 2 3 3 n n
converge a cero, pero
|x2k+1 | 1/(k + 1)
= ,
|x2k |p 1/k pk
sucesión que converge a +∞ cuando k → ∞, cualquiera que sea p > 0.

Podemos caracterizar el orden de convergencia de una sucesión. Se tiene:

Proposición 1.17 Sean {xk }k≥0 una sucesión de números reales, p > 0 un número real y
α ∈ R tal que lı́m xk = α y con xk 6= α para todo k ≥ 0. Entonces, la sucesión {xk }k≥0 tiene
orden de convergencia al menos p si y sólo si
|xk+1 − α|
lı́m sup = L < +∞ (L < 1 si p = 1). (1.6)
|xk − α|p

Demostración. En primer lugar, obsérvese que se tiene |xk − α| = 6 0 para cualquier k ≥ 0


por lo que los cocientes que aparecerán a continuación están bien definidos.
Si el orden de convergencia es al menos p, existe un entero k0 ≥ 0 y una constante C > 0
(C < 1 si p = 1) tal que

|xk+1 − α|
≤C para todo k ≥ k0 .
|xk − α|p
En consecuencia
|xk+1 − α|
lı́m sup =L≤C
|xk − α|p
de donde deducimos (1.6).
Recı́procamente, supongamos que se tiene (1.6). Fijemos ε > 0 (con L + ε < 1 si p = 1).
Entonces, utilizando las propiedades de los lı́mites superiores, existe un entero k0 (ε) ≥ 1 tal
que
|xk+1 − α|
≤ L + ε para todo k ≥ k0 (ε).
|xk − α|p

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 9

Basta tomar C = L + ε para deducir que {xk }k≥0 tiene orden de convergencia al menos p.
Esto acaba la prueba.
|xk+1 − α|
Obsérvese que en el caso en que exista lı́m , la proposición anterior afirma que
|xk − α|p
la sucesión {xk }k≥0 tiene orden de convergencia al menos p si y sólo si
|xk+1 − α|
lı́m = L < +∞ (L < 1 si p = 1).
|xk − α|p

Definición 1.18 Sean {xk }k≥0 ⊂ R una sucesión, p > 0 un número real y α ∈ R tal que
lı́m xk = α. Supongamos que xk 6= α para cualquier k ≥ 0. Entonces, se dice que la sucesión
tiene orden de convergencia (exactamente) p si existe
|xk+1 − α|
lı́m = L ∈ (0, +∞) (L ∈ (0, 1) si p = 1). (1.7)
|xk − α|p
En tal caso, a la constante L definida por (1.7) se le denomina la constante asintótica del
error.

Observación 1.19 Obsérvese que si una sucesión {xk }k≥0 converge hacia α con orden de
convergencia p (y xk 6= α para cualquier k ≥ 0), entonces para cualquier q > 0 existe

|xk+1 − α|  +∞ si q > p,
lı́m = L si q = p,
|xk − α|q 
0 si q < p.

Por otro lado, dada una sucesión {xk }k≥0 convergente hacia α, en general ésta no tiene
un orden de convergencia en el sentido de la Definición 1.18 (ver ejemplos más abajo).

Ejemplo 1.20 1. Consideremos la sucesión {xk }k≥1 con xk = k1 . Evidentemente, existe


el lı́m xk = 0, pero es fácil comprobar que no tiene un orden de convergencia hacia 0
pues
|xk+1 |
lı́m = 1 (p = 1 y L = 1)
|xk |
pero, como L = 1, no podemos decir que la sucesión converge con orden 1 (lineal). Por
otro lado, 
|xk+1 | 0 si p < 1,
lı́m =
|xk |p ∞ si p > 1.

2. Consideremos ahora la sucesión {xk }k≥1 con xk = 21k . Es fácil comprobar que la sucesión
converge hacia 0 con orden de convergencia exactamente 1. Efectivamente
|xk+1 | 1
lı́m = ∈ (0, 1).
|xk | 2
Como ya hemos dicho, el orden de convergencia de una sucesión mide la velocidad de con-
vergencia de la sucesión hacia su lı́mite. En el siguiente ejemplo pondremos de manifiesto
este hecho:

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

10 Cálculo Numérico I.

Ejemplo 1.21 Consideremos la sucesión {xk }k≥0 definida por recurrencia (algoritmo de
Heron para x = 1),
x2 + 1
x0 = 2, xk+1 = k , ∀k ≥ 0.
2xk
1. En primer lugar, es fácil ver que la sucesión {xk }k≥0 está bien definida. Efectivamente,
por inducción no es difı́cil probar que

xk > 0, ∀k ≥ 0.

2. Veamos que {xk }k≥0 es convergente probando que la sucesión es monótona y acotada.
Obsérvese que
1 − x2k
xk+1 − xk = , ∀k ≥ 0,
2xk
ası́, para comprobar la monotonı́a de la sucesión, estudiemos la cantidad 1−x2k . Ası́, si k ≥ 1,
 2  2
x2k−1 + 1 x2k−1 − 1
1− x2k =1− =− .
2xk−1 2xk−1

Utilizando las igualdades anteriores es fácil ver (por inducción) que la sucesión es monóto-
na decreciente. Por otro lado, de la segunda igualdad también deducimos

1 ≤ xk ≤ x0 = 2, ∀k ≥ 0,

es decir, la sucesión {xk }k≥0 está acotada.


Deducimos por tanto que existe lı́m xk = l. Veamos cuánto vale éste. De la acotación
obtenida para xk , se tiene que l ∈ [1, 2]. Por otro lado, tomando lı́mite en la fórmula de
recurrencia obtenemos
l2 + 1
l= ⇐⇒ l = 1.
2l
3. Veamos ahora que la sucesión {xk }k≥0 converge hacia 1 con orden de convergencia 2
(convergencia cuadrática). Para ello, calculemos el lı́mite

|xk+1 − 1| 1 1
lı́m 2
= lı́m = .
|xk − 1| 2xk 2

Como hemos dicho anteriormente este orden de convergencia mide la velocidad con la que
la sucesión se acerca hacia su lı́mite. Veremos esto en el siguiente punto.
4. Calculemos cuántas iteraciones k son necesarias para que el error |xk − 1| sea menor que
10−4 . Teniendo en cuenta que xk ≥ 1 para todo k ≥ 0, es fácil ver la desigualdad

|xk − 1| 1 1
2
= ≤ , ∀k ≥ 1,
|xk−1 − 1| 2xk−1 2

es decir,
1
|xk − 1| ≤ |xk−1 − 1|2 , ∀k ≥ 1.
2

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 11

Razonando por inducción y teniendo en cuenta que x1 = 5/4, también se deduce

11 1 1 2k−1 1 1 1
|xk − 1| ≤ 2 ··· k−2 |x1 − 1| = 2k−1 −1 2k = , ∀k ≥ 1.
23(2 )−1
2
22 22 22 2 2 k−1

Obsérvese que aseguramos que |xk − 1| ≤ 10−4 si calculamos k tal que


  
1 −4 1 1 4 log 10
≤ 10 ⇐⇒ k ≥ 1 + ln 1+ ⇐⇒ k ≥ 3′ 2517405377 . . .
23(2 )−1 log 2 3 log 2
k−1

Basta por tanto tomar k = 4. Ası́, en la cuarta iteración del método podemos asegurar que
el error cometido es menor que 10−4 . (En este ejemplo tan sencillo es posible calcular el error
exacto que, de hecho, es mejor que la cota obtenida:


 x1 = 1, 25 y |x1 − 1| = 0′ 25,

 x
2 = 1, 025 y |x3 − 1| = 0′ 25 · 10−1 ,

 x3 = 1, 0003048780488 · · · y |x3 − 1| = 0′ 3049 · 10−3 ,


x4 = 1′ 00000004647 . . . y |x4 − 1| = 0′ 4647 · 10−7 ).

2. Método de bisección
El método de bisección (o de dicotomı́a) es un método de aproximación de raı́ces de una
función que está basado en el Teorema de Bolzano. Para presentarlo supongamos dados un
intervalo cerrado [a, b] ⊂ R (con a < b) y una función f : [a, b] → R continua en [a, b] y
consideremos la ecuación (1.1). Supondremos en esta sección las hipótesis
Hipótesis: Supongamos que f es continua en [a, b] y f (a)f (b) < 0. Como aplicación del
Teorema de Bolzano (Teorema 1.8), sabemos que existe un punto α ∈ (a, b) tal que f (α) = 0.
Supongamos que dicho cero α es el único cero de f en [a, b].
Bajo las condiciones precedentes, vamos a construir una sucesión de intervalos encajados

[a, b] = [a0 , b0 ] ⊃ [a1 , b1 ] ⊃ [a2 , b2 ] ⊃ · · · ⊃ [ak , bk ] ⊃ . . . ,

que siempre contienen al punto α. Para ello razonamos del siguiente modo:
Etapa 1. Tenemos que f (a0 )f (b0 ) = f (a)f (b) < 0. Sea

a0 + b0
x0 = .
2

Si f (x0 ) = 0, ya hemos encontrado la solución α = x0 .


Si f (x0 ) 6= 0, entonces se pueden presentar dos casos:

a) Si f (a0 )f (x0 ) < 0, tomamos a1 = a0 y b1 = x0 .

b) Si f (a0 )f (x0 ) > 0, entonces f (x0 )f (b0 ) < 0, y tomamos a1 = x0 y b1 = b0 .

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

12 Cálculo Numérico I.

Tanto en el caso a) como en el b), el intervalo [a1 , b1 ] construido satisface [a1 , b1 ] ⊂ [a0 , b0 ],
f (a1 )f (b1 ) < 0 (y por tanto, α ∈ (a1 , b1 )) y

1 1
b1 − a1 = (b0 − a0 ) = (b − a).
2 2

Etapa k. Supongamos que f (ak−1 )f (bk−1 ) < 0. Sea

ak−1 + bk−1
xk−1 = .
2
Si f (xk−1 ) = 0, ya hemos encontrado la solución α = xk−1 .
Si f (xk−1 ) 6= 0, entonces se pueden presentar dos casos:

a) Si f (ak−1 )f (xk−1 ) < 0, tomamos ak = ak−1 y bk = xk−1 .

b) Si f (ak−1 )f (xk−1 ) > 0, entonces f (xk−1 )f (bk−1 ) < 0, y tomamos ak = xk−1 y bk = bk−1 .

Nuevamente, tanto en el caso a) como en el b), el intervalo [ak , bk ] satisface [ak , bk ] ⊂


[ak−1 , bk−1 ], f (ak )f (bk ) < 0 (y por tanto, α ∈ (ak , bk )) y

1
bk − ak = (bk−1 − ak−1 ), ∀k ≥ 1.
2

Mediante este algoritmo, o bien en un número finito de etapas se ha encontrado la raı́z


α de f en (a, b) o, en caso contrario, construimos una sucesión de intervalos encajados
{[ak , bk ]}k≥0 que satisfacen:

 ak ≤ ak+1 , bk+1 ≤ bk y α ∈ (ak , bk ) ∀k ≥ 0,
1
 bk − ak = (b − a) ∀k ≥ 0.
2k

En particular, deducimos que la sucesión {ak }k≥0 es monótona creciente, {bk }k≥0 es monótona
decreciente y

1 1
0 ≤ α − ak ≤ k
(b − a) y 0 ≤ bk − α ≤ k (b − a) ∀k ≥ 0.
2 2
Por tanto lı́m ak = α y lı́m bk = α.
Después de haber efectuado k pasos, se puede tomar como aproximación de la raı́z α de
ak + b k
f en (a, b) el valor xk = que, evidentemente satisface lı́m xk = α. De hecho, podemos
2
acotar el error absoluto cometido por

1
|xk − α| ≤ (b − a).
2k+1
Tenemos ası́ descrito el método de bisección o dicotomı́a.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 13

Observación 2.1 El método de bisección presenta varios inconvenientes. Es lento (de he-
cho, la convergencia del algoritmo no llega a ser lineal), ya que no aprovecha ninguna otra
propiedad de f que no sea el signo de la misma. Es un método en que pasa desapercibido si
se acerca uno mucho o no a la solución, y es computacionalmente costoso, ya que hay que
efectuar muchas comparaciones.
Sin embargo, el método de bisección presenta también algunas ventajas. Ası́, es siempre
convergente en el intervalo en el que se aplica. Además, tiene una expresión explı́cita de la
cota del error (lo que permite saber a priori el número de etapas k a aplicar para obtener
una aproximación de la raı́z α con una precisión ε > 0 prefijada).

3. Métodos de primer orden: el método de las aproxi-


maciones sucesivas
Consideremos a, b ∈ R, con a < b, y g : [a, b] → R una función continua en [a, b]. En esta
sección estudiaremos el llamado método de las aproximaciones sucesivas (MAS). Se trata de
un método iterativo de un paso aplicable a ecuaciones que se escriben en la forma:

x = g(x). (EP F )

Definición 3.1 Sea α ∈ [a, b]. Se dice que α es un punto fijo de g si g(α) = α, es decir, si
α es solución de la ecuación (EP F ).

Los puntos fijos de g geométricamente corresponden a las abcisas de los puntos de corte
entre la gráfica de la recta y = x y la gráfica y = g(x).
Ası́, el método de las aproximaciones sucesivas (M AS) aplicado a la ecuación (EP F )
tiene la forma: (
x0 ∈ [a, b] dado,
(M AS)
xk+1 = g(xk ), ∀k ≥ 0.
Obsérvese en primer lugar que para que (M AS) esté bien definido se debe tener que xk ∈ [a, b]
para cualquier k ≥ 0.
Comencemos analizando la existencia y/o unicidad de puntos fijos de la función g. Se
tiene:

Proposición 3.2 (existencia de solución para (EP F )) Sean a, b ∈ R, con a < b, y


g : [a, b] → R una función continua en el intervalo [a, b]. Supongamos que se tiene

(g(a) − a)(g(b) − b) ≤ 0. (3.8)

Entonces, existe al menos un α ∈ [a, b] tal que g(α) = α.

Demostración. Basta aplicar el Teorema de Bolzano (Teorema 1.8) en el intervalo [a, b] a


la función h(x) = g(x) − x.

Observación 3.3 Es fácil comprobar que una condición suficiente para que se satisfaga (3.8)
es que g([a, b]) ⊆ [a, b].

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

14 Cálculo Numérico I.

Pasemos a continuación a analizar la unicidad de solución de la ecuación (EP F ). Para


ello, introduzcamos la siguiente definición:
Definición 3.4 Sean dados a, b ∈ R, con a < b, y g : [a, b] → R una función. Se dice que g
es contractiva en el intervalo [a, b], si existe una constante L ∈ [0, 1) tal que

|g(x) − g(y)| ≤ L|x − y| ∀x, y ∈ [a, b]. (3.9)

En tal caso, a L se la denomina una constante de contractividad para g en [a, b].

Ejemplo 3.5 La función g : [1, 2] → R dada por


x 1
g(x) = + , ∀x ∈ [1, 2],
2 x
es contractiva en [1, 2] pues

1 1 1
|g(x) − g(y)| = − |x − y| ≤ |x − y|, ∀x, y ∈ [1, 2].
2 xy 2
Ası́, g es contractiva en [1, 2] con constante de contractividad asociada L = 1/2 ∈ (0, 1).

Observación 3.6 1. Si g es contractiva en g con constante de contractividad L ∈ [0, 1),


entonces
|g(x) − g(y)| ≤ L|x − y| < |x − y| ∀x, y ∈ [a, b] con x 6= y. (3.10)
En particular, la distancia entre las imágenes g(x) y g(y) es menor que la distancia
entre x e y: la función g “contrae” las distancias.
2. Obsérvese que la condición (3.9) implica la condición (3.10). En particular ambas
condiciones implican la continuidad uniforme depla función g en el intervalo [a, b].
El recı́proco no es cierto; basta considerar g(x) = |x| en el intervalo [−1, 1] que es
uniformemente continua en [−1, 1] pero no es contractiva en el intervalo (ver relación
de problemas).
3. La constante L de contractividad asociada a una función g contractiva en el intervalo
[a, b] puede ser interpretada geométricamente como una cota superior de la pendiente
de las rectas secantes a la gráfica de la curva y = g(x) en el intervalo [a, b].

Proposición 3.7 (unicidad de solución para (EP F )) Sean a, b ∈ R, con a < b, y g :


[a, b] → R una función contractiva en [a, b]. Entonces, existe a lo más una solución de (EP F )
en [a, b] (o dicho de otro modo, g posee, a lo sumo, un punto fijo en [a, b]).

Demostración. Supongamos que α1 , α2 ∈ [a, b] son dos puntos fijos distintos de g en [a, b].
Entonces,
0 < |α1 − α2 | = |g(α1 ) − g(α2 )| ≤ L|α1 − α2 | < |α1 − α2 |,
donde L ∈ [0, 1) es una constante de contractividad de g en [a, b]. Evidentemente esto es
absurdo.
Una condición suficiente para que una función sea contractiva en un intervalo [a, b], viene
dada en la siguiente proposición:

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 15

Proposición 3.8 Sea g : [a, b] → R una función continua en el intervalo [a, b] y derivable
en (a, b). Supongamos que satisface la condición

L := sup |g ′ (x)| < 1.


x∈(a,b)

Entonces, g es contractiva en el intervalo [a, b], siendo L una constante de contractividad


para g en [a, b].

Demostración. Sean x, y ∈ [a, b]. Aplicando el Teorema del Valor Medio a la función g
deducimos que existe un punto z ∈ (a, b) tal que

|g(x) − g(y)| = |g ′ (z)(x − y)| ≤ L|x − y|.

De esta desigualdad deducimos la prueba.


Pasemos a continuación a analizar la convergencia del método (M AS) presentado ante-
riormente. El resultado que sigue, proporciona convergencia global de (M AS) y acotación
del error.

Teorema 3.9 (convergencia global de (M AS) y acotación del error) Sean a, b ∈ R,


con a < b, y g : [a, b] → R dados. Supongamos que g([a, b]) ⊆ [a, b] y que g es contractiva en
el intervalo [a, b], con constante de contractividad L ∈ [0, 1). Entonces,
1. La función g posee un único punto fijo α en [a, b].

2. El método de aproximaciones sucesivas (M AS) está bien definido en [a, b], i.e., para
todo x0 ∈ [a, b] se tiene que {xk }k≥0 ⊂ [a, b].

3. El método de aproximaciones sucesivas (M AS) es globalmente convergente en [a, b]


hacia α con orden de convergencia al menos 1.

4. Se tienen las siguientes acotaciones del error absoluto:

|xk − α| ≤ Lk |x0 − α| ∀k ≥ 0 y ∀x0 ∈ [a, b] (cota a priori), (3.11)

Lk
|xk − α| ≤ |x1 − x0 | ∀k ≥ 1 y ∀x0 ∈ [a, b] (cota a posteriori). (3.12)
1−L
Demostración. En primer lugar, al ser g una función contractiva en el intervalo [a, b]
deducimos que g es también continua en [a, b]. Veamos la prueba de los puntos del enunciado:
El primer punto es consecuencia directa de las Proposiciones 3.2 y 3.7 (véase la Obser-
vación 3.3). Por otro lado, teniendo en cuenta la hipótesis g([a, b]) ⊆ [a, b], es fácil deducir
que para cualquier x0 ∈ [a, b] el método está bien definido y satisface

{xk }k≥0 ⊂ [a, b].

Pasemos a continuación a probar el punto 3. Para ello, probemos la estimación (3.11).


Fijemos x0 ∈ [a, b] arbitrario. Se tiene,

|xk − α| = |g(xk−1 ) − g(α)| ≤ L|xk−1 − α| ≤ · · · ≤ Lk |x0 − α|.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

16 Cálculo Numérico I.

Obsérvese que en la desigualdad anterior estamos usando de manera reiterada que, para
cualquier k ≥ 0, xk ∈ [a, b] y que g es contractiva en [a, b].
Teniendo en cuenta que L ∈ [0, 1), deducimos que lı́m xk = α y, por tanto, tenemos que
el método (M AS) es globalmente convergente en el intervalo [a, b]. Por otro lado, tenemos

|xk − α| ≤ L|xk−1 − α|, ∀k ≥ 1.

De aquı́ deducimos que el método tiene orden de convergencia al menos 1. Tenemos probado
el punto 3 y la desigualdad (3.11).
Para finalizar probemos la estimación (3.12). Sea m ≥ 0 un número natural. Entonces,

|xm+1 − xm | = |g(xm ) − g(xm−1 )| ≤ L|xm − xm−1 | ≤ · · · ≤ Lm |x1 − x0 |,

(de nuevo hemos usado que, para cualquier k ≥ 0, xk ∈ [a, b] y que g es contractiva en
[a, b]). Por otro lado, si tomamos k, m ∈ N con m > k, aplicamos la desigualdad triangular
y tenemos en cuenta la desigualdad anterior, podemos escribir


 |xm − xk | ≤ |xm − xm−1 | + |xm−1 − xm−2 | + · · · + |xk+2 − xk+1 | + |xk+1 − xk |

  k 

  L − Lm
m−1 m−2 k+1 k
≤ L +L + ··· + L + L |x1 − x0 | = |x1 − x0 |
 1−L



 Lk
 ≤ |x1 − x0 |.
1−L
Sabemos que lı́mm→∞ xm = α, ası́, si en la desigualdad precedente tomamos lı́mm→∞ obten-
dremos la estimación (3.12). Esto finaliza la prueba.

Observación 3.10 Las acotaciones del error dadas en las desigualdades (3.11) y (3.12)
muestran que la convergencia del método será mejor cuanto más próxima esté la constante
de contractividad L a 0.

Ejemplo 3.11 Consideremos la ecuación de punto fijo e−x = x en el intervalo [1/2, log 2]
y veamos que este intervalo es un intervalo de convergencia global para (M AS), es decir,
comprobemos que g(x) = e−x satisface en [1/2, log 2] las condiciones del Teorema 3.9.
En primer lugar, la función g ∈ C 1 [1/2, log 2], es decir, g es continua y derivable en
[1/2, log 2] y g ′ es continua en [1/2, log 2]. De hecho,

g ′ (x) = −e−x < 0, ∀x ∈ [1/2, log 2].

En particular, g es estrictamente decreciente en el intervalo y se tiene

g([1/2, log 2]) = [g(log 2), g(1/2)] = [1/2, e−1/2 ] ⊂ [1/2, log 2].

Tenemos ası́ una de las hipótesis del Teorema 3.9 que hay que comprobar.
Veamos ahora que g es contractiva en [1/2, log 2] y calculemos una constante de contrac-
tividad asociada. Para ello, aplicaremos la Proposición 3.8:

máx |g ′ (x)| = máx e−x = e−1/2 = L < 1,


x∈[1/2,log 2] x∈[1/2,log 2]

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 17

y por tanto se satisfacen todas las condiciones del Teorema 3,9.


Apliquemos a continuación el (M AS) partiendo de x0 = 1/2 para aproximar el único
punto fijo α de g en [1/2, log 2]. En concreto, calculemos el número de iteraciones k para que
el error absoluto cometido sea menor que 10−3 . Con este fin usaremos la estimación (3.12):

Lk e−k/2 −1/2 1 2− e
|xk − α| ≤ |x1 − x0 | = e − = √ .
1−L 1 − e−1/2 2 2( e − 1)ek/2

Ası́, garantizamos que el error sea menor que 10−3 si calculamos k tal que
√  √ 
2− e −3 (2 − e) 103
√ ≤ 10 ⇐⇒ k ≥ 2 log √ = 11′ 2 . . .
2( e − 1)ek/2 2( e − 1)
En concreto, si tomamos k = 12 y aproximamos α por

x12 = 0′ 567067351853728 . . .

garantizamos que el error absoluto cometido es menor que 10−3 .

A continuación daremos un resultado de convergencia local para (M AS). En este resul-


tado no supondremos hipótesis globales en el intervalo, solo una propiedad sobre la derivada
en el punto fijo de la función. Se tiene:

Teorema 3.12 (convergencia local de (M AS)) Sea I ⊂ R un intervalo abierto y g :


I → R una función tal que existe α ∈ I verificando g(α) = α. Supongamos que existe δ > 0
tal que (α − δ, α + δ) ⊂ I y g ∈ C 1 (α − δ, α + δ). Supongamos también que

|g ′ (α)| < 1.

Entonces, α es un punto atractivo para (M AS), es decir, existe ρ ∈ (0, δ) tal que para
cualquier x0 ∈ [α − ρ, α + ρ] (M AS) está bien definido y genera una sucesión {xk }k≥0 que
satisface lı́m xk = α. Además, existe una constante L ∈ [0, 1) (que depende de ρ y |g ′ (α)|)
tal que
|xk − α| ≤ Lk |x0 − α| ∀k ≥ 0 y ∀x0 ∈ [α − ρ, α + ρ],
Lk
|xk − α| ≤ |x1 − x0 | ∀k ≥ 1 y ∀x0 ∈ [α − ρ, α + ρ].
1−L
Demostración. La prueba es una consecuencia del Teorema 3.9 aplicado en un intervalo
(que tendremos que encontrar) [α − ρ, α + ρ]. Como |g ′ (α)| < 1, existe ρ ∈ (0, δ) tal que
g ∈ C 1 ([α − ρ, α + ρ]) y
|g ′ (x)| < 1, ∀x ∈ [α − ρ, α + ρ].
Como consecuencia de la Proposición 3.8 obtenemos que g es contractiva en el intervalo
[α − ρ, α + ρ] y

L= máx |g ′ (x)| = |g ′ (x)| < 1, con x ∈ [α − ρ, α + ρ],


x∈[α−ρ,α+ρ]

es una constante de contractividad asociada.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

18 Cálculo Numérico I.

Por otro lado g([α − ρ, α + ρ]) ⊆ [α − ρ, α + ρ] pues, fijado x ∈ [α − ρ, α + ρ], existe


ξ ∈ (α − ρ, α + ρ) tal que

|g(x) − α| = |g(x) − g(α)| = |g ′ (ξ)||x − α| ≤ L|x − α| ≤ Lρ < ρ.

Se tiene ası́ la propiedad.


Podemos aplicar el Teorema 3.9 a g en el intervalo [α − ρ, α + ρ] obteniendo la prueba
del resultado.
En relación con el resultado anterior, también es posible dar condiciones suficientes para
que un punto fijo α de una función g sea repulsivo para el (M AS)

Proposición 3.13 Sea I ⊂ R un intervalo abierto y g : I → R una función tal que existe
α ∈ I verificando g(α) = α. Supongamos que existe δ > 0 tal que (α − δ, α + δ) ⊂ I y
g ∈ C 1 (α − δ, α + δ). Supongamos también que para una constante C > 1 se tiene

|g ′ (x)| ≥ C ∀x ∈ (α − δ, α + δ).

Entonces, α es un punto repulsivo para (M AS).

Demostración. Razonemos por reducción al absurdo. Si α es un punto atractivo para


(M AS) aplicado a g. Entonces, existe ρ ∈ (0, δ) tal que para cualquier x0 ∈ [α − ρ, α + ρ] el
método (M AS) está bien definido, genera una sucesión {xk }k≥0 ⊂ [α − ρ, α +ρ] y lı́m xk = α.
Tomemos x0 ∈ [α − ρ, α + ρ] con x0 6= α. Utilizando el Teorema del Valor Medio para los
puntos xk y α podemos escribir

|xk − α| = |g(xk−1 ) − g(α)| = |g ′ (ξk )||xk−1 − α|, ∀k ≥ 1,

donde ξk es un punto que está entre xk y α, es decir ξk ∈ [α − ρ, α + ρ] ⊂ (α − δ, α + δ).


Utilizando la hipótesis sobre |g ′ (x)| obtenemos

|xk − α| ≥ C|xk−1 − α|, ∀k ≥ 1.

Obsérvese que podemos seguir aplicando el razonamiento anterior (la sucesión satisface
{xk }k≥0 ⊂ [α − ρ, α + ρ]), obteniendo

|xk − α| ≥ C k |x0 − α|, ∀k ≥ k0 .

Al ser C > 1 y x0 6= α obtenemos que lı́m |xk − α| = ∞ y esto es, evidentemente absurdo.
Tenemos ası́ la prueba.
Como hemos comentado anteriormente, (M AS) es un método iterativo de orden de con-
vergencia al menos 1 (lineal). En algunos casos el orden de convergencia es mayor. Veamos
esto en el siguiente resultado:

Teorema 3.14 Sean m ∈ N, α, δ ∈ R, con δ > 0, y g : I = (α − δ, α + δ) → R una función


tal que g(α) = α. Supongamos que (M AS) es localmente convergente en I hacia el punto
fijo α de g. Entonces,

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 19

1. Si m ≥ 2, g ∈ C m (I) y

g ′ (α) = g ′′ (α) = · · · = g m−1) (α) = 0,

entonces (M AS) tiene orden de convergencia al menos m hacia α.

2. Si m ≥ 1, g ∈ C m (I),

g ′ (α) = g ′′ (α) = · · · = g m−1) (α) = 0 y g m) (α) 6= 0,

(con |g ′ (α)| < 1 si m = 1), entonces la sucesión {xk }k≥0 generada por el (M AS)
cumple que, o bien existe k0 ≥ 0 tal que xk = α para todo k ≥ k0 , o bien xk 6= α para
todo k ≥ 0 y dicha sucesión tiene orden de convergencia exacta m hacia α.

Demostración. Probemos cada una de las partes del resultado:


1. Como (M AS) es localmente convergente en I, existe ρ ∈ (0, δ) tal que para cualquier
x0 ∈ [α − ρ, α + ρ] (M AS) genera una sucesión {xk }k≥0 ⊂ [α − ρ, α + ρ] tal que lı́m xk = α.
Por otro lado, g ∈ C m (I) y, por tanto podemos hacer un desarrollo de Taylor hasta el orden
m. Ası́, fijado k ≥ 0, existe ξk (que está entre xk y α, es decir, ξk ∈ [α − ρ, α + ρ]) tal que
1 m)
|xk+1 − α| = |g(xk ) − g(α)| = |g (ξk )||xk − α|m ∀k ≥ 0. (3.13)
m!
Si tomamos C = máx |g m) (x)|/m! (obsérvese que g ∈ C m (I) y por tanto g m) es continua
x∈[α−ρ,α+ρ]
en [α − ρ, α + ρ]), entonces, de la desigualdad anterior obtenemos

|xk+1 − α| ≤ C|xk − α|m , ∀k ≥ 0.

De esta desigualdad deducimos el primer punto.


2. Sea {xk }k≥0 una sucesión generada para el (MAS) tal que lı́m xk = α. Hay dos posibilida-
des: o bien existe k0 ∈ N tal que xk = α para todo k ≥ k0 , o bien para todo k ∈ N, se tiene
que xk 6= α. Si ocurre esto último, por (3.13), dado que lı́mk ξk = α, se tiene
|xk+1 − α| 1 1 m)
lı́m m
= lı́m |g m) (ξk )| = |g (α)| =
6 0.
|xk − α| m! m!
De este modo deducimos el segundo punto y la prueba del resultado.

4. Métodos de segundo orden: método de Newton y


variantes
En esta sección volveremos de nuevo al estudio de la ecuación (1.1), donde supondremos
que la función f está definida en el intervalo [a, b] (con a, b ∈ R y a < b). Supongamos que
f admite una raı́z α en el intervalo (a, b). Nuestro primer objetivo es construir un método
iterativo de orden al menos cuadrático (orden 2) que aproxima a dicha raı́z de f . La idea
se basa en escribir de manera equivalente la ecuación (1.1) como (EP F ) para una nueva
función g y aplicar los resultados de la sección anterior. Razonamos del siguiente modo:

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

20 Cálculo Numérico I.

Sea h : [a, b] → R una función definida en [a, b] tal que h(x) 6= 0 en el intervalo [a, b].
Evidentemente la ecuación (1.1) equivale a

x − h(x)f (x) = x, (EP F )h

es decir, equivale a (EP F ) para la función g : [a, b] → R dada por g(x) = x − h(x)f (x).
La idea del método de Newton consiste en determinar h de tal modo que al aplicar el
(M AS) a la ecuación (EP F )h , resulte un método convergente de al menos segundo orden.
Para ello, teniendo en cuenta el Teorema 3.14, parece natural pedir que se tenga g ∈ C 2 [α −
ρ, α + ρ] (con ρ > 0 tal que [α − ρ, α + ρ] ⊆ [a, b]) y g ′ (α) = 0. Teniendo en cuenta que
g ′ (x) = 1 − h′ (x)f (x) − h(x)f ′ (x) y que f (α) = 0, deducimos que h ha de satisfacer

h(α)f ′ (α) = 1.

Si suponemos que f ′ (x) 6= 0 para cualquier x en [a, b], basta tomar como función h(x) =
1/f ′ (x). Ası́, la anterior ecuación (EP F )h se escribe

f (x)
x− = x,
f ′ (x)

ecuación para la que el (M AS) adopta la forma



 x0 ∈ [a, b] dado,
f (x ) (M N )
 xk+1 = xk − ′ k , ∀k ≥ 0.
f (xk )

Este método iterativo (M N ) recibe el nombre de Método de Newton.

Observación 4.1 1. El método de Newton tiene una interpretación geométrica sencilla,


que en realidad está en el origen histórico del mismo. En efecto, en cada etapa k, el valor
xk+1 corresponde a la abscisa del punto de corte con el eje OX de la recta tangente
a la curva y = f (x) en el punto (xk , f (xk )) (esta recta viene dada por y − f (xk ) =
f ′ (xk )(x − xk )). Esta interpretación geométrica justifica que el método de Newton
también reciba el nombre de método de la tangente.

2. Obsérvese que para poder aplicar el método de Newton en el intervalo [a, b] es necesario
que la función f sea al menos derivable en [a, b] y que f ′ (x) 6= 0 para todo x ∈ [a, b].

Comencemos estudiando un resultado de convergencia global del (M N ) en el intervalo


[a, b]. Se tiene:

Teorema 4.2 (Convergencia global del (M N )) Sean a, b ∈ R, con a < b, y f ∈ C 2 ([a, b])
tal que

(i) f (a)f (b) < 0,

(ii) f ′ (x) 6= 0, para todo x ∈ [a, b],

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 21

(iii) el signo de f ′′ (x) es constante en [a, b] (es decir, o f ′′ (x) ≥ 0 para todo x ∈ [a, b], o
f ′′ (x) ≤ 0 para todo x ∈ [a, b]),

(iv) si c ∈ {a, b} es tal que |f ′ (c)| = mı́n(|f ′ (a)|, |f ′ (b)|), entonces

|f (c)|
≤ b − a.
|f ′ (c)|

Entonces se tiene:

1. La función f tiene una única raı́z α en [a, b], i.e., existe un único α ∈ [a, b] tal que
f (α) = 0.

2. El (M N ) está bien definido, i.e. para todo x0 ∈ [a, b] se tiene {xk }k≥0 ⊂ [a, b].

3. El (MN) es globalmente convergente en [a, b] hacia α, i.e., para todo x0 ∈ [a, b] se tiene
que existe lı́m xk = α.

4. El (M N ) tiene convergencia al menos cuadrática en [a, b]. De hecho, si se m1 y M2


están dadas por:
m1 = mı́n |f ′ (x)| y M2 = máx |f ′′ (x)|, (4.14)
x∈[a,b] x∈[a,b]

entonces se tienen las siguientes acotaciones del error absoluto:

M2
|xk+1 − α| ≤ |xk − α|2 , ∀k ≥ 0, (4.15)
2m1

M2
|xk+1 − α| ≤ |xk+1 − xk |2 , ∀k ≥ 0. (4.16)
2m1

Demostración. Veamos cada uno de los puntos del enunciado:


1. En primer lugar, de las hipótesis (i) y (ii) deducimos que podemos aplicar las Propo-
siciones 1.8 y 1.10 deduciendo que f tiene un único cero α en [a, b].
Por otro lado, las hipótesis (i)–(iv) hacen que, geométricamente, haya cuatro situaciones
posibles:
1) f (a) < 0 (y, en consecuencia, f (b) > 0 y f ′ (x) > 0 en [a, b]) y f ′′ (x) ≤ 0 para todo
x ∈ [a, b],
2) f (a) < 0 (y, ası́, f (b) > 0 y f ′ (x) > 0 en [a, b]) y f ′′ (x) ≥ 0 para todo x ∈ [a, b],
3) f (a) > 0 (y, en consecuencia, f (b) < 0 y f ′ (x) < 0 en [a, b]) y f ′′ (x) ≤ 0 para todo
x ∈ [a, b],
4) f (a) > 0 (y, en consecuencia, f (b) < 0 y f ′ (x) < 0 en [a, b]) y f ′′ (x) ≥ 0 para todo
x ∈ [a, b].
Nosotros probaremos el teorema en la primera situación. El resto de configuraciones se
pueden demostrar de manera análoga (queda como ejercicio para el lector la prueba en
las tres restantes situaciones), o bien ser llevados al caso 1) mediante cambios de variables
adecuados (ver [3]).

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

22 Cálculo Numérico I.

A partir de ahora supondremos que f (a) < 0, f (b) > 0 y f ′′ (x) ≤ 0 para todo x ∈ [a, b].
En tal caso, por (ii) obtenemos que f ′ (x) > 0 para todo x ∈ [a, b] y, al ser f ′′ (x) ≤ 0, f ′ es
no creciente en [a, b]. Deducimos que la hipótesis (iv) se reescribe: c = b y

f (b)
≤ b − a. (4.17)
f ′ (b)

2. Veamos que el (M N ) está bien definido. Introduzcamos la función g : [a, b] → R


definida por
f (x)
g(x) = x − ′ , ∀x ∈ [a, b].
f (x)
De las hipótesis del enunciado deducimos que g ∈ C 1 ([a, b]). Evidentemente, el (M N ) es
el (M AS) aplicado a esta función g y xk+1 = g(xk ) para k ≥ 0. Ası́, para ver que (M N )
está bien definido, veamos que g([a, b]) ⊆ [a, b]. Para ello, observemos que

(f ′ (x))2 − f (x)f ′′ (x) f (x)f ′′ (x)


g ′ (x) = 1 − = , ∀x ∈ [a, b],
(f ′ (x))2 (f ′ (x))2

y, en consecuencia, como suponemos f ′′ (x) ≤ 0 para todo x ∈ [a, b], tenemos


(
g ′ (x) ≥ 0 ∀x ∈ [a, α) (g es creciente en [a, α]),
g ′ (x) ≤ 0 ∀x ∈ (α, b] (g es decreciente en [α, b]).

Veamos que g([a, b]) ⊆ [a, b]:

Si x ∈ [a, α], entonces g(a) ≤ g(x) ≤ g(α) = α < b. Como

f (a)
g(a) = a − > a,
f ′ (a)

deducimos que a < g(x) ≤ α < b para cada x ∈ [a, α].

Si x ∈ [α, b], entonces g(b) ≤ g(x) ≤ g(α) = α < b. Como c = b, de (4.17) deducimos

f (b)
g(b) = b − ≥ a.
f ′ (b)

También en este caso deducimos que a ≤ g(x) ≤ α < b para cada x ∈ [α, b].

Obsérvese que en realidad hemos probado que

a ≤ g(x) ≤ α, ∀x ∈ [a, b]. (4.18)

En particular, deducimos que (M N ) está bien definido. Esto prueba el punto 2.


3. Pasemos a probar que el método es globalmente convergente en [a, b] hacia α. Para ello,
veamos primero que, a partir del primer término, la sucesión generada por (M N ) es creciente

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 23

y está acotada superiormente. Efectivamente, si x0 ∈ [a, b], usando (4.18) obtenemos que
x1 = g(x0 ) ∈ [a, α]. Utilizando de nuevo (4.18) y un razonamiento de inducción conseguimos

{xk }k≥1 ⊂ [a, α].

En particular la sucesión {xk }k≥1 está acotada.


También {xk }k≥1 es creciente pues, si k ≥ 1 se tiene

f (xk )
xk+1 = g(xk ) = xk − ≥ xk .
f ′ (xk )

En la fórmula anterior hemos utilizado que {xk }k≥1 ⊂ [a, α] y que f (x) ≤ 0 en [a, α].
Resumiendo, la sucesión {xk }k≥1 ⊂ [a, α] es monótona creciente y está acotada superior-
mente. Ası́, existe el lı́mite
lı́m xk := α ≤ α.
En tal caso, tomando lı́mites en la igualdad

f (xk )
xk+1 = xk − ,
f ′ (xk )

obtenemos
f (α)
α=α− ,
f ′ (α)
es decir, f (α) = 0 o, equivalentemente, α = α. Obtenemos ası́ la prueba del tercer punto del
enunciado.
4. Estudiemos el orden de convergencia. Aunque g ′ (α) = 0 (lo que sugiere que el orden
de convergencia del método será al menos cuadrático), no podemos aplicar el Teorema 3.14
pues, en principio g no pertenece a C 2 ([a, b]). Estudiaremos directamente el error absoluto
del método:
De la expresión de xk+1 deducimos

f (xk ) + f ′ (xk )(xk+1 − xk ) = 0, ∀k ≥ 0. (4.19)

Por otra parte, realizando un desarrollo de Taylor de f (α) hasta el orden 2 (obsérvese que
f ∈ C 2 ([a, b]) también obtenemos:

1
0 = f (α) = f (xk ) + f ′ (xk )(α − xk ) + f ′′ (θk )(α − xk )2 , ∀k ≥ 0,
2
donde θk es un punto situado entre α y xk (y, por tanto en [a, b]). Restando las dos expresiones
obtenemos
1
f ′ (xk )(α − xk+1 ) + f ′′ (θk )(α − xk )2 = 0.
2
Despejando xk+1 − α, tomando valores absolutos y usando (4.14) deducimos (4.15). En
particular esta desigualdad (4.15) prueba que el método de Newton (M N ) es de orden al
menos cuadrático.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

24 Cálculo Numérico I.

Para obtener (4.16), volvemos a hacer un desarrollo de Taylor de segundo orden de


f (xk+1 ):
1
f (xk+1 ) = f (xk ) + f ′ (xk )(xk+1 − xk ) + f ′′ (θ̄k+1 )(xk+1 − xk )2 , ∀k ≥ 0,
2
donde ahora θ̄k+1 es un nuevo punto situado entre xk+1 y xk (y, de nuevo, en el intervalo
[a, b]). Usando (4.19) deducimos
1
f (xk+1 ) = f ′′ (θ̄k+1 )(xk+1 − xk )2 .
2
Por otra parte, aplicando el teorema del valor medio en los puntos xk+1 y α tenemos:
f (xk+1 ) = f (xk+1 ) − f (α) = f ′ (θbk+1 )(xk+1 − α),

donde θbk+1 es un punto intermedio entre xk+1 y la raı́z α. Igualando estas dos fórmulas y
despejando xk+1 − α obtenemos:
f ′′ (θ̄k )
xk+1 − α = (xk+1 − xk )2
b
2f (θk+1 )

Tomando valores absolutos y usando (4.14) obtenemos (4.16). Esto finaliza la prueba del
resultado.

Observación 4.3 1. Analizando la demostración del resultado anterior deducimos que


la hipótesis (iv) puede ser reescrita de manera equivalente del siguiente modo:
(iv) si c ∈ {a, b} es tal que |f ′ (c)| = mı́n(|f ′ (a)|, |f ′ (b)|), entonces, tomando x0 = c, se
tiene x1 ∈ [a, b].
2. De la demostración anterior también se deduce que, bajo las condiciones del Teore-
ma 4.2, la sucesión {xk }k≥1 que genera el método de Newton (M N ) es monótona a
partir del primer término. Efectivamente, hemos visto que en la primera de las cuatros
situaciones descritas al inicio de la prueba, la sucesión {xk }k≥1 es monótona creciente.
En las otras tres es posible comprobar que la sucesión sigue siendo monótona (creciente
o decreciente).
3. La acotación del error (4.16) (estimación “a posteriori”) es un test de parada para
el método. Supongamos que queremos calcular una aproximación de la raı́z α con un
error menor que ε > 0, entonces iterarı́amos el método hasta un término k ≥ 1 que
satisfaga
M2
|xk − xk−1 |2 < ε.
2m1
4. La condición (iv) del enunciado del Teorema 4.2 limita el tamaño del intervalo [a, b] a
considerar. En concreto, el punto c es el extremo “malo”del intervalo y la condición (iv)
se puede reescribir diciendo que si tomamos x0 = c, entonces el punto x1 no se sale del
intervalo [a, b]. El otro extremo del intervalo [a, b] es el extremo “bueno”: si tomamos
como x0 ese punto, la sucesión será monótona y convergerá hacia α. Vemos este punto
en el siguiente resultado.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 25

Corolario 4.4 (Regla de Fourier) Consideremos una función f ∈ C 2 ([a, b]) tal que sa-
tisface las hipótesis (i), (ii) y (iii) del Teorema 4.2. Sea x0 = a o x0 = b tal que se tiene2

f (x0 )f ′′ (x0 ) > 0.

Entonces, la sucesión {xk }k≥0 generada por el método (M N ) está bien definida, es monótona,
{xk }k≥0 ⊂ [a, b] y es convergente hacia α (la única raı́z de f en [a, b]) con orden de conver-
gencia al menos cuadrática. Además, se tienen las estimaciones de error (4.15) y (4.16).

Demostración. Probemos el resultado en la primera situación de las cuatro descritas al


inicio de la prueba del Teorema 4.2. En estas condiciones c = b y x0 = a. Recordemos que
en este caso la función g dada por

f (x)
g(x) = x − , ∀x ∈ [a, b].
f ′ (x)

es creciente en el intervalo [a, α] y, además, la sucesión {xk }k≥0 es monótona creciente,


está contenida en el subintervalo [a, α] (por tanto está acotada) y converge hacia α. Las
estimaciones (4.15) y (4.16) se prueban análogamente a como se hizo anteriormente. Esto
acaba la prueba.
El último Teorema que probaremos en este Tema nos proporciona un resultado de con-
vergencia local para el método de Newton (M N ). Se tiene:

Teorema 4.5 (Convergencia local del (M N )) Consideremos el intervalo abierto (a, b)


y una función f ∈ C 2 (a, b). Supongamos que existe α ∈ (a, b) tal que f (α) = 0 y f ′ (α) 6= 0.
Entonces, el método (M N ) es localmente convergente en (a, b), i.e., existe ρ > 0 tal que el
método (M N ) está bien definido en [α − ρ, α + ρ] y es convergente en [α − ρ, α + ρ] hacia
α. Además, o bien existe k0 ≥ 0 tal que xk = α para todo k ≥ k0 , o bien xk 6= α para todo
k≥0y
|xk+1 − α| |f ′′ (α)|
lı́m = , ∀x0 ∈ [α − ρ, α + ρ] \ {α}. (4.20)
|xk − α|2 2|f ′ (α)|
Ası́, la convergencia hacia α es de orden al menos dos, y si f ′′ (α) 6= 0, el método (M N )
tiene convergencia (exactamente) cuadrática (p = 2).

Demostración. La prueba es consecuencia del Teorema 3.12. Efectivamente, como f ∈


C 2 (a, b) y f ′ (α) 6= 0, existe δ > 0 tal que (α − δ, α + δ) ⊂ (a, b) y f ′ (x) 6= 0 para todo
x ∈ (α − δ, α + δ). Ası́, la función

f (x)
g(x) = x − , ∀x ∈ (α − δ, α + δ),
f ′ (x)

está bien definida en el intervalo y satisface g ∈ C 1 (α − δ, α + δ), g(α) = α y g ′ (α) = 0.


Podemos aplicar directamente a g el Teorema 3.12 concluyendo que existe ρ ∈ (0, δ) tal que
2
Si f ′′ se anula en uno de los extremos, el enunciado se refiere al signo global de f ′′ en el intervalo; el
caso en que f ′′ (x) ≡ 0 en todo el intervalo, f es una lı́nea recta y el (MN) lleva directamente a la solución
por cualquier extremo que se empiece.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

26 Cálculo Numérico I.

el método (M N ) está bien planteado en [α − ρ, α + ρ] y es convergente hacia la raı́z α de f .


Tenemos ası́ la primera parte del enunciado.
Probemos a continuación la segunda parte del Teorema. Sea x0 ∈ [α − ρ, α + ρ]. Entonces
la sucesión generada por el método (M N ) está bien definida, {xk }k≥0 ⊂ [α − ρ, α + ρ] y
satisface lı́m xk = α. Las estimaciones probadas en el Teorema Global de Convergencia del
Método de Newton son válidas aquı́ igualmente, de donde deducimos que existe un punto ξk
que está entre α y xk tal que
1 f ′′ (ξk )
xk+1 − α = (xk − α)2 ,
2 f ′ (xk )
es decir, que o bien existe un k0 ≥ 0 tal que xk0 = α y por tanto también xk = α para todo
k ≥ k0 o bien xk 6= α para todo k ≥ 0, en cuyo caso,
xk+1 − α 1 f ′′ (ξk )
= , ∀k ≥ 0.
(xk − α)2 2 f ′ (xk )
Como en particular se tiene que lı́m ξk = α, tomando lı́mite en la expresión anterior inferimos
la igualdad (4.20). Esto finaliza la prueba del resultado.

Observación 4.6 Observemos que si en la parte final del resultado anterior tuviéramos
f ′′ (α) = 0, cabrı́a esperar “mayor convergencia” , del tipo al menos p con p > 2. Si fuera el
caso, serı́a convergencia supercuadrática.
Concretamente, si f ∈ C 3 , la convergencia serı́a de orden al menos 3. En efecto, de la
prueba anterior se deduce que
xk+1 − α 1 f ′′ (ξk )
=
(xk − α)2 2 f ′ (xk )
con ξk entre xk y α. Por tanto, |ξk − α| ≤ |xk − α|. Además, por el teorema del valor medio,
f ′′ (ξk ) = f ′′ (ξk ) − 0 = f ′′ (ξk ) − f ′′ (α) = f ′′′ (ck )(ξk − α),
donde ck es un valor entre ξk y α. Por tanto, de ambas expresiones concluimos que
|xk+1 − α| 1 |f ′′′ (ck )(ξk − α)| |f ′′′ (α)|
lı́m sup = lı́m sup ≤ .
|xk − α|3 2 |f ′ (xk )(xk − α)| 2|f ′ (α)|
Terminamos el Tema presentando dos variantes del método de Newton (M N ). Se trata
del método de la secante y del método regula falsi. Pasemos a describirlos brevemente sin
realizar un análisis de su convergencia:
Método de la secante: Este algoritmo es un método iterativo de dos pasos. Se trata
de una variación del método de Newton donde se construye el punto xk+1 como la
abscisa del punto de corte entre el eje OX y la recta secante a la curva y = f (x)
que pasa por los puntos (xk , f (xk )) y (xk−1 , f (xk−1 )) (recordemos que en el método
de Newton el punto xk+1 es la abscisa del punto de corte entre el eje OX y la recta
tangente que pasa por el punto (xk , f (xk ))). Ası́, este método tiene la forma:

 x0 , x1 dados,
xk − xk−1 (M S)
 xk+1 = xk − f (xk ) , ∀k ≥ 1.
f (xk ) − f (xk−1 )

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 2: Métodos de resolución de Ecuaciones no Lineales. 27

Regula falsi: Se trata de una variante del método anterior y, en algún sentido, recuerda
al método de dicotomı́a (bisección). Supongamos dados x0 y x1 tales que x0 < x1 y
f (x0 )f (x1 ) < 0 y calculemos x2 como la abscisa del punto de corte entre el eje OX y la
secante a f que pasa por los puntos (x0 , f (x0 )) y (x1 , f (x1 )). Utilizando los tres puntos
x0 , x1 y x2 (x0 < x2 < x1 ) seleccionamos el subintervalo ([x0 , x2 ] ó [x2 , x1 ]) donde haya
un cambio de signo de f en los extremos. El nuevo punto x3 se construirı́a repitiendo
en el nuevo intervalo el proceso anterior. Evidentemente este nuevo algoritmo es un
método iterativo de dos pasos.

Referencias
[1] A. Aubanell, A. Benseny & A. Delshams, Útiles básicos de Cálculo Numérico, Labor,
Barcelona 1993.

[2] F. Garcı́a & A. Nevot, Métodos Numéricos, Universidad Pontificia de Comillas, Madrid,
1997.

[3] P. Henrici: Elementos de Análisis Numérico, John Wiley and Sons-Ed. Trillas, México,
1972.

[4] J. A. Infante y J. M. Rey, Métodos Numéricos: Teorı́a, problemas y prácticas con


MATLAB , Ediciones Pirámide, Madrid, 1999.

Como bibliografı́a complementaria se pueden consultar:

[5] K.E. Atkinson, An introduction to Numerical Analysis, Wiley, New York 1978.

[6] R.L. Burden & J.D. Faires, Métodos Numérico, International Thomson Editores Spain
Paraninfo, Madrid, 2004.

[7] D. Kincaid & W. Cheney, Análisis Numérico, Addison-Wesley Iberoamericana, Wil-


mington, 1994.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 3

Métodos directos de resolución de


sistemas lineales

1 Introducción
En este tema se estudian algunos métodos de resolución de sistemas de ecuaciones
lineales con el mismo número de ecuaciones que de incógnitas.
En concreto, vamos a tratar sobre la resolución de sistemas de ecuaciones de la
forma 



a11 u1 + a12 u2 + ... + a1n un = b1 ,


 a21 u1 + a22 u2 + ... + a2n un = b2 ,

.................................................., (1.1)



 ..................................................,


 a u + a u + ... + a u = b ,
n1 1 n2 2 nn n n

siendo aij y bi , para 1 ≤ i, j ≤ n, números reales dados, y siendo uj ∈ IR, 1 ≤ j ≤ n,


las n incógnitas. El sistema (1.1) es por tanto un sistema lineal n × n, es decir, un
sistema de n ecuaciones lineales con n incógnitas. A los aij se les denominan los
coeficientes del sistema (1.1).
La formulación del sistema (1.1) se puede hacer de forma más compacta. Para
ello, se introduce la notación vectorial, denotando en particular a los elementos de
IRn como vectores columna, es decir, como matrices n × 1. Denotemos
   
u1 b1
   
 u2   b2 
u=
 .. ,
 b=
 .. ,
 (1.2)
 .   . 
un bn
y sea A la matriz cuadrada n × n de término general aij , es decir,
A = (aij )1≤i,j≤n ,
denominada matriz de coeficientes del sistema (1.1).
De esta forma, el sistema lineal (1.1) se escribe
Au = b (1.3)
Observación 1.1 El problema (1.1) puede también plantearse con datos complejos,
es decir, escrito en forma matricial, se puede considerar el problema
e =e
Au b, (1.4)

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

donde Ae = (aeij )1≤i,j≤n , con los aeij números complejos, y eb es un vector de n com-
ponentes que son también números complejos.
En tal caso, la o las soluciones u que se buscan son también vectores cuyas n
componentes son números complejos.
El sistema (1.4) puede ser escrito como uno de 2n ecuaciones con coeficientes
reales y 2n incógnitas reales. Para ello, basta tener en cuenta que la matriz Ae y el
vector eb pueden ser escritos de manera única en la forma

Ae = A1 + A2 i, e
b = b1 + b2 i,

siendo A1 y A2 matrices n × n de coeficientes reales, y b1 y b2 vectores de IRn .


Entonces, tomando u = u1 + u2 i, con u1 y u2 vectores incógnitas de IRn , el
sistema (1.4) se escribe

(A1 + A2 i)(u1 + u2 i) = b1 + b2 i,

es decir,
A1 u1 − A2 u2 + (A1 u2 + A2 u1 )i = b1 + b2 i,
sistema que es equivalente a
  ! !
A1 −A2 u1 b1
  = .
A2 A1 u2 b2

A partir de ahora, todas las matrices que consideremos en este Tema serán
matrices reales, es decir, matrices de números reales. Recordemos que una matriz
n × n, A, se dice que es regular si su determinante |A| es distinto de cero, lo cual
recordemos que es equivalente a la existencia de la matriz inversa A−1 . A este
respecto, tenemos el resultado siguiente:

Proposición 1.2 Sea A = (aij )1≤i,j≤n una matriz cuadrada n × n de coeficientes


reales. El sistema de ecuaciones lineales Au = b posee solución para todo b ∈ IRn si
y sólo si la matriz A es regular, y en tal caso la solución es única y viene dada por
u = A−1 b.

Demostración Evidentemente, si A es regular entonces existe la matriz inversa


A−1 , y por tanto Au = b ⇔ A−1 Au = A−1 b ⇔ u = A−1 b.
Recı́procamente, si para todo b ∈ IRn existe al menos una solución de Au = b,
sean ek , 1 ≤ k ≤ n los n vectores de la base canónica de IRn . Por hipótesis, para
cada k existe al menos una solución uk ∈ IRn del sistema Auk = ek . Entonces, si
consideramos la matriz n × n, que denotaremos por C, cuya k-ésima columna sea
uk , es decir, C = (u1 |u2 |...|un ), evidentemente AC = In , donde por In denotamos a
la matriz identidad n × n, pero entonces C = A−1 , y por tanto A es regular.

A partir de ahora, siempre supondremos que A es regular. Ası́ pues, para


cada b ∈ IRN dado existirá una y sólo una solución, que se puede hallar, por ejemplo,
calculando A−1 y multiplicando esta última matriz por b, o bien haciendo uso de la
fórmula de Cramer.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Sobre la regla de Cramer, ya hemos demostrado en el tema 1 que el número Cn


de operaciones necesarias para resolver Au = b viene dado por

Cn = (n + 1)kn + n,

siendo kn el número de operaciones algebraicas necesarias para calcular el deter-


minante de una matriz n×n de números reales, y que se obtiene de manera recursiva
por
(
k2 = 3,
kn = nkn−1 + 2n − 1.
Recordemos que, con estas fórmulas, en particular se tenı́a k10 = 9864099, y
C10 = 108505099, es decir, el numéro de operaciones necesarias para resolver un
sistema de diez ecuaciones y diez incógnitas aplicando la regla de Cramer, resulta
ser superior a los cien millones.
Por otra parte, el numéro dn de operaciones necesarias para calcular la inversa
de una matriz real n × n es

dn = n2 kn−1 + (2n − 1) + n2 ,

resultado de calcular los n2 determinantes de los menores de orden n − 1, calcular


|A| = a11 A11 + a12 A12 + ... + a1n A1n , y efectuar las n2 divisiones por |A|.
Además, una vez calculada A−1 , para hallar A−1 b hace falta efectuar, n veces,
n productos y n − 1 sumas, es decir, n(2n − 1) operaciones. En consecuencia, para
resolver el sistema Au = b por la fórmula u = A−1 b, hacen falta

dn + n(2n − 1) = n2 kn−1 + 3n2 + n − 1

operaciones. En particular, si n = 10, obtenemos 98641109 como numéro de opera-


ciones, que es algo inferior al obtenido por aplicación de la regla de Cramer (téngase
en cuenta además que una vez se conoce A−1 , la fórmula u = A−1 b permite calcular
la solución para diferentes valores de b con sólo n(2n − 1) operaciones, cosa que no
sucede con la regla de Cramer, en la que al variar b hay que hallar n determinantes
nuevos de orden n cada vez).
No obstante lo anterior, hay un tipo particular de sistemas de ecuaciones lineales
para los que se rebaja de forma espectacular el número de operaciones necesarias
para resolverlos; estos son los denominados sistemas triangulares.

Definición 1.3 a) Se dice que el sistema (1.1) es triangular superior si aij = 0


para todo 1 ≤ j < i ≤ n, es decir, si todos los elementos aij de la matriz A
que estén por debajo de la diagonal principal son nulos.

b) Se dice que el sistema (1.1) es triangular inferior si aij = 0 para todo 1 ≤ i <
j ≤ n, es decir, si todos los elementos aij de la matriz A que estén por encima
de la diagonal principal son nulos.

Ası́ por ejemplo, un sistema triangular superior es de la forma

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049



 a11 u1 + a12 u2 + ... + a1,n−1 un−1 + a1n un = b1 ,



 a22 u2 + ... + a2,n−1 un−1 + a2n un = b2 ,


 ..............................................,
(1.5)


 ..............................................,





an−1,n−1 un−1 + an−1,n un = bn−1 ,

ann un = bn ,
que tiene por matriz
 
a11 a12 ... a1,n−1 a1n
 0 a22 ... a2,n−1 a2n 
 
 . .. .. .. 
A=
 .. . ... . . .

 
 0 0 . . . an−1,n−1 an−1,n 
0 0 ... 0 an,n

Evidentemente, |A| = a11 a22 . . . an−1,n−1 ann 6= 0, y por tanto aii 6= 0, para todo
1 ≤ i ≤ n. Por otra parte, está claro que la solución de (1.5) viene dada por el
siguiente algoritmo:



bn



un = ,

 ann



 1

 un−1 = (bn−1 − an−1,n un ),




 an−1,n−1



 .................................................,

(1.6)

 .................................................,





 1

 u2 = (b2 − a23 u3 − . . . − a2,n un ),





a22




 1
 u1 = (b1 − a12 u2 − . . . − a1,n un ).
a11
Al algoritmo (1.6) se le denomina algoritmo de subida o ascenso. Para llevarlo a
n(n − 1)
cabo hay que efectuar 1 + 2 + ... + (n − 1) = sumas, 1 + 2 + ... + (n − 1) =
2
n(n − 1)
productos, y n divisiones. En consecuencia, el número de operaciones que
2
n(n − 1)
necesita este algoritmo viene dado por 2 + n = n2 . Ası́ por ejemplo, si
2
n = 10, sólo hacen falta 100 operaciones para llevarlo a cabo.
Lo que hemos dicho del sistema triangular superior, puede ser dicho de manera
análoga del sistema triangular inferior


 a11 u1 = b1 ,



 a21 u1 + a22 u2 = b2 ,


 ..............................................,
(1.7)


 ..............................................,





an−1,1 u1 + an−1,2 u2 + ... + an−1,n−1 un−1 = bn−1 ,

an,1 u1 + an,2 u2 + ... + an,n−1 un−1 + ann un = bn ,

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

que se resuelve por un algoritmo de bajada o descenso dado por




b1



u1 = ,

 a11



 1

 u2 = (b2 − a21 u1 ),




 a22



 .............................................,
(1.8)

 .............................................,





 1



 un−1 = (bn−1 − an−1,1 u1 − an−1,2 u2 − ... − an−1,n−2 un−2 ),

 an−1,n−1






 1
 un = (bn − an,1 u1 − an,2 u2 − ... − an,n−1 un−1 ).
ann

Observación 1.4 Dos clases muy importantes de métodos para la resolución de


sistemas de ecuaciones lineales son los métodos directos y los métodos iterativos.
Los métodos directos, supuesto que no existan errores de redondeo, permiten calcular
la solución exacta del sistema. Por el contrario, los métodos iterativos en general
sólo conducen a una solución aproximada.
En este tema, vamos a estudiar algunos métodos directos, y todos ellos van a
estar basados en la reducción de la matriz de los coeficientes del sistema a una matriz
triangular superior (o inferior), para a continuación resolver este último sistema por
el algoritmo (1.6) (o (1.8)).

Observación 1.5 Las matrices de coeficientes que suelen aparecer en las aplica-
ciones prácticas son, o llenas pero no grandes, o matrices huecas. De manera algo
imprecisa, por una matriz llena se entiende una en la que la mayor parte de sus
coeficientes son no nulos, y diremos que no es grande si es de orden menor que 30.
Una matriz hueca (sparse en inglés) es aquélla, siendo grande o no, en que la mayor
parte de sus coeficientes son nulos, estando la mayor parte de los no nulos en o por
encima de la diagonal principal.
Las matrices llenas pero no grandes aparecen en una gran variedad de problemas
de Estadı́stica, Fı́sica, Ingenierı́a, etc..., mientras que las huecas aparecen general-
mente en la resolución numérica de ecuaciones diferenciales.
En general, los métodos directos suelen estar bien adaptados a ambos tipos de
matrices, mientras que los métodos iterativos están mejor adaptados a las matrices
huecas.

2 El método de Gauss
Para el estudio del método de Gauss, procedemos en varias etapas.

Etapa 1.- Descripción del método


El método de Gauss parte de la idea de obtener, mediante cambios en el orden en
que se escriben las ecuaciones, y combinaciones lineales de las mismas, un sistema
equivalente al de partida que sea triangular superior. Para ello, en una primera

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

etapa, lo primero que se hace es, mediante cambio de orden si hace falta, escribir el
sistema de tal manera que el coeficiente que multiplica a x1 en la primera ecuación
(el elemento a11 en la matriz asociada) sea no nulo, y a continuación, efectuando
la correspondiente combinación lineal con la primera ecuación, escribir un sistema
equivalente al de partida tal que los coeficientes que multiplican a x1 en la segunda
y posteriores ecuaciones (los elementos ai1 , 2 ≤ i ≤ n en la nueva matriz asociada)
sean todos nulos.
De esta forma, en una segunda etapa, se vuelve cambiar el orden en que se
escriben las n − 1 últimas ecuaciones, si es preciso, de tal forma que se obtenga
que el coeficiente que multiplica a x2 en la segunda ecuación (el elemento a22 en
la correspondiente matriz asociada) sea no nulo, y a continuación, efectuando la
correspondiente combinación lineal con la segunda ecuación, se obtiene un sistema
equivalente al de partida tal que los coeficientes que multiplican a x2 en la tercera
y posteriores ecuaciones (los elementos ai2 , 3 ≤ i ≤ n en la nueva matriz asociada)
sean todos nulos.
De manera general, en la etapa r ≤ n − 1 se vuelve cambiar el orden en que
se escriben las n − (r − 1) últimas ecuaciones, si es preciso, de tal forma que se
obtenga que el coeficiente que multiplica a xr en la r-ésima ecuación (el elemento
arr en la correspondiente matriz asociada) sea no nulo, y a continuación, efectuando
la correspondiente combinación lineal con la r-ésima ecuación, se escribe un sistema
equivalente al de partida tal que los coeficientes que multiplican a xr en la (r + 1)-
ésima y posteriores ecuaciones (los elementos air , r + 1 ≤ i ≤ n en la nueva matriz
asociada) sean todos nulos.
Procediendo de esta manera, al cabo de n − 1 etapas (como máximo) se obtiene
un sistema triangular superior, equivalente al de partida, que podemos resolver
mediante un algoritmo de subida.
Ası́ por ejemplo, consideremos el sistema


 3u2 + 2u3 = 12
5u1 − 6u2 + 2u3 = −1


−4u1 + 2u2 + u3 = 3
Intercambiando la primera y la segunda ecuaciones, obtenemos


 5u1 − 6u2 + 2u3 = −1
3u2 + 2u3 = 12


−4u1 + 2u2 + u3 = 3
sistema que ya tiene el primer coeficiente de la segunda ecuación nulo. Para conseguir
que el primer coeficiente de la tercera ecuación sea también nulo, basta sumarle a la
tercera ecuación la primera multiplicada por 4/5, obteniéndose como nuevo sistema,
equivalente al de partida,


5u1 − 6u2 + 2u3 = −1



3u2 + 2u3 = 12


 14 13 11
 − u2 + u3 =
5 5 5
Ahora, como el coeficiente de x2 en la segunda ecuación de este último sistema
es 3, no nulo, basta sumarle a la tercera ecuación la segunda multiplicada por (1/3) ·
(14/5), para obtener finalmente el sistema triangular superior

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049



 5u1 − 6u2 + 2u3 = −1


3u2 + 2u3 = 12


 67 67
 u3 =
15 5
que, en este sencillo caso, conduce a u3 = 3, u2 = 2 y u1 = 1.
Las operaciones que hemos efectuado en el ejemplo precedente pueden ser es-
critas, en términos de matrices, de la siguiente manera.
Para comenzar, partimos del sistema Au = b, siendo
 
0 3 2 12
 
(A|b) =  5 −6 2 −1 
−4 2 1 3

Denotemos (A(1) |b(1) ) = (A|b). En una primera etapa, hemos efectuado dos opera-
(1)
ciones; una primera operación ha consistido en, dado que a11 , el elemento de la fila
1 y columna 1 de A(1) , es nulo, hemos intercambiado la primera ecuación con otra
(1)
en la que el primer coeficiente sea no nulo, en concreto, como a22 = 5 6= 0, hemos
escrito el sistema Ae(1) u = eb(1) , donde
 
5 −6 2 −1

e(1) e(1)
(A |b ) =  0 3 2 12 

−4 2 1 3

A continuación, como segunda operación, hemos escrito el sistema A(2) u = b(2) ,


donde  
5 −6 2 −1
 
(A(2) |b(2) ) =  0 3 2 12 


 14 13 11 
0 −
5 5 5
Se observa por tanto que

A(2) = E (1) Ae(1) , b(2) = E (1)eb(1) ,


(1)
donde si denotamos Ae(1) = (aeij ),
 
1 0 0
 (1) 

 a21
e 
 − (1) 1 0  
 ae11 
E (1) = 
 (1)


 a31
e 
 − (1) 0 1 
 
 ae11 

Después, en una segunda etapa, y dado que el sistema ahora resultante tiene en la
(2)
segunda ecuación como coeficiente de u2 un número no nulo, es decir, dado que a22

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

es no nulo, no hemos intercambiado la segunda ecuación con la tercera, y hemos


procedido directamente a obtener el sistema A(3) u = b(3) , donde
 
5 −6 2 −1
 
(A(3) |b(3) ) =  0 3 2 12 


 67 67 
0 0
15 5
Se observa que, por analogı́a con la primera etapa, la matriz (A(3) |b(3) ) ha sido
obtenida como sigue. En primer lugar, se ha tomado (Ae(2) |eb(2) ) = (A(2) |b(2) ), y a
continuación
A(3) = E (2) Ae(2) , b(3) = E (2)eb(2) ,
(2)
donde si denotamos Ae(2) = (aeij ),
 
0 10
1  00 
 
 (2) 
E (2) 
= ae 32


 0 − (2) 1 
 ae22 

Procedamos ahora a describir de manera general el método de Gauss en términos


de operaciones matriciales, y a justificar que, bajo la hipótesis de que |A| =6 0, se
puede siempre aplicar.
Consideramos por tanto el sistema de n ecuaciones lineales con n incógnitas
Au = b, con A matriz regular de coeficientes reales.
El método de Gauss lleva el sistema anterior a uno triangular superior equivalente
en n − 1 etapas. Su enunciado formal serı́a el siguiente.

Proposición 2.1 Sea A ∈ Mn×n (IR) una matriz regular. Entonces, dado cualquier
b ∈ IRn , el sistema Ax = b se puede transformar equivalentemente en otro con
matriz de coeficientes triangular superior, esto es, existen U ∈ Mn×n (IR) matriz
regular triangular superior, con det(A) = ±det(U ), y b̃ ∈ IRn tales que la única
solución de Ax = b es la solución de U x = b̃. Dicha transformación de (A|b) en
(U |b̃) se puede llevar a cabo en, a lo sumo, n − 1 pasos.

Demostración: Procedemos por recurrencia haciendo transformaciones en las


n − 1 primeras columnas de la matriz de coeficientes A.
En una primera etapa, denotemos (A(1) |b(1) ) = (A|b). En primer lugar, como
|A| =
6 0, en la primera columna de A hay al menos un elemento no nulo. Si a11 6= 0,
denotamos (Ae(1) |eb(1) ) = (A(1) |b(1) ). Por el contrario, si a11 = 0, y ai1 6= 0, con i > 1,
intercambiamos la fila 1 con la fila i de la matriz (A(1) |b(1) ), y denotamos en este
caso (Ae(1) |eb(1) ) a la matriz resultante. De esta forma, si denotamos
(1) e (1)
Ae(1) = (aeij ), b(1) = (ebi ),
(1)
tenemos garantizado que ae11 6= 0.
A continuación, se define

(A(2) |b(2) ) = E (1) (Ae(1) |eb(1) ),

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

donde
 
1 0 0 ... 0 0
 (1) 
 ae21 
 − 1 0 ... 0 0 
 (1) 
 ae11 
 
 .. .. .. . . .. .. 

 . . . . . . 

 (1) 
E (1) =  aen−1,1 .
 − 0 0 ... 1 0 
 (1) 
 ae11 
 
 (1) 

 aen1 

 − (1)
0 0 ... 0 1 
 ae11 

De esta forma, se obtiene en particular que la matriz A(2) es de la forma


 (2) (2) (2) 
a11 a12 ... a1n
 (2)

(2)
 0 a22 ... a2n 
 
 . .. ... .. 
A(2) =  .
 . . . ,

 (2) (2) 
 0 an−1,2 ... an−1,n 
 
(2)
0 an,2 ... a(2)
n,n

(2) (1)
con a11 = ae11 6= 0, y |A(2) | =
6 0.
Ahora, de manera general, supongamos que en la etapa r − 1 ≥ 1 se ha obtenido
el sistema A(r) u = b(r) , con A(r) matriz n × n tal que todos los elementos de las r − 1
primeras columnas que estén por debajo de la diagonal sean nulos, es decir, de la
forma,
 (r) (r) (r) (r) (r) 
a11 a12 ... a1,r−1 a1r ... a1n
 (r) (r) (r) (r) 
 0 a22 ... a2,r−1 a2r ... a2n 
 
 . .. .. .. .. 
 . 
 . . ... . . ... . 
 (r) (r) (r) 
 0 0 . . . ar−1,r−1 ar−1,r ... ar−1,n 
A(r) = 



 0 0 ... 0 a(r)
r,r ... a(r)
r,n 
 

ar+1,n 
(r) (r)
 0 0 ... 0 ar+1,r ... 

 .. .. .. .. .. 
 . . ... . . ... . 
0 0 ... 0 a(r)
n,r ... a(r)
n,n

(r)
Supongamos también que los elementos aii , para i = 1, ..., r − 1, son todos no
nulos, y que |A(r) | =
6 0.
En tal caso, como evidentemente
(r)
ar,r

. . . a(r)
r,n
(r) (r)
(r) (r) a . . . ar+1,n
|A(r) | = a11 . . . ar−1,r−1 r+1,r
. .. ,
.. ... .

(r)
an,r ... a(r)
n,n

(r)
está claro que al menos uno de los elementos ai,r , con i ≥ r, es no nulo.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

10

(r)
Si arr denotamos (Ae(r) |eb(r) ) = (A(r) |b(r) ). Por el contrario, si a(r)
6= 0, rr = 0,
(r)
y air 6= 0, con i > r, entonces intercambiamos la fila r con la fila i de la matriz
(A |b ), y denotamos en este caso (Ae(r) |eb(r) ) a la matriz resultante. De esta forma,
(r) (r)

de nuevo, si denotamos
(r) e (r)
Ae(r) = (aeij ), b(r) = (ebi ),

tenemos garantizado que ae(r)


rr 6= 0.
A continuación, se define

(A(r+1) |b(r+1) ) = E (r) (Ae(r) |eb(r) ), (2.9)

siendo  
Ir Θr×(n−r)
 (r) 
 aer+1,r 
 
 0 ... − (r) 
 aerr 
 
 .. . . .. 
E (r) =

 . . . In−r

, (2.10)
 a(r)
e 
 n,r 
 0 ... − 
 (r) 


aerr 

 

donde, en general, denotamos por Ik a la matriz identidad k × k, y por Θr×(n−r) a


la matriz nula r × (n − r).
De esta forma, se obtiene en particular que la matriz A(r+1) es de la forma
 (r+1) (r+1) (r+1) (r+1) (r+1) 
a11 a12 ... a1,r−1 a1r ... a1n
 (r+1) (r+1) (r+1) (r+1) 
 0 a22 ... a2,r−1 a2r ... a2n 
 
 . .. .. .. .. 
 .
 . . ... . . ... . 
 (r+1) (r+1) (r+1) 
 0 0 . . . ar−1,r−1 ar−1,r . . . ar−1,n 
A(r+1) = 

,

 0 0 ... 0 a(r+1)
r,r . . . a(r+1)
r,n 
 
 (r+1) 
 0 0 ... 0 0 . . . ar+1,n 

 .. .. .. .. .. 
 . . ... . . ... . 
0 0 ... 0 0 ... a(r+1)
n,n

(r+1)
siendo aii 6= 0 para i = 1, ..., r, |A(r+1) | =
6 0.
Se observa, por tanto, que con este procedimiento la matriz A(n) es triangular
superior con determinante no nulo (de hecho, el determinante de A(n) es igual en
(n)
valor absoluto al determinante de A), con lo que en particular los aii son todos no
nulos, y se puede resolver el sistema A(n) u = b(n) por el algoritmo de subida.
Obsérvese también que la matriz A(r+1) se construye mediante las fórmulas
(r+1) (r)
aij = aeij , ∀ 1 ≤ i ≤ r, ∀ 1 ≤ j ≤ n, (2.11)

(r+1)
aij = 0, ∀ r + 1 ≤ i ≤ n, ∀ 1 ≤ j ≤ r, (2.12)

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

11

(r)
(r+1) (r) aei,r (r)
ai,j = aei,j − ae ,
(r) r,j
∀ r + 1 ≤ i ≤ n, ∀ r + 1 ≤ j ≤ n. (2.13)
aer,r
Análogamente, el vector b(r+1) se construye mediante las fórmulas
(r+1) (r)
bi = ebi , ∀ 1 ≤ i ≤ r, (2.14)

(r)
(r+1) (r) aei,r e(r)
bi = ebi − b ,
(r) r
∀ r + 1 ≤ i ≤ n. (2.15)
aer,r

Etapa 2.- Cómputo del número de operaciones


Para el cómputo del número de operaciones que hay que realizar como máximo en
el método de Gauss, no vamos a contabilizar los cambios de filas que eventualmente
haya que realizar en cada etapa. Teniendo en cuenta esto, está claro que las únicas
operaciones que hay que realizar en cada etapa vienen dadas por las fórmulas (2.13)
y (2.15).
(r+1)
Ası́, en la etapa r, para el cálculo de los ai,j , r + 1 ≤ i, j ≤ n, hace falta
efectuar n − r divisiones, (n − r)2 productos, y (n − r)2 sumas. En la misma etapa,
(r+1)
para el cálculo de los bi , r + 1 ≤ i ≤ n, y si descontamos las operaciones ya
(r+1)
realizadas para obtener las ai,j , hace falta efectuar (n − r) productos, y (n − r)
sumas.
Por tanto, en la etapa r, para obtener (A(r+1) |b(r+1) ), hace falta realizar como
máximo 2(n−r)2 +3(n−r) operaciones, y en consecuencia, para llegar al sistema tri-
angular superior A(n) u = b(n) , hay que realizar a lo más una cantidad de operaciones
n−1
X
igual a [2(n − r)2 + 3(n − r)].
r=1
Ahora bien, teniendo en cuenta que se satisfacen las siguiente igualdades
m
X m
X
m(m + 1) m(m + 1)(2m + 1)
k= , y k2 = , ∀ m ≥ 1,
k=1 2 k=1 6

cuya comprobación por inducción se deja como ejercicio, obtenemos


n−1
X (n − 1)n
(n − r) = (n − 1) + (n − 2) + ... + 2 + 1 = ,
r=1 2
y
n−1
X (n − 1)n(2n − 1)
(n − r)2 = (n − 1)2 + (n − 2)2 + ... + 22 + 12 = .
r=1 6
Por tanto, el número de operaciones que como máximo hay que realizar para
llegar al sistema triangular superior A(n) u = b(n) , es igual a
3(n − 1)n (n − 1)n(2n − 1)
+ ,
2 3
con lo que, sumando a esta cantidad las n2 operaciones que a lo más hay que
efectuar para resolver un sistema triangular, obtenemos que el número máximo de

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

12

operaciones necesarias para resolver el sistema de orden n, Au = b, por el método


de Gauss, si no se computan los eventuales cambios de filas, viene dado por
3(n − 1)n (n − 1)n(2n − 1) 4n3 + 9n2 − 7n
+ + n2 = .
2 3 6
En consecuencia, para resolver por el método de Gauss un sistema de 10 ecuacio-
nes lineales con 10 incógnitas, hacen falta a lo más 805 operaciones (compárese esta
cantidad con la estimada para resolver un sistema de orden 10 por la regla de Cramer
o por cálculo de la inversa de A).

Etapa 3.- El problema de la elección de pivote


Los elementos ae(r)
rr 6= 0 que se utilizan para dividir en las fórmulas (2.13) y (2.15),
se denominan pivotes.
Teniendo en cuenta que, en la práctica, cuando se efectúan los cálculos en el
método de Gauss se producen errores de redondeo, la elección del pivote en cada
etapa r es una cuestión de importancia. En concreto, si por ejemplo en la etapa r −1
se ha obtenido que a(r)rr 6= 0, pero su valor absoluto es muy pequeño en comparación
(r)
con el de otro elemento air 6= 0 con i > r, entonces la división por el primero
producirá errores de redondeo mucho mayores que la división por este último, y en
(r)
consecuencia, aún siendo a(r) rr 6= 0, es mejor utilizar el elemento air como pivote
r-ésimo ae(r)
rr .
Por ejemplo, consideremos el sistema
(
εu1 + u2 = 1,
u1 + u2 = 2,
cuya solución exacta es
1 1 − 2ε
u1 = , u2 =
1−ε 1−ε
Es claro que para valores positivos de ε muy próximos a cero, los valores de las
soluciones u1 y u2 estarán muy cercanos a 1.
Si resolvemos el sistema por el método de Gauss, tomando como pivote ε, ob-
tendremos como sistema triangular equivalente

 εu1
 + u2 = 1,
 1 1
 (1 − )u2 = 2 − ,
ε ε
sistema al que al aplicarle el algoritmo de subida produce como solución
1
2− 1 − u2
u2 = ε, u1 = . (2.16)
1 ε
1−
ε
En la computadora, si ε es suficientemente pequeño, los números 2−1/ε y 1−1/ε
se comportan como iguales. Ası́ por ejemplo, si ε = 10−8 , entonces 1/ε = 108 , con
lo que (
2 − 1/ε = −99999998 = −0.99999998 × 108 ,
1 − 1/ε = −99999999 = −0.99999999 × 108 ,

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

13

con lo que si suponemos que se manejan tan sólo siete cifras decimales y que se
utiliza aproximación por redondeo, tanto 2 − 1/ε como 1 − 1/ε producen el número
−0.1 × 109 .
En tales circunstancias, el algoritmo (2.16) producirı́a u2 = 1, que es un valor
aproximado aceptable de dicha incógnita, pero entonces se obtendrı́a u1 = 0/ε = 0,
que es un valor muy alejado de la verdadera solución.
En este ejemplo, las dificultades desaparecen si se cambia de pivote, es decir, si
se intercambia primero el orden de las ecuaciones escribiendo el sistema
(
u1 + u2 = 2,
εu1 + u2 = 1,
y a continuación se aplica el método de Gauss, tomando como pivote 1, con lo que
obtenemos (
u1 + u2 = 2,
(1 − ε)u2 = 1 − 2ε,
y en consecuencia como algoritmo de subida
1 − 2ε
u2 = , u1 = 2 − u 2 ,
1−ε
que cuando ε es pequeño, por ejemplo como antes, produce u2 = 1, u1 = 1, que son
ambos valores aproximados aceptables de las verdaderas soluciones.
Para evitar situaciones como la del ejemplo precedente, es usual seguir alguna
estrategia en la elección del pivote.
Una de tales estrategias es la denominada de pivote parcial, que consiste en, en
cada etapa r, determinar ir ≥ r tal que
(r) (r)
|air r | = máx |air |,
r≤i≤n

(r)
e intercambiar (si ir > r) las filas r e ir , es decir, tomar como ae(r)
rr el elemento air r .
Para la mayor parte de los sistemas de ecuaciones lineales, la estrategia de pivote
parcial resulta ser suficiente.
Otra estrategia que se usa a veces es la de pivote total. Dicha estrategia consiste
en determinar en cada etapa r el elemento de mayor valor absoluto entre todos los
de la matriz A(r) que forman la submatriz formada por las filas y columnas entre la
r y la n. Es decir, se determinan r ≤ ir , jr ≤ n tales que
(r) (r)
|air jr | = máx |aij |,
r≤i,j≤n

y, si ir > r, se intercambian las filas r e ir , para a continuación, si jr > r, intercambiar


las columnas r y jr . Naturalmente, en tal caso, si hay intercambio de columnas, hay
también que efectuar el mismo intercambio en las incógnitas del sistema.
En general, las estrategias de cambio de pivote tienen la ventaja de producir
menores errores de redondeo cuando se aplica el método de Gauss, pero natural-
mente, al exigir efectuar comparaciones en cada etapa para determinar el nuevo
pivote, aumentan los tiempos de cálculo.
Etapa 4.- Descomposición A = LU cuando no hay que hacer cambios
de filas

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

14

Supongamos que la matriz A es tal que al aplicarle el método de Gauss, en cada


etapa r el término a(r)
rr es distinto de cero, y no efectuamos cambios de filas, es decir,
e(r) (r)
A = A . En tal caso, para cada r, de acuerdo con (2.9),

A(r+1) = E (r) A(r) ,

con E (r) la matriz definida por (2.10).


En consecuencia, teniendo en cuenta que A(1) = A, tenemos

A(n) = E (n−1) · · · E (2) E (1) A (2.17)

Ahora bien, la matriz A(n) es triangular superior, y la vamos a denotar U (del


inglés upper).
Por otra parte, cada una de las matrices E (r) es, en particular, triangular in-
ferior con la diagonal principal formada por unos. El producto de dos matrices
triangulares inferior con las diagonales principales respectivas formadas por unos, es
también una matriz triangular inferior con la misma propiedad (hágase como ejer-
cicio). Asimismo, toda matriz triangular inferior con la diagonal principal formada
por unos es invertible, y su inversa es de nuevo triangular inferior con la diagonal
principal formada por unos (hágase también como ejercicio).
Teniendo en cuenta lo anterior, la matriz (E (n−1) ...E (1) )−1 es triangular inferior
con la diagonal principal formada por unos. Si denotamos a esta matriz por L (del
inglés lower), podemos afirmar el siguiente resultado:

Proposición 2.2 Si A es una matriz regular n × n de coeficientes reales tal que al


aplicarle el método de Gauss, en cada etapa r el término a(r)
rr es distinto de cero,
entonces existe una matriz triangular inferior L, con la diagonal principal formada
por unos, y una matriz triangular superior U , de tal manera que

A = LU (2.18)

Observación 2.3 Como se ha indicado antes de la proposición, si no es necesario


efectuar cambio de pivote, en A = LU se tiene que L = (E (n−1) . . . E (1) )−1 . Dicha
matriz L posee una diagonal de unos (Lii = 1 para todo i = 1, . . . , n) y por debajo
de la diagonal los términos por debajo de la diagonal usados en las matrices E (1) ,
. . . , E (n−1) con signo cambiado, esto es,
 
1 0 ... 0 0
 a(1) 
 21
1 ... 0 0 
 a(1) 
 11 
 .. .. .. 
 . . . 0 0 
L=  .
 (1) 
 an−1,1 .. 

 a(1) . ... 1 0 

 11
(n−1) 
 a(1) an2
(2)
an,n−1 
n1
(1) (2) ... (n−1) 1
a11 a22 an−1,n−1

3 El método de Gauss-Jordan
El método de Gauss-Jordan es una variante del método de Gauss, en el que se
busca llegar a un sistema de ecuaciones lineales, equivalente al de partida, tal que

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

15

la matriz de coeficientes sea diagonal, es decir tal que los únicos elementos no nulos
de la matriz sean los de la diagonal principal. Para ello, se procede de la manera
que describimos a continuación.
Al igual que en el método de Gauss, suponemos que queremos resolver el sistema
de n ecuaciones con n incógnitas Au = b, siendo A una matriz regular n × n de
coeficientes reales.
El método de Gauss-Jordan para llevar el sistema anterior a uno triangular su-
perior, se lleva a cabo en n etapas.
En una primera etapa, se actúa igual que en el método de Gauss, es decir, se
denota (A(1) |b(1) ) = (A|b), se elige i ≥ 1 tal que ai1 6= 0, y si i 6= 1, se intercambian la
fila 1 con la fila i de la matriz (A(1) |b(1) ), y se denota (Ae(1) |eb(1) ) a la matriz resultante.
A continuación, se define

(A(2) |b(2) ) = E (1) (Ae(1) |eb(1) ),

donde E (1) está definida como en el método de Gauss.


De esta forma, se obtiene en particular que la matriz A(2) es de la forma
 (2) (2) (r) 
a11 a12 ... a1n
 (2) (2) 
 0 a22 ... a2n 
 
 .. .. ... .. 
A(2) =  . . .  ,
 
 0 (2)
an−1,2
(2) 
. . . an−1,n 

(2)
0 an,2 . . . a(2)
n,n

(2) (1)
con a11 = ae11 6= 0, y |A(2) | =
6 0.
Ahora, de manera general, supongamos que en la etapa r − 1 ≥ 1 se ha obtenido
el sistema A(r) u = b(r) , con A(r) matriz n × n tal que todos los elementos de las r − 1
primeras columnas que no estén en la diagonal sean nulos, es decir, de la forma,
 (r) (r) (r) 
a11 0 ... 0 a1r ... a1n
 (r) (r) (r) 
 0 a22 ... 0 a2r ... a2n 
 . .. .. .. .. 
 . 
 . . ... . . ... . 
 (r) (r) (r) 
 0 0 . . . ar−1,r−1 ar−1,r ... ar−1,n 
 
A(r) =  (r) 


0 0 ... 0 a(r)
r,r ... ar,n 
 (r) (r) 


0 0 ... 0 ar+1,r ... ar+1,n 



.. .. .. .. .. 
. . ... . . ... . 
0 0 ... 0 a(r)
n,r ... a(r)
n,n

(r)
Supongamos también que los elementos aii , para i = 1, ..., r − 1, son todos no
nulos, y que |A(r) | =
6 0.
En tal caso, como evidentemente
(r)
ar,r

. . . a(r)
r,n
(r) (r)
(r) (r) a . . . ar+1,n
|A(r) | = a11 . . . ar−1,r−1 r+1,r
. .. ,
.. ... .

(r)
an,r ... a(r)
n,n

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

16

(r)
está claro que al menos uno de los elementos ai,r , con i ≥ r, es no nulo.
(r)
Se elige i ≥ r tal que ai,r 6= 0, se intercambian, si es preciso, la fila r con la fila i
de la matriz (A(r) |b(r) ), y se denota (Ae(r) |eb(r) ) a la matriz resultante. De esta forma,
de nuevo, si denotamos
(r) e (r)
Ae(r) = (aeij ), b(r) = (ebi ),

tenemos garantizado que ae(r)


rr 6= 0.
A continuación, se define

(A(r+1) |b(r+1) ) = J (r) (Ae(r) |eb(r) ), (3.19)


(r)
siendo J (r) = (cij ), la matriz n × n definida por
 (r) 
ae1r
1 0 ... 0 − 0 ... 0
 (r)
aerr 
 
 (r) 

0
ae2r 
 1 ... 0 − (r)
0 ... 0 
 aerr 
. .. .. .. .. .. 
. 
. . ... . . . ... .
 (r) 
 aer−1r 
0 0 ... 1 − 0 ... 0
J (r) =  (r) ,
 aerr 
 
0 0 ... 0 1 0 ... 0
 (r) 

0 aer+1r 
 0 ... 0 − (r)
1 ... 0 
 aerr 
. .. .. .. .. .. 
. 
. . ... . . . ... .
 
 ae(r)
nr 
0 0 ... 0 − (r)
0 ... 1
aerr
De esta manera se obtiene que la matriz A(r+1) es de la forma
 (r+1) (r+1) (r+1) 
a11 0 ... 0 0 a1,r+1 ... a1n
 (r+1) (r+1) (r+1) 
 0 a22 ... 0 0 a2,r+1 ... a2n 
 
 . .. .. .. .. .. 
 .. . ... . . . ... . 
 
 (r+1) (r+1) (r+1) 
 0 0 . . . ar−1,r−1 0 ar−1,r+1 . . . ar−1,n 
A(r+1) = 
 (r+1)
,



0 0 ... 0 a(r+1)
r,r ar,r+1 . . . a(r+1)
r,n 

 (r+1) (r+1) 
 0 0 ... 0 0 ar+1,r+1 . . . ar+1,n 
 
 .. .. .. .. .. .. 
 . . ... . . . ... . 
(r+1)
0 0 ... 0 0 an,r+1 ... a(r+1)
n,n

(r+1)
siendo aii 6= 0 para i = 1, ..., r, |A(r+1) | =
6 0.
Se observa por tanto, que con este procedimiento, la matriz A(n+1) es diagonal,
(n+1)
con todos los aii no nulos, y se puede resolver el sistema A(n+1) u = b(n+1) de
manera inmediata.
Obsérvese que si en una posible etapa n + 1 del método de Gauss-Jordan se mul-
(n+1)
tiplica cada fila i de (A(n+1) |b(n+1) ) por 1/aii , entonces el vector eb(n+1) resultante
es la solución del sistema Au = b.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

17

Como un ejemplo consideremos el sistema




 2u1 + u2 − 3u3 = −1,
−u1 + 3u2 + 2u3 = 12,


3u1 + u2 − 3u3 = 0.

Denotemos  
2 1 −3 −1

(A|b) =  −1 3 2 12 
.
3 1 −3 0
Denotemos (A(1) |b(1) ) = (A|b), matriz que ya tiene el primer coeficiente de la
primera ecuación igual a 2, no nulo.
Sumando a la segunda fila la primera multiplicada por 1/2, y a la tercera fila la
primera multiplicada por −3/2, obtenemos la matriz
 
2 1 −3 −1

(2) (2)
(A |b ) =  0 7/2 1/2 23/2 
.
0 −1/2 3/2 3/2

Ahora, como el segundo coeficiente de la segunda fila de esta última matriz es


7/2, no nulo, le sumamos a la primera fila de esta matriz la segunda multiplicada
por −2/7, y a la tercera fila la segunda multiplicada por 1/7, con lo que obtenemos
la matriz
 
2 0 −22/7 −30/7

(3) (3)
(A |b ) =  0 7/2 1/2 23/2 
.
0 0 11/7 22/7

Finalmente, como el tercer coeficiente de la tercera fila de la matriz (A(3) |b(3) ) es


11/7, no nulo, le sumamos a la primera fila de esta matriz la tercera multiplicada
por (22/7)/(11/7) = 2, y a la segunda fila la tercera multiplicada por
−(1/2)/(11/7) = −7/22, con lo que obtenemos la matriz
 
2 0 0 2

(4) (4)
(A |b ) =  0 7/2 0 21/2 
,
0 0 11/7 22/7

que en este sencillo caso conduce inmediatamente a la solución del sistema de partida,
u1 = 1, u2 = 3 y u3 = 2.
Dicha solución también se obtiene como la cuarta columna de la matriz (A(5) |b(5) )
obtenida dividiendo por 2 la primera fila de (A(4) |b(4) ), y dividiendo por 7/2 la
segunda y por 11/7 la tercera fila de la misma matriz, que conduce a
 
1 0 0 1
(5) (5)  
(A |b ) =  0 1 0 3 
0 0 1 2

Observación 3.1 El método de Gauss-Jordan no aporta ninguna ventaja sobre el


de Gauss para resolver un sistema lineal concreto, pero en cambio sı́ tiene interés
cuando se trata de efectuar el cálculo de la inversa de una matriz. En concreto, si

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

18

A es una matriz regular n × n de coeficientes reales, y queremos hallar A−1 , lo que


podemos hacer es escribir esta última matriz por columnas,

A−1 = (u(1) |u(2) |...|u(n) )

De esta forma, como AA−1 = In , hemos de resolver n sistemas lineales

Au(k) = e(k) 1 ≤ k ≤ n,

donde por e(k) denotamos al k-ésimo vector canónico de IRn .


Para la resolución conjunta de estos n sistemas lineales, se escribe (A|I), y
aplicando Gauss-Jordan, en n + 1 etapas se llega a (I|B), siendo entonces B = A−1 .

4 El método LU
Sabemos por la Proposición 2.2 que si A es una matriz regular n × n de coeficientes
reales tal que al aplicarle el método de Gauss, en cada etapa r el término a(r)
rr es
distinto de cero, entonces existe una matriz triangular inferior L, con la diagonal
principal formada por unos, y una matriz triangular superior U , de tal manera que
que se puede escribir como el producto de L por U , es decir, A = LU . En tal
caso, para resolver el sistema de ecuaciones lineales Au = b, se escribe LU u = b, y
denotando v = U u, se observa que lo que hay que hacer es resolver en primer lugar
por el algoritmo de descenso el sistema

Lv = b,

para a continuación, una vez conocida v, resolver por el algoritmo de ascenso el


sistema
Uu = v
Ası́ por ejemplo, para resolver el sistema


 5u1 + 2u2 + u3 = 12,
5u1 − 6u2 + 2u3 = −1,


−4u1 + 2u2 + u3 = 3,
si sabemos que su matriz A de coeficientes admite la descomposición
    
5 2 1 1 0 0 5 2 1
   
A =  5 −6 2  =  1 1 0   0 −8 1 
,
−4 2 1 −4/5 −9/20 1 0 0 9/4
descomposición que se puede calcular aplicando el método de Gauss, para hallar la
solución del sistema original, resolvemos en primer lugar el sistema
    
1 0 0 v1 12

 1 1 0     
  v2  =  −1  ,
−4/5 −9/20 1 v3 3
que tiene como solución

v1 = 12, v2 = −13, v3 = 27/4.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

19

A continuación, resolvemos el sistema


    
5 2 1 u1 12

 0 −8
  
1   u2  =  −13 ,
0 0 9/4 u3 27/4
y obtenemos la solución
u3 = 3, u2 = 2, u1 = 1.
Resulta pues de interés el disponer de criterios para saber si dada una matriz
cuadrada, ésta puede ser escrita como el producto de una matriz triangular inferior
L, con la diagonal principal formada por unos, y una matriz triangular superior U .
En caso afirmativo, se dice que dicha matriz admite una factorización LU . Sobre
este particular, lo primero que se tiene es un resultado de unicidad.

Proposición 4.1 Si A es una matriz n × n tal que su determinante |A| es distinto


de cero, entonces A puede ser escrita a lo más de una única manera como el producto
de una matriz triangular inferior L, con la diagonal principal formada por unos, y
una matriz triangular superior U .

Demostración.- Supongamos que


A = L1 U1 = L2 U2
con L1 y L2 matrices triangular inferior con la diagonal principal formada por unos,
y U1 y U2 matrices triangular superior.
En tal caso, como 0 6= |A| = |L1 ||U1 | = |L2 ||U2 |, en particular las matrices L2 y
U1 son invertibles, y por tanto, de la igualdad L1 U1 = L2 U2 obtenemos
L−1 −1
2 L1 = U2 U1 .

Pero L−1
2 L1 es una matriz triangular inferior con la diagonal principal formada por
unos, y U2 U1−1 es una matriz triangular superior, en consecuencia, de la última
igualdad, deducimos que
L−1 −1
2 L1 = U2 U1 = In ,

y por tanto L1 = L2 y U1 = U2 .

Nos preguntamos a continuación por algún criterio que proporcione existencia


de descomposición LU para una matriz dada.

Definición 4.2 Sea A una matriz cuadrada n × n. Para cada entero 1 ≤ r ≤ n, se


denomina submatriz principal de orden r de A, y la denotaremos Ar , a la matriz r×r
formada por las r primeras filas y las r primeras columnas de A. Al determinante
|Ar | lo denominaremos el determinante principal de orden r de A.

Teorema 4.3 (Teorema de Doolittle)

Si los menores principales de una matriz A de dimensión n son no nulos entonces


A admite una descomposición LU . Esta descomposición es única si los elementos
de la diagonal principal de L son todos unos.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

20

Demostración.- Lo probaremos por inducción sobre sobre la dimensión de la


matriz.
Para n = 1 es trivial.
Para n = 2. Para que se tenga la descomposición A = LU es necesario que las
siguientes identidades sean posibles:
a21 a11 a22 − a12 a21
u11 = a11 , u12 = a12 , l21 = , u22 = . (4.20)
a11 a11
Puesto que los dos menores principales de A son no nulos , i.e. a11 6= 0 y a11 a22 −
a12 a21 6= 0 entonces se tiene (4.20), y además u22 6= 0. Entonces, las identidades
(4.20) admiten solución única siendo la matriz U no singular.
Admitámoslo cierto para k = 1, · · · , n − 1 y veámoslo para k = n.
Se considera la descomposición por bloques:
! ! !
A11 A12 L11 0 U11 U12
A= = · (4.21)
A21 A22 L21 L22 0 U22

Donde A11 , L11 , U11 son matrices de dimensión n − 1 y A22 , L22 , U22 son escalares.
Por hipótesis de recurrencia, U11 es no singular, y la diagonal principal de L11
está formada por unos. La ecuación matricial (4.21) es equivalente a las siguientes
ecuaciones:
A11 = L11 U11
A12 = L11 U12
(4.22)
A21 = L21 U11
A22 = L21 U12 + L22 U22 .
Entonces para probar la descomposición para k = n hemos de resolver el sistema
anterior. Como A11 es de dimensión n − 1 y sus menores principales (que lo son
también de A) son no nulos, entonces, por hipótesis de inducción, se tiene A11 =
L11 U11 . Como L−1 −1
11 existe, (ya que su determinante es igual a 1) se tiene U12 = L11 A12
−1
y análogamente se tiene L21 = A21 U11 , ya que por hipótesis de recurrencia U11 es
no singular. Finalmente L22 = 1 ya que es un elemento de la diagonal de L y
U22 = A22 − L21 U12 . Por tanto el sistema (4.22) i.e. (4.21) tiene solución y se tiene
A = LU para k = n. !
L11 0
Observemos que la matriz L = es triangular inferior con diagonal
L21 L22
!
U11 U12
principal formada por unos, y la matriz U = es triangular superior
0 U22
no singular.
Según este argumento, la solución de (4.22) es única. De aquı́ se sigue la unicidad
de la descomposición A = LU .

Observación 4.4 Si A es una matriz n × n no singular, pero que no satisface las


condiciones del Teorema 4.3, puede suceder que sı́ se satisfagan dichas condiciones
si se efectúan intercambios de filas en la citada matriz.
Por otra parte, si A es singular, puede suceder que admita factorización LU , en
este caso no única. Un ejemplo será visto en clase de problemas.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

21

A continuación, exponemos otro criterio para saber si una matriz admite facto-
rización LU de Doolittle.

Definición 4.5 Sea A = (aij ) una matriz cuadrada n × n. Se dice que A es diago-
nalmente dominante en sentido estricto si
n
X
|aii | > |aij | para toda fila i = 1, ..., n. (4.23)
j=1, j6=i

Teorema 4.6 Sea A = (aij ) una matriz cuadrada n × n diagonalmente dominante


en sentido estricto. Entonces,
a) A es regular,
b) A admite una única factorización LU de Doolittle.

Demostración.-
a) Supongamos que |A| = 0. En tal caso, existe w ∈ IRn , w 6= 0, tal que Aw = 0.
Sea 1 ≤ k ≤ n tal que |wk | = máx |wj | =
6 0.
1≤j≤n
n
X
Como akj wj = 0, despejando tenemos
j=1,

n
X
akk wk = − akj wj ,
j=1, j6=k

y por lo tanto
n
X
|akk ||wk | ≤ |akj ||wj |,
j=1, j6=k

con lo que
n
X Xn
|wj |
|akk | ≤ |akj | ≤ |akj |,
j=1, j6=k |wk | j=1, j6=k
en contradicción con el hecho de que A es diagonalmente dominante en sentido
estricto.
b) Puesto que A es diagonalmente dominante en sentido estricto, es inmediato
que cada submatriz principal Ar es también diagonalmente dominante en sentido
estricto. Gracias entonces al apartado anterior, los determinantes principales son
todos no nulos, por lo que basta tener en cuenta el Teorema 4.3 para concluir con
este apartado.

Para el cálculo efectivo de la factorización LU de una matriz dada, en la práctica


se obtienen los elementos de L y de U por identificación de forma recursiva, admi-
tiendo que existe la factorización. Ası́, si
 
a11 a12 ... a1,n−1 a1n
 a21 a22 ... a2,n−1 a2n 
 
 .. .. .. .. 
 
 . . ... . . 
 
 an−1,1 an−1,2 . . . an−1,n−1 an−1,n 
an1 an2 . . . an,n−1 an,n

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

22

  
1 0 ... 0 0 u11 u12 ... u1,n−1 u1n
 l21 1 ... 0 
0 0 u22 ... u2,n−1 u2n 
 
 .. .. .. ..   . .. .. .. 
 . 
  ..
= . . ... . ,
 . ... . . 
  
 ln−1,1 ln−1,2 ... 1 0 0 0 . . . un−1,n−1 un−1,n 
ln,1 ln,2 . . . ln,n−1 1 0 0 ... 0 un,n
identificando los elementos de la primera fila de A con los correspondientes de LU ,
y los de la primera columna de A con los correspondientes de LU , obtenemos

 a1j
 = u1j , j = 1, ..., n,
ai1

 ai1 = li1 u11 ⇒ li1 = , i = 2, ..., n.
u11
Identificando a continuación los elementos de la segunda fila de A con los correspon-
dientes de LU , y los de la segunda columna de A con los correspondientes de LU ,
obtenemos

 a2j
 = l21 u1j + u2j ⇒ u2j = a2j − l21 u1j , j = 2, ..., n,
 1
 ai2 = li1 u12 + li2 u22 ⇒ li2 = (ai2 − li1 u12 ), i = 3, ..., n.
u22
Y en general, si suponemos conocidas las k−1 primeras filas de U y las k−1 primeras
columnas de L, entonces, identificando los elementos de la k-ésima fila de A con los
correspondientes de LU , y los de la k-ésima columna de A con los correspondientes
de LU , obtenemos


 akj = lk1 u1j + ... + lk,k−1 uk−1,j + ukj

 k−1

 X

 ⇒ u = a − lkr urj , j = k, ..., n,

 kj kj
 r=1

 aik = li1 u1k + ... + li,k−1 uk−1,k + lik ukk

 !

 k−1
X



1
 ⇒ lik =
 aik − lir urk , i = k + 1, ..., n.
u kk r=1

Obsérvese que el cálculo anterior puede ser hecho en paralelo, lo cual redunda
en un ahorro considerable de tiempo. El número de operaciones necesarias para
llevar a cabo el método de cálculo expuesto es del mismo orden que en el de Gauss.
El método de Gauss suele ser el mejor para resolver un sistema concreto, pero el
método LU es preferible si se trata de resolver varios sistemas lineales con la misma
matriz A y distintos b, ya que una vez se factoriza A, todos los sistemas se resuelven
con un ahorro considerable de tiempo en los cálculos.
Como ejercicio, se propone que se encuentre la factorización LU de la matriz
 
6 2 1 −1
 2 4 1 0 
A=

 .
 1 1 4 −1 
−1 0 −1 3

Observación 4.7 (factorización de Crout) A la factorización LU de una matriz


que acabamos de exponer se la denomina también factorización de Doolittle de dicha

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

23

matriz. Otra posibilidad es descomponer una matriz A como el producto de una


triangular inferior por otra triangular superior con la diagonal principal formada por
unos, a dicha descomposición se la denomina factorización de Crout de A. Dicha
factorización puede ser obtenida fácilmente a partir de la de Doolittle; en efecto, sea
A = LU , con A matriz no singular,
 
1 0 ... 0 0
 l 1 ... 0 0
 21 
 . . . . 
L =  ..
 .. ... .. .. 
,
 
 ln−1,1 ln−1,2 . . . 1 0
ln,1 ln,2 . . . ln,n−1 1
 
u11 u12 ... u1,n−1 u1n
 0 u22 ... u2,n−1 u2n 
 
 . .. .. .. 
U = .. . ... . . .

 
 0 0 . . . un−1,n−1 un−1,n 
0 0 ... 0 un,n
En tal caso, si denotamos
 
1/u11 0 ... 0 0
 0 1/u22 ... 0 0 
 
 . .. .. .. 
f
 ..
D= ,
. ... . . 
 
 0 0 ... 1/un−1,n−1 
0 0 ... 0 1/un,n
entonces la matriz Ue = f
DU es de la forma
 
1 u12 /u11 . . . u1,n−1 /u11 u1n /u11
0 1 . . . u2,n−1 /u22 u2n /u22 
 
. .. .. .. 
e f
U = DU =  ,
 .. . ... . . 
 
0 0 ... 1 un−1,n /un−1,n−1 
0 0 ... 0 1
es decir, es triangular superior con la diagonal principal formada por unos, y
A = LU = LD e =L
f−1 U eUe,

con
e = LD
L f−1
  
1 0 ... 0 0 u11 0 ... 0 0
 l21 1 ... 0 
0 0 u22 ... 0 0 
 
 .. .. .. ..   . .. .. .. 
=  . . ... . .  . 
  . . ... . . 
  
 ln−1,1 ln−1,2 ... 1 0 0 0 . . . un−1,n−1 
ln,1 ln,2 . . . ln,n−1 1 0 0 ... 0 un,n
 
u11 0 ... 0 0
 l u u22 ... 0 0 
 21 11 
 .. .. .. .. 
= 
 . . ... . . 
,
 
 ln−1,1 u11 ln−1,2 u22 ... un−1,n−1 0 
ln,1 u11 ln,2 u22 . . . ln,n−1 un−1,n−1 unn

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

24

matriz triangular inferior.


Obsérvese que en el caso particular en que A es simétrica,

A = LU ⇒ A = A∗ = (LU )∗ = U ∗ L∗ ,

y por tanto
e = U ∗,
L Ue = L∗ .

5 El método de Cholesky
En esta sección vamos a estudiar un caso particular de factorización LU , en el que
no vamos a pedir que los elementos de la diagonal principal de L sean unos, y U va
a coincidir con L∗ , la traspuesta de L.
A este respecto, observemos que se tiene el siguiente resultado.

Proposición 5.1 Sea A una matriz n × n simétrica y regular que admita factori-
zación LU . Entonces existe una matriz diagonal D tal que

A = LDL∗ . (5.24)

Si además dii > 0 para todo i = 1, .., n, entonces, denotando por D1/2 a la matriz
diagonal cuyos elementos de la diagonal principal sean las raı́ces (dii )1/2 , y definiendo

B = LD1/2 , (5.25)
se tiene que B es triangular inferior, y

A = BB ∗ . (5.26)

Demostración.- De la igualdad A = LU , obtenemos también A = A∗ = U ∗ L∗ ,


con lo que
LU = U ∗ L∗ ,
y por tanto
U (L∗ )−1 = L−1 U ∗ .
Como U (L∗ )−1 es triangular superior, y L−1 U ∗ es triangular inferior, de la última
igualdad se deduce que ambos productos han de ser iguales a una matriz diagonal
D, de modo que en particular U (L∗ )−1 = D, y por tanto U = DL∗ , con lo que A se
escribe en la forma (5.24).
Si dii > 0 para todo i = 1, .., n, tenemos que D = D1/2 D1/2 , y en consecuencia

A = LD1/2 D1/2 L∗ = (LD1/2 )(LD1/2 )∗ ,

con lo que si definimos B por (5.25), esta matriz es triangular inferior y satisface
(5.26).

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

25

Definición 5.2 Sea A = (aij ) una matriz n × n de coeficientes reales. Diremos que
A es definida positiva si
n
X
aij ui uj > 0, para todo u ∈ IRn \ {0}. (5.27)
i,j=1

Observación 5.3 Obsérvese que


  
n a11 . . . a1n u1
X  .. ..   ..  ∗
aij ui uj = (u1 , . . . , un )  . ... .  . 
 = u Au,
i,j=1
an1 . . . an,n un

y por tanto (5.27) puede ser escrita de manera más simple

u∗ Au > 0, para todo u ∈ IRn \ {0}. (5.28)


 
2 −1 0

Ası́ por ejemplo, la matriz A =  −1 2 −1 
 , es definida positiva, ya que
0 −1 2
  
2 −1 0 u1

(u1 , u2 , u3 )  −1 2 −1   u2 


0 −1 2 u3
= 2u21 + 2u22 + 2u23 − 2u1 u2 − 2u2 u3
= u21 − 2u1 u2 + u22 + u22 − 2u2 u3 + u23 + u21 + u23
= (u1 − u2 )2 + (u2 − u3 )2 + u21 + u23 > 0, si (u1 , u2 , u3 ) 6= (0, 0, 0).

Observación 5.4 En la literatura matemática a veces se exige en la definición de


matriz definida positiva el que ésta además sea simétrica. Nosotros hemos prescin-
dido de esta exigencia.
! Por ejemplo, como se puede comprobar fácilmente, la matriz
1 −1
A= no es simétrica, pero satisface (5.27).
1 1

Observación 5.5 Una matriz diagonal es definida positiva si y sólo si todos los
elementos de la diagonal son estrictamente positivos (compruébese).

Observación 5.6 Demuéstrese como ejercicio que una matriz n × n es definida


positiva si y sólo si existe un α > 0 tal que u∗ Au ≥ αkuk2 , para todo u ∈ IRn , donde
n
X
kuk2 = u2k es el cuadrado de la norma euclidiana de u.
k=1

Proposición 5.7 Si A es una matriz n × n definida positiva, entonces

a) A es regular y, más exactamente, el determinante de A es positivo.

b) Las submatrices principales Ar , r = 1, ..., n, son todas definidas positivas.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

26

Demostración.-
a) Si A es singular, entonces existe u ∈ IRn \{0} tal que Au = 0, y en consecuencia
u∗ Au = 0, contra el hecho de que A es definida positiva. Ası́ pues, podemos afirmar
por ahora que toda matriz definida positiva tiene determinante no nulo.
Consideremos ahora la familia Aλ de matrices definida por

Aλ = λA + (1 − λ)In , λ ∈ [0, 1].

Es inmediato comprobar que la matriz Aλ es definida positiva, y por tanto |Aλ | = 6 0,


para todo λ ∈ [0, 1]. Observemos que la función g(λ) = |Aλ | es un polinomio en la
variable λ, y por tanto es continua en el intervalo [0, 1]. Basta ahora tener en cuenta
que según lo anterior g(λ) no se anula en dicho intervalo, y que g(0) = |In | = 1 > 0,
para concluir que en particular 0 < g(1) = |A|.
b) Si fijado r = 1, ..., n, tomamos u = (u1 , ..., ur , 0, ..., 0) 6= 0, obtenemos
 
u1

 . 
0 < u Au = (u1 , ..., ur )Ar  .. 

,
ur

y en consecuencia Ar es definida positiva.

Corolario 5.8 Si A es una matriz n × n definida positiva, entonces A admite fac-


torización LU .
Demostración.- El resultado es consecuencia inmediata del Teorema 4.3 y la
Proposición 5.7.

Observación 5.9 Como una consecuencia evidente de la Proposición 5.7, pode-


mos afirmar que si una matriz A es definida positiva, entonces todos sus menores
principales son positivos.
! El recı́proco no es cierto en general; ası́ por ejemplo, la
1 −2
matriz A = , tiene todos sus menores principales positivos, pero no es
2 −1
definida positiva.

Observación 5.10 Sea A una matriz real simétrica n × n. Recordemos que en


tal caso, todos los autovalores de A son números reales, y que existe una matriz
n × n P que es ortogonal (es decir tal que P P ∗ = In ) y A = P DP ∗ , siendo D la
matriz diagonal formada por los autovalores de A (contados cada uno como indique
su multiplicidad).

Proposición 5.11 Sean A y B matrices n×n. Entonces, la matriz producto BAB ∗


es definida positiva si y sólo si A es definida positiva y B es regular.

Demostración.-
a) Supongamos que A es definida positiva y B es regular. En tal caso, B ∗ también
es regular, y en consecuencia, si u ∈ IRn no es el cero, B ∗ u 6= 0, y por tanto

u∗ (BAB ∗ )u = (u∗ B)A(B ∗ u) = (B ∗ u)∗ A(B ∗ u) > 0,

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

27

con lo que BAB ∗ es definida positiva.


b) Supongamos que BAB ∗ es definida positiva.
Si B no fuese regular, existirı́a v ∈ IRn \ {0}, tal que B ∗ v = 0. Pero entonces,
para ese v,
0 < v ∗ (BAB ∗ )v = (v ∗ B)A(B ∗ v) = 0∗ A0 = 0,
lo cual es una contradicción. En consecuencia, B es regular.
Si A no fuese definida positiva, existirı́a w ∈ IRn \ {0}, tal que w∗ Aw ≤ 0. En
tal caso, como B es regular, existe un v ∈ IRn \ {0}, tal que B ∗ v = w, y entonces

0 < v ∗ (BAB ∗ )v = (v ∗ B)A(B ∗ v) = (B ∗ v)∗ A(B ∗ v) = w∗ Aw ≤ 0,

lo cual es una contradicción. En consecuencia, A es definida positiva.

De la Observación 5.10 y la Proposición 5.11 se deduce el siguiente resultado.


Proposición 5.12 Una matriz real simétrica es definida positiva si y sólo si todos
sus autovalores son positivos.

Teorema 5.13 (de factorización de Cholesky) Si A es una matriz n×n simétrica


definida positiva, entonces existe al menos una matriz n × n triangular inferior B
tal que A = BB ∗ . Además, se puede imponer que bii > 0 para todo i = 1, ..., n, y en
tal caso la factorización anterior es única.

Demostración.-
a) Existencia de la factorización A = BB ∗ .
Por el Corolario 5.8, la matriz A posee factorización LU , y por ser A simétrica,
por la Proposición 5.1 la matriz A se puede escribir en la forma A = LDL∗ , con D
diagonal. Pero entonces, por la Proposición 5.11 la matriz D es definida positiva,
con lo que dii > 0 para todo i = 1, ..., n, y por tanto, nuevamente por la Proposición
5.1, si definimos B = LD1/2 , entonces
√ B es triangular inferior y tal que A = BB ∗ .
√ finalmente que bii = lii dii , con lo que si tomamos para cada i = 1, ..., n
Obsérvese
la raı́z dii con el mismo signo que el de lii , tendremos garantizado que bii > 0.
b) Unicidad de la factorización A = BB ∗ con bii √ > 0.
Por la libertad en la elección del signo para las dii , está claro la no unicidad
de la factorización A = BB ∗ , pero vamos ahora a obtener dicha unicidad con el
requerimiento adicional de que todos los bii sean positivos.
Sean B (1) y B (2) dos matrices n × n triangulares inferior tales que los elementos
(1) (2)
de la diagonal principal de ambas sean positivos, es decir, bii > 0, bii > 0, para
todo i = 1, ..., n, y satisfagan

A = B (1) (B (1) )∗ = B (2) (B (2) )∗ .

En tal caso,

(B (2) )−1 B (1) = (B (2) )∗ ((B (1) )∗ )−1 = (B (2) )∗ ((B (1) )−1 )∗ = ((B (1) )−1 B (2) )∗ ,

con lo que al ser (B (2) )−1 B (1) triangular inferior y ((B (1) )−1 B (2) )∗ triangular superior,
f
(B (2) )−1 B (1) = ((B (1) )−1 B (2) )∗ = D, (5.29)

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

28

con Df matriz diagonal


Pero (B (2) )−1 es una matriz triangular inferior cuyos elementos de la diagonal
(2)
principal son de la forma 1/bii , y en consecuencia los elementos de la diagonal
(1) (2)
principal de (B (2) )−1 B (1) son de la forma bii /bii .
De manera análoga, se obtiene que los elementos de la diagonal principal de
(2) (1)
(B (1) )−1 B (2) son de la forma bii /bii .
En consecuencia, teniendo en cuenta la igualdad (5.29), tenemos que
(1) (2)
bii bii
(2)
= (1)
, para todo i = 1, ..., n,
bii bii

es decir,
(1) (2)
(bii )2 = (bii )2 , para todo i = 1, ..., n,
(1) (2)
con lo que, teniendo en cuenta que los bii y los bii son positivos, podemos afirmar
que
(1) (2)
bii = bii , para todo i = 1, ..., n,
y en consecuencia Df = I , la matriz identidad n × n, y nuevamente por (5.29),
n
obtenemos B (1) = B (2) .

El recı́proco del Teorema de factorización de Cholesky es también cierto.

Proposición 5.14 Si B es una matriz n×n triangular inferior regular, y definimos


A = BB ∗ , entonces A es simétrica y definida positiva.

Demostración.- En primer lugar,

A∗ = (BB ∗ )∗ = BB ∗ = A,

y por tanto A es simétrica.


Además, si u ∈ IRn \ {0}, entonces por ser B regular, también B ∗ u ∈ IRn \ {0}.
Pero entonces,
n
X
u∗ Au = u∗ BB ∗ u = (B ∗ u)∗ B ∗ u = (B ∗ u)2j > 0,
j=1

y por tanto A es definida positiva.

Antes de inferir si una matriz admite factorización de Cholesky (usando el


resultado anterior) necesitamos comprobar si es definida positiva. Sabemos que
una condición necesaria para que A tenga factorización de Cholesky es que A sea
simétrica. Por otro lado, el siguiente resultado da una condición equivalente (para
matrices simétricas) al carácter definido positivo.

Proposición 5.15 (Criterio de Sylvester de matriz definida positiva) Sea A


una matriz real simétrica n × n. Dicha matriz es definida positiva si y sólo si todos
sus menores principales son positivos.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

29

Demostración.- Por la Proposición 5.7 una matriz A definida positiva (sea


simétrica o no) satisface que todos sus menores principales son positivos.
Veamos la implicación hacia la izquierda: al ser los menores principales no nulos,
por el Teorema 4.3 de Doolittle se tiene que A = LU donde U = DL∗ (gracias a
la Proposición 5.1 por ser A simétrica). Como detA 6= 0, L es invertible, y por la
Proposición 5.11, A es definida positiva si y sólo si lo es D, que al ser diagonal,
es definida positiva si y sólo si (cf. Observación 5.5) todos sus elementos diago-
nales dii (que coinciden que uii ) son positivos. Nótese que Ar = Lr Ur con lo que
detAr =detUr = Πri=1 uii . Al tener que detAr > 0 para todo r = 1, . . . , n, recursiva-
mente vemos que los uii > 0 para todo i = 1, . . . , n.

Para el cálculo efectivo de la factorización de Cholesky, se parte de la igualdad


 
a11 a12 ... a1,n−1 a1n
 a21 a22 ... a2,n−1 a2n 
 
 .. .. .. .. 
 
 . . ... . . 
 
 an−1,1 an−1,2 . . . an−1,n−1 an−1,n 
an1 an2 . . . an,n−1 an,n
  
b11 0 ... 0 0 b11 b21 ... bn−1,1 bn1
 b21 b22 ... 0 0  0 b22 ... bn−1,2 bn2 
  
 .. .. .. ..  . .. .. .. 
=  . . ... . .  . 
  . . ... . . 
  
 bn−1,1 bn−1,2 . . . bn−1,n−1 0  0 0 . . . bn−1,n−1 bn,n−1 
bn,1 bn,2 . . . bn,n−1 bn,n 0 0 ... 0 bn,n

con bii > 0.


De esta forma, identificando los elementos de la primera fila de A con los corres-
pondientes de BB ∗ , obtenemos
 2 √
 a11 = b11 ⇒ b11 = a11


a1j
 a1j = b11 bj1 ⇒ bj1 = , j = 2, ..., n,
b11
identificando a continuación los elementos de la segunda fila de A con los correspon-
dientes de BB ∗ , obtenemos

a2j = b21 bj1 + b22 bj2 , j = 2, ..., n,

y en consecuencia,
 q

 b22
 = a22 − b221 ,

 1
 bj2 = (a2j − b21 bj1 ), j = 3, ..., n,
b22
y en general si suponemos conocidas las k − 1 primeras columnas de B entonces,
identificando los elementos de la k-ésima fila de A con los correspondientes de BB ∗ ,
obtenemos
akj = bk1 bj1 + bk2 bj2 + ... + bkk bjk , j = k, ..., n,

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

30

y en consecuencia,
 v
 u k−1

 u X

 b = ta − b2kr ,
 kk
 kk
r=1

 k−1
!

 1 X

 bjk
 = akj − bkr bjr , j = k + 1, ..., n.
bkk r=1

Se puede demostrar que el número de operaciones necesarias para llevar a cabo


el método de cálculo anterior resulta ser aproximadamente la mitad de sumas y
productos que en el método de Gauss o el LU, a cambio de calcular además n raı́ces
cuadradas. Cuando n es grande, el método de Cholesky es el más favorable para el
caso de matrices simétricas y definidas positivas.
Como ejercicio, se propone que se encuentre la factorización de Cholesky de la
matriz
 
4 −1 0

A =  −1 4 −1 
,
0 −1 4
 
2

y se resuelva el sistema Au =  6 
.
2

Referencias
[1] R.L. Burden & J.D. Faires, Análisis Numérico, Grupo Editorial Iberoamérica,
México 1985.

[2] D. Kincaid & W. Cheney, Análisis Numérico, Addison-Wesley Iberoamericana,


Wilmington, 1994.

Como bibliografı́a complementaria se pueden consultar:

[3] P.G. Ciarlet, Introduction à l’Analyse Numérique Matricielle et à l’Optimization,


Masson, Paris 1982.

[4] J. Stoer & R. Bulirsch, Introduction to Numerical Analysis, W.H. Freeman and
Co., San Francisco, 1975.

[5] R. Théodor, Initiation à l’Analyse Numérique, Masson, Paris, 1989.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 4

Introducción a la interpolación y
a la integración numérica

1. Introducción a la interpolación
Un problema que se presenta con frecuencia en las ciencias experimentales y en
ingenierı́a es tratar de construir una función (denominada “función interpolante”)
de la que se conoce una serie de valores en ciertos puntos (denominados “datos
de interpolación”). Estos datos pueden ser obtenidos, por ejemplo, a partir de ob-
servaciones realizadas en un determinado experimento. El objetivo será determinar
una función cuyos valores en los puntos considerados coincidan con los datos y que
además sea fácil de construir y manipular. Por su sencillez y operatividad los po-
linomios se usan frecuentemente como funciones interpolantes. En ocasiones, este
problema comprende también otros datos, especialmente los valores de las derivadas
de la función en ciertos puntos.

1.1. Generalidades
Un problema de interpolación en general puede enunciarse de la siguiente forma:

Dado un conjunto de datos, generalmente valores de una función y/o sus de-
rivadas en determinados puntos xi , i = 0, 1, · · · , n, que llamaremos nodos,
nuestro objetivo es construir otra función que coincida con la función dada en
los datos de interpolación.

Según el tipo de los datos de interpolación, podemos considerar los siguientes


tipos de interpolación:
Interpolación de Lagrange: Conocemos los valores de la función f (xi ) en n + 1
puntos distintos, xi , i = 0, 1, · · · , n
Interpolación de Taylor: Los datos son el valor de la función y sus derivadas
sucesivas en un punto x0 hasta el orden n.

f i) (x0 ), i = 0, 1, · · · , n.

Interpolación de Hermite: Disponemos de los valores de una función y de al-


gunas de sus derivadas sucesivas en determinados puntos. Por ejemplo, f (xi )
y f ′ (xi ) en n + 1 puntos distintos, xi , i = 0, 1, · · · , n
Descargado por Laura Black (paulalourido1@gmail.com)
1
lOMoARcPSD|2722049

2 Cálculo Numérico I

En general, las funciones interpolantes forman un espacio vectorial de dimensión


finita, es decir son del tipo:

ψ (x) = a0 ψ0 (x) + a1 ψ1 (x) + · · · + an ψn (x),

donde ψ0 (x), ψ1 (x), · · · , ψn (x), son funciones dadas que forman base del espacio
vectorial correspondiente y ai , i = 0, 1, · · · , n números reales a determinar.
Dependiendo del tipo de funciones que utilicemos como funciones interpolantes,
la interpolación se llamará polinómica, racional, trigonométrica, spline polinómi-
co,... Entre las diferentes funciones interpolantes, por su sencillez y facilidad para
operar, los polinomios son los utilizados con mayor frecuencia en problemas de in-
terpolación, en este caso las funciones de base son ψi (x) = xi , i = 0, 1, · · · , n. Sin
embargo, no siempre dan una respuesta satisfactoria, especialmente si la solución del
problema requiere el uso de polinomios de alto grado o, por ejemplo, si se observa
un comportamiento periódico en los datos de interpolación.
Por simplicidad, nos centraremos en este Tema en el estudio del caso particular
de la interpolación polinómica de Lagrange.

1.2. La interpolación de Lagrange


El problema de la interpolación polinómica de Lagrange consiste en lo siguiente:
Conocidos los valores de una función f en n + 1 puntos distintos xi , i =
0, 1, · · · , n de un intervalo [a, b], nos planteamos obtener un polinomio Pn de
grado no superior a n, que coincida con la función f en estos n + 1 puntos, es
decir,
Pn (xi ) = f (xi ), para i = 0, 1, · · · , n.

El polinomio Pn buscado forma parte del conjunto de los polinomios de grado


menor o igual que n y, por tanto, Pn (x) será de la forma

Pn (x) = an xn + an−1 xn−1 + · · · + a1 x + a0 ,

y, para determinarla, habrá que hallar los n + 1 coeficientes reales a0 , a1 , · · · , an .


En el caso que an sea no nulo, diremos que Pn (x) tiene exactamente grado n.
La existencia y unicidad del polinomio de interpolación Pn (x) se prueba en el
siguiente resultado, además se determina una primera forma de construirlo.
Teorema 1.1 (Fórmula de interpolación de Lagrange)
Sean f : [a, b] → IR y {x0 , x1 , · · · , xn }, n + 1 puntos distintos del intervalo [a, b].
Entonces, existe un único polinomio Pn (x) de grado menor o igual que n, que verifica

Pn (xi ) = f (xi ), i = 0, 1, · · · , n.

A este polinomio se le denomina polinomio de interpolación de f en los nodos


{x0 , x1 , · · · , xn }.
Además, el polinomio de interpolación puede ser calculado mediante la fórmula
n
X
Pn (x) = f (xi ) Li (x), (1.1)
i=0

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 4: Introducción a la interpolación y a la integración numérica. 3

donde, para cada i ∈ {0, 1, · · · , n}, Li (x) es el polinomio de grado n definido por
n
Y x − xj
Li (x) = .
j=0
x i − x j
j6=i

Demostración.-
1. Existencia: Observemos que para cada i ∈ {0, 1, · · · , n},
x − x0 x − x1 x − xi−1 x − xi+1 x − xn
Li (x) = ··· ··· ,
xi − x0 xi − x1 xi − xi−1 xi − xi+1 xi − xn
Entonces, Li (xj ) = δij para cada j ∈ {0, 1, · · · , n}, siendo δij la delta de
Kronecker. En consecuencia, Pn (x) es un polinomio de grado n como máximo
y Pn (xj ) = f (xj ), para cada j ∈ {0, 1, · · · , n}.
2. Unicidad: Supongamos que existen Pn (x) y Qn (x) dos polinomios de grado
menor o igual que n, que verifican Pn (xi ) = f (xi ) = Qn (xi ), para cada
i = 0, 1, · · · , n. Entonces, el polinomio Dn (x) = Pn (x) − Qn (x) es también
un polinomio de grado menor o igual que n y satisface Dn (xi ) = Pn (xi ) −
Qn (xi ) = 0, para cada i = 0, 1, · · · , n.
Es decir, Dn (x) es un polinomio de grado menor o igual que n con n + 1 raı́ces
distintas, por tanto, por el teorema Fundamental del Álgebra, Dn (x) ≡ 0 de
donde se concluye que Pn (x) ≡ Qn (x).

Observación 1.2
La expresión (1.1) se conoce como fórmula de Lagrange del polinomio de in-
terpolación. El Teorema 1.1 proporciona un método constructivo para obtener
el polinomio de interpolación Pn (x) mediante la fórmula (1.1).
Ejemplo.- Obtener el polinomio que interpola a los valores (−1, 3), (2, 1), (3, 2),
(4, 4).
Si algún dato es f (xj ) = 0, no hace falta calcular Lj (x).
Los polinomios Lk (x) sólo dependen de los nodos de interpolación {x0 , x1 , · · · ,
xn }. De modo que, una vez calculado cada Lk (x) se construyen los polinomios
de interpolación poniendo los f (xk ) como coeficientes de una combinación
lineal, lo cual es una ventaja si queremos resolver varios problemas de interpo-
lación con los mismos nodos xk . En este sentido, {L0 (x), L1 (x), · · · , Ln (x)}
es una base del espacio vectorial de los polinomios de grado n de interpolación
asociados a los nodos {x0 , x1 , · · · , xn }.
n
X
Tomando f (x) = 1 en (1.1), se tiene, Li (x) = 1, para todo x ∈ IRN .
i=0

No obstante, la fórmula de Lagrange (1.1) tiene el inconveniente de que hay


que realizar numerosos cálculos y sobre todo que si añadimos un dato más de
interpolación, hemos de volver a calcular todos los polinomios Lk (x).

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

4 Cálculo Numérico I

1.3. Fórmula de interpolación de Newton


En esta sección vamos a estudiar otra forma de calcular el polinomio de inter-
polación Pn (x) que no presenta los inconvenientes de la fórmula de Lagrange. Esta
nueva forma es la denominada fórmula de interpolación de Newton para el polinomio
de interpolación de Lagrange, que nos va a permitir una representación del polino-
mio de interpolación en términos de “diferencias”. Comencemos con la definición de
esta “diferencias”

Definición 1.3 Sean f : [a, b] → IR y {x0 , x1 , · · · , xn }, n + 1 puntos distintos del


intervalo [a, b]. Para cada i ∈ {0, . . . , n} y m ∈ {1, . . . , n − i}, sean

 f [xi ] = f (xi ),
f [xi+1 , xi+2 , · · · , xi+m ] − f [xi , xi+1 , · · · , xi+m−1 ]
 f [xi , xi+1 , · · · , xi+m ] = .
xi+m − xi

f [xi , xi+1 , · · · , xi+m ] se denomina diferencia dividida de orden m de f en el punto


xi .

Para expresar la fórmula de Newton del polinomio de interpolación usaremos la


siguiente notación:
j−1
Y
Π0 (x) = 1 y Πj (x) = (x − xi ) = (x − x0 ) (x − x1 ) · · · (x − xj−1 ).
i=0

Teorema 1.4 (Fórmula de interpolación de Newton)


Sean f : [a, b] → IR y {x0 , x1 , · · · , xn }, n + 1 puntos distintos del intervalo [a, b].
Entonces, el polinomio de interpolación de f en los nodos {x0 , x1 , · · · , xn } viene
dado por
n
X
Pn (x) = f [x0 , x1 , · · · , xi ] Πi (x) =
i=0
= f (x0 ) + f [x0 , x1 ] (x − x0 ) + f [x0 , x1 , x2 ] (x − x0 ) (x − x1 )
+ · · · + f [x0 , x1 , · · · , xn ] (x − x0 ) (x − x1 ) · · · (x − xn−1 ).
(1.2)
Además, si x 6∈ {x0 , x1 , · · · , xn }, entonces

En (x) = f (x) − Pn (x) = f [x0 , x1 , · · · , xn , x] Πn+1 (x). (1.3)

Demostración.- Lo probaremos por inducción sobre el número de nodos (n + 1):

1. Para n = 0, P0 (x) = f (x0 ) es el polinomio de interpolación de f en x0 .

2. Suponemos cierto el resultado para n y nos planteamos probarlo para n + 1.


Observemos que podemos expresar Pn+1 en la forma

Pn+1 (x) = Pn (x) + Cn+1 (x − x0 )(x − x1 ) · · · (x − xn )

para cierto coeficiente Cn+1 . En efecto: Pn+1 es un polinomio de grado menor


o igual que n + 1, tal que
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

Tema 4: Introducción a la interpolación y a la integración numérica. 5

Si i = 0, 1, · · · , n, Pn+1 (xi ) = f (xi ).


Si
f (xn+1 ) − Pn (xn+1 )
Cn+1 = ,
(xn+1 − x0 )(xn+1 − x1 ) · · · (xn+1 − xn )
entonces Pn+1 (xn+1 ) = f (xn+1 ).

Entonces, bastará probar que f [x0 , x1 , · · · , xn , xn+1 ] es el coeficiente lı́der de


Pn+1 . Para ello, consideremos el polinomio de interpolación de f en los nodos
x1 , x2 , · · · , xn+1 , que denotamos Qn . Buscamos Pn+1 en la forma

Pn+1 (x) = (a1 x + b1 )Qn (x) + (a2 x + b2 )Pn (x).

siendo a1 , b1 , a2 , b2 coeficientes a determinar. Pedimos que Pn+1 (xi ) = f (xi ),


i = 0, 1, · · · , n + 1:

Si i = 1, 2, · · · , n, tenemos

Pn+1 (xi ) = (a1 xi + b1 )f (xi ) + (a2 xi + b2 )f (xi ),

con lo que se cumplirá Pn+1 (xi ) = f (xi ) si

a2 = −a1 y b 2 = 1 − b1 .

Por tanto, si ponemos θ(x) = a1 x + b1 , tendremos a2 x + b2 = 1 − θ(x), y

Pn+1 (x) = θ(x) Qn (x) + (1 − θ(x)) Pn (x). (1.4)

Si i = 0, tenemos

Pn+1 (x0 ) = θ(x0 ) Qn (x0 ) + (1 − θ(x0 )) Pn (x0 ).

Pidiendo θ(x0 ) = 0 tendremos Pn+1 (x0 ) = f (x0 ).


Por último, si i = n + 1, tenemos

Pn+1 (xn+1 ) = θ(xn+1 ) Qn (xn+1 ) + (1 − θ(xn+1 )) Pn (xn+1 ).

Pidiendo θ(xn+1 ) = 1 tendremos Pn+1 (xn+1 ) = f (xn+1 ).

Ahora bien, como θ(x) es un polinomio de grado 1, lo tenemos definido unı́vo-


camente dando sus valores en x0 y xn+1 :
x − x0
θ(x) = .
xn+1 − x0

Identificando los coeficientes lı́deres en (1.4) y usando la hipótesis de recurren-


cia, deducimos

f [ x1 , · · · , xn+1 ] − f [ x0 , · · · , xn ]
Cn+1 = = f [ x0 , x1 · · · , xn+1 ].
xn+1 − x0

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

6 Cálculo Numérico I

Usamos ahora (1.2) para deducir la expresión del error (1.3). Consideramos un punto
x ∈ [a, b] fijo distinto a x0 , x1 , · · · , xn , y el polinomio Qn+1 que interpola a f en los
nodos x0 , x1 , · · · , xn , x. Este polinomio viene dado por

Qn+1 (y) = Pn (y) + f [ x0 , x1 · · · , xn , x] (y − x0 )(y − x1 ) · · · (y − xn ).

Tomando y = x deducimos

f (x) − Pn (x) = f [ x0 , x1 · · · , xn , x] (x − x0 )(x − x1 ) · · · (x − xn ).

que es precisamente (1.3).

Observación 1.5

Si en particular los puntos {x0 , x1 , · · · , xn } están uniformemente espaciados


en el intervalo [a, b] con paso h > 0, entonces el polinomio de interpolación
de f en {x0 , x1 , · · · , xn }, viene dado por:
n
X ∆i f (x0 )
Pn (x) = Πi (x)
i=0
i! hi
∆ f (x0 ) ∆2 f (x0 )
= f (x0 ) + (x − x0 ) + (x − x0 ) (x − x1 )
h 2 h2
∆n f (x0 )
+ · · · + (x − x0 ) (x − x1 ) · · · (x − xn−1 ) ,
n! hn
donde ∆i f (x0 ) son las diferencias finitas de f en x0 , dadas de forma recursiva
por
∆0 f (x0 ) = f (x0 ), ∆i+1 f (x0 ) = ∆i f (x1 ) − ∆i f (x0 ).

El cálculo de las diferencias divididas para construir el polinomio de interpola-


ción de f en {x0 , x1 , · · · , xn } se realizan mediante el algoritmo que muestra
la siguiente tabla:
f (x0 ) f [x0 , x1 ] ··· f [x0 , x1 , · · · , xn−1 ] f [x0 , x1 , · · · , xn ]
f (x1 ) f [x1 , x2 ] ··· f [x1 , x2 , · · · , xn ]
f (x2 ) f [x2 , x3 ] ···
··· ··· ···
f (xn−2 ) f [xn−2 , xn−1 ]
f (xn−1 ) f [xn−1 , xn ]
f (xn )
El cálculo de las diferencias finitas es similar.

Si conocemos Pn el polinomio de interpolación de f en {x0 , x1 , · · · , xn } y


deseamos calcular Pn+1 el polinomio de interpolación de f en {x0 , x1 , · · · , xn , xn+1 },
bastará determinar la diferencia dividida f [x0 , x1 , · · · , xn , xn+1 ], ya que

Pn+1 (x) = Pn (x) + Πn+1 (x) f [x0 , x1 , · · · , xn , xn+1 ],

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 4: Introducción a la interpolación y a la integración numérica. 7

1.4. Error de interpolación


Una vez calculado el polinomio de interpolación, pretendemos ahora usarlo para
estimar el valor de la función f en cualquier punto del intervalo [a, b]. Si el punto
elegido coincide con alguno de los nodos de interpolación {x0 , x1 , · · · , xn }, entonces
f (xi ) = Pn (xi ). Sin embargo, si tomamos un punto x ∈ [a, b] distinto de los nodos
de interpolación, en general f (x) 6= Pn (x). Se produce entonces un error que
llamaremos error de interpolación que denotaremos por

En (x) = f (x) − Pn (x).

Nuestro objetivo en esta sección es estimar este error. Para ello, notemos en
primer lugar que sin hipótesis adicionales, no podemos decir nada acerca de esta
cantidad pues podemos cambiar la función f en puntos que no sean los de interpo-
lación sin que cambie el polinomio.
No obstante, vamos a probar que cuando la función f es suficientemente regular,
podemos precisar el error que se comete en cada punto de interpolación en término
de las derivadas de f .

Teorema 1.6 Sean f ∈ C n+1 ([a, b]), {x0 , x1 , · · · , xn }, n + 1 puntos distintos


del intervalo [a, b] y Pn el polinomio de interpolación de f en {x0 , x1 , · · · , xn }.
Entonces, para cada x ∈ [a, b] existe ξx ∈ Ix (con Ix el menor intervalo cerrado
que contiene a {x0 , x1 , · · · , xn , x}), tal que

f n+1) (ξx )
En (x) = f (x) − Pn (x) = Πn+1 (x). (1.5)
(n + 1)!

Demostración.- Sea x ∈ [a, b] cualquiera, entonces pueden presentarse dos casos:

1. Si x = xi para algún i ∈ {0, 1, · · · , n}, entonces el resultado es trivial, pues


f (xi ) = Pn (xi ) y Πn+1 (xi ) = 0.

2. Si x 6= xi para todo i ∈ {0, 1, · · · , n}, entonces, consideramos la función


F : [a, b] → IR definida, para cada y ∈ [a, b], por

F (y) = [f (y) − Pn (y)] Πn+1 (x) − [f (x) − Pn (x)] Πn+1 (y),

que verifica F ∈ C n+1 ([a, b]),

F (xi ) = [f (xi ) − Pn (xi )] Πn+1 (x) − [f (x) − Pn (x)] Πn+1 (xi ) = 0,

para cada i ∈ {0, 1, · · · , n} y

F (x) = [f (x) − Pn (x)] Πn+1 (x) − [f (x) − Pn (x)] Πn+1 (x) = 0.

Es decir, F es una función de clase n + 1 en un intervalo donde, además, posee


n + 2 raı́ces reales distintas, entonces, por el Teorema de Rolle, la función
F ′ es de clase n en Ix y tiene al menos n + 1 raı́ces en Ix , repitiendo este
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

8 Cálculo Numérico I

razonamiento llegarı́amos a que F n+1) es una función continua en Ix y posee


al menos una raı́z ξx ∈ Ix . De aquı́, como para cada y ∈ [a, b], es
n+1) n+1)
F n+1) (y) = [f n+1) (y) − Pn (y)] Πn+1 (x) − [f (x) − Pn (x)] Πn+1 (y)
= f n+1) (y) Πn+1 (x) − [f (x) − Pn (x)] (n + 1)!,
donde hemos usado que Pn es un polinomio de grado menor o igual que n
y que Πn+1 es un polinomio mónico (de coeficiente lı́der igual a 1) de grado
exacto n + 1. En particular, se deduce que

0 = F n+1) (ξx ) = f n+1) (ξx ) Πn+1 (x) − [f (x) − Pn (x)] (n + 1)!,

de donde se concluye el resultado.

Por otra parte, la expresión (1.5) permite obtener una cota del error de interpo-
lación en norma uniforme:
Corolario 1.7 El polinomio de interpolación satisface la siguiente estimación de
error:

Mn+1
máx |f (x) − Pn (x)| ≤ máx |Πn+1 (x)|, (1.6)
a≤x≤b (n + 1)! a≤x≤b
siendo
Mn+1 = máx |f n+1) (x)|.
a≤x≤b

Observación 1.8
Existe un gran paralelismo entre la fórmula de error (1.5) y la expresión del
error para el polinomio de Taylor Tn (x), cuyas derivadas en un punto (ponga-
mos x0 ) hasta el orden n coinciden con las de f . El error en este caso es
f n+1) (ρx )
f (x) − Tn (x) = (x − x0 )n+1 ,
(n + 1)!
donde ρx es un punto intermedio entre x0 y x. Esta fórmula aparece como el
lı́mite formal del error para el polinomio de interpolación, cuando todos los
nodos xi tienden a x0 .
La estimación del error precedente es óptima en el sentido de que existe
una función para la que se da la igualdad. En efecto, si consideramos la función
n
Y
f (x) = Πn+1 (x) = (x − xi ),
i=0

se verifica que Pn (x) ≡ 0 y f n+1) (x) = (n + 1)! en cada x ∈ [a, b]. En


consecuencia,
Mn+1
|f (x) − Pn (x)| = |Πn+1 (x)| = |Πn+1 (x)|.
(n + 1)!

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 4: Introducción a la interpolación y a la integración numérica. 9

Del corolario anterior podemos plantearnos condiciones bajo las cuales el poli-
nomio de interpolación convergerá a la función f cuando el número de nodos de
interpolación tienda a infinito. Es un problema de la misma naturaleza que la con-
vergencia del polinomio de Taylor cuando el orden del desarrollo tiende a infinito.
Según la estimación (1.6), podemos esperar convergencia cuando la función f
sea muy regular (en el sentido de que las derivadas sucesivas crezcan con suficiente
lentitud), al igual que ocurre con el polinomio de Taylor. En realidad, es necesario
que f sea analı́tica en un intervalo suficientemente grande respecto a [a, b] para que
haya convergencia del polinomio de interpolación de Lagrange.

1.5. Interpolación polinómica a trozos


Construimos a continuación una técnica alternativa de interpolación para ga-
rantizar la convergencia del proceso de interpolación para funciones mucho menos
regulares, bastará que sean continuas. La idea es subdividir el intervalo [a, b] en
subintervalos, e interpolar en cada subintervalo por un polinomio de grado fijo, de
modo que la función interpolante sea globalmente continua.
Consideremos un soporte de interpolación ∆ = {a = x0 < x1 < · · · < xn = b } ⊂
[a, b]. Construimos el espacio de funciones de interpolación

Vh = {vh ∈ C 0 ([a, b]) tales que vh|[xi−1 ,xi ] ∈ IP1 ([xi−1 , xi ]), i = 1, · · · , n }

Vh está formado por funciones continuas en todo el intervalo [a, b] cuya restricción
a cada subintervalo [xi−1 , xi ] es un polinomio de grado a lo más uno.
El subı́ndice h representa el diámetro de ∆,

h = máx{xi − xi−1 , i = 1, · · · , n }.

Planteamos el mismo problema de interpolación de Lagrange, pero ahora


sobre Vh :

 Conocidos los valores de una función f en los n + 1 puntos distintos de ∆,
(P ) obtener una función fh ∈ Vh tal que
fh (xi ) = f (xi ), para i = 0, 1, · · · , n.

Este problema tiene la misma naturaleza que el de la interpolación polinómica:


Admite solución única, que se puede calcular a partir de ciertas funciones de base:

Teorema 1.9 El problema (P ) admite una única solución.


Esta solución se puede calcular mediante la expresión
n
X
fh (x) = f (xi ) φi (x), (1.7)
i=0

donde las fuciones φi ∈ Vh , i = 0, 1, · · · , n están determinadas por

φi (xj ) = δij , j = 0, 1, · · · , n, (1.8)

siendo δij la δ de Kronecker.


Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

10 Cálculo Numérico I

Demostración.- En cada intervalo [xi−1 , xi ], i = 0, 1, · · · , n la función fh es un poli-


nomio de grado menor o igual que 1, que debe satisfacer

fh (xi−1 ) = f (xi−1 ), fh (xi ) = f (xi ).

Por tanto,
f (xi ) − f (xi−1 )
fh (x) = (x − xi−1 ) + f (xi−1 ), ∀x ∈ [xi−1 , xi ]. (1.9)
xi − xi−1
De este modo la función fh está definida sobre todo el intervalo [a, b], y es un
polinomio de grado menor o igual que uno sobre cada subintervalo [xi−1 , xi ]. Basta
probar que es continua para concluir que pertenece a Vh y que, por tanto, es solución
de (P ).
Ahora bien, fh es continua en el interior de cada subintervalo [xi−1 , xi ], por
coincidir con un polinomio. Por otra parte, según la expresión (1.9), en cada nodo
interior xi , i = 1, · · · , n − 1 se tiene

lı́m fh (x) = lı́m+ fh (x) = f (xi ),


x→x−
i x→xi

y por tanto f es continua también en los nodos interiores. Por último, f es continua
en los extremos a = x0 y b = xn ya que coincide con un polinomio en [a, x1 ] y en
[xn−1 , b].
Para demostrar la unicidad de soluciones de (P ), consideremos dos posibles so-
luciones fh , gh ∈ Vh . Entonces la diferencia eh = fh − gh ∈ Vh se anula en todos los
nodos xi , i = 0, 1, · · · , n. Esto significa que eh satisface la expresión (1.9), con valo-
res de interpolación f (xi ) = 0, i = 0, 1, · · · , n. Por tanto, eh es idénticamente nula
en cada subintervalo, y entonces es la función nula en todo [a, b]. Por consiguiente,
gh = fh .
Para demostrar la expresión (1.7), observemos en primer lugar que existe una
única función φi ∈ Vh que satisface las condiciones (1.8), ya que estas condiciones
constituyen un problema de interpolación (P ) con datos f (xj ) = δij , j = 0, 1, · · · , n.
Por otra parte, para probar (1.7) bastará demostrar que la función
n
X
gh (x) = f (xi ) φi (x) ∈ Vh
i=0

toma los mismos valores que fh en cada nodo xi , i = 0, 1, · · · , n, ya que entonces fh


y gh serán soluciones de (P ) y por tanto deberán coincidir. Ahora bien,
n
X
gh (xj ) = f (xi ) φi (xj ) = f (xj ).
i=0

Por tanto, se verifica (1.7).

Observación 1.10
La expresión (1.9) proporciona explı́citamente el valor del interpolante fh en
cada punto de [a, b].
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

Tema 4: Introducción a la interpolación y a la integración numérica. 11

Usando la expresión (1.9), las funciones φi vienen dadas por


x − xi−1

 si x ∈ [xi−1 , xi ],
 xi − xi−1


φi (x) = x − xi+1
si x ∈ [xi , xi+1 ],
 xi − xi+1



0 en otro caso
Se llaman funciones sombrero.
De la expresión (1.7), usando que cada φi (x) es positiva, deducimos
n
X n
X
|fh (x)| ≤ |f (xi )|φi (x) ≤ máx |f (y)| φi (x) ≤ máx |f (y)|,
y∈[a,b] y∈[a,b]
i=0 i=0
n
X
ya que φi (x) = 1. De aquı́ concluimos la estabilidad de la interpolación a
i=0
trozos:
máx |fh (x)| ≤ máx |f (x)|.
x∈[a,b] x∈[a,b]

Esto no es cierto para la interpolación polinómica, ya que el máximo de |Pn (x)|,


en general, no está acotado.
Existen otras posibilidades de interpolación a trozos: Por una parte, pedir que
las funciones de Vh en cada subintervalos coincidan con polinomios de grado
2, 3, etc. Por otra parte, pedir que su regularidad global sea C 1 , C 2 , etc. En
general, los interpolantes polinómicos a trozos se llaman funciones spline.
El siguiente resultado formaliza la estimación de error para la interpolación a trozos:
Teorema 1.11 Supongamos que f ∈ C 2 ([a, b]). Entonces,
M2 2
máx |f (x) − fh (x)| ≤ h, (1.10)
x∈[a,b] 8
siendo M2 = máx |f ′′ (x)|.
x∈[a,b]

Demostración Sea x ∈ [a, b]. Existe un subintervalo [xi−1 , xi ] al que pertenece x. En


este subintervalo pi (x) = fh (x) es solución del problema de interpolación polinómica
pi ∈ IP1 , pi (xi−1 ) = f (xi−1 ), pi (xi ) = f (xi ).
Por tanto el error de interpolación viene dado por la expresión
f ′′ (ξx )
f (x) − fh (x) = (x − xi−1 )(x − xi ),
2
donde ξx es un punto de (xi−1 , xi ). Entonces,
M2 M2 h2
|f (x) − fh (x)| ≤ (x − xi−1 )(x − xi ) ≤ ∀x ∈ [xi−1 , xi ].
2 2 4
Como esta estimación es cierta en cada uno de los subintervalos, de aquı́ se deduce
(1.10).

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

12 Cálculo Numérico I

Observación 1.12

La estimación (1.10) significa que si h se divide por dos (O sea, si se duplica el


número de puntos), entonces el error máx |f (x) − fh (x)| se divide por cuatro,
x∈[a,b]
aproximadamente.

De (1.10) se deduce que si f es de clase C 2 , entonces

lı́m máx |f (x) − fh (x)| = 0


h→0 x∈[a,b]

Si f es continua en lugar de C 2 también es cierta esta convergencia, aunque


máx |f (x) − fh (x)| puede tender a cero muy lentamente cuando h → 0.
x∈[a,b]

2. Introducción a la integración numérica


Uno de los problemas matemáticos más antiguos es el del cálculo del área que
encierra una curva. Como sabemos, este problema da lugar al cálculo integral (más
consideraciones de signo a tener en cuenta cuando se pretende calcular un área y no
un área signada).
La regla de Barrow resuelve el problema de calcular la integral de una función
en un intervalo [a, b], mediante la fórmula
Z b
f (x) dx = F (b) − F (a),
a

siendo F una primitiva de la función f en el intervalo [a, b], es decir, F ′ (x) = f (x),
∀ x ∈ [a, b]. Sin embargo, en muchos casos esto no es posible, dado que:

Para ciertas funciones no es posible calcular dicha primitiva, a pesar de saber


que existe. Por ejemplo, para las funciones
2 sen x √
f (x) = ex , f (x) = , f (x) = x5 + 1,
x
no es posible encontrar una primitiva expresable en término de funciones ele-
mentales.

En muchos de los problemas que se plantean, a la hora de integrar funciones,


están relacionados con funciones definidas en forma de tabla de valores o gráfica
y no se conoce una expresión analı́tica de f (x).

En ambos casos se precisa de fórmulas de integración numérica (también llamadas


fórmulas de cuadratura), que nos van a permitir calcular un valor aproximado de la
integral en la forma
Z b X n
f (x) dx ≃ ai f (xi ),
a i=0

donde los xi , i = 0, 1, · · · , n, son puntos del intervalo [a, b] y los coeficientes ai ,


i = 0, 1, · · · , n, son números reales elegidos convenientemente.
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

Tema 4: Introducción a la interpolación y a la integración numérica. 13

2.1. Fórmulas de integración de tipo interpolatorio


Para obtener fórmulas de integración numérica seguiremos, básicamente, el proce-
dimiento basado en calcular el polinomio de interpolación de la función f en algunos
puntos del intervalo [a, b] y aproximar el valor de la integral de la función por el
valor de la integral del polinomio de interpolación. En concreto,
Z b Z b
f (x) dx ≃ Pn (x) dx,
a a

donde n
X
Pn (x) = f (xi ) Li (x), x ∈ [a, b]
i=0
es el polinomio de interpolación de f en los n+1 puntos distintos, xi , i = 0, 1, · · · , n,
del intervalo [a, b]. Integrando esta expresión en [a, b] obtenemos
Z b Xn
Pn (x) dx = ci f (xi ),
a i=0

siendo Z b
ci = Li (x) dx,
a
para i = 0, 1, · · · , n. Obsérvese que los coeficientes ci , i = 0, 1, · · · , n, son
independientes de f y, por tanto, una vez calculados proporcionan una fórmula que
se puede aplicar a cualquier función f : [a, b] → IR.
Además, será necesario estudiar el error que se comete en este tipo de fórmulas,
es decir, el valor de
Z b Z b Z b
Rn (f ) = f (x) dx − Pn (x) dx = En (x) dx.
a a a

con En (x) = f (x) − Pn (x). En este sentido, en el estudio del error de interpolación,
probamos que si f ∈ C n+1 ([a, b]), se tiene que
f n+1) (ξx )
En (x) = Πn+1 (x),
(n + 1)!
con Πn+1 (x) = (x − x0 ) (x − x1 ) · · · (x − xn ) y donde ξx es un punto intermedio
entre x0 , x1 , · · · , xn , x. En realidad, hay un ligero abuso de notación en la expresión
anterior, ya que ξx sólo está definido para los x ∈ [a, b] \ {xi }ni=0 ; no obstante, E
se anula en los nodos por propia construcción, y además se tiene que Πn+1 (xi ) = 0
para i = 0, ...n, y f n+1) está acotada, con lo que el valor de f n+1) (ξx ) en los nodos
no es importante y podemos considerar el convenio de que la expresión de arriba
está siempre definida (incluso en los nodos1 ).
Entonces, en este caso el error de integración que se comete es
Z b Z b n+1)
f (ξx )
Rn (f ) = En (x) dx = Πn+1 (x) dx.
a a (n + 1)!
1
En los casos que analizaremos más adelante, se puede comprobar de hecho que hay una exten-
sión continua de la aplicación [a, b] \ {xi }ni=0 ∋ x 7→ f n+1) (ξx ) ∈ R a todo el intervalo [a, b].

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

14 Cálculo Numérico I

Para determinar una expresión explı́cita del error de integración Rn (f ), resulta de


utilidad el siguiente resultado conocido como teorema del valor medio generalizado,
que es una aplicación del Teorema de los valores intermedios de Darboux unido al
carácter monótono del operador integral.
Teorema 2.1 Sean h, g ∈ C([a, b]) y supongamos que g no cambia de signo en
[a, b], entonces existe ξ ∈ [a, b] tal que
Z b Z b
h (x) g (x) dx = h (ξ) g (x) dx.
a a

Demostración: Supongamos que g(x) ≥ 0 para todo x ∈ [a, b] (si fuera al contrario,
la prueba es análoga) y supongamos que g 6≡ 0 (si no, el resultado serı́a trivial).
Como
mh g(x) ≤ h(x)g(x) ≤ Mh g(x)∀x ∈ [a, b]
donde mh = mı́n[a,b] h(x) y Mh = máx[a,b] h(x), integrando tenemos
Z b Z b Z b
mh g(x)dx ≤ h(x)g(x)dx ≤ Mh g(x)dx.
a a a

Por tanto, Z b   Z b 
h(x)g(x)dx g(x)dx ∈ [mh , Mh ].
a a
Por el Teorema
R de losValores Intermedios de Darboux, existe ξ ∈ [a, b] tal que
b  R b 
h(ξ) = a h(x)g(x)dx a
g(x)dx .

Por otro lado, es obvio que si f es un polinomio de grado menor o igual que
n, entonces f coincidirá con su polinomio de interpolación. En consecuencia, las
fórmulas de tipo interpolatorio sobre n + 1 puntos distintos son exactas para todos
los polinomios de grado menor o igual que n, en el sentido de que
Rn (f ) = 0.
En relación con esta observación, se tiene la siguiente definición:
Definición 2.2 Se llama orden o grado de precisión de un fórmula de integración
al mayor entero positivo m tal que la fórmula es exacta para todos los polinomios de
grado menor o igual que m.
En la práctica, para probar que una fórmula de integración es de orden m, es sufi-
ciente comprobar que
Rn (xk ) = 0, para k = 0, 1, · · · , m y Rn (xm+1 ) 6= 0.

2.2. Fórmulas básicas de integración numérica


Para simplificar las demostraciones de estimación del error en los resultados que
siguen, en lugar de recurrir directamente al Teorema 2.1 (lo que nos conducirı́a a
probar la continuidad de la aplicación [a, b] ∋ x 7→ f n+1) (ξx ) ∈ R), adaptaremos la
prueba en cada caso2 .
2
No obstante, como se indicó antes, dicha comprobación es factible en los casos que presentamos.

Descargado por Laura Black (paulalourido1@gmail.com)


lOMoARcPSD|2722049

Tema 4: Introducción a la interpolación y a la integración numérica. 15

2.2.1. Fórmula del rectángulo


La fórmula de integración más sencilla es aquélla que utiliza el valor de la función
f en un sólo punto x0 ∈ [a, b]. En este caso el polinomio de interpolación de la
función f es de grado cero, es decir, P0 (x) = f (x0 ), por lo que
Z b Z b Z b
f (x) dx ≃ P0 (x) dx = f (x0 ) dx = f (x0 ) (b − a).
a a a

Si x0 = a se obtiene la fórmula del rectángulo izquierda dada por


Z b
f (x) dx ≃ f (a) (b − a). (2.11)
a

El error cometido viene expresado como sigue:


Lema 2.3 Sea f ∈ C 1 ([a, b]). Entonces existe ξ ∈ [a, b] tal que
Z b
f ′ (ξ)
R0 (f ) = f (x) dx − f (a) (b − a) = (b − a)2 . (2.12)
a 2
Demostración.-
Z b Z b Z b
f (x) dx − f (a) (b − a) = (f (x) − f (a))dx = f ′ (ξx )(x − a)dx,
a a a

donde hemos usado el Teorema del Valor Medio (TVM) para cada valor x. Ahora
en la última expresión podemos aplicar el Teorema del Valor Medio Generalizado,
con lo que existe ξ ∈ [a, b] tal que
Z b Z b
′ ′ (b − a)2
f (ξx )(x − a)dx = f (ξ) (x − a)dx = f ′ (ξ) .
a a 2

Observación 2.4

Un resultado similar se obtiene si tomamos x0 = b, en este caso la fórmula


de integración se denomina fórmula del rectángulo derecha,
Z b
f ′ (ξ)
f (x) dx ≃ f (b) (b − a), R0 (f ) = − (b − a)2 .
a 2
Rb
Geométricamente, si f (x) ≥ 0 en [a, b], el valor de a f (x) dx se aproxima
por el área del rectángulo de base (b − a) y altura f (a) ó f (b).
a+b
En el caso de que x0 = c = , se obtiene la fórmula del punto medio dada
2
por Z b
f (x) dx ≃ f (c) (b − a). (2.13)
a
La expresión del error de integración viene dada por
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

16 Cálculo Numérico I

Lema 2.5 Sea f ∈ C 2 ([a, b]). Entonces existe ξ ∈ [a, b] tal que
b
f ′′ (ξ)
Z
R0 (f ) = f (x)dx − f (c) (b − a) = (b − a)3 . (2.14)
a 24

Demostración.- Consideramos el desarrollo de Taylor de la función f en el punto c


hasta el orden 2:
f ′′ (ξx )

f (x) = f (c) + f (c) (x − c) + (x − c)2 .
2
Integrando ambos miembros obtenemos
Z b Z b

R0 (f ) = f (x) dx − f (c) (b − a) = f (c) (x − c) dx
a a
Z b ′′ Z b ′′
f (ξx ) 2 f (ξx )
+ (x − c) dx = (x − c)2 dx
a 2 a 2

con ξx ∈ (a, b).


Usando que la función (x − c)2 no cambia de signo en [a, b], podemos aplicar el
Teorema del Valor Medio Generalizado y concluir que existe un punto ξ ∈ [a, b] en
el que se tiene
Z b ′′
f (ξx ) f ′′ (ξ) b
Z
2
R0 (f ) = (x − c) dx = (x − c)2 dx,
a 2 2 a

de donde se obtiene (2.14).

La expresión (2.14) prueba que la fórmula del punto medio es de orden 1. En


efecto, f ′′ (x) ≡ 0 si f es un polinomio de grado menor o igual que 1. Además, la
fórmula es inexacta para f (x) = x2 , por lo que su orden es exactamente 1.
Cualquier otra elección del punto x0 genera una fórmula de orden 0. Esto se debe
a que el punto x0 = c es simétrico respecto a los extremos del intervalo, lo que hace
que la contribución al error del término lineal en el desarrollo de Taylor de f sea
nula. Las simetrı́as juegan un papel fundamental en la construcción de fórmulas de
cuadratura de alto orden.

2.2.2. Fórmula del trapecio


Se trata de un fórmula de integración con dos puntos. En este caso el polinomio
de interpolación de la función f es de grado uno. En concreto, si consideramos los
puntos x0 , x1 ∈ [a, b], el polinomio de interpolación de la función f será

f (x1 ) − f (x0 )
P1 (x) = f (x0 ) + f [x0 , x1 ] (x − x0 ) = f (x0 ) + (x − x0 ).
x1 − x0
Podemos entonces obtener la siguiente fórmula de integración numérica
Z b Z b 
f (x1 ) − f (x0 )
f (x) dx ≃ f (x0 ) + (x − x0 ) dx
a a x1 − x0
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

Tema 4: Introducción a la interpolación y a la integración numérica. 17

Para el caso particular x0 = a y x1 = b se obtiene la fórmula del trapecio que


viene dada por
Z b
b−a
f (x) dx ≃ (f (a) + f (b)). (2.15)
a 2
La expresión del error para esta fórmula viene dada como sigue:

Lema 2.6 Sea f ∈ C 2 ([a, b]). Entonces existe ξ ∈ [a, b] tal que
b
b−a f ′′ (ξ)
Z
R1 (f ) = f (x) dx − (f (a) + f (b)) = − (b − a)3 . (2.16)
a 2 12

Demostración.- Expresamos el error como


Z b
R1 (f ) = (f (x) − P1 (x)) dx.
a

El error de interpolación viene dado por

f ′′ (ξx )
f (x) − P1 (x) = Π1 (x),
2
con Π1 (x) = (x − a) (x − b). Dado que la función Π1 no cambia de signo en el
intervalo [a, b], el Teorema del Valor Medio Generalizado implica que existe ξ ∈ [a, b]
tal que
b b
f ′′ (ξx ) f ′′ (ξ) f ′′ (ξ)
Z Z
R1 (f ) = (x − a)(x − b)dx = (x − a)(x − b)dx = − (b − a)3 .
a 2! 2 a 12

Observación 2.7

La expresión del error nos asegura que la fórmula (2.15) es exacta para poli-
nomios de grado menor o igual que 1, pero inexacta para f (x) = x2 , por lo
que su orden es exactamente 1.

Geométricamente, si f (x) ≥ 0 en [a, b], la fórmula del trapecio aproxima el


Rb
valor de a f (x)dx por el área del trapecio resultante de unir los puntos (a, 0),
(b, 0), (b, f (b)) y (a, f (a)).

2.2.3. Fórmula de Simpson


Se trata de una fórmula para 3 puntos, pero consigue exactitud para los polino-
mios de grado menor o igual que 3, considerando los puntos x0 = a, x1 = (a + b)/2
y x2 = b. Por integración del polinomio de interpolación, se deduce fácilmente que
b    
b−a a+b
Z
f (x) dx ≃ f (a) + 4 f + f (b) . (2.17)
a 6 2
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

18 Cálculo Numérico I

La deducción del error en la fórmula (2.17) es un poco más laboriosa. Para ello, hay
que suponer que f ∈ C 4 ([a, b]), integrar el desarrollo de Taylor de orden 3 de la
función f en el punto x1 , obteniéndose que

f 4) (ξ)
R2 (f ) = − (b − a)5 ,
2880

con ξ ∈ [a, b].

Observación 2.8

La fórmula de Simpson es una de las fórmulas de integración numérica más


usadas en la práctica.

La expresión del error R2 (f ), en términos de la derivada cuarta de f , confirma


que la fórmula es exacta para los polinomios de grado menor o igual que 3.
Sin embargo, se obtiene a partir de la integración de un polinomio de grado 2.
La fórmula (2.17) tiene pues un grado extra de exactitud.

La fórmula de Simpson es exactamente de orden 3 (ver error para f (x) = x4 ).


Z 1
2
Ejemplo.- Obtener un valor aproximado de la integral e− x dx aplicando las
0
fórmulas vistas en teorı́a. Dar, en cada caso, una estimación del error cometido.

2.3. Fórmulas de integración compuesta


Las fórmulas de integración anteriores no son apropiadas cuando el intervalo de
integración [a, b] es bastante grande, ya que el error que se comete al utilizarlas suele
ser también bastante grande, como se deduce de las expresiones del error.
Con objeto de conseguir una mayor precisión, podrı́a pensarse en utilizar fórmu-
las de tipo interpolatorio con mayor número de puntos. Sin embargo este procedi-
miento, a parte de ser más engorroso, no conduce necesariamente a fórmulas más
exactas debido a los problemas que puede presentar el polinomio de interpolación
cuando el grado es muy alto. Por esta razón, es aconsejable un método distinto y
en la práctica más efectivo. Consiste en dividir el intervalo inicial en un número
apropiado de subintervalos y aplicar un método de integración numérica simple en
cada uno de ellos. De esta forma aparecen las fórmulas de integración numérica
compuestas.
Si llamamos h = (b − a)/n, entonces los puntos xj = a + j h, para j =
0, 1, · · · , n, constituyen una partición (uniforme) del intervalo [a, b] y se tiene que
Z b n Z
X xj
f (x) dx = f (x) dx.
a j=1 xj−1

Ahora aplicamos una fórmula de integración numérica para aproximar la integral


de la función en cada uno de los intervalos [xj−1 , xj ] para j = 1, 2, · · · , n.
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

Tema 4: Introducción a la interpolación y a la integración numérica. 19

2.3.1. Fórmula del punto medio compuesta


Si utilizamos la fórmula del punto medio para aproximar la integral en cada uno
de los subintervalos [xj , xj+1 ], obtenemos la fórmula de integración compuesta
b n   n
xj−1 + xj
Z X X 
f (x) dx ≃ IP M C (f ) = f (xj − xj−1 ) = h f xj−1/2 ,
a j=1
2 j=1
(2.18)
xj−1 + xj
donde xj−1/2 = .
2
El error cometido al utilizar la fórmula (2.18) será la suma de los errores come-
tidos en cada uno de los subintervalos. La expresión del error es:
Lema 2.9 Sea f ∈ C 2 ([a, b]). Entonces existe ξ ∈ [a, b] tal que
Z b
f ′′ (ξ) 2
RP M C (f ) = f (x) dx − IP M C (f ) = h (b − a).
a 24
Demostración.- Escribimos el error como
Z b n Z
X xi 
RP M C (f ) = f (x) dx − IP M C (f ) = f (x) dx − (xi − xi−1 ) f (xi−1/2 ) .
a i=1 xi−1

Aplicando la expresión del error para la fórmula del rectángulo con el punto medio,
Z xi
f ′′ (ξi )
f (x) dx − (xi − xi−1 ) f (xi−/2 ) = (xi − xi−1 )3 ,
xi−1 24

siendo ξi ∈ [xi−1 , xi ]. Entonces,


n n
X f ′′ (ξi ) 3h2 X
RP M C (f ) = h = (b − a) f ′′ (ξi ).
i=1
24 24 i=1

Ahora bien,

m = mı́n f ′′ (x) ≤ f ′′ (ξi ) ≤ M = máx f ′′ (x), ∀i = 1, 2, · · · , n


x∈[a,b] x∈[a,b]

de donde
RP M C (f )
m≤ h2
≤ M,
24
(b − a)
y por tanto, como f ′′ es continua en [a, b], existe un punto ξ ∈ [a, b] tal que
f ′′ (ξ)
RP M C (f ) = (b − a) h2 .
24

Z 16
Ejemplo.- Calcular un valor aproximado de la integral x1/3 dx aplicando la
10
fórmula del punto medio compuesta, dividiendo el intervalo en 3 partes iguales. Dar
una estimación del error cometido.
Descargado por Laura Black (paulalourido1@gmail.com)
lOMoARcPSD|2722049

20 Cálculo Numérico I

2.3.2. Fórmula del trapecio compuesta


Si utilizamos la fórmula del trapecio en cada subintervalo, se llega a la fórmula
de integración compuesta
b n  
f (xj−1 ) + f (xj )
Z X
f (x) dx ≃ IT C (f ) = (xj − xj−1 ). (2.19)
a j=1
2

Agrupando términos,
" n−1
! #
h X
IT C (f ) = f (a) + 2 f (xj ) + f (b) .
2 j=1

El error viene dado como sigue:

Lema 2.10 Sea f ∈ C 2 ([a, b]). Entonces existe ξ ∈ [a, b] tal que
b
f ′′ (ξ) 2
Z
RT C (f ) = f (x)dx − IT C (f ) = − h (b − a).
a 12
La demostración es totalmente análoga a la del error para la fórmula del punto
medio compuesta.
Ejemplo.- Hallar, por el método del trapecio compuesto, un valor aproximado de
Z π/2
la integral sen x dx, dividiendo el intervalo en 4 partes. Dar una estimación
0
del error cometido.

Referencias
[1] A. Aubanell, A. Benseny & A. Delshams, Útiles básicos de Cálculo Numérico,
Labor, Barcelona 1993.

[2] J. A. Infante y J. M. Rey, Métodos Numéricos: Teorı́a, problemas y prácticas


con MATLAB , Ediciones Pirámide, Madrid, 1999.

[3] J. M. Quesada, C. Sánchez, J. Jódar & J. Martı́nez, Análisis y Métodos Numéri-


cos, Publicaciones de la Universidad de Jaén, Jaén, 2004.

Como referencias complementarias destacamos:

[4] F. Garcı́a & A. Nevot, Métodos Numéricos, Universidad Pontificia de Comillas,


Madrid, 1997.

[5] D. Kincaid & W. Cheney, Análisis Numérico, Addison-Wesley Iberoamericana,


Wilmington, 1994.

Descargado por Laura Black (paulalourido1@gmail.com)

S-ar putea să vă placă și