Sunteți pe pagina 1din 16

Resumen análisis numérico

Aproximaciones y errores
de redondeo
El análisis numérico trata de diseñar métodos para “aproximar” de una manera eficiente las soluciones de
problemas expresados matemáticamente.
El objetivo principal del análisis numérico es encontrar soluciones “aproximadas” a problemas complejos
utilizando sólo las operaciones más simples de la aritmética. Se requiere de una secuencia de operaciones
algebraicas y lógicas que producen la aproximación al problema matemático

Cifras significativas
Cuando se emplea un número para realizar un cálculo, debe haber seguridad de que
pueda usarse con confianza.

Ej:

Con un simple vistazo al velocímetro se observa que el vehículo viaja a una velocidad comprendida entre 48 y 49 km/h.
Como la aguja está más allá de la mitad entre las marcas del indicador, es posible asegurar que el automóvil viaja
aproximadamente a 49 km/h. Tenemos confianza en este
resultado, ya que dos o más individuos que hicieran esta lectura llegarían a la misma conclusión. Sin embargo,
supongamos que se desea obtener una cifra decimal en la estimación de la velocidad. En tal caso, alguien podría decir
48.8, mientras que otra persona podría decir 48.9 km/h. Por lo tanto, debido a los límites del instrumento,
únicamente se emplean con confianza los dos primeros dígitos. Para estimaciones del tercer dígito (o más allá)
sólo se considerarían aproximaciones. Sería ridículo afirmar, considerando el velocímetro de la figura, que el
automóvil viaja a 48.8642138 km/h.

Las cifras significativas de un número son aquellas que pueden utilizarse en forma confiable. Se trata del
número de dígitos que se ofrecen con certeza, más uno estimado
Por convención al dígito estimado se le da el valor de la mitad de la escala menor de división en el instrumento
de medición.

Así, la lectura del velocímetro consistirá de las tres cifras significativas:


48.5. En forma similar, el odómetro dará una lectura con siete cifras significativas,87 324.45.
Los ceros no siempre son cifras significativas

0,00001845
los ceros a la izquierda
Ceros a la izquierda no son considerados 0,0001845 todas tienen 4 c.s.
cifras significativas 0,001845

3 c.s. si mide de 100 en 100


los ceros a la derecha pueden
Ceros a la derecha o no ser considerados cifras 45300 4 c.s. si mide de 10 en 10
significativas 5 c.s. si mide de 1 en 1

Si tiene 4 o 3 c.s. tiene holgura


Los ceros a la derecha agregan
desconfianza respecto de la
lectura de un numero

¿Cómo se minimiza la incertidumbre?


Con el uso de notación científica:
4,53 · 104 3 c.s.

4,530 · 104 4 c.s.

4,5300 · 104 5 c.s.

Los ceros a la derecha entregan información cuando están en notación científica


Ejemplos
87540,01

0,0010 pueden ser 1 o 2 c.s. 1 · 10−3


1,0 · 10−3
Se puede definir como aquella cifra que aporta información no ambigua ni superflua acerca de
una determinada medida experimental.
Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse con
confianza. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio
de los métodos numéricos.
Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar
criterios para especificar que tan precisos son los resultados obtenidos.
Aunque ciertos números representan número específicos, no se pueden expresar exactamente
con un número finito de cifras.

Consideraciones:
los resultados experimentales se expresan con una sola cifra dudosa, e indicando con ± la
incertidumbre (duda o perplejidad) en la medida.
las cifras significativas se cuentan de izquierda a derecha, a partir del primer dígito diferente
de cero y hasta el digito dudoso.
al sumar o restar dos números decimales, el número de cifras decimales del resultado es igual
al de la cantidad con el menor número de ellas.
al multiplicar o dividir dos números, el número de cifras significativas del resultado es igual
al del factor con menos cifras.

“los errores de redondeo y el uso de cifras significativas suelen tener


importancia al expresar la exactitud de un número”
Exactitud y precisión:
Los errores asociados con los cálculos y medidas pueden caracterizarse observando la exactitud y precisión:

La exactitud se refiere a qué tan cercano está el valor calculado o medido del valor verdadero.

La precisión se refiere a qué tan cercanos se encuentran, unos de otros, diversos valores calculados o medidos.

La inexactitud (conocida también como sesgo) se define como una desviación sistemática del valor verdadero. Por lo
tanto, aunque los disparos en la figura 3.2c están más juntos que los de la figura 3.2a, los dos casos son igualmente
inexactos, ya que ambos se centran en la esquina superior izquierda del blanco.

Ej: calibración uso de un patrón absoluto (en ausencia de un patrón absoluto se usa un patrón sustituto)

La imprecisión (también llamada incertidumbre), por otro lado, se refiere a la magnitud en la dispersión de los
disparos. Por consiguiente, aunque las figuras 3.2b y 3.2d son igualmente exactas (esto es, igualmente centradas
respecto al blanco), la última es más precisa, pues los disparos están agrupados en forma más compacta.

Situación bajo la cual se desconocen las probabilidades de ocurrencia asociados a los diferentes resultados de un
determinado evento
Fuentes de error
Son tres que dan lugar a una clasificación de los errores de acuerdo con ellas

1.-Inherentes
Asociado a la precisión de los datos de entrada. (P.Ej. El uso de 0.333333en lugar de 1/3.) Su
característica principal es que se propaga al salir . Esta propagación puede estudiarse mediante
análisis de sensibilidad, que permiten detectar hipersensibilidades de los resultados hacia
variables específicas en rangos particulares, de modo que puedan tomarse precauciones
especiales en esos casos.
Cuando existe una magnificación inaceptable del error se dice que el problema está mal
condicionado. Los errores de input son causantes de imprecisión en los resultados.

2.-Truncamiento
Asociado a la substitución de procesos infinitos por procesos finitos, tales como el truncamiento
de series, el uso se sumas limitadas para el cálculo de integrales o el uso de diferencias finitas
para el cálculo de derivadas. Los errores de truncamiento causan inexactitud de los
resultados. Cuando se comparan unos métodos numéricos con otros suelen estudiarse algunas
propiedades asociadas con los errores, en estos casos es al error de truncamiento al que se
refiere, exponente, que se expresa en función de algún parámetro conveniente, h, que tiende a 0
(o a infinito) cuando el erro es nulo

3.-Redondeo
Asociado a la precisión limitada con la que se realizan las operaciones (cifras significativas).
Su mayor peligro radica en su tendencia a acumularse.

Tipos de error
1.-Inherentes
Son aquellos errores cometidos por la persona al tomar los datos de lecturas de instrumentos de
medición, al pasar éstos datos a la computadora o bien por verdaderas equivocaciones por el
manejo de los datos.

2.-Redondeo
Es aquel tipo de error en donde el número significativo de dígitos después del punto decimal
se ajusta a un número específico provocando con ello un ajuste en el último dígito que se
toma en cuenta
3.-Truncamiento
Para llevar a cabo operaciones de algunas funciones matemáticas los compiladores ejecutan
estas funciones utilizando series infinitas de términos, pero es difícil llevar a cabo estos
cálculos hasta el infinito, por lo tanto, la serie tendrá que ser truncada.
Cálculo de error:
Los errores numéricos surgen del uso de aproximaciones para representar operaciones y cantidades
matemáticas exactas. Éstas incluyen los errores de truncamiento que resultan del empleo de aproximaciones como un
procedimiento matemático exacto, y los errores de redondeo que se producen cuando se usan números que tienen un
límite de cifras significativas para representar números exactos. Para ambos tipos de errores, la relación entre el
resultado exacto, o verdadero, y el aproximado está dada por:

Valor verdadero = Valor aproximado + error (3.1)

Reordenando la ecuación (3.1) se encuentra que el error numérico es igual a la diferencia entre el valor verdadero y el
valor aproximado, es decir
𝐸𝑡 = 𝑣𝑎𝑙𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜 − 𝑣𝑎𝑙𝑜𝑟 𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑑𝑜
donde Et se usa para denotar el valor exacto del error. El subíndice t indica que se trata
del error “verdadero” (true).

Una desventaja en esta definición es que no toma en consideración el orden de la magnitud del valor que se estima. Por
ejemplo, un error de un centímetro es mucho más significativo si se está midiendo un remache en lugar de un puente.
Una manera de tomar en cuenta las magnitudes de las cantidades que se evalúan consiste en normalizar el error
respecto al valor verdadero, es decir

𝑒𝑟𝑟𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜
𝑒𝑟𝑟𝑜𝑟 𝑟𝑒𝑙𝑎𝑡𝑖𝑣𝑜 𝑓𝑟𝑎𝑐𝑐𝑖𝑜𝑛𝑎𝑙 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜 =
𝑣𝑎𝑙𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜
donde, como ya se mencionó en la ecuación (3.2), error = valor verdadero – valor aproximado.
El error relativo también se puede multiplicar por 100% para expresarlo como

𝑒𝑟𝑟𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜
𝑒𝑡 = 100%
𝑣𝑎𝑙𝑜𝑟 𝑣𝑒𝑟𝑑𝑎𝑑𝑒𝑟𝑜
donde et denota el error relativo porcentual verdadero.

Sin embargo, en las situaciones reales a veces es difícil contar con tal información. En los métodos numéricos, el valor
verdadero sólo se conocerá cuando se tengan funciones que se resuelvan analíticamente. Éste comúnmente será el
caso cuando se estudie el comportamiento teórico de una técnica específica para sistemas simples. Sin embargo, en
muchas aplicaciones reales, no se conoce a priori la respuesta verdadera. Entonces en dichos casos, una alternativa es
normalizar el error, usando la mejor estimación posible al valor verdadero; es decir, para la aproximación misma, como
en

𝑒𝑟𝑟𝑜 𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑑𝑜
𝑒𝑎 = 100% 3.4
𝑣𝑎𝑙𝑜𝑟 𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑑𝑜
donde el subíndice a significa que el error está normalizado a un valor aproximado

Uno de los retos que enfrentan los métodos numéricos es el de determinar estimaciones del error en ausencia del
conocimiento de los valores verdaderos. Por ejemplo, ciertos métodos numéricos usan un método iterativo para calcular
los resultados. En tales métodos se hace una aproximación considerando la aproximación anterior. Este proceso se
efectúa varias veces, o de forma iterativa, para calcular en forma sucesiva, esperando cada vez mejores aproximaciones.
En tales casos, el error a menudo se calcula como la diferencia entre la aproximación previa y la actual. Por lo tanto, el
error relativo porcentual está dado por

𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑐𝑖𝑜𝑛 𝑎𝑐𝑡𝑢𝑎𝑙−𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑐𝑖𝑜𝑛 𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟


𝑒𝑎 = 100% 3.5
𝑎𝑝𝑟𝑜𝑥𝑖𝑚𝑎𝑐𝑖𝑜𝑛 𝑎𝑐𝑡𝑢𝑎𝑙
Los signos de las ecuaciones (3.2) a (3.5) pueden ser positivos o negativos. Si la aproximación es mayor que el valor
verdadero (o la aproximación previa es mayor que la aproximación actual), el error es negativo; si la aproximación es
menor que el valor verdadero, el error es positivo. También en las ecuaciones (3.3) a (3.5), el denominador puede ser
menor a cero, lo cual también llevaría a un error negativo. A menudo, cuando se realizan cálculos, no importa mucho el
signo del error, sino más bien que su valor absoluto porcentual sea menor que una tolerancia porcentual prefijada es. Por
lo tanto, es útil emplear el valor absoluto de las ecuaciones (3.2) a (3.5). En tales casos, los cálculos
se repiten hasta que

|𝑒𝑎| < 𝑒𝑠
Si se cumple la relación anterior, entonces se considera que el resultado obtenido está dentro del nivel aceptable fijado
previamente es. Observe que en el resto del texto en general emplearemos exclusivamente valores absolutos cuando
utilicemos errores relativos. Es conveniente también relacionar estos errores con el número de cifras significativas
en la aproximación. Es posible demostrar (Scarborough, 1966) que si el siguiente criterio se cumple, se tendrá la
seguridad que el resultado es correcto en al menos n cifras significativas.

𝑒𝑠 = (0,5 · 102−𝑛 )%

Series de Taylor

Pagina 102 chapra


Métodos cerrados
Este capítulo sobre raíces de ecuaciones se ocupa de métodos que aprovechan el hecho de que una función cambia de
signo en la vecindad de una raíz. A estas técnicas se les llama métodos cerrados, o de intervalos, porque se necesita de
dos valores iniciales para la raíz.

EL MÉTODO DE BISECCIÓN
En general, si f(x) es real y continúa en el intervalo que va desde xl hasta xu y f(xl) y f(xu) tienen signos opuestos, es decir,

f(xl) f(xu) < 0 (5.1)

entonces hay al menos una raíz real entre xl y xu.

Entonces, la localización del cambio de signo (y, en consecuencia, de la raíz) se logra con más exactitud al dividir el
intervalo en varios subintervalos. Se investiga cada uno de estos subintervalos para encontrar el cambio de signo. El
proceso se repite y la aproximación a la raíz mejora cada vez más en la medida que los subintervalos se dividen
en intervalos cada vez más pequeños. Volveremos al tema de búsquedas incrementales en la sección 5.4.

Paso 1: Elija valores iniciales inferior, xl, y superior, xu, que encierren la raíz, de forma tal que la función
cambie de signo en el intervalo. Esto se verifica comprobando que f(xl) f(xu) < 0.

Paso 2: Una aproximación de la raíz xr se determina mediante:

𝑥𝑙 + 𝑥𝑢
𝑥𝑟 =
2
Paso 3: Realice las siguientes evaluaciones para determinar en qué subintervalo está
la raíz:
a) Si f(xl)f(xr) < 0, entonces la raíz se encuentra dentro del subintervalo inferior o izquierdo. Por lo tanto, haga
xu = xr y vuelva al paso 2.
b) Si f(xl)f(xr) > 0, entonces la raíz se encuentra dentro del subintervalo superior o derecho. Por lo tanto, haga
xl = xr y vuelva al paso 2.
c) Si f(xl)f(xr) = 0, la raíz es igual a xr; termina el cálculo.
Criterios de paro y estimaciones de errores

Una sugerencia inicial sería finalizar el cálculo cuando el error se encuentre por debajo de algún nivel prefijado.

Por lo tanto, se requiere estimar el error de forma tal que no se necesite el conocimiento previo de la raíz. Como se vio
previamente en la sección 3.3, se puede calcular el error relativo porcentual ea de la siguiente manera

𝑥𝑟𝑛𝑢𝑒𝑣𝑜 −𝑥𝑟𝑎𝑛𝑡𝑒𝑟𝑖𝑜𝑟
𝑒𝑎 = ⎸ ⎸100%
𝑥𝑟𝑛𝑢𝑒𝑣𝑜
donde xr nuevo es la raíz en la iteración actual y xr anterior es el valor de la raíz en la iteración anterior. Se utiliza el valor
absoluto, ya que por lo general importa sólo la magnitud de ea sin considerar su signo. Cuando ea es menor que un valor
previamente fijado es, termina el cálculo.
MÉTODO DE LA FALSA POSICIÓN

Aun cuando la bisección es una técnica perfectamente válida para determinar raíces, su método de aproximación por
“fuerza bruta” es relativamente ineficiente. La falsa posición es una alternativa basada en una visualización gráfica

Un método alternativo que aprovecha esta visualización gráfica consiste en unir f(xl) y f(xu) con una línea recta. La
intersección de esta línea con el eje de las x representa una mejor aproximación de la raíz. El hecho de que
se reemplace la curva por una línea recta da una “falsa posición” de la raíz; de aquí el nombre de método de la falsa
posición, o en latín, regula falsi. También se le conoce como método de interpolacion lineal.

𝑓(𝑥𝑢 )(𝑥𝑙 −𝑥𝑢 )


𝑥𝑟 = 𝑥𝑢 −
𝑓(𝑥𝑙 )−𝑓(𝑥𝑢 )

Ésta es la fórmula de la falsa posición. El valor de xr calculado con la ecuación (5.7), reemplazará, después, a cualquiera
de los dos valores iniciales, xl o xu, y da un valor de la función con el mismo signo de f(xr). De esta manera, los valores xl y
xu siempre encierran la verdadera raíz. El proceso se repite hasta que la aproximación a la raíz sea adecuada. El
algoritmo es idéntico al de la bisección (figura 5.5), excepto en que la ecuación (5.7) se usa en el paso 2. Además, se usa
el mismo criterio de terminación [ecuación (5.2)] para concluir los cálculos.

Recuerde que en el método de bisección el intervalo entre xl y xu se va haciendo más pequeño durante los cálculos. Por
lo tanto, el intervalo, como se definió por x/2 =|xu – xl|/2 para la primera iteración, proporciona una medida del error en
este método.Éste no es el caso con el método de la falsa posición, ya que uno de los valores iniciales puede permanecer
fijo durante los cálculos, mientras que el otro converge hacia la raíz. Como en el caso del ejemplo 5.6, el extremo inferior
xl permanece en 12, mientras que xu converge a la raíz. En tales casos, el intervalo no se acorta, sino que se aproxima a
un valor constante.

Desventajas del método de la falsa posición

Aunque el método de la falsa posición parecería ser siempre la mejor opción entre los métodos cerrados, hay casos
donde funciona de manera deficiente. En efecto, como en el ejemplo siguiente, hay ciertos casos donde el método de
bisección ofrece mejores resultados.
Aunque un método como el de la falsa posición casi siempre es superior al de bisección, hay algunos casos que
violan esta conclusión general.
Por lo tanto, además de usar la ecuación (5.2), los resultados se deben verificar sustituyendo la raíz aproximada en la
ecuación original y determinar si el resultado se acerca a cero. Esta prueba se debe incorporar en todos los programas
que localizan raíces.
Métodos abiertos

En los métodos cerrados del capítulo anterior la raíz se encuentra dentro de un intervalo predeterminado por un límite
inferior y otro superior. La aplicación repetida de estos métodos siempre genera aproximaciones cada vez más cercanas
a la raíz. Se dice que tales métodos son convergentes porque se acercan progresivamente a la raíz a medida
que se avanza en el cálculo.

requieren únicamente de un solo valor de inicio x o que empiecen con un par de ellos, pero que no necesariamente
encierran la raíz. Éstos, algunas veces divergen o se alejan de la raíz verdadera a medida que se avanza en el cálculo
(figura 6.1b). Sin embargo, cuando los métodos abiertos convergen (figura 6.1c), en general lo hacen mucho
más rápido que los métodos cerrados.

ITERACIÓN SIMPLE DE PUNTO FIJO

Como se dijo antes, los métodos abiertos emplean una fórmula para predecir la raíz. Esta fórmula puede desarrollarse
como una iteración simple de punto fijo (también llamada iteración de un punto o sustitución sucesiva o método de punto
fijo), al arreglar la ecuación f(x) = 0 de tal modo que x esté del lado izquierdo de la ecuación:

x = g(x) (6.1)
La utilidad de la ecuación (6.1) es que proporciona una fórmula para predecir un nuevo valor de x en función del valor
anterior de x. De esta manera, dado un valor inicial para la raíz xi, la ecuación (6.1) se utiliza para obtener una nueva
aproximación xi+1, expresada por la fórmula iterativa

xi+1 = g(xi) (6.2)

Como en otras fórmulas iterativas de este libro, el error aproximado de esta ecuación se calcula usando el error
normalizado [ecuación (3.5)]:

𝑥𝑖+1 −𝑥𝑖
𝑒𝑎 = | | 100%
𝑥𝑖+1

6.1.1 Convergencia

Pagina 168
MÉTODO DE NEWTON-RAPHSON

Si el valor inicial para la raíz es xi, entonces se puede trazar una tangente desde el punto [xi, f(xi)] de la curva. Por lo
común, el punto donde esta tangente cruza al eje x representa una aproximación mejorada de la raíz.

El método de Newton-Raphson se deduce a partir de esta interpretación geométrica (un método alternativo basado en la
serie de Taylor se describe en el cuadro 6.2). De la figura 6.5, se tiene que la primera derivada en x es equivalente a la
pendiente y de la cual al despejar se obtiene:

𝑓(𝑥𝑖 )
𝑥𝑖+1 = 𝑥𝑖 −
𝑓′(𝑥𝑖 )
la cual se conoce como fórmula de Newton-Raphson.

Criterio de terminación y estimación de errores

Como se dedujo del cuadro 6.2, el método de Newton-Raphson es convergente en forma cuadrática. Es decir, el error es
proporcional al cuadrado del error anterior:

−𝑓′′(𝑥𝑟 ) 2
𝐸𝑡,𝑖+1 ≅ 𝐸 𝑡,𝑖
2𝑓′(𝑥𝑟 )

Desventajas del método de Newton-Raphson

Aunque en general el método de Newton-Raphson es muy eficiente, hay situaciones donde se comporta de manera
deficiente. Por ejemplo en el caso especial de raíces múltiples que se analizará más adelante en este capítulo. Sin
embargo, también cuando se trata de raíces simples, se encuentran dificultades, como en el siguiente ejemplo.

Determine la raíz positiva de 𝑓(𝑋) = 𝑥 10 − 1 usando el método de Newton-Raphson y un valor inicial x = 0.5.
De esta forma, después de la primera predicción deficiente, la técnica converge a la raíz verdadera, 1, pero muy
lentamente.
Además de la convergencia lenta debido a la naturaleza de la función, es posible que se presenten otras dificultades,
como se ilustra en la figura 6.6. Por ejemplo, la figura 6.6a muestra el caso donde un punto de inflexión [esto es, ƒ(x) =
0] ocurre en la vecindad de una raíz. Observe que las iteraciones que empiezan con x0 divergen progresivamente
de la raíz. En la figura 6.6b se ilustra la tendencia del método de Newton-Raphson a oscilar alrededor de un mínimo o
máximo local. Tales oscilaciones pueden persistir o, como en la figura 6.6b, alcanzar una pendiente cercana a cero,
después de lo cual la solución se aleja del área de interés.
Esta tendencia a alejarse del área de interés se debe a que se encuentran pendientes cercanas a cero. En efecto,
una pendiente cero [ƒ(x) = 0] es un verdadero desastre, ya que causa una división entre cero en la fórmula de Newton-
Raphson

De manera que no hay un criterio general de convergencia para el método de Newton-Raphson. Su convergencia
depende de la naturaleza de la función y de la exactitud del valor inicial. La única solución en estos casos es tener un
valor inicial que sea “suficientemente” cercano a la raíz. ¡Y para algunas funciones ningún valor inicial funcionará!
EL MÉTODO DE LA SECANTE

Un problema potencial en la implementación del método de Newton-Raphson es la evaluación de la derivada.


Aunque esto no es un inconveniente para los polinomios ni para muchas otras funciones, existen algunas funciones
cuyas derivadas en ocasiones resultan muy difíciles de calcular. En dichos casos, la derivada se puede
aproximar mediante una diferencia finita dividida hacia atrás, como en (figura 6.7)

𝑓(𝑥𝑖−1 )−𝑓(𝑥𝑖 )
𝑓 ′ (𝑥𝑖 ) ≅
𝑥𝑖−1 −𝑥𝑖

Representación gráfica del método de la secante. Esta técnica es similar a la del método de Newton-Raphson (figura 6.5) en el sentido
de que una aproximación de la raíz se predice extrapolando una tangente de la función hasta el eje x. Sin embargo, el método de la
secante usa una diferencia dividida en lugar de una derivada para estimar la pendiente

Esta aproximación se sustituye en la ecuación (6.6) para obtener la siguiente ecuación iterativa

𝑓(𝑥𝑖 )(𝑥𝑖−1 − 𝑥𝑖 )
𝑥𝑖+1 = 𝑥𝑖 − 6.7
𝑓(𝑥𝑖−1 ) − 𝑓(𝑥𝑖 )

La ecuación (6.7) es la fórmula para el método de la secante. Observe que el método requiere de dos valores iniciales de
x. Sin embargo, debido a que no se necesita que f(x) cambie de signo entre los valores dados, este método no se
clasifica como un método cerrado.
Diferencia entre los métodos de la secante y de la falsa posición

Existe una diferencia crítica entre ambos métodos. Tal diferencia estriba en la forma en que uno de los valores iniciales
se reemplaza por la nueva aproximación. Recuerde que, en el método de la falsa posición, la última aproximación de la
raíz reemplaza cualquiera de los valores iniciales que dé un valor de la función con el mismo signo que f(xr). En
consecuencia, las dos aproximaciones siempre encierran a la raíz. Por lo tanto, para todos los casos, el método siempre
converge, pues la raíz se encuentra dentro del intervalo. En contraste, el método de la secante reemplaza los valores en
secuencia estricta: con el nuevo valor xi + 1 se reemplaza a xi y xi reemplaza a xi – 1. En consecuencia, algunas veces
los dos valores están en el mismo lado de la raíz. En ciertos casos esto puede llevar a divergencias.

Comparación entre los métodos de la falsa posición y de la secante. Las primeras iteraciones a) y b) de ambos métodos son idénticas.
No obstante, en las segundas iteraciones c) y d), los puntos usados son diferentes. En consecuencia, el método de la secante llega a
diverger, como se indica en d).
SISTEMAS DE ECUACIONES LINEALES
PARTE OPERATIVA

S-ar putea să vă placă și