Sunteți pe pagina 1din 2

Se conocen varios métodos de extrapolación para mejorar la tasa de convergencia, y así

desarrollar una extrapolación aún más rápida, uno de estos procedimientos se basa en el
paso Anderson-Bjorck utilizado para encontrar una raíz simple de una ecuación no
lineal.
Cada uno de los métodos de extrapolación puede derivarse aplicando el método secante
a una función adecuada.
El subpaso de extrapolación consiste entonces en una aplicación del método secante
para g.
g n+1
x ´n+2=x n +1−( x n−x n+1 )
g n−gn +1

Donde gn=g ( x¿ ¿ n)=x n−x n−1 ¿ y gn−1=g( x¿¿ n−1)=x n+1−x n +2 ¿. Pero podemos
alcanzar una tasa de convergencia más alta simplemente reteniendo, en cada paso,
información retenida del paso anterior. Por cada paso subsiguiente, aplique un paso de
método secante a la función relacionada.
Así se muestra un nuevo procedimiento de iteración basado en el paso de extrapolación
Anderson-Bjorck
La siguiente idea se basa en esto: Si xi y xi+1 no contienen, el punto

Anderson - Algoritmo de Björk


Suponga que en la iteración k -ésima el intervalo es [ a  k ,  b  k ]  y que el valor funcional
de la nueva estimación calculada  c  k  tiene el mismo signo que  f  ( b  k ) . En este caso,
el nuevo intervalo [ a  k  + 1 ,  b  k  + 1 ] = [ a  k ,  c  k ]  y el punto final izquierdo se ha
retenido. (Hasta ahora, eso es lo mismo que Regula Falsi ordinario y el algoritmo de
Illinois).
Pero, mientras que el algoritmo de Illinois multiplicaría f  ( un  k )  por  1 / 2 , Anderson -
algoritmo Björk lo multiplica por  m , donde  m tiene uno de los dos valores siguientes:
f (c k )
m=1−
f (b k )

si ese valor de m es positivo, de lo contrario, dejemos


1
m=
2
Para raíces simples, Anderson-Björk fue el claro ganador en las pruebas numéricas de
Galdino. Para las raíces múltiples, ningún método fue mucho más rápido que la
bisección. De hecho, los únicos métodos que fueron tan rápidos como la bisección
fueron tres nuevos métodos introducidos por Galdino. Pero incluso ellos eran solo un
poco más rápidos que la bisección.

Consideraciones prácticas
Al resolver una ecuación, o solo unas pocas, usando una computadora, el
método de bisección es una opción adecuada. Aunque la bisección no es tan
rápida como los otros métodos, cuando están en su mejor momento y no
tienen un problema, la bisección sin embargo está garantizada para converger a
una velocidad útil, reduciendo a la mitad aproximadamente el error con cada
iteración, obteniendo aproximadamente un decimal lugar de precisión con cada
3 iteraciones.
Para el cálculo manual, por calculadora, uno tiende a querer usar métodos más
rápidos, y generalmente, pero no siempre, convergen más rápido que la
bisección. Pero una computadora, incluso usando bisección, resolverá una
ecuación, con la precisión deseada, tan rápidamente que no hay necesidad de
tratar de ahorrar tiempo usando un método menos confiable, y cada método es
menos confiable que la bisección.
Una excepción sería si el programa de computadora tuviera que resolver
ecuaciones muchas veces durante su ejecución. Entonces, el tiempo ahorrado
por los métodos más rápidos podría ser significativo.
Entonces, un programa podría comenzar con el método de Newton y, si Newton
no está convergiendo, cambiar a  regular falsi , tal vez en una de sus versiones
mejoradas, como las versiones de Illinois o Anderson-Bjőrk. O, si incluso eso no
converge tan bien como lo haría la bisección, cambie a la bisección, que
siempre converge a una velocidad útil, si no espectacular.
Cuando el cambio en  y se  ha vuelto muy pequeño, y  x  también está
cambiando muy poco, entonces el método de Newton probablemente no
tendrá problemas y convergerá. Entonces, bajo esas condiciones favorables, uno
podría cambiar al método de Newton si quisiera que el error fuera muy
pequeño y quisiera una convergencia muy rápida.

S-ar putea să vă placă și