Documente Academic
Documente Profesional
Documente Cultură
desarrollar una extrapolación aún más rápida, uno de estos procedimientos se basa en el
paso Anderson-Bjorck utilizado para encontrar una raíz simple de una ecuación no
lineal.
Cada uno de los métodos de extrapolación puede derivarse aplicando el método secante
a una función adecuada.
El subpaso de extrapolación consiste entonces en una aplicación del método secante
para g.
g n+1
x ´n+2=x n +1−( x n−x n+1 )
g n−gn +1
Donde gn=g ( x¿ ¿ n)=x n−x n−1 ¿ y gn−1=g( x¿¿ n−1)=x n+1−x n +2 ¿. Pero podemos
alcanzar una tasa de convergencia más alta simplemente reteniendo, en cada paso,
información retenida del paso anterior. Por cada paso subsiguiente, aplique un paso de
método secante a la función relacionada.
Así se muestra un nuevo procedimiento de iteración basado en el paso de extrapolación
Anderson-Bjorck
La siguiente idea se basa en esto: Si xi y xi+1 no contienen, el punto
Consideraciones prácticas
Al resolver una ecuación, o solo unas pocas, usando una computadora, el
método de bisección es una opción adecuada. Aunque la bisección no es tan
rápida como los otros métodos, cuando están en su mejor momento y no
tienen un problema, la bisección sin embargo está garantizada para converger a
una velocidad útil, reduciendo a la mitad aproximadamente el error con cada
iteración, obteniendo aproximadamente un decimal lugar de precisión con cada
3 iteraciones.
Para el cálculo manual, por calculadora, uno tiende a querer usar métodos más
rápidos, y generalmente, pero no siempre, convergen más rápido que la
bisección. Pero una computadora, incluso usando bisección, resolverá una
ecuación, con la precisión deseada, tan rápidamente que no hay necesidad de
tratar de ahorrar tiempo usando un método menos confiable, y cada método es
menos confiable que la bisección.
Una excepción sería si el programa de computadora tuviera que resolver
ecuaciones muchas veces durante su ejecución. Entonces, el tiempo ahorrado
por los métodos más rápidos podría ser significativo.
Entonces, un programa podría comenzar con el método de Newton y, si Newton
no está convergiendo, cambiar a regular falsi , tal vez en una de sus versiones
mejoradas, como las versiones de Illinois o Anderson-Bjőrk. O, si incluso eso no
converge tan bien como lo haría la bisección, cambie a la bisección, que
siempre converge a una velocidad útil, si no espectacular.
Cuando el cambio en y se ha vuelto muy pequeño, y x también está
cambiando muy poco, entonces el método de Newton probablemente no
tendrá problemas y convergerá. Entonces, bajo esas condiciones favorables, uno
podría cambiar al método de Newton si quisiera que el error fuera muy
pequeño y quisiera una convergencia muy rápida.