La extrapolación de Richardson, propuesta por Lewis Fry Richardson en 1911, fue una innovación en el campo del análisis numérico al introducir un mecanismo para aumentar la precisión de una aproximación numérica sin aumentar desproporcionadamente el esfuerzo computacional. Se basa en observar cómo cambia una estimación al variar el tamaño del paso (como en una derivada o una integral), y usar esa información para eliminar el término dominante del error.
Esta técnica se volvió esencial en la mejora de muchos métodos básicos, como la derivación numérica, la integración del trapecio, o incluso la solución de ecuaciones diferenciales. Su aplicación más famosa es en la integración de Romberg, donde mejora iterativamente la precisión de las estimaciones usando esta extrapolación.
Richardson, además de sus contribuciones matemáticas, fue un pionero en el uso de modelos numéricos para predecir el clima, lo cual ilustra su visión aplicada de la matemática. Su técnica representa una filosofía clave en el análisis numérico: usar el conocimiento del error para corregirse a sí mismo.
Ventajas:
Mejora la precisión sin aumentar el número de pasos.
Permite estimar el error de forma explícita.
Aplicable a integración, derivación y otros procesos numéricos.
Desventajas:
Requiere que se conozca el orden del método base.
Puede amplificar errores de redondeo si se aplica mal.
Aplicaciones:
Refinamiento de derivadas numéricas e integrales.
Optimización de algoritmos numéricos iterativos.
Análisis de convergencia en problemas computacionales.
EXCEL
OCTAVE
VIDEOS