Cuando se emplea un número en un cálculo, debe haber seguridad de que pueda usarse con confianza. El concepto de cifras significativas tiene dos implicaciones importantes en el estudio de los métodos numéricos.
1.- Los métodos numéricos obtienen resultados aproximados. Por lo tanto, se debe desarrollar criterios para especificar que tan precisos son los resultados obtenidos.
2.- Aunque ciertos números representan número específicos, no se pueden expresar exactamente con un número finito de cifras.
Exactitud y Precisión.
La exactitud se refiere a que tan cercano está el valor calculado o medido del valor verdadero. La precisión se refiere a qué tan cercano está un valor individual medido o calculado respecto a los otros.
La inexactitud se define como un alejamiento sistemático de la verdad. La imprecisión, sobre el otro lado, se refiere a la magnitud del esparcimiento de los valores.
Los métodos numéricos deben ser lo suficientemente exactos o sin sesgos para que cumplan los requisitos de un problema particular de ingeniería.
Error.
En general, para cualquier tipo de error, la relación entre el número exact9 y el obtenido por aproximación se define como:
Error = Valor real -valor estimado
En ocasiones, se sabrá exactamente el valor del error, que denotaremos como Ev, o deberemos estimar un error aproximado.
Ahora, para definir la magnitud del error, o que incidencia tiene en el cálculo el error detectado, podemos normalizar su valor :
Ea = Error relativo (fracción) = error estimado I valor verdadero
Como el valor de Ea puede ser tanto positivo como negativo, en muchos casos nos interesa saber más la magnitud del error, caso en el cual usaremos el valor absoluto de este.
Un caso muy interesante es una investigación que realiza Scarborough, en que determinó el número de cifras significativas que contiene el error como:
Si reemplazamos Es en la ecuación. Obtendremos el número de cifras significativas en que es confiable el valor aproximado obtenido.
Así, si queremos que nuestro cálculo tenga un error menor al criterio para dos cifras significativas, debemos obtener números que correspondan a menos de:
Es=(0.5x 102–2)%=0.5%
Esto nos servirá para determinar cuántos términos serán necesarios en un cálculo aproximado para tener la certeza que el error se encuentra bajo el margen especificado.
EXACTITUD Y PRECISIÓN.
La exactitud de una medición hace referencia a su cercanía al valor que pretende medir.
La precisión está asociada al número de cifras decimales utilizadas para expresar lo medido.
Un instrumento inexacto nos entrega resultados sesgados, “desplazados”; uno impreciso, resultados “ambiguos”, “difusos”.
Así, por ejemplo, una pesa es exacta si nos entrega el peso correcto, sin agregarle ni quitarle. Asimismo, es más precisa en la medida que el aparato usado es capaz de detectar diferencias de peso más pequeñas.
La exactitud y precisión exigibles a una medición, dependerán de los objetivos del estudio que la utiliza.
La precisión de un resultado estadístico debe estar de acuerdo con la precisión de los datos originales y con las exigencias propias del proyecto que los usa.
Es fácil cometer el error de responder usando más decimales que los contenidos en las mediciones iniciales, aumentando artificialmente la precisión por la propia capacidad de cálculo de los computadores.
Por otra parte, es de suma importancia cuidar que, durante el proceso de cálculo intermedio, no se pierda precisión innecesariamente. Es importante mantener el máximo posible de decimales, pues esto ayuda a controlar la aparición y propagación de errores numéricos que invaliden los resultados.
Estos son errores de precisión y exactitud ajenos al proceso de medición inicial y son introducidos típicamente por los métodos numéricos usados y por la aritmética del computador que tiene una precisión finita para representar interiormente a los números.
El último tema mencionado en el párrafo anterior, es un tema complejo que no se discutirá mayormente, pero es importante mencionarlo y mostrar un ejemplo ilustrativo para entender su alcance.
Exactitud y precisión
La precisión se refiere 1) al numero de cifras significativas que representan una cantidad 2) la extensión en las lecturas repetidas de un instrumento que mide alguna propiedad física.
Por ejemplo:
Cuando se hacen algunos disparos en un lugar de tiro al blanco la precisión se refiere a la magnitud del esparcimiento de las balas.
La exactitud se refiere a la aproximación de un numero o de una medida al valor verdadero que se supone representa.
La inexactitud (conocida como sesgo) se define como un alejamiento sistemático de la verdad.
Exactitud.- Indica qué tan cercano es un valor calculado respecto al valor verdadero.
Precisión.- Considerando que los métodos numéricos son técnicas iterativas, expresa qué tan cercana es una aproximación o una estimación a un valor, respecto a las aproximaciones o iteraciones anteriores del mismo.
Inexactitud.- También se le conoce como sesgo. Es un alejamiento sistemático del valor verdadero a calcular.
Imprecisión.- También se le conoce como incertidumbre. Se refiere al grado de alejamiento entre sí, a las diversas aproximaciones a un valor verdadero.
Al observar las definiciones anteriores, puede determinarse que el error asociado a los métodos numéricos permite medir el grado de exactitud y precisión de los mismos.