Ya hemos repasado qué es medir, lo que no hemos hablado es que cada vez que realizamos una medida, cometemos errores.
Vamos a definir algunos conceptos:
La sensibilidad del instrumento de medida, es decir, la variación mínima de la magnitud que dicho instrumento puede apreciar.
La precisión del instrumento de medida, que hace referencia a la concordancia entre las medidas obtenidas de la misma cantidad realizadas en condiciones similares.
La exactitud es la proximidad entre un valor medido y el valor verdadero. Se trata de una aproximación, pues nunca se conoce el valor real de una magnitud.
Los errores pueden ser:
Errores aleatorios. Son aquellos que son fortuitos e impredecibles.
Errores sistemáticos. Son aquellos que se deben al equipo de medida o a su uso incorrecto.
El error absoluto (εa) es la diferencia entre el valor obtenido en una medida y el valor real de la magnitud que se mide, en valor absoluto. El error es una estimación, pues nunca se conoce el valor real de una magnitud.
Si desconocemos el valor exacto, el error absoluto se considera la sensibilidad de la medida (apartado 1.3.2.).
El error relativo (εr) es el cociente entre el error absoluto y el valor real de la magnitud que se mide. Cuanto menor es el error relativo, de mayor calidad es la medida. Viene dado en tanto por uno, pero se expresa en tanto por ciento multiplicándolo por 100.
Los errores sistemáticos pueden deberse a:
A LAS CARACTERÍSTICAS (SENSIBILIDAD) DEL INSTRUMENTO DE MEDIDA
La sensibilidad de un instrumento de medida es la capacidad de apreciar cambios en la magnitud que se mide.
En esta imagen pueden verse dos reglas con distinta sensibilidad. Una regla azul puede apreciar variaciones de milímetros, mientras que la blanca solo aprecia variaciones en los centímetros. Se dice que la azul tiene mayor sensibilidad y, por tanto, es más precisa.
Cuando realizamos una medida, lo más normal es que desconozcamos el valor exacto de la magnitud que estamos midiendo (por ese motivo estamos realizando la medida). En este caso, no podremos utilizar la definición de error absoluto, y tendremos que estimarlo a través de una cota superior e inferior que vendrá dado por la sensibilidad del instrumento de medida utilizado. A dicho intervalo, dentro de la cota inferior y cota superior de la medida, se denomina incertidumbre.
Veamos un ejemplo:
De esta forma, si medimos el ancho de una hoja A4 con una regla cuya graduación es el milímetro, llegaremos a una medida de 210 mm, aunque debe expresarse correctamente como:
Esto significa que el ancho puede oscilar entre 209mm y 211mm.
Para determinar el error relativo, debemos tomar como error absoluto el valor de la sensibilidad de la medida.
EL USO INCORRECTO DEL INSTRUMENTO DE MEDIDA
Errores típicos al realizar una medida son:
Error de cero, causado por un defecto de ajuste del aparato. Se da cuando el aparato da una lectura distinta de cero cuando lo que mide vale cero.
Error de paralaje, cometido por el analista al ubicar el instrumento de medida en un ángulo o posición diferente para la apreciación de la medida exacta.
Contra los errores aleatorios no hay nada que hacer para evitarlos. Se deben a la propia naturaleza de la medición, y lo más que podemos hacer es minimizar su presencia a través de estrategias que pasan por realizar muchas medidas (en las que se cometerán errores por exceso y por defecto) y determinar el valor central. Cuanto mayor sea el número de medidas, el valor central se aproximará más al valor real.
El valor central se determina realizando la media aritmética de todas las medidas individuales. Si para la medida de una magnitud X se realizan N medidas (X1, X2, X3,…, Xn), el valor de la magnitud será:
A este valor se debe añadir el error asociado a la medida, debiendo expresarse el resultado de la medida de la siguiente forma:
El error absoluto de la medida es el mayor de los siguientes dos valores:
a. La sensibilidad del instrumento de medida
b. La dispersión estadística, que viene dada por la siguiente expresión.
Al realizar las operaciones indicadas (media aritmética y dispersión estadística) la calculadora nos devolverá un número que seguramente tendrá muchos decimales. ¿Cuántos debemos poner?
En la media aritmética. Si nuestro instrumento de medida solo aprecia hasta la centésima (dos cifras decimales), expresaremos la media aritmética solo hasta la segunda cifra decimal (la tercera, la cuarta, etc., ya se salen de la sensibilidad del instrumento de medida). Ejemplo: si la media aritmética nos da 3,635 s y el instrumento de medida solo aprecia hasta la centésima, el valor de la media debe ser 3,63 s.
En el error absoluto. El error absoluto (obtenido mediante la sensibilidad del instrumento de medida, o mediante la dispersión estadística) solo puede contener una cifra distinta de cero. Si por dispersión estadística obtenemos un valor de 0,092870878 s, daremos un error absoluto de 0,09 s.
La medida ejemplo quedaría correctamente expresada así:
Lo que indica que el tiempo puede oscilar entre 3,55 s y 3,73 s.