Post date: Sep 21, 2016 7:35:35 PM
Misurare un oggetto, vuol dire confrontarlo con un altro oggetto, che prende il ruolo di unità di misura.
Ad esempio, per misurare l'altezza di una persona, posso confrontarla con la mia spanna. Contando il numero di spanne, ricavo la misura dell'altezza.
Lo strumento di misura in questo caso è molto grossolano. Misurando l'altezza a spanne, non sarò mai molto preciso.
Per questo, devo associare alla misura un margine d'errore. Una persona alta 1,70 m, risulterà alta 8 delle mie spanne, con un margine d'errore di una spanna.
Scriveremo questa misura come
h = 8 ± 1 spanne
Il senso di questa scrittura è che posso giurare che la persona che ho misurato abbia un'altezza compresa tra 7 = 8-1 e 9 = 8 + 1 spanne.
L'errore sulla misura in questo caso è dovuto soltanto alla precisione dello strumento.
Lo stesso succede se uso strumenti di misura più convenzionali: il metro da sarto ha una sensibilità di mezzo centimetro, il righello di un millimetro e il calibro ha addirittura una sensibilità di un decimo di millimetro!
Naturalmente, questo non vuol dire che se misurassi l'altezza di una persona usando il calibro, poi sarei disposto a mettere la mano sul fuoco che costui sia alto 170,00 ± 0,01 cm.
All'errore dovuto allo strumento, devo aggiungere un errore dovuto alla difficoltà a prendere la misura:
perché non riesco a riportare esattamente l'altezza della persona quando faccio il segno sul muro
perché non riesco ad andare dritto mentre misuro.
In pratica
Quando effettuiamo una misura dobbiamo sempre stimare l'errore che a quella misura è associato.
L'errore ha due cause:
precisione dello strumento
nostra difficoltà ad eseguire una misura precisa
Nel futuro discuteremo come stimare l'errore che commettiamo nel sommare, nel sottrarre, nel moltiplicare o nel dividere due misure diverse.