2.7 Precizie și acuratețe

Precizia și acuratețea sunt termeni utilizați pentru a descrie sisteme și metode care măsoară, estimează sau prezic. În toate aceste cazuri, există un parametru pe care doriți să îl cunoașteți ca valoare. Aceasta se numește adevărata valoare sau, pur și simplu, adevărul. Metoda oferă o valoare măsurată, care doriți să fie cât mai aproape posibil de valoarea adevărată. Precizia și acuratețea sunt modalități de a descrie eroarea care poate exista între aceste două valori.

Din nefericire, precizia și acuratețea sunt utilizate interschimbabil în setările ne-tehnice. De fapt, dicționarele le definesc prin referire reciprocă! Cu toate acestea, știința și ingineria au definiții foarte specifice pentru fiecare. Ar trebui să aveți un punct de folosire a termenilor în mod corect și să-i tolerați în liniște pe alții atunci când îi folosesc incorect.

De exemplu, luați în considerare un oceanograf care măsoară adâncimea apei utilizând un sistem sonar. Impulsuri scurte de sunet sunt transmise de pe navă, reflectate din fundul oceanic și primite la suprafață ca un ecou. Undele sonore călătoresc la o viteză relativ constantă în apă, permițând să se găsească adâncimea din timpul scurs între impulsurile transmise și cele recepționate. Ca și în cazul tuturor măsurătorilor empirice, există o anumită eroare între valorile măsurate și cele reale. Această măsurătoare particulară ar putea fi afectată de mai mulți factori: zgomotul aleatoriu în electronică, valurile de pe suprafața oceanului, variațiile temperaturii apei care determină modificarea vitezei sunetului etc.

Pentru a investiga aceste efecte, oceanograful face multe citiri succesive la o locație cunoscută a fi exact la 1000 de metri adâncime (adevărata valoare). Aceste măsurători sunt apoi aranjate ca histograma prezentată în figura 2-11. Cum ar fi de așteptat din Teorema Limitei Centrale, datele achiziționate sunt normal distribuite. Media apare la centrul distribuției și reprezintă cea mai bună estimare a adâncimii pe baza tuturor datelor măsurate. Abaterea standard definește lățimea distribuției, care descrie cât variație are loc între măsurătorile succesive.

Această situație are ca rezultat două tipuri generale de erori pe care le poate avea sistemul. În primul rând, media poate fi deplasată de la valoarea reală. Valoarea acestei deplasări se numește acuratețea măsurării. În al doilea rând, este posibil ca măsurătorile individuale să nu fie de acord între ele, după cum indică lățimea distribuției. Aceasta se numește precizia măsurătorii și se exprimă prin citarea deviației standard, a raportului semnal-zgomot sau a CV-ului.

Considerați o măsurătoare care are o acuratețe bună, dar precizie slabă; histograma este centrată pe valoarea reală, dar este foarte largă. Deși măsurătorile sunt corecte ca grup, fiecare citire individuală este o măsură slabă a valorii reale. Această situație se zice că are o repetabilitate redusă; măsurătorile efectuate succesiv nu sunt de acord. Precizia slabă rezultă din erorile aleatorii. Acesta este numele dat erorilor care se schimbă de fiecare dată când măsurarea se repetă. Medierea mai multor măsurători va îmbunătăți întotdeauna precizia. Pe scurt, precizia este o măsură a zgomotului aleator.

Figura 2-11

Definițiile acurateței și preciziei. Acuratețea este diferența dintre valoarea adevărată și media unui proces de bază care generează datele. Precizia este împrăștierea valorilor, specificată prin deviația standard, raportul semnal-zgomot, sau CV.

Acum, imaginați o măsurătoare care este foarte precisă, dar are o acuratețe redusă. Acest lucru face ca histograma să fie foarte subțire, dar nu centrată pe valoarea reală. Citirile succesive sunt aproape ca valoare; dar, toate au o eroare mare. Acuratețea slabă rezultă din erorile sistematice. Acestea sunt erori care se repetă exact în aceeași manieră de fiecare dată când se efectuează măsurătorile. Acuratețea este de obicei dependentă de calibrarea sistemului. De exemplu, în măsurarea adâncimii oceanului, parametrul măsurat direct este timpul scurs. Acesta este transformat în adâncime printr-o procedură de calibrare care raportează milisecunde la metri. Acest lucru poate fi la fel de simplu ca înmulțirea cu o viteză fixă ​​sau la fel de complicat ca zeci de corecții de ordinul doi. Medierea măsurătorilor individuale nu face nimic pentru a îmbunătăți acuratețea. Pe scurt, acuratețea este o măsură a calibrării.

În practica reală, există multe moduri în care precizia și acuratețea se pot împleti. De exemplu, imaginați construirea unui amplificator electronic de la rezistoare de 1%. Această toleranță indică faptul că valoarea fiecărui rezistor va fi în limita a 1% din valoarea indicată într-o gamă largă de condiții, cum ar fi temperatura, umiditatea, vârsta etc. Această eroare în rezistență va produce o eroare corespunzătoare în câștigul amplificatorului. Este această eroare o problemă de acuratețe sau de precizie?

Răspunsul depinde de modul în care faceți măsurătorile. De exemplu, să presupunem că construiți un amplificator și îl testați de mai multe ori în câteva minute. Eroarea în câștig rămâne constantă la fiecare test și deduceți că problema este acuratețea. În comparație, să presupunem că construiți o mie de amplificatoare. Câștigul de la dispozitiv la dispozitiv va fluctua în mod aleatoriu, iar problema pare să fie una de precizie. De asemenea, oricare dintre aceste amplificatoare va prezenta fluctuații de câștig ca răspuns la temperatură și alte schimbări de mediu. Din nou, problema ar fi numită precizie.

Atunci când decideți ce nume să dați problemei, puneți-vă două întrebări. Prima: Valorile medii ale citirilor succesive oferă o mai bună măsurare? Dacă da, numiți eroare de precizie ; dacă nu, numiți acuratețea. Al doilea: Va calibra corect eroarea? Dacă da, numiți acuratețe; dacă nu, numiți precizia. Acest lucru poate necesita un gând, în special legat de modul în care dispozitivul va fi calibrat și cât de des se va face.