"Mario Pizzolon" ha scritto:
> Chi mi descrive la differenza?
Sono due delle grandezze che caratterizzano un dato strumento di misura.
La sensibilita' e' la piu' piccola differenza che si puo' apprezzare tra due
letture effettuate con lo strumento, ad es. se hai una stecca metrica
suddivisa in millimetri, la sensibilita' e' 1 mm perche' due misure diverse
effettuate con quel metro differiscono per almeno 1 mm. Se la scala dello
strumento e' lineare puoi calcolare la sensibilita' con l'operazione
(portata massima - portata minima) / (numero di suddivisioni della scala)
(la portata massima e' il massimo valore che si puo' misurare con lo strumento,
la portata minima il minimo valore che si puo' misurare).
Conoscere la sensibilita' e' importante perche' stabilisce un limite
inferiore all'errore di misura, che in genere si suppone non sia inferiore
alla sensibilita' dello strumento.
L'accuratezza di uno strumento di misura e' la grandezza che dice di
quanto il valore misurato si scosta dal valore "vero" della grandezza misurata
("vero" tra virgolette perche' naturalmente non si sa quale sia il valore
"vero" della grandezza da misurare, altrimenti non servirebbe
effettuare alcuna misura :-), o perche' in generale non esiste un valore
"vero" della grandezza misurata ma solo una distribuzione di probabilita'
per i possibili risultati delle misure).
In generale sensibilita' e accuratezza vanno di pari passo, nel senso che
si cerca di fare in modo che uno strumento sensibile sia anche accurato,
comunque dato un qualsiasi strumento e' necessario sapere quanto sia
accurato (questa informazione si trova sul manuale d'uso), per potere
stimare l'errore delle misure effettuate con quello strumento.
Ciao
--
Giorgio Bibbiani
Received on Sat Aug 19 2006 - 19:25:29 CEST