"Govny" ha scritto:
> scusa ma se io non conosco il valore vero, come faccio a determinare di
> quanto la misura si discosta da esso?
Per prima cosa sottolineo che in generale non esiste il valore "vero"
della grandezza che si vuole misurare, ma soltanto il valore
medio della distribuzione dei possibili valori misurabili, per esempio
non esiste il valore "vero" della lunghezza di un righello perche'
la forma del righello non e' esattamente quella di un parallelepipedo
geometrico, perche' le facce del righello non sono esattamente piane
ma a livello microscopico si presentano rugose, perche' la materia
non e' omogenea e continua ma e' formata da atomi e discreta,
perche' nell'atto della misura perturbo il sistema su cui effettuo la misura...
Entrando nel merito, se e' possibile si fa il confronto con uno
strumento piu' accurato.
Ad es. supponiamo di voler determinare l'accuratezza di un termometro
a etanolo, possiamo farlo effettuando un certo numero di misure di
temperatura all'interno del range di temperature misurabili con quel
termometro (cioe' sicuramente temperature comprese tra quella di
solidificazione e quella di ebollizione dell'etanolo) e confrontando
i risultati ottenuti con i valori forniti da un uno strumento che
costituisca uno standard primario o secondario della temperatura,
ad es. un termometro a gas a volume costante.
Se in tutto il range di temperature misurabili la lettura effettuata con
il termometro a etanolo si scosta di non piu' di 3 K da quella effettuata
con il termometro a gas, diremo che in tutto quel range di temperatura
quel termometro a etanolo e' accurato a +- 3K.
Diverso e' il caso in cui non esistano altri strumenti piu' accurati, ad
es. come si fa a stabilire che gli attuali campioni primari della misura
del tempo, gli orologi al cesio a fontana atomica, abbiano una accuratezza
tale da determinare un ipotetico errore massimo di 1 s su 20 milioni di anni?
Qualitativamente si puo' comprendere come confrontando tra loro
due orologi O1 e O2 fabbricati nello stesso modo si possa ottenere una
stima della loro precisione senza bisogno di un riferimento piu' preciso,
solo facendo l'ipotesi che gli errori sulle misure di tempo siano di tipo
casuale (cioe' supponendo che i due orologi costruiti in modo identico non
vadano costantemente sempre "avanti" o sempre "indietro").
In linea di principio, si misura con i due orologi uno stesso intervallo
di tempo (ad es. 100000 s misurati sull'orologio O1) ottenendo i valori
t1 = 100000 s e t2, si suppone che la deviazione dei valori letti rispetto
al risultato idealmente "esatto" T ~ 100000 s sia di origine interamente casuale,
si ripete piu' volte questa misura e si calcola la varianza S^2 = <(t1 - t2)^2>
(si indica con <x> il valore medio di una variabile casuale x), questa varianza si
dimostra essere uguale alla somma delle varianze <(t1 - T)^2> + <(t2 - T)^2>,
l'errore di un orologio sulla misura di questo intervallo di tempo e' quindi
S / SQRT(2), l'errore relativo e' S / SQRT(2) / T.
Se l'orologio di cui si vuole calcolare l'errore e' unico (il piu' accurato
orologio del mondo!) si fa un calcolo analogo confrontando i tempi
misurati da questo orologio con quelli misurati da un altro orologio,
anche meno accurato ma di cui sia gia' nota la accuratezza.
Nella realta' naturalmente le cose saranno piu' complicate, e si
eseguiranno diverse misure e i dati saranno trattati con metodi
statistici, ma il principio rimane quello del confronto tra diversi
orologi.
Aggiungo per completezza che la grandezza che ho indicato come
accuratezza, da alcuni autori viene chiamata precisione (sempre dello
strumento).
Ciao
--
Giorgio Bibbiani
Received on Fri Aug 25 2006 - 08:00:38 CEST