Ho da porvi una domanda.
Leggo che l'errore di una misura si indica con l'ntervallo di semiampiezza d
[f-d,f+d], o ci� che � lo stesso: f+-d, essendo f la misura ottenuta e 2d la
stima dell'errore da cui sarebbe affetto f.
Es. Ho un termometro, la cui scala � suddivisa in decimi di grado
centigrado. d avrebbe in questo caso "almeno*" il valore di 1/10�C. Quindi
la mia misurazione f=25 sarebbe uguale a 25+-0.05 (25 pi� o meno 0.05, cio�
da 24.95 a 25.05). Benissimo. Poi magari siamo costretti ad ampliare (*)
questo valore di d per via delle caratteristiche del termometro (che magari
� meno preciso di come dice) e delle modalit� con cui si effettua la misura.
Al valore di 0.05 leggo che si arriva cos�. Visto che ad occhio � facile
capire, in una scala in decimi di grado, se il mercurio � al di qua o al di
la della met� (non segnata ovviamente) dell'intervallo che separa due
tacchette consecutive, devo vedere se il mercurio, che ha superato i 25, ha
o meno oltrepassato la met� dello spazio tra 25 ed il decimo successivo. se
l'ha passato, devo dare ad f il valore di 25.1, se no quello di 25.
Mi domando, ora, due cose:
1) Se lo spazio fisico tra due decimi consecutivi fosse bella ampia, potrei
riuscire a vedere non solo se il mercurio ha superato o meno la met� di
questo spazio, ma anche un quarto (la met� della met�) o addirittura un
ottavo, ecc. Cos� facendo aumenterei la precisione della misura. Mi domando,
� corretto questo ragionamento? Perch� non limitarsi solo alle tacche
presenti ed invocare invece la met� unsigned dell'intervallo minimo di
misura? (vedi domanda 2).
2) Perche si dice che il valore della misura � f+-0.05 e non f+0.1?? Mi
spiego.
Potrei stabilire che le misura vadano fatte in altra maniera. Ad esempio
misurando una lunghezza, uso il righello in modo da indicare come valore
misurato f la tacca sicuramente "superata" (o almeno "raggiunta",
"spaccata") dal'oggetto che sto misurando.
Cos� sarebbe di 10 cm, il valore d f misurato tutte le volte che 10 �
raggiunto o superato (anche 10.09, che � prossimo a 10.1). A questo punto la
mia misura si affiderebbe alle sole tacche relamente presenti e sarebbe del
tipo f+1, nel senso di [f,f+1).
Pensiamo ad es. ad un orologio di quelli con i numeri: ogni secondo leggiamo
32,33,34,35,ecc. Come direste questa misura? Io la direi affetta da un
errore di 1 sec e la rappresenterei cos�: [f,f+1), visto che anche il tempo
36,99999 viene mostrato come 36.
C'� una ragione per seguire un metodo anzoch� l'altro?
Grazie
Received on Fri May 06 2005 - 21:01:33 CEST
This archive was generated by hypermail 2.3.0
: Fri Nov 08 2024 - 05:10:20 CET