Salve.
Ho un problema.
Quando si vuol rilevare sperimentalmente il valore di una variabile si
effettua una misura strumentale che � sempre inficiata da errore: allora
si effettuano diverse misure e se ne fa la media. Maggiore � il numero di
singole operazioni di misura, pi� affidabile � la media, pi� � vicina al
valore reale.
Si definisca un intervallo di errore, che � la differenza tra la misura
che d� il valore in massimo eccesso e quella che d� il valore in massimo
difetto, e si consideri la legge di distribuzione degli altri valori
all'interno dell'intervallo.
La mia domanda � la seguente.
Si pu� dire, in soldoni, che questa distribuzione pu� risultare di due
tipi:
1) - gaussiana (la densit� delle misure raccolte aumenta considerando
intervalli sempre pi� piccoli intorno al valore medio)
2) - casuale (la densit� delle misure � invariante in intervalli
qualsivoglia all'interno dell'intervallo definito)
o la distribuzione � sempre gaussiana?
Ringrazio chi vorr� rispondere.
Luciano Buggio
--
questo articolo e` stato inviato via web dal servizio gratuito
http://www.newsland.it/news segnala gli abusi ad abuse_at_newsland.it
Received on Mon Mar 10 2003 - 09:42:13 CET