Il 25 Nov 2008, 10:58, Aleph ha scritto:
> > > No, sei del tutto fuori strada.
>
> > Gi�. Io, CIPM, BIPM, OIML, ISO, EIC e NIST.
> > Siamo tutti fuori strada.
>
> Guarda, se la metti su questo piano ti posso postare qualche link a testi
> universitari di varie facolt� di fisica italiane in cui la questione viene
> indirizzata nel modo che t'ho esposto, specialmente riguardo agli errori
> massimi.
Nessun link a facolt� italiane potr� competere con le indicazioni dei
comitati internazionali.
Direi che questo piano hai gi� perso.
> > Variabilit� "intrinseca" delle misure??
> > La variabilit� delle misure � data dalla risposta strumentale, Aleph.
> > Se la risposta dello strumento � sempre la stessa, non ho nessuna
> > variabilit�.
>
> Ovvio, ma intendevo un'altra cosa.
> Mi riferivo alla variabilit� intrinseca delle misure dovuta al mancato
> controllo delle condizioni fisiche di dettaglio (microscopiche) in cui
> avviene una misura, controllo che pu� essere realizzato, e in maniera
> comunque approssimata, sulle condizioni macroscopiche.
> In realt� quindi non esiste la possibilit� di ripetere una misura nelle
> ***stesse*** condizioni fisiche e ci� determina una variabilit� (spesse
> volte molto piccola) nei risultati delle misure.
Non ti seguo. Se consideriamo il caso in cui la risposta strumentale � la
medesima, non c'� alcuna variabilit� nel risultato (scusa, mi rendo conto
che mi sto ripetendo ma su qesto punto proprio non ti seguo)
> > Quello che ti sto dicendo � che l'errore che va riportato a seguito di
una
> > misurazione (ad es in una pubblicazione) *non � l'errore massimo*.
>
> Questo per� � un altro paio di maniche, non so se te ne rendi conto.
Questo � *il succo del discorso*: quale incertezza riportare nella
presentazione di un risultato sperimentale.
> > Ci� permette di
> > avere a disposizione le regole di propagazione degli errori (metodo RSS)
che
> > preservanno il significato probabilistico delle incertezza propagate
(cosa
> > non vera invece se applicata agli "errori massimi") e mantengono sempre
> > applicabile la macchineria statististica per test di ipotesi, stime di
> > parametri e confronti tra vari set di dati.
>
> Macchineria statistica???
> Hai usato il traduttore di Google? :))
Gergo HEP : )
> Nel caso di errori massimi l'incertezza che dici di fatto scompare, quindi
> l'unica cosa che puoi propagare sono gli errori massimi sulle grandezze
> derivate.
> Non ci vedio nulla di strano.
Propagare gli errori massimi con il metodo standard (root-sum-squares
method, RSS) non ha senso, poich� l'errore propagato assume un significato
differente dall'errore iniziale. Se si usa questo metodo, devi rinunciare
agli errori massimi in partenza (e usare incertezze che assumano il
significato di deviazione standard).
Se invece vuoi propagare gli errori massimi preservandone il significato,
allora devi usare la procedura delle somme dirette (non in quadratura). In
questo modo l'errore propagato sar� a sua volta errore massimo. Il risultato
naturalmente � disastroso e fortemente limitante (basta combinare poche
misure e le grandezze ottenute avranno errori mastodontici). Ogni test
statistico risulta inoltre poco applicabile, poich� le tecniche statistiche
standard utilizzate fanno riferimento a un preciso significato delle
incertezze che � quello che ti ho illustrato (e che � indicato da ISO, NIST
etcetc..).
> > Se invece vai a fare un test di ipotesi su un set di dati in cui
> > l'incertezza � data dai tuoi "errori massimi", non � pi� chiaro dove
devi
> > applicare il taglio di significanza per un dato livello di probabilit�.
> > Cio� non puoi pi� fare il test di ipotesi.
>
> Mi sembra un po' fumoso quanto dici. Al momento non vedo un esempio in cui
> partendo da misure espresse ramite errori massimi io debba trovarmi nella
> necessit� di ricorrere a un test d'ipotesi.
Ad esempio in un test di compatibilit� tra differenti set di misure della
stessa grandezza.
Ma con gli errori massimi non vai molto lontano.
> > Naturalmente, nel caso di misure sparpagliate la definizione di
incertezza �
> > immediata dalla valutazione della distribuzione.
> > Nel caso di grandezze ben definite rispetto allo strumento (il caso del
tuo
> > metro da muratore),
> Mai parlato di metro da muratore, bens� di metro rigido, ma fa lo stesso.
Ok, metro rigido.
> > allora c'� poco da fare: possiamo solo assumere che il valore vero possa
> > essere *ovunque* in quell'intervallo.
> Assunzione dimostrabilmente sbagliata, per le motivazioni che ti ho gi�
> esposto in precedenza,
motivazioni??
> da cui deriva direttamente un vincolo nei confronti
> di grandezze statistiche come la media o la deviazione standard; se
> ripetendo N volte le misure tu hai che il risultato della misura �
> **sempre** lostesso vuol dire che la media del campione � uguale al
> risultato e la stima della deviazione standard � zero, non (b-a)/12.
> Fattene una ragione.
Io e vari comitati internazionali dovremmo farcene una ragione?
> > Non c'� niente che si distribuisce statisticamente. Se le misure
ripetute
> > producono sempre la stessa risposta strumentale, potrai affermare al pi�
> > che il valore vero si trova all'interno di un dato intervallo definito
> > dalla sensibilit� dello strumento. Non mi sembra un concetto molto
> > difficile da capire.
>
> Mi pare che sei tu che fai fatica a comprendere che in questo caso la
> stima della deviazione standard delle misure � nulla.
La stima ottenuta dai dati � nulla. Motivo per cui si usa la stima
bayesiana.
Esistono anche particolari esperimenti che possano giustificarla (a
posteriori), se vuoi posso farti qualche esempio.
> > Quello che NON puoi dire � la posizione di questo valore vero
*all'interno
> > di tale intervallo*. Ma non c'� nessuna distribuzione statistica, Aleph.
> > (al pi� una delta di Dirac, a essere formali).
>
> Intanto la distribuzione statistica uniforme l'hai tirata fuori tu per
> primo;
Non � una distribuzione statistica. E' una distribuzione di probabilit�
della posizione del valore vero all'interno dell'intervallo di sensibilit�.
E' assunta uniforme perch� non ci sono elementi a disposizione che possano
suggerire, come indicato dalla ISO/GUM guide.
> secondo la variabilit� cui alludevo � quella intrinseca della
> grandezza fisica da misurare che per quanto piccola, e di norma di molto
> inferore a quella prodotta dalla risposta dello strumento esiste sempre
> (vedi sopra).
Grandezza fisica variabile? Nel tempo?
> Questo fatto � rappresentato formalmente dal dire che alla stima della
> deviazione standard contibuiscono due termini (uno proprio della
> variabilit� della risposta strumentale, uno proprio della variabilit�
> intrinseca della grandezza fisica da misurare):
>
> dev_tot = sqrt (dev_strum + dev_gran) (1)
Guarda che questa equazione � sbagliata pure dimensionalmente.
> La variabilit� cui alludevo nel post precedente, del tutto affogata
> nell'errore massimo, � la seconda.
Ammesso che esista, non solo non ne puoi conoscere la larghezza (perch� se
la conoscessi, avresti una migliore misura a disposizione) ma non sai
neanche dove � *centrata* (perch� se lo sapessi, avresti una migliore
informazione sul valore vero).
Ammesso che esista e che serva a qualcosa.
> > > Nello specifico del mio esempio, misure di spessori di oggetti solidi,
> > > quello che so della fenomenologia e della fisica coinvolta nel
processo di
> > > misura mi fa dire invece che la distribuzione attesa � una gaussiana
>
> > ???
> > Distribuzione attesa de che?
>
> Delle misure, eseguite con uno strumento sufficientemente sensibile.
La distribuzione di misure eseguite da uno strumento sufficientemente
sensibile dipende dalla scelta dello strumento sufficientemente sensibile.
Non ho capito che senso hanno queste considerazioni. Se cambi strumento �
ovvio che stai facendo un'altra misura.
Se puoi usare uno strumento sufficientemente sensibile, allora usa
direttamente quello per valutare le incertezze.
> > La distribuzione delle misure � definita a posteriori.
>
> Per� tu nel caso del metro rigido, pretendi di definirla a priori.
Io non definisco a priori la distribuzione delle misure.
Semplicemente assumo che il valore vero possa trovarsi *ovunque* all'interno
dell'intervallo di sensibilit� minima dello strumento (quello che definisce
il tuo errore massimo).
Ti turba il fatto che usi il concetto di probabilit� per una grandezza che
non � aleatoria? E' statistica bayesiana, niente di esoterico.
> > Se lo strumento fornisce sempre la stessa risposta, possiamo solo dire
che
> > il valore
> > vero risiede all'interno di un dato intervallo (che � legato alla
> > sensibilit� dello sturmento).
>
> Concordo.
Bene.
> > Se non possiamo dire nulla sulla posizione all'interno dell'intervallo
(o
> > "errore massimo")
> > allora (come suggeriscono ISO/GUM, NIST Guide, CIPM etc...) possiamo
solo
> > assumere che il valore vero
> > possa essere *ovunque* in quell'intervallo.
> > Cio� una posizione centrale e una funzione di probabilit� rettangolare
(o
> > uniforme):
>
> Guarda, io non so se ti rileggi prima di postare ma sei un pozzo di
> conraddizioni.
Ti ho dato riferimenti piuttosto autorevoli. Sono in buona compagnia.
> Poco sopra hai detto, in maniera corretta, che il valore vero non � una
> variabile aleatoria, ma un valore fissato anche se incognito e
> inconoscibile.
Esatto.
> Qui sopra dici che il valore vero pu� essere ovunque all'interno
> dell'intervallo stabilito dagli errori massimi e da questo derivi una
> funzione di probabilit� rettangolare,
Esatto.
> ma per cosa se hai detto poco prima
> che il valore vero non � una variabile aleatoria?
S�. E' il famoso approccio bayesiano.
Non tutti i fisici lo condividono appieno, ma sicuramente tutti lo
conoscono.
Se � la prima volta che ne senti parlare, forse � meglio che ti documenti
meglio e ci rifletti su prima di portare avanti una crociata contro gli
standard internazionali.
No, perch�, ti stai meravigliando di una cosa piuttosto ovvia.
Per iniziare:
G. Cowan, "Statistical Data Analysis", Clarendon Press, Oxford;
W.J Metzger, "Statistical Methods in Data Analysis".
> Il punto su cui fai confusione � che la distribuzione di probabilit�
> riguarda il campione delle misure non il valore vero.
> E' da un set di misure (pi� o meno grande) che posso stimare la forma
> della distribuzone statistica che le descrive e i parametri che la
> caretterizzano; se le misure sono sempre le stesse la media del campione �
> il valore di una singola misura e la stima della deviazione standard �
> zero, alias non esistono distribuzioni rettangolari delle misure.
> Chiaro?
Guarda che per me � tutto molto chiaro.
Non insisto perch� mi ripeterei. I riferimenti te li ho pure dati, adesso
sta a te ad aggiornarti.
> > Cio� per vedere 'sta fantomatica gaussiana hai cambiato strumento.
> > Hai rimpiazzato il tuo strumento con un altro pi� sensibile.
> > Ma se cambi strumento cambiano le modalit� della misura.
> > Cio� fai un'altra misura.
>
> OK, accolgo in parte l'obiezione, ma cerca di capire cosa intendevo
> (guarda la (1)); in generale se vuoi provare a dare una stima della
> variabilit� della grandezza fisica da misurare devi passare attraverso
> differenti strumenti.
Sorry.. questa parte della variabilit� intrinseca della grandezza non l'ho
capita (il resto mi � tutto chiaro).
La variabilit� dipende dallo strumento con cui effettui la misura e mi
sembra ovvio che cambiando strumento cambiano i risultati.
E la (1) � sbagliata : )
....
> > Allora, sommarizzando, a sbagliare sono:
> > - Popinga
> > - La International Committee for Weights and Measures (CIPM)
> > - Il International Bureau of Weights and Measures (BIPM)
> > - La International Electrotechnical Commission (IEC)
> > - La International Organization for Standardization (ISO)
> > - L'International Organization of Legal Metrology (OIML)
> > - Il National Institute of Standard and Technology (NIST)
>
> > Mentre a raccontarla giusta sono:
> > - Aleph
> > - Il Severi, ma non tutto (vedi dopo);
>
> Hai gli hai dato un'occhiata allora?
Lo usai a fisichetta. E' terribile : )
> Comunque non � solo Severi, se vuoi ti posto una congerie di materiale
> teorico proveniente un po' da tutta Italia, che dici cose analoghe.
Guarda, anche io potrei rilanciare con altrettanto materiale,
(es paragrafo 8.1 di questo:
http://wwwcdf.pd.infn.it/labo/book.pdf)
ma servirebbe a poco.
Direi che citare ISO, NIST, CIPM, BIPM, IEC e OIML � pi� che sufficiente.
> E allora qui fai un altro salto indietro: nei testi che ho visto io (non
> solo il Severi) c'� un accordo pressoch� generale sul fatto che l'errore
> di sensibilit� in una misura diretta unica viene preso con una sola cifra
> significativa e sul fatto che le due cifre significative hanno al pi�
> senso solo per errori statistici desunti da misure ripetute (c'� chi
> s'impegna pure a fornire il numero N > 50).
Mi dispiace, sbagliano.
> > > non degli
> > > errori massimi come nel caso delle misure dirette di lunghezza del mio
> > > esempio.
>
> > Okkei. Praticamente dai la tua definizione di errore ("errore massimo")
che
> > � sensata poco utile e abbandonata ormai da decenni e accusi me e 5
comitati
> > internazionali di "posizioni personali basate pressoch� sul nulla"... :
)
> No, � che secondo me stai riducendo il mondo delle misure sperimentali
> alla sola fisica delle alte energie; hai una visione, come dire, un po'
> strabica :).
> Forse ti sembrer� strano ma le misure di grandezze sperimentali vengono
> eseguite in svariati ambiti tecnici e scientifici di tutte le scienze
> sperimentali e il discorso sulla stima dell'incertezza della misura che
> hai esposto non � generalizzabile a ogni situazione, poich� esistono
> numerosi casi pratici in cui, attraverso l'utilizzo dell'errore massimo,
> l'incertezza della misura e anche l'utilizzo dei test di ipotesi non sono
> applicati.
Ma siamo d'accordo che esistono, per� esiste un modo corretto di presentare
i risultati, e questo modo corretto *non* fa uso dell'errore massimo, perch�
dati del genere sarebbero poco utilizzabili.
--------------------------------
Inviato via
http://arianna.libero.it/usenet/
Received on Tue Nov 25 2008 - 15:38:03 CET