Il 18 Ott 2005, 08:11, dvx70_at_yahoo.it (Manfred De La Rey) ha scritto:
> Spero che mi venga perdonata la banalit� dell'argomento, ma mi � stato
> chiesto di illustrare, ad una classe liceale alla quale sto facendo un
> ciclo di supplenze di fisica, il calcolo del periodo di oscillazione di un
> pendolo. Ora pur conoscendo perfettamente la teoria alla base di tale
> calcolo, vorrei che qualcuno mi potesse illustrare (con una certa urgenza
> visto che tale esperienza dovrei tenerla Gioved� prossimo) le modalit�
> operative
Occorre dotarsi di un cronometro e spiegare che nel suo uso
c'e' una risposta fisiologica all'avvio e questo introduce
un errore sistematico all'avvio ed un errore sistematico allo stop:
il risultato e' un errore aleatorio di scala definita pari a circa 1/10
di secondo (si puo' assumere 1/10 visto che i ragazzi hanno in
genere riflessi molto pronti).
Questo errore puo' essere diminuito tenendo il pendolo
in oscillazione per un tempo piu' lungo. L'errore sistematico e'
un ritardo fra avvio del pendolo ed avvio del cronometro di circa
un decimo di secondo. Tuttavia anche sul punto di arresto del
cronometro esiste questa incertezza, si puo' ipotizzare
ragionevomente che, se la distribuzione delle risposte fisiologiche
e' un errore in eccesso o in difetto, facendo diverse prove si puo'
stimare il periodo con un'incertezza quadratica che, sulla somma
di N variabili gaussiane, cresce come N: di conseguenza nella
valutazione della media la deviazione risulta andare come
sqrt(N)/N. Non disponendo di questo strumento statistico si
puo' fare apprezzare semplicemente che l'errore sulla misura
di un periodo decresce linearmente con il tempo di misura.
Potendo usare un sistema ottico di rivelazione questo errore puo'
essere drasticamente diminuito fino a trascurarlo. Rimane
l'incertezza nella misura della lunghezza del pendolo. Ora se
si potesse introdurre la teoria del limite centrale e la stima
gaussiana degli errori si avrebbe una stima per l'errore nelle
operazioni di media che dice che l'errore assoluto e quello relativo
sulle grandezze medie e' migliore dell'errore assoluto e relativo
delle singole osservazioni. Tuttavia e' possibile arrivare per gradi
alla presentazione del teorema del limite centrale gaussiano.
Se ti riferisci, per esempio al libro di Taylor non riesci a
fare apprezzare l'utilita' dell'operazione di media come strumento
di controllo degli errori, tuttavia puoi accennare il fatto che gli
errori non sono sempre nello stesso verso e lasciare pensare
per un poco. Attenzione che
su alcune presentazioni viene detta una cosa sbagliata, prima
si fornisce la stima dell'errore sulla media (1/N)Sum_i(1^N) |delta_i|
poi si dice che quindi l'errore assoluto sulla media e dunque
l'errore relativo, diminuisce al crescere di N. L'errore statistico
gaussiano diminuisce al crescere di N, ma questo non discende
da quella formula. Quindi attento ad evitare questa trappola.
A questo punto hai due scelte:
1)
accennare alla questione della distribuzione gaussiana e fornire
le regole che a questo livello rimangono "empiriche" per cui
delta^2(a1 + ... + ak) = k delta^2(a). Rinviando ad una opportuna
ed eventuale appendice una parziale spiegazione intuitiva di
questo risultato.
2)
rinunciare per il momento ad ogni considerazione e commentare
solo che l'errore relativo non diminuisce.
> assieme ad una esaustiva (per una classe liceale ovviamente)
> trattazione della teoria degli errori....
Qui e' la regolina gaussiana di cui prima opportunamente cucinata
che ha il ruolo principale, ma puoi arrivarci per
gradi senza scomodare subito l'armamentario della propagazione
dell'errore passando per una stima molto piu' semplice da
spiegare, ad esempio riferisciti al Taylor, fai delle fotocopie
eventualmente, che l'errore relativo
e' additivo nel prodotto e si conserva nel calcolo dell'inversa.
Mentre nella somma di variabili e nel calcolo dell'opposto e'
l'errore assoluto che si conserva.
Da qui seguono le regole per cui nella
divisione per N intero l'errore assoluto si divide per N e l'errore
relativo si conserva e nella estrazione di radice k l'errore relativo
si divide per k, mentre l'errore assoluto si valuta di conseguenza
dall'errore relativo. Allora se fai la misura N volte, stimando l'errore
relativo sul periodo come (deltaT/numero oscillazioni)/T,
e sulla lunghezza come deltaL/L trovi un errore relativo sul dato di g
pari al doppio dell'errore relativo sulla misura del tempo piu' l'errore
relativo sulla misura della lunghezza. Fin qui non c'e' riferimento ad
N, ed usando la regoletta semplificata si ha una stima, per eccesso,
dell'errore nella media che risulta esattamente uguale all'errore
nella singola misura.
L'errore relativo sulla media puo'
essere corretto alla fine con il classico "fudge factor 1/sqrt(N)"
rinviando alla formula generale gaussiana, oppure non si dice
nulla piu' di prima e si dice che la stima per eccesso puo' essere
riconosciuta effettivamente tale per esperienza diretta. Infatti
la distribuzione dei valori medi sara' tipicamente piu' stretta.
A questo punto come esercizio si potrebbe considerare che esiste
una possibile fonte di errore sistematico dovuto alla eventualita' che
il centro di massa ed il perno non siano esattamente individuabili.
Per ridurre il primo problema si possono usare aste graduate in cui
si confronta il periodo di oscillazione mettendo la massa in un verso
e poi nell'altro. Ma se l'apparato e' piu' rudimentale: per esempio un
peso attaccato ad un filo la storia e' piu' sottile. Per esperienza
personale
ricordo che la deviazione teoricamente prevista assumendo un errore
additivo costante ma sconosciuto sulla lunghezza non e' risolvibile sul
fondo degli errori casuali. Pero' per spiegare bene questo occorre avere
una migliore padronanza della propagazione degli errori. E del meccanismo
binomiale di compensazione.
Per arrivare ad introdurre questo argomento
usando la binomiale e poi l'approssimazione gaussiana della binomiale
si potrebbe procedere in due step: prima si fa vedere come le stime del
valore di g siano distribuite fra i diversi tentativi in un range piu'
ristretto
di quanto stimato con il trucco della somma lineare (alla maniera di
Taylor),
poi si accenna al fatto che c'e' il peso binomiale, magari presentando per
via grafica il giochino del diagramma bipartito con una presentazione
computerizzata e facendo eventualmente un confronto empirico con l'uso
di un programma, fra la distribuzione binomiale e la distribuzione
gaussiana.
E direi che pero' questo sta gia' ai limiti di molti programmi liceali
ordinari.
A questo punto si arriva alla regola del fudge factor per via empirica
o in modo rigoroso valutando il valor medio del momento secondo per
la distribuzione binomiale.
C'e' da osservare che la regola binomiale e' una prima evidenza
del teorema del limite centrale, tuttavia il teorema di Gauss ha
dei limiti di validita'. Infatti vale solo se le variabili sommate sono
distribuite in modo che sia convergente il momento secondo.
In tal caso risulta, a posteriori, corretto trattare le singole
deviazioni come se fossero costanti ma con segno equidistribuito
fra piu' e meno.
Si potrebbe eventualmente fare apprezzare
criticamente la generalita' di questa regola considerando
esempi di grandezze molto fluttuanti, o, come si dice, dominate
dalle fluttuazioni. Che significa tecnicamente proprio che
la fluttuazione del valor medio e' statisticamente confrontabile
o maggiore del valor medio indipendentemente dal numero
di prove effettuate. In questo caso il teorema del limite
centrale adatto non discende dal procedimento binomiale
semplice, ma da una sua opportuna modificazione e coinvolge
tipicamente le cosiddette distribuzioni ipergeometriche.
Pero' temo che questo esuli dai programmi
liceali.
> un link ad un sito internet
> sarebbe comuncque pi� che sufficiente.
> Ringrazio anticipatamente per l'aiuto !!!
Tornando un attimo al riepilogo si possono scegliere due
percorsi limite, con varie versioni intermedie:
I percorso: per gradi di esperienza:
a) stima lineare della propagazione
degli errori alla Taylor.
b) misure singole e confronto del range di variazione
con gli errori stimati alla Taylor.
c) set di piu' misure e nuovo confronto sui valori medi.
Introduzione dell'argomento della compensazione
binomiale. Cenno al teorema del limite centrale.
II percorso: da principi primi posti dogmaticamente
in regolette semiempiriche. Piu' adatto per allievi
dell'ultimo anno che padroneggino un minimo di
derivate parziali, ma hanno gia' seguito il I
percorso.
a) formula della propagazione dell'errore su
un set di grandezze calcolate da valori misurati.
Questa, riepilogo in breve, dice che l'errore quadratico medio
e' la somma degli errori quadratici medi delle
singole misure delle grandezze primitive
pesate per la derivata parziale al quadrato
della funzione rispetto alla grandezza primitiva.
(Nota: si ottiene dall'argomento di compensazione
binomiale ed e' noto anche come teorema di Gauss
della propagazione dell'errore).
b) esperienza e valutazione dell'errore applicando
la teoria generale.
c) discussione delle fonti di errore sistematico
e confronto con il valore di errore stimato.
> --
> "Il mondo non ha bisogno di dogmi ma di libera ricerca." (B. Russel)
>
> questo articolo e` stato inviato via web dal servizio gratuito
> http://www.newsland.it/news segnala gli abusi ad abuse_at_newsland.it
--------------------------------
Inviato via
http://arianna.libero.it/usenet/
Received on Tue Oct 18 2005 - 21:23:50 CEST