Re: Perché si usa la gaussiana
On 7 Ago, 19:01, carlo spinelli <cspin..._at_gmail.com> wrote:
> Ultimamente ho cercato di riflettere sul fatto che per descrivere
> l'esito delle misure sperimentali ci si serve di una gaussiana. Poi
> non so come ho collegato con il problema del cammino casuale in una
> dimensione e mi sono illuminato. E' come se i "disturbi" sperimentali
> fossero una moltitudine di microscopici disturbi ciascuno dei quali ha
> il 50% delle probabilit� di "spingere" la misura da una parte
> piuttosto che dall'altra. Modellizzando cos� appare chiaro che gli
> esiti delle misure si distribuiscono in modo gaussiano attorno al
> valore vero.
Non so se cio' che segue ti puo' interessare.
E' tratto dal libro "Calcolo delle Probabilita' " di Sheldon M. Ross.
<<CARATTERIZZAZIONE DELLA DISTRIBUZIONE NORMALE
Siano X e Y le variabili aleatorie determinate dalla distanza
orizzontale e verticale dal centro, quando un proiettile viene sparato
contro un bersaglio e supponiamo che:
1. X e Y siano due variaboli aleatorie indipendenti e continue con
densita' che siano funzioni differenziabili.
2. La densita' congiunta f(x,y) = f_x(x)*f_y(y) di X e Y dipenda da
(x,y) solo attraverso x^2 + y^2.
Per chiarire le idee, la ipotesi 2 stabilisce che la probabilita' che
il proiettile colpisca un qualunque punto del piano (x,y) dipende solo
dalla distanza di questo punto dal centro del bersaglio e non
dall'angolo di orientazione rispetto a esso. L'ipotesi 2 puo' essere
espressa dicendo che la densita' congiunta e' una funzione invariante
per rotazioni.
Puo' essere interessante notare come le ipotesi 1 e 2 implicano che X
e Y si distribuiscono come due variabili aleatorie normali. Per
provare questo, notiamo da principio che le ipotesi danno la
relazione:
f(x,y) = f_x(x)*f_y(y) = g(x^2 + y^2) (2.9)
per una qualche funzione g. Differenziando l'equazione (2.9) rispetto
a x otteniamo:
f'_x(x)*f_y(y) = 2xg'(x^2 + y^2) (2.10)
Dividendo la (2.10) per la (2.9) abbiamo:
f'_x(x)/f_x(x) = 2xg'(x^2 + y^2)/g(x^2 + y^2)
ovvero:
f'_x(x)/2x*f_x(x) = g'(x^2 + y^2)/g(x^2 + y^2) (2.11)
Siccome il valore del termine a sinistra dell'equazione (2.11) dipende
solo da x, mentre il termine a destra da x^2 + y^2, avremo che il
termine a sinistra dovra' essere costante per ogni valore di x. Per
vedere questo, consideriamo ogni x1, x2 e siano y1, y2 tali che:
(x1)^2 + (y1)^2 = (x2)^2 + (y2)^2.
Allora, da (2.11) otteniamo che:
f'_x(x1)/2x1*f_x(x1) = g'[(x1)^2 + (y1)^2] / g[(x1)^2 + (y1)^2]
= g'[(x2)^2 + (y2)^2] / g[(x2)^2 + (y2)^2] = f'_x(x2)/2x2*f_x(x2)
Quindi:
f'_x(x)/x*f_x(x) = c
ovvero:
(d/dx) log[f_x(x)] = cx
il che implica, dopo aver integrato entrambi i termini, che:
log[f_x(x)] = a + cx^2/2
ovvero:
f_x(x) = ke^(cx^2/2).
Poiche' Int[-oo;+oo] f_x(x) dx = 1, segue che c deve essere una
costante negativa e possiamo scrivere c = -1/s^2 [nel libro c'e' la
lettera sigma al posto di s]. Avremo:
f_x(x) = ke^(-x^2/2s^2)
Cioe', X e' una variabile aleatoria normale di parametri mu = 0 e
s^2.
Un simile argomento applicato a f_y(y) mostra che:
f_y(y) = [1/s'*Rad(2pi)] * e^(-y^2/2s'^2)
Inoltre, segue dall'ipotesi 2 che s^2 = s'^2, e quindi X e Y sono
variabili aleatorie normali, indipendenti, identicamente distribuite
(i.i.d.) di parametri mu = 0 e s^2.>>
Received on Sun Aug 15 2010 - 21:45:52 CEST
This archive was generated by hypermail 2.3.0
: Thu Nov 21 2024 - 05:10:38 CET