BlueRay ha scritto:
> Il senso ben preciso a cui (penso) si riferisse e' che n tende
> al'infinito mentre p (parametro della binomiale che fornisce la
> probabilita' del verificarsi di uno dei due possibili risultati di
> misura) rimane costante. Nota che allora anche *la media e la
> varianza* tendono ad infinito, dal momento che media = n*p e varianza
> = n*p*(1-p).
Infatti bisogna stare un po' attenti.
Un modo per vedere la cosa e' d'introdurre al posto della variabile
casuale somma
Sn = X1 + ... + Xn
una "somma ridotta"
Sn' = (Sn - np)/sqrt(np(1-p)).
Sn' ha media 0 e varianza 1 per ogni n, ed e' questa che ha una
distribuzione che tende (in senso integrale) alla distribuzione
normale quando n --> oo.
Peter11 ha scritto:
> Mi puoi indicare, per favore, quale teorema non richiede la varianza
> finita, o quale � la condizione pi� debole cui accenni? Grazie.
Dato che sono tutt'altro che un esperto in materia, posso solo rifarmi
all'unica autorita' che conosco, ossia il vecchio libro di Feller (An
Introduction to Probability Theory...).
Il discorso e' di gran lunga troppo complicato per poterlo ripetere
qui.
Ti rimando alla fonte: vol. 2, pag. 544, teorema 1a e commento
esplicito proprio sulla questione della varianza finita.
--
Elio Fabri
Received on Sat Aug 21 2010 - 21:24:37 CEST