Re: Catene di Markov

From: Thanatos <ad1114_at_jumpy.it>
Date: Sun, 26 Oct 2003 16:56:52 GMT

>Io non ho capito...
>A quanto pare conosciamo definizioni diverse di catena di Markov.
>Che cos'e' "la variabile stocastica Xi"? E' una o sono n?

Sono n.

Per chiarire, visto che sto parlando con una persona certamente piu'
esperta di me, tutto cio' che dico d'ora in poi e' da leggere come
"quello che io penso". Non sono ancora laureato (sono tra gli ultimi
del vecchio ordinamento) e leggo di argomenti statistici da poco, e
potrebbe tranquillamente essere che ho colto male. Pertanto provo a
spiegare quello che io penso di aver capito, se ho capito male e'
inutile che faccio perdere tempo a me e a voi.

Una Catene di Markov e' un modo per interpretare un evento stocastico
generalizzazione del tipico evento di Bernoulli. Il valore dello
schema probabilistico varia difatti in funzione del valore ottenuto
nel precedente "lancio di dado".

Chiamato wi i possibili valori, le variabili stocastiche Xi tengono
conto degli eventi ottenuti alla i-esima prova.
La proprieta' di Markov dice appunto che P( Xi = wi | X(i-1) = w(i-1),
X(i-2)=w(i-2), ... X1=w1)=P( Xi=wi | X1=w1)
In parole, le Catene di Markov non contengono memoria del percorso e
la probabilita' dell'evento successivo dipende solo dal risultato
dell'evento precedente.

Si puo' pertanto costruire una matrice (detta appunto matrice
stocastica) normalizzata ad uno per righe, la cui riga i-esima e' lo
schema di probabilita' di bernoulli dell'evento Xk se X(k-1) = wi.

Spero sia tutto giusto, altrimenti non ho compreso granche'.
Scusate per la poca chiarezza negli indici, non sono stato granche'
chiaro nell'uso delle varie lettere (anche a causa del mezzo non
propriamente adatto) ma spero che risulti chiaro il senso di quello
che volevo dire.

>Ma se invece Xi sono le variabili associate alle successive prove,
>perche' ti fermi a n?

Beh, ad un certo punto mi dovevo pur fermare :-)

Il punto e' che il nuovo set di variabili Yi corrisponde
effettivamente allo stesso evento stocastico, invertito temporalmente.
Che sia sempre valida la proprieta' di Markov per le variabili Yi
(cioe' che la probabilita' P( Yi = wi) dipenda solo da Y(i-1) ) non mi
sembra immediato, ne' logicamente ne' analiticamente, anche se so che
e' vero.

O meglio, in realta' scrivendo questo messaggio in parte mi sono anche
chiarificato le idee e inizio a vedere la luce, probabilmente
domattina mi sara' chiaro tutto.

--
-Thanatos-
HatTrick: bobon123 - Djiins, 1� classificato VI.8
A breve in V.???
Received on Sun Oct 26 2003 - 17:56:52 CET

This archive was generated by hypermail 2.3.0 : Wed Feb 05 2025 - 04:23:28 CET