Re: entropia e informazione
Il 23/10/19 23:17, Soviet_Mario ha scritto:
> un generatore di numeri random VERO, ossia una sorgente di entropia,
> produce informazione ?
Di quale entropia parli?
Quale definizione di informazione stai usando?
> mi parrebbe di si, ma al contempo penserei che si tratti di informazione
> inutile, pari al rumore bianco (che non si può "comprimere" in modo
> lossless ma non serve ugualmente a nulla)
>
> esiste un qualche indice qualitativo che descriva la "qualità" (il
> pregio, diciamo) dell'informazione ?
Finché non definisci l'informazione è un po' difficile anche ipotizzare
una risposta.
La definizione quantitativa classica della teoria del' informazione
associa l'informazione ad un evento che abbia probabilità p_i, come
logaritmo dell' inverso della probabilità dell'evento ( I_i = -log(p_i)
). Questo dà un modo *quantitativo* di valutare l'informazione. Se vuoi
considerare più "pregiata' un'informazione maggiore direi che è una
questione interpretativa ma non la vedo necessaria.
Giorgio
Received on Wed Oct 23 2019 - 23:57:20 CEST
This archive was generated by hypermail 2.3.0
: Thu Nov 21 2024 - 05:09:59 CET