Re: entropia e informazione

From: Giorgio Pastore <pastgio_at_units.it>
Date: Wed, 23 Oct 2019 23:57:20 +0200

Il 23/10/19 23:17, Soviet_Mario ha scritto:
> un generatore di numeri random VERO, ossia una sorgente di entropia,
> produce informazione ?

Di quale entropia parli?

Quale definizione di informazione stai usando?


> mi parrebbe di si, ma al contempo penserei che si tratti di informazione
> inutile, pari al rumore bianco (che non si può "comprimere" in modo
> lossless ma non serve ugualmente a nulla)
>
> esiste un qualche indice qualitativo che descriva la "qualità" (il
> pregio, diciamo) dell'informazione ?


Finché non definisci l'informazione è un po' difficile anche ipotizzare
una risposta.

La definizione quantitativa classica della teoria del' informazione
associa l'informazione ad un evento che abbia probabilità p_i, come
logaritmo dell' inverso della probabilità dell'evento ( I_i = -log(p_i)
). Questo dà un modo *quantitativo* di valutare l'informazione. Se vuoi
considerare più "pregiata' un'informazione maggiore direi che è una
questione interpretativa ma non la vedo necessaria.

Giorgio
Received on Wed Oct 23 2019 - 23:57:20 CEST

This archive was generated by hypermail 2.3.0 : Fri Nov 08 2024 - 05:09:58 CET