Re: entropia e informazione

From: Furio Petrossi <furio.petrossi_at_gmail.com>
Date: Wed, 23 Oct 2019 15:23:20 -0700 (PDT)

Il giorno mercoledì 23 ottobre 2019 23:18:02 UTC+2, Soviet_Mario ha scritto:
> Esiste qualche modo, come dire "matematico", per analizzare
> dei dati e capire quanto rumore bianco e quanta informazione
> "pregiata" contengano ?

Amo a dismisura l'articolo originale del 1948 di C. E. Shannon: A Mathematical Theory of Communication
http://www.math.harvard.edu/~ctm/home/text/others/shannon/entropy/entropy.pdf


Peraltro quando parli di un "un generatore di numeri random VERO" ti scontri con le considerazioni di Borel citate nello stupendo libro di Gregory Chaitin "META MATH! The Quest for Omega"
https://arxiv.org/pdf/math/0404335.pdf
a pag 107 (119 del file pdf) concludendo che più guardi da vicino la casualità, meno la vedi.


L'idea di base è invece citata a pag. 53 (65): se una serie di numeri può essere "compressa" allora possiamo dire che segue una legge. La miglior legge è quella che comprime di più. Se non puoi comprimere la serie allora è irriducibile, casuale.

Quell'articolo e questo libro costituiscono, penso, la base per ogni discussione sul tema che hai proposto.

fp
Received on Thu Oct 24 2019 - 00:23:20 CEST

This archive was generated by hypermail 2.3.0 : Sun Nov 24 2024 - 05:10:03 CET