Re: entropia e informazione

From: <dimonio99_at_gmail.com>
Date: Sat, 26 Oct 2019 02:38:27 -0700 (PDT)

Il giorno mercoledì 23 ottobre 2019 23:18:02 UTC+2, Soviet_Mario ha scritto:
>
> Esiste qualche modo, come dire "matematico", per analizzare
> dei dati e capire quanto rumore bianco e quanta informazione
> "pregiata" contengano ?

E' una bella questione della quale mi ero interessato
un po' con un mio amico quando eravamo studenti.
Purtroppo siamo ingegneri elettronici, non informatici,
anche se devo dire che è sempre più difficile trovare
informatici interessati a questi aspetti.

Ad ogni modo la risposta generale alla tua domanda è no.
Poi esistono casi particolari.
Ad esempio, una sequenza di yottabit pseudocasuali conterrà
yottabit di informazione fino a quando non conoscerai
l'algoritmo che li ha generati. A quel punto la sequenza di
yottabit conterrà semplicemente un'informazione di poche
centinaia di bit, quelli necessari a descrivere l'algoritmo.

Da questa osservazione ci era venuta l'idea di porre le basi
di una teoria della relatività dell'informazione. Cioè
il contenuto di informazione di ogni oggetto non è definito
e assoluto, ma varia in funzione dell'osservatore, così come
uno stesso libro di Hawking contiene molta informazione per
uno studente di fisica mentre contiene zero informazione per
il cantante Achille Lauro.

Portando la teoria a estreme conseguenze, avevamo ipotizzato che
l'intero universo e la sua storia passata e futura che a
noi appaiono incomprensibili e casuali (a parte quel pochissimo
che abbiamo capito dalle osservazioni di migliaia di anni),
potessero essere descritti con "pochi" bit, quelli
che descrivevano lo stato dell'universo immediatamente precedente
il big bang.
E poi abbiamo lasciato perdere, anche pensando che il mondo
quantistico sfugge all'osservazione completa ed è imprevedibile.
Received on Sat Oct 26 2019 - 11:38:27 CEST

This archive was generated by hypermail 2.3.0 : Fri Nov 08 2024 - 05:09:58 CET