Re: entropia e informazione

From: Elio Fabri <elio.fabri_at_fastwebnet.it>
Date: Fri, 25 Oct 2019 17:35:43 +0200

Soviet_Mario ha scritto:
> uhm, ho già un dubbio "grave" a metà di pagina 5 del documento 39
Comincio intanto col ringraziarti.
Le osservazioni che fai sono tutte pertinenti e ora cercherò di
risponderti.
Ma prima devi sapere che sei *il primo* che fa commenti o critiche a
quegli scritti, che come puoi vedere hanno più di 16 anni.

Tutta la serie fu inizialmente pubblicata su una rivista,
"Naturalmente", edita a cura della sezione di Pisa della ANISN (Asooc,
Naz. Insegnanti di Scienze Naturali).
La rivista ha cessato le pubblicazioni 5 anni fa e per questo motivo
ho riprodotto tutte le puntate sul mio sito.
Puoi anche trovarle in parte in
https://www.lanaturadellecose.it/la-pagina-di-elio-fabri-48
dove c'è anche l'indice ragionato che chiedi.

La destinazione iniziale spiega anche in parte i difetti che hai
rilevato: con l'insegnante di scienza medio bisogna andarci molto
cauti. Troppa precisione, discorsi troppo "matematici", gli fanno
perdere la bussola.
Può darsi che già così come sono siano un po' troppo al di là di quel
target...

> Dopo tuttavia si usa la probabilità come CERTEZZA, ponendo un limite
> al numero totale di possibili messaggi, e questo non lo capisco per
> niente.
> Come può un messaggio improbabile essere escluso dal set dei
> possibili messaggi con sicurezza ? Boh ....
Infatti non può.
E' per questo che il solo risultato corretto è quello che cito, come
limite.
Però attento: parlare di limite non vuol dire parlre di un msg
infinitamente lungo.
Quando scrivo

"se il messaggio è molto lungo, la quantità d'informazione trasmessa
è 0.81 L bit, invece di L bit"

devi leggere

"il limite della quantità d'informazione trasmessa qundo L tende a
infinito è 0.81 per ogni bit trasmesso"

dove la parola "limite" ha un preciso significato matematico:
- comunque scelto un eps>0, esiste un L tale che se la lunghezza del
msg è >L la quantità d'inform. trasmessa per bit è > 0.81 - eps.

Che "limite" significhi questo, dovrebbe saperlo chiunque abbia
frequentato un liceo (almeno) scientifico.
Nella pratica però non ci si può contare neppure con laureati in
materie scientifiche diverse da Matematica, Fisica e forse
Informatica.

E' questo l'ineludibile dilemma della divulgazione scientifica a
qualsiasi livello: se scrivi le cose come andrebbero scritte, non ti
capisce quasi nessuno. Se vuoi che qualcosa arrivi, sei costretto a
scrivere cose più o meno gravemente errate (come tu hai acutamente
colto in questo caso) al punto che di fatto nei casi peggiori snaturi
ciò che vuoi trasmettere.

> anche a pag 6 ritrovo lo stesso trattamento della probabilità in
> certezza,
> ...
> quel che non capisco è come sia possibile estrapolare dalla quantità
> di informazione media a quella del singolo messaggio (SE si può ....
> questo nel testo sinora letto non è esplicitato).
Infatti non si può, o meglio si può con prob. tendente a 1 al tendere a
infinito della lunghzza del messaggio.

> Sostanzialmente il mio dubbio come si possa dedurre qualcosa di
> utile dallo scenario infinito (che è l'unico caso in cui la frequenza
> probabilistica assume un'aura di sicurezza) a suoi sempre più
> ristretti sottoinsiemi dove le frequenze non sono più particolarmente
> mandatorie (e se lo sono non mi è chiaro perché lo sono)
A parte il "mandatorie" (io direi "vincolanti" ma tu usi ogni tanto
infilare dei barbarismi presi dall'inglese :-) ) hai ragione.

In sostanza quello che fai è trasformare una situazione in cui
qualcosa accade con una prob. p che può essere anche molto minore di 1
in una in cui la prob. dell'evento che t'interessa diventa vicina a 1
quanto vuoi.
Ma rimane sempre una probabilità, e non obbliga affatto la
corrispondente frequenza.
Curiosamente dovrò rispondere qualcosa di simile in ism a Gino di
Ruberto, che parla in questo senso di "limite debole" là dove io direi
"limite in probabiità".
Non so se "limite debole" sia un termine usuale nella teoria della
probab., ma so che ha un preciso significato, del tutto diverso,
nella teoria degli operatori lineari, importantissima per la MQ.
Quindi non vorrei confondere.

> sottolineo che non sto invece mettendo in dubbio che un messaggio con
> forti asimmetrie di frequenza sia più comprimibile : mi suona
> ragionevolissimo. Solo che mi pare sempre un ragionamento "ex post"
> mentre la formula generica citata mi pareva volesse avere un carattere
> PREDITTIVO che non capisco molto.
E' predittivo solo nel senso che ho detto.
Per es. in presenza di runore, usando una codifica ridondante (per es.
alla Huffman) puoi rendere piccola quanto vuoi la probab. di una
ricezione errata, al prezzo di ridurre il rate di trasmissione (bit al
secondo) per quel dato canale.
Se non ci fosse questo, tutte le comunicazioni spaziali e perfino i
GPS non potrebbero funzionare.
*Empiricamente* sappiamo che funzionano.
Ma non sono i teoremi che possono "mettere le braghe alla realtà".
Questo è un errore frequentissimo...

> a inizio pagina 5 ho ancora un altro dubbio: come può il trasmittente
> conoscere le posizioni degli errori. E' sempre vero? Mi sembra una
> situazione alquanto ristretta. Più in generale lo scenario più
> frequente mi sembrerebbe quello in cui ENTRAMBI gli attori della
> comunicazione non conoscano le posizioni.
Ma certo.
Qui ho tentato (in una forma forse infelice) di trasmettere l'idea di
come la ridondanza possa permettere (con alta probabiità) la
correzione degli errori).
Visto che sai qualcosa dei codici di Huffman sai che cosa volevo in
realtà dire.

Voglio trasmettere un msg binario in cui ogni singolo bit, indip.
dagli altri, ha una prob. di errore pari a p.
Assumo che p sia abbastanza piccola da poter trascurare la probab. che
nel msg compaiano due errori (questo non è un limite insuperabile: ci
rende la vita più difficile, ma occorrendo si può andare oltre).
Per es. un solo errore su 7 bit.
Allora debbo solo scovare un certo insieme di msg diversi, sui 128
possibili, tali che
1) un errore non trasformi mai un msg lecito in un altro pure lecito
2) un msg illecito ricevuto mi permetta di risalire al msg lecito da
cui proviene (a causa di un singolo errore su 7 bit).
Si può dimostrare che in queste ipotesi con 7 bit ne puoi trasmettere
4 privi di errori (codice 4/7).

Questa codifica fallisce solo se siamo così sfortunati che invece il
gruppo di 7 bit incappa in due errori.
Quindi non abbiamo veramente azzerato la probab. di errore, ma se p
era piccola p^2 è molto più piccola, quindi ci abbiamo guadagnato, al
prezzo di ridurre a un fattore 4/7 la velocità di trasmissione.

A mio parere se in quella puntata avessi fatto un discorso come
questo, avrei perso praticamente tutti i lettori.
(Come ho già scritto, ho il sospetto di averli persi già con le
semplificazioni che ho fatto :-( )
                                                           
                                     
-- 
Elio Fabri
Received on Fri Oct 25 2019 - 17:35:43 CEST

This archive was generated by hypermail 2.3.0 : Fri Nov 08 2024 - 05:09:58 CET