Il 16/09/21 22:09, Roberto Deboni DMIsr ha scritto:
> On 16/09/2021 12:25, Elio Fabri wrote:
>> Giorgio Pastore ha scritto:
>> > Giustificare per bene ogni parola della frase precedente
>> > richiederebbe uno sforzo non da poco e, a mia
>> conoscenza, nessuno si
>> > è premurato di farlo finora. La sensazione di restare
>> nell'
>> > "handwaving" resta molto forte. Poi ci si può anche
>> prendere. O si
>> > possono fare scivoloni...
>> In effetti...
>> Sono andato a leggere l'articolo di Vopson ma mi sono
>> fermato subito,
>> perché ci sono un sacco di cose che non capisco.
>>
>> Esempio:
>
>> "A computational process creates digital information via
>> some sort of
>> physical process"
>
> La deve vedere come la definizione di "informazione digitale",
> cio' che viene prodotta dai processi di calcolo.
ma quella giustamente non è informazione creata : quei dati
non aggiungono nulla all'informazione contenuta
nell'algoritmo stesso. In altre parole un algoritmo è la
forma più compressa che si può produrre a partire
dall'insieme (completo ? campioni ?) di dati.
O detto diversamente i dati prodotti hanno ridondanza
informazionale.
Cmq ai fini del peso, per stimare l'entropia di tali dati,
penso conti solo la loro massima compressibilità teorica :
più sono comprimibili più sono ordinati. E in teoria un
insieme di dati generati algoritmicamente senza sorgenti di
rumore esterno, è comprimibile al massimo alle informazioni
codificate nell'algoritmo stesso, operatori, parametri,
scelte, etc.
Una sorgente stocastica pura, che produce dati
incomprimibili con qualsiasi algoritmico, equivarrebbe alla
chiavetta con la massima entropia.
Ad ogni modo io resto del punto di vista che ANCHE l'aspetto
energetico, scaturente dalle relazioni di prossimità tra
magneti e/o condensatori, coi loro piccoli campi che
interagiscono lateralmente in modo diverso secondo le
orientazioni relative, e eventualmente persino tensioni
meccaniche generate e congelate nel materiale, diano un loro
proprio contributo "energetico" alla massa totale.
>
>> Io già non capisco come un calcolo possa creare informazione.
>
> Lei pensa a "informazione" come un "laico della fisica" intende
> lavoro rispetto a cio' che e' il "lavoro" per la fisica.
> Invece nella teoria della informazione, il termine
> "informazione"
> ha un significato ben preciso, come "lavoro" lo ha nella
> fisica.
> Ripeto, cio' che non ha capito e' in realta' una semplice
> definizione, quindi non c'e' nulla da capire :-)
>
>> So benissimo che da un po' di tempo a questa parte un
>> sacco di fisici
>> riempiono i loro scritti di "informazione" in tutte le
>> salse, senza
>> mai definire ciò di cui parlano.
>
> Non ho presente chi siano questi "fisici", ma ho studiato
> Shannon
> fin dalla fine degli anni '70, dove "informazione" era una
> variabile
> ben definita e misurabile.
>
>> Mi sembra anzi che quella parola se significa qualcosa non
>> abbis
>> niente a che vedere con quella di Shannon.
>
> Proviamo cosi': se guardiamo al singolo evento digitale,
> potremo
> anche dimostrare una violazione della regola, ma provi a vedere
> la cosa in modo "termodinamico". Ovvero, guardiamo alle
> celle di
> memoria in massa, come un sistema termodinamico, ed ecco allora
> che tutto ha un senso ... statistico :-)
>
>> Ma se non si sa di che informazione si sta parlando, come
>> si fa a
>> connetterla con qualsiasi entropia?
>
> L'informazione e' semplicemente cio' che viene prodotto dal
> calcolo. Termodinamicamente non serve entrare nel caso dello
> specifico risultato, anzi e' controproducente (un sistema
> termodinamico, in astratto si potrebbe calcolare considerando
> la singola particella ... avendo sufficiente capacita' di
> calcolo, ma nella pratica siamo felici della approssimazione
> termodinamica considerando l'insieme statistico).
>
>> Altro esempio la fig. 1, dove ci sono tre esempi di "erase":
>> - mettere tutti i bit a 0
>> - mettere tutti i bit a 1
>> - mettere tutti i bit in "neither 0, nor 1 state".
questo punto non mi era chiaro per niente.
Fermo restando che l'informazione è stoccata in forma
ANALOGICA (una % della saturazione magnetica, una frazione
della carica totale che il condensatore può portare, etc),
che viene poi digitalizzata mediante interpretazione
(immagino del tipo : se la magnetizzazione supera una data
soglia, forse arbitraria forse no, allora il BIT è letto 1,
se è inferiore è letto 0), non capisco né il senso né il
modo di scrivere un bit "fuzzy".
Come si comporta la testina o il "lettore" della quantità
analogica, quando la quantità memorizzata ha esattamente il
valore soglia ? Mi verrebbe da pensare "undefined".
Mettere tutti i granuli analogici a questo valore (costante
e uniforme) della magnetizzazione o della carica, cmq, non
mi pare affatto uno stato di massima entropia del sistema,
anzi, mi pare equiparabile ai due sistemi estremi tutti 1 o
tutti 0 in senso entropico-statistico ... in senso
energetico l'interazione dovrebbe essere più debole però.
Una vera randomizzazione "fisica" (= analogica) produrrebbe
una distribuzione caotica dei valori della grandezza
(magnetizzazione o carica immagazzinata), che poi verrebbe
letta come una certa frazione di bit 1 e 0 (in circa uguali
quantità) più una certa altra frazione di bit "undefined",
la cui frequenza è proporzionale all'ampiezza del range
(centrato sul valore di soglia) nel quale la testina si
rifiuta di interpretare il bit come sufficientemente nitido.
Pur non sapendo niente mi sembrerebbe strano che la testina
sia costretta a interpretare sempre e comunque in modo
dicotomico. Dovrebbe pur essere cosciente di campi troppo
deboli (bit smagnetizzato) e non produrre una lettura logica
valida (restituendo boh, forse appunto undefined, forse
errore di lettura o chissà)
>> Quest'ultima l'autore la chiama "true erase operation".
>
> E l'entropia pura ...
>
>> Nel testo fa l'esempio di una memoria magnetica e secondo
>> lui il vero
>> "erase" significherebbe portare tutti i bit in uno stato
>> di "total
>> demagnetization" in modo che non si possa identificare né
>> un 1 né uno
>> 0.
In questo senso cmq è abbastanza diverso il caso di una
cella MAGNETICA vs una cella a CONDENSATORE.
Il magnetismo ha in effetti un segno, e lo zero della scala
è ragionevolmente uno stato smagnetizzato o a
magnetizzazione in valore assoluto troppo debole.
Invece con la carica, vista la presenza di diodi, non saprei
se si possa polarizzare un condensatore in entrambi i sensi,
e boh, mi verrebbe da pensare che la carica assuma solo i
valori negativi (o solo positivi), zero incluso.
Lo stato totalmente smagnetizzato, corrisponde di certo alla
MASSIMA entropia FISICA (nel senso che i domini magnetici,
che esistono perché ci sono sempre nei ferromagnetici, sono
orientati A CASO), ma non è certo la massima entropia LOGICA
(perché sono tutti bit erased / undefined, è uno stato molto
uniforme).
Penserei che ai fini della massa, conti la prima, e la
seconda solo in modo indiretto, mediato dalla prima.
La situazione invece di bit 1 e 0 random, totalmente random,
comporta disordine a scala grossa (in senso atomico) ma
ancora ordine locale, perché esistono larghi raggruppamenti
di domini magnetici orientati nei dintorni della
"parallelitudine" (lol)
in effetti l'argomento entropia in senso "materiale"
(analogico) e in senso digitale non mi sembra poi così univoco
>
>> Che provasse a dirlo a un ingegnere elettronico...
>
> Che direbbe cosa ?
--
1) Resistere, resistere, resistere.
2) Se tutti pagano le tasse, le tasse le pagano tutti
Soviet_Mario - (aka Gatto_Vizzato)
Received on Fri Sep 17 2021 - 14:13:22 CEST