Re: Seconda legge della termodinamica

From: Denis Flex <_NOSPAM_dnsflex_at_yahoo.com>
Date: Mon, 02 Feb 2004 20:14:24 GMT

On Mon, 02 Feb 2004 16:08:03 +0100, Enrico SMARGIASSI
<smargiassi_at_trieste.infn.it> wrote:

>Denis Flex wrote:
>
>>La seconda legge della termodinamica dice che l' entropia e' sempre in
>>aumento.
>>
>Nei sistemi isolati.
>
>>In poche parole dire che l' entropia e' sempre in aumento e' la stessa cosa
>>che dire che la quantita di informazione aumenta sempre
>>
>Questa non l'ho capita. Puoi spiegarti meglio?

Se l' entropia � la quantita di disordine equivale alla quantita di
informazione. La quantita di informazione � definita in base alla
dimensione della complessit� di Kolmogorov che rappresenta i dati, la
quale aumenta all' aumentare del disordine.
Una situazione di massimo disordine si ha quando la dimensione della
complessit� di Kolmogorov non � minore dei dati da rappresentare.
Portando la questione in termini fisici diciamo che un aumento di
entropia dovrebbe corrispondere ad un aumento del disordine delle
posizioni degli atomi presenti in un certo quantitativo di spazio.
Tramite le leggi fisiche si pu� in linea di principio descrivere
questa posizione o almeno si pu� stabilire con una certa accuratezza
la posizione di questi atomi, ma se questo disordine aumenta sempre
comporta che la formulazione matematica minima con la quale si pu�
rappresentare questa situazione deve essere sempre pi� grossa.
In altri termini ancora il programma pi� piccolo che rappresenta la
posizione di questi atomi aumenta la sua dimensione continuamente nel
tempo per seguire il principio della termodinamica ma se questo fosse
vero anche le leggi matematiche dovrebbero aumentare sempre la loro
complessit� poich� si puo' dimostrare che il linguaggio matematico non
� altro che un altro linguaggio universale.
Partendo da un altro punto di vista diciamo che attualmente sarebbe
possibile ( anche se impresa ardua) rappresentare con un programma
basato sulle leggi fisiche tutte le nuove posizioni di questi atomi,
ma fare questo significa porre un limite all' entropia , cio� se viene
fatto questo programma la sua C.K. � fissa per cui l' entropia �
fissa.
Questo � il mio dubbio.
Ritengo che le soluzioni siano 2 o l' entropia non cresce sempre ma
solo fino ad un certo punto ( un altra conseguenza di una continua
crescita sarebbe che l' universo contiene una quantita di memoria
infinita, ma non la pi� incredibile di certo ) oppure l' entropia non
coincide con la rappresentazione del caos e percio' con la quantit� di
informazione .

Ciao, Denis.
Received on Mon Feb 02 2004 - 21:14:24 CET

This archive was generated by hypermail 2.3.0 : Thu Nov 21 2024 - 05:10:28 CET