Re: Seconda legge della termodinamica

From: Giorgio Pastore <pastgio_at_univ.trieste.it>
Date: Tue, 03 Feb 2004 23:58:28 +0100

Denis Flex wrote:
....
> Se l' entropia � la quantita di disordine equivale alla quantita di
> informazione.
...
E' un argomento discusso in passato.
L' entropia termodinamico-statistica ha a che fare col disordine solo in
un senso molto tecnico: quello di massimo "disordine" ovvero uniformita'
nella distribuzione di probabilita' nello spazio delle fasi. Col
disordine spaziale ha a che fare solo nel caso molto particolare (e
probabilmente fuorviante) del gas ideale. I sistemi con interazione
(tutti quelli reali) possono benissimo avere configurazioni spazialmente
ordinate come configurazioni di massima entropia.

...
> Portando la questione in termini fisici diciamo che un aumento di
> entropia dovrebbe corrispondere ad un aumento del disordine delle
> posizioni degli atomi presenti in un certo quantitativo di spazio.

Vero solo per il gas ideale.

> Tramite le leggi fisiche si pu� in linea di principio descrivere
> questa posizione o almeno si pu� stabilire con una certa accuratezza
> la posizione di questi atomi, ma se questo disordine aumenta sempre
> comporta che la formulazione matematica minima con la quale si pu�
> rappresentare questa situazione deve essere sempre pi� grossa.
> In altri termini ancora il programma pi� piccolo che rappresenta la
> posizione di questi atomi aumenta la sua dimensione continuamente nel
> tempo per seguire il principio della termodinamica ma se questo fosse
> vero anche le leggi matematiche dovrebbero aumentare sempre la loro
> complessit� poich� si puo' dimostrare che il linguaggio matematico non
> � altro che un altro linguaggio universale.

Un programma di simulazione numerica e' in grado di descrivere un
qualsiasi stato termodinamico (beh, diciamo lontano dai punti critici)
senza necessita' di cambiamento. Quindi, se usi la sua lunghezza per
misurare l' entropia computazionale, troveresti che questa non dipende
dallo stato termodinamico. E' vero che non e' chiaro che sia "il piu"
piccolo. Ma poiche' si tratta di programmi estremamente piccoli, e'
difficile immaginare grandi variazioni di entropia computazionale.
Non so. Forse questo potrebbe essere un buon argomento per la tesi
contraria: non c'e' rapporto tra entropia computazionale associata ad un
sistema statistico ed entropia termodinamica... Ci pensero' un po' su'.




> Ritengo che le soluzioni siano 2 o l' entropia non cresce sempre ma
> solo fino ad un certo punto ( un altra conseguenza di una continua
> crescita sarebbe che l' universo contiene una quantita di memoria
> infinita, ma non la pi� incredibile di certo ) oppure l' entropia non
> coincide con la rappresentazione del caos e percio' con la quantit� di
> informazione .

Qui bisogna intendersi sul significato di crescita dell' entropia.
Cresce al variare di che ?
La termodinamica dice una cosa un po' diversa da una "crescita costante
ed incontrollata. Dice che:

1. In un sistema isolato all' equilibrio e' caratterizzato da un valore
costante dell' entropia.

2. Se in questo sistema abbiamo dei vincoli (partizionamenti o
disomogeneita' di altro tipo) e rimuoviamo i vincoli, allora l' entropia
del sistema di equilibrio finale non potra' essere minore di quella
iniziale.

Una volta rimossi tutti i vincoli pero' il sistema isolato si attestera'
su un nuovo valore (finito e costante) dell' entropia.

Sull' altro fronte non conosco alcuna dimostrazione convincente di una
sostanziale identita' tra entropia termodinamica e entropia nel senso
della teoria dell' informazione o della complessita'. Percio' continuo a
considerarli dei concetti correlati ma differenti.

Giorgio
Received on Tue Feb 03 2004 - 23:58:28 CET

This archive was generated by hypermail 2.3.0 : Fri Nov 08 2024 - 05:10:26 CET