Entropia & disordine

From: Giorgio Pastore <pastgio_at_univ.trieste.it>
Date: 2000/01/09

Proprio in questi giorni sto finendo di rileggere bellissimo libro di
H.B. Callen "Termodynamics and an introduction to Thermostatistics"
nella seconda edizione. A suo tempo avevo studiato la termodinamica
sulla prima edizione e l' avevo trovato in assoluto il miglior testo di
approfondimento sull' argomento. (Infinitamente meglio di tutti i Fermi
e Zemansky che continuano ad imperversare nelle aule universitarie, IMHO).

Nella seconda edizione ho scoperto nel capitolo 17 (chissa, forse c'era
anche nella prima ma non lo ricordo). Una lucidissima esposizione dell'
ambito tecnico in cui e' lecito identificare entropia e disordine.

Viste le discussioni che si stanno svolgendo su un paio di threads,
penso di fare cosa utile riportando una sunto dei punti rilevanti.

1) il concetto di ordine ( la sua negazione, il disordine) e'
apparentemente familiare a tutti. Per esempio, una successione di
lettere e' generalmente riconosciuta come ordinata se corrisponde ad una
parola elencata sul dizionario.
Lettere disordinate, fanno pensare ad una scimmia che preme a caso i
tasti di un sistema di scrittura. Tuttavia, un testo apparentemente
disordinato o casuale secondo il linguaggio ordinario, potrebbe essere
il risultato di una codificadi un messaggio perfettamente "ordinato".
Gli esempi potrebbero continuare ma il punto chiave e' che ordine o
disordine sono concetti vaghi finche' non si dice secondo quale
criterio. I criteri pero' possono essere diversi ed anche contrastanti.

2) occorre percio' definire bene il tipo di ordine a cui siamo
interessati dal punto di vista della termodinamica statistica. Di fatto
quello che e' possibile fare in meccanica statistica e' di definire il
grado di disordine NELLA DISTRIBUZIONE DEL SISTEMA TRA I POSSIBILI MICROSTATI.

3) Avendo cosi' ristretto il senso della parola ordine/disordine,
possiamo, dal punto di vista tecnico, introdurre una misura del
disordine di questa distribuzione mediante lo stesso formalismo
sviluppato da Shannon per la teoria dell' informazione.

4) Come e' stato dimostrato da Khinchin, poche richieste ragionevoli su
questa misura del disordine in termini della distribuzione di frequenze
tra microstati, f(j), permettono di arrivare ad una formula per il "disordine":

"disordine" = -k somma_su_j f(j) log ( f(j))

dove k e' una costante positiva. Questo "disordine" e' massimo
permicrostati equiprobabili. In tal caso vale:

"disordine" = k log Omega

con Omega = numero di microstati.

Quindi, conclude Callen,
"Per un sistema chiuso, l' entropia corrisponde alla misura quantitativa
di Shannon del massimo possibile disordine nella distrubuzione del
sistema sui possibili microstati".

Qui finisco il riassunto-citazione ed aggiungo solo due commenti:

a) entropia = disordine si', ma SOLO nel senso tecnico di misura del
numero dei microstati accessibili al sistema isolato.

b) entropia = disordine no, se pensiamo all' ordine "macroscopico" del
sistema (quello che tecnicamente si potrebbe chiamare la comparsa di un
parametro d' ordine diverso da zero). Il motivo per questo e' nella gran
quantita' di controesempi che si possono trovare appena si va al di la'
dei soliti gas ideali.


Giorgio Pastore
Received on Sun Jan 09 2000 - 00:00:00 CET

This archive was generated by hypermail 2.3.0 : Wed Feb 05 2025 - 04:23:33 CET