Re: Espansione libera di un gas nel vuoto (senza contenitore)

From: Giorgio Pastore <pastgio_at_units.it>
Date: Thu, 04 Oct 2012 23:41:41 +0200

On 10/4/12 4:44 PM, Soviet_Mario wrote:
....
> Tu conosci già quel filone della termodinamica dei sistemi di non
> equilibrio ? Anche il tuo parere sarebbe interessante.

Con una battuta potrei rsponderti che la cosiddetta termodinamica di non
equilibrio non esiste :-)
E' un fatto che ci sono diverse relazioni, teorie, pezzi di teoria
applicabili in condizioni di non equilibrio. Una vera trattazione
organica mi sembra ancora da venire. Ma per il semplice motivo che dire
non-equilibrio e' facile. Il difficile comincia quando ci si rende conto
che si possono realizzare diversi tipi di non equilibrio. Ognuno con le
sue problematiche. Basta pensare alle differenze enormi tra sistemi
lievemente perturbati dall' equilibrio, sistemi non di equilibrio ma
stazionari, sistemi caotici, sistemi perturbati dall' esterno,....

> Esiste qualche definizione fisica del grado di disordine di un sistema
> arbitrario ?

Disordine di che ? :-) L' entropia misura benissimo il disordine nella
distribuzione dell' energia nello spazion delle fasi per un sistema all'
equiibrio. Ma questo ha poco a che vedere col disordine spaziale delle
configurazioni, savo in casi particolari. Altrisistemi mostrano ordine
nello spazio dei momenti,....

> In teoria dell'informazione ho letto che si parla di "entropia di una
> sorgente", ed è qualcosa che pone un limite alla compressibilità dei
> dati lossless.
> Ma questa entropia in che relazione sta con quella termodinamica ?

L' entropia di Shannon, quella della teoria dell' informazione puo'
essere calcolata per qualsiasi distribuione di probabilita'. Se usi le
distribuzioni di probabilita' dela meccanica statistica, ottieni le
corrispondenti entropie "alla Gibbs" dei differenti ensembles.

> Altro pensiero.
> Assunto che tutte le variabili termodinamiche (prima pensavo solo le
> intensive pure, ora non so, forse anche le mezze estensive o come si
> chiamano)

No, no, sono estensive. I discorsi "prima del limte termodinamico" non
sono rilevanti.


> sono definite solo per un insieme abbastanza numeroso, quanti
> elementi contiene un insieme abbastanza numeroso ?

Intendi dire quantita' medie? Bastano poche particelle. Qualche decina,
per avere comportamenti gia' prossimi a comportamenti termodinamici, a
patto di scegliere le opportune condizioni al contorno.

> Potrebbero essere ... che so, anche solo 40 ?
> Il numero è scelto a caso ma in modo un po' ironico.

Le prime simulazioni numeriche riguardavano sistemi di 32 particelle con
condizioni periodiche. Buona parte di quei risultati regge ancora dopo
decenni.

> Se viene mescolato un mazzo di 40 carte ordinato, quale forza di natura
> fisica le spinge a diventare disordinate ?

La forza dei rapporti numerici tra nuero di configurazioni dette
"ordinate" e quelle "dette" disordinate.

> Detto altrimenti, in cosa consisterebbe questo disordine ?
> Lo chiedo perché qui ciò che è ordinato è puramente arbitrario e
> convenzionale : ogni stato "disordinato" è unico tanto quanto una
> sequenza di scale reali.

Certo. Ma data una definizioen poi ci applichi il calcolo delle
probabilita' e tutto funziona a dovere.

> Cosa fa si che questi stati limite restino isolati e rari e gli altri
> sia alleino nella loro indistinguibilità e diventino numerosi ?

Banalmente che certi casi (macrostati) sono incomparabilmente piu'
numerosi di altri.

> MA cmq sia vorrei capire se questo mescolamento di carte ha un qualche
> legame fisico, per la natura stessa del processo disordinante e la sua
> irreversibilità, in comune con la dissoluzione di un sale in acqua o col
> mescolamento di gas diversi. E se ce l'ha, come si potrebbe chiamare
> quel qualcosa in comune che denota spontaneità ed irreversibilità anche
> in assenza di flussi termici o d'altra forma d'energia.

Stai cercado di dare un nome all' enrtopia di Shannon. E qui torna
utile ripetere la ben nota storiella secondo cui (riporto da wikipedia
inglese ( http://en.wikipedia.org/wiki/History_of_entropy )


In 1949, however, when Shannon had been working on his equations for
some time, he happened to visit the mathematician John von Neumann.
During their discussions, regarding what Shannon should call the
“measure of uncertainty” or attenuation in phone-line signals with
reference to his new information theory, according to one source:[10]
“ My greatest concern was what to call it. I thought of calling it
‘information’, but the word was overly used, so I decided to call it
‘uncertainty’. When I discussed it with John von Neumann, he had a
better idea. Von Neumann told me, ‘You should call it entropy, for two
reasons. In the first place your uncertainty function has been used in
statistical mechanics under that name, so it already has a name. In the
second place, and more important, nobody knows what entropy really is,
so in a debate you will always have the advantage. ”

According to another source, when von Neumann asked him how he was
getting on with his information theory, Shannon replied:[11]
“ The theory was in excellent shape, except that he needed a good name
for “missing information”. “Why don’t you call it entropy”, von Neumann
suggested. “In the first place, a mathematical development very much
like yours already exists in Boltzmann’s statistical mechanics, and in
the second place, no one understands entropy very well, so in any
discussion you will be in a position of advantage.


:-)

Giorgio
Received on Thu Oct 04 2012 - 23:41:41 CEST

This archive was generated by hypermail 2.3.0 : Wed Sep 18 2024 - 05:10:20 CEST