"Giorgio Pastore" <pastgio_at_univ.trieste.it> wrote in message
news:cjrd32$lq1$1_at_newsfeed.cineca.it
> Pangloss wrote:
> ...
> > 1) Nella prassi fisica, il nome "entropia" viene attribuito a tutte le
> > grandezze (definite operativamente) che soddisfano gli assiomi di Callen.
>
> Non solo. Il nome entropia comprende anche oggetti che non soddisfano ad
> alcuni delgi assiomi di Callen. P. es. ci sono entropie non estensive
> (cfr. Tsallis).
L'entropia � un caso particolare di entropia di Tsallis.
Comunque queste entropie sono definite sulla base di ipotesi
di probabilit� a priori. Hanno origine su un terreno strettamente
statistico. Tuttavia esistono difficolt� considerevoli nel dedurre la
statistica prevista dai teoremi del limite centrale generalizzato
sulla base delle entropie di Tsallis. In passato quando c'era
evidenza di sistemi che danno luogo a strutture ordinate era
di moda parlare di neghentropia. Perch� l'entropia non era al
massimo assegnato sulla base di un non meglio giustificato
criterio di equiprobabilit�. Una stupida osservazione portava
a dire che una galassia non � al massimo dell'entropia, quindi
il potenziale coulombiano doveva essere fonte di neghentropia.
Idem, se uno guarda ad una scala di risoluzione abbastanza fine
trova sempre delle fluttuazioni, allora dovremmo dire di essere
di fronte a neghentropia. Un sistema complesso capace di generare
disequilibrio sarebbe una sorgente di neghentropia. Partiamo
dalla galassia che � il caso pi� semplice. Cosa succede in quel
caso? Quale � lo spazio delle configurazioni veramente accessibile
a quel sistema? Quale lo spazio delle fasi? Ecco allora che �
in termini di questi enti che si deve parlare di entropia.
E' difficile, � un ambito di ricerca attiva e porta a molte
belle domande. Dato uno spazio di misura che descrive
ad esempio lo spazio delle fasi di un sistema. Se
consideriamo tutte le fasi del sistema compatibili con una
certa descrizione del sistema ecco che siamo nelle condizioni
di parlare di entropia. Un'altro modo � quello di seguire idealmente
l'evoluzione del sistema per lo spazio delle fasi, inteso come spazio
di misura, dove � data una partizione. Questo genera una sequenza
simbolica, questa idea � stata sfruttata da Anosov per legare le
propriet� della dinamica con il concetto di entropia di Shannon
e di Kolmogorov (non sono la stessa cosa, pure se esistono risultati
di convergenza asintotica). Come si legano queste definizioni
con la termodinamica? Ne parler� un'altra volta, ma i pi�
informati dovrebbero gi� aver intuito.
> > 2) In questo senso, la misura del disordine proposta da Shannon per la
> > teoria dell'informazione e' una definizione operativa di entropia.
>
> Preferisco considerarla come un' entropia che misura il contenuto di
> informazione. Il termine disordine e' troppo vago a meno di non
> circoscriverne il significato (e concordo che nel caso dei segnali si
> puo' fare).
> > 3) Esistono dunque vari concetti di entropia, non sempre fisicamente
> > identificabili fra loro (ad es. per una miscela di sale e zucchero e'
> > significativa l'entropia del disordine, ma non l'entropia termica).
>
> Di nuovo. Ancora di piu' nel caso dei sistemi fisici, occorre intendersi
> bene sul significato della parola ordine prima di tentare
> un'identificazione dell' entropia come misura del disordine.
>
> Se cerchi in rete dovresti trovare qualche mio vecchio post sull' argomento.
>
> Giorgio
--
Posted via Mailgate.ORG Server - http://www.Mailgate.ORG
Received on Mon Oct 04 2004 - 22:55:28 CEST