Gen 2009, 21:30, Elio Fabri <elio.fabri_at_tiscali.it> ha scritto:
> Tornando alla radiazione, la domanda mi pare che sia: si puo'
> associare un'entropia a una rad. e.m. che si propaga?
> La risposta e' si', ma il calcolo richiede la conoscenza della
> distribuzione spettrale e spaziale della raidazione.
> A rigore solo una radiazione nera ha una temp. definita, e quindi le
> puoi associare un'entropia pari a E/T, dove E e' l'energia
> trasportata e T la temperatura.
Mi risulta che ci sia un fattore 3/4, il 3 viene dalla dimensionalit�
spaziale, il 4 viene dalle dimensioni spaziali aumentate di una unit�, per
questo leggendo l'articolo linkato da Argo mi ha piuttosto stranito leggere
la definizione di entropia come T_00/T, infatti ci dovrebbe essere un
fattore 2. Come mi ha meravigliato il fatto che venga trattata un poco
ambiguamente come quantit� conservata, sia generata dai gradienti,
nonostante la presenza di giunzioni che potrebbero essere sorgenti di
entropia, ma il punto chiave qui non � certo il fattore, n� l'entropia
associata ad un tensore energia impulso in un sistema termodinamico, quanto
proprio la questione della definizione di una entropia per radiazione
elettromagnetica che non � in equilibrio radiativo con corpi termalizzati.
L'argomento � piuttosto importante in astrofisica, Ruggeri tratta l'entropia
come un campo aggiuntivo ai 10 tradizionali della relativit� generale, in
ambito astrofisico capita spesso in effetti di pensare a campi in parziale
equilibrio ed in interazione con la materia, rarefatta o densa che sia e
magari si riesce a definire uno stato di equilibrio locale, e penso che
qualche rilevanza l'abbia anche in questioni termodinamiche legate
all'assorbimento, ad esempio, di luce laser dove per� l'equilibrio �
lontanissimo, ma in quel caso esiste un modo per stimare la produzione di
entropia e valutare la propagazione di quella. In quest'ultimo caso oltre
alla eventuale polarizzazione conta certamente anche la collimazione.
Ricordiamo che fra i postulati fondamentali della statistica di equilibrio
(o quasi tale) c'� la circostanza che l'entropia, essendo definita dalla
molteplicit� degli stati microscopici compatibili con uno stato macroscopico
assegnato, deve essere un funzionale della distribuzione di probabilit�, e
deve essere funzione delle grandezze macroscopiche conservate del sistema:
generalmente le grandezze che si considerano sono energia, impulso e momento
angolare totale del sistema, tutto il resto lo si assume generalmente
soggetto a mixing: per quanto questa ipotesi sia piuttosto forte �
ragionevole che per tempi ragionevoli tutte le grandezze che non sono
esattamente conservate per ragioni di simmetria generale evolvano verso
l'equilibrio, la polarizzazione � generalmente fra quelle grandezze che si
assumono soggette a mixing.
Tuttavia l'argomento che solo gli integrali primi dovuti a simmetrie
universali siano conservati e quindi abbiano rilevanza nel dare struttura
alla distribuzione di equilibrio � un argomento relativamente fragile se
sottoposto ad uno studio critico di sistemi particolari, fanno eccezione
come noto vari sistemi che hanno integrali primi esatti o quasi esatti
dovuti a simmetrie intrinseche alla struttura della hamiltoniana di
interazione: uno dei pi� celebri � il sistema di Fermi Pasta Ulam, per
questo motivo non � da escludere
a priori che possano esistere sistemi di qualche interesse concreto,
oltrech� speculativo, nei quali la polarizzazione dei modi elettromagnetici
sia parzialmente conservata o debolmente modificata. Penso ad esempio
all'equilibrio radiativo in un sistema di cristalli liquidi attraversato da
luce o, meglio, un sistema astronomico di gas rarefatto. E vedo subito di
passare a spiegare il senso di quel "meglio".
Quando � importante considerare l'entropia trasportata da un campo? Quando
la scala temporale della produzione di entropia � grande rispetto alle scale
temporali della dinamica complessiva del sistema. Ad esempio nella
propagazione di un'onda acustica in un gas � lecito assumere che in prima
approssimazione la densit� di entropia sia conservata. Ora questo non mi
sembra che sia il caso di cristalli liquidi in interazione con radiazione
elettromagnetica, a meno di considerare situazioni molto particolari in cui
la velocit� di gruppo della luce diventi confrontabile con i tempi di scala
delle interazioni termo-meccaniche nel sistema, e sono casi limite ottenuti
per esempio "congelando" la luce sfruttando particolarit� di materiali molto
speciali, una situazione decisamente non pi� quotidiana di quello che pu�
essere la propagazione della luce in un gas astronomico. (dal punto di vista
di alcuni fisici c'� certamente uno shift di paradigma :-) e questi
argomenti potrebbero esser quotidiani, non certo un fisico che studia le
stelle, n� un fisico che studia le galassie vicine, ma forse per un fisico
che studia la produzione di luce di sincrotrone in getti questi argomenti
potrebbero essere importanti).
Torniamo allora per un attimo all'impulo ed al momento angolare: sono
generalmente esclusi dal gioco perch� quotidianamente si considerano sistemi
vincolati ad un laboratorio che rompe la simmetria traslazionale e
rotazionale, ma non quella per traslazione temporale, quindi si postula
un'entropia di
equilibrio che � funzione della sola energia. Ma il momento angolare torna
importanti se consideriamo sistemi rotanti, mentre per i sistemi in moto
rettilineo uniforme generalmente ci si dimentica dell'impulso assumendo come
al solito che si stia considerando un riferimento in moto traslatorio e
quindi
applicando il principio di invarianza galileiano o einsteniano. Non � per�
questo il caso di una radiazione elettromagnetica, perch� non � possibile
scegliere un riferimento solidale al "gas di fotoni collimati".
> > Pero' e' difficile rinunciare all'idea che a radiazione polarizzata
> > sia associata un'entropia minore di quella di un suo omologo non
> > polarizzata.
> Hai ragione, anche se non ci avevo mai pensato...
>
> > Se ne deve concludere che l'informazione relativa allo stato di
> > polarizzazione dei fotoni incidenti viene conservata nei moti
> > microscopici dei costituenti del corpo, di modo che nel caso di luce
> > polarizzata risultino meno "casuali" rispetto al caso della radiazione
> > non polarizzata ?
> Ne dubito, almeno nel caso di assorbimento da un metallo.
>
> Sarei portato a dire che se hai un insieme di n fotoni, tutti nello
> stesso stato di plarizzazione, l'entropia differisce (in meno) da
> quella dello stesso insieme non polarizzato per n*k*ln2.
> Pero' c'e' qualcosa che mi lascia dubbioso...
C'� un celebre esperimento astronomico in cui la considerazione della
statistica di un gas di fotoni emesso in condizioni di equilibrio, ma
altamente collimato ha importanza, � l'esperimento di Hanbury Brown Twiss.
In questo celebre esperimento le correlazioni a distanza nella radiazione
elettromagnetica hanno un'importanza cruciale. In effetti la struttura delle
correlazioni risente significativamente
della struttura dell'entropia (di equilibrio) per un gas di bosoni. E qui si
nota una curiosit�. Torniamo per un attimo al caso di equilibrio (un
articolo che mette bene in luce il rapporto che c'� fra le grandezze
effettivamente misurabili, anche da strumenti lontani, e la convergenza
all'equilibrio �
questo articolo di Eisenberg Horwitz:
http://star.tau.ac.il/~eli/PDFS/p13.pdf): un gas di bosoni all'equilibrio ha
entropia che risulta dalla somma dei contributi: -k g_i [n_i ln(n_i) +
(1-n_i) ln(1-n_i)] dove n_i � il numero di
occupazione di ogni singolo stato, g_i degenere, accessibile al sistema: n_i
� definito come il numero di particelle che occupano lo stato di indice i,
g_i volte degenere diviso per la degenerazione stessa dello stato. Questa
espressione, per gas fortemente degeneri, differisce significativamente
dall'espressione -k [ n ln(n) ] di Gibbs o di Von Neumann, che tuttavia �
quella pi� comunemente usata. La curiosit� dell'esperimento di HBT � che la
distanza della sorgente e la monocromaticit� dei rivelatori va a selezionare
una fascia ristrettissima di elementi dello spazio delle fasi, tanto che il
secondo termine, generalmente ininfluente diventa, indirettamente importante
nella spiegazione di quello che si osserva, in effetti il secondo termine
rimane trascurabile, ma non di meno cambia l'espressione per le correlazioni
in presenza di fluttuazioni rilevanti e l'osservazione di fotoni correlati a
distanza in una finestra temporale adeguata pu� essere inquadrata come
fluttuazione estrema. Non so se esistono esperimenti HBT che vanno a
guardare la correlazione in polarizzazione, ma di certo le osservazioni
sarebbero differenti nel caso di sorgente fortemente polarizzata rispetto al
caso di sorgente non polarizzata e la causa sarebbe da cercare nella diversa
degenerazione degli stati con il correlato sul numero di occupazione.
E' da notare che l'entropia di Von Neumann, nonostante questa particolarit�
che differisce dall'entropia effettiva per gas degeneri � molto usata come
sinonimo di entropia dei sistemi quantistici e come estensione dell'entropia
classica di Shannon o Kolmogorov. Ma temo che Kolmogorov avrebbe molto da
ridire sul modo in cui si pretende, talvolta, di applicare il suo
sofisticato apparecchio, quasi ignorando del tutto le conseguenze
dell'algebra di inclusione esclusione e le correlazioni in virt� di ipotesi
di indipendenza statistica.
E' importante notare che alla formula che ho scritto per l'entropia si
arriva semplicemente contando la molteplicit� dello stato i nel caso che il
suo numero di occupazione sia n_i. Per statistica di Bose questa
molteplicit� � C(g_i + n_i -1, n_i ) il cui logaritmo, per l'approssimazione
di Stirling ha l'espressione che ho riportato prima. Quello che cambia
rispetto all'entropia della luce nella stella � il numero di elementi su cui
andiamo a sommare. In questo discorso quello che lascia pi� perplessi � la
circostanza che l'entropia dipende dall'esperimento
considerato, per quanto la sorgente sia completamente ignara
dell'esperimento :-
) in verit� quello che conta � l'accoppiata stella, rivelatore. L'entropia
totale della luce nella sorgente non � ne pi� n� meno di quella che
impongono le considerazioni di equilibrio, pu� essere derivata in
approssimazione di equilibrio esatto e la derivata variazionale dell'energia
libera per punti
distanti � tale che le correlazioni spariscono a corta distanza, ma la
derivata variazionale dell'entropia rispetto al numero di fotoni rivelati da
rivelatori posti ad anni luce, va ad esplorare solo una porzione dello
spazio delle fasi, rilevante ai fini dell'esperimento, e ll derivata
variazionale � differente. La distanza si
comporta come un filtro dinamico. In altre parole l'entropia che stiamo
considerando � massima a parit� di entropia e di direzione di propagazione,
ovvero stiamo considerando una distribuzione differente da quella a fissata
energia, tanto differente che una trattazione classica del campo
elettromagnetico fornisce ugualmente la risposta esatta. E' dovuta a Purcell
la constatazione che la correlazione bosonica pu� essere riprodotta
dall'ipotesi che il campo elettrico vari in modo gaussiano nel tempo di
coerenza, combinata con una statistica puramente poissoniana per il numero
di fotoni rivelati. Fu questa la prima spiegazione delle osservazioni di
Hanbury Brown.
> > P.S. Adesso che ci ripenso, sono sicuro di avere letto di una
> > caratterizzazione del corpo nero ideale come l'emettitore che, ad una
> > data temperatura, produce radiazione con la massima entropia. Pero'
> > era su una rivista online che non riesco a rintracciare.
> Detto cosi' non mi e' tanto chiaro, e non sono sicuro che sia giusto.
> Sicuramente la radiazione nera e' - a parita' di energia - quella che
> ha la massima entropia.
>
> Pero' qui si tocca una questione seria: si puo' parlare di entropia
> per un sistema non in equilibrio?
La risposta � ovviamente s�, ma occorre sapere molto bene che cosa si sta
facendo ed avere una definizione molto precisa di sistema. Non mi sembra che
esista ancora un accordo completo sui sistemi lontani dall'equilibrio. E'
stato focalizzato da tempo che il problema � stabilire il rate di evoluzione
dell'entropia, le definizioni pi� semplici, come entropia di Shannon, o di
Kolmogorov, la trattazione di Ruelle, Sinai, ed i teoremi di Prigogine
basati sul teorema di Frobenius Perron, in ultima analisi come dialogano con
le quantit� effettivamente misurate? Questo problema � stato affrontato
molto approfonditamente in teoria della risposta lineare, ma per esempio la
luce lontano dalla sorgente o un laser che incidono su un blocco di materia
sono tutti oggetti lontani dal regime di risposta lineare. Per queste
situazioni occorre una teoria pi� complessa. In breve come si procede per i
casi esplorati da Ruelle? Perch� le grandezze entropiche abbiano qualche
possibilit� predittiva occorre che l'evoluzione temporale sia mixing. Ovvero
occorre che lo spazio delle fasi del sistema classico sia iperbolico, e per
i sistemi quantistici che lo spettro abbia delle propriet� chiarite dagli
studi di Gutzwiller e risprese per esempio da Jona Lasinio. Esistono molti
sistemi modello in cui queste qualit� possono essere controllate con
precisione: una classe fra tante � quella dei sistemi magnetici, per cui la
mappa del gruppo di rinormalizzazione risulta caratterizzato da insiemi di
Julia con singolarit� che si accumulano nei pressi dell'asse reale danno
luogo a transizioni di fase, per il teorema di Yang Lee. L'iperbolicit�
della mappa ha un ruolo chiave nel caratterizzare l'insieme di livello. In
queste situazioni critiche le fluttuazioni entropiche hanno un ruolo
importantissimo. Uno dei sistemi paradigmatici per le applicazioni �
l'opalescenza critica. Una delle applicazioni pi� interessanti degli ultimi
anni consiste nel cercare di ricostruire dalla conoscenza di alcune funzioni
di risposta del sistema, una funzione di Hamilton efficace per il sistema
cercando di ripetere su una maggiore variet� di sistemi quello che fece
Purcell nella spiegazione dell'esperimento di Hanbury Brown.
Fondamentalmente si tratta di individuare quali sono i parametri con
maggiore rilievo statistico, questo pu� essere tradotto quantitativamente
con i metodi di inferenza basati sul teorema di Bayes in misure di indici di
significativit� che spaziano dalla cosiddetta informazione di Fisher,
(indice introdotto fra molte controversie da Frieden, c'� un articolo di
Streater su di lui) alle misure indirette delle propriet� degli attrattori
del sistema. E' interessante per esempio che nel caso di una stella si pu�
imparare molto dalla considerazione di funzioni di correlazione a pi� punti,
riguardo non solo alle dimensioni della stella, ma anche per esempio
riguardo alla sua attivit� ed alle strutture convettive. In tutti questi
contesti svolgono un ruolo chiave una pletora di estensioni della nozione di
entropia.
> Soviet_Mario ha scritto:
> > il discorso spaziale non riesco a capirlo senza ulteriori
> > dati (poi magari nemmeno con, eh ... mah)
> Nemmeno io :-)
> L'ho buttato li' senza pensarci, ma poi mi sono venuti dei dubbi.
> Ma per spiegare i dubbi dovrei scrivere parecchio...
>
> > osservazione stupefacente ! E la butti l� cos� come nulla
> > fosse ? Mi ha sconvolto. Non avevo mai pensato a questo
> > aspetto del problema.
> Che vuoi farci? A me questo e' chiaro da qualche decennio :-)
>
> > Giustissimo. A pensarci a posteriori posso dire che avrei avuto
> > elementi per poterlo almeno sospettare (ad es. so qualcosa dell'albedo
> > e di termodinamica di base), ma non ho mai intuito questo aspetto.
> Lieto di avertici fatto pensare.
> (Pero' guarda che "albedo" e' femminile :-)) )
>
> > Per vedere se ho capito giusto : la terra irradia tanta energia quanta
> > ne riceve ma a distribuzione spettrale molto pi� fredda (quindi
> > equivale a calore a bassa T, ossia pi� disordinato) ... E cos�
> > smaltisce tutta l'entropia comunque prodotta ivi generata.
> Esattamente.
>
> > In fondo non � molto diverso dall'avere una sorgente calda (nel nostro
> > caso con spettro ad "alta" frequenza) e una sorgente fredda (nel caso,
> > il cosmo, freddo), e quindi la terra fa n� pi� n� meno da macchina
> > termica che attinge dalla prima e scarica nell'altra, per chiudere
> > ogni suo "ciclo" interno.
> Non e' molto diverso, ma il bello e' che il tutto funziona con
> processi a bassa temperatura.
> Magie della chimica :-)
>
> Federico ha scritto:
> >> accetto il dQ solo "pro bono pacis" :-)
> > In che senso ?
> Eh eh...
> Nel senso che "dQ" starebbe a indicare un differenziale esatto, il che
> non e'.
> Non si dovrebbe usare quel tipo di simbolo, ne' per il calore ne' per
> il lavoro.
>
> > Vediamo se ho capito: la temperatura e' una grandezza che concorre a
> > parametrizzare stati di equilibrio, dunque niente equilibrio, niente
> > temperatura.
> > ...
> > Solo allora si puo' parlare di temperatura della radiazione.
> OK
>
> > Non comprendo: questo ha attinenza con la formulazione del terzo
> > principio secondo cui nello stato a minima energia l'entropia ha un
> > valore ben definito che dipende solo dalla degenerazione dello stato
> > fondamentale ?
> Ripeto a te la confessione che ho gia' fatto a Soviet_Mario: in quel
> post ho scritto un po' di cose che avrei difficolta' a giustificare
> per bene.
> Non che pensi che sono sbagliate, ma solo che l'esatta giustificazione
> non mi pare immediata. Forse e' come dici tu.
>
> Commento: questo thread promette di essere parecchio stimolante :)
>
>
> --
> Elio Fabri
>
--------------------------------
Inviato via
http://arianna.libero.it/usenet/
Received on Tue Jan 27 2009 - 01:32:02 CET