Re: tempo, entropia ecc

From: Massimiliano Catanese <radicale.001_at_gmail.com>
Date: Thu, 2 Nov 2023 05:45:39 -0700 (PDT)

Il giorno venerdì 27 ottobre 2023 alle 16:10:06 UTC+2 Giorgio Pastore ha scritto:
> Il 27/10/23 13:25, Massimiliano Catanese ha scritto:
> > Il giorno venerdì 13 ottobre 2023 alle 16:30:04 UTC+2 Giorgio Pastore ha scritto:
> >> Il 13/10/23 12:12, Massimiliano Catanese ha scritto:
> >>> Possiamo introdurre una relazione d' ordine (in senso matematico)
> >>> negli eventi fisici solo grazie all' entropia.
> >> Entropia di che?
> >> A me sembra che di relazioni d'ordine ne puoi inventare quante ne vuoi.
> >> Forse dovresti specificare un po' meglio cosa intendi.
> >>> Pero' l' entropia è un fenomeno probabilistico :
> >> Non in termodinamica. La misuri e di probabilistico non c'é nulla.
> >>> in TEORIA il passaggio
> >>> di un sistema dallo stato S allo stato S' POTREBBE verificarsi con una
> >>> concomitante riduzione dell' entropia.
> >> Anche in pratica e per questo chiedevo entropia di che?
> >
> > Un momento scusa ... Con la massima umiltà che è consona a
> > una schiappa come il sottoscritto :
> >
> > l' entropia la posso misurare sempre. Altrimenti non potrebbe
> > essere un fenomeno osservabile e quindi non potrebbe essere un
> > fenomeno fisico.
> Puoi misurare variazioni di entropia tra stati di equilibrio. Già
> definire l'entropia di uno stato non di equilibrio ti porta fuori dalla
> termodinamica e pone non pochi problemi per trovare una definizione non
> ambigua e utilizzabile.
> > Quindi il fatto che in termodinamica la misuro non è un fatto che
> > possa fungere da discriminante rispetto ai vari concetti di entropia.
> > (che poi, perdonami, sono solo declinazioni diverse dello stesso
> > concetto madre)
> Io direi che le vaie entità battezzate nel tempo "entropia" hanno alcune
> proprietà in comune ma non sono per nulla equivalenti. In particolare
> l'entropia della meccanica statistica per coincidere con quella
> termodinamica richiede alcune precisazioni che svuotano molte
> affermazioni di tipo "probabilistico" di molti aspetti inuituvi rispetto
> alle probabilità.
> >
> > Un gas caldo a contatto con un gas freddo pian piano diviene piu
> > freddo e l' altro piu caldo perchè (secondo la teoria cinetica) le
> > molecole piu veloci urtano contro quelle piu lente ecc ecc non sto
> > a dirti cio che sai 10^15 volte meglio del sottoscritto :-))
> >
> > Se questo è vero, da un punto di vista prettamente teorico i gas
> > potrebbero non urtare MAI tra loro. Urtano solo per un fatto
> > probabilistico perchè la prob. che non urtino mai è zero. Ma noi
> > sappiamo che un evento avente prob. 0 non necessariamente è
> > impossibile.
> Il concetto di molecola e urto NON è un concetto di termodinamica. Stai
> usando la teoria cinetica, se nonla meccanica statistica. Lì certamente
> il concetto di probabilità gioca un ruolo centrale. Ma in termodinamica
> nessuno. Peraltro ci sono sistemi termodinamici in cui, anche a livello
> di modelli microscopici, di urti non c'è traccia. Pensa pes. ad un
> sistema magnetico con la sua transizione para/ferromagnetica.
> >
> > Quindi l' entropia è sempre un fenomeno probabilistico e cio ci
> > riconduce al caso precedente o meglio rende sensata (spero)
> > la mia domanda originaria.
> Ripeto. Di entropie ce ne sono tante. Alcune sono talmente diverse da
> quella termodinamica che si stenta a credere che possano chiamarsi allo
> stesso modo. Ogni entropia ha il suo ambito di applicazione e alcune
> coincidono sotto condizioni ben precise.
>
> L'entropia della meccanica statistica coincide con quella termodinamica
> sotto le condizioni che`;
> 1. esista il limite dell' entropia statistica per grado di libertà
> quando il numero di gradi di libertà diverge (quindi non tutti i sistemi
> interagenti hanno qualcosa che assomiglia all' entropia termodinamica);
> 2. che questo limite goda delle proprietà tipiche dell' entropia
> termodinamica per sistemi "di laboratorio".
>
> La cosa non immediatamente evidente è che se la termodinamica si ritrova
> al limite di sistemi infiniti, nello stesso limite le distribuzioni di
> probabilità diventano mal definite, il "poco probabile" diventa
> praticamente impossibile e molta dell' intuizione basata su sistemi
> finiti diventa inutilizzabile.
>
> Complicato? Non c'è dubbio. Ma la meccanica statistica non è un campo
> facile :-)

Beh ... Se volevi intimidirmi ebbene : ci sei riuscito perfettamente :-))
Ma ora mi sono ripreso dal piccolo trauma che mi hai provocato e allora :

*ANDIAMO AL NOCCIOLO* della questione : di concetti di entropia ce ne
saranno pure 10^32 uno piu complicato dell' altro ma non ha importanza
perchè hanno tutti un fattor comune che è il fatto che in un sistema chiuso
l' entropia non puo' diminuire. E questo non puoi negarlo.

E perchè non puo' ? Perchè la probabilità che un sistema chiuso TORNI ad
uno stato di minor entropia è ZERO. Ma (come dicevo prima) l' evento con
p = 0 non è impossibile (mentre se è impossibile ha p = 0).

Ma considera l' intero Universo (sempre che ce ne sia uno solo : alcuni
pensano che ce ne sia piu d' uno o addirittura infiniti) nel corso del tempo
quanti "esperimenti" riesce a fare (spontaneamente è chiaro).

Sono convinto che in questa caterva INIMMAGINABILE di eventi talvolta è
accaduto anche cio che ha p = 0. Anzi, molte volte e molte volte accadrà.
Received on Thu Nov 02 2023 - 13:45:39 CET

This archive was generated by hypermail 2.3.0 : Fri Nov 08 2024 - 05:10:01 CET