Re: MQ: manca una descrizione matematica dell'atto di misura?

From: Elio Fabri <elio.fabri_at_fastwebnet.it>
Date: Fri, 25 Sep 2020 11:32:07 +0200

In questa discussione si sono intrecciati diversi aspeti e temi che
sarebbe bene tenere distinti.
Cerco di dare un contributo in questo senso.

1. Numeri pseudocasuali e loro verifica.
Preciso subito che le mie conoscenze in materia sono una piccola parte
di quello che c'è nel vol. 2 di "The Art of Computer Programming" di
Knuth.
Il cap. 3 (150 pagine) tratta l'argomento.
Dico una piccola parte per ragioni di memoria: ho la seconda edizione,
del 1980, acquistata nel 1981; e anche ammesso che quando lo lessi,
più o meno a quei tempi, avessi capito tutto, oggi mi è rimasto assai
poco.
Si potrebbe anche pensare che nei 40 anni trascorsi le conoscenze in
materia siano avanzate, ma io non ne ho idea.

Quello che credo di ricordare bene è che un algoritmo di generazione
di n. pseudocasuali può essere assai difettoso, e non solo per la
periodicità.
Intanto la periodicità credo sia sempre assai più breve del limite
dato (come scrive GB) dalla finitezza del computer.
Anche considerando solo la RAM, e assumendo che sia piccola, diciamo 1
GB, ossia circa 10^10 bit, e assumendo una frequenza di generazione di
10^10 numeri/s (esagerata), dato che gli stati sono 2^(10^10) =
10^(3*10^9), se il periodo fosse questo, sarebbe di 10^(3*10^9 - 10)
secondi.
Da cui si vede una cosa curiosa: la velocità del computer è l'ultima
delle preoccupazioni, visto che conta come 10 rispetto a 10^9 :-)

Ma non è così: l'algoritmo si può ripetere con frequenza assai più
"umana" (si fa per dire: intendo testabile da un computer :-) ).
Sicuramente Knuth fa degli esempi, ma non ricordo.
Ma c'è dell'altro: una successione di n. pseudocasuali può essere
scadente anche senza essere di breve periodo; per es. se ci sono
correlazioni tra numeri successivi o magari parecchio distanziati ma
abbastanza da avere effetti in certe applicazioni.
Di qui la difficoltà della verifica: che cosa bisogna verificare?
Anche qui rimando a Knuth perché non so fare esempi concreti.

2. Causalità di fenomeni "casuali" naturali.
Intanto mettiamo in chiaro una cosa: la casualità di un fenomeno
naturale non è necssariamente un effetto quantistico.
Un esempio che avete considerato è il "rumore" nei ciruiti eletronici.
Ci sono varie sorgenti di rumore, ma consideriamo il più comune: il
rumore termico.
Si tratta di un effetto quantistico?
Bisognerebbe dire "dipende", ma posso asserire che nella quasi
totalità degli strumenti elettronici la riposta è no.

Qui debbo aprire una parentesi sulla teoria del rumore termico. Se
aprite un libro di elettronica troverete la famosa formula di Nyquist.
Potete trovare trattata la questione all'articolo "Johnson-Nyquist
Noise" in wikipedia. E al par. "Quantum effects at high frequencies or
low temperatures" ci trovate anche la risposta circa il carattere
quantistico o no del rumore.
Qui faccio un veloce riassunto.

Il teorema di Nyquist dice che la potenza del rumore è data da
4kT*B
dove k è la costante di Boltzmann, T la temp. assoluta, B la
larghezza di banda interessata.
Se la formula è valida, di tratta di un romore bianco, ossia con
spettro uniforme sulla frequenza.
In realtà si sa di più: è un rumore bianco *gaussiano*, ma non
insisto.

Il fatto che nella formula non compaia la costante di Planck già
dimostra che non si tratta di un fenomeno quantistico.
In realtà la formula cade in difetto se non è soddisfatta la
condizione hf << kT.
A temp. ambiente questa fornisce f << 250 THz e dimostra che anche
l'elettronica più veloce, a parte esperimenti appositamente condotti
per generare frequenze non lontane da quelle della luce visibile,
soddisfa ampiamente la condizione.

La situazione è del tutto analoga a quella in cui si pone, per la
radiazione nera, il limite di Rayleigh-Jeans rispetto alla formula di
Planck.
Si vede però una differenza: la legge di R-J dà una distribuzione
spettrale che va come f^2, mentre la legge di Nyquist dà una distr.
costante in frequenza. Come mai?
La risposta è che la legge di R-J considera radiazione nera nello
spazio 3D, mentre la legge di Nyquist assume propagazione
unidimensionale (es. un cavo coassiale).
In 3D il n. di modi normali della radiazione in un intervallo df di
frequenze cresce come f^2, mentre in 1D è uniforme.

Conclusione: a parte casi eccezionali, il rumore termico è quello
dovuto a una radiazione e.m. *non quantizzata*.
Quindi non ha niente a che fare con la "causalità quantistica".

3. Determinismo e casualità.
Grossa questione, da filosofi della scienza (a patto che sappiano
parecchio di fisica :-) ).

3.1 Il caos deterministico.
Il primo tema che viene in mente è il "caos deterministico".
Anche qui, riassumo le poche cose che so.
Un sistema meccanico definito secondo la meccanica classica è
*deterministico*: date le condizioni iniziali a un istante t0, il suo
stato (posizioni, velocità) è completamente determinato a qualsiasi
altro istante.
Tuttavia c'è un fenomeno la cui scoperta risale nel modo più generoso
a 120 anni fa, ma nella visione generale a forse 60 anni fa.
(Badate che la parola "fenomeno" non è qui usata nel senso della
fisica sperimentale: in effetti il caos deterministico è un fenomeno
esclusivamente matematico, non legato a condizioni fisiche
particolari, ma solo alla natura delle equazioni che reggono il
sistema.

Detto nei termini più semplici possibili, si tratta della
"sensibilità" alle condizioni iniziali".
Che detto così non spiega niente...
In termini più precisi, accade che per qualunque sistema meccanico,
tranne i più semplici o particolari (es. sistemi lineari) si dimostra
che una variazione delle condizioni iniziali produce variazioni dello
stato a un tempo diverso che diventano grandi a piacere, con un
andamento tipicamente esponenziale nel tempo.
Più esattamente ancora, questa variazione è determinata da un tempo
caratteristico tau, detto "tempo di Liapunov", nel senso che se Dx(t0)
è la distanza in senso astratto (nello spazio delle fasi) all'istante
iniziale tra due diverse condizioni iniziali, la distanza degli stati
a un tempo t è tipicamente Dx(t) = Dx(t0) * exp((t-t0)/tau).
(Attenzione, questa descrizione è tutt'altro che precisa, ma ci sno
dei limiti su quello che si riesce a dire in un NG.)

Qui nasce un vero problema: possiamo dire che dunque anche la
meccanica classica risulta di fatto non deterministica?
Oppure l'indeterminatezza è solo soggettiva, in quanto derivante
dall'incertezza nella conoscenza delle condizioni iniziali?
O ci sono altre risposte?

Comunque, nel gergo dei filosofi della scienza, questa è una
probabilità "epistemica", in quanto deriva da insuff. conoscenza del
sistema.
Vedremo fra un attimo la differenza col caso quantistico.

3.2 La meccanica quantistica.
La differenza è netta, in quanto qui non ci sono possibilità di
restringere l'incertezza affinando le conoscenze (come nel caso
determ.)
Nel caso quantistico se abbiamo un sistema posto in uno stato
determinato, una misura di gran parte delle osservabili non fornisce
un risultato certo.
Nel senso che se si riproduce *lo stesso stato* e si ripete *la stessa
misura* il risultato sarà in generale diverso, e non di poco.
Non c'è nessun modo di ridurre questa incertezza del risultato: la
teoria è solo capace di precisare la probabilità dei possibili
risultati (autovalori dell'osservabile).

I tentativi di ridurre anche questo caso sotto l'etichetta epistemica,
assumendo l'esistenza di "variabili nascoste", si sono scontrati prima
contro un risultato teorico (disuguaglianza di Bell) e poi contro
verifiche sperimentali: il teorema di Bell dice che in presenza di
variabili nascoste certi parametri statistici relativi alle misure
debbono soddisfare una data disuguaglianza, e ormai si sono
moltiplicati gli esperimenti in cui la disuguaglianza è stata violata.
Quindi siamo stati costretti a ricnoscere che nel caso quantistico
l'intervento della probabilità è *non epistemico*, ossia non derivante
da insuff. conoscenza da parte dello sperimentatore sullo stato del
sistema.

El Filibustero:
> soggettivamente, non ho informazioni che mi
> consentano di fare previsioni deterministiche, differentemente...
Primo: a me pare inappropriato usare il termine "soggettivo" per
qualcosa che ha carattere universale che più non si può.
Secondo: il punto è che in questo caso _as far as we know_ l'algoritmo
non esiste, non esiste il Tizio in grado fare previsioni
deterministiche. Le violazioni della disug. di Bell parlano in questo
senso.
Naturalmente non è possibile confutare un Sempronio che insista:
quello che non sappiamo oggi, lo sapremo domani. O lo sapranno i
nostri discendenti...

Il fatto rilevante per un fisico è che oggi (in realtà da un secolo)
abbiamo una teoria (la m.q.) che non solo asserisce l'impossibilità di
trovare l'algoritmo, ma al tempo stesso è anche una teoria positiva.
Questo viene trascurato troppo spesso.
La m.q. ha rivoluzionato il mondo, perché ha spiegato una quantità di
fatti e fenomeni, e di conseguenza ha permesso di progettare congegni,
applicazioni di grandissima portata...
In questo senso i fisici considerano la m.q. una teoria *vera* (ferma
restando, in modo banale, la possibilità di falsificazioni future).
Quindi ha senso, in questo preciso senso, dire che l'indeterminismo
della m.q. è *non epistemico*.
Se qualcuno in futuro scoprirà il contrario, staremo a vedere.
Ma rifiutare oggi questo punto di vista solo sulla base di convinzioni
personali che hanno solo il valore di un atto di fede, non mi pare
molto scientifico.
Chi sa e può, costruisca una teoria alternativa e la metta alla prova
dell'esperienza. Solo allora potremo discutere.

-- 
Elio Fabri
Received on Fri Sep 25 2020 - 11:32:07 CEST

This archive was generated by hypermail 2.3.0 : Sat Jan 04 2025 - 04:23:27 CET