On 10/11/2019 00:43, JTS wrote:
> Questo non lo capisco per nulla. Il rumore termico dipende dalla
> temperatura della resistenza, come fa un ricevitore ad avere una
> temperatura equivalente piu' bassa?
Il ricevitore ha una temperatura piu` bassa di quella ambiente perche'
all'ingresso non c'e` un resistore ma tipicamente una rete LC, che non
genera rumore, e un dispositivo attivo (transistore) che genera rumore,
ma non per effetto Johnson (termico).
Per il resto non saprei rispondere, non sono sicuro di capire a che cosa
ti riferisci, mi verrebbe da dire che pensi a una codifica PAM, in cui
ogni simbolo (che porta piu` bit) e` codificato da una ampiezza, e
misurando l'ampiezza riesci a ricavare un certo numero di bit che
dipende dal rumore aggiunto sull'ampiezza. Questa e` la posizione da cui
erano partiti Shannon e Hartley, che pensavano in termini "analogici" e
calcolavano il contenuto di informazione.
Anche quando dici di fare molte misure dello stesso bit, sembra che
voglia usare uno stimatore lineare per stimare l'ampiezza del simbolo.
Pero` devi ripetere la trasmissione dello stesso simbolo piu` volte, per
poter fare misure statisticamente indipendenti. In questo modo migliori
la stima dell'ampiezza, ma "perdi tempo" cioe` diminuisci il rateo di
informazione perche devi ripetere piu` volte il messaggio.
Qui trovi un grafico che ha in ascisse il rapporto energia per bit
(Eb)diviso per la densita` spettrale di potenza del rumore, e in
ordinate l'efficienza di banda, calcolata come bit al secondo ottenibili
per hertz di banda.
https://i1.wp.com/www.gaussianwaves.com/gaussianwaves/wp-content/uploads/2012/04/shannonlimit_mod2.gif?ssl=1
I vari punti rappresentano il comportamento di varie modulazioni (non
codifiche!) per una probabilita` di errore di 10^-5.
Se al posto di mandare solo i bit di informazione aggiungi anche dei bit
di ridondanza, puoi migliorare le cose. Ad esempio se ripeti tre volte
lo stesso bit e in ricezione decidi a maggioranza, riduci la
probabilita` di errore, ma la velocita` viene divisa per 3. Con i numeri
di prima al posto di avere una probabilita` di errore di 10^-5 ottieni 3
10^-10.
Se si fanno codifiche piu` astute, si possono aggiungere relativamente
pochi bit di ridondanza e migliorare di molto la probabilita` di errore.
Se ti accontenti sempre della stessa probabilita` di errore e hai
aggiunto pochi bit, puoi aumentare di nuovo la velocita`, in pratica
diminuisci l'energia per simbolo, finche' torni a 10^-5 di probabilita`
di errore, ma vai piu` in fretta.
Con i turbocodici e quelli a parita` sparsa, al posto di avere dei punti
come nel grafico, ti puoi spostare a sinistra fino a circa mezzo decibel
o meno dalla curva limite.
--
Franco
Wovon man nicht sprechen kann, darüber muß man schweigen.
(L. Wittgenstein)
Received on Tue Oct 15 2019 - 07:52:24 CEST