Il rumore nelle trasmissioni digitali

Banalizzando un po’, le trasmissioni digitali sono più robuste nei confronti del rumore rispetto alle trasmissioni analogiche, perché i segnali digitali devono riprodurre solo...

di Michele Violarumore

Banalizzando un po’, le trasmissioni digitali sono più robuste nei confronti del rumore rispetto alle trasmissioni analogiche, perché i segnali digitali devono riprodurre solo due stati mentre i segnali analogici devono riprodurne infiniti, cosicché queste ultime sono più sensibili ai disturbi additivi come il rumore.

In parole (molto) povere: un segnale digitale può valere 1 oppure 0, mentre un segnale analogico può assumere tutti i valori all’interno di un dato intervallo di definizione. Quindi un valore pari a 0,18 o 0,2 nel dominio digitale sarà tradotto in ogni caso con 0, mentre nel dominio analogico dovrà rimanere così com’è; analogamente, un valore di 0,8 o 0,85 corrisponderà ad un 1 digitale mentre nel dominio analogico sarà ripreso tale e quale. Questo, almeno a prima vista, sembra significare che nel dominio digitale il rumore debba essere molto più intenso per risultare rilevante.

Ciò è però vero solo entro certi limiti, neppure larghissimi per la verità.

Non è vero, in particolare, che il segnale digitale sia praticamente immune agli effetti del rumore, così come non è generalmente vero che la ricezione digitale sia del tipo “tutto-o-niente”: anche un segnale digitale tende a degradare gradualmente al diminuire del rapporto segnale/rumore sul canale trasmissivo.

Nel seguito tentiamo di addentrarci un po’ nella questione.

 

Il rumore

Il rumore è l’insieme dei segnali indesiderati che si sovrappongono al segnale utile durante la trasmissione. L'andamento del segnale di rumore è solitamente sconosciuto. Se il rumore fosse noto, sarebbe sufficiente sottrarlo al segnale ricevuto per riottenere una copia fedele del segnale trasmesso. Alcune volte questo è possibile, a volte no. Spesso occorre convivere con una certa quantità di rumore non noto e non eliminabile a priori.

Il rumore può essere generato all’interno degli stessi dispositivi elettronici, com’è il caso del rumore termico, dovuto all’agitazione termica delle particelle cariche. L’agitazione termica non è l’unica causa di rumore casuale all’interno dei dispositivi elettronici, spesso non è neppure la più significativa. Altri tipi di rumore provengono, ad esempio, dalle fluttuazioni statistiche di corrente elettrica che avvengono quando i portatori di carica attraversano un gap, come nel caso di un transistor, o un tubo a vuoto, o anche un semplice contatto metallico.

Il rumore può anche provenire dall’esterno delle apparecchiature elettroniche, come nel caso delle interferenze tra diversi segnali o dell’induzione da parte di eventi elettrici vicini e/o relativamente intensi.

In genere il rumore, interno o esterno, è intrinsecamente aleatorio, ovvero è suscettibile di una descrizione prettamente statistica. Generalmente è possibile, su base statistica, caratterizzare il rumore attraverso il suo valore medio (spesso nullo) e la sua potenza.

La potenza di rumore dipende in genere dalla banda considerata. Si può in un certo senso affermare che è possibile rilevare valori del segnale di rumore che si discostano in maniera significativa dal valore medio ma per intervalli di tempo molto brevi (ovvero significativi in alta frequenza). Se i dispositivi interessati alla trasmissione sono in grado di rilevare solo disturbi relativamente lenti, allora saranno meno probabili scostamenti significativi dalla media.

Da notare che, dato un segnale digitale che può assumere solamente i valori 0 e 1, un segnale originario pari a 0 con sovrapposto un rumore di livello pari a 0,6 potrebbe essere erroneamente riconosciuto in ricezione come un 1.

Nel numero scorso abbiamo anche accennato all’effetto deleterio del rumore sul jitter in un canale a banda limitata.

per quanto riguarda le trasmissioni analogiche, un modo per pulire in ricezione un segnale analogico rumoroso è quello di filtrarlo eliminando le componenti di segnale e rumore (ormai indistinguibili) al di fuori della banda utile per il segnale, eliminando gran parte del rumore pur mantenendo l’informazione legata al segnale (all'interno della banda audio) praticamente inalterata.

Il rapporto segnale/rumore

Spesso indicato con la sigla SNR (dall’inglese Signal to Noise Ratio), il rapporto segnale/rumore è un parametro di qualità fondamentale per i sistemi di trasmissione, analogici o digitali. Si tratta del rapporto tra la potenza del segnale originario e la potenza del rumore sovrapposto. SNR deve essere alto, cioè la potenza del segnale deve essere grande rispetto al rumore. Al diminuire del rapporto segnale/rumore si degrada la qualità del segnale ricevuto.

Nel caso di trasmissione di segnali analogici il deperimento del segnale è graduale e il rumore aggiunto è direttamente percepito dall’utente. Al limite, quando il rumore fosse troppo elevato rispetto al segnale, non sarebbe più possibile riconoscere correttamente l’informazione trasmessa.

Nelle trasmissioni digitali, al diminuire del rapporto segnale/rumore cresce la probabilità di ricevere qualche bit errato. Se i bit errati sono pochi il sistema è generalmente in grado di correggerli o, al limite, di chiederne la ritrasmissione. Se i bit errati sono molti allora il sistema comincia gradatamente a perdere qualche campione di segnale qua e là, degradando effettivamente il segnale ricevuto. I campioni perduti possono essere sostituiti con brevissimi tratti di silenzio, oppure possono essere ricostruiti interpolando i campioni precedenti e successivi, anche se la forma d’onda originaria rimane sconosciuta. Questo corrisponde, a tutti gli effetti, a un deterioramento progressivo del segnale. Quando il rapporto segnale/rumore è particolarmente basso, i campioni perduti cominciano a diventare tanti e il deperimento del segnale diventa sempre più evidente, fino ad arrivare, al limite, ad un ammasso informe di click e fruscio.

All’aumentare della distanza di trasmissione, il rapporto segnale/rumore in genere diminuisce perché il segnale viene progressivamente attenuato. È anche vero che il segnale digitale, a differenza del segnale analogico, può essere completamente rigenerato ad ogni tratta minimizzando gli effetti del rumore aggiunto.

Il riconoscimento e la correzione degli errori

È possibile, tramite appropriate codifiche, riconoscere e anche correggere gli errori di trasmissione in un flusso di dati digitali. Un esempio tipico: raddoppiando i bit trasmessi, cioè trasmettendo “00” per 0 e “11” per 1, diventa possibile riconoscere i singoli errori. Nel caso di un errore di trasmissione, infatti, la sequenza ricevuta sarà “01” oppure “10” e questa, non corrispondendo né allo 0 né all’1, potrà essere riconosciuta come errata e scartata. Da notare che un doppio errore in trasmissione (evento in genere assai poco probabile, o comunque molto meno probabile rispetto al singolo errore) porterebbe a una ricostruzione errata del segnale originario.

Triplicando i bit trasmessi, quindi “000” per 0 e “111” per 1, sarà possibile anche correggere con buona probabilità gli errori singoli, nel senso che ricevendo, ad esempio, la sequenza (non corretta) “100” si potrà con buona probabilità di successo supporre che sia stato trasmesso uno 0 (cioè la sequenza “000”) e ci sia stato un errore di trasmissione sul primo dei tre bit. Analogamente la ricezione della sequenza “101” porta a riconoscere la trasmissione di un 1 con un errore sul secondo bit. Anche in questo caso un doppio errore nella trasmissione di un simbolo porterebbe a una ricostruzione errata del segnale originario. Se si rinuncia a correggere gli errori, accontentandosi di riconoscerli, la triplicazione dei bit in trasmissione permette di riconoscere anche i doppi errori, mentre fallirebbe nel riconoscimento dell’eventualità, che può essere resa piuttosto remota, di tre errori contemporaneamente presenti nello stesso simbolo.

Il discorso può proseguire a piacere: con cinque bit uguali per ciascun simbolo sarà possibile correggere i singoli e anche i doppi errori o rilevare fino a quattro errori per simbolo, e così via.

La velocità di trasmissione

Come si è visto poco sopra, le codifiche che permettono il riconoscimento e l’eventuale correzione degli errori di trasmissione si basano più o meno tutte sul concetto di ridondanza, ovvero sul trasmettere la stessa informazione più volte o comunque trasmettere più bit di quelli che sarebbero strettamente necessari per il trasporto dell’informazione da trasmettere su un canale esente da errori. Con una ridondanza limitata sarà possibile riconoscere una certa percentuale di errori, mentre all’aumentare della ridondanza diventa possibile riconoscere o anche correggere più errori con maggiore probabilità di successo.

All’aumentare della ridondanza, però, ovvero all’aumentare del numero di bit da trasmettere per ciascun simbolo, diminuisce il numero di simboli che è possibile trasmettere nell’unità di tempo. In altri termini: se voglio usare un codice molto ridondante, al fine di diminuire gli errori di trasmissione, ho bisogno più tempo per trasmettere le stesse informazioni.

Il teorema della codifica di canale

Questo teorema, dovuto a quell’ingegner Shannon dei Bell Labs e del MIT che tanto ha contribuito allo sviluppo della teoria dell’informazione, lega in maniera rigorosa la massima velocità di trasmissione dei dati attraverso un canale rumoroso al rapporto segnale/rumore sul canale stesso. In altri termini, dato un certo valore del rapporto segnale/rumore in un canale trasmissivo, è possibile determinare matematicamente la massima velocità alla quale è possibile trasmettere dati attraverso tale canale mantenendo la speranza di riconoscere correttamente in ricezione tutti i bit trasmessi.

I sistemi più semplici, come i codici a ripetizione descritti in precedenza, sono metodi di riconoscimento e correzione degli errori piuttosto inefficienti; esistono altri metodi di codifica, più complessi e computazionalmente onerosi, che permettono di avvicinarsi significativamente al limite di Shannon.

Per trasmettere un flusso audio stereo a 24 bit/48 kHz servono poco più di 2,3 Megabit/s di informazione, oltre alla ridondanza. Il rapporto segnale/rumore sul canale deve essere tale da permettere tale velocità di trasmissione. Se il rapporto segnale/rumore sul canale trasmissivo è troppo basso occorre limitare la banda, diminuendo risoluzione e/o sample rate, oppure rassegnarsi a perdere qualche campione ogni tanto, degradando in ogni caso la qualità del segnale.

Clicca qui per accedere alla galleria fotografica
(12 Foto)