Analogico Digitale: andata e ritorno - 7

Teoria e pratica dei convertitori AD e DA - parte 7

di Mario Di Cola e Marta Furlan

 

Eccoci di nuovo e ben trovati. Manca poco per terminare questa breve serie di articoli. A dire il vero i temi veramente complessi sui convertitori iniziano proprio dove questa serie finirà, con il prossimo articolo, ma l’analisi approfondita dei meccanismi di funzionamento dei convertitori AD e DA e delle soluzioni per la loro ottimizzazione diventa materia che deve interessare chi è dedito a progettarli. Lo scopo di questa serie di pubblicazioni è invece quello di fare una panoramica introduttiva, al fine di divulgarne i concetti di base, oltre a quello di incuriosire un po’ chi ha il gusto di approfondire le cose, stimolandolo ad andare alla ricerca di materiale più accurato e dettagliato.

Problemi con l’anti-alias

Le migliorie sui convertitori audio che hanno gradualmente condotto alle tecniche odierne partono da un aspetto a cui abbiamo accennato diverse puntate or sono e di cui, lì per lì, non abbiamo approfondito le relative implicazioni. Dovrebbe essere ormai chiaro che, per avere garantita una conversione del segnale in formato numerico tale da poter contare su una sua reale ricostruibilità senza il rischio di incorrere nel fenomeno dell’alias, bisogna filtrare il segnale in ingresso con un filtro passa-basso. Questo passaggio deve assicurare che il segnale che si appresta ad essere convertito non abbia energia al di sopra della frequenza detta di Nyquist (cioè la metà della frequenza di campionamento). Un filtro molto selettivo posto alla frequenza di Nyquist, o leggermente più in basso, ci permette teoricamente di sfruttare per intero la banda disponibile senza problemi.

Tutto questo sarebbe cosa molto semplice e lineare se esistessero dei filtri ideali che, sopra una certa frequenza, taglino tutto con estrema selettività, che hanno risposta perfettamente piatta in banda e grande attenuazione fuori banda… Magari! Invece, tentando di costruire un siffatto filtro, ci troveremmo subito in una palude di compromessi in cui dobbiamo scegliere tra accettare “ripple” in banda oppure scarse attenuazioni fuori banda; il tutto condito con violenti sfasamenti nell’intorno della frequenza di taglio (dati dagli ordini di filtro necessariamente molto elevati) e scarsa replicabilità per via delle tolleranze dei componenti elettronici.

Ed è proprio questo uno degli aspetti che, più di altri, hanno spinto la tecnologia dei convertitori a mettere in campo ogni tipo di furbizia per aggirare questi problemi. Il principio di base è stato quello di lavorare in maniera un po’ più furba così da ridurre al minimo l’hardware e sostituirlo quanto più possibile con il software, cioè, in questo caso, con elaborazioni numeriche le quali, oltre a costare meno ed ad essere più facilmente integrabili in microchip, hanno anche il vantaggio di essere replicabili con errori molto minori. Per capirci, se un filtro analogico è condizionato dalla precisione dei componenti, che raramente può essere migliore dell’1 %, nel caso delle elaborazioni numeriche si possono facilmente ottenere precisioni nell’ordine dello 0,0001 %.

Il sovracampionamento

Una delle scorciatoie che puntano dritto alla risoluzione del suddetto problema è quella che porta ad elevare notevolmente la frequenza di campionamento (fs) in modo da poter rilasciare significativamente le stringenti richieste che avrebbe un ipotetico filtro anti-alias se la fs fosse posta al minimo possibile teorico. È possibile elevarla al punto che anche un semplice filtro RC può essere più che sufficiente per garantire le necessarie richieste di attenuazione fuori banda.

La tecnica del sovracampionamento, o oversampling, presuppone quindi di utilizzare una frequenza di campionamento di molto superiore al limite di Nyquist imposto dal teorema di campionamento. In questo modo il problema dell’aliasing è sensibilmente ridotto, in quanto le repliche spettrali del segnale campionato risultano ben distanziate.

Prendiamo ad esempio un circuito di conversione A/D per segnali audio realizzato con un filtro anti-alias: se, invece che a 48 kHz, si campionasse il segnale analogico originale, ad esempio, a 480 kHz, allora la nuova frequenza di taglio del filtro passa-basso varrebbe 240 kHz, allargandone sensibilmente la possibile banda di transizione e rendendo così molto più semplice la realizzazione del filtro stesso.

Prima che il segnale sia registrato, la sua frequenza deve essere tuttavia ridotta (con un’operazione che prende il nome di “decimazione”) alla frequenza di campionamento standard di 48 kHz; ciò avviene in pratica mantenendo un campione ogni dieci in modo da riportare il data-rate al valore iniziale.

In realtà si può fare ancora meglio, sfruttando i campioni in eccesso per calcolarne una media aritmetica prima di scartarli. Questo porta anche un altro importante vantaggio: effettuando le media aritmetica tra i campioni ottenuti con il sovracampionamento, si ottiene al tempo stesso una media dell’errore di quantizzazione con il risultato di ottenere un aumento della risoluzione.

Infatti, se si tiene conto che il rumore di quantizzazione è lo stesso, sia che si campioni normalmente o si sovra-campioni, dopo il filtraggio digitale successivo al sovracampionamento si avrà una riduzione del rumore di quantizzazione. Si può dimostrare che il rapporto segnale/rumore aumenta di 3 dB ad ogni raddoppio della frequenza di campionamento; in altre parole, è come se la risoluzione del sistema aumentasse di un bit ad ogni quadruplicazione della frequenza di campionamento.

Il processo di decimazione equivale ad un ri-campionamento del segnale e, affinché il teorema del campionamento sia soddisfatto, occorre filtrare con un filtro anti-alias digitale il segnale (digitale) sovracampionato prima della sua decimazione; per realizzare l’anti-alias digitale, si può usare ad esempio un filtro FIR (Finite Impulse Response), per la sua proprietà di poter avere una pendenza molto elevata unitamente ad una risposta in fase lineare.

Allo stato attuale della tecnologia è molto più vantaggioso, sia in termini di prestazioni che di costi, realizzare un FIR (anche se complesso, ovvero implementato con molti coefficienti e/o con più stadi in cascata) che non un filtro analogico ad alta pendenza.

La fs può essere elevata di un fattore ben maggiore di 10. Ad esempio 128 è un fattore molto utilizzato nei convertitori moderni. Questo fa sì che ad una fs nominale di 48 kHz corrisponda internamente una reale presa dei campioni (prima della decimazione) ad una frequenza superiore ai 6 MHz.

Il punto terminale del nostro cammino, dunque, sarà quello di compiere una panoramica finale su quella che è la tecnica di conversione attualmente più in uso, cioè quella della conversione Sigma‑Delta, che descriveremo nel prossimo articolo.

CLICCA QUI PER ACCEDERE ALLA 8 ED ULTIMA PARTE