Audio networking - Prima Parte

Qualche anno fa, in occasione di un fortunato seminario proposto da Sound&Lite in collaborazione con varie aziende di settore sul tema dell’audio networking, abbiamo avuto occasione di trattare il tema del trasporto audio in rete; da allora sono passati dieci anni e la tecnologia ha compiuto indubbiamente alcuni significativi passi avanti.

di Michele Viola

cat-5Qualche anno fa, in occasione di un fortunato seminario proposto da Sound&Lite in collaborazione con varie aziende di settore sul tema dell’audio networking, abbiamo avuto occasione di trattare il tema del trasporto audio in rete; da allora sono passati dieci anni e la tecnologia ha compiuto indubbiamente alcuni significativi passi avanti.

Il trasporto audio digitale è sempre più utilizzato, ad esempio, come metodo predefinito di trasmissione dei segnali per gran parte delle console digitali più recenti.

Tra i vari metodi di trasporto audio utilizzati, l’interesse per i metodi in grado di sfruttare le comuni tecnologie di rete, come cavi CAT5, switch e router, è già da anni in costante aumento. I motivi sono abbastanza ovvi, mi pare: la possibilità di sfruttare il cablaggio strutturato esistente (o predisposto) per il trasporto dei segnali audio/video all’interno di un edificio o di un campus è senz’altro allettante da diversi punti di vista (economico, organizzativo, ...). Per quanto riguarda il settore live/touring, trasportare e stendere una coppia di cavi CAT5 è sicuramente più semplice rispetto all’utilizzo di uno snake da 90 kg.

A questo si aggiunge il tumultuoso sviluppo delle tecnologie connesse, grazie alla notevole spinta proveniente dal mercato commerciale.

La capacità di trasporto nominale delle reti Ethernet è cresciuta dai 10/100 Mb/s di dieci anni fa fino agli attuali 10/100 Gb/s, con la standardizzazione della modalità a 400 Gb/s da parte di IEEE attesa per il 2018. Le infrastrutture oggi più comuni, anche in ambienti non troppo sofisticati dal punto di vista tecnologico, permettono lo scambio di dati in rete locale a velocità di 1 Gb/s (1000BASE-T).

I vantaggi associati al trasporto audio digitale sono diversi, così come gli svantaggi, rispetto ai ‘tradizionali’ sistemi di trasporto analogici.

Tra le principali criticità del trasporto digitale c’è, ad esempio, la latenza; anche se il problema è certamente molto inferiore rispetto a quello che poteva essere qualche anno fa, non si può dire che sia stato completamente risolto.

Un altro problema, forse ancora più sentito, è la carenza di interoperabilità: ciascun costruttore tende ad implementare i propri metodi per risolvere le esigenze legate alla comunicazione e al trasporto dei segnali tra le varie parti del sistema.

La standardizzazione è auspicata a vari livelli, principalmente perché può migliorare l’interoperabilità e portare, di conseguenza, al risparmio di risorse. In sede di rinnovo del parco macchine, ad esempio, sarebbe molto comodo (nonché economicamente vantaggioso) riuscire a mantenere la completa interoperabilità tra le varie parti del sistema. Questo potrebbe avvenire se il protocollo di comunicazione fosse standard. Per il momento, occorre fare attenzione a non uscire dal gruppo di dispositivi intercompatibili scelto inizialmente, e/o accontentarsi di una comunicazione parziale.

Anche agli albori dell’analogico, per altro, la carenza di standard implicava la scarsa interoperabilità tra i dispositivi. Si trattava, perlopiù, di adattare la trasmissione a livello fisico (livelli, connettori, polarità, ...); adesso la situazione, per diversi motivi, è un po’ più complessa.

Attualmente è sempre più sentita, da parte dei professionisti audio/video, l’esigenza di approfondire le tematiche legate al settore IT. Non è generalmente troppo complesso comprendere le basi delle tecnologie sottostanti le comunicazioni via rete, anche senza necessariamente diventare esperti nel settore.

Vale la pena notare che alcuni metodi, anche standard, pur utilizzando alcune delle tecnologie alla base del networking, non si possono annoverare tra le tecnologie di networking vere e proprie ma sono piuttosto dei sistemi di trasmissione dati punto-punto. AES50, ad esempio, utilizzato da Midas e Klark Teknik (SuperMAC), è essenzialmente un protocollo di trasmissione punto-punto che viaggia su cavo CAT5 come i segnali di rete Ethernet e condivide con Ethernet diverse caratteristiche, a livello fisico ed anche a livello logico, ma non permette di usare direttamente le macchine standard per il routing dei segnali, come quelle che si possono trovare in uffici e centri direzionali, prevedendo invece, in caso di necessità, sistemi di routing dedicati come Midas DL461 o DL371.

Esistono oggi diversi sistemi che, sopportando qualche generalmente accettabile compromesso, permettono di trasportare con performance soddisfacenti segnali audio/video sulle infrastrutture di rete, compresi cavi, switch e router comunemente disponibili.

Come funziona

La tecnologia di rete, per come è nata ed evoluta, frammenta i dati in “pacchetti”, aggiunge a ciascun pacchetto un’intestazione (ed eventualmente una coda) con gli indirizzi del mittente e del destinatario ed alcune altre informazioni, e trasmette questi pacchetti su un mezzo fisico che si presuppone condiviso e poco affidabile. La tecnologia in sé, dal punto di vista fisico e funzionale, non assicura né il corretto ordine di arrivo, né l’istante di arrivo di ciascun pacchetto. Sarà compito del ricevente ricomporre i dati nel giusto ordine, in base alle informazioni contenute nell’intestazione del pacchetto, mentre sono demandate agli specifici protocolli di trasporto la verifica di correttezza (da parte del ricevitore) e l’eventuale ritrasmissione dei pacchetti persi o danneggiati (dietro richiesta esplicita del ricevitore, o in seguito ad una conferma di ricezione mancante). Per quanto riguarda il tempo di trasmissione dei pacchetti, la maggior parte di questi giungerà a destinazione in un tempo breve o brevissimo, ma comunque non completamente determinato.

I dati digitali che rappresentano un segnale audio vanno posti in sequenza con tempistiche assolutamente determinate. Gli errori di posizionamento temporale dei campioni determinano un’incertezza, chiamata jitter, che può influire significativamente sulla qualità del segnale riprodotto. Per ovviare all’incertezza sugli istanti di ricezione, le macchine nella catena devono utilizzare un meccanismo chiamato buffering: i dati ricevuti vengono memorizzati in un’apposita zona di memoria man mano che arrivano, e da questa memoria vengono estratti in sequenza con la temporizzazione esatta. Se un dato tarda ad arrivare, il buffer si svuota un po’, se invece un gruppo di dati arriva più velocemente il buffer si riempie un po’, mentre i campioni vengono estratti dal buffer con regolarità per ricostruire lo streaming con le tempistiche corrette.

L’incremento di banda passante a cui abbiamo assistito negli ultimi anni, da 10/100 a Gigabit Ethernet, porta con sé un analogo potenziale incremento in termini di numero di canali o in termini di sample rate ma non comporta automaticamente una diminuzione della latenza associata al collegamento.

La latenza del sistema di trasmissione non è tanto determinata dal tempo di trasporto, anche se per distanze veramente lunghe questo potrebbe non essere trascurabile (stiamo parlando di velocità dell’ordine di grandezza della velocità della luce), ma piuttosto dalle dimensioni dei buffer. Incertezze maggiori sui tempi di trasporto comportano dimensioni maggiori dei buffer e, di conseguenza, latenze più elevate.

L’implementazione di AES50 di Midas, per esempio (che, ricordo, non è una tecnologia di rete ma è un collegamento punto-punto), assicura una latenza di 62,5 µs per collegamento; lo scheduler di Windows, d’altra parte, esegue le operazioni richieste al sistema operativo dai driver di rete con un’accuratezza temporale tipica di ±10 ms, cioè oltre 160 volte maggiore, e l’ordine di grandezza è lo stesso per tutti i sistemi operativi commerciali più diffusi. Questo comporta la necessità di utilizzare buffer dello stesso ordine di grandezza, ad esempio nel caso di attraversamento di una macchina che realizzi lo smistamento dei pacchetti esclusivamente via software. Una latenza dell’ordine della decina di millisecondi renderebbe però il sistema praticamente inutilizzabile, ad esempio, per applicazioni di in-ear monitoring.

Un’interfaccia con una base dei tempi accurata, quindi, permette di servire reti di trasporto dati con richieste in termini di latenza più stringenti, ovvero con latenza inferiore, rispetto ad una macchina meno precisa dal punto di vista temporale.

Per lo stesso motivo, spesso non è possibile utilizzare tecnologie di trasmissione in rete wireless per le applicazioni più esigenti, a causa dell’inevitabile maggiore incertezza sulla trasmissione.

Ethernet è nata come protocollo di comunicazione su un mezzo condiviso, sul quale sono possibili collisioni che vanno gestite con un protocollo dedicato che si chiama CSMA/CD, acronimo in lingua inglese che sta per Carrier Sense Multiple Access with Collision Detection. In pratica ciascuna macchina, quando desidera trasmettere un messaggio, lo trasmette e contemporaneamente resta in ascolto sul canale di trasmissione: se quanto rileva coincide con quanto trasmesso allora è probabile che la trasmissione sia andata a buon fine; se invece il segnale rilevato è indecifrabile, o comunque non coincide con il segnale trasmesso, significa che qualche altro dispositivo ha cercato di trasmettere un suo messaggio nello stesso istante e si è quindi verificata una “collisione”. Il trasmettitore considererà quindi la trasmissione come non riuscita, attenderà un tempo random e poi ritenterà l’invio dei dati con le stesse modalità. È necessario che il tempo che intercorre tra due tentativi successivi di trasmissione sia casuale, perché se fosse determinato (previsto dallo standard, in qualche modo) lo sarebbe per entrambe le macchine e la successiva ritrasmissione non produrrebbe altro che un’ulteriore collisione. Da notare che, anche nel caso in cui non vengano rilevate collisioni, non è detto che la trasmissione sia andata a buon fine: nel caso di reti geograficamente molto estese, ad esempio, la collisione potrebbe avvenire dopo che il trasmettitore ha finito di trasmettere il messaggio, durante la propagazione o nei pressi del ricevitore remoto.

Per quanto riguarda le reti cablate, già  da anni il problema delle collisioni è stato praticamente risolto. Le diverse macchine di ciascuna sottorete sono infatti connesse tramite switch, dispositivi multiporta in grado di smistare ciascun pacchetto solamente sulla linea indirizzata verso la macchina destinataria dello stesso. Ogni macchina è collegata ad una porta dello switch. In questo modo le collisioni sono praticamente annullate, almeno per quanto riguarda la trasmissione dei pacchetti di tipo unicast (cioè da un mittente ad un solo destinatario). Per quanto riguarda invece le trasmissioni wireless, il wi-fi per intenderci, il problema del mezzo condiviso necessariamente rimane, e anche il rilevamento delle collisioni può presentare dei problemi perché una macchina trasmittente potrebbe, all’atto della trasmissione, non rilevare una collisione che si verificherà successivamente, nei pressi del ricevitore, oppure la trasmissione interferente potrebbe non raggiungere il primo trasmettitore per ragioni di portata del collegamento, ma comunque produrre un’interferenza significativa nei pressi del ricevitore. Per instaurare un canale di trasmissione affidabile occorrerà quindi, in ogni caso, prevedere un meccanismo di acknowledgement, ovvero di conferma di ricezione, che comunque richiede tempo e risorse.

TCP/IP, lo stack di protocolli di rete su cui si basano Internet e la maggior parte delle reti dati, prevede, a livello di trasporto, un protocollo detto UDP che, al contrario di TCP, non esegue il controllo d’errore sui frame ricevuti e non ne richiede la ritrasmissione in caso di problemi, limitandosi a ricomporre in sequenza i frame che arrivano. Dato che, in realtà, il trasporto dei dati AV in rete locale è piuttosto affidabile, a meno di problemi grossolani, i dati ricostruiti sono generalmente presenti quasi tutti, almeno in reti non troppo estese e con dispositivi e cavi di qualità decente. Il protocollo UDP è quindi senz’altro preferito, rispetto a TCP, per il trasporto di dati multimediali.

Il discorso, come vedete, inizia a farsi interessante...

 

Vuoi saperne di più sulle nostre pubblicazioni nel settore dell'audio professionale? CLICCA QUI.

Vuoi restare sempre aggiornato sulle ultime novità di settore? ISCRIVITI ALLA NOSTRA NEWSLETTER.