IL “3D AUDIO” reale e virtuale.
22 Marzo 2019Durante la lavorazione di Elettroacqua3d prodotto in collaborazione con il cantautore Marco Di Noia ho avuto l’opportunità di studiare e approfondire concetti relativi alla ricostruzione di ambienti sonori virtuali ascoltabili tramite cuffie e auricolari.
La creazione di ambienti 3d – Audio VIRTUALI prevede l’uso di funzioni di trasferimento denominate “HRTF”: Head Related Transfer Function. In pratica l’orecchio umano localizza un suono, sia fermo che in movimento nell’ambiente, codificando la differenze di fase e di intensità con cui il suono proviene alle orecchie oltre alle riflessioni e rifrazioni del suono nell’ambiente in cui si trova immerso e al filtraggio dei padiglioni auricolari, della testa e del tronco.
La differenza di fase è importante per suoni che abbiano lunghezza d’onda superiore alla grandezza della testa (distanza tra i padiglioni auricolari), mentre per suoni superiori a 1 khz l’orecchio tende a utilizzare principalmente le differenze di intensità. Un altro aspetto che permette la localizzazione è l’effetto DOPPLER che non viene qui considerato in quanto è rilevante esclusivamente per fonti sonore che si muovano ad alta velocità.
Questi algoritmi sono implementati in software di musica elettronica usati in ambito accademico quali Csound.
Allego qui una schermata di una score e una orchestra di Csound che simula il posizionamento dinamico di un suono nello spazio.
L’opcode “hrtfreverb” simula le prime riflessioni (early reflection) del suono nella stanza, tramite le quali siamo in grado di localizzare la provenienza del suono.
Qui trovate i relativi esempi audio: HRTF in Csound
Queste tecniche sono state implementate in alcune DAW commerciali tra cui Logic Pro X. Logic permette di posizionare e muovere una sorgente sonora tramite un panner binaurale (che però non gestisce le riflessioni nell’ambiente).