IL “3D AUDIO” reale e virtuale.

Durante la lavorazione di Elettroacqua3d prodotto in collaborazione con il cantautore Marco Di Noia ho avuto l’opportunità di studiare e approfondire concetti relativi alla ricostruzione di ambienti sonori virtuali ascoltabili tramite cuffie e auricolari.

La creazione di ambienti 3d – Audio VIRTUALI prevede l’uso di funzioni di trasferimento denominate “HRTF”: Head Related Transfer Function. In pratica l’orecchio umano localizza un suono, sia fermo che in movimento nell’ambiente, codificando la differenze di fase e di intensità con cui il suono proviene alle orecchie oltre alle riflessioni e rifrazioni del suono nell’ambiente in cui si trova immerso e al filtraggio dei padiglioni auricolari, della testa e del tronco.

La differenza di fase è importante per suoni che abbiano lunghezza d’onda superiore alla grandezza della testa (distanza tra i padiglioni auricolari), mentre per suoni superiori a 1 khz l’orecchio tende a utilizzare principalmente le differenze di intensità. Un altro aspetto che permette la localizzazione è l’effetto DOPPLER che non viene qui considerato in quanto è rilevante esclusivamente per fonti sonore che si muovano ad alta velocità.

Questi algoritmi sono implementati in software di musica elettronica usati in ambito accademico quali Csound.

Allego qui una schermata di una score e una orchestra di Csound che simula il posizionamento dinamico di un suono nello spazio.

Non è stato fornito nessun testo alternativo per questa immagine

L’opcode “hrtfreverb” simula le prime riflessioni (early reflection) del suono nella stanza, tramite le quali siamo in grado di localizzare la provenienza del suono.

Qui trovate i relativi esempi audio: HRTF in Csound

Queste tecniche sono state implementate in alcune DAW commerciali tra cui Logic Pro X. Logic permette di posizionare e muovere una sorgente sonora tramite un panner binaurale (che però non gestisce le riflessioni nell’ambiente).

Non è stato fornito nessun testo alternativo per questa immagine


Alcune aziende hanno prodotto plug-in anche abbastanza sofisticati che gestiscono anche riflessioni e effetto doppler. Segnalo qui Ambeo ORBIT della Sennheiser in quando scaricabile gratuitamente sia per piattaforma windows che MAC. Effetti 3d audio sono molto facilmente ottenibili tramite microfoni per ripresa binaurale.

Non è stato fornito nessun testo alternativo per questa immagine

Ho fatto qualche prova in studio, registrando suoni e rumori di vario tipo, mi sono accorto che l’effetto è più pronunciato in una stanza mediamente riverberante di dimensioni irregolari e con microfono posto vicino a un lato. In questo modo è molto più pronunciato l’effetto delle riflessioni.
Qui potete ascoltare una registrazione effettuata con microfono binaurale, sono io che agito un mazzo di chiavi muovendomi intorno al microfono.

L’uso di queste tecniche grazie anche alla collaborazione di SILENTSY

STEM ha portato al primo live in 3dAUDIO con cuffie wireless.

 

Qualche curiosità:

I primi studi sul binaurale risalgono ai primi decenni del ‘900 e sono citati in un testo FONDAMENTALE della psicoacustica: “Speech and Hearing in communication” di Harwey Fletcher (tutti i fonici conoscono le curve di loudness determinate sperimentalmente da Flether e Munson).

Non è stato fornito nessun testo alternativo per questa immagine

Tra le prime e significative applicazioni pratiche dell’ascolto binaurale c’è la localizzazione degli aerei e dei sottomarini nemici durante la seconda guerra mondiale.

Non è stato fornito nessun testo alternativo per questa immagine

Criticità della ricostruzione di ambienti virtuali 3D

  • Gli algoritmi HRTF sono determinati sperimentalmente e offrono una media di più soggetti o le misurazioni di un singolo soggetto. Ogni essere umano è unico con una forma unica del tronco della testa e soprattutto dei padiglioni auricolari. Non è detto quindi che la simulazione di un ambiente 3D audio abbia lo stesso riscontro in soggetti diversi. A questo proposito, per esempio, nel VR (virtual reality) dei videogiochi viene molto in aiuto l’aspetto visivo per la localizzazione di un suono: ciò che non vediamo viene immediatamente collocato dietro l’ascoltatore. “If I don’t see but hear it, it must be in the back”. 
  • Non è possibile a soggetto fermo e sorgente ferma definire se un suono provenga a 45 gradi (davanti a noi a destra) o a 135 gradi (dietro di noi a destra). Se riusciamo a localizzarlo è perché abbiamo anche altre informazioni non uditive dell’ambiente o della sorgente sonora. La localizzazione avviene tramite rotazione anche minima del capo. Se la sorgente si trova a 45 gradi, muovendo il capo verso destra diminuiranno sia le ITDs (interaural time differences) che la IIDs (interaural intensity differences), ma cosa ancora più importante, girando il capo verso destra il suono arriverà con sempre maggiore coerenza di fase e maggior coerenza spettrale alle due orecchie. Questo semplice esempio ci fa capire che è sempre necessaria una micro oscillazione del capo (o della sorgente) per la esatta localizzazione di un suono fermo.
  • L’orecchio umano, essendo l’uomo un “animale” che vive a terra non è biologicamente adatto a riconoscere suoni sopra di noi o sotto di noi. La ricostruzione sul piano verticale è sempre meno accurata di quella sul piano orizzontale. Questo lo possiamo sperimentare tutti noi quando sentiamo il rumore di un elicottero sopra di noi: è molto difficile che volgiamo lo sguardi in alto e al primo colpo becchiamo l’elicottero!
  • Le differenze di fase, di intensità, di spettro sono spesso minime e possono venire mascherate da altri suoni presenti nell’ambiente. La localizzazione di sorgente singola in ambiente silenzioso è molto più semplice della localizzazione di molteplici sorgenti in ambiente rumoroso.
Condividi

Tags: , ,

Lascia un commento

Devi accedere per lasciare un commento.

Arichivio