Master 2015 2016
Stages de la spécialité SAR
L’auralisation dynamique pour les simulations numériques en acoustique des salles


Site : LIMSI, Groupe Audio Acoustique
Lieu : Groupe Audio & Acoustique LIMSI, CNRS, Université Paris-Saclay Rue John von Neumann Campus Universitaire d'Orsay, Bât 508 91405 Orsay
Encadrant : Brian FG Katz, Ph.D, HDR Directeur de Recherche, Resp. Groupe Audio & Acoustique
Dates :1/2/2016 au 31/7/2016
Rémunération :oui, suivant la grille standard CNRS
Mots-clés : Master SAR, autre qu’ATIAM, Parcours ATIAM : Acoustique

Description

L’auralisation est une technique pour écouter les simulations numériques. Quand cette technique est combiner avec les mesures ou simulations de l’acoustique des salles, il vient possible d’écouter des lieux historique disparu ou des nouveaux espaces pas encore construit. Traditionnellement, ces simulations sont statiques, avec la source sonore et l’auditeur virtuel immobile.

Ce stage aura comme but d’étudier et mettre en place un « workflow » et architecture pour faire des auralizations dynamique, basé sur des outils existants dans l’équipe d’accueil. Nous prenons le cas d’une source vocale comme point de départ, pour lequel nous sommes intéressé par la dynamique de la directivité lié la parole, mais aussi au mouvement dynamique du locuteur. On peut imaginer la simulation d’un acteur ou chanteur sur scène, une auralization avec un acteur qui parle sur scène avec un retour direct de la salle simulé, où qu’il peut ensuite écouter sa propre voix sur scène depuis d’autres places dans la salle.

Une extension du projet, en prennent en compte les aspects visuelles, ou différents systèmes de rendus (casque vs. réseau d’haut-parleur, écran de projection versus viso-casque) seront aussi intéressant d’étudier dans le contexte d’une auralization vraiment interactive.

Ce projet sera fait dans le contexte d’un projet national, ECHO (https://echo-projet.limsi.fr/) sur l’auralisation des lieux de spectacle historique, mais peu aussi implique des collaborations avec des bureaux d’études en acoustiques, qui sont les plus grands utilisateurs des auralizations aujourd’hui.

En termes de prérequis, une familiarité avec CATT-Acoustics pour la modélisation des salles est obligatoire. Les rendus audio seront développés dans Max/MSP, pour lequel une familiarité est aussi importante. Une connaissance des fondements de l’acoustique des salles, le son binaural, et l’audition spatiale sera un bénéfice.

Indemnités de stage : oui, suivant la grille standard CNRS.

Durée de stage : minimum de 4 mois.

Possibilité de poursuite en thèse : Le sujet port un intérêt pour fait une thèse

Encadrant : brian.katz@limsi.fr

Bibliographie

B. N. Postma and B. F. Katz, “Creation and calibration method of virtual acoustic models for historic auralizations,” Virtual Reality, vol. 19, no. SI : Spatial Sound, pp. 161–180, 2015, doi:10.1007/s10055-015-0275-3.

B. F. Katz, D. Q. Felinto, D. Touraine, D. Poirier-Quinot, and P. Bourdot, “BlenderVR : Open-source framework for interactive and immersive VR,” in IEEE Virtual Reality (IEEE VR), (Arles), pp. 203–204, Mar. 2015.

M. Noisternig, B. Katz, S. Siltanen, and L. Savioja, “Framework for real-time auralization in architectural acoustics,” Acta Acustica united with Acustica, vol. 94, pp. 1000 –1015, 2008, doi:10.3813/AAA.918116.

B. Katz and C. d’Alessandro, “Directivity measurements of the singing voice,” in 19th Intl. Cong. on Acoustics, (Madrid), pp. 1–6, 2007.