Master 2015 2016
Stages de la spécialité SAR
Rendu 3d Dynamique du Chant Numerique


Site : Groupe Audio & Acoustique, LIMSI
Lieu : Groupe Audio & Acoustique LIMSI, CNRS, Université Paris-Saclay Rue John von Neumann Campus Universitaire d’Orsay, Bât 508 91405 Orsay
Encadrant : olivier.perrotin@limsi.fr & brian.katz@limsi.fr
Dates :02/2015 au 07/2015
Rémunération :Oui, suivant la grille standard CNRS.
Mots-clés : Master SAR, autre qu’ATIAM, Parcours ATIAM : Acoustique, Parcours ATIAM : Traitement du signal

Description

Contexte : Les recherches sur le chant numérique effectuées au sein du LIMSI ont permis de développer deux instruments de musiques numériques : Cantor Digitalis (https://cantordigitalis.limsi.fr) et en suite Calliphony [5]. Les travaux de recherche importants sur les moteurs de synthèse mis en jeu dans les instruments [1,2] ainsi que sur les interfaces de contrôle [3] ont permis le développement d’instruments de qualité. Néanmoins, les aspects de restitutions sonore ont très peu été abordés dans ce contexte [3]. Parallèlement, les recherches sur le rayonnement vocal effectuées ont permis de mesurer précisément le champ sonore rayonnant d’un locuteur pour tous les diphones du français [4]. Il a été montré que le rayonnement n’est pas isotrope et dépend du phonème prononcé. Les mesures ont été analysées mais jamais utilisées pour de la synthèse. Objectifs : L’objectif de ce stage est l’établissement et l’évaluation de l’apport du rayonnement dynamique de la voix chantée mise en évidence via un rendu sur réseau d’haut-parleur contrôlé sur la perception, l’appréciation et la compréhension de la performance musicale. Il s’agit de développer un moteur de rendu de la directivité de la voix à partir des données récoltées précédemment [4]. Celui-ci prendra en entrée les paramètres d’articulation et d’orientation du chanteur fournis par l’instrument chanteur et fournira en sortie un ensemble de paramètres pour piloter un réseau d’haut-parleurs incrusté sur un panneau. Ce projet sera fait dans le contexte d’un projet d’action incitative au laboratoire. Le stage sera accompagné en parallèle par des travaux au laboratoire autour d’un rendu d’image synchronisée, projeté sur la surface du panneau, aussi piloté par les mêmes paramètres. Cet avatar virtuel sera développé sur la plateforme BlenderVR. Les interactions entre le travail du stage et le projet d’avatar ne sont pas exclues. Détail du travail à réaliser :
-  Installation du réseau de haut-parleurs
-  Développement du moteur de rendu de la directivité de la voix
-  Collaborer sur des liens entre paramètres des différents modules pour un système audio fonctionnant en temps réel, cf. schéma
-  Participer aux évaluations perceptives de l’apport des rendus sonores et visuels et performances avec le Chorus Digitalis (https://cantordigitalis.limsi.fr/ch...) Prérequis : une familiarité avec l’acoustique et les principes du rayonnement est obligatoire. Les traitements audio seront développés en Matlab et Max/MSP, pour lesquels une familiarité est aussi importante. Indemnités de stage : oui, suivant la grille standard CNRS. Durée de stage : minimum de 4 mois, jusqu’à fin juillet Possibilité de poursuite en thèse : Le sujet porte un intérêt pour faire une thèse

(https://groupeaa.limsi.fr/_media/st...)

Bibliographie

[1] Sylvain Le Beux : Contrôle Gestuel de la Prosodie et de la Qualité Vocale. Thèse de doctorat, Université Paris-Sud, 2009. [2] Lionel Feugère : Synthèse par règles de la voix chantée contrôlée par le geste et applications musicales. Thèse de doctorat, Université Pierre et Marie Curie (UPMC), Septembre 26, 2013. [3] Olivier Perrotin : Chanter avec les mains : Interfaces chironomiques pour les instruments de musique numériques. Thèse de doctorat, Université Paris-Sud, 2015. [4] B. Katz and C. d’Alessandro, “Directivity measurements of the singing voice,” in 19th Intl. Cong. on Acoustics, (Madrid), pp. 1–6, 2007 [5] S. Le Beux, A. Rilliard, & C. d’Alessandro : Calliphony : a real-time intonation controller for expressive speech synthesis. In 6th ISCA Workshop on Speech Synthesis, pp. 345-350, 2007.