Master 2018 2019
Stages de la spécialité SAR
Conception automatique en design sonore (scènes sonores, habillages sonores, sonification)


Site : STMS Ircam /équipe Perception et Design Sonores (PDS)
Lieu : IRCAM, Paris - Quelques déplacements à Nantes pendant le stage
Encadrant : - Nicolas MISDARIIS (STMS Ircam-Cnrs-SU, équipe Perception et Design Sonores) nicolas.misdariis@ircam.fr - tel. : 0144781350 - Jean-François PETIOT (LS2N, Ecole Centrale de Nantes) Jean-François.Petiot@ls2n.fr- tel : 0240376959 - Mathieu LAGRANGE (LS2N, Ecole Centrale de Nantes) Mathieu.Lagrange@ls2n.fr- tel : 0240376964
Dates :du 18/02/2019 au 26/07/2019
Rémunération :env. 500 E./mois (+ ticket resto. + transport)
Mots-clés : Parcours ATIAM : Acoustique, Parcours ATIAM : Informatique musicale, Parcours ATIAM : Traitement du signal

Cliquer ici pour vous authentifier


Description

• Description du sujet Que ce soit pour l’amélioration et l’enrichissement de la qualité sonore de lieux publics ou pour la création sonore liée aux media (bande son de films, radio, …) ou aux objets manufacturés, la génération de séquences ou de scènes sonores musicales ou environnementales trouve son utilité dans de nombreux domaines du design sonore. Ce type d’applications peut se formaliser comme une problématique de conception ou de création appliquée sous contraintes, le designer devant satisfaire un cahier des charges défini généralement avec des critères sémantiques (brief design). Dans ce cadre, des outils d’assistance à la composition, voire de composition automatique, peuvent assister le designer par une sélection d’échantillons pertinents et leur organisation, voire la synthèse sonore d’extraits adaptés. Nous proposons lors de ce stage de travailler au développement d’outils et méthodes pour la création sonore participative et interactive. Le travail s’appuiera sur un état de l’art concernant les méthodes de conception automatique pilotées en particulier par les perceptions et les émotions de l’utilisateur. On étudiera particulièrement le Kansei engineering japonais, méthode de conception affective et sensorielle centrée sur les perceptions utilisateur, ainsi que les méthodes interactives, de type IEC (interactive evolutionary computation) basées sur la création de solutions à partir d’évaluation de l’utilisateur.

En termes de méthode de synthèse, les techniques de synthèse neuronale basée échantillon – qui par leur approche novatrice permet de s’affranchir des hypothèses de stationnarité des approches basées trames comme le vocodeur de phase ou la synthèse granulaire – seront privilégiées pour leur qualité de rendu et l’aspect novateur de l’approche. L’application développée sera élaborée en concertation avec le candidat. Elle pourra concerner la problématique de sonification de données, la création d’habillages sonores (composition musicale assistée) pour les lieux de vie ainsi que les problématiques de design acoustique liées à la qualité acoustique perçue de produits.

Il faut noter que le sujet de master est très ouvert et s’établit sur un périmètre qui va au delà de la création assistée sous contraintes. Il nécessite une réflexion générale sur la conception de systèmes intégrant les perceptions de l’utilisateur (facteurs humains en conception de système). Le travail de master pourra se poursuivre par une thèse au LS2N, Nantes, avec un co-encadrement à l’IRCAM.

• Profil recherché Formation en informatique, traitement du signal, et / ou acoustique (une sensibilité aux questions de design et création sonores sera appréciée) Possibilité de thèse de doctorat au LS2N (Nantes) dans la suite de ce sujet.

Bibliographie

Burton A.R., Vladimirova. Generation of musical sequences with genetic techniques. Computer music Journal, 23 :4, pp. 59-73, Winter 1999.

Yanagisawa H., Fukuda S. Interactive reduct evolutional computation for aesthetic design. Journal of computing and information Science in Engineering., Vol 5, march 2005.

Lai H.H., Lin Y.C., Yeh C.H., Wei C.H. User oriented design for the optimal combination on product design. Int. J. Production Economics 100 (2006) 253-267.

Yanagisawa H., Murakami T., Noguchi S., Ohtomi K., Hosaka R. Quantification method of diverse kansei quality for emotional design application of product sound design. Conference DETC 2007, september 4-7, 2007

Van Den Oord, A., Dieleman, S., Zen, H., Simonyan, K., Vinyals, O., Graves, A., ... & Kavukcuoglu, K. (2016). Wavenet : A generative model for raw audio. arXiv preprint arXiv:1609.03499.

Kalchbrenner, N., Elsen, E., Simonyan, K., Noury, S., Casagrande, N., Lockhart, E., ... & Kavukcuoglu, K. (2018). Efficient Neural Audio Synthesis. arXiv preprint arXiv:1802.08435.

Miranda, E. R. (1995). An artificial intelligence approach to sound design. Computer Music Journal, 19(2), 59-75.

Antognini J., Hoffman M., Weiss R. (2018) Synthesizing Diverse, High-Quality Audio Textures : https://arxiv.org/abs/1806.08002

Oord A. , &All WaveNet : A Generative Model for Raw Audio : https://arxiv.org/abs/1609.03499 (Demo :https://deepmind.com/blog/wavenet-g...)